با این حال، به تازگی «گری ایلیز» (Gary Illyes) به عنوان تحلیلگر وبمستر گوگل طی رویداد Google Search Central Live در سنگاپور ادعای عجیبی کرده است. به گفته او ۶۰ درصد از کل اینترنت را محتوای تکراری در بر میگیرد. حالا با این ادعای عجیب گوگل، این سوال مطرح است که محتوای «تکراری» یا «کپی» چطور تعریف میشوند؛ به طور دقیقتر، آیا دو مطلب باید کاملاً یکسان باشند یا حتی شباهتهای جزئی هم میتواند در تشخیص محتوا به عنوان تکراری تاثیرگذار باشد؟ گوگل محتوای تکراری (Duplicate) را بلوکهایی از محتوا داخل یا در میان دامنهها تعریف کرده است که دقیقاً یکساناند یا شباهتی آشکار به محتویات دیگر دارند. با چنین رقم چشمگیری از محتوای تکراری، اهمیت تولید محتوای منحصر به فرد و بهینهسازی تمام و کمال برای موتور جستجو یا سئو (SEO) دو چندان میشود. گذشته از اینها، تحلیلگر مذکور معیارهای گوگل برای حذف محتوای تکراری را ذکر کرده است که عبارتاند از: حذف پروتکلهای تکراری با ارجحیت HTTPS، نسخه دارای اسلش یا بدون اسلش، WWW یا غیر WWW، نشانیهای دارای مولفههای بیفایده و چکسامهای یکسان (بلوکی کوچک از دادهها برای ارزیابی). ضمناً باید به این نکته اشاره کرد که اگر دو جفت چکسام حاصل از محتوای اصلی همسان باشند، گوگل آنها را تکراری در نظر میگیرد.
منبع: gizchina
دیدگاه خود را بنویسید