25.03.2021

Защищаемся от дубликатов страниц

Автор: Юрий

В последнее время в яндекс.вебмастере обнаружил обращения к сайту со следующими параметрами:

/?from=yandex.ru;search/;web;;0;&q=регулировка+стеклопакетов&etext=2202.xrANckKrsfY_XP0fukiJxgXMCLRhXYmvAbmgz_vUkwF3Y9NzpOjDzkuULffbCPfoShLefK-A2vQVL3yDwwyQQ2t3eWpkZ2t5bWl3dnFqdGU.4d24b735f588f203ac7cf9f79aea59b2df581cd9

и

/?yhid=5011668458829693

Есть смутное подозрение, что таким образом прокачивают ботов для накрутки ПФ в Яндексе. Однако это вызывает проблему с тем, что в индекс лезут дубликаты страниц, к которым обращаются с такими параметрами.

Что же делать?

В robots.txt, в раздел относящийся к яндексу добавить следующие строки:

Clean-param: from
Clean-param: yhid
Clean-param: q
Clean-param: etext

и все, проблема решена.