Clean-param: etext или защищаемся от дубликатов страниц

В последнее время в яндекс.вебмастере обнаружил обращения к сайту со следующими параметрами:
/?from=yandex.ru;search/;web;;0;
&q=регулировка+стеклопакетов&etext={дальше длинный id}
и
/?yhid=5011668458829693
Есть смутное подозрение, что таким образом в первом примере прокачивают ботов для накрутки ПФ в Яндексе.
Во-втором примере — следы использования яндекс.директ.

Однако это вызывает проблему с тем, что в индекс лезут дубликаты страниц, к которым обращаются с такими параметрами.

Что же делать?

В robots.txt, в раздел относящийся к яндексу добавить следующие строки:

Clean-param: from
Clean-param: yhid
Clean-param: q
Clean-param: etext

и все, проблема решена.

Юрий

SEO-специалист, интернет-маркетолог с опытом работы более 16 лет.