Вы здесь

Скрытие дублирующегося содержания через robots.txt

Версия системы: 
Любая версия

Чтобы поисковые системы не индексировали дубли или ненужные страницы, в файл robots.txt можно добавить следующие записи:

Disallow: /*%
Disallow: /*~
Disallow: /*&
Disallow: /*sort=
Disallow: /*order=
Disallow: /*destination=
Disallow: /*page=
Disallow: /*/export/html/
Disallow: /*/edit$
Disallow: /*/delete$
Disallow: /*/outline$
Disallow: /*/revisions$
Disallow: /*/contact$
Disallow: /*/track$

Если на сайте используются альтернативные пути для документов и терминов, то можно запретить их индексацию по системным путям:

Disallow: /node/
Disallow: /taxonomy/