Чтобы поисковые системы не индексировали дубли или ненужные страницы, в файл robots.txt можно добавить следующие записи:
Disallow: /*%
Disallow: /*~
Disallow: /*&
Disallow: /*sort=
Disallow: /*order=
Disallow: /*destination=
Disallow: /*page=
Disallow: /*/export/html/
Disallow: /*/edit$
Disallow: /*/delete$
Disallow: /*/outline$
Disallow: /*/revisions$
Disallow: /*/contact$
Disallow: /*/track$
Если на сайте используются альтернативные пути для документов и терминов, то можно запретить их индексацию по системным путям:
Disallow: /node/
Disallow: /taxonomy/