https://support.google.com/webmasters/answer/93710?hl=ruhttps://yandex.ru/support/webmaster/controlling-robot/html.xmlДумаю что несколько не правильно сделали, не совсем понятно что конкретно прописали, так или иначе, по ссылкам все подробно написано.
Дубли в выдачу попадать не будут.
А вот с Гуглом немного посложнее. Он заявляет, что файл robots.txt носит исключительно рекомендательный характер.
Чтобы угодить двум поисковым системам, вот что я сделал:
1). Убрал из файла robots.txt директиву Disallow: /*page*
2). На всех страницах постраничной навигации, между тегами "head", прописал мета-тег:
Все ли я сделал правильно?
Спасибо!