Доброго времени суток!
Подскажите, пожалуйста, новичку. Как лучше всего закрыть от индексации страницу с неуникальным контентом?
Страница представляет собой стандартный Договор оферты, которых в сети много - https://xd-design-bobby.com.ua/oferta (создавалась через Каталог/Статьи).
Цель - избежать от ПС штрафов за "копипасту".
В robots.txt закрыл страницу от индексации, но есть внутренняя ссылка на странице "Карта сайта" (в принципе, могу её удалить, но подозреваю, что толку не будет), где ссылка на Договор, по которой робот сможет пройти и, как я понимаю, всё-таки проиндексировать страницу. В Sitemap.xml ссылка тоже появилась.
По возможному вопросу "Зачем страница договора без ссылки на неё" ответ следующий: ссылка для ознакомления доступна из корзины, которая также закрыта в robots.txt.
В справочнике Гугла вычитал следующее:
Чтобы заблокировать большинство поисковых роботов, добавьте следующий метатег в раздел <head> веб-страницы: <meta name="robots" content="noindex">
В каком файле и в каком каталоге в этом случае редактируется код? Эффективно ли это будет?
Как корректно закрыть текст договора или страницу от индексации? Ведь делать рерайт стандартного договора это лютый трэш.
Спасибо!
Версия CMS: ocStore 2.3.0.2.3
Сайт: https://xd-design-bobby.com.ua/