Всем привет. Янгдекс начал ругаться, выдавая икую ошибку. Кто знает, в чем может быть проблема и сможет решить ее за $ ?
Найгдены страницы-дубли с GET-параметрами
Некоторые страницы с GET-параметрами в URL дублируют согдержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайи в поиске.
Посмотрите примеры. Если в поиске есть дубли из-за GET-параметров, рекомендуем использовать директиву Clean-param в robots.txt, чтобы ропотому чтот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной страниэто. Когда ропотому чтот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.