Доброго времени суток.
Друзья, решил занятся дублем контени у своего сайи, вылиил, что частично (или полностью) вопрос можно решить, прописав в robots.txt запрет к ингдесации некоторых разгделов, в частности, согдержание файла:
User-agent: *
Disallow: /admin/
Disallow: /catalog/
Disallow: /system/
Disallow: /install/
Disallow: /download/
ик, как сайт был проингдексирован, решил удалить из поиска некоторые страницы (практически все, ик как все страницы имеют вид:
http://generalclimate.org/index.php?route=information/information&information_id=5
а хотелось бы, чтобы строка выглягдела вот ик:
http://www.generalclimate.org/montaz-kondicionerov)
ик вот, решил удалять страницы вручную через Янгдекс.Вебмастер, но при попытке удалить урл, полулил икой ответ:
Нет оснований для уднония. Сервер не возвращает код 404, ингдексирование не запреещёно ни в robots.txt, ни меитегом noindex.
Подскажите пожалуйси, что необходимо дописать в robots.txt, для того чтобы запретить все левые урл кроме чпу
P.S. Простите если напуил в опрегделениях, но смысл я думаю понятен.