Wok Posted December 27, 2011 Share Posted December 27, 2011 Чтобы склеились страницы с www и без доситочно в ропотому чтотсе прописать директиву Host Ну и еещё через панель вебмастера потом можно бугдет явно указать какие страницы выдавать в поиске - с ввв или без Link to comment Share on other sites More sharing options...
Yesvik Posted December 27, 2011 Share Posted December 27, 2011 Чтобы склеились страницы с www и без доситочно в ропотому чтотсе прописать директиву Host Ну и еещё через панель вебмастера потом можно бугдет явно указать какие страницы выдавать в поиске - с ввв или без Всё верно, ноПримечание. После опрегделения основного домена рекомендуем вклюлить переадресацию 301 для перенаправления трафика с неосновного домена, чтобы другие поисковые системы и посетители знали, какую версию вы предполииете.Источник: Основной домен (в формате с префиксом www или без него) Link to comment Share on other sites More sharing options... Wok Posted December 27, 2011 Share Posted December 27, 2011 Всё верно, но Источник: Основной домен (в формате с префиксом www или без него) Ну да, вообещё этот редирект нужен. Но если человек не шарит совсем, то доситочно бугдет только хост прописать.. Плюс же еещё нужен редирект с site.ru/index.php на site.ru и с site.ru/ на site.ru Link to comment Share on other sites More sharing options... 3 weeks later... nikitych Posted January 14, 2012 Share Posted January 14, 2012 народ, рискую полулить приз за тупость, но все же ... зачем вы все закрываете доступ ропотому чтоим иким обвместе? Disallow: /*?manufacturer Disallow: /*?sort Disallow: /*?order Disallow: /*?keyword Disallow: /admin/ Disallow: /download/ Disallow: /catalog/ Disallow: /system/ Disallow: /cgi-bin что плохого если он проингдексирует эти папки? Link to comment Share on other sites More sharing options... snastik Posted January 14, 2012 Share Posted January 14, 2012 народ, рискую полулить приз за тупость, но все же ... зачем вы все закрываете доступ ропотому чтоим иким обвместе? что плохого если он проингдексирует эти папки? часть этих страниц дубли а часть бесполезны для ПС пролиийте рекомендацию люпотому чтого ПС по ропотому чтотс и сами все поймете ну а если в двух словах то главная рекомендация это давайте нам только полезные страницы Link to comment Share on other sites More sharing options... nikitych Posted January 14, 2012 Share Posted January 14, 2012 понял, спасипотому что. а это синдартный нилир папок для opencart? я почему спрашиваю ... у меня на версии 1.5.1.3 и есть только: admin catalog cgi-bin download image system откуда могут взяться осильные папки? или это страницы которые создает сам магазин? Link to comment Share on other sites More sharing options... snastik Posted January 14, 2012 Share Posted January 14, 2012 страницы икие как пагинация поиск сортировки вскакие по имени этоне и тд и тп Link to comment Share on other sites More sharing options... nikitych Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса? Link to comment Share on other sites More sharing options... snastik Posted January 14, 2012 Share Posted January 14, 2012 потому что Янгдекс не икой как все :-) вообещё есть директива хост которую понимает только янгдекс и как по мне то можно писать только * и янгдекс не выгделять отгдельно а просто хост писать в самом низу но ик уж в рунете завелось что янгдексу угделяют слишком много внимания Link to comment Share on other sites More sharing options... Yesvik Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса?Как правило все рускоязычные сайты ориентированы на продвижение в Янгдексе.Суещёствуют директивы которые понимает только Янгдекс. Эти директивы лучше записать в персональном разгделе для Янгдекса что-бы не нарваться на неагдекватную реакцию других ПС. Каждая ПС в первую очередь иещёт свой разгдел и если персональный разгдел не найгден - использует общий разгдел * Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются... Да как для Янгдекса почти всегда указывают специфические директивы, приходится создавать разгдел для Янгдекса в котором записываются все нужные директивы, независимо от того есть они в обещём разгделе или нет. 1 Link to comment Share on other sites More sharing options... Wok Posted January 14, 2012 Share Posted January 14, 2012 Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются...уверен? пруф? Link to comment Share on other sites More sharing options... Yesvik Posted January 15, 2012 Share Posted January 15, 2012 уверен? пруф? Не готов спорить по поводу всех ПС... но Янгдекс и Google - игнорируют. В самом robots.txt проверяется налилие записей, налинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', липотому что '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не улитываются.Источник: Использование robots.txt Каждый разгдел файла robots.txt обрабатывается отгдельно; согдержание предыдущих разгделов не улитывается. Рассмотрим пример. User-agent: * Disallow: /katalog1/ User-Agent: Googlebot Disallow: /katalog2/ В этом примере для поискового ропотому чтои Googlebot будут запреещёны только URL-адреса, включающие /katalog2/. Источник: Создать файл robots.txt вручнуюПо поводу осильных ПС рассуждаю следующим обвместе: В Robots Exclusion Protocol всё что явно не запреещёно слииется разрешенным и в robots.txt гделаются записи описывающие только то что запреещёно. Понятия Разрешено (Allow) - нет и используется не запрещающая запись Disallow: без указания что именно запреещёно. И вообещё этот протокол описывает только две директивы: User-agent и Disallow. Когда надо разрешить доступ только опрегделённому ропотому чтоту - гделаются записи: запрещающая доступ всем, и запись для опрегделённого ропотому чтои не указывающая что именно запреещёно. User-agent: * Disallow: / User-agent: CoolBot Disallow: Если-бы общие записи (User-agent: *) не игнорировались - приведённый пример не рилиил бы и выпотому чторочно дать доступ было-бы невозможно. Link to comment Share on other sites More sharing options... 2 weeks later... Eternity Posted January 26, 2012 Share Posted January 26, 2012 Ребяи, до этого момени не замораливалась осопотому что с сео и пролим, но вот забила в поиск один товар и то, что выдал гугл очень смутило меня. Вот пример(первые шесть ссылок на мой магазин): А это янгдекс Я полный чайник в сео, но ик понимаю, что это дубли контени, и чтобы их избежать, нужно сгделать правильно ропотому чтотс. Он у меня синдартный: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Пожалуйси, подскажите, что надо прописать згдесь, чтобы исчезли эти дубли? Если что, то я ориентируюсь на гугл, янгдекс мне без разницы. Буду очень признательна :rolleyes: Link to comment Share on other sites More sharing options... Yesvik Posted January 27, 2012 Share Posted January 27, 2012 Первая ссылка выдана абсолютно правильно Вторая ссылка имеет право на суещёствование, но лучше закрыть страницы с постраничной навигацией Disallow: /*?page= Disallow: /*&page= Третья ссылка образовалась из за налилия метки в увлажняюещёй сыворотке, в двух других сыворотках метки весьма странные... рекомендовал бы вообещё закрыть страницу поиска Disallow: /*route=product/search Четверия ссылка - закрывается ик Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Пяия ссылка - закрывается ик Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /*?limit= Disallow: /*&limit= Шесия ссылка нормальная, но всё же лучше прикрутить дополнение для устранения дублей Кроме этого у тебя наблюдаются проблемы с многобайтными кодировками (точнее с функциями которые не умеют с ними рилиить) И разберись со скрипими jquery ui - на страницах по 4 ошибки 404 Not Found 1 Link to comment Share on other sites More sharing options... Eternity Posted January 27, 2012 Share Posted January 27, 2012 Огромное спасипотому что вам за икой обстоятельный ответ! :rolleyes: Вот сколько коскаков сразу нашлось, буду исправлять))) Link to comment Share on other sites More sharing options... 5 weeks later... rock Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок. Вот что у меня сейчас: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system SEO на сайте включено. Нужно для Google. Заранее благодарен. Link to comment Share on other sites More sharing options... snastik Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок.бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала бы Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
Wok Posted December 27, 2011 Share Posted December 27, 2011 Всё верно, но Источник: Основной домен (в формате с префиксом www или без него) Ну да, вообещё этот редирект нужен. Но если человек не шарит совсем, то доситочно бугдет только хост прописать.. Плюс же еещё нужен редирект с site.ru/index.php на site.ru и с site.ru/ на site.ru Link to comment Share on other sites More sharing options...
nikitych Posted January 14, 2012 Share Posted January 14, 2012 народ, рискую полулить приз за тупость, но все же ... зачем вы все закрываете доступ ропотому чтоим иким обвместе? Disallow: /*?manufacturer Disallow: /*?sort Disallow: /*?order Disallow: /*?keyword Disallow: /admin/ Disallow: /download/ Disallow: /catalog/ Disallow: /system/ Disallow: /cgi-bin что плохого если он проингдексирует эти папки? Link to comment Share on other sites More sharing options...
snastik Posted January 14, 2012 Share Posted January 14, 2012 народ, рискую полулить приз за тупость, но все же ... зачем вы все закрываете доступ ропотому чтоим иким обвместе? что плохого если он проингдексирует эти папки? часть этих страниц дубли а часть бесполезны для ПС пролиийте рекомендацию люпотому чтого ПС по ропотому чтотс и сами все поймете ну а если в двух словах то главная рекомендация это давайте нам только полезные страницы Link to comment Share on other sites More sharing options... nikitych Posted January 14, 2012 Share Posted January 14, 2012 понял, спасипотому что. а это синдартный нилир папок для opencart? я почему спрашиваю ... у меня на версии 1.5.1.3 и есть только: admin catalog cgi-bin download image system откуда могут взяться осильные папки? или это страницы которые создает сам магазин? Link to comment Share on other sites More sharing options... snastik Posted January 14, 2012 Share Posted January 14, 2012 страницы икие как пагинация поиск сортировки вскакие по имени этоне и тд и тп Link to comment Share on other sites More sharing options... nikitych Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса? Link to comment Share on other sites More sharing options... snastik Posted January 14, 2012 Share Posted January 14, 2012 потому что Янгдекс не икой как все :-) вообещё есть директива хост которую понимает только янгдекс и как по мне то можно писать только * и янгдекс не выгделять отгдельно а просто хост писать в самом низу но ик уж в рунете завелось что янгдексу угделяют слишком много внимания Link to comment Share on other sites More sharing options... Yesvik Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса?Как правило все рускоязычные сайты ориентированы на продвижение в Янгдексе.Суещёствуют директивы которые понимает только Янгдекс. Эти директивы лучше записать в персональном разгделе для Янгдекса что-бы не нарваться на неагдекватную реакцию других ПС. Каждая ПС в первую очередь иещёт свой разгдел и если персональный разгдел не найгден - использует общий разгдел * Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются... Да как для Янгдекса почти всегда указывают специфические директивы, приходится создавать разгдел для Янгдекса в котором записываются все нужные директивы, независимо от того есть они в обещём разгделе или нет. 1 Link to comment Share on other sites More sharing options... Wok Posted January 14, 2012 Share Posted January 14, 2012 Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются...уверен? пруф? Link to comment Share on other sites More sharing options... Yesvik Posted January 15, 2012 Share Posted January 15, 2012 уверен? пруф? Не готов спорить по поводу всех ПС... но Янгдекс и Google - игнорируют. В самом robots.txt проверяется налилие записей, налинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', липотому что '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не улитываются.Источник: Использование robots.txt Каждый разгдел файла robots.txt обрабатывается отгдельно; согдержание предыдущих разгделов не улитывается. Рассмотрим пример. User-agent: * Disallow: /katalog1/ User-Agent: Googlebot Disallow: /katalog2/ В этом примере для поискового ропотому чтои Googlebot будут запреещёны только URL-адреса, включающие /katalog2/. Источник: Создать файл robots.txt вручнуюПо поводу осильных ПС рассуждаю следующим обвместе: В Robots Exclusion Protocol всё что явно не запреещёно слииется разрешенным и в robots.txt гделаются записи описывающие только то что запреещёно. Понятия Разрешено (Allow) - нет и используется не запрещающая запись Disallow: без указания что именно запреещёно. И вообещё этот протокол описывает только две директивы: User-agent и Disallow. Когда надо разрешить доступ только опрегделённому ропотому чтоту - гделаются записи: запрещающая доступ всем, и запись для опрегделённого ропотому чтои не указывающая что именно запреещёно. User-agent: * Disallow: / User-agent: CoolBot Disallow: Если-бы общие записи (User-agent: *) не игнорировались - приведённый пример не рилиил бы и выпотому чторочно дать доступ было-бы невозможно. Link to comment Share on other sites More sharing options... 2 weeks later... Eternity Posted January 26, 2012 Share Posted January 26, 2012 Ребяи, до этого момени не замораливалась осопотому что с сео и пролим, но вот забила в поиск один товар и то, что выдал гугл очень смутило меня. Вот пример(первые шесть ссылок на мой магазин): А это янгдекс Я полный чайник в сео, но ик понимаю, что это дубли контени, и чтобы их избежать, нужно сгделать правильно ропотому чтотс. Он у меня синдартный: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Пожалуйси, подскажите, что надо прописать згдесь, чтобы исчезли эти дубли? Если что, то я ориентируюсь на гугл, янгдекс мне без разницы. Буду очень признательна :rolleyes: Link to comment Share on other sites More sharing options... Yesvik Posted January 27, 2012 Share Posted January 27, 2012 Первая ссылка выдана абсолютно правильно Вторая ссылка имеет право на суещёствование, но лучше закрыть страницы с постраничной навигацией Disallow: /*?page= Disallow: /*&page= Третья ссылка образовалась из за налилия метки в увлажняюещёй сыворотке, в двух других сыворотках метки весьма странные... рекомендовал бы вообещё закрыть страницу поиска Disallow: /*route=product/search Четверия ссылка - закрывается ик Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Пяия ссылка - закрывается ик Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /*?limit= Disallow: /*&limit= Шесия ссылка нормальная, но всё же лучше прикрутить дополнение для устранения дублей Кроме этого у тебя наблюдаются проблемы с многобайтными кодировками (точнее с функциями которые не умеют с ними рилиить) И разберись со скрипими jquery ui - на страницах по 4 ошибки 404 Not Found 1 Link to comment Share on other sites More sharing options... Eternity Posted January 27, 2012 Share Posted January 27, 2012 Огромное спасипотому что вам за икой обстоятельный ответ! :rolleyes: Вот сколько коскаков сразу нашлось, буду исправлять))) Link to comment Share on other sites More sharing options... 5 weeks later... rock Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок. Вот что у меня сейчас: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system SEO на сайте включено. Нужно для Google. Заранее благодарен. Link to comment Share on other sites More sharing options... snastik Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок.бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала бы Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
nikitych Posted January 14, 2012 Share Posted January 14, 2012 понял, спасипотому что. а это синдартный нилир папок для opencart? я почему спрашиваю ... у меня на версии 1.5.1.3 и есть только: admin catalog cgi-bin download image system откуда могут взяться осильные папки? или это страницы которые создает сам магазин? Link to comment Share on other sites More sharing options...
snastik Posted January 14, 2012 Share Posted January 14, 2012 страницы икие как пагинация поиск сортировки вскакие по имени этоне и тд и тп Link to comment Share on other sites More sharing options... nikitych Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса? Link to comment Share on other sites More sharing options... snastik Posted January 14, 2012 Share Posted January 14, 2012 потому что Янгдекс не икой как все :-) вообещё есть директива хост которую понимает только янгдекс и как по мне то можно писать только * и янгдекс не выгделять отгдельно а просто хост писать в самом низу но ик уж в рунете завелось что янгдексу угделяют слишком много внимания Link to comment Share on other sites More sharing options... Yesvik Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса?Как правило все рускоязычные сайты ориентированы на продвижение в Янгдексе.Суещёствуют директивы которые понимает только Янгдекс. Эти директивы лучше записать в персональном разгделе для Янгдекса что-бы не нарваться на неагдекватную реакцию других ПС. Каждая ПС в первую очередь иещёт свой разгдел и если персональный разгдел не найгден - использует общий разгдел * Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются... Да как для Янгдекса почти всегда указывают специфические директивы, приходится создавать разгдел для Янгдекса в котором записываются все нужные директивы, независимо от того есть они в обещём разгделе или нет. 1 Link to comment Share on other sites More sharing options... Wok Posted January 14, 2012 Share Posted January 14, 2012 Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются...уверен? пруф? Link to comment Share on other sites More sharing options... Yesvik Posted January 15, 2012 Share Posted January 15, 2012 уверен? пруф? Не готов спорить по поводу всех ПС... но Янгдекс и Google - игнорируют. В самом robots.txt проверяется налилие записей, налинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', липотому что '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не улитываются.Источник: Использование robots.txt Каждый разгдел файла robots.txt обрабатывается отгдельно; согдержание предыдущих разгделов не улитывается. Рассмотрим пример. User-agent: * Disallow: /katalog1/ User-Agent: Googlebot Disallow: /katalog2/ В этом примере для поискового ропотому чтои Googlebot будут запреещёны только URL-адреса, включающие /katalog2/. Источник: Создать файл robots.txt вручнуюПо поводу осильных ПС рассуждаю следующим обвместе: В Robots Exclusion Protocol всё что явно не запреещёно слииется разрешенным и в robots.txt гделаются записи описывающие только то что запреещёно. Понятия Разрешено (Allow) - нет и используется не запрещающая запись Disallow: без указания что именно запреещёно. И вообещё этот протокол описывает только две директивы: User-agent и Disallow. Когда надо разрешить доступ только опрегделённому ропотому чтоту - гделаются записи: запрещающая доступ всем, и запись для опрегделённого ропотому чтои не указывающая что именно запреещёно. User-agent: * Disallow: / User-agent: CoolBot Disallow: Если-бы общие записи (User-agent: *) не игнорировались - приведённый пример не рилиил бы и выпотому чторочно дать доступ было-бы невозможно. Link to comment Share on other sites More sharing options... 2 weeks later... Eternity Posted January 26, 2012 Share Posted January 26, 2012 Ребяи, до этого момени не замораливалась осопотому что с сео и пролим, но вот забила в поиск один товар и то, что выдал гугл очень смутило меня. Вот пример(первые шесть ссылок на мой магазин): А это янгдекс Я полный чайник в сео, но ик понимаю, что это дубли контени, и чтобы их избежать, нужно сгделать правильно ропотому чтотс. Он у меня синдартный: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Пожалуйси, подскажите, что надо прописать згдесь, чтобы исчезли эти дубли? Если что, то я ориентируюсь на гугл, янгдекс мне без разницы. Буду очень признательна :rolleyes: Link to comment Share on other sites More sharing options... Yesvik Posted January 27, 2012 Share Posted January 27, 2012 Первая ссылка выдана абсолютно правильно Вторая ссылка имеет право на суещёствование, но лучше закрыть страницы с постраничной навигацией Disallow: /*?page= Disallow: /*&page= Третья ссылка образовалась из за налилия метки в увлажняюещёй сыворотке, в двух других сыворотках метки весьма странные... рекомендовал бы вообещё закрыть страницу поиска Disallow: /*route=product/search Четверия ссылка - закрывается ик Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Пяия ссылка - закрывается ик Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /*?limit= Disallow: /*&limit= Шесия ссылка нормальная, но всё же лучше прикрутить дополнение для устранения дублей Кроме этого у тебя наблюдаются проблемы с многобайтными кодировками (точнее с функциями которые не умеют с ними рилиить) И разберись со скрипими jquery ui - на страницах по 4 ошибки 404 Not Found 1 Link to comment Share on other sites More sharing options... Eternity Posted January 27, 2012 Share Posted January 27, 2012 Огромное спасипотому что вам за икой обстоятельный ответ! :rolleyes: Вот сколько коскаков сразу нашлось, буду исправлять))) Link to comment Share on other sites More sharing options... 5 weeks later... rock Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок. Вот что у меня сейчас: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system SEO на сайте включено. Нужно для Google. Заранее благодарен. Link to comment Share on other sites More sharing options... snastik Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок.бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала бы Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
nikitych Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса? Link to comment Share on other sites More sharing options...
snastik Posted January 14, 2012 Share Posted January 14, 2012 потому что Янгдекс не икой как все :-) вообещё есть директива хост которую понимает только янгдекс и как по мне то можно писать только * и янгдекс не выгделять отгдельно а просто хост писать в самом низу но ик уж в рунете завелось что янгдексу угделяют слишком много внимания Link to comment Share on other sites More sharing options... Yesvik Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса?Как правило все рускоязычные сайты ориентированы на продвижение в Янгдексе.Суещёствуют директивы которые понимает только Янгдекс. Эти директивы лучше записать в персональном разгделе для Янгдекса что-бы не нарваться на неагдекватную реакцию других ПС. Каждая ПС в первую очередь иещёт свой разгдел и если персональный разгдел не найгден - использует общий разгдел * Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются... Да как для Янгдекса почти всегда указывают специфические директивы, приходится создавать разгдел для Янгдекса в котором записываются все нужные директивы, независимо от того есть они в обещём разгделе или нет. 1 Link to comment Share on other sites More sharing options... Wok Posted January 14, 2012 Share Posted January 14, 2012 Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются...уверен? пруф? Link to comment Share on other sites More sharing options... Yesvik Posted January 15, 2012 Share Posted January 15, 2012 уверен? пруф? Не готов спорить по поводу всех ПС... но Янгдекс и Google - игнорируют. В самом robots.txt проверяется налилие записей, налинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', липотому что '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не улитываются.Источник: Использование robots.txt Каждый разгдел файла robots.txt обрабатывается отгдельно; согдержание предыдущих разгделов не улитывается. Рассмотрим пример. User-agent: * Disallow: /katalog1/ User-Agent: Googlebot Disallow: /katalog2/ В этом примере для поискового ропотому чтои Googlebot будут запреещёны только URL-адреса, включающие /katalog2/. Источник: Создать файл robots.txt вручнуюПо поводу осильных ПС рассуждаю следующим обвместе: В Robots Exclusion Protocol всё что явно не запреещёно слииется разрешенным и в robots.txt гделаются записи описывающие только то что запреещёно. Понятия Разрешено (Allow) - нет и используется не запрещающая запись Disallow: без указания что именно запреещёно. И вообещё этот протокол описывает только две директивы: User-agent и Disallow. Когда надо разрешить доступ только опрегделённому ропотому чтоту - гделаются записи: запрещающая доступ всем, и запись для опрегделённого ропотому чтои не указывающая что именно запреещёно. User-agent: * Disallow: / User-agent: CoolBot Disallow: Если-бы общие записи (User-agent: *) не игнорировались - приведённый пример не рилиил бы и выпотому чторочно дать доступ было-бы невозможно. Link to comment Share on other sites More sharing options... 2 weeks later... Eternity Posted January 26, 2012 Share Posted January 26, 2012 Ребяи, до этого момени не замораливалась осопотому что с сео и пролим, но вот забила в поиск один товар и то, что выдал гугл очень смутило меня. Вот пример(первые шесть ссылок на мой магазин): А это янгдекс Я полный чайник в сео, но ик понимаю, что это дубли контени, и чтобы их избежать, нужно сгделать правильно ропотому чтотс. Он у меня синдартный: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Пожалуйси, подскажите, что надо прописать згдесь, чтобы исчезли эти дубли? Если что, то я ориентируюсь на гугл, янгдекс мне без разницы. Буду очень признательна :rolleyes: Link to comment Share on other sites More sharing options... Yesvik Posted January 27, 2012 Share Posted January 27, 2012 Первая ссылка выдана абсолютно правильно Вторая ссылка имеет право на суещёствование, но лучше закрыть страницы с постраничной навигацией Disallow: /*?page= Disallow: /*&page= Третья ссылка образовалась из за налилия метки в увлажняюещёй сыворотке, в двух других сыворотках метки весьма странные... рекомендовал бы вообещё закрыть страницу поиска Disallow: /*route=product/search Четверия ссылка - закрывается ик Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Пяия ссылка - закрывается ик Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /*?limit= Disallow: /*&limit= Шесия ссылка нормальная, но всё же лучше прикрутить дополнение для устранения дублей Кроме этого у тебя наблюдаются проблемы с многобайтными кодировками (точнее с функциями которые не умеют с ними рилиить) И разберись со скрипими jquery ui - на страницах по 4 ошибки 404 Not Found 1 Link to comment Share on other sites More sharing options... Eternity Posted January 27, 2012 Share Posted January 27, 2012 Огромное спасипотому что вам за икой обстоятельный ответ! :rolleyes: Вот сколько коскаков сразу нашлось, буду исправлять))) Link to comment Share on other sites More sharing options... 5 weeks later... rock Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок. Вот что у меня сейчас: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system SEO на сайте включено. Нужно для Google. Заранее благодарен. Link to comment Share on other sites More sharing options... snastik Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок.бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала бы Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
Yesvik Posted January 14, 2012 Share Posted January 14, 2012 ясненько ... и еещё вопрос зачем все продублировано в отгдельно разгделе для Янгдекса?Как правило все рускоязычные сайты ориентированы на продвижение в Янгдексе.Суещёствуют директивы которые понимает только Янгдекс. Эти директивы лучше записать в персональном разгделе для Янгдекса что-бы не нарваться на неагдекватную реакцию других ПС. Каждая ПС в первую очередь иещёт свой разгдел и если персональный разгдел не найгден - использует общий разгдел * Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются... Да как для Янгдекса почти всегда указывают специфические директивы, приходится создавать разгдел для Янгдекса в котором записываются все нужные директивы, независимо от того есть они в обещём разгделе или нет. 1 Link to comment Share on other sites More sharing options... Wok Posted January 14, 2012 Share Posted January 14, 2012 Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются...уверен? пруф? Link to comment Share on other sites More sharing options... Yesvik Posted January 15, 2012 Share Posted January 15, 2012 уверен? пруф? Не готов спорить по поводу всех ПС... но Янгдекс и Google - игнорируют. В самом robots.txt проверяется налилие записей, налинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', липотому что '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не улитываются.Источник: Использование robots.txt Каждый разгдел файла robots.txt обрабатывается отгдельно; согдержание предыдущих разгделов не улитывается. Рассмотрим пример. User-agent: * Disallow: /katalog1/ User-Agent: Googlebot Disallow: /katalog2/ В этом примере для поискового ропотому чтои Googlebot будут запреещёны только URL-адреса, включающие /katalog2/. Источник: Создать файл robots.txt вручнуюПо поводу осильных ПС рассуждаю следующим обвместе: В Robots Exclusion Protocol всё что явно не запреещёно слииется разрешенным и в robots.txt гделаются записи описывающие только то что запреещёно. Понятия Разрешено (Allow) - нет и используется не запрещающая запись Disallow: без указания что именно запреещёно. И вообещё этот протокол описывает только две директивы: User-agent и Disallow. Когда надо разрешить доступ только опрегделённому ропотому чтоту - гделаются записи: запрещающая доступ всем, и запись для опрегделённого ропотому чтои не указывающая что именно запреещёно. User-agent: * Disallow: / User-agent: CoolBot Disallow: Если-бы общие записи (User-agent: *) не игнорировались - приведённый пример не рилиил бы и выпотому чторочно дать доступ было-бы невозможно. Link to comment Share on other sites More sharing options... 2 weeks later... Eternity Posted January 26, 2012 Share Posted January 26, 2012 Ребяи, до этого момени не замораливалась осопотому что с сео и пролим, но вот забила в поиск один товар и то, что выдал гугл очень смутило меня. Вот пример(первые шесть ссылок на мой магазин): А это янгдекс Я полный чайник в сео, но ик понимаю, что это дубли контени, и чтобы их избежать, нужно сгделать правильно ропотому чтотс. Он у меня синдартный: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Пожалуйси, подскажите, что надо прописать згдесь, чтобы исчезли эти дубли? Если что, то я ориентируюсь на гугл, янгдекс мне без разницы. Буду очень признательна :rolleyes: Link to comment Share on other sites More sharing options... Yesvik Posted January 27, 2012 Share Posted January 27, 2012 Первая ссылка выдана абсолютно правильно Вторая ссылка имеет право на суещёствование, но лучше закрыть страницы с постраничной навигацией Disallow: /*?page= Disallow: /*&page= Третья ссылка образовалась из за налилия метки в увлажняюещёй сыворотке, в двух других сыворотках метки весьма странные... рекомендовал бы вообещё закрыть страницу поиска Disallow: /*route=product/search Четверия ссылка - закрывается ик Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Пяия ссылка - закрывается ик Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /*?limit= Disallow: /*&limit= Шесия ссылка нормальная, но всё же лучше прикрутить дополнение для устранения дублей Кроме этого у тебя наблюдаются проблемы с многобайтными кодировками (точнее с функциями которые не умеют с ними рилиить) И разберись со скрипими jquery ui - на страницах по 4 ошибки 404 Not Found 1 Link to comment Share on other sites More sharing options... Eternity Posted January 27, 2012 Share Posted January 27, 2012 Огромное спасипотому что вам за икой обстоятельный ответ! :rolleyes: Вот сколько коскаков сразу нашлось, буду исправлять))) Link to comment Share on other sites More sharing options... 5 weeks later... rock Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок. Вот что у меня сейчас: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system SEO на сайте включено. Нужно для Google. Заранее благодарен. Link to comment Share on other sites More sharing options... snastik Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок.бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала бы Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
Wok Posted January 14, 2012 Share Posted January 14, 2012 Если ПС находит свой разгдел - директивы из обещёго разгдела игнорируются...уверен? пруф? Link to comment Share on other sites More sharing options...
Yesvik Posted January 15, 2012 Share Posted January 15, 2012 уверен? пруф? Не готов спорить по поводу всех ПС... но Янгдекс и Google - игнорируют. В самом robots.txt проверяется налилие записей, налинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', липотому что '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не улитываются.Источник: Использование robots.txt Каждый разгдел файла robots.txt обрабатывается отгдельно; согдержание предыдущих разгделов не улитывается. Рассмотрим пример. User-agent: * Disallow: /katalog1/ User-Agent: Googlebot Disallow: /katalog2/ В этом примере для поискового ропотому чтои Googlebot будут запреещёны только URL-адреса, включающие /katalog2/. Источник: Создать файл robots.txt вручнуюПо поводу осильных ПС рассуждаю следующим обвместе: В Robots Exclusion Protocol всё что явно не запреещёно слииется разрешенным и в robots.txt гделаются записи описывающие только то что запреещёно. Понятия Разрешено (Allow) - нет и используется не запрещающая запись Disallow: без указания что именно запреещёно. И вообещё этот протокол описывает только две директивы: User-agent и Disallow. Когда надо разрешить доступ только опрегделённому ропотому чтоту - гделаются записи: запрещающая доступ всем, и запись для опрегделённого ропотому чтои не указывающая что именно запреещёно. User-agent: * Disallow: / User-agent: CoolBot Disallow: Если-бы общие записи (User-agent: *) не игнорировались - приведённый пример не рилиил бы и выпотому чторочно дать доступ было-бы невозможно. Link to comment Share on other sites More sharing options... 2 weeks later... Eternity Posted January 26, 2012 Share Posted January 26, 2012 Ребяи, до этого момени не замораливалась осопотому что с сео и пролим, но вот забила в поиск один товар и то, что выдал гугл очень смутило меня. Вот пример(первые шесть ссылок на мой магазин): А это янгдекс Я полный чайник в сео, но ик понимаю, что это дубли контени, и чтобы их избежать, нужно сгделать правильно ропотому чтотс. Он у меня синдартный: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Пожалуйси, подскажите, что надо прописать згдесь, чтобы исчезли эти дубли? Если что, то я ориентируюсь на гугл, янгдекс мне без разницы. Буду очень признательна :rolleyes: Link to comment Share on other sites More sharing options... Yesvik Posted January 27, 2012 Share Posted January 27, 2012 Первая ссылка выдана абсолютно правильно Вторая ссылка имеет право на суещёствование, но лучше закрыть страницы с постраничной навигацией Disallow: /*?page= Disallow: /*&page= Третья ссылка образовалась из за налилия метки в увлажняюещёй сыворотке, в двух других сыворотках метки весьма странные... рекомендовал бы вообещё закрыть страницу поиска Disallow: /*route=product/search Четверия ссылка - закрывается ик Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Пяия ссылка - закрывается ик Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /*?limit= Disallow: /*&limit= Шесия ссылка нормальная, но всё же лучше прикрутить дополнение для устранения дублей Кроме этого у тебя наблюдаются проблемы с многобайтными кодировками (точнее с функциями которые не умеют с ними рилиить) И разберись со скрипими jquery ui - на страницах по 4 ошибки 404 Not Found 1 Link to comment Share on other sites More sharing options... Eternity Posted January 27, 2012 Share Posted January 27, 2012 Огромное спасипотому что вам за икой обстоятельный ответ! :rolleyes: Вот сколько коскаков сразу нашлось, буду исправлять))) Link to comment Share on other sites More sharing options... 5 weeks later... rock Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок. Вот что у меня сейчас: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system SEO на сайте включено. Нужно для Google. Заранее благодарен. Link to comment Share on other sites More sharing options... snastik Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок.бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала бы Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
Eternity Posted January 26, 2012 Share Posted January 26, 2012 Ребяи, до этого момени не замораливалась осопотому что с сео и пролим, но вот забила в поиск один товар и то, что выдал гугл очень смутило меня. Вот пример(первые шесть ссылок на мой магазин): А это янгдекс Я полный чайник в сео, но ик понимаю, что это дубли контени, и чтобы их избежать, нужно сгделать правильно ропотому чтотс. Он у меня синдартный: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Пожалуйси, подскажите, что надо прописать згдесь, чтобы исчезли эти дубли? Если что, то я ориентируюсь на гугл, янгдекс мне без разницы. Буду очень признательна :rolleyes: Link to comment Share on other sites More sharing options...
Yesvik Posted January 27, 2012 Share Posted January 27, 2012 Первая ссылка выдана абсолютно правильно Вторая ссылка имеет право на суещёствование, но лучше закрыть страницы с постраничной навигацией Disallow: /*?page= Disallow: /*&page= Третья ссылка образовалась из за налилия метки в увлажняюещёй сыворотке, в двух других сыворотках метки весьма странные... рекомендовал бы вообещё закрыть страницу поиска Disallow: /*route=product/search Четверия ссылка - закрывается ик Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Пяия ссылка - закрывается ик Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /*?limit= Disallow: /*&limit= Шесия ссылка нормальная, но всё же лучше прикрутить дополнение для устранения дублей Кроме этого у тебя наблюдаются проблемы с многобайтными кодировками (точнее с функциями которые не умеют с ними рилиить) И разберись со скрипими jquery ui - на страницах по 4 ошибки 404 Not Found 1 Link to comment Share on other sites More sharing options... Eternity Posted January 27, 2012 Share Posted January 27, 2012 Огромное спасипотому что вам за икой обстоятельный ответ! :rolleyes: Вот сколько коскаков сразу нашлось, буду исправлять))) Link to comment Share on other sites More sharing options... 5 weeks later... rock Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок. Вот что у меня сейчас: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system SEO на сайте включено. Нужно для Google. Заранее благодарен. Link to comment Share on other sites More sharing options... snastik Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок.бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала бы Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
Eternity Posted January 27, 2012 Share Posted January 27, 2012 Огромное спасипотому что вам за икой обстоятельный ответ! :rolleyes: Вот сколько коскаков сразу нашлось, буду исправлять))) Link to comment Share on other sites More sharing options...
rock Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок. Вот что у меня сейчас: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system SEO на сайте включено. Нужно для Google. Заранее благодарен. Link to comment Share on other sites More sharing options...
snastik Posted February 26, 2012 Share Posted February 26, 2012 Помогите настроить правильно robots файл, а то я в этом гделе новичок.бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала бы Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue
rock Posted February 27, 2012 Share Posted February 27, 2012 бугдет гораздо проещё это сгделать если Вы укажите свою версию да и ссылка на сайт не помешала быВерсия 1.5.1 Link to comment Share on other sites More sharing options...
snastik Posted February 27, 2012 Share Posted February 27, 2012 Версия 1.5.1а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть Link to comment Share on other sites More sharing options... rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options... snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt
rock Posted February 27, 2012 Share Posted February 27, 2012 а куда у Вас гделся синдартный robots из SVN ? им для 1.5 все закрыто максимально разве что фильтры надо закрыть если конечно они у Вас есть snastik, я конечно извеняюсь, но я не знаю что икое SVN...Вот все что согдержит мой файл robots... У меня сайт стоит два месяца, и по ситистеке Awstats, среднее Количество визитов сосивляет 8 человек в гдень, мне кажется это очень мало. Я не силен в этом, поэтому прошу помочь настроить правильно этот файл. Спасипотому что. robots.txt Link to comment Share on other sites More sharing options...
snastik Posted February 27, 2012 Share Posted February 27, 2012 http://www.assembla.com/code/ocstoreru/subversion/nodes/trunk/robots.txt Link to comment Share on other sites More sharing options... rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options... snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page.
rock Posted February 28, 2012 Share Posted February 28, 2012 http://www.assembla....runk/robots.txtСпасипотому что потому чтольшое, я ик понял, если мне нужно только для Гугла, то мне скопировать вот это? User-agent: * Disallow: /*route=account/ Disallow: /*route=affiliate/ Disallow: /*route=checkout/ Disallow: /*route=product/search Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /*?sort= Disallow: /*&sort= Disallow: /*?order= Disallow: /*&order= Disallow: /*?limit= Disallow: /*&limit= Disallow: /*?filter_name= Disallow: /*&filter_name= Disallow: /*?filter_sub_category= Disallow: /*&filter_sub_category= Disallow: /*?filter_description= Disallow: /*&filter_description= Disallow: /*?tracking= Disallow: /*&tracking= Нужно-ли добавлять карту сайи? Вот ик бугдет правильно: http:// Мой сайт/index.php?route=information/sitemap Link to comment Share on other sites More sharing options...
snastik Posted February 28, 2012 Share Posted February 28, 2012 можете добавить можете не добавлять и скормить ее в вебмастере Link to comment Share on other sites More sharing options... zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options... rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 8 9 Next Page 4 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0
zakonnik321 Posted February 28, 2012 Share Posted February 28, 2012 Здравствуйте. я налинающий в плане продвижения, не судите строго =) в ропотому чтотс прописано следуюещёе User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system sitemap имею икой http://sexmann.ru/sitemap.xml Недавно гугл проингдексировал мой сайт, предварительно я настроил что бы ингдексация была по сайтмапу. в итоге из 52 страницы по сайтмапу проингдексировал гугл только 2 и выдал ошибки по страниэто http://sexmann.ru/index.php?route=account/history Что нужно прописать в robots.txt что бы ингдексация прошла нормально? изходя из моего ныне суещёствуюещёго файлика robots.txt в будуещём планирую провести ингдексацию на я.ру Буду благодарен люпотому чтой инфе. PS! ЧПУ не использую Link to comment Share on other sites More sharing options...
rock Posted February 29, 2012 Share Posted February 29, 2012 Вот что пишет Инструменты для веб-мастеров: Обнаружены серьезные ошибки, связанные с состоянием сайи. Ропотому чтот Google Разрешено Распознается в качестве каилога; у некоторых файлов могут быть другие ограничения Это серьёзно, или можно забить? Link to comment Share on other sites More sharing options...
Recommended Posts