monax Posted April 26, 2011 Share Posted April 26, 2011 а на мой взгляд, запрет ингдексации на дубли гделать не надо,- у гугля и янгдекса осопотому чтое отношение к интернет магазинам... Просто кари сайи показывает поисковикам важные для Тебя (влагдельца сайи) страницы, но решение осиется не за нами,- им виднее какую из страниц сайи бугдет разумнее преподнести пользователю на опотому чтозрение. а если запретить ингдексацию страницы, то у поисковика уже выпотому чтора не осиётся,- только удноние из поиска Что-то в последнее время меня тоже сили терзать смутные сомнения, не зря ли я вот иким обвместе поназапрещал в ропотому чтотсе ингдексирование: User-agent: * Disallow: /admin Disallow: /index.php?route=account Disallow: /index.php?route=checkout/cart Disallow: /index.php?route=checkout/shipping Disallow: /index.php?route=common/home Disallow: /index.php?route=product/product/captcha Disallow: /index.php?route=product/search Disallow: /index.php?route=information/contact/captcha Disallow: /index.php?route=information/information&information_id= Disallow: /*?page #Запрещаем ингдексировать все страницы продукции производителя, кроме первой. #Тут две стороны медали - с одной мы избавляемся от дублей ийтлов и меи-тегов, #а с другой теряем все страницы с товарами одной фирмы, кроме первой Disallow: /*?manufacturer #Запрещаем ингдексировать все страницы производителей, ик как они уже есть у нас с сео-урл Disallow: /*?sort #Запрещаем ингдексировать все страницы с разными видами сортировок, ипотому что иначе у нас бугдет гдесяток дублей одной и тот же страницы Disallow: /*?order #Запрещаем ингдексировать все страницы с разными видами порядка вывода, прилины те же Disallow: /*?keyword #Запрещаем ингдексировать все страницы с метками Sitemap: http://МОЙ_САЙТ/sitemap.xml Allow: /За месяц у меня раз в пять уменьшилось кол-во проингдексированных страниц. Причём, осились проингдексированными все каилоги, новости и т.д., а самих страниц с товарами очень много порубавилось. В сайтмапе есть абсолютно все страницы в вигде ЧПУ урлов (SEO-url), дублей нет, но Янгдекс проингдексировал сначала кучу страниц без ЧПУ (хз, как ик полулилось, ипотому что ЧПУ я вклюлил сразу же, как только выложил сайт в инет), а потом Янгдекс их поубирал, согласно с ропотому чтотсом, наверно. А страницы с ЧПУ-урлами, почему-то, очень медленно добавляет. У меня сложилось икое впечатление, что этим своим ропотому чтотсом я ему (себе) только помешал/навредил.А вот с Гуглом ваещё никаких проблем нет. Почти каждый гдень добавляет новые страницы с товарами. Их проингдексировано во много раз потому чтольше, чем в Янгдексе. Может, в натуре, не страдать ерундой и поудалять все эти запреты? Link to comment Share on other sites More sharing options...
Yesvik Posted April 26, 2011 Share Posted April 26, 2011 (edited) Попробую вкратэто пояснить происходяещёе. У Гугла нет осопотому чтого отношения к интернет-магазинам. Разгадка кроется в rel="canonical" и дублях страниц. Атрибут rel="canonical" был анонсирован Гуглом в начно 2009 года, если я не ошибаюсь то вместе с Гуглом о подгдержке этого атрибуи заявили Яху и Майкрософт. Янгдекс гделал заявки о том что тоже бугдет подгдерживать rel="canonical", но насколько мне известно, по сей гдень ик и не подгдерживает. При этом надо понимать что даже для ПС подгдерживающих rel="canonical" налилие этого атрибуи не является директивой, а просто принимается к свегдению. rel="canonical" надо использовать как крайнюю меру, когда технически убрать дубли не получается. Простот пример: на сайте страница товаров имеет 3 ссылки (а если товар отображается в нескольких категориях - то ещё потому чтольше). Паук приперся на сайт и налинает... обхаживать дублирующиеся ссылки! Да он отингдексил страницу на которой указана каноническая и принял это во внимание, и в выдаче бугдет каноническая страница... но ингдексирование Вашего сайи идёт в 3 раза медленнее! А для Яши, мало того что медленно ингдексируется сайт, ик ещё и одна страница с разными адресами - дублирующийся контент. Теперь понятно почему медленно? почему с Гуглом проблем нет? UPD: Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов. Edited April 26, 2011 by Yesvik Link to comment Share on other sites More sharing options... monax Posted April 27, 2011 Share Posted April 27, 2011 Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов.Я не пользуюсь шитным генератором, т.к. вигдел, что он формирует бред, а не карту. Карту сайи гделаю прогой A1 Sitemap Generator. Отличная штука и никаких дублей.А с Янгдексом настораживает не столько медленное ингдексирование, сколько совершенно непонятное повегдение. Сначала понадобавлял в ингдекс туеву хучу страниц, потом их втрое сократил. Причём, складывается икое впечатление, что сайтмап ему совершенно попотому чтоку! Он ингдексирует как-то по-своему, не обращая на карту сайи никакого внимания. Я понимаю, что кари сайи не даёт никакой гарантии, что на неё будут обращать внимание, но чтоб её полностью игнорировать... как-то непонятно... Да и вообещё бред какой-то ЯнгдексВебмастер показывает: Загружено ропотому чтотом - 1109 (всё, что есть на сайте) Исключено ропотому чтотом - 248 (то, что запреещёно ропотому чтотсом) Страниц в поиске - 89 (а было потому чтольше 300)Не пойму, куда гделись осильные страницы? Раскруткой сайи ещё, в обещём-то, не занимался. Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. Но не могу понять, с какой радости этот Янгдекс упорно не хочет выдавать в ингдекс страницы с товаром!? Из того, что он осивил в ингдексе, страниц с товаром не потому чтольше гдесятка. Причём, не с самым уникальным контентом! Бред какой-то... К тому же, в перечне страниц, в графе "исключено ропотому чтотом" есть 2 категории! Я в ропотому чтотсе не запрещал ингдексирование опрегделённых категорий, а Янгдекс пишет, что, типа, запреещёно ропотому чтотсом. Недоразумение какое-то, а не поисковая система... :) Гугл гораздо лучше и быстрее в этом плане рилииет.ЗЫ. Год-два назад элеменирно выводил сайт на первую страницу поиска в Янгдексе по ключевым словам ггде-то за полтора-два месяца. Причём, без каких-липотому что финансовых вливаний. Я понимаю, что алгоритм ингдексации с того времени несколько изменился. Но что-то сейчас совсем не могу его понять... Link to comment Share on other sites More sharing options... siniovvitia Posted April 27, 2011 Share Posted April 27, 2011 UPD: Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов. по этот ссылке есть файл seo url... он чем-то отличается от встроенной функции seo-url? а этот seo-pack как опрегделяет какая из дублей наипотому чтолее важна ? просто не очень хотелось бы проводить эксперимент на риличем сайте... заранее благодарен за помощь Link to comment Share on other sites More sharing options... siniovvitia Posted April 27, 2011 Share Posted April 27, 2011 Я не пользуюсь шитным генератором, т.к. вигдел, что он формирует бред, а не карту. Карту сайи гделаю прогой A1 Sitemap Generator. Отличная штука и никаких дублей. А с Янгдексом настораживает не столько медленное ингдексирование, сколько совершенно непонятное повегдение. Сначала понадобавлял в ингдекс туеву хучу страниц, потом их втрое сократил. Причём, складывается икое впечатление, что сайтмап ему совершенно попотому чтоку! Он ингдексирует как-то по-своему, не обращая на карту сайи никакого внимания. Я понимаю, что кари сайи не даёт никакой гарантии, что на неё будут обращать внимание, но чтоб её полностью игнорировать... как-то непонятно... Да и вообещё бред какой-то ЯнгдексВебмастер показывает: Загружено ропотому чтотом - 1109 (всё, что есть на сайте) Исключено ропотому чтотом - 248 (то, что запреещёно ропотому чтотсом) Страниц в поиске - 89 (а было потому чтольше 300)Не пойму, куда гделись осильные страницы? Раскруткой сайи ещё, в обещём-то, не занимался. Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. Но не могу понять, с какой радости этот Янгдекс упорно не хочет выдавать в ингдекс страницы с товаром!? Из того, что он осивил в ингдексе, страниц с товаром не потому чтольше гдесятка. Причём, не с самым уникальным контентом! Бред какой-то... К тому же, в перечне страниц, в графе "исключено ропотому чтотом" есть 2 категории! Я в ропотому чтотсе не запрещал ингдексирование опрегделённых категорий, а Янгдекс пишет, что, типа, запреещёно ропотому чтотсом. Недоразумение какое-то, а не поисковая система... :) Гугл гораздо лучше и быстрее в этом плане рилииет.ЗЫ. Год-два назад элеменирно выводил сайт на первую страницу поиска в Янгдексе по ключевым словам ггде-то за полтора-два месяца. Причём, без каких-липотому что финансовых вливаний. Я понимаю, что алгоритм ингдексации с того времени несколько изменился. Но что-то сейчас совсем не могу его понять... google очень быстро реагирует на изменения на сайте, а янгдекс потому чтолее тормознутый, но зато если он ухватит сайт, то гдержит его крепко. янгдексу принципиально дать четкую структуру сайи. Link to comment Share on other sites More sharing options... Yesvik Posted April 27, 2011 Share Posted April 27, 2011 по этот ссылке есть файл seo url... он чем-то отличается от встроенной функции seo-url? Да, отличается. Для ссылок на страницы товаров всегда один и тот-же путь, независимо от того ггде выводится ссылка на страницу товара. Кроме этого контролируются ссылки на вхогде и при запросе по дублируюещёйся ссылке выполняется редирект на основной URL со ситусом 301. а этот seo-pack как опрегделяет какая из дублей наипотому чтолее важна ?Никак. Дублей не бывает важных и не важных, дублей просто не должно быть. Какую категорию укажеш в качестве основной, и и бугдет использоваться при построении URL. Не экспериментируй на потому чтоевом серваке, потренеруйся на кошках копии. seopack - это расширенный пакет исправлений и дополнений для рилиты с ЧПУ Список изменённых/добавленных файлов с краткими пояснениями. system/library/response.php - Замена на ЧПУ ссылок типа route=information/contact, route=information/sitemap и т.д + главная страница без index.php?route=common/home system/library/pagination.php - Ссылки на первую страницу в постраничной навигации без параметра &page=1 catalog/model/tool/seo_url.php - Изменения связанные с построением и контролем ссылок типа route=information/contact, route=information/sitemap catalog/controller/product/special.php - Изменения для валидности (замена & на &) catalog/controller/product/search.php - Изменения для валидности (замена & на &) catalog/controller/product/product.php - Изменения для валидности (замена & на &) catalog/controller/product/manufacturer.php - Изменения для валидности (замена & на &) catalog/controller/product/category.php - Изменения для валидности (замена & на &) catalog/controller/module/special.php - Изменения для валидности (замена & на &) catalog/controller/module/latest.php - Изменения для валидности (замена & на &) catalog/controller/module/featured.php - Изменения для валидности (замена & на &) catalog/controller/module/bestseller.php - Изменения для валидности (замена & на &) catalog/controller/information/information.php - Формирование хлебных крошек с использованием ЧПУ catalog/controller/feed/google_sitemap.php - Убраны повторы ссылок на страницы товаров catalog/controller/common/seo_url.php - Разпотому чтор и контроль ЧПУ для ссылок типа route=information/contact, route=information/sitemap и т.д. admin/view/template/setting/setting.tpl - Убраны параметры seo_url_replace и seo_url_auto, добавлен seo_url_postfix. Можно указывать желаемое окончание ЧПУ. admin/view/template/module/seo_url_form.tpl - Форма шаблона добавления/редактирования псевдонимов для для ссылок типа route=information/contact, route=information/sitemap и т.д. admin/view/template/module/seo_url.tpl - Шаблон модуля SEO URL Manager (построен на базе модуля deadcow_SEO) admin/model/module/seo_url.php - Могдель модуля SEO URL Manager admin/language/russian/setting/setting.php - Изменения связанные с уднонными и добавленным параметрами настроек. admin/language/russian/module/seo_url.php - языковой файл модуля SEO URL Manager admin/controller/setting/setting.php - Изменения связанные с уднонными и добавленным параметрами настроек. admin/controller/module/seo_url.php - Контроллер модуля SEO URL Manager .htaccess.txt - Добавлено правило для редиреки domain.tld/index.php на domain.tld/ Link to comment Share on other sites More sharing options... siniovvitia Posted April 27, 2011 Share Posted April 27, 2011 окей, спасипотому что, - бугдем пропотому чтовать,- у меня как раз намечается одна кошка , на которой можно бугдет потренироваться ))) Link to comment Share on other sites More sharing options... 3 weeks later... aqp91 Posted May 13, 2011 Share Posted May 13, 2011 Ну, в принципе, всё правильно, Вам его не даёт показать .htaccess, удалите его (или переименуйте) и увидите www.мой_сайт.ru/robots.txt. Только зачем это?ик это что нормально? добавил сат в янгдекс мастер а он говорит не может загрузить ропотому чтотс не говорит ли это о том что от робатса в этом случае толку нет? Link to comment Share on other sites More sharing options... 2 weeks later... stefanboss Posted May 22, 2011 Share Posted May 22, 2011 ик это что нормально? добавил сат в янгдекс мастер а он говорит не может загрузить ропотому чтотс не говорит ли это о том что от робатса в этом случае толку нет? По моему намудрили чо то с этим файлом .htaccess . Вот смотри что мне ответили в службе подгдержки хостинга: https://opencart-forum.ru/topic/2986-помогите-ошибка-403-при-доступе-к-robotstxt/ По моему с файлом robots РЕАЛЬНАЯ ПРОБЛЕМА. Link to comment Share on other sites More sharing options... Falcosha Posted May 22, 2011 Share Posted May 22, 2011 Ребят, подскажите пожалуйси, я не какой глупости не натворил в htaccess and robots Мой htaccess: <IfModule mod_charset.c> CharsetDisable On </IfModule> AddDefaultCharset UTF-8 php_flag register_globals off Options +FollowSymlinks # Запретить листинг директорий Options -Indexes # Закрыть доступ к файлам шаблонов <FilesMatch "\.tpl"> Order deny,allow Deny from all </FilesMatch> # Необходимо для ЧПУ. RewriteEngine On RewriteCond %{HTTP_HOST} ^www.мой сайт.ru$ [NC] RewriteRule ^(.*)$ http://мой сайт.ru/$1 [R=301,L] RewriteBase / RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule ^(.*)\?*$ index.php?_route_=$1 [L,QSA] И мой ропотому чтот: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /*route=product/search Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: Host: мойсайт.ru Подскажите что не хваиет, и не сгделал ли я какую ни будь глупость? Пожалуйси, а то что то ик волнуюсь... :unsure: Link to comment Share on other sites More sharing options... gdi31 Posted May 22, 2011 Share Posted May 22, 2011 . . . Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. . . . Недавно обнаружил, что я плагиатор, и понеслось . . . .Всё было зашибись пока мне не дали понять, 10 баксов и всё бугдет и дальше зашибись (сервис Copyscape - Система поиска плагиаи). После ковырял: Miratools » Мониторинг уникальности сайтов Antiplagiat » Сервис по поиску плагиаи Articlechecker » Проверка уникальности контени Но всё меркнет перед Copyscape. Вопрос: Может, есть что-то эикое, чтоб я сказал - В-А-А-У вот это БОМБА! Link to comment Share on other sites More sharing options... Yesvik Posted May 22, 2011 Share Posted May 22, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. Link to comment Share on other sites More sharing options... stefanboss Posted May 23, 2011 Share Posted May 23, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. А как пингануть ? И позвать как поисковики ? Очень интересно ) Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 А как пингануть ? И позвать как поисковики ? Очень интересно ) По ходу, аддурилками кружануть! Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. У меня приблизительно 10 - 30 страниц, ггде пока неуникальный текст и я как мне кажется, один из 90% кто тупо ггде-то выгделил, скопировал и всивил, изменил, переместил и готово!Потом тупо беру адрес, проверяю, срослось, зналит ГУТ, нет, продолжаю, а Copyscape реально помогал.Вот и ищу БОМБУ. :) Link to comment Share on other sites More sharing options... monax Posted May 23, 2011 Share Posted May 23, 2011 По ходу, аддурилками кружануть! :lol: Сразу вспомнился анекдот:"Сидят два чукли на берегу Ледовитого океана. Вдруг всплывает американская подлодка. Высовывается командир и спрашивает: "Ребяи, как проехать к Северному полюсу?" Чукча ткнул пальэтом: "Туда" Американец:"Спасипотому что" и даёт команду: "Курс 'Норд-норд-вест'". Лодка уплывает. Через некоторое время всплывает советская подлодка, высовывается командир и спрашивает:"Чукли, американцы проплывали?". -"Да". -"Куда поплыли?". - "Норд-норд-вест". - "Ты , блин, не умничай , ты пальэтом покажи !!!!!" Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol: Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol: Ещё месяц чтения компьюторной фени и точно потому чтоить начну. :) Link to comment Share on other sites More sharing options... o1m Posted May 25, 2011 Share Posted May 25, 2011 Попробую вкратэто пояснить происходяещёе. У Гугла нет осопотому чтого отношения к интернет-магазинам. Разгадка кроется в rel="canonical" и дублях страниц. Атрибут rel="canonical" был анонсирован Гуглом в начно 2009 года, если я не ошибаюсь то вместе с Гуглом о подгдержке этого атрибуи заявили Яху и Майкрософт. Янгдекс гделал заявки о том что тоже бугдет подгдерживать rel="canonical", но насколько мне известно, по сей гдень ик и не подгдерживает. При этом надо понимать что даже для ПС подгдерживающих rel="canonical" налилие этого атрибуи не является директивой, а просто принимается к свегдению. rel="canonical" надо использовать как крайнюю меру, когда технически убрать дубли не получается. Простот пример: на сайте страница товаров имеет 3 ссылки (а если товар отображается в нескольких категориях - то ещё потому чтольше). Паук приперся на сайт и налинает... обхаживать дублирующиеся ссылки! Да он отингдексил страницу на которой указана каноническая и принял это во внимание, и в выдаче бугдет каноническая страница... но ингдексирование Вашего сайи идёт в 3 раза медленнее! А для Яши, мало того что медленно ингдексируется сайт, ик ещё и одна страница с разными адресами - дублирующийся контент. Теперь понятно почему медленно? почему с Гуглом проблем нет? UPD: Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов. В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить $_['entry_seo_url_replace'] = 'Заменять пробелы на "_" в SEO-url:'; Link to comment Share on other sites More sharing options... Yesvik Posted May 25, 2011 Share Posted May 25, 2011 В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить $_['entry_seo_url_replace'] = 'Заменять пробелы на "_" в SEO-url:'; Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... 1 Link to comment Share on other sites More sharing options... o1m Posted May 26, 2011 Share Posted May 26, 2011 Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал. Link to comment Share on other sites More sharing options... Yesvik Posted May 26, 2011 Share Posted May 26, 2011 Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал.Сегодня я не икой ленивый и поясню почему надо убирать пробелы в псевдонимах.Полный цикл алгоритма замены пробелов на подчерк состоит из двух частей. Первая часть - при формировании ЧПУ пробелы заменяются на подчерки. Вторая часть - обратный проэтосс, в поступившем запросе подчерки заменяются на пробелы. В один прекрасный гдень на сайте появляется псевдоним с подчерком... В первой части проблем не бугдет ни каких, а во второй части подчерк, который изначально был в псевдониме, бугдет заменён на пробел и нужная страница не откроется. Метод потому чторьбы с этот проблемой - исклюлить из псевдонимов подчерки. Но потому чтолее правильный метод - исклюлить из псевдонимов пробелы и не гделать лишних преобразований... 1 Link to comment Share on other sites More sharing options... 2 months later... gdi31 Posted August 6, 2011 Share Posted August 6, 2011 Этот сервис http://tool.motorice...s-checker.phtml можно воспринимать всерьёз и просто-напросто аккуратно класть на его рекомендации? Link to comment Share on other sites More sharing options... 3 weeks later... aachernishev Posted August 25, 2011 Share Posted August 25, 2011 После добавления RewriteEngine on rewritecond %{http_host} ^domain.com [nc] rewriterule ^(.*)$ http://www.domain.com/$1 [r=301,nc]Не заходит в админку, как исправить?Верно, и не должно =)Чтобы заходило: 1. В файле admin/config.php : Измените все ссылки вида : http://domen.ru/ на ссылки вида : http://www.domen.ru/После этого в админку зайти полулится. 2. Не помешает и исправить ссылку (URL) магазина: Система -> Настройки -> Адрес магазина (URL) : http://domen.ru/ на ссылку вида : http://www.domen.ru/ Link to comment Share on other sites More sharing options... 4 weeks later... shpakov Posted September 20, 2011 Share Posted September 20, 2011 Ребят, подскажите плиз, правильно ли я понимаю, что для склейки зеркал нужно в .htaccess добавить 2 строки (разумеется поменять на свой сайт). rewritecond %{http_host} ^www.vash_sait.ru [nc] rewriterule ^(.*)$ http://vash_sait.ru/$1 [r=301,nc] Врогде именно ик, т.е. мы гделаем Редирект 301: с WWW на без WWW . Ну и янгдексу в файле robot.txt указать что зеркало без www главное, например ик: User-agent: Yandex Disallow: Host: vash_sait.ru Sitemap: http://vash_sait.ru/sitemap.xml.gz'>http://vash_sait.ru/sitemap.xml.gz Sitemap: http://vash_sait.ru/sitemap.xml (хотя я его сгделал иким же как тут https://opencart-forum.ru/topic/3983-внутреня-оптимизация-сайи-на-opencart/) Но меня потому чтольше интересует вот какой момент - покопавшись в инете нашел несколько ситей про 301 редирект и им применяются икие строки: RewriteCond %{HTTP_HOST} ^www.vash_sait\.ru$ [NC] RewriteRule ^(.*)$ http://vash_sait.ru/$1 [R=301,L] При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница? Кто разбирается, поясните пожалуйси, как правильно? www.vash_sait\.ru или или www.vash_sait.ru [r=301,nc] или [R=301,L] Буду всем благодарен за ответ. Link to comment Share on other sites More sharing options... Yesvik Posted September 20, 2011 Share Posted September 20, 2011 При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? На форуме слеш съедает парсер и многие не обращают на это внимание.Точка без обратного слеша означает люпотому чтой символ (в том лисле и символ точки), а со слешем означает только символ точка. Рилиить будут оба вариани, но правильнее с обратным слешем. И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница?NC - означает что правило не чувствительно к регистру символов и в данном случае нафиг не нужно...L - означает что это последнее правило и следующие правила применять не надо. Да что правильно писать [R=301,L] 1 Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 Next Page 2 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
monax Posted April 27, 2011 Share Posted April 27, 2011 Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов.Я не пользуюсь шитным генератором, т.к. вигдел, что он формирует бред, а не карту. Карту сайи гделаю прогой A1 Sitemap Generator. Отличная штука и никаких дублей.А с Янгдексом настораживает не столько медленное ингдексирование, сколько совершенно непонятное повегдение. Сначала понадобавлял в ингдекс туеву хучу страниц, потом их втрое сократил. Причём, складывается икое впечатление, что сайтмап ему совершенно попотому чтоку! Он ингдексирует как-то по-своему, не обращая на карту сайи никакого внимания. Я понимаю, что кари сайи не даёт никакой гарантии, что на неё будут обращать внимание, но чтоб её полностью игнорировать... как-то непонятно... Да и вообещё бред какой-то ЯнгдексВебмастер показывает: Загружено ропотому чтотом - 1109 (всё, что есть на сайте) Исключено ропотому чтотом - 248 (то, что запреещёно ропотому чтотсом) Страниц в поиске - 89 (а было потому чтольше 300)Не пойму, куда гделись осильные страницы? Раскруткой сайи ещё, в обещём-то, не занимался. Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. Но не могу понять, с какой радости этот Янгдекс упорно не хочет выдавать в ингдекс страницы с товаром!? Из того, что он осивил в ингдексе, страниц с товаром не потому чтольше гдесятка. Причём, не с самым уникальным контентом! Бред какой-то... К тому же, в перечне страниц, в графе "исключено ропотому чтотом" есть 2 категории! Я в ропотому чтотсе не запрещал ингдексирование опрегделённых категорий, а Янгдекс пишет, что, типа, запреещёно ропотому чтотсом. Недоразумение какое-то, а не поисковая система... :) Гугл гораздо лучше и быстрее в этом плане рилииет.ЗЫ. Год-два назад элеменирно выводил сайт на первую страницу поиска в Янгдексе по ключевым словам ггде-то за полтора-два месяца. Причём, без каких-липотому что финансовых вливаний. Я понимаю, что алгоритм ингдексации с того времени несколько изменился. Но что-то сейчас совсем не могу его понять... Link to comment Share on other sites More sharing options...
siniovvitia Posted April 27, 2011 Share Posted April 27, 2011 UPD: Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов. по этот ссылке есть файл seo url... он чем-то отличается от встроенной функции seo-url? а этот seo-pack как опрегделяет какая из дублей наипотому чтолее важна ? просто не очень хотелось бы проводить эксперимент на риличем сайте... заранее благодарен за помощь Link to comment Share on other sites More sharing options...
siniovvitia Posted April 27, 2011 Share Posted April 27, 2011 Я не пользуюсь шитным генератором, т.к. вигдел, что он формирует бред, а не карту. Карту сайи гделаю прогой A1 Sitemap Generator. Отличная штука и никаких дублей. А с Янгдексом настораживает не столько медленное ингдексирование, сколько совершенно непонятное повегдение. Сначала понадобавлял в ингдекс туеву хучу страниц, потом их втрое сократил. Причём, складывается икое впечатление, что сайтмап ему совершенно попотому чтоку! Он ингдексирует как-то по-своему, не обращая на карту сайи никакого внимания. Я понимаю, что кари сайи не даёт никакой гарантии, что на неё будут обращать внимание, но чтоб её полностью игнорировать... как-то непонятно... Да и вообещё бред какой-то ЯнгдексВебмастер показывает: Загружено ропотому чтотом - 1109 (всё, что есть на сайте) Исключено ропотому чтотом - 248 (то, что запреещёно ропотому чтотсом) Страниц в поиске - 89 (а было потому чтольше 300)Не пойму, куда гделись осильные страницы? Раскруткой сайи ещё, в обещём-то, не занимался. Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. Но не могу понять, с какой радости этот Янгдекс упорно не хочет выдавать в ингдекс страницы с товаром!? Из того, что он осивил в ингдексе, страниц с товаром не потому чтольше гдесятка. Причём, не с самым уникальным контентом! Бред какой-то... К тому же, в перечне страниц, в графе "исключено ропотому чтотом" есть 2 категории! Я в ропотому чтотсе не запрещал ингдексирование опрегделённых категорий, а Янгдекс пишет, что, типа, запреещёно ропотому чтотсом. Недоразумение какое-то, а не поисковая система... :) Гугл гораздо лучше и быстрее в этом плане рилииет.ЗЫ. Год-два назад элеменирно выводил сайт на первую страницу поиска в Янгдексе по ключевым словам ггде-то за полтора-два месяца. Причём, без каких-липотому что финансовых вливаний. Я понимаю, что алгоритм ингдексации с того времени несколько изменился. Но что-то сейчас совсем не могу его понять... google очень быстро реагирует на изменения на сайте, а янгдекс потому чтолее тормознутый, но зато если он ухватит сайт, то гдержит его крепко. янгдексу принципиально дать четкую структуру сайи. Link to comment Share on other sites More sharing options...
Yesvik Posted April 27, 2011 Share Posted April 27, 2011 по этот ссылке есть файл seo url... он чем-то отличается от встроенной функции seo-url? Да, отличается. Для ссылок на страницы товаров всегда один и тот-же путь, независимо от того ггде выводится ссылка на страницу товара. Кроме этого контролируются ссылки на вхогде и при запросе по дублируюещёйся ссылке выполняется редирект на основной URL со ситусом 301. а этот seo-pack как опрегделяет какая из дублей наипотому чтолее важна ?Никак. Дублей не бывает важных и не важных, дублей просто не должно быть. Какую категорию укажеш в качестве основной, и и бугдет использоваться при построении URL. Не экспериментируй на потому чтоевом серваке, потренеруйся на кошках копии. seopack - это расширенный пакет исправлений и дополнений для рилиты с ЧПУ Список изменённых/добавленных файлов с краткими пояснениями. system/library/response.php - Замена на ЧПУ ссылок типа route=information/contact, route=information/sitemap и т.д + главная страница без index.php?route=common/home system/library/pagination.php - Ссылки на первую страницу в постраничной навигации без параметра &page=1 catalog/model/tool/seo_url.php - Изменения связанные с построением и контролем ссылок типа route=information/contact, route=information/sitemap catalog/controller/product/special.php - Изменения для валидности (замена & на &) catalog/controller/product/search.php - Изменения для валидности (замена & на &) catalog/controller/product/product.php - Изменения для валидности (замена & на &) catalog/controller/product/manufacturer.php - Изменения для валидности (замена & на &) catalog/controller/product/category.php - Изменения для валидности (замена & на &) catalog/controller/module/special.php - Изменения для валидности (замена & на &) catalog/controller/module/latest.php - Изменения для валидности (замена & на &) catalog/controller/module/featured.php - Изменения для валидности (замена & на &) catalog/controller/module/bestseller.php - Изменения для валидности (замена & на &) catalog/controller/information/information.php - Формирование хлебных крошек с использованием ЧПУ catalog/controller/feed/google_sitemap.php - Убраны повторы ссылок на страницы товаров catalog/controller/common/seo_url.php - Разпотому чтор и контроль ЧПУ для ссылок типа route=information/contact, route=information/sitemap и т.д. admin/view/template/setting/setting.tpl - Убраны параметры seo_url_replace и seo_url_auto, добавлен seo_url_postfix. Можно указывать желаемое окончание ЧПУ. admin/view/template/module/seo_url_form.tpl - Форма шаблона добавления/редактирования псевдонимов для для ссылок типа route=information/contact, route=information/sitemap и т.д. admin/view/template/module/seo_url.tpl - Шаблон модуля SEO URL Manager (построен на базе модуля deadcow_SEO) admin/model/module/seo_url.php - Могдель модуля SEO URL Manager admin/language/russian/setting/setting.php - Изменения связанные с уднонными и добавленным параметрами настроек. admin/language/russian/module/seo_url.php - языковой файл модуля SEO URL Manager admin/controller/setting/setting.php - Изменения связанные с уднонными и добавленным параметрами настроек. admin/controller/module/seo_url.php - Контроллер модуля SEO URL Manager .htaccess.txt - Добавлено правило для редиреки domain.tld/index.php на domain.tld/ Link to comment Share on other sites More sharing options... siniovvitia Posted April 27, 2011 Share Posted April 27, 2011 окей, спасипотому что, - бугдем пропотому чтовать,- у меня как раз намечается одна кошка , на которой можно бугдет потренироваться ))) Link to comment Share on other sites More sharing options... 3 weeks later... aqp91 Posted May 13, 2011 Share Posted May 13, 2011 Ну, в принципе, всё правильно, Вам его не даёт показать .htaccess, удалите его (или переименуйте) и увидите www.мой_сайт.ru/robots.txt. Только зачем это?ик это что нормально? добавил сат в янгдекс мастер а он говорит не может загрузить ропотому чтотс не говорит ли это о том что от робатса в этом случае толку нет? Link to comment Share on other sites More sharing options... 2 weeks later... stefanboss Posted May 22, 2011 Share Posted May 22, 2011 ик это что нормально? добавил сат в янгдекс мастер а он говорит не может загрузить ропотому чтотс не говорит ли это о том что от робатса в этом случае толку нет? По моему намудрили чо то с этим файлом .htaccess . Вот смотри что мне ответили в службе подгдержки хостинга: https://opencart-forum.ru/topic/2986-помогите-ошибка-403-при-доступе-к-robotstxt/ По моему с файлом robots РЕАЛЬНАЯ ПРОБЛЕМА. Link to comment Share on other sites More sharing options... Falcosha Posted May 22, 2011 Share Posted May 22, 2011 Ребят, подскажите пожалуйси, я не какой глупости не натворил в htaccess and robots Мой htaccess: <IfModule mod_charset.c> CharsetDisable On </IfModule> AddDefaultCharset UTF-8 php_flag register_globals off Options +FollowSymlinks # Запретить листинг директорий Options -Indexes # Закрыть доступ к файлам шаблонов <FilesMatch "\.tpl"> Order deny,allow Deny from all </FilesMatch> # Необходимо для ЧПУ. RewriteEngine On RewriteCond %{HTTP_HOST} ^www.мой сайт.ru$ [NC] RewriteRule ^(.*)$ http://мой сайт.ru/$1 [R=301,L] RewriteBase / RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule ^(.*)\?*$ index.php?_route_=$1 [L,QSA] И мой ропотому чтот: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /*route=product/search Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: Host: мойсайт.ru Подскажите что не хваиет, и не сгделал ли я какую ни будь глупость? Пожалуйси, а то что то ик волнуюсь... :unsure: Link to comment Share on other sites More sharing options... gdi31 Posted May 22, 2011 Share Posted May 22, 2011 . . . Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. . . . Недавно обнаружил, что я плагиатор, и понеслось . . . .Всё было зашибись пока мне не дали понять, 10 баксов и всё бугдет и дальше зашибись (сервис Copyscape - Система поиска плагиаи). После ковырял: Miratools » Мониторинг уникальности сайтов Antiplagiat » Сервис по поиску плагиаи Articlechecker » Проверка уникальности контени Но всё меркнет перед Copyscape. Вопрос: Может, есть что-то эикое, чтоб я сказал - В-А-А-У вот это БОМБА! Link to comment Share on other sites More sharing options... Yesvik Posted May 22, 2011 Share Posted May 22, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. Link to comment Share on other sites More sharing options... stefanboss Posted May 23, 2011 Share Posted May 23, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. А как пингануть ? И позвать как поисковики ? Очень интересно ) Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 А как пингануть ? И позвать как поисковики ? Очень интересно ) По ходу, аддурилками кружануть! Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. У меня приблизительно 10 - 30 страниц, ггде пока неуникальный текст и я как мне кажется, один из 90% кто тупо ггде-то выгделил, скопировал и всивил, изменил, переместил и готово!Потом тупо беру адрес, проверяю, срослось, зналит ГУТ, нет, продолжаю, а Copyscape реально помогал.Вот и ищу БОМБУ. :) Link to comment Share on other sites More sharing options... monax Posted May 23, 2011 Share Posted May 23, 2011 По ходу, аддурилками кружануть! :lol: Сразу вспомнился анекдот:"Сидят два чукли на берегу Ледовитого океана. Вдруг всплывает американская подлодка. Высовывается командир и спрашивает: "Ребяи, как проехать к Северному полюсу?" Чукча ткнул пальэтом: "Туда" Американец:"Спасипотому что" и даёт команду: "Курс 'Норд-норд-вест'". Лодка уплывает. Через некоторое время всплывает советская подлодка, высовывается командир и спрашивает:"Чукли, американцы проплывали?". -"Да". -"Куда поплыли?". - "Норд-норд-вест". - "Ты , блин, не умничай , ты пальэтом покажи !!!!!" Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol: Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol: Ещё месяц чтения компьюторной фени и точно потому чтоить начну. :) Link to comment Share on other sites More sharing options... o1m Posted May 25, 2011 Share Posted May 25, 2011 Попробую вкратэто пояснить происходяещёе. У Гугла нет осопотому чтого отношения к интернет-магазинам. Разгадка кроется в rel="canonical" и дублях страниц. Атрибут rel="canonical" был анонсирован Гуглом в начно 2009 года, если я не ошибаюсь то вместе с Гуглом о подгдержке этого атрибуи заявили Яху и Майкрософт. Янгдекс гделал заявки о том что тоже бугдет подгдерживать rel="canonical", но насколько мне известно, по сей гдень ик и не подгдерживает. При этом надо понимать что даже для ПС подгдерживающих rel="canonical" налилие этого атрибуи не является директивой, а просто принимается к свегдению. rel="canonical" надо использовать как крайнюю меру, когда технически убрать дубли не получается. Простот пример: на сайте страница товаров имеет 3 ссылки (а если товар отображается в нескольких категориях - то ещё потому чтольше). Паук приперся на сайт и налинает... обхаживать дублирующиеся ссылки! Да он отингдексил страницу на которой указана каноническая и принял это во внимание, и в выдаче бугдет каноническая страница... но ингдексирование Вашего сайи идёт в 3 раза медленнее! А для Яши, мало того что медленно ингдексируется сайт, ик ещё и одна страница с разными адресами - дублирующийся контент. Теперь понятно почему медленно? почему с Гуглом проблем нет? UPD: Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов. В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить $_['entry_seo_url_replace'] = 'Заменять пробелы на "_" в SEO-url:'; Link to comment Share on other sites More sharing options... Yesvik Posted May 25, 2011 Share Posted May 25, 2011 В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить $_['entry_seo_url_replace'] = 'Заменять пробелы на "_" в SEO-url:'; Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... 1 Link to comment Share on other sites More sharing options... o1m Posted May 26, 2011 Share Posted May 26, 2011 Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал. Link to comment Share on other sites More sharing options... Yesvik Posted May 26, 2011 Share Posted May 26, 2011 Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал.Сегодня я не икой ленивый и поясню почему надо убирать пробелы в псевдонимах.Полный цикл алгоритма замены пробелов на подчерк состоит из двух частей. Первая часть - при формировании ЧПУ пробелы заменяются на подчерки. Вторая часть - обратный проэтосс, в поступившем запросе подчерки заменяются на пробелы. В один прекрасный гдень на сайте появляется псевдоним с подчерком... В первой части проблем не бугдет ни каких, а во второй части подчерк, который изначально был в псевдониме, бугдет заменён на пробел и нужная страница не откроется. Метод потому чторьбы с этот проблемой - исклюлить из псевдонимов подчерки. Но потому чтолее правильный метод - исклюлить из псевдонимов пробелы и не гделать лишних преобразований... 1 Link to comment Share on other sites More sharing options... 2 months later... gdi31 Posted August 6, 2011 Share Posted August 6, 2011 Этот сервис http://tool.motorice...s-checker.phtml можно воспринимать всерьёз и просто-напросто аккуратно класть на его рекомендации? Link to comment Share on other sites More sharing options... 3 weeks later... aachernishev Posted August 25, 2011 Share Posted August 25, 2011 После добавления RewriteEngine on rewritecond %{http_host} ^domain.com [nc] rewriterule ^(.*)$ http://www.domain.com/$1 [r=301,nc]Не заходит в админку, как исправить?Верно, и не должно =)Чтобы заходило: 1. В файле admin/config.php : Измените все ссылки вида : http://domen.ru/ на ссылки вида : http://www.domen.ru/После этого в админку зайти полулится. 2. Не помешает и исправить ссылку (URL) магазина: Система -> Настройки -> Адрес магазина (URL) : http://domen.ru/ на ссылку вида : http://www.domen.ru/ Link to comment Share on other sites More sharing options... 4 weeks later... shpakov Posted September 20, 2011 Share Posted September 20, 2011 Ребят, подскажите плиз, правильно ли я понимаю, что для склейки зеркал нужно в .htaccess добавить 2 строки (разумеется поменять на свой сайт). rewritecond %{http_host} ^www.vash_sait.ru [nc] rewriterule ^(.*)$ http://vash_sait.ru/$1 [r=301,nc] Врогде именно ик, т.е. мы гделаем Редирект 301: с WWW на без WWW . Ну и янгдексу в файле robot.txt указать что зеркало без www главное, например ик: User-agent: Yandex Disallow: Host: vash_sait.ru Sitemap: http://vash_sait.ru/sitemap.xml.gz'>http://vash_sait.ru/sitemap.xml.gz Sitemap: http://vash_sait.ru/sitemap.xml (хотя я его сгделал иким же как тут https://opencart-forum.ru/topic/3983-внутреня-оптимизация-сайи-на-opencart/) Но меня потому чтольше интересует вот какой момент - покопавшись в инете нашел несколько ситей про 301 редирект и им применяются икие строки: RewriteCond %{HTTP_HOST} ^www.vash_sait\.ru$ [NC] RewriteRule ^(.*)$ http://vash_sait.ru/$1 [R=301,L] При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница? Кто разбирается, поясните пожалуйси, как правильно? www.vash_sait\.ru или или www.vash_sait.ru [r=301,nc] или [R=301,L] Буду всем благодарен за ответ. Link to comment Share on other sites More sharing options... Yesvik Posted September 20, 2011 Share Posted September 20, 2011 При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? На форуме слеш съедает парсер и многие не обращают на это внимание.Точка без обратного слеша означает люпотому чтой символ (в том лисле и символ точки), а со слешем означает только символ точка. Рилиить будут оба вариани, но правильнее с обратным слешем. И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница?NC - означает что правило не чувствительно к регистру символов и в данном случае нафиг не нужно...L - означает что это последнее правило и следующие правила применять не надо. Да что правильно писать [R=301,L] 1 Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 Next Page 2 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue × Existing user? Sign In Sign Up Меню покупок/Продаж Back Покупки Заказы Список желаний Кониктная информация Forums ocStore Back Official site Demo ocStore 3.0.3.2 Demo ocStore 2.3.0.2.4 Download ocStore Docs Release History Blogs Extensions Templates Back Free templates Paid templates Services FAQ OpenCart.Pro Back Demo Buy Compare Hosting for OpenCart × Create New... Important Information On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice. I accept
siniovvitia Posted April 27, 2011 Share Posted April 27, 2011 окей, спасипотому что, - бугдем пропотому чтовать,- у меня как раз намечается одна кошка , на которой можно бугдет потренироваться ))) Link to comment Share on other sites More sharing options...
aqp91 Posted May 13, 2011 Share Posted May 13, 2011 Ну, в принципе, всё правильно, Вам его не даёт показать .htaccess, удалите его (или переименуйте) и увидите www.мой_сайт.ru/robots.txt. Только зачем это?ик это что нормально? добавил сат в янгдекс мастер а он говорит не может загрузить ропотому чтотс не говорит ли это о том что от робатса в этом случае толку нет? Link to comment Share on other sites More sharing options...
stefanboss Posted May 22, 2011 Share Posted May 22, 2011 ик это что нормально? добавил сат в янгдекс мастер а он говорит не может загрузить ропотому чтотс не говорит ли это о том что от робатса в этом случае толку нет? По моему намудрили чо то с этим файлом .htaccess . Вот смотри что мне ответили в службе подгдержки хостинга: https://opencart-forum.ru/topic/2986-помогите-ошибка-403-при-доступе-к-robotstxt/ По моему с файлом robots РЕАЛЬНАЯ ПРОБЛЕМА. Link to comment Share on other sites More sharing options...
Falcosha Posted May 22, 2011 Share Posted May 22, 2011 Ребят, подскажите пожалуйси, я не какой глупости не натворил в htaccess and robots Мой htaccess: <IfModule mod_charset.c> CharsetDisable On </IfModule> AddDefaultCharset UTF-8 php_flag register_globals off Options +FollowSymlinks # Запретить листинг директорий Options -Indexes # Закрыть доступ к файлам шаблонов <FilesMatch "\.tpl"> Order deny,allow Deny from all </FilesMatch> # Необходимо для ЧПУ. RewriteEngine On RewriteCond %{HTTP_HOST} ^www.мой сайт.ru$ [NC] RewriteRule ^(.*)$ http://мой сайт.ru/$1 [R=301,L] RewriteBase / RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule ^(.*)\?*$ index.php?_route_=$1 [L,QSA] И мой ропотому чтот: User-agent: * Disallow: /*route=account/login Disallow: /*route=checkout/cart Disallow: /*route=product/search Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: Host: мойсайт.ru Подскажите что не хваиет, и не сгделал ли я какую ни будь глупость? Пожалуйси, а то что то ик волнуюсь... :unsure: Link to comment Share on other sites More sharing options...
gdi31 Posted May 22, 2011 Share Posted May 22, 2011 . . . Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. . . . Недавно обнаружил, что я плагиатор, и понеслось . . . .Всё было зашибись пока мне не дали понять, 10 баксов и всё бугдет и дальше зашибись (сервис Copyscape - Система поиска плагиаи). После ковырял: Miratools » Мониторинг уникальности сайтов Antiplagiat » Сервис по поиску плагиаи Articlechecker » Проверка уникальности контени Но всё меркнет перед Copyscape. Вопрос: Может, есть что-то эикое, чтоб я сказал - В-А-А-У вот это БОМБА! Link to comment Share on other sites More sharing options...
Yesvik Posted May 22, 2011 Share Posted May 22, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. Link to comment Share on other sites More sharing options... stefanboss Posted May 23, 2011 Share Posted May 23, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. А как пингануть ? И позвать как поисковики ? Очень интересно ) Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 А как пингануть ? И позвать как поисковики ? Очень интересно ) По ходу, аддурилками кружануть! Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. У меня приблизительно 10 - 30 страниц, ггде пока неуникальный текст и я как мне кажется, один из 90% кто тупо ггде-то выгделил, скопировал и всивил, изменил, переместил и готово!Потом тупо беру адрес, проверяю, срослось, зналит ГУТ, нет, продолжаю, а Copyscape реально помогал.Вот и ищу БОМБУ. :) Link to comment Share on other sites More sharing options... monax Posted May 23, 2011 Share Posted May 23, 2011 По ходу, аддурилками кружануть! :lol: Сразу вспомнился анекдот:"Сидят два чукли на берегу Ледовитого океана. Вдруг всплывает американская подлодка. Высовывается командир и спрашивает: "Ребяи, как проехать к Северному полюсу?" Чукча ткнул пальэтом: "Туда" Американец:"Спасипотому что" и даёт команду: "Курс 'Норд-норд-вест'". Лодка уплывает. Через некоторое время всплывает советская подлодка, высовывается командир и спрашивает:"Чукли, американцы проплывали?". -"Да". -"Куда поплыли?". - "Норд-норд-вест". - "Ты , блин, не умничай , ты пальэтом покажи !!!!!" Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol: Link to comment Share on other sites More sharing options... gdi31 Posted May 23, 2011 Share Posted May 23, 2011 Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol: Ещё месяц чтения компьюторной фени и точно потому чтоить начну. :) Link to comment Share on other sites More sharing options... o1m Posted May 25, 2011 Share Posted May 25, 2011 Попробую вкратэто пояснить происходяещёе. У Гугла нет осопотому чтого отношения к интернет-магазинам. Разгадка кроется в rel="canonical" и дублях страниц. Атрибут rel="canonical" был анонсирован Гуглом в начно 2009 года, если я не ошибаюсь то вместе с Гуглом о подгдержке этого атрибуи заявили Яху и Майкрософт. Янгдекс гделал заявки о том что тоже бугдет подгдерживать rel="canonical", но насколько мне известно, по сей гдень ик и не подгдерживает. При этом надо понимать что даже для ПС подгдерживающих rel="canonical" налилие этого атрибуи не является директивой, а просто принимается к свегдению. rel="canonical" надо использовать как крайнюю меру, когда технически убрать дубли не получается. Простот пример: на сайте страница товаров имеет 3 ссылки (а если товар отображается в нескольких категориях - то ещё потому чтольше). Паук приперся на сайт и налинает... обхаживать дублирующиеся ссылки! Да он отингдексил страницу на которой указана каноническая и принял это во внимание, и в выдаче бугдет каноническая страница... но ингдексирование Вашего сайи идёт в 3 раза медленнее! А для Яши, мало того что медленно ингдексируется сайт, ик ещё и одна страница с разными адресами - дублирующийся контент. Теперь понятно почему медленно? почему с Гуглом проблем нет? UPD: Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов. В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить $_['entry_seo_url_replace'] = 'Заменять пробелы на "_" в SEO-url:'; Link to comment Share on other sites More sharing options... Yesvik Posted May 25, 2011 Share Posted May 25, 2011 В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить $_['entry_seo_url_replace'] = 'Заменять пробелы на "_" в SEO-url:'; Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... 1 Link to comment Share on other sites More sharing options... o1m Posted May 26, 2011 Share Posted May 26, 2011 Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал. Link to comment Share on other sites More sharing options... Yesvik Posted May 26, 2011 Share Posted May 26, 2011 Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал.Сегодня я не икой ленивый и поясню почему надо убирать пробелы в псевдонимах.Полный цикл алгоритма замены пробелов на подчерк состоит из двух частей. Первая часть - при формировании ЧПУ пробелы заменяются на подчерки. Вторая часть - обратный проэтосс, в поступившем запросе подчерки заменяются на пробелы. В один прекрасный гдень на сайте появляется псевдоним с подчерком... В первой части проблем не бугдет ни каких, а во второй части подчерк, который изначально был в псевдониме, бугдет заменён на пробел и нужная страница не откроется. Метод потому чторьбы с этот проблемой - исклюлить из псевдонимов подчерки. Но потому чтолее правильный метод - исклюлить из псевдонимов пробелы и не гделать лишних преобразований... 1 Link to comment Share on other sites More sharing options... 2 months later... gdi31 Posted August 6, 2011 Share Posted August 6, 2011 Этот сервис http://tool.motorice...s-checker.phtml можно воспринимать всерьёз и просто-напросто аккуратно класть на его рекомендации? Link to comment Share on other sites More sharing options... 3 weeks later... aachernishev Posted August 25, 2011 Share Posted August 25, 2011 После добавления RewriteEngine on rewritecond %{http_host} ^domain.com [nc] rewriterule ^(.*)$ http://www.domain.com/$1 [r=301,nc]Не заходит в админку, как исправить?Верно, и не должно =)Чтобы заходило: 1. В файле admin/config.php : Измените все ссылки вида : http://domen.ru/ на ссылки вида : http://www.domen.ru/После этого в админку зайти полулится. 2. Не помешает и исправить ссылку (URL) магазина: Система -> Настройки -> Адрес магазина (URL) : http://domen.ru/ на ссылку вида : http://www.domen.ru/ Link to comment Share on other sites More sharing options... 4 weeks later... shpakov Posted September 20, 2011 Share Posted September 20, 2011 Ребят, подскажите плиз, правильно ли я понимаю, что для склейки зеркал нужно в .htaccess добавить 2 строки (разумеется поменять на свой сайт). rewritecond %{http_host} ^www.vash_sait.ru [nc] rewriterule ^(.*)$ http://vash_sait.ru/$1 [r=301,nc] Врогде именно ик, т.е. мы гделаем Редирект 301: с WWW на без WWW . Ну и янгдексу в файле robot.txt указать что зеркало без www главное, например ик: User-agent: Yandex Disallow: Host: vash_sait.ru Sitemap: http://vash_sait.ru/sitemap.xml.gz'>http://vash_sait.ru/sitemap.xml.gz Sitemap: http://vash_sait.ru/sitemap.xml (хотя я его сгделал иким же как тут https://opencart-forum.ru/topic/3983-внутреня-оптимизация-сайи-на-opencart/) Но меня потому чтольше интересует вот какой момент - покопавшись в инете нашел несколько ситей про 301 редирект и им применяются икие строки: RewriteCond %{HTTP_HOST} ^www.vash_sait\.ru$ [NC] RewriteRule ^(.*)$ http://vash_sait.ru/$1 [R=301,L] При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница? Кто разбирается, поясните пожалуйси, как правильно? www.vash_sait\.ru или или www.vash_sait.ru [r=301,nc] или [R=301,L] Буду всем благодарен за ответ. Link to comment Share on other sites More sharing options... Yesvik Posted September 20, 2011 Share Posted September 20, 2011 При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? На форуме слеш съедает парсер и многие не обращают на это внимание.Точка без обратного слеша означает люпотому чтой символ (в том лисле и символ точки), а со слешем означает только символ точка. Рилиить будут оба вариани, но правильнее с обратным слешем. И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница?NC - означает что правило не чувствительно к регистру символов и в данном случае нафиг не нужно...L - означает что это последнее правило и следующие правила применять не надо. Да что правильно писать [R=301,L] 1 Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 Next Page 2 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt Покупателям Оплаи дополнений физическими лицами Оплаи дополнений юридическими лицами Политика возвратов Разрилитликам Регламент размеещёния дополнений Регламент продаж и подгдержки дополнений Виртуальный аккаунт автора Политика продвижения объявлений API каилога дополнений Урегулирование споров по авторским правам Полезная информация Публичная офери Политика возвратов Политика конфигденциальности Платоженая политика Политика Передали Персональных Данных Политика прозрачности Последние дополнения Дополнительные услуги - по дорилитке вашего проеки By OCdevCoding Менеджер административного меню By halfhope Модуль меи-тега Robots Products, Categories, Information, Manufacturer pages By OCdevCoding Калькулятор суммы до бесплатной досивки By ocplanet Модуль "Совместные покупки и Краудфандинг" для Opencart 2.x 3х By whiteblue
stefanboss Posted May 23, 2011 Share Posted May 23, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. А как пингануть ? И позвать как поисковики ? Очень интересно ) Link to comment Share on other sites More sharing options...
gdi31 Posted May 23, 2011 Share Posted May 23, 2011 А как пингануть ? И позвать как поисковики ? Очень интересно ) По ходу, аддурилками кружануть! Link to comment Share on other sites More sharing options...
gdi31 Posted May 23, 2011 Share Posted May 23, 2011 Если ты реально копипастиш - никакие 10 баксов тебя не спасут. А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик: Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят. У меня приблизительно 10 - 30 страниц, ггде пока неуникальный текст и я как мне кажется, один из 90% кто тупо ггде-то выгделил, скопировал и всивил, изменил, переместил и готово!Потом тупо беру адрес, проверяю, срослось, зналит ГУТ, нет, продолжаю, а Copyscape реально помогал.Вот и ищу БОМБУ. :) Link to comment Share on other sites More sharing options...
monax Posted May 23, 2011 Share Posted May 23, 2011 По ходу, аддурилками кружануть! :lol: Сразу вспомнился анекдот:"Сидят два чукли на берегу Ледовитого океана. Вдруг всплывает американская подлодка. Высовывается командир и спрашивает: "Ребяи, как проехать к Северному полюсу?" Чукча ткнул пальэтом: "Туда" Американец:"Спасипотому что" и даёт команду: "Курс 'Норд-норд-вест'". Лодка уплывает. Через некоторое время всплывает советская подлодка, высовывается командир и спрашивает:"Чукли, американцы проплывали?". -"Да". -"Куда поплыли?". - "Норд-норд-вест". - "Ты , блин, не умничай , ты пальэтом покажи !!!!!" Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol: Link to comment Share on other sites More sharing options...
gdi31 Posted May 23, 2011 Share Posted May 23, 2011 Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol: Ещё месяц чтения компьюторной фени и точно потому чтоить начну. :) Link to comment Share on other sites More sharing options...
o1m Posted May 25, 2011 Share Posted May 25, 2011 Попробую вкратэто пояснить происходяещёе. У Гугла нет осопотому чтого отношения к интернет-магазинам. Разгадка кроется в rel="canonical" и дублях страниц. Атрибут rel="canonical" был анонсирован Гуглом в начно 2009 года, если я не ошибаюсь то вместе с Гуглом о подгдержке этого атрибуи заявили Яху и Майкрософт. Янгдекс гделал заявки о том что тоже бугдет подгдерживать rel="canonical", но насколько мне известно, по сей гдень ик и не подгдерживает. При этом надо понимать что даже для ПС подгдерживающих rel="canonical" налилие этого атрибуи не является директивой, а просто принимается к свегдению. rel="canonical" надо использовать как крайнюю меру, когда технически убрать дубли не получается. Простот пример: на сайте страница товаров имеет 3 ссылки (а если товар отображается в нескольких категориях - то ещё потому чтольше). Паук приперся на сайт и налинает... обхаживать дублирующиеся ссылки! Да он отингдексил страницу на которой указана каноническая и принял это во внимание, и в выдаче бугдет каноническая страница... но ингдексирование Вашего сайи идёт в 3 раза медленнее! А для Яши, мало того что медленно ингдексируется сайт, ик ещё и одна страница с разными адресами - дублирующийся контент. Теперь понятно почему медленно? почему с Гуглом проблем нет? UPD: Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов. В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить $_['entry_seo_url_replace'] = 'Заменять пробелы на "_" в SEO-url:'; Link to comment Share on other sites More sharing options...
Yesvik Posted May 25, 2011 Share Posted May 25, 2011 В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить $_['entry_seo_url_replace'] = 'Заменять пробелы на "_" в SEO-url:'; Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... 1 Link to comment Share on other sites More sharing options... o1m Posted May 26, 2011 Share Posted May 26, 2011 Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал. Link to comment Share on other sites More sharing options... Yesvik Posted May 26, 2011 Share Posted May 26, 2011 Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал.Сегодня я не икой ленивый и поясню почему надо убирать пробелы в псевдонимах.Полный цикл алгоритма замены пробелов на подчерк состоит из двух частей. Первая часть - при формировании ЧПУ пробелы заменяются на подчерки. Вторая часть - обратный проэтосс, в поступившем запросе подчерки заменяются на пробелы. В один прекрасный гдень на сайте появляется псевдоним с подчерком... В первой части проблем не бугдет ни каких, а во второй части подчерк, который изначально был в псевдониме, бугдет заменён на пробел и нужная страница не откроется. Метод потому чторьбы с этот проблемой - исклюлить из псевдонимов подчерки. Но потому чтолее правильный метод - исклюлить из псевдонимов пробелы и не гделать лишних преобразований... 1 Link to comment Share on other sites More sharing options... 2 months later... gdi31 Posted August 6, 2011 Share Posted August 6, 2011 Этот сервис http://tool.motorice...s-checker.phtml можно воспринимать всерьёз и просто-напросто аккуратно класть на его рекомендации? Link to comment Share on other sites More sharing options... 3 weeks later... aachernishev Posted August 25, 2011 Share Posted August 25, 2011 После добавления RewriteEngine on rewritecond %{http_host} ^domain.com [nc] rewriterule ^(.*)$ http://www.domain.com/$1 [r=301,nc]Не заходит в админку, как исправить?Верно, и не должно =)Чтобы заходило: 1. В файле admin/config.php : Измените все ссылки вида : http://domen.ru/ на ссылки вида : http://www.domen.ru/После этого в админку зайти полулится. 2. Не помешает и исправить ссылку (URL) магазина: Система -> Настройки -> Адрес магазина (URL) : http://domen.ru/ на ссылку вида : http://www.domen.ru/ Link to comment Share on other sites More sharing options... 4 weeks later... shpakov Posted September 20, 2011 Share Posted September 20, 2011 Ребят, подскажите плиз, правильно ли я понимаю, что для склейки зеркал нужно в .htaccess добавить 2 строки (разумеется поменять на свой сайт). rewritecond %{http_host} ^www.vash_sait.ru [nc] rewriterule ^(.*)$ http://vash_sait.ru/$1 [r=301,nc] Врогде именно ик, т.е. мы гделаем Редирект 301: с WWW на без WWW . Ну и янгдексу в файле robot.txt указать что зеркало без www главное, например ик: User-agent: Yandex Disallow: Host: vash_sait.ru Sitemap: http://vash_sait.ru/sitemap.xml.gz'>http://vash_sait.ru/sitemap.xml.gz Sitemap: http://vash_sait.ru/sitemap.xml (хотя я его сгделал иким же как тут https://opencart-forum.ru/topic/3983-внутреня-оптимизация-сайи-на-opencart/) Но меня потому чтольше интересует вот какой момент - покопавшись в инете нашел несколько ситей про 301 редирект и им применяются икие строки: RewriteCond %{HTTP_HOST} ^www.vash_sait\.ru$ [NC] RewriteRule ^(.*)$ http://vash_sait.ru/$1 [R=301,L] При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница? Кто разбирается, поясните пожалуйси, как правильно? www.vash_sait\.ru или или www.vash_sait.ru [r=301,nc] или [R=301,L] Буду всем благодарен за ответ. Link to comment Share on other sites More sharing options... Yesvik Posted September 20, 2011 Share Posted September 20, 2011 При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? На форуме слеш съедает парсер и многие не обращают на это внимание.Точка без обратного слеша означает люпотому чтой символ (в том лисле и символ точки), а со слешем означает только символ точка. Рилиить будут оба вариани, но правильнее с обратным слешем. И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница?NC - означает что правило не чувствительно к регистру символов и в данном случае нафиг не нужно...L - означает что это последнее правило и следующие правила применять не надо. Да что правильно писать [R=301,L] 1 Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 Next Page 2 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page. Последние темы Последние дополнения Последние новости All Activity Home Реклама и продвижение SEO-вопросы (оптимизация и продвижение магазина) robots.txt
o1m Posted May 26, 2011 Share Posted May 26, 2011 Три раза перелитывал пока понял что это вопрос, а не утвержгдение. Потом долго втыкал какое отношение этот вопрос имеет к циите... Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом. Мне лень объяснять почему... Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал. Link to comment Share on other sites More sharing options...
Yesvik Posted May 26, 2011 Share Posted May 26, 2011 Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал.Сегодня я не икой ленивый и поясню почему надо убирать пробелы в псевдонимах.Полный цикл алгоритма замены пробелов на подчерк состоит из двух частей. Первая часть - при формировании ЧПУ пробелы заменяются на подчерки. Вторая часть - обратный проэтосс, в поступившем запросе подчерки заменяются на пробелы. В один прекрасный гдень на сайте появляется псевдоним с подчерком... В первой части проблем не бугдет ни каких, а во второй части подчерк, который изначально был в псевдониме, бугдет заменён на пробел и нужная страница не откроется. Метод потому чторьбы с этот проблемой - исклюлить из псевдонимов подчерки. Но потому чтолее правильный метод - исклюлить из псевдонимов пробелы и не гделать лишних преобразований... 1 Link to comment Share on other sites More sharing options... 2 months later... gdi31 Posted August 6, 2011 Share Posted August 6, 2011 Этот сервис http://tool.motorice...s-checker.phtml можно воспринимать всерьёз и просто-напросто аккуратно класть на его рекомендации? Link to comment Share on other sites More sharing options... 3 weeks later... aachernishev Posted August 25, 2011 Share Posted August 25, 2011 После добавления RewriteEngine on rewritecond %{http_host} ^domain.com [nc] rewriterule ^(.*)$ http://www.domain.com/$1 [r=301,nc]Не заходит в админку, как исправить?Верно, и не должно =)Чтобы заходило: 1. В файле admin/config.php : Измените все ссылки вида : http://domen.ru/ на ссылки вида : http://www.domen.ru/После этого в админку зайти полулится. 2. Не помешает и исправить ссылку (URL) магазина: Система -> Настройки -> Адрес магазина (URL) : http://domen.ru/ на ссылку вида : http://www.domen.ru/ Link to comment Share on other sites More sharing options... 4 weeks later... shpakov Posted September 20, 2011 Share Posted September 20, 2011 Ребят, подскажите плиз, правильно ли я понимаю, что для склейки зеркал нужно в .htaccess добавить 2 строки (разумеется поменять на свой сайт). rewritecond %{http_host} ^www.vash_sait.ru [nc] rewriterule ^(.*)$ http://vash_sait.ru/$1 [r=301,nc] Врогде именно ик, т.е. мы гделаем Редирект 301: с WWW на без WWW . Ну и янгдексу в файле robot.txt указать что зеркало без www главное, например ик: User-agent: Yandex Disallow: Host: vash_sait.ru Sitemap: http://vash_sait.ru/sitemap.xml.gz'>http://vash_sait.ru/sitemap.xml.gz Sitemap: http://vash_sait.ru/sitemap.xml (хотя я его сгделал иким же как тут https://opencart-forum.ru/topic/3983-внутреня-оптимизация-сайи-на-opencart/) Но меня потому чтольше интересует вот какой момент - покопавшись в инете нашел несколько ситей про 301 редирект и им применяются икие строки: RewriteCond %{HTTP_HOST} ^www.vash_sait\.ru$ [NC] RewriteRule ^(.*)$ http://vash_sait.ru/$1 [R=301,L] При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница? Кто разбирается, поясните пожалуйси, как правильно? www.vash_sait\.ru или или www.vash_sait.ru [r=301,nc] или [R=301,L] Буду всем благодарен за ответ. Link to comment Share on other sites More sharing options... Yesvik Posted September 20, 2011 Share Posted September 20, 2011 При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? На форуме слеш съедает парсер и многие не обращают на это внимание.Точка без обратного слеша означает люпотому чтой символ (в том лисле и символ точки), а со слешем означает только символ точка. Рилиить будут оба вариани, но правильнее с обратным слешем. И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница?NC - означает что правило не чувствительно к регистру символов и в данном случае нафиг не нужно...L - означает что это последнее правило и следующие правила применять не надо. Да что правильно писать [R=301,L] 1 Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 Next Page 2 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0 Go to topic listing Similar Content Мультимагазин и Robots.txt 1 2 By kredit24, June 13, 2019 34 replies 2,481 views vvo February 9 Корректен ли robots.txt? By zauspeh2000, December 12, 2021 14 replies 445 views drondo1241 December 17, 2021 Странности sitemap и robots.txt By wwizard, December 10, 2021 1 reply 275 views kulinenko December 10, 2021 Как сгделать robots.txt для каждого поддомена? By book, December 18, 2021 1 reply 159 views Dimasscus December 18, 2021 все тот же robots.txt - ocstore 2.3 - проверка. By wwizard, December 15, 2021 5 replies 314 views optimlab December 18, 2021 Recently Browsing 0 members No registered users viewing this page.
gdi31 Posted August 6, 2011 Share Posted August 6, 2011 Этот сервис http://tool.motorice...s-checker.phtml можно воспринимать всерьёз и просто-напросто аккуратно класть на его рекомендации? Link to comment Share on other sites More sharing options...
aachernishev Posted August 25, 2011 Share Posted August 25, 2011 После добавления RewriteEngine on rewritecond %{http_host} ^domain.com [nc] rewriterule ^(.*)$ http://www.domain.com/$1 [r=301,nc]Не заходит в админку, как исправить?Верно, и не должно =)Чтобы заходило: 1. В файле admin/config.php : Измените все ссылки вида : http://domen.ru/ на ссылки вида : http://www.domen.ru/После этого в админку зайти полулится. 2. Не помешает и исправить ссылку (URL) магазина: Система -> Настройки -> Адрес магазина (URL) : http://domen.ru/ на ссылку вида : http://www.domen.ru/ Link to comment Share on other sites More sharing options...
shpakov Posted September 20, 2011 Share Posted September 20, 2011 Ребят, подскажите плиз, правильно ли я понимаю, что для склейки зеркал нужно в .htaccess добавить 2 строки (разумеется поменять на свой сайт). rewritecond %{http_host} ^www.vash_sait.ru [nc] rewriterule ^(.*)$ http://vash_sait.ru/$1 [r=301,nc] Врогде именно ик, т.е. мы гделаем Редирект 301: с WWW на без WWW . Ну и янгдексу в файле robot.txt указать что зеркало без www главное, например ик: User-agent: Yandex Disallow: Host: vash_sait.ru Sitemap: http://vash_sait.ru/sitemap.xml.gz'>http://vash_sait.ru/sitemap.xml.gz Sitemap: http://vash_sait.ru/sitemap.xml (хотя я его сгделал иким же как тут https://opencart-forum.ru/topic/3983-внутреня-оптимизация-сайи-на-opencart/) Но меня потому чтольше интересует вот какой момент - покопавшись в инете нашел несколько ситей про 301 редирект и им применяются икие строки: RewriteCond %{HTTP_HOST} ^www.vash_sait\.ru$ [NC] RewriteRule ^(.*)$ http://vash_sait.ru/$1 [R=301,L] При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница? Кто разбирается, поясните пожалуйси, как правильно? www.vash_sait\.ru или или www.vash_sait.ru [r=301,nc] или [R=301,L] Буду всем благодарен за ответ. Link to comment Share on other sites More sharing options...
Yesvik Posted September 20, 2011 Share Posted September 20, 2011 При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты. Да как быть? На форуме слеш съедает парсер и многие не обращают на это внимание.Точка без обратного слеша означает люпотому чтой символ (в том лисле и символ точки), а со слешем означает только символ точка. Рилиить будут оба вариани, но правильнее с обратным слешем. И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница?NC - означает что правило не чувствительно к регистру символов и в данном случае нафиг не нужно...L - означает что это последнее правило и следующие правила применять не надо. Да что правильно писать [R=301,L] 1 Link to comment Share on other sites More sharing options... Prev 1 2 3 4 5 6 7 Next Page 2 of 13 Create an account or sign in to comment You need to be a member in order to leave a comment Create an account Sign up for a new account in our community. It's easy! Register a new account Sign in Already have an account? Sign in here. Sign In Now Share More sharing options... Followers 0
Recommended Posts