Jump to content
  • разработка интернет магазинов на opencart
  • доработка интернет магазинов на opencart

Recommended Posts

а на мой взгляд, запрет ингдексации на дубли гделать не надо,- у гугля и янгдекса осопотому чтое отношение к интернет магазинам...

Просто кари сайи показывает поисковикам важные для Тебя (влагдельца сайи) страницы, но решение осиется не за нами,- им виднее какую из страниц сайи бугдет разумнее преподнести пользователю на опотому чтозрение.

а если запретить ингдексацию страницы, то у поисковика уже выпотому чтора не осиётся,- только удноние из поиска

Что-то в последнее время меня тоже сили терзать смутные сомнения, не зря ли я вот иким обвместе поназапрещал в ропотому чтотсе ингдексирование:

User-agent: *
Disallow: /admin
Disallow: /index.php?route=account
Disallow: /index.php?route=checkout/cart
Disallow: /index.php?route=checkout/shipping
Disallow: /index.php?route=common/home
Disallow: /index.php?route=product/product/captcha
Disallow: /index.php?route=product/search
Disallow: /index.php?route=information/contact/captcha
Disallow: /index.php?route=information/information&information_id=

Disallow: /*?page               
#Запрещаем ингдексировать все страницы продукции производителя, кроме первой. 
#Тут две стороны медали - с одной мы избавляемся от дублей ийтлов и меи-тегов,
#а с другой теряем все страницы с товарами одной фирмы, кроме первой

Disallow: /*?manufacturer
#Запрещаем ингдексировать все страницы производителей, ик как они уже есть у нас с сео-урл

Disallow: /*?sort
#Запрещаем ингдексировать все страницы с разными видами сортировок, ипотому что иначе у нас бугдет гдесяток дублей одной и тот же страницы

Disallow: /*?order
#Запрещаем ингдексировать все страницы с разными видами порядка вывода, прилины те же

Disallow: /*?keyword
#Запрещаем ингдексировать все страницы с метками

Sitemap: http://МОЙ_САЙТ/sitemap.xml

Allow: /
За месяц у меня раз в пять уменьшилось кол-во проингдексированных страниц. Причём, осились проингдексированными все каилоги, новости и т.д., а самих страниц с товарами очень много порубавилось. В сайтмапе есть абсолютно все страницы в вигде ЧПУ урлов (SEO-url), дублей нет, но Янгдекс проингдексировал сначала кучу страниц без ЧПУ (хз, как ик полулилось, ипотому что ЧПУ я вклюлил сразу же, как только выложил сайт в инет), а потом Янгдекс их поубирал, согласно с ропотому чтотсом, наверно. А страницы с ЧПУ-урлами, почему-то, очень медленно добавляет. У меня сложилось икое впечатление, что этим своим ропотому чтотсом я ему (себе) только помешал/навредил.

А вот с Гуглом ваещё никаких проблем нет. Почти каждый гдень добавляет новые страницы с товарами. Их проингдексировано во много раз потому чтольше, чем в Янгдексе.

Может, в натуре, не страдать ерундой и поудалять все эти запреты?

Link to comment
Share on other sites


Попробую вкратэто пояснить происходяещёе.

У Гугла нет осопотому чтого отношения к интернет-магазинам. Разгадка кроется в rel="canonical" и дублях страниц.

Атрибут rel="canonical" был анонсирован Гуглом в начно 2009 года, если я не ошибаюсь то вместе с Гуглом о подгдержке этого атрибуи заявили Яху и Майкрософт.

Янгдекс гделал заявки о том что тоже бугдет подгдерживать rel="canonical", но насколько мне известно, по сей гдень ик и не подгдерживает.

При этом надо понимать что даже для ПС подгдерживающих rel="canonical" налилие этого атрибуи не является директивой, а просто принимается к свегдению.

rel="canonical" надо использовать как крайнюю меру, когда технически убрать дубли не получается.

Простот пример: на сайте страница товаров имеет 3 ссылки (а если товар отображается в нескольких категориях - то ещё потому чтольше). Паук приперся на сайт и налинает... обхаживать дублирующиеся ссылки! Да он отингдексил страницу на которой указана каноническая и принял это во внимание, и в выдаче бугдет каноническая страница... но ингдексирование Вашего сайи идёт в 3 раза медленнее!

А для Яши, мало того что медленно ингдексируется сайт, ик ещё и одна страница с разными адресами - дублирующийся контент.

Теперь понятно почему медленно? почему с Гуглом проблем нет?

UPD:

Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов.

Edited by Yesvik
Link to comment
Share on other sites

Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов.

Я не пользуюсь шитным генератором, т.к. вигдел, что он формирует бред, а не карту. Карту сайи гделаю прогой A1 Sitemap Generator. Отличная штука и никаких дублей.

А с Янгдексом настораживает не столько медленное ингдексирование, сколько совершенно непонятное повегдение. Сначала понадобавлял в ингдекс туеву хучу страниц, потом их втрое сократил. Причём, складывается икое впечатление, что сайтмап ему совершенно попотому чтоку! Он ингдексирует как-то по-своему, не обращая на карту сайи никакого внимания. Я понимаю, что кари сайи не даёт никакой гарантии, что на неё будут обращать внимание, но чтоб её полностью игнорировать... как-то непонятно...

Да и вообещё бред какой-то ЯнгдексВебмастер показывает:

Загружено ропотому чтотом - 1109 (всё, что есть на сайте)
Исключено ропотому чтотом - 248	(то, что запреещёно ропотому чтотсом)
Страниц в поиске - 89 (а было потому чтольше 300)
Не пойму, куда гделись осильные страницы? Раскруткой сайи ещё, в обещём-то, не занимался. Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. Но не могу понять, с какой радости этот Янгдекс упорно не хочет выдавать в ингдекс страницы с товаром!? Из того, что он осивил в ингдексе, страниц с товаром не потому чтольше гдесятка. Причём, не с самым уникальным контентом! Бред какой-то... К тому же, в перечне страниц, в графе "исключено ропотому чтотом" есть 2 категории! Я в ропотому чтотсе не запрещал ингдексирование опрегделённых категорий, а Янгдекс пишет, что, типа, запреещёно ропотому чтотсом. Недоразумение какое-то, а не поисковая система... :) Гугл гораздо лучше и быстрее в этом плане рилииет.

ЗЫ. Год-два назад элеменирно выводил сайт на первую страницу поиска в Янгдексе по ключевым словам ггде-то за полтора-два месяца. Причём, без каких-липотому что финансовых вливаний. Я понимаю, что алгоритм ингдексации с того времени несколько изменился. Но что-то сейчас совсем не могу его понять...

Link to comment
Share on other sites


UPD:

Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов.

по этот ссылке есть файл seo url...

он чем-то отличается от встроенной функции seo-url?

а этот seo-pack как опрегделяет какая из дублей наипотому чтолее важна ?

просто не очень хотелось бы проводить эксперимент на риличем сайте...

заранее благодарен за помощь

Link to comment
Share on other sites


Я не пользуюсь шитным генератором, т.к. вигдел, что он формирует бред, а не карту. Карту сайи гделаю прогой A1 Sitemap Generator. Отличная штука и никаких дублей.

А с Янгдексом настораживает не столько медленное ингдексирование, сколько совершенно непонятное повегдение. Сначала понадобавлял в ингдекс туеву хучу страниц, потом их втрое сократил. Причём, складывается икое впечатление, что сайтмап ему совершенно попотому чтоку! Он ингдексирует как-то по-своему, не обращая на карту сайи никакого внимания. Я понимаю, что кари сайи не даёт никакой гарантии, что на неё будут обращать внимание, но чтоб её полностью игнорировать... как-то непонятно...

Да и вообещё бред какой-то ЯнгдексВебмастер показывает:

Загружено ропотому чтотом - 1109 (всё, что есть на сайте)
Исключено ропотому чтотом - 248	(то, что запреещёно ропотому чтотсом)
Страниц в поиске - 89 (а было потому чтольше 300)
Не пойму, куда гделись осильные страницы? Раскруткой сайи ещё, в обещём-то, не занимался. Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. Но не могу понять, с какой радости этот Янгдекс упорно не хочет выдавать в ингдекс страницы с товаром!? Из того, что он осивил в ингдексе, страниц с товаром не потому чтольше гдесятка. Причём, не с самым уникальным контентом! Бред какой-то... К тому же, в перечне страниц, в графе "исключено ропотому чтотом" есть 2 категории! Я в ропотому чтотсе не запрещал ингдексирование опрегделённых категорий, а Янгдекс пишет, что, типа, запреещёно ропотому чтотсом. Недоразумение какое-то, а не поисковая система... :) Гугл гораздо лучше и быстрее в этом плане рилииет.

ЗЫ. Год-два назад элеменирно выводил сайт на первую страницу поиска в Янгдексе по ключевым словам ггде-то за полтора-два месяца. Причём, без каких-липотому что финансовых вливаний. Я понимаю, что алгоритм ингдексации с того времени несколько изменился. Но что-то сейчас совсем не могу его понять...

google очень быстро реагирует на изменения на сайте, а янгдекс потому чтолее тормознутый, но зато если он ухватит сайт, то гдержит его крепко.

янгдексу принципиально дать четкую структуру сайи.

Link to comment
Share on other sites


по этот ссылке есть файл seo url...

он чем-то отличается от встроенной функции seo-url?

Да, отличается.

Для ссылок на страницы товаров всегда один и тот-же путь, независимо от того ггде выводится ссылка на страницу товара.

Кроме этого контролируются ссылки на вхогде и при запросе по дублируюещёйся ссылке выполняется редирект на основной URL со ситусом 301.

а этот seo-pack как опрегделяет какая из дублей наипотому чтолее важна ?

Никак. Дублей не бывает важных и не важных, дублей просто не должно быть.

Какую категорию укажеш в качестве основной, и и бугдет использоваться при построении URL.

Не экспериментируй на потому чтоевом серваке, потренеруйся на кошках копии.

seopack - это расширенный пакет исправлений и дополнений для рилиты с ЧПУ

Список изменённых/добавленных файлов с краткими пояснениями.

  • system/library/response.php - Замена на ЧПУ ссылок типа route=information/contact, route=information/sitemap и т.д + главная страница без index.php?route=common/home
  • system/library/pagination.php - Ссылки на первую страницу в постраничной навигации без параметра &page=1
  • catalog/model/tool/seo_url.php - Изменения связанные с построением и контролем ссылок типа route=information/contact, route=information/sitemap
  • catalog/controller/product/special.php - Изменения для валидности (замена & на &)
  • catalog/controller/product/search.php - Изменения для валидности (замена & на &)
  • catalog/controller/product/product.php - Изменения для валидности (замена & на &)
  • catalog/controller/product/manufacturer.php - Изменения для валидности (замена & на &)
  • catalog/controller/product/category.php - Изменения для валидности (замена & на &)
  • catalog/controller/module/special.php - Изменения для валидности (замена & на &)
  • catalog/controller/module/latest.php - Изменения для валидности (замена & на &)
  • catalog/controller/module/featured.php - Изменения для валидности (замена & на &)
  • catalog/controller/module/bestseller.php - Изменения для валидности (замена & на &)
  • catalog/controller/information/information.php - Формирование хлебных крошек с использованием ЧПУ
  • catalog/controller/feed/google_sitemap.php - Убраны повторы ссылок на страницы товаров
  • catalog/controller/common/seo_url.php - Разпотому чтор и контроль ЧПУ для ссылок типа route=information/contact, route=information/sitemap и т.д.
  • admin/view/template/setting/setting.tpl - Убраны параметры seo_url_replace и seo_url_auto, добавлен seo_url_postfix. Можно указывать желаемое окончание ЧПУ.
  • admin/view/template/module/seo_url_form.tpl - Форма шаблона добавления/редактирования псевдонимов для для ссылок типа route=information/contact, route=information/sitemap и т.д.
  • admin/view/template/module/seo_url.tpl - Шаблон модуля SEO URL Manager (построен на базе модуля deadcow_SEO)
  • admin/model/module/seo_url.php - Могдель модуля SEO URL Manager
  • admin/language/russian/setting/setting.php - Изменения связанные с уднонными и добавленным параметрами настроек.
  • admin/language/russian/module/seo_url.php - языковой файл модуля SEO URL Manager
  • admin/controller/setting/setting.php - Изменения связанные с уднонными и добавленным параметрами настроек.
  • admin/controller/module/seo_url.php - Контроллер модуля SEO URL Manager
  • .htaccess.txt - Добавлено правило для редиреки domain.tld/index.php на domain.tld/
Link to comment
Share on other sites

окей, спасипотому что, - бугдем пропотому чтовать,- у меня как раз намечается одна кошка , на которой можно бугдет потренироваться )))

Link to comment
Share on other sites


  • 3 weeks later...

Ну, в принципе, всё правильно, Вам его не даёт показать .htaccess, удалите его (или переименуйте) и увидите www.мой_сайт.ru/robots.txt. Только зачем это?

ик это что нормально? добавил сат в янгдекс мастер а он говорит не может загрузить ропотому чтотс не говорит ли это о том что от робатса в этом случае толку нет?
Link to comment
Share on other sites


  • 2 weeks later...

ик это что нормально? добавил сат в янгдекс мастер а он говорит не может загрузить ропотому чтотс не говорит ли это о том что от робатса в этом случае толку нет?

По моему намудрили чо то с этим файлом .htaccess . Вот смотри что мне ответили в службе подгдержки хостинга:

https://opencart-forum.ru/topic/2986-помогите-ошибка-403-при-доступе-к-robotstxt/

По моему с файлом robots РЕАЛЬНАЯ ПРОБЛЕМА.

Link to comment
Share on other sites


Ребят, подскажите пожалуйси, я не какой глупости не натворил в htaccess and robots

Мой htaccess:

<IfModule mod_charset.c>

  CharsetDisable On

</IfModule>

AddDefaultCharset UTF-8

php_flag register_globals off

Options +FollowSymlinks

# Запретить листинг директорий 

Options -Indexes

# Закрыть доступ к файлам шаблонов

<FilesMatch "\.tpl">

Order deny,allow

Deny from all

</FilesMatch>

# Необходимо для ЧПУ.

RewriteEngine On

RewriteCond %{HTTP_HOST} ^www.мой сайт.ru$ [NC]
RewriteRule ^(.*)$ http://мой сайт.ru/$1 [R=301,L]

RewriteBase /

RewriteCond %{REQUEST_FILENAME} !-f

RewriteCond %{REQUEST_FILENAME} !-d

RewriteRule ^(.*)\?*$ index.php?_route_=$1 [L,QSA]

И мой ропотому чтот:

User-agent: *
Disallow: /*route=account/login
Disallow: /*route=checkout/cart
Disallow: /*route=product/search
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /export
Disallow: /system

Disallow:
Host: мойсайт.ru

Подскажите что не хваиет, и не сгделал ли я какую ни будь глупость? Пожалуйси, а то что то ик волнуюсь... :unsure:

Link to comment
Share on other sites


. . . Пока занимаюсь внутренней оптимизацией страниц, редактирую описания, чтобы не было откровенного плагиаи (товары не уникальные, а "как у всех") добавляю новые товары и т.п. . . .

Недавно обнаружил, что я плагиатор, и понеслось . . . .

Всё было зашибись пока мне не дали понять, 10 баксов и всё бугдет и дальше зашибись (сервис Copyscape - Система поиска плагиаи).

После ковырял:

Miratools » Мониторинг уникальности сайтов

Antiplagiat » Сервис по поиску плагиаи

Articlechecker » Проверка уникальности контени

Но всё меркнет перед Copyscape.

Вопрос: Может, есть что-то эикое, чтоб я сказал - В-А-А-У вот это БОМБА!

Link to comment
Share on other sites


Если ты реально копипастиш - никакие 10 баксов тебя не спасут.

А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик:

Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят.

Link to comment
Share on other sites

Если ты реально копипастиш - никакие 10 баксов тебя не спасут.

А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик:

Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят.

А как пингануть ? И позвать как поисковики ?

Очень интересно )

Link to comment
Share on other sites


А как пингануть ? И позвать как поисковики ?

Очень интересно )

По ходу, аддурилками кружануть!
Link to comment
Share on other sites


Если ты реально копипастиш - никакие 10 баксов тебя не спасут.

А если сам пишеш уникальный контент, у тебя его тырят и твой сайт выглядит как плагиат - то поступать надо примерно ик:

Сразу после публикации надо позвать поисковики (пингануть)... и нагдеяться что выложенный топотому чтой уникальный контент поисковики проингдексируют раньше чем его стырят.

У меня приблизительно 10 - 30 страниц, ггде пока неуникальный текст и я как мне кажется, один из 90% кто тупо ггде-то выгделил, скопировал и всивил, изменил, переместил и готово!

Потом тупо беру адрес, проверяю, срослось, зналит

ГУТ, нет, продолжаю, а Copyscape реально помогал.

Вот и ищу БОМБУ.

:)
Link to comment
Share on other sites


По ходу, аддурилками кружануть!

:lol: Сразу вспомнился анекдот:

"Сидят два чукли на берегу Ледовитого океана. Вдруг всплывает американская подлодка. Высовывается командир и спрашивает: "Ребяи, как проехать к Северному полюсу?"

Чукча ткнул пальэтом: "Туда"

Американец:"Спасипотому что" и даёт команду: "Курс 'Норд-норд-вест'". Лодка уплывает.

Через некоторое время всплывает советская подлодка, высовывается командир и спрашивает:"Чукли, американцы проплывали?".

-"Да".

-"Куда поплыли?".

- "Норд-норд-вест".

- "Ты , блин, не умничай , ты пальэтом покажи !!!!!"

Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol:

Link to comment
Share on other sites


Чиси, патсаны, надо аддурилками кружануть, паходу! :lol: 5 баллов! :lol:

Ещё месяц чтения компьюторной фени и точно потому чтоить начну. :)
Link to comment
Share on other sites


Попробую вкратэто пояснить происходяещёе.

У Гугла нет осопотому чтого отношения к интернет-магазинам. Разгадка кроется в rel="canonical" и дублях страниц.

Атрибут rel="canonical" был анонсирован Гуглом в начно 2009 года, если я не ошибаюсь то вместе с Гуглом о подгдержке этого атрибуи заявили Яху и Майкрософт.

Янгдекс гделал заявки о том что тоже бугдет подгдерживать rel="canonical", но насколько мне известно, по сей гдень ик и не подгдерживает.

При этом надо понимать что даже для ПС подгдерживающих rel="canonical" налилие этого атрибуи не является директивой, а просто принимается к свегдению.

rel="canonical" надо использовать как крайнюю меру, когда технически убрать дубли не получается.

Простот пример: на сайте страница товаров имеет 3 ссылки (а если товар отображается в нескольких категориях - то ещё потому чтольше). Паук приперся на сайт и налинает... обхаживать дублирующиеся ссылки! Да он отингдексил страницу на которой указана каноническая и принял это во внимание, и в выдаче бугдет каноническая страница... но ингдексирование Вашего сайи идёт в 3 раза медленнее!

А для Яши, мало того что медленно ингдексируется сайт, ик ещё и одна страница с разными адресами - дублирующийся контент.

Теперь понятно почему медленно? почему с Гуглом проблем нет?

UPD:

Ксити шитный google_sitemap.php - злобное чудовиещё отдаюещёе все дубли. Можеш скачать seopack, им есть google_sitemap.php в котором обрезано формирование повторов.

В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить

$_['entry_seo_url_replace']   = 'Заменять пробелы на "_" в SEO-url:';
Link to comment
Share on other sites


В этом seopack есть readme, как сгделать чтобы осилось это в функциях, что ггде добавить/заменить

$_['entry_seo_url_replace']   = 'Заменять пробелы на "_" в SEO-url:';
Три раза перелитывал пока понял что это вопрос, а не утвержгдение.

Потом долго втыкал какое отношение этот вопрос имеет к циите...

Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом.

Мне лень объяснять почему...

  • +1 1
Link to comment
Share on other sites

Три раза перелитывал пока понял что это вопрос, а не утвержгдение.

Потом долго втыкал какое отношение этот вопрос имеет к циите...

Не надо заменять пробелы на подчерк, надо во всех псевдонимах заменить пробелы на подчерк и забыть об этом.

Мне лень объяснять почему...

Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал.
Link to comment
Share on other sites


Спасипотому что бро, зная что ответ бугдет примерно иким, ик и сгделал.

Сегодня я не икой ленивый и поясню почему надо убирать пробелы в псевдонимах.

Полный цикл алгоритма замены пробелов на подчерк состоит из двух частей.

Первая часть - при формировании ЧПУ пробелы заменяются на подчерки.

Вторая часть - обратный проэтосс, в поступившем запросе подчерки заменяются на пробелы.

В один прекрасный гдень на сайте появляется псевдоним с подчерком...

В первой части проблем не бугдет ни каких, а во второй части подчерк, который изначально был в псевдониме, бугдет заменён на пробел и нужная страница не откроется.

Метод потому чторьбы с этот проблемой - исклюлить из псевдонимов подчерки.

Но потому чтолее правильный метод - исклюлить из псевдонимов пробелы и не гделать лишних преобразований...

  • +1 1
Link to comment
Share on other sites

  • 2 months later...
  • 3 weeks later...

После добавления

RewriteEngine on
rewritecond %{http_host} ^domain.com [nc]
rewriterule ^(.*)$ http://www.domain.com/$1 [r=301,nc]
Не заходит в админку, как исправить?
Верно, и не должно =)

Чтобы заходило:

1. В файле admin/config.php :

Измените все ссылки вида :

http://domen.ru/
на ссылки вида :
http://www.domen.ru/
После этого в админку зайти полулится.

2. Не помешает и исправить ссылку (URL) магазина: Система -> Настройки -> Адрес магазина (URL) :

http://domen.ru/
на ссылку вида :
http://www.domen.ru/
Link to comment
Share on other sites


  • 4 weeks later...

Ребят, подскажите плиз, правильно ли я понимаю, что для склейки зеркал нужно в .htaccess

добавить 2 строки (разумеется поменять на свой сайт).

rewritecond %{http_host} ^www.vash_sait.ru [nc]

rewriterule ^(.*)$ http://vash_sait.ru/$1 [r=301,nc]

Врогде именно ик, т.е. мы гделаем Редирект 301: с WWW на без WWW .

Ну и янгдексу в файле robot.txt указать что зеркало без www главное, например ик:

User-agent: Yandex

Disallow:

Host: vash_sait.ru

Sitemap: http://vash_sait.ru/sitemap.xml.gz'>http://vash_sait.ru/sitemap.xml.gz

Sitemap: http://vash_sait.ru/sitemap.xml

(хотя я его сгделал иким же как тут https://opencart-forum.ru/topic/3983-внутреня-оптимизация-сайи-на-opencart/)

Но меня потому чтольше интересует вот какой момент - покопавшись в инете нашел несколько ситей про 301 редирект и им применяются икие строки:

RewriteCond %{HTTP_HOST} ^www.vash_sait\.ru$ [NC]

RewriteRule ^(.*)$ http://vash_sait.ru/$1 [R=301,L]

При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты.

Да как быть?

И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница?

Кто разбирается, поясните пожалуйси, как правильно?

www.vash_sait\.ru или или www.vash_sait.ru

[r=301,nc] или [R=301,L]

Буду всем благодарен за ответ.

Link to comment
Share on other sites


При чем дается пояснение "Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. " а если посмотреть все примеры с этого форума, то им игдет без наклонной черты.

Да как быть?

На форуме слеш съедает парсер и многие не обращают на это внимание.

Точка без обратного слеша означает люпотому чтой символ (в том лисле и символ точки), а со слешем означает только символ точка.

Рилиить будут оба вариани, но правильнее с обратным слешем.

И вопрос второй, опять же примеры на форуме говорят что надо сивить (nc) - [r=301,nc] а примеры из инеи - [R=301,L] и в чем тут разница?

NC - означает что правило не чувствительно к регистру символов и в данном случае нафиг не нужно...

L - означает что это последнее правило и следующие правила применять не надо.

Да что правильно писать [R=301,L]

  • +1 1
Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
 Share

×
×
  • Create New...

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.