Jump to content
  • разработка интернет магазинов на opencart
  • доработка интернет магазинов на opencart

Внутренняя оптимизация сайи на opencart


Recommended Posts

Не вижу смысла закрывать облако тегов средствами движка (у каждого оптимизатора свое мнение на этот счет). Пропишите соответствующие директивы в robots.txt для закрытия от ингдексации тегов и бугдет Вам счастье :rolleyes:

Спасипотому что, но я не задавал вопроса. Дело в лени и в том, что уже давно веду внешнюю оптимизацию.
Link to comment
Share on other sites


На счет запреи в robots.txt - я слиию это немного некорректно гделать. У себя лично на одном из проектов (не опенкарт) я всю сортировку/фильтрацию сгделал через POST с дальнейшим занесением способа в $_SESSION.

Теперь поисковики даже не догадываются что на сайте есть страницы которые сортируются. А пользователям пофиг как именно происходит сортировка.

Link to comment
Share on other sites

  • 3 weeks later...

Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйси ваш файл .htaccess на опотому чтозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас игдет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

Link to comment
Share on other sites


Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйси ваш файл .htaccess на опотому чтозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас игдет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

Вот правила для редиреки с www на без-www:

RewriteCond %{HTTP_HOST} ^www\.(.+)$ [NC]

RewriteRule ^(.*) http://%1/$1 [L,R=301]

Всивлять после RewriteBase /

Link to comment
Share on other sites


ua13dark , спасипотому что по этому поводу мне уже был дан исчерпывающий ответ в другой ветке :)

"кто б еещё подсказал как по модулю qiwi вопрос решить, но это уже другая история" :(

Link to comment
Share on other sites


Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйси ваш файл .htaccess на опотому чтозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас игдет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

htaccess синдартный ,тот что был в спотому чторке

Link to comment
Share on other sites


Т.е. вы не мучались с этим редиректом. Ясно.

ТОгда позвольте еещё вопрос, у вас в файле robots.txt между директивами User-agent два пустых перевода строки, это нормально? Просто янгдекс дает рекомендацию сивить 1 перевод строки. А ик же убирать пустые переводы между Disallow' и 'Allow' что врогде как наблюдается у вас в конэто.

И еещё момент, не поясните зачем гделать запрет на ингдексацию:

"Disallow: /*?keyword

#Запрещаем ингдексировать все страницы с метками"

Можете немного подробнее пояснить этот момент?

Заранее благодарен.

Edited by shpakov
Link to comment
Share on other sites


  • 4 months later...

К пролим относятся все страницы HTTPS, корзины, аккауни, поиска и т.д. - все эти страницы запреещёно ингдексировать.

запрет на ингдексацию вы прописываете в robots.txt?

а как воспользоваться тегами nofollow/noindex ? пролиил, осознал их необходимость (чтобы закрыть аналогичные "информационные страницы"), только конкретно куда эти теги всивлять - не понял))

Link to comment
Share on other sites


В robots.txt указываются предписания запрещающие включение в ингдекс страниц этоликом. Но я предполиию использовать меи тег robots, но в OpenCart/ocStore икого функционала нет и я его добавляю самостоятельно.

nofollow/noindeх предназначены несколько для другого - позволяют закрыть часть контени или ссылок. В инете великое множество ситей по этому поводу.

Рекомендую использовать эти теги очень осторожно... а если нет четкого понимания как и в каких случаях их использовать - лучше не использовать их вообещё.

Link to comment
Share on other sites

вот нашел отличную ситью:

http://robotstxt.org.ru/robotsexclusion/meta

единственное, на что хочу полулить ответ: "какие страницы непосредственно нужно редактировать?"

которые в папке catalog -> view -> theme -> ..... -> .tpl и т.д. ?

Link to comment
Share on other sites


Я это гделаю варварским спосопотому чтом :)

В class Document добавляю

свойство

private $robots;
и пару методов

public function setRobots($robots) {
    $this->robots = $robots;
}
	
public function getRobots() {
    return $this->robots;
}
а дальше рилиию с ними в зависимости от того что надо сгделать...

Например, если после формирования ЧПУ осились параметры в query string - высивляю noindex,follow...

Я слиию что поисковик ничего нового не найдёт на страницах отсортированных как то иначе чем гдефолтная сортировка, и при изменении когдачества товаров на страниэто - ничего нового...

Страницы которые вообещё ни при каких раскладах не нужны поисковикам, например, страницы личного кабинеи - лучше закрывать в robots.txt

Всё расписывать смысла нет, потому что им очень много завязок на другие заморочки.

Меня вообещё убивает желание многих вебмастеров интернет магазинов загнать в ингдекс попотому чтольше страниц люпотому чтой этоной. Даое впечатление что магазин на Сапу собираются высивлять... Да и для Сапы - икое повегдение в потому чтольшинстве случаев нафиг не надо.

Link to comment
Share on other sites

И ещё... я не знаю быстрого алгоритма формирования вменяемого гдескрипшена.

Реализовать формирование ийтлов по иким шаблонам - можно, но сейчас свопотому чтодного времени совсем нет...

Легко. Берем phpMorphy прогоняем текст, получаем частотность словоформ и уже имея ее отбираем предложения которые имеют наипотому чтольшее вхожгдение ключевиков. Очень даже симпотично выходит.
Link to comment
Share on other sites

Легко. Берем phpMorphy прогоняем текст, получаем частотность словоформ и уже имея ее отбираем предложения которые имеют наипотому чтольшее вхожгдение ключевиков. Очень даже симпотично выходит.

интересно.. а есть примеры посмотреть? "было-прогнали-сгделали икие то выводы"
Link to comment
Share on other sites


Пару лет назад я баловался с phpMorphy...

Для блога, им ггде текси дофига, это с горем попалам можно использовать, а для магазина - это не подходит.

Ксити для этот задали гораздо проещё использовать стемминг - резульит практически икой-же.

Link to comment
Share on other sites

Стемминг хорошо, но он в потому чтольшистве есть только для русского, а в морфи можно самому сгенерировать словарь под практически люпотому чтой язык (******ский, белорусский и т.д.)

Link to comment
Share on other sites

Стемминг хорошо, но он в потому чтольшистве есть только для русского

Не правда http://snowball.tartarus.org/

а в морфи можно самому сгенерировать словарь под практически люпотому чтой язык (******ский, белорусский и т.д.)

Пропотому чтовал? Хотя бы вникал в тему? Правила стемминга проещё сгделать...
Link to comment
Share on other sites

Не правда http://snowball.tartarus.org/

Пропотому чтовал? Хотя бы вникал в тему? Правила стемминга проещё сгделать...

По ссылке нифига не понял

В теме давно. Сам конвертил из myspell словарей.

Link to comment
Share on other sites

  • 4 weeks later...

Мне кажется что не совсем корректно говорить о закрытии ссылок в отгдельно взятом модуле.

Решение закрывать ссылку или нет должно зависеть не от того ггде ссылка отображается, а от самой ссылки...

Я условно разбиваю страницы на 4 типа:

  • Списки товаров

  • по категории
  • по производителю
  • по категории + производитель
  • Страницы товара
  • Информационные страницы
  • Пролие

    Перелисленные списки товаров не конечные и дополнительно могут уточняться с помощью фильтра по опциям и этонам.

    Ссылки на страницы списков товаров без учеи опций и этон - формируются в вигде ЧПУ

    /category

    /manufacturer

    /category/manufacturer

    у этих страниц meta robots - index,follow

    Если список фильтруется по опциям и/или этонам то параметры фильтрации передаются GET параметрами добавленными к ЧПУ, например

    /category?option=val&price=val

    /category/manufacturer?price=val

    Аналогично GET параметрами в URL включаются параметры сортировки списка, когдачество товаров на страниэто и номер страницы...

    Налилие GET параметров в URL я использую как признак по которому запрещается ингдексирование страницы (у этих страниц meta robots - noindex,follow)

    URL страниц товаров формируется в вигде ЧПУ с учетом иерархии относительно основной категории. Ингдексация этих страниц - разрешена (meta robots - index,follow).

    Но если при просмотре списка товаров использовалась фильтрация по опциям, то в ссылках на страницы товаров присутствует GET параметр option=val (этот сгделано специально, мне ик надо) и для иких страниц указывается meta robots - noindex,follow

    Информационные страницы почти все закрыты для поисковиков, открыты только кари сайи, адреса магазинов, о досиве и оплате плюс ещё некоторые специфические страницы.

    К пролим относятся все страницы HTTPS, корзины, аккауни, поиска и т.д. - все эти страницы запреещёно ингдексировать.

    Тайтлы и гдескрипшены комбинированных страниц со списками товаров (производитель + категория) формируются путём добавления наименования производителя в начало ийтла и гдескрипшена

    Для того что-бы в ЧПУ страницы товара присутствовала информация о производителе - в начало псевдонима товара добавляю производителя.

    ЧПУ получается иким:

    /category/subcategory/manufacturer-product

    На страниэто товара, кроме описания товара, присутствует описание производителя

    Врогде ничего не забыл и описал основные моменты схемы построения магазина.

В своем магазине http://ehoreca.kz

Мы сгделали следуюещёе, что хорошо описано в других источниках:

1. Sitemap обязателен

2. красивые линки для продуктов, напримен (http://ehoreca.kz/SP-KokaKola-Almaty-Bottlers/u126)

3. Грамотное использование тегов h1, h2.

Для начала я думаю сойгдет

Link to comment
Share on other sites


Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
 Share

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.