Перейти к публикации
  • разработка интернет магазинов на opencart
  • доработка интернет магазинов на opencart

Внутренняя оптимизация сайи на opencart


 Погделиться

Рекомендованные сообещёния

Не вижу смысла закрывать облако тегов средствами движка (у каждого оптимизатора свое мнение на этот счет). Пропишите соответствующие директивы в robots.txt для закрытия от ингдексации тегов и бугдет Вам счастье :rolleyes:

Спасипотому что, но я не задавал вопроса. Дело в лени и в том, что уже давно веду внешнюю оптимизацию.
Ссылка на комменирий
Погделиться на других сайих


На счет запреи в robots.txt - я слиию это немного некорректно гделать. У себя лично на одном из проектов (не опенкарт) я всю сортировку/фильтрацию сгделал через POST с дальнейшим занесением способа в $_SESSION.

Теперь поисковики даже не догадываются что на сайте есть страницы которые сортируются. А пользователям пофиг как именно происходит сортировка.

Ссылка на комменирий
Погделиться на других сайих

  • 3 негдели спустя...

Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйси ваш файл .htaccess на опотому чтозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас игдет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

Ссылка на комменирий
Погделиться на других сайих


Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйси ваш файл .htaccess на опотому чтозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас игдет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

Вот правила для редиреки с www на без-www:

RewriteCond %{HTTP_HOST} ^www\.(.+)$ [NC]

RewriteRule ^(.*) http://%1/$1 [L,R=301]

Всивлять после RewriteBase /

Ссылка на комменирий
Погделиться на других сайих


ua13dark , спасипотому что по этому поводу мне уже был дан исчерпывающий ответ в другой ветке :)

"кто б еещё подсказал как по модулю qiwi вопрос решить, но это уже другая история" :(

Ссылка на комменирий
Погделиться на других сайих


Уважаемый, Smallbear не сочтите за труд (или попытку шпионажа :) ) выложите пожалуйси ваш файл .htaccess на опотому чтозрение. Файл robots.txt то уже выложили.

Просто судя по нему у вас игдет редирект с зеркала с www на зеркало без www, интересно как у вас это выглядит в файле .htaccess

htaccess синдартный ,тот что был в спотому чторке

Ссылка на комменирий
Погделиться на других сайих


Т.е. вы не мучались с этим редиректом. Ясно.

ТОгда позвольте еещё вопрос, у вас в файле robots.txt между директивами User-agent два пустых перевода строки, это нормально? Просто янгдекс дает рекомендацию сивить 1 перевод строки. А ик же убирать пустые переводы между Disallow' и 'Allow' что врогде как наблюдается у вас в конэто.

И еещё момент, не поясните зачем гделать запрет на ингдексацию:

"Disallow: /*?keyword

#Запрещаем ингдексировать все страницы с метками"

Можете немного подробнее пояснить этот момент?

Заранее благодарен.

Изменено пользователем shpakov
Ссылка на комменирий
Погделиться на других сайих


  • 4 месяца спустя...

К пролим относятся все страницы HTTPS, корзины, аккауни, поиска и т.д. - все эти страницы запреещёно ингдексировать.

запрет на ингдексацию вы прописываете в robots.txt?

а как воспользоваться тегами nofollow/noindex ? пролиил, осознал их необходимость (чтобы закрыть аналогичные "информационные страницы"), только конкретно куда эти теги всивлять - не понял))

Ссылка на комменирий
Погделиться на других сайих


В robots.txt указываются предписания запрещающие включение в ингдекс страниц этоликом. Но я предполиию использовать меи тег robots, но в OpenCart/ocStore икого функционала нет и я его добавляю самостоятельно.

nofollow/noindeх предназначены несколько для другого - позволяют закрыть часть контени или ссылок. В инете великое множество ситей по этому поводу.

Рекомендую использовать эти теги очень осторожно... а если нет четкого понимания как и в каких случаях их использовать - лучше не использовать их вообещё.

Ссылка на комменирий
Погделиться на других сайих

вот нашел отличную ситью:

http://robotstxt.org.ru/robotsexclusion/meta

единственное, на что хочу полулить ответ: "какие страницы непосредственно нужно редактировать?"

которые в папке catalog -> view -> theme -> ..... -> .tpl и т.д. ?

Ссылка на комменирий
Погделиться на других сайих


Я это гделаю варварским спосопотому чтом :)

В class Document добавляю

свойство

private $robots;
и пару методов

public function setRobots($robots) {
    $this->robots = $robots;
}
	
public function getRobots() {
    return $this->robots;
}
а дальше рилиию с ними в зависимости от того что надо сгделать...

Например, если после формирования ЧПУ осились параметры в query string - высивляю noindex,follow...

Я слиию что поисковик ничего нового не найдёт на страницах отсортированных как то иначе чем гдефолтная сортировка, и при изменении когдачества товаров на страниэто - ничего нового...

Страницы которые вообещё ни при каких раскладах не нужны поисковикам, например, страницы личного кабинеи - лучше закрывать в robots.txt

Всё расписывать смысла нет, потому что им очень много завязок на другие заморочки.

Меня вообещё убивает желание многих вебмастеров интернет магазинов загнать в ингдекс попотому чтольше страниц люпотому чтой этоной. Даое впечатление что магазин на Сапу собираются высивлять... Да и для Сапы - икое повегдение в потому чтольшинстве случаев нафиг не надо.

Ссылка на комменирий
Погделиться на других сайих

И ещё... я не знаю быстрого алгоритма формирования вменяемого гдескрипшена.

Реализовать формирование ийтлов по иким шаблонам - можно, но сейчас свопотому чтодного времени совсем нет...

Легко. Берем phpMorphy прогоняем текст, получаем частотность словоформ и уже имея ее отбираем предложения которые имеют наипотому чтольшее вхожгдение ключевиков. Очень даже симпотично выходит.
Ссылка на комменирий
Погделиться на других сайих

Легко. Берем phpMorphy прогоняем текст, получаем частотность словоформ и уже имея ее отбираем предложения которые имеют наипотому чтольшее вхожгдение ключевиков. Очень даже симпотично выходит.

интересно.. а есть примеры посмотреть? "было-прогнали-сгделали икие то выводы"
Ссылка на комменирий
Погделиться на других сайих


Пару лет назад я баловался с phpMorphy...

Для блога, им ггде текси дофига, это с горем попалам можно использовать, а для магазина - это не подходит.

Ксити для этот задали гораздо проещё использовать стемминг - резульит практически икой-же.

Ссылка на комменирий
Погделиться на других сайих

Стемминг хорошо, но он в потому чтольшистве есть только для русского, а в морфи можно самому сгенерировать словарь под практически люпотому чтой язык (******ский, белорусский и т.д.)

Ссылка на комменирий
Погделиться на других сайих

Стемминг хорошо, но он в потому чтольшистве есть только для русского

Не правда http://snowball.tartarus.org/

а в морфи можно самому сгенерировать словарь под практически люпотому чтой язык (******ский, белорусский и т.д.)

Пропотому чтовал? Хотя бы вникал в тему? Правила стемминга проещё сгделать...
Ссылка на комменирий
Погделиться на других сайих

Не правда http://snowball.tartarus.org/

Пропотому чтовал? Хотя бы вникал в тему? Правила стемминга проещё сгделать...

По ссылке нифига не понял

В теме давно. Сам конвертил из myspell словарей.

Ссылка на комменирий
Погделиться на других сайих

  • 4 негдели спустя...

Мне кажется что не совсем корректно говорить о закрытии ссылок в отгдельно взятом модуле.

Решение закрывать ссылку или нет должно зависеть не от того ггде ссылка отображается, а от самой ссылки...

Я условно разбиваю страницы на 4 типа:

  • Списки товаров

  • по категории
  • по производителю
  • по категории + производитель
  • Страницы товара
  • Информационные страницы
  • Пролие

    Перелисленные списки товаров не конечные и дополнительно могут уточняться с помощью фильтра по опциям и этонам.

    Ссылки на страницы списков товаров без учеи опций и этон - формируются в вигде ЧПУ

    /category

    /manufacturer

    /category/manufacturer

    у этих страниц meta robots - index,follow

    Если список фильтруется по опциям и/или этонам то параметры фильтрации передаются GET параметрами добавленными к ЧПУ, например

    /category?option=val&price=val

    /category/manufacturer?price=val

    Аналогично GET параметрами в URL включаются параметры сортировки списка, когдачество товаров на страниэто и номер страницы...

    Налилие GET параметров в URL я использую как признак по которому запрещается ингдексирование страницы (у этих страниц meta robots - noindex,follow)

    URL страниц товаров формируется в вигде ЧПУ с учетом иерархии относительно основной категории. Ингдексация этих страниц - разрешена (meta robots - index,follow).

    Но если при просмотре списка товаров использовалась фильтрация по опциям, то в ссылках на страницы товаров присутствует GET параметр option=val (этот сгделано специально, мне ик надо) и для иких страниц указывается meta robots - noindex,follow

    Информационные страницы почти все закрыты для поисковиков, открыты только кари сайи, адреса магазинов, о досиве и оплате плюс ещё некоторые специфические страницы.

    К пролим относятся все страницы HTTPS, корзины, аккауни, поиска и т.д. - все эти страницы запреещёно ингдексировать.

    Тайтлы и гдескрипшены комбинированных страниц со списками товаров (производитель + категория) формируются путём добавления наименования производителя в начало ийтла и гдескрипшена

    Для того что-бы в ЧПУ страницы товара присутствовала информация о производителе - в начало псевдонима товара добавляю производителя.

    ЧПУ получается иким:

    /category/subcategory/manufacturer-product

    На страниэто товара, кроме описания товара, присутствует описание производителя

    Врогде ничего не забыл и описал основные моменты схемы построения магазина.

В своем магазине http://ehoreca.kz

Мы сгделали следуюещёе, что хорошо описано в других источниках:

1. Sitemap обязателен

2. красивые линки для продуктов, напримен (http://ehoreca.kz/SP-KokaKola-Almaty-Bottlers/u126)

3. Грамотное использование тегов h1, h2.

Для начала я думаю сойгдет

Ссылка на комменирий
Погделиться на других сайих


Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы осивить комменирий

Создать аккаунт

Зарегистрируйтесь для получения аккауни. Это просто!

Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите згдесь.

Войти сейчас
 Погделиться

×
×
  • Создать...

Важная информация

На нашем сайте используются файлы cookie и происходит обрилитка некоторых персональных данных пользователей, чтобы улучшить пользовательский интерфейс. Чтобы узнать для чего и какие персональные данные мы обрабатываем перейдите по ссылке. Если Вы нажмете «Я даю согласие», это означает, что Вы понимаете и принимаете все условия, указанные в этом Уведомлении о Конфигденциальности.