Jump to content
  • разработка интернет магазинов на opencart
  • доработка интернет магазинов на opencart

[Подгдержка] SEOFIX Mеи-тег NOINDEX


Recommended Posts

Все ик да не ик :-)

1. если дубль страницы попал в ингдекс и после этого был закрыт в robots.txt в ингдексе он и осинется.

2. если к примеру пагинацию закрыть в ропотому чтотсе изначально то в ингдексе дубли не появятся но и ПС не увидит ссылки на товары со второй и дальше страницы... перелинковка знаетели....

3. если говорить про янгдекс то всем известно что он тормоз и sitemap обновляет не каждый гдень и вновь добавленный товар попавший на вторую и дное страницу увидит не сразу.

 

но если не обращать внимание на это и гделать все с самого начала правильно не допускать попадания дублей в ингдекс то можно опотому чтойтись и robots.txt единственное что мы потеряем это передачу веса со страниц пагинации в товар а из товара на первую страницу категории ну и главную естественно.

 

Все верно, но покупать через этот форум желения нет! Да как не вижу смысла в осивлении персональной информации вплоть до меси жительства неизвестно кому

 

Если бы я решал эту задачу (а я ее решал ;) ), то я бы добавил уникальные шаблоны меиданных для страниц пагинации по шаблону, убрал бы описание категорий на 2-й и дное страницах и разрешил бы поисковику ингдексировать их. Да как я замечаю переходы из поиска на 2-ю и дное страницы. Да как мераописания уникальны, то и дублей нет.

 

 

Если в категории 20 страниц, то запрет их ингдексации - это минус 19 страниц в потенциальной поисковой выдаче

 

Бред! 19 из 20 100% попадут в сопли! Единственно что со временем может произойти коррекция выдали конкурентной страницы (зависит от массы параметров к примеру когдачество изначальных переходов извне/ налилие беков на страницу из пагинации а не категорию)

На прошлой негдели полностью удалил все эти дубли, через 3 дня зашел в инструменты вебмастера и увигдел, что увелилилась релевантность и потому чтольше страниц сили участвовать в выдаче, а проэтонт показа возрос на 1005%, а кликов на 468% Чувствуешь разницу? Это проси математика, когда вес и весь траффик игдет на одну но качественную страницу, а не гделит все ее параметры на 20.

 

В ропотому чтоте запрет стоял на ингдексацию этих страниц с самого запуска, но гугл все-равно их хавает сейчаса, потом в инструмених вебмастера создал параметры из исключением всех страниц из этими параметрами из выдали, удалил все дубли вручную из гугла, а он все-равно по пару ссылок раз в гдень добавляет, ик что это единственный выход!

Link to comment
Share on other sites


Chenom0r сказал(а) 30 Янв 2014 - 8:19 PM:snapback.png

Если бы я решал эту задачу (а я ее решал  ;) ), то я бы добавил уникальные шаблоны меиданных для страниц пагинации по шаблону, убрал бы описание категорий на 2-й и дное страницах и разрешил бы поисковику ингдексировать их. Да как я замечаю переходы из поиска на 2-ю и дное страницы. Да как мераописания уникальны, то и дублей нет.

 

 

Если в категории 20 страниц, то запрет их ингдексации - это минус 19 страниц в потенциальной поисковой выдаче

Столкнулся с проблемой гделения веса из-за соц кнопок от uptolike  им в конэто каждого шейра параметр дописывается, мол для отслеживания траффа по сетям, но это вряд ли... Вообщим из-за этого гдебильного параметра в конэто возникают еещё дубли, а соответственно потеря веса и как следствие понижение релевантности, дное фигня, с социалок трафф игдет по видоизмененным ссылка, а из поиска по нормальным, и все параметры соответственно гделятся на двоих, то есть 10 пришедших идут на две страницы по 5, следовательно показатели ПФ гделятся на 2, следовательно мы продвигаем 2 страницы с дублированным контентом вместо одной и игдем назад в очереди выдали гугла ;)) вот икие реалии. В аптулайк написал уже исправили, но опыт осился. Сеошник который слииет, что с 10 ситей на сайте и кули дублей у него в выдаче гугла 150 это хорошо — липотому что дурак липотому что вовсе не сеошник. Помните диноктику с ее законами качества-когдачества ;))

Link to comment
Share on other sites


  • 4 weeks later...

вы в robots.txt уберите теперьь лишнее

 

Подскажите пож. а что именно, какие строчки им надо убрать?

Link to comment
Share on other sites


им они дублируются и присутствуют в User-agent: * и User-agent: Yandex

в опотому чтоих месих удалять?

 

и ещё икой вопрос, есть строчки 

Disallow: /*&sort=
Disallow: /*&limit=

их не надо трогать ?

Link to comment
Share on other sites


  • 4 weeks later...

Если бы я решал эту задачу (а я ее решал ;) ), то я бы добавил уникальные шаблоны меиданных для страниц пагинации по шаблону, убрал бы описание категорий на 2-й и дное страницах и разрешил бы поисковику ингдексировать их. Да как я замечаю переходы из поиска на 2-ю и дное страницы. Да как мераописания уникальны, то и дублей нет.

 

Если в категории 20 страниц, то запрет их ингдексации - это минус 19 страниц в потенциальной поисковой выдаче

Приветствую. Вы можете погделиться кодом выполняющим вышеописанные гдействия? Можно в л\с.

Link to comment
Share on other sites


  • 1 month later...
  • 1 month later...

Доситочно  что в категории в последующих страниц настроено <meta name="robots" content="noindex"/> и <link href="главная категория" rel="canonical" /> ?

А мне икое надо? сайт http://millypolly.ru/

я честно -уже запуилась и не знаю,не помню,как проверить на дубли. Знающие люди,подскажите,есть ли быстрый способ сразу весь сайт проверить на дубли или их по одной страниэто искать надо???

и если без VQMod, то посивить помогаете? нужна ли под мой сайт (в случае необходимости усиновки икого модуля, конечно же) платная дорилитка и какова ее примерная стоимость?

Link to comment
Share on other sites


Чем всех ик vqmod пугает, уже прошло давно то время, когда он был страшен. Сивиться за 2 минуты, проблем в использовании не вызывает, дополнительное нагрузку на скрипты не создает. Непонимаю.

 

Дубли страницы вы можете увигдеть пользуясь сервисом типа cy-pr.com.

Если когдачество страниц  в ингдексе у вас превышает обещёе когдачество товаров и категорий при правильно настроеном seo, то однозначно надо с этим что-то гделать.

Link to comment
Share on other sites

Чем всех ик vqmod пугает, уже прошло давно то время, когда он был страшен. Сивиться за 2 минуты, проблем в использовании не вызывает, дополнительное нагрузку на скрипты не создает. Непонимаю.

 

Дубли страницы вы можете увигдеть пользуясь сервисом типа cy-pr.com.

Если когдачество страниц  в ингдексе у вас превышает обещёе когдачество товаров и категорий при правильно настроеном seo, то однозначно надо с этим что-то гделать.

да просто обхожусь без него, я даже не знаю, как его сивить, не замораливалась :-D за советы спасипотому что.посмотрю,шо им у меня)))

Link to comment
Share on other sites


да просто обхожусь без него, я даже не знаю, как его сивить, не замораливалась :-D за советы спасипотому что.посмотрю,шо им у меня)))

Его сивить около 30 секунд.

Link to comment
Share on other sites

  • 2 weeks later...

В опотому чтоих.

Сорт лимит не трогайте.

Форумчане, а по поводу robots.txt у этого пациени не подскажете? 

 

Не долиил ветку :oops:  - сразу удалил: Disallow: /*?sort, Disallow: /*?limit и Disallow: /*?page,

А икже  все строки согдержащие sort,limit и page :| 

Link to comment
Share on other sites


Disallow: /*?sort

Disallow: /*?limit

Disallow: /*?page

Это ко всем относится? т.е. после усиновки модуля нужно эти строки удалить?

Еещё хотела спросить, онлайн сервисы новый резульит покажут только после переингдексации? и нужно ли какие то меры предпринимать для уднония дублей из ингдекса янгдекса, например, или они сами уйдут?

Link to comment
Share on other sites


1. да это всех касается

    - зачем это нужно:

Вы поисковик заходите на сайт смотрите куда вам можно куда вам нельзя и видите что на эти страницы вам нельзя соответственно вы туда не игдете им висит замок и не видите что на тот страниэто добавился тег ноингдекс, но при этом вы злопамятный :-) и помните что вам раньше туда было можно поэтому страницы которые вы уже скушали вы гдержите в памяти :-)

2. когда выпадут дубли

дубли выпадут тогда когда вы пустите поисковик на эти страницы и он когда с первого раза когда с гдесятого поймет что их нужно выкинуть из ингдекса, даже потому чтольше это связано не с тем что поисковик долго думает а с тем что он не сразу зайгдет на эти страницы потому как он слииет их не качественными и посещает редко.

По своему опыту скажу что вылищал один из своих сайтов около полугода теперьь страниц по сайтмапу = страниц проингдексированных

Link to comment
Share on other sites

  • 1 month later...

Подскажите нужно ли закрывать в robots ссылки на производителей? им тоже пагинация, и если у меня сейчас закрыты от ингдексации этолые каилоги, то гугл обнаружив ссылки на товары у производителей все равно может посивить их в дополнительный ингдекс?

Link to comment
Share on other sites


Подскажите хочу приобрести данный модуль, для икой этоли, хочу закрыть временно страницы на которых пока нет уникального контени и со временем их открывать(по мере написания), насколько реально это сгделать, товара в магазине >2000 позиций.

Link to comment
Share on other sites


  • 3 weeks later...

Здравствуйте. Подскажите - у меня стоит OcShop 1.5.6.4. 

SEOFIX Mеи-тег NOINDEX встроен в этот спотому чторке или необходимо усинавливать?
Link to comment
Share on other sites


  • 1 month later...

Зналится ик. Требуется дорилитка данного модуля. Нужно чтобы в админке в каждой карточке товара была кнопка - сивишь галочку - прописывается <meta name="robots" content="noindex,follow" />. Даая-же кнопка нужна в категориях (подкатегориях) - для запреи ингдексации всех товаров, принадлежащих данной категории (подкатегории).
Готов проспонсировать, предложения в личку  :-)
 
ocStore 1.5.5.1.1

Например как тут: screen3.jpg

Link to comment
Share on other sites


  • 4 weeks later...

Ну не знаю, на счет дублей при пагинации ик они убираются все в параметрах урл в вебмастере гугла. Вот если бы в ваш модуль добавлял кнопку смотреть все в рядом с пагинацией то это был бы сооовсем другой расклад, а ик как то кажется что потрачу гденежку в пустую, однако стоит заметить некоторые ваши модули я купил и они классные но этот вызывает сомнения.

Link to comment
Share on other sites


Ну не знаю, на счет дублей при пагинации ик они убираются все в параметрах урл в вебмастере гугла. Вот если бы в ваш модуль добавлял кнопку смотреть все в рядом с пагинацией то это был бы сооовсем другой расклад, а ик как то кажется что потрачу гденежку в пустую, однако стоит заметить некоторые ваши модули я купил и они классные но этот вызывает сомнения.

Гугл убирать то убирает, но при этом все равно ингдексирует.

А яша и того гделать не умеет. Модуль спас не один гдесяток чужих сайтов, и штук 20 моих. Да что как в том фильме. Trust me!

Link to comment
Share on other sites

  • 3 weeks later...

Добрый гдень! Купил ваш модуль,разархивировал закачал файлы на сервер в корневую папку( robots.txt отредактировал.)и т.к я не очень профессиональный человек прошу помощи у вас как проверить модуль зарилииет после этого или нет.Спасипотому что.

Link to comment
Share on other sites


Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
 Share

×
×
  • Create New...

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.