Jump to content
  • разработка интернет магазинов на opencart
  • доработка интернет магазинов на opencart

boxbaster

Новичок
  
  • Posts

    25
  • Joined

  • Last visited

About boxbaster

  • Birthday 10/11/1980

Информация

  • Пол
    Мужлина

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

boxbaster's Achievements

Apprentice

Apprentice (3/14)

  • Conversation Starter
  • First Post
  • Collaborator
  • Week One Done
  • One Month Later

Recent Badges

0

Reputation

  1. Возможно, кому-то еещё поможет: Сайтмап рилииет, лиием инструкции по усиновке и активации: https://opencart-forum.ru/files/file/1615-%D1%88%D1%83%D1%81%D1%82%D1%80%D0%B0%D1%8F-%D0%BA%D0%B0%D1%80%D1%82%D0%B0-%D1%81%D0%B0%D0%B9%D1%82%D0%B0-sitemap-xml/ При проверке в валидаторе янгдекса, ругался на запрет в ропотому чтотсе, есть у меня правило - Disallow: /index.php? Добавил в ропотому чтотс: Allow: /index.php?route=feed/fast_sitemap Sitemap: http://site.com/index.php?route=feed/fast_sitemap
  2. уже в шаге от отказа от чпу((( хотя понимаю, что это неправильно
  3. Подскажите пожалуйси, каким обвместе можно реализовать: 1. Категории - уникальны 2.Подкатегории - уникальны 3. Под-подкатегории - одноименные на все подкатегории. 4. товары - уникальны ик вот, 3 эип никак не могу реализовать, Seo Pro отказывается искать под-подкатегории (404), ик как чпу не уникнон, подскажите пожалуйси, икое возможно вообещё на данном движке. (1.5.1.3) Спасипотому что за ответы
  4. Насколько я понял, необходимо чтобы сервер сообщал ошибку 404, тогда бугдет возможность удалить страницы со сирыми ссылками через админ панель вебмастера, но как этого добиться. Я ик понимаю сейчас сервер возвращает 200 ОК, а клиент в свою очередь по запросу видит .... "ЗАПРАШЕВАЕМАЯ СТРАНИЦА НЕ НАЙДЕНА".... Навернкака уже многие силкивались с данной проблемой, подскажите пожалуйси пути решения. Неужели необходимо провести манипуляции с файлами ропотому чтотс и хиксесс, но какие должны быть правила ума не приложу, ведь речь игдет о ЧПУ, а не о ссылках вида ..route..id.. каким обвместе дать понять поискавикам, что ЧПУ изменились и удалить сирые ссылки из поиска :( :( :(
  5. Доброго времени суток. После усиновки модуля SEO, URL естественно сгенерировались автоматически и перезаписались. Но вот в чем сложность, ни Янгдекс ни Гугл, (в особенности янгдекс) упорно не хотят ингдексировать страницы, в поиске потому чтолиются страницы со страрыми урлами, в итоге посетитель видит примерно вот это http://generalclimate.org/okonnie-kondicionery Ребят подскажите как с этим потому чтороться, поиском на форуме пользоваться умею, спасипотому что, но к сожнонию ничего не нашел, не силен в данной тематике. Заранее благодарен.
  6. УРА, методом проб и ошипотому чток, вопрос решен, как же трудно мне дается программирование :lol: Disallow: /index.php?route=information/information&information_id=5/ запрещает ингдексацию: http://generalclimate.org/index.php?route=information/information&information_id=5/ хух, все можно идти спать)))
  7. Ребят, ну подскажите чайнику плиз, перепропотому чтовал варианты: Disallow: /www.generalclimate.org/index.php?route=information/information&information_id=5/ Disallow: /http://generalclimate.org/index.php?route=information/information&information_id=5/ Disallow: /generalclimate.org/index.php?route=information/information&information_id=5/ все равно, ситус: РАЗРЕШЕН
  8. Неужели, пригдется в robots.txt прописывать каждую страницу? Если да, то подскажите правильность написание, пример: Disallow: /http://generalclimate.org/index.php?route=information/information&information_id=5/ Disallow: /ttp://generalclimate.org/index.php?route=checkout/cart/ Disallow: /http://generalclimate.org/index.php?route=information/contact/ и т.д. все верно прописано или нет?
  9. Доброго времени суток. Друзья, решил занятся дублем контени у своего сайи, вылиил, что частично (или полностью) вопрос можно решить, прописав в robots.txt запрет к ингдесации некоторых разгделов, в частности, согдержание файла: User-agent: * Disallow: /admin/ Disallow: /catalog/ Disallow: /system/ Disallow: /install/ Disallow: /download/ ик, как сайт был проингдексирован, решил удалить из поиска некоторые страницы (практически все, ик как все страницы имеют вид: http://generalclimate.org/index.php?route=information/information&information_id=5 а хотелось бы, чтобы строка выглягдела вот ик: http://www.generalclimate.org/montaz-kondicionerov) ик вот, решил удалять страницы вручную через Янгдекс.Вебмастер, но при попытке удалить урл, полулил икой ответ: Нет оснований для уднония. Сервер не возвращает код 404, ингдексирование не запреещёно ни в robots.txt, ни меитегом noindex. Подскажите пожалуйси, что необходимо дописать в robots.txt, для того чтобы запретить все левые урл кроме чпу P.S. Простите если напуил в опрегделениях, но смысл я думаю понятен.
  10. Спасипотому что за ответы, бугдем посмотреть, как говорится))) честно говоря времени не хваиет каистрофически, когда не смыслишь в языках программирования, сложно дается каждый шаг. Дубль страниц конечно необходимо убирать, как? пока даже не знаю, не искал еещё.
  11. Ну наконец-то, сайт проингдексирован в полном объеме, но!!! в загрузке 95 стр., а в поиске всего 64 стр. ???
  12. Ребят разжуйте пожалуйси, правильно ли я понял, я прогделываю данное гдействие: 2) потому чтолее гдемократичный способ - для новых пользователей, у которых в куках еещё не прописались настройки курса усинавливаем рубли, для всех осильных осивляем ту валюту которую они выбрали\выберут. Изменения валюты соответственно рилииет. меняем весь предыдущий код на if (isset($this->request->get['currency']) && (array_key_exists($this->request->get['currency'], $this->currencies))) { $this->set($this->request->get['currency']); } elseif ((isset($this->session->data['currency'])) && (array_key_exists($this->session->data['currency'], $this->currencies))) { $this->set($this->session->data['currency']); } elseif ((isset($this->request->cookie['currency'])) && (array_key_exists($this->request->cookie['currency'], $this->currencies))) { $this->set($this->request->cookie['currency']); } else { $this->set('RUB'); } и этоны по умолчанию осиются в USD, в админ панели для новых товаров или для товаров по которым этоны изменились я назначаю в USD, а посетители видят этоны в рублях и этоны меняются автоматически в зависимости от курса, обновление курса врогде бы по умолчанию раз в сутки, все ик или я что-то напуил?
  13. И еещё один вопросик вдогонку, этоны на товары предосивляемые производителем зафиксированы в USD, я усиновил доллары валютот по умолчанию, нельзя ли прописать ггде-нибудь в когде, чтобы этоны отображались в рублях (как бы по умолчанию), но ик чтобы стоимость товара была зафиксирована в USD и обновлялась, как это предусмотрено, в зависимости от курса.
  14. Не сину открывать новую ветку, дабы не засорять форум "гдетскими" вопросами, поэтому опишусь згдесь: Как выдумаете влияет ли имя домена на ранжирование в поиске. Дело в том, что я назвал сайт именем производителя, компания основывалась в 2002 и в свое время выкупила домены со своим бредом в зоне ru, com, net и еещё парочку каких то я не припомню, возможно, что осильные домены в то время не предосивлялись российскими регистраторами, я зарегистрировал домен в зоне org. Как вы думаете, не нарушил ли я никах им авторских прав и не влечет ли за сопотому чтой данная ситуация каких-липотому что правовых последствий.
×
×
  • Create New...

Important Information

On our site, cookies are used and personal data is processed to improve the user interface. To find out what and what personal data we are processing, please go to the link. If you click "I agree," it means that you understand and accept all the conditions specified in this Privacy Notice.