Эта страница будет недоступна для индексирущего робота, так например если ссылка будет размещена на каком-то ресурсе, то она может не пойдет в "зачет" как внешняя ссылка для сайта, но тут надо пробовать и смотреть.Сообщение от aquapro42:
Эта страница будет недоступна для индексирущего робота, так например если ссылка будет размещена на каком-то ресурсе, то она может не пойдет в "зачет" как внешняя ссылка для сайта, но тут надо пробовать и смотреть.Сообщение от aquapro42:
всмысле интересуют соображения по закрытию функции /search, а не по самому поиску )Сообщение от aquapro42:
1. По закрытию в роботс уже обсуждалось на форуме достаточно тем.Сообщение от aquapro42:
Так например, если нужно закрыть сортировку, добавьте:
Disallow: /*sort=*
закрытие такой дерективы, вероятно вам так же будет полезно:
Disallow: /*page
(если разделы имеют несколько страниц, например разделы товаров, новости, статьи)
2. По поиску более подробно как работает поиск по каталогу, описано тут http://nethouse.ru/about/instruction...talogu_tovarov (обратие внимание пункт 4)
Если они создают вам помехи, то закрывайте, но обязательно проверяйте в вебмастере. Собственно страницы подобные site//products/search?text.... не являются информационными и сложностей с ними быть не должно.Сообщение от aquapro42:
Обратите внимание, что в приложенном вами скриншоте показывают определенные страницы с 404 (страницы удалены или скрыты на сайте), тут роль играет не сам /search, а то что уже нет той страницы куда вел поиск.
по сортировке понял, а вот по пэйджу не совсем. Чем может навредить открытая данная деректива? ведь на всех страницах в разделах товаров или в статьях свои уникальные не дублируюшие друг друга товары и статьи. Или же описание к разделу будет считаться не уникальным если оно присутствует на page1 и page2? Или же это нужно для того что бы поисковик перекидывал на конкретный товар а не на раздел с товаром?
Поясните пожалуйста этот момент и я вроде все пойму уже окончательно тогда))
Раздел один (описание одно, СЕО-настройки одни), но имеет несколько страниц - дубли будут именно на page1, page2 и т.д.Сообщение от aquapro42:
Что бы закрыть дубли по страницам, сам раздел при этом не закрывается.
должен выглядеть именно так Disallow: /*page
или так Disallow: /*page=*
кажется второй вариант вернее будет, так как ссылка имеет такой вид https://xn--42-6kcaj1c4ahj.xn--p1ai/...uglovye?page=2
Правила по robots.txt хорошо написаны у яндекса и mail.ruСообщение от aquapro42:
http://help.yandex.ru/webmaster/cont...robots-txt.xml
http://help.mail.ru/webmaster/indexing/robots.txt/what
Правила по написанию спец символов http://help.mail.ru/webmaster/indexi.../rules/special
Чтобы проверить, как работает правило, перейдите в вебмастер, в раздел Инструмент проверки файла robots.txt, укажите конкретный url и увидите, какое работает правило.