Прежде чем задать вопрос, изучите раздел "Помощь". Там наверняка уже есть ответ.
1 2 3 4 ... 7

Тема: Как правильно составить Roots.txt

Автор ksemen, 05 дек 2016
Сообщений в теме: 67
  1. Профессионал Svet7 is on a distinguished road

    Регистрация
    17.11.2014
    Сообщений
    10,254
    Сообщение от aquapro42:
    я тут подумал, а как страница будет не доступной то? Я ведь лишь закрываю страницу от индексации в поиковаках, я же не блокирую сам url ни как, любая ссылка будет доступна если по ней перейти
    Эта страница будет недоступна для индексирущего робота, так например если ссылка будет размещена на каком-то ресурсе, то она может не пойдет в "зачет" как внешняя ссылка для сайта, но тут надо пробовать и смотреть.

  2. Профессионал aquapro42 is on a distinguished road

    Регистрация
    17.11.2015
    Сообщений
    119
    так же я пологаю нужно закрывать от индексации Disallow: /search
    так как у меня по вэбмастеру куча проблемных ссылок из за этого
    Нажмите на изображение для увеличения
Название: Screenshot_10.png
Просмотров: 0
Размер:	53.0 Кб
ID:	13592

    а так же функция поиск работает не совсем коректно, она выхватывает из названия все что угодно, например
    Нажмите на изображение для увеличения
Название: Screenshot_11.png
Просмотров: 0
Размер:	103.3 Кб
ID:	13591

    хочу услышать ваши соображения пожалуйста, по этому поводу

  3. Профессионал aquapro42 is on a distinguished road

    Регистрация
    17.11.2015
    Сообщений
    119
    Сообщение от aquapro42:
    хочу услышать ваши соображения пожалуйста, по этому поводу
    всмысле интересуют соображения по закрытию функции /search, а не по самому поиску )

  4. Профессионал Svet7 is on a distinguished road

    Регистрация
    17.11.2014
    Сообщений
    10,254
    Сообщение от aquapro42:
    так же я пологаю нужно закрывать от индексации Disallow: /search
    так как у меня по вэбмастеру куча проблемных ссылок из за этого
    Вложение 13592

    а так же функция поиск работает не совсем коректно, она выхватывает из названия все что угодно, например
    Вложение 13591

    хочу услышать ваши соображения пожалуйста, по этому поводу
    1. По закрытию в роботс уже обсуждалось на форуме достаточно тем.
    Так например, если нужно закрыть сортировку, добавьте:
    Disallow: /*sort=*
    закрытие такой дерективы, вероятно вам так же будет полезно:
    Disallow: /*page
    (если разделы имеют несколько страниц, например разделы товаров, новости, статьи)

    2. По поиску более подробно как работает поиск по каталогу, описано тут http://nethouse.ru/about/instruction...talogu_tovarov (обратие внимание пункт 4)

  5. Профессионал Svet7 is on a distinguished road

    Регистрация
    17.11.2014
    Сообщений
    10,254
    Сообщение от aquapro42:
    всмысле интересуют соображения по закрытию функции /search, а не по самому поиску )
    Если они создают вам помехи, то закрывайте, но обязательно проверяйте в вебмастере. Собственно страницы подобные site//products/search?text.... не являются информационными и сложностей с ними быть не должно.
    Обратите внимание, что в приложенном вами скриншоте показывают определенные страницы с 404 (страницы удалены или скрыты на сайте), тут роль играет не сам /search, а то что уже нет той страницы куда вел поиск.

  6. Профессионал aquapro42 is on a distinguished road

    Регистрация
    17.11.2015
    Сообщений
    119
    по сортировке понял, а вот по пэйджу не совсем. Чем может навредить открытая данная деректива? ведь на всех страницах в разделах товаров или в статьях свои уникальные не дублируюшие друг друга товары и статьи. Или же описание к разделу будет считаться не уникальным если оно присутствует на page1 и page2? Или же это нужно для того что бы поисковик перекидывал на конкретный товар а не на раздел с товаром?
    Поясните пожалуйста этот момент и я вроде все пойму уже окончательно тогда))

  7. Профессионал Svet7 is on a distinguished road

    Регистрация
    17.11.2014
    Сообщений
    10,254
    Сообщение от aquapro42:
    по сортировке понял, а вот по пэйджу не совсем. Чем может навредить открытая данная деректива? ведь на всех страницах в разделах товаров или в статьях свои уникальные не дублируюшие друг друга товары и статьи. Или же описание к разделу будет считаться не уникальным если оно присутствует на page1 и page2?
    Раздел один (описание одно, СЕО-настройки одни), но имеет несколько страниц - дубли будут именно на page1, page2 и т.д.
    Что бы закрыть дубли по страницам, сам раздел при этом не закрывается.

  8. Профессионал aquapro42 is on a distinguished road

    Регистрация
    17.11.2015
    Сообщений
    119
    ну да, логично

  9. Профессионал aquapro42 is on a distinguished road

    Регистрация
    17.11.2015
    Сообщений
    119
    должен выглядеть именно так Disallow: /*page
    или так Disallow: /*page=*

    кажется второй вариант вернее будет, так как ссылка имеет такой вид https://xn--42-6kcaj1c4ahj.xn--p1ai/...uglovye?page=2

  10. Профессионал Svet7 is on a distinguished road

    Регистрация
    17.11.2014
    Сообщений
    10,254
    Сообщение от aquapro42:
    должен выглядеть именно так Disallow: /*page
    или так Disallow: /*page=*

    кажется второй вариант вернее будет, так как ссылка имеет такой вид xn--42-6kcaj1c4ahj.xn--p1ai/products/category/dushevye-kabiny-uglovye?page=2
    Правила по robots.txt хорошо написаны у яндекса и mail.ru
    http://help.yandex.ru/webmaster/cont...robots-txt.xml
    http://help.mail.ru/webmaster/indexing/robots.txt/what
    Правила по написанию спец символов http://help.mail.ru/webmaster/indexi.../rules/special

    Чтобы проверить, как работает правило, перейдите в вебмастер, в раздел Инструмент проверки файла robots.txt, укажите конкретный url и увидите, какое работает правило.

1 2 3 4 ... 7
Сейчас посетителей: 1. Пользователей: 0, гостей: 1 Рекорд одновременного пребывания 1, это было 21.10.2021 в 23:39.
Сообщений
67
Пользователи
36,086
Активные участники
54

Приветствуем нового пользователя, winnerswns