Прежде чем задать вопрос, изучите раздел "Помощь". Там наверняка уже есть ответ.

Тема: Страницы поиска и фильтрации в Яндекс Вебмастер и запрет в роботсе

Автор Karri, 06 дек 2017
Сообщений в теме: 4
  1. Профессионал Karri is on a distinguished road
    Регистрация
    22.10.2013
    Сообщений
    134

    Страницы поиска и фильтрации в Яндекс Вебмастер и запрет в роботсе

    Здравствуйте!
    Заглянула в статистику Яндекс Вебмастера, и увидела, что робот каждый день гоняет туда-сюда (в плюс или минус) страницы, создаваемые фильтрами или поиском по сайту. Чаще скопом в минус, а это портит показатели сайта. Если бы можно было прописывать сео-параметры таких страниц, то еще ничего, но у нас этой возможности нет, а яндекс делает эту работу по исключению из индекса (ведь это не постоянные страницы? если постоянные, дайте возможность настроить им сео) и портит репутацию сайту.
    Посоветуйте, что делать? Может, в роботсе запретить страницы результатов фильтров и поиска? Убрать поиск и сортировку можно вообще, но клиентам удобнее, когда это все присутствует на сайте. А толку от индексации-выбросу из индекса этих страниц никакого, только вред.

    И еще вопрос - у меня есть дубли (товар с одинаковым контентом, но разной фасовкой, на одной странице это параметрами товара совмещать неудобно, т.к. скидки тогда отражаются некорректно при выборе разных цен) - каждый дубль запрещаю в роботсе, накопился большой список. Почти на каждый товар есть по запрещенному дублю. Недавно услышала, что большое количество запрещенных страниц - плохо для оценки поисковиком. Верно ли? Нельзя ли сделать возможность дубли перекладывать в отдельную папку (например, products2) и запрещать всю папку одной директивой в роботсе?

    Также Яндекс Вебмастер ругается, что на некоторых страницах нет дескрипшена, мы его править не можем. Вы можете прописать там что-то общее для всех? Например, на /products/viewcart, /products/order-by-click, https://zakvaskino.ru/articles/tags, /cart/checkout, /products, /showmap
    Можно же внедрить переменную (например, название магазина), и общий текст оставить. Или хотя бы общий текст, но чтобы вебмастер не ругался, то дескрипшн отсутствует.

  2. Профессионал Karri is on a distinguished road
    Регистрация
    22.10.2013
    Сообщений
    134
    Вот каждый день такое в вебмастере
    Нажмите на изображение для увеличения
Название: яст.JPG
Просмотров: 0
Размер:	54.6 Кб
ID:	16127

  3. Профессионал alecsa is on a distinguished road

    Регистрация
    09.11.2013
    Сообщений
    960
    Сообщение от Karri:
    Здравствуйте!
    Заглянула в статистику Яндекс Вебмастера, и увидела, что робот каждый день гоняет туда-сюда (в плюс или минус) страницы, создаваемые фильтрами или поиском по сайту. Чаще скопом в минус, а это портит показатели сайта. Если бы можно было прописывать сео-параметры таких страниц, то еще ничего, но у нас этой возможности нет, а яндекс делает эту работу по исключению из индекса (ведь это не постоянные страницы? если постоянные, дайте возможность настроить им сео) и портит репутацию сайту.
    Посоветуйте, что делать? Может, в роботсе запретить страницы результатов фильтров и поиска? Убрать поиск и сортировку можно вообще, но клиентам удобнее, когда это все присутствует на сайте. А толку от индексации-выбросу из индекса этих страниц никакого, только вред.

    И еще вопрос - у меня есть дубли (товар с одинаковым контентом, но разной фасовкой, на одной странице это параметрами товара совмещать неудобно, т.к. скидки тогда отражаются некорректно при выборе разных цен) - каждый дубль запрещаю в роботсе, накопился большой список. Почти на каждый товар есть по запрещенному дублю. Недавно услышала, что большое количество запрещенных страниц - плохо для оценки поисковиком. Верно ли? Нельзя ли сделать возможность дубли перекладывать в отдельную папку (например, products2) и запрещать всю папку одной директивой в роботсе?

    Также Яндекс Вебмастер ругается, что на некоторых страницах нет дескрипшена, мы его править не можем. Вы можете прописать там что-то общее для всех? Например, на /products/viewcart, /products/order-by-click, https://zakvaskino.ru/articles/tags, /cart/checkout, /products, /showmap
    Можно же внедрить переменную (например, название магазина), и общий текст оставить. Или хотя бы общий текст, но чтобы вебмастер не ругался, то дескрипшн отсутствует.
    Доброго времени суток!
    Подобный вопрос уже много раз на форуме в разных темах обсуждался, закройте от индексации и поиск и фильтры и т.д.

    Пример:
    Disallow: /products/viewcart
    Disallow: /cart/checkout
    Disallow: /*sort=*
    Disallow: /*page
    Disallow: /articles/tags

    Для поиска и сортировки не возможно добавить СЕО - это технические страницы, закрывайте в роботс от индексации их и будет Вам счастье.

    А вот дубли товаров - я не стала бы закрывать, чуть изменить контент (пару фраз написать иначе и СЕО для них разное (два слова добавить/убрать и местами поменять).
    я не профи, но если знаю ответ - подскажу

  4. Профессионал Karri is on a distinguished road
    Регистрация
    22.10.2013
    Сообщений
    134
    alecsa, вот спасибо! Закрою в роботсе все эти поиски, сортировки. А насчет дублей... боюсь открывать, т.к. товар тот же самый, и отзывы я уже год копирую из одного дубля в другой (чтобы покупатели видели все отзывы по товару независимо от того, какую фасовку выбирают). Поисковик сам может убрать дубль, я это, наверное, хуже, чем запретить самостоятельно?

Сейчас посетителей: 1. Пользователей: 0, гостей: 1 Рекорд одновременного пребывания 1, это было 13.12.2017 в 19:45.
Сообщений
4
Пользователи
33,810
Активные участники
167

Приветствуем нового пользователя, Josephhax