Добрый день.Сообщение от Юрий П:
На указанных урлах не нужно прописывать метаданные и такой возможности нет.
Можете закрыть их от индексации в роботе.
Добрый день.Сообщение от Юрий П:
На указанных урлах не нужно прописывать метаданные и такой возможности нет.
Можете закрыть их от индексации в роботе.
А как это сделать?Сообщение от support:
http://nethouse.ru/about/instruction...koe_robots_txtСообщение от Юрий П:
Добавьте строки
Disallow: /*showmap*
Disallow: /*viewcart*
Disallow: /*subscribe*
1. После Sitemap?Сообщение от support:
2. Между ними пустую строку оставлять?
1, 2 - не важно.Сообщение от Юрий П:
Вот так правильно?Сообщение от support:
User-agent: *
Allow: /
User-agent: Yandex
Allow: /
Host: https://credit161.ru
Sitemap: https://credit161.ru/sitemap.xml
Disallow: /*showmap*
Disallow: /*viewcart*
Disallow: /*subscribe*
Да .Сообщение от Юрий П:
Не помогаетСообщение от support:
не так быстроСообщение от Юрий П:)) подождите пока роботы сделают переобход и пройдёт апдейт)
Здравствуйте!Сообщение от Юрий П:
Каким образом определяете, что не помогает?
В Яндекс Вебмастер проверяли анализ robots.txt?
И для изменений необходимо время, что бы робот переиндексировал страницы сайта.