Опишите вашу ситуацию, пожалуйста, с указанием адреса сайта и ссылками на конкретные страницы, а так же приложите файл экспорта har как мы просили выше.Сообщение от odni:
Опишите вашу ситуацию, пожалуйста, с указанием адреса сайта и ссылками на конкретные страницы, а так же приложите файл экспорта har как мы просили выше.Сообщение от odni:
сейчас значительно быстрее все стало работать, но все равно отправил har на почту.Сообщение от iSv:
Я.Вебмастер:
Критичные
Найдены страницы-дубли с GET-параметрами
Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.
Посмотрите примеры. Если в поиске есть дубли из-за GET-параметров, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице. Когда робот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.
---
Вылезла подобная проблема, ранее не было подобного
Добрый день.Сообщение от zakazat-chay:
Попробуйте уточнить ситуацию в поддерже Яндекса, откуда взялась ?from=mainpage и почему ее ранее не было.
Это одна и та же страница, почему они ее считают дублем?
Они дали примеры:Сообщение от iSv:
Хорошо, напишем.
Здравствуйте!Сообщение от iSv:
Мы проверили, о таких ссылках роботу стало известно из обхода по счетчикам Метрики, то есть, после их посещения пользователями. Страницы с параметрами являются для поисковой системы отдельными страница, а поскольку они действительно содержат такую же информацию, как и аналогичные страницы без параметров, вы получили такое уведомление.
Вы можете использовать для подобных страниц директиву Clean-param в файле robots.txt: эта директива сообщает роботу, что страницы с указанными в ней параметрами должны участвовать в поиске без этих параметров. При этом роботу не потребуется индексировать каждую такую страницу-дубль, что повышает эффективность обхода и индексации сайта роботом. После указание директивы в течение 1-2 недель уведомление пропадет.
Добрый день.Сообщение от zakazat-chay:
Напишите, пожалуйста, коллегам из Nethouse.Продвижения (pro@nethouse.ru) по данному вопросу, предоставьте им информацию или ссылку на форум, адрес сайта, они вас подробно проконсультируют и дадут свои рекомендации.