Пропишу директиву Clean-param в robots.txt Кворк необходим, если в Яндекс. Вебмастере возникла критическая ошибка "Найдены страницы-дубли с GET-параметрами", рекомендуется применить директиву Clean-param в robots.txt В вебмастере проверю корректность закрытия ссылок. После выполнения мною задачи, Вам необходимо необходимо отправить на проверку, длительностью около 14 дней. В зависимости от объема страниц, процесс исправления может продолжаться несколько недель (это зависит от поисковой системы). Сдача и приемка заказа происходит не дожидаясь окончания процесса замены ссылок в индексе. Внимание! Для 100% результата (чтобы страница выпала из индекса и директива сработала, нужно сделать страницу неканонической (та что без ? oid, например).
Проверено 18.05.2025 г.