vaspvort
Ночной дозор
Команда форума
Модератор
ПРОВЕРЕННЫЙ ПРОДАВЕЦ
Private Club
Старожил
Migalki Club
Меценат💎
В Яндекс Вебмастере появился новый функционал, который позволяет управлять индексацией страниц с GET-параметрами. С его помощью можно указать поисковому роботу, какие URL с параметрами нужно обходить и добавлять в поиск, а какие — исключать. Это сокращает количество обходов, снижает нагрузку на сайт, ускоряет индексацию и помогает показывать в поиске именно нужные версии страниц.
Настройка GET-параметров в Яндекс Вебмастере, источник
Ранее для работы с параметрами приходилось настраивать файл robots.txt с директивой clean-param. Теперь этот процесс стал проще: в инструменте «Настройка GET-параметров» все действия выполняются прямо в интерфейсе Вебмастера — достаточно отметить важные и неважные параметры.
Чтобы настроить GET-параметры:
1. Перейдите в Яндекс Вебмастер → Индексирование → Настройка GET-параметров;
2. Ознакомьтесь со списком параметров, обнаруженных роботом;
3. Укажите, какие параметры учитывать при индексации, а какие — игнорировать (при необходимости можно добавлять или удалять параметры вручную).
Настройка GET-параметров в Яндекс Вебмастере, источник
Вот преимущества инструмента:
Источник
Настройка GET-параметров в Яндекс Вебмастере, источник
Ранее для работы с параметрами приходилось настраивать файл robots.txt с директивой clean-param. Теперь этот процесс стал проще: в инструменте «Настройка GET-параметров» все действия выполняются прямо в интерфейсе Вебмастера — достаточно отметить важные и неважные параметры.
Чтобы настроить GET-параметры:
1. Перейдите в Яндекс Вебмастер → Индексирование → Настройка GET-параметров;
2. Ознакомьтесь со списком параметров, обнаруженных роботом;
3. Укажите, какие параметры учитывать при индексации, а какие — игнорировать (при необходимости можно добавлять или удалять параметры вручную).
Настройка GET-параметров в Яндекс Вебмастере, источник
Вот преимущества инструмента:
- сокращение количества дублей;
- снижение нагрузки на сайт;
- отображение в поиске только нужных версий страниц;
- экономия времени за счет отказа от ручного редактирования robots.txt.
Источник






