Я.Вебмастер: «исключена при обходе» — что делать
Статус «исключена при обходе» в Я.Вебмастере — частая проблема. Причины и устранение.
Симптом
- В Яндекс.Вебмастере в разделе «Индексация» строка «исключена при обходе» появляется рядом с URL‑адресом страницы.
- Страница не попадает в индекс, но не получает ошибку 404/500.
- В отчёте о статусе страницы указано «исключено при обходе» без дополнительного сообщения.
- При попытке открыть страницу через «Проверить URL» она загружается, но в отчёте остаётся статус «исключено при обходе».
- В логах сервера нет ошибок, но в Google Search Console может быть «Blocked by robots.txt» или «Crawl-delay».
Причина
- robots.txt – директива
DisallowилиNoindexблокирует доступ к странице. - Meta‑тег
noindex– страница содержит<meta name="robots" content="noindex">. - HTTP‑заголовок
X-Robots-Tag: noindex– сервер посылает заголовок, запрещающий индексацию. - Crawl‑delay – слишком большое значение
Crawl-delayв robots.txt заставляет Яндекс пропустить страницу. - Динамический контент – страница генерируется JavaScript, но Яндекс не видит её содержимое.
- Проблемы с кэшированием – сервер отдаёт устаревший
Cache-Control: no-storeилиExpiresс нулевым сроком, что мешает кэшированию.
Как проверить
-
Проверка robots.txt
bash curl -I https://example.com/robots.txtИщите строкиDisallow:иCrawl-delay:. -
Проверка заголовков страницы
bash curl -I https://example.com/pageОбратите внимание наX-Robots-Tag. -
Проверка meta‑тегов
Откройте исходный код страницы и найдите
html <meta name="robots" content="noindex"> -
Проверка JavaScript‑генерируемого контента
Откройте страницу в браузере, нажмите F12 → Network → Reload → посмотрите, загружается ли контент после выполнения скриптов. -
Проверка кэширования
bash curl -I https://example.com/pageИщитеCache-ControlиExpires.
Решение
-
robots.txt
- Удалите или измените директивуDisallowдля нужной страницы.
txt User-agent: * Disallow: /private/ # Уберите строку, если нужно индексировать /private/page.html
- Если нуженCrawl-delay, установите разумное значение (≤10). -
Meta‑тег
- Удалите<meta name="robots" content="noindex">или замените наindex.
html <meta name="robots" content="index, follow"> -
HTTP‑заголовок
- В конфигурации сервера (nginx, Apache) уберитеX-Robots-Tag: noindex.
nginx location /page { add_header X-Robots-Tag "index, follow"; } -
JavaScript‑генерация
- Если контент создаётся после загрузки, добавьтеprerenderилиserver‑side rendering.
- В качестве временного решения можно использоватьnoscript‑блок с ключевыми данными. -
Кэширование
- Настройте корректные заголовки кэширования.
nginx location /page { add_header Cache-Control "public, max-age=86400"; } -
Переиндексация
- После исправлений отправьте URL в Яндекс.Вебмастер через «Проверить URL» → «Запросить индексацию».
- Подождите 24–48 ч, пока статус обновится.
Связанные
Не хотите разбираться сами?
Запустите технический аудит сайта за 5 минут — получите PDF-отчёт с разбором всех 64 параметров и конкретными точками роста. Или закажите комплексное SEO-продвижение сайта — починим всё это и возьмём на себя дальнейшую оптимизацию.