Главная / База знаний / Контент и метаданные / Контент не обновляется годами — почему важно
База знаний

Контент не обновляется годами — почему важно

Старый контент теряет позиции. Когда дописывать, когда переписывать, когда удалять.

Контент и метаданные · 3 мин чтения

Симптом

Причина

Технически проблема возникает из‑за того, что поисковые роботы видят контент как «старый» и считают его менее актуальным.
- Meta‑теги: отсутствие meta[refresh] или meta[revisit-after] заставляет роботов обходить страницу.
- Canonical‑теги: если они указывают на старую версию, новые изменения игнорируются.
- robots.txt: блокировка Disallow: /old-articles/ приводит к тому, что страница не сканируется.
- Sitemap: если URL не включён в актуальный sitemap, Google не знает о его существовании.
- Кэширование: CDN или серверные кэши могут отдавать старую версию даже после обновления.

Как проверить

  1. Проверка индексации
    bash curl -I https://example.com/old-article Убедитесь, что заголовок X-Robots-Tag не содержит noindex.

  2. Проверка robots.txt
    bash curl https://example.com/robots.txt Ищите строки Disallow: /old-articles/.

  3. Проверка canonical‑тега
    html <link rel="canonical" href="https://example.com/old-article" /> Убедитесь, что canonical указывает на актуальный URL.

  4. Проверка sitemap
    bash curl https://example.com/sitemap.xml | grep "old-article" Если URL отсутствует, добавьте его.

  5. Проверка кэша
    bash curl -H "Cache-Control: no-cache" https://example.com/old-article Сравните вывод с локальной копией.

Решение

  1. Обновить контент
    - Перепишите устаревшие факты, добавьте новые данные и примеры.
    - Включите дату обновления в начале статьи:
    html <p>Обновлено: 15 апреля 2026 г.</p>

  2. Обновить мета‑теги
    html <meta name="robots" content="index, follow, max-snippet:-1, max-video-preview:-1, max-image-preview:large"> <meta name="revisit-after" content="7 days">

  3. Проверить и исправить canonical
    html <link rel="canonical" href="https://example.com/old-article">

  4. Обновить robots.txt
    txt User-agent: * Allow: /old-articles/

  5. Добавить URL в sitemap
    xml <url> <loc>https://example.com/old-article</loc> <lastmod>2026-04-15</lastmod> <changefreq>weekly</changefreq> <priority>0.8</priority> </url>

  6. Очистить кэш
    - В CDN: отправьте запрос PURGE https://example.com/old-article.
    - На сервере: сбросьте Varnish/NGINX кэш.

  7. Переотправить в Google Search Console
    - В разделе “URL Inspection” введите адрес статьи, нажмите «Request Indexing».

  8. Проверить внутренние ссылки
    - Убедитесь, что все ссылки внутри статьи указывают на актуальный URL.

  9. Мониторинг
    - Через 2–3 недели проверьте позиции в поиске и CTR.
    - Если позиции не восстанавливаются, рассмотрите возможность создания новой статьи и редиректа 301 старой на новую.

Связанные

SEO КП · нужна помощь?

Не хотите разбираться сами?

Запустите технический аудит сайта за 5 минут — получите PDF-отчёт с разбором всех 64 параметров и конкретными точками роста. Или закажите комплексное SEO-продвижение сайта — починим всё это и возьмём на себя дальнейшую оптимизацию.

Запустить аудит за 199 ₽ Узнать про продвижение →