АГС: почему Яндекс понизил сайт за «низкое качество»
Антиспам Грязного Сайта — фильтр против сайтов-сателлитов и MFA. Что под прицелом.
Симптом
- Сайт перестал показываться в поиске Яндекса, а в личном кабинете появляется сообщение о «низком качестве».
- Появление предупреждения «Сайт не соответствует требованиям Яндекса» в разделе «Пенализации».
- Уменьшение количества кликов и переходов с поисковых страниц.
- В отчётах по поисковому трафику резко падает органический видимость.
- При поиске по ключевым словам виден только «Проблема с сайтом» или «Сайт заблокирован».
Причина
Яндекс применяет фильтр AGS (Anti‑Spam Garbage Site), который срабатывает, если сайт выглядит как «сателлит» – страница, созданная только для продвижения другого ресурса, с низким качеством контента и/или с агрессивной рекламой. Ключевые технические факторы:
- Массовый дублированный контент – одинаковый текст на десятках страниц.
- Низкая уникальность текста – более 70 % совпадений с внешними источниками.
- Сильная внутренняя реклама – всплывающие окна, баннеры, iframe‑рекламы, которые мешают пользователю.
- Неправильная структура URL – длинные, бессмысленные, с параметрами, которые не ведут к уникальному контенту.
- Отсутствие ценного контента – страницы без полезной информации, только «продажи» или «переадресация».
- Низкая скорость загрузки – > 5 сек. и большое количество запросов к серверу.
- Неправильные метатеги – дублирование заголовков, отсутствие описания, «заглушки» в robots.txt.
Фильтр AGS анализирует эти признаки и, если их сумма превышает порог, снижает рейтинг сайта.
Как проверить
| Шаг | Что проверить | Инструмент / команда |
|---|---|---|
| 1 | Проверка уникальности контента | https://searchengines.org/ru/duplicate-checker или https://ru.duplichecker.com/ |
| 2 | Анализ структуры URL | https://yandex.ru/webmaster/tools/robots – посмотрите список URL, которые индексируются |
| 3 | Проверка скорости загрузки | https://yandex.ru/webmaster/tools/website-performance или https://pagespeed.web.dev/ |
| 4 | Анализ рекламных элементов | Откройте страницу в режиме разработчика (F12) и посмотрите количество рекламных iframe/скриптов |
| 5 | Проверка robots.txt | https://yourdomain.ru/robots.txt – убедитесь, что нет запрещённых разделов, но не скрывайте контент |
| 6 | Проверка метатегов | В браузере откройте исходный код и посмотрите <title> и <meta name="description"> |
| 7 | Проверка ссылок | https://yandex.ru/webmaster/tools/internal-links – посмотрите количество внутренних ссылок и их качество |
Быстрый скрипт для проверки дублированного контента
#!/usr/bin/env bash
# Проверка уникальности текста на страницах сайта
# Установите утилиту w3m и pandoc
for url in $(cat urls.txt); do
text=$(w3m -dump "$url" | pandoc -t plain | tr -d '\n')
echo "$url" | md5sum
echo "$text" | md5sum
done
Сравните хэши: одинаковые – дублированный контент.
Решение
1. Удалить дублированный контент
- Перепишите тексты, сделайте их уникальными и полезными.
- Если дублирование неизбежно (например, каталоги товаров), используйте
rel="canonical"на каждой странице, указывая оригинал.
<link rel="canonical" href="https://yourdomain.ru/unique-page" />
2. Оптимизировать структуру URL
- Сократите длину, уберите параметры
?utm_…. - Используйте читаемые пути:
/category/product-name.
rewrite ^/old-page/(.*)$ /new-page/$1 permanent;
3. Уменьшить рекламные элементы
- Переместите рекламу в боковые панели, а не в центр контента.
- Удалите всплывающие окна, которые блокируют пользовательский ввод.
- Если реклама обязательна, используйте
noscript‑вариант и убедитесь, что она не мешает загрузке контента.
4. Улучшить скорость загрузки
- Сжимайте изображения (WebP, JPEG‑XL).
- Минифицируйте CSS/JS.
- Используйте CDN и кэширование.
gzip on;
gzip_types text/plain text/css application/javascript;
5. Корректировать метатеги
- Уникальный
<title>и<meta name="description">для каждой страницы. - Не используйте «заглушки» типа «Купить сейчас» без контента.
<title>Уникальный заголовок страницы | Ваш бренд</title>
<meta name="description" content="Краткое описание, содержащее ключевые слова и ценность для пользователя.">
6. Проверить robots.txt
- Убедитесь, что важные разделы не заблокированы.
- Не используйте
Disallow: /без причины.
User-agent: *
Allow: /
7. Переиндексация в Яндекс.Вебмастер
После всех изменений:
- Войдите в Яндекс.Вебмастер.
- Перейдите в раздел «Проверка URL» и отправьте обновлённые страницы на проверку.
- В разделе «Сканирование» нажмите «Запросить переиндексацию» для всех страниц.
8. Мониторинг
- Еженедельно проверяйте статус в Яндекс.Вебмастер.
- Используйте Google Search Console как дополнительный индикатор.
- Следите за метриками трафика в аналитике.
Связанные
Не хотите разбираться сами?
Запустите технический аудит сайта за 5 минут — получите PDF-отчёт с разбором всех 64 параметров и конкретными точками роста. Или закажите комплексное SEO-продвижение сайта — починим всё это и возьмём на себя дальнейшую оптимизацию.