Главная / База знаний / Санкции Яндекса / АГС: почему Яндекс понизил сайт за «низкое качество»
База знаний

АГС: почему Яндекс понизил сайт за «низкое качество»

Антиспам Грязного Сайта — фильтр против сайтов-сателлитов и MFA. Что под прицелом.

Санкции Яндекса · 3 мин чтения

Симптом

Причина

Яндекс применяет фильтр AGS (Anti‑Spam Garbage Site), который срабатывает, если сайт выглядит как «сателлит» – страница, созданная только для продвижения другого ресурса, с низким качеством контента и/или с агрессивной рекламой. Ключевые технические факторы:

  1. Массовый дублированный контент – одинаковый текст на десятках страниц.
  2. Низкая уникальность текста – более 70 % совпадений с внешними источниками.
  3. Сильная внутренняя реклама – всплывающие окна, баннеры, iframe‑рекламы, которые мешают пользователю.
  4. Неправильная структура URL – длинные, бессмысленные, с параметрами, которые не ведут к уникальному контенту.
  5. Отсутствие ценного контента – страницы без полезной информации, только «продажи» или «переадресация».
  6. Низкая скорость загрузки – > 5 сек. и большое количество запросов к серверу.
  7. Неправильные метатеги – дублирование заголовков, отсутствие описания, «заглушки» в robots.txt.

Фильтр AGS анализирует эти признаки и, если их сумма превышает порог, снижает рейтинг сайта.

Как проверить

Шаг Что проверить Инструмент / команда
1 Проверка уникальности контента https://searchengines.org/ru/duplicate-checker или https://ru.duplichecker.com/
2 Анализ структуры URL https://yandex.ru/webmaster/tools/robots – посмотрите список URL, которые индексируются
3 Проверка скорости загрузки https://yandex.ru/webmaster/tools/website-performance или https://pagespeed.web.dev/
4 Анализ рекламных элементов Откройте страницу в режиме разработчика (F12) и посмотрите количество рекламных iframe/скриптов
5 Проверка robots.txt https://yourdomain.ru/robots.txt – убедитесь, что нет запрещённых разделов, но не скрывайте контент
6 Проверка метатегов В браузере откройте исходный код и посмотрите <title> и <meta name="description">
7 Проверка ссылок https://yandex.ru/webmaster/tools/internal-links – посмотрите количество внутренних ссылок и их качество

Быстрый скрипт для проверки дублированного контента

#!/usr/bin/env bash
# Проверка уникальности текста на страницах сайта
# Установите утилиту w3m и pandoc
for url in $(cat urls.txt); do
  text=$(w3m -dump "$url" | pandoc -t plain | tr -d '\n')
  echo "$url" | md5sum
  echo "$text" | md5sum
done

Сравните хэши: одинаковые – дублированный контент.

Решение

1. Удалить дублированный контент

<link rel="canonical" href="https://yourdomain.ru/unique-page" />

2. Оптимизировать структуру URL

rewrite ^/old-page/(.*)$ /new-page/$1 permanent;

3. Уменьшить рекламные элементы

4. Улучшить скорость загрузки

gzip on;
gzip_types text/plain text/css application/javascript;

5. Корректировать метатеги

<title>Уникальный заголовок страницы | Ваш бренд</title>
<meta name="description" content="Краткое описание, содержащее ключевые слова и ценность для пользователя.">

6. Проверить robots.txt

User-agent: *
Allow: /

7. Переиндексация в Яндекс.Вебмастер

После всех изменений:

  1. Войдите в Яндекс.Вебмастер.
  2. Перейдите в раздел «Проверка URL» и отправьте обновлённые страницы на проверку.
  3. В разделе «Сканирование» нажмите «Запросить переиндексацию» для всех страниц.

8. Мониторинг

Связанные

SEO КП · нужна помощь?

Не хотите разбираться сами?

Запустите технический аудит сайта за 5 минут — получите PDF-отчёт с разбором всех 64 параметров и конкретными точками роста. Или закажите комплексное SEO-продвижение сайта — починим всё это и возьмём на себя дальнейшую оптимизацию.

Запустить аудит за 199 ₽ Узнать про продвижение →