Экспертный разбор: отключение параметра num=100 в Google и его влияние на SEO, аналитику и инструменты

от | Сен 17, 2025 | SEO оптимизация, Новости и гайды

С 10–12 сентября 2025 года Google перестала обрабатывать параметр num=100, который позволял загружать до 100 результатов поиска на одной странице SERP. Официальных анонсов не было. Последствия ощутимы для парсинга поисковой выдачи, работы SEO-инструментов, интерпретации метрик и даже для отчетности в Google Search Console.

Что конкретно изменилось

  • Параметр num больше не возвращает 100 результатов на одну SERP-страницу. Запросы с num=100 ведут к стандартной пагинации (обычно 10 результатов, с учетом вариаций, инсертов и вертикалей).
  • Инфраструктуры, завязанные на массовый сбор SERP-данных (парсеры, трекеры позиций, кастомные дашборды), вынуждены кратно увеличить число обращений к поиску.
  • Google, вероятно, преследует цели снижения нечеловеческого трафика к SERP, унификации интерфейса и стабилизации нагрузки.

Кого затронет в первую очередь

  • Провайдеров данных (SERP API, прокси-платформы) — рост себестоимости и цен.
  • SEO-агентства и инхаус-команды — необходимость перенастройки мониторинга позиций и перерасчета лимитов/бюджета.
  • Разработчиков дашбордов и BI — корректировки пайплайнов, дедупликации и SLA по латентности.
  • Владельцев сайтов — косвенно, через изменение метрик и стоимости внешних инструментов.

Как это повлияет на метрики и отчеты

  1. Мониторинг позиций
  • Увеличение дисперсии при снятии позиций: больше запросов → больше вариативности из-за персонализации, кластеров дата-центров и колебаний вертикалей.
  • Меньше «склеек»: инструменты будут чаще фиксировать локальные флуктуации (разные наборы вставок — карты, видео, вопросы), что визуально «шумит» историю позиций.
  • Практический эффект: возможны «качели» позиций на 1–3 пункта там, где раньше кривая была сглаженной.
  1. Показатели в Google Search Console
  • Потенциально более «чистые» данные: меньше бота-трафика от инструментов, эмулирующих выдачу.
  • Возможна легкая корректировка средних позиций: из-за иных правил формирования показов (меньше массовых технических импрессий).
  • CTR по ряду запросов может измениться вслед за пересчетом показов.
  1. Отчетность по охвату в выдаче
  • Снижение объема «длинного хвоста» в сторонних инструментах, которые раньше снимали топ‑100 и строили модели видимости.
  • Метрики видимости, завязанные на топ‑50/топ‑100, потребуют пересмотра или нормализации.

Риски для процессов и бюджетов

  • Рост стоимости сбора SERP-данных до 5–10 раз при прежнем уровне детализации.
  • Ограничения по капчам/блокировкам — больше запросов → выше вероятность триггеров антибот‑систем.
  • Временные лаги: циклы обновления позиций могут стать длиннее или менее полными.

Рекомендации: что делать SEO-командам и владельцам сайтов Трекинг и методология

  • Перейти от «тотального» снятия топ‑100 к приоритезации: фиксировать топ‑10/топ‑20 для ключевых кластеров, а для хвоста использовать агрегаты (порог видимости, бины: 1–3, 4–10, 11–20, 21–50).
  • Уменьшить частоту съема позиций для низкоприоритетных запросов (например, 1–2 раза в неделю вместо ежедневного).
  • Ввести стратификацию по интентам и SERP‑фичам: отдельно мониторить категории с высокой долей инсертов (карты, видео, PAAs), где волатильность выше.

Инструменты и инфраструктура

  • Переключиться на официальные источники там, где возможно: Google Search Console API для кликов/показов/средних позиций, комбинируя их с точечным SERP‑съемом для витрины позиций.
  • Рассмотреть специализированные SERP‑API‑провайдеры, которые уже адаптировали пагинацию и распределение запросов; сравнить по цене за «документ» вместо «запроса».
  • Кэшировать результаты и внедрить дедупликацию: не парсить одинаковые SERP в пределах короткого окна, если регион/устройство/язык не менялись.
  • Задать SLO на полноту и свежесть: например, 95% приоритетных кластеров обновляются каждые 24 часа, хвост — каждые 72 часа.

Метрики и дашборды

  • Перейти на диапазонные KPI: доля запросов в топ‑3, топ‑10, топ‑20 вместо средней позиции по всем.
  • Добавить метрику «порог видимости» — процент запросов, имеющих минимум N показов за период по данным GSC.
  • Строить модели трафика на основе GSC: прогноз органики по связке позиция‑CTR вашего сайта, а не среднерыночных кривых.
  • Явно пометить в отчетах «разрыв методологии» с датой: 2025‑09‑10/12, чтобы корректно интерпретировать тренды до/после.

Операционные практики

  • Уточнить robots и частоту обхода: ускорять индексацию важных страниц через внутреннюю перелинковку и свежий контент, а не через усиленный мониторинг.
  • Сфокусироваться на факторах, реально влияющих на спрос и конверсию: релевантность интента, скорость (Core Web Vitals), полнота ассортимента, качество сниппетов.
  • Для локального SEO — увеличивать долю сигналов и взаимодействий в профилях на картах и в отзывах, где SERP‑волатильность выше средних значений.

Как объяснить изменения бизнесу

  • Это изменение не «роняет» ваши позиции как таковые. Меняется способ их измерения сторонними инструментами.
  • Колебания диаграмм видимости после 10–12 сентября — следствие новой методологии съема SERP, а не обязательно ухудшения SEO.
  • Корректная точка контроля — клики, показы и конверсии из органики. Если они стабильны или растут, стратегия работает.

Чего ожидать дальше

  • Вероятно, дальнейшее ужесточение к массовому съему SERP-данных: дополнительные лимиты, антибот‑механизмы, непредсказуемые инсерты.
  • Больший упор на first‑party данные (GSC, аналитика) и на качественные, а не «широкие» метрики видимости.
  • Адаптацию рынка инструментов: пересмотр тарифов, переход на семплинг, гибридные модели (частичный парсинг + GSC‑данные).

Чек-лист на 2 недели

  • Перепроверьте свои трекеры: действительно ли они показывают те же наборы URL на страницах 2–10.
  • Перестройте расписание съема позиций и бюджеты под новую нагрузку.
  • Обновите KPI-дэшборды: введите бины (1–3, 4–10, 11–20, 21–50), отметьте дату методологического сдвига.
  • Проведите калибровку CTR-кривых по данным GSC за последние 90 дней.
  • Сообщите стейкхолдерам краткое пояснение и ожидаемую волатильность на 2–4 недели.

Вывод Отключение num=100 — не «конец SEO», а сигнал к зрелой перестройке измерений. Фокус смещается от тотального парсинга топ‑100 к приоритезации, гибридным источникам данных и метрикам, привязанным к реальному спросу и результатам. Команды, которые быстро адаптируют процессы, не только сохранят управляемость, но и сократят издержки за счет умной выборки и корректной аналитики.

Поделиться статьёй

Больше статей из нашего блога