Habr AI→ оригинал

ChatGPT Search y Google AI Overviews están cambiando el SEO: Habr AI lanzó una guía sobre GEO

Habr AI publicó un sólido análisis de GEO — la optimización de contenido para ChatGPT Search, Perplexity y Google AI Overviews. La lógica es simple: los sitios

ChatGPT Search y Google AI Overviews están cambiando el SEO: Habr AI lanzó una guía sobre GEO
Источник: Habr AI. Коллаж: Hamidun News.

На Habr AI вышло подробное руководство по GEO — оптимизации контента под LLM-поиск. Главная мысль проста: ChatGPT Search, Perplexity и Google AI Overviews всё чаще отвечают пользователю сами, поэтому борьба идет уже не только за клик в выдаче, но и за попадание в ответ модели.

Почему GEO появился

Автор приводит такие ориентиры перестройки поиска в 2024–2026 годах: AI-блоки Google заняли верх экрана, ChatGPT Search набрал свыше 100 млн активных пользователей в поисковом режиме к апрелю 2026 года, а Perplexity вышел на 15+ млн запросов в день. На этом фоне доля zero-click searches достигла 65%, а часть сайтов, по оценке статьи, уже теряет 20–40% органического трафика. При этом возникает новый канал — AI-referral, когда пользователь приходит по ссылке из ответа нейросети.

GEO, AIO, AEO и LLMO — близкие термины, но суть у них одна: контент должен быть удобен не только для читателя и поискового робота, но и для языковой модели, которая собирает ответ из фрагментов разных страниц. В отличие от старого SEO, где можно было выигрывать на ключах, метатегах и линкбилдинге, здесь важнее ясный смысл, экспертность и извлекаемость фактов.

Как модели выбирают В статье разложена типичная RAG-схема: система

получает запрос, ищет релевантные страницы, ранжирует их, режет текст на блоки по 200–500 токенов, вставляет лучшие куски в промпт и только потом генерирует ответ с цитатами. Отсюда ключевое следствие: конкурирует не вся статья целиком, а каждый отдельный абзац. Если нужный факт спрятан глубоко, размыт водой или не отделён структурно, он может просто не попасть в контекст модели, даже если страница сама по себе сильная.

Статья показывает, что в LLM-поиске слабее работают старые SEO-паттерны вроде keyword density, тонких страниц под один запрос и ссылочных схем. На первый план выходят сигналы, которые помогают модели быстро понять смысл текста и довериться ему. Иначе говоря, выигрывает не тот материал, где чаще повторили ключевую фразу, а тот, где тезис сформулирован прямо, подтверждён цифрами и легко переносится в AI-ответ без потери контекста.

«Оптимизация под алгоритм уступает оптимизации под понимание».
  • Авторитет домена и автора: E-E-A-T и накопленная история цитирования повышают доверие.
  • Структурная извлекаемость: чёткие заголовки, определения, FAQ и schema-разметка помогают достать факт механически.
  • Семантическая плотность: меньше воды, больше самостоятельных смысловых единиц в каждом абзаце.
  • Верифицируемость: даты, цифры, исследования и конкретные ссылки повышают шанс на цитирование.
  • Свежесть: актуальные данные получают приоритет в системах, работающих с веб-индексом в реальном времени.

Что делать редакциям Практические рекомендации звучат довольно приземлённо.

Статья советует давать прямой ответ в первых 200–300 словах, выносить определения в начало разделов, добавлять FAQPage, HowTo, Article и Person schema, а также собирать материалы в topic clusters вместо разрозненных страниц под один запрос. Отдельный акцент — на странице автора: byline, дата обновления, профили и публикации нужны не для красоты, а как машиночитаемые сигналы доверия. Первый шаг для редакции — проверить 10–15 ключевых запросов в ChatGPT Search и Perplexity и посмотреть, кого сервисы цитируют уже сейчас.

Затем имеет смысл настроить в GA4 отдельный сегмент AI-трафика, пройтись по топовым материалам и добавить в них прямые ответы, факты с датами и понятные подтверждения. Дальше — перестроить ядро контента в pillar pages, cluster pages и явные внутренние ссылки, чтобы тема считывалась как единый экспертный массив, а не как набор случайных публикаций. Измерять прогресс автор предлагает уже новыми метриками: присутствием в AI Overviews, объёмом AI-referral traffic, частотой цитирования домена и долей ответов, где появляется бренд.

Это важный сдвиг для редакций и контент-команд: KPI теперь нельзя сводить только к позиции в SERP и общему органическому трафику. Нужно понимать, как часто нейросети выбирают именно ваш материал как базовый источник ответа.

Что это значит GEO не отменяет техническое SEO, но меняет цель оптимизации.

Побеждать будут не те, кто точнее вставил ключевую фразу, а те, кто публикует плотный, проверяемый и удобно структурированный экспертный контент. Для медиа, блогов и B2B-сайтов это прямой сигнал: если материал не годится для цитирования по абзацам, он всё чаще не будет виден и пользователю.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…