Google e empresas de AI estão corroendo a internet: sites pequenos perdem tráfego, modelos perdem qualidade
Google e empresas de AI enfrentam um efeito bumerangue: os resumos de AI reduzem o tráfego de busca, especialmente dos sites pequenos, enquanto a internet se en
Google и ИИ-компании всё сильнее меняют устройство веба не только как пользователи данных, но и как конкуренты тем, кто эти данные производит. Новый виток дискуссии показывает неприятный парадокс: ИИ одновременно высасывает ценность из открытого интернета и ухудшает материал, на котором потом сам же учится.
Удар по трафику Главный удар сейчас виден в поиске.
По данным Chartbeat, которые в марте 2026 года опубликовал Axios, малые издатели с 1–10 тыс. просмотров в день потеряли 60% поискового трафика за два года. У средних падение составило 47%, у крупных — 22%. Отдельное исследование Pew Research показало и причину: когда в Google появляется ИИ-саммари, пользователи заметно реже переходят по ссылкам. Без саммари клики по обычным результатам происходят почти вдвое чаще, а ссылки внутри самого обзора получают считаные проценты переходов.
- Малые сайты потеряли 60% поискового трафика за два года Средние издатели потеряли 47% Крупные площадки потеряли 22% * При ИИ-саммари пользователи кликают по обычным ссылкам заметно реже Проблема не ограничивается медиа. Под ударом оказываются рецепты, инструкции, блоги, образовательные сайты и любые нишевые ресурсы, которые жили за счёт поискового спроса. Для крупных брендов часть потерь компенсируют прямые заходы, приложения и email-каналы. У малых проектов такой подушки нет. Если трафик обваливается, падают реклама, подписки и мотивация публиковать новые материалы — особенно те, что требуют экспертизы, времени и ручной работы.
Интернет теряет голоса Дальше включается экономический эффект.
Меньше трафика означает меньше денег у тех, кто создаёт оригинальный контент. Меньше денег — меньше репортажей, обзоров, инструкций, исследований и локальных историй. Особенно быстро исчезают небольшие независимые площадки, а именно они часто дают самые нестандартные темы и ракурсы. Интернет не становится пустым, он становится ровнее: вместо множества разных голосов остаётся поток взаимозаменяемых текстов, заточенных под алгоритмы и быструю выдачу ответа.
ИИ подрывает ту самую руку, которая его кормит.
На этом фоне компании и редакции всё чаще закрывают дыры машинным контентом. В статье приводится оценка, согласно которой к середине 2025 года больше половины нового онлайн-контента уже создавалось ИИ. Это удобно и дёшево, но такой рост меняет сам состав веба: человеческих текстов, написанных из опыта, наблюдения или узкой экспертизы, становится меньше в относительном выражении. В результате интернет постепенно превращается в монокультуру, где редкие и живые голоса тонут в массе похожих публикаций.
Когда модели учатся Для самих ИИ-систем это тоже плохая новость.
Генеративные модели учатся на больших массивах веб-данных, а значит всё чаще сталкиваются с текстами, картинками и сводками, которые создали не люди, а предыдущие модели. Исследование Nature 2024 года описывает этот риск как model collapse: при рекурсивном обучении на синтетических данных модель постепенно теряет редкие, но важные паттерны реального мира и начинает хуже отражать действительность. Сначала это выглядит как лёгкое падение качества, потом — как однообразие, ошибки и откровенная бессмыслица.
Ситуацию усложняет то, что фильтры пока ненадёжны. Детекторы ИИ-контента дают большой разброс точности и нередко ошибочно помечают человеческие тексты как машинные. Причём такие ложные срабатывания чаще бьют по авторам, для которых английский не родной, и по людям с нестандартным стилем письма.
Синтетические датасеты, которые предлагают как выход, выглядят скорее временным костылём: они могут усиливать слабые места моделей и не заменяют свежие человеческие данные. Иначе говоря, индустрия загрязняет источник, из которого сама же потом пьёт.
Что это значит
Если эта траектория сохранится, рынок получит двойной эффект: издатели будут терять экономику, а модели — качество входных данных. Для пользователей это значит более бедный и однообразный интернет, для разработчиков ИИ — растущую зависимость от ограниченного пула по-настоящему человеческого контента. Выход теоретически есть — компенсация создателям, прозрачная маркировка машинных материалов и более жёсткие правила сбора данных, — но пока индустрия движется в обратную сторону.