Глава Cloudflare предупредил: к 2027 году ИИ-боты обгонят людей в интернет-трафике
Глава Cloudflare Мэттью Принс заявил: к 2027 году ИИ-боты превзойдут людей по объёму интернет-трафика. Генеративные ИИ-агенты уже сейчас резко наращивают нагруз

К 2027 году большинство трафика в интернете будет генерироваться не людьми, а ИИ-агентами и ботами. С таким прогнозом выступил Мэттью Принс, генеральный директор Cloudflare — компании, которая обрабатывает значительную долю мирового интернет-трафика и располагает уникальными данными о его структуре. Cloudflare занимает особое положение в интернет-экосистеме: через сети компании ежедневно проходят триллионы запросов от сайтов и приложений по всему миру.
Это даёт Принсу и его команде возможность наблюдать за изменениями структуры трафика в режиме реального времени. И то, что они видят, указывает на радикальный сдвиг: доля автоматических запросов — от поисковых кроулеров, ИИ-агентов и специализированных ботов — стремительно растёт. Рост напрямую связан с бумом генеративного ИИ.
Крупные языковые модели требуют огромных объёмов данных для обучения и дообучения — и значительную часть этих данных компании получают, сканируя открытый веб. OpenAI, Anthropic, Google, Meta и десятки других игроков содержат мощные кроулеры, обходящие миллиарды страниц. Но это лишь верхушка айсберга: на смену простым кроулерам приходят ИИ-агенты нового поколения, которые не просто читают страницы, а взаимодействуют с сайтами как пользователи — заполняют формы, вызывают API, перемещаются по интерфейсам.
По данным самой Cloudflare, в 2024 году доля бот-трафика на защищённых ресурсах уже превышала 30% от общего объёма. Генеративный ИИ добавляет новую, быстро растущую категорию: агентный трафик, который по поведению неотличим от человеческого, но генерируется в масштабах, недостижимых для живых пользователей. Стоимость запуска таких агентов падает с каждым кварталом, а сценарии использования множатся: от автоматического мониторинга конкурентов до агентов, которые самостоятельно исследуют рынки и взаимодействуют с веб-сервисами от имени пользователей.
Это ставит перед индустрией непростые вопросы. Веб-инфраструктура проектировалась под человеческий трафик с его естественными ограничениями — скоростью чтения, паузами между действиями, ограниченным временем сессии. Агентный трафик не знает этих ограничений и способен генерировать нагрузку на несколько порядков выше.
Серверные ресурсы, CDN-пропускная способность, лицензионные соглашения на контент — всё это окажется под давлением. Уже сейчас многие издатели обновляют robots.txt и внедряют более строгие rate-limiting правила.
Прогноз Принса — не предупреждение, а описание уже идущего процесса. Интернет перестаёт быть пространством для людей и становится инфраструктурой, которой всё активнее пользуются машины. Для бизнеса это означает необходимость переосмыслить аналитику трафика, модели монетизации и защиту контента.
Для инфраструктурных компаний вроде Cloudflare — это новый рынок инструментов для управления агентным трафиком.