Cloudflare : les bots de AI pourraient dépasser les humains en volume de trafic internet dès 2027
Le dirigeant de Cloudflare, Matthew Prince, prévoit que le trafic des bots de AI dépassera celui des humains dès 2027. La raison tient aux scénarios avec agents
Cloudflare предупреждает о развороте, который может быстро поменять экономику и архитектуру интернета. По прогнозу главы компании Мэттью Принса, уже в 2027 году AI-боты начнут генерировать больше веб-трафика, чем живые пользователи.
Почему трафик растёт Главная причина — агентный формат работы.
Если человек ищет, например, цифровую камеру, он обычно открывает несколько сайтов, сравнивает цены и характеристики, а затем принимает решение. AI-агент действует иначе: он может обойти тысячи страниц ради одной задачи, собрать варианты, проверить наличие, условия доставки и отзывы, а потом вернуть готовый ответ. В пересчёте на сетевую нагрузку один такой помощник оказывается намного «тяжелее» обычного посетителя.
«Ваш агент или бот зачастую посетит в 1000 раз больше сайтов, чем реальный человек», — сказал Принс на SXSW.
По словам Принса, до бума генеративного ИИ на ботов приходилось около 20 % интернет-трафика. Самым крупным легитимным ботом был поисковый робот Google, а заметная часть остальных запросов шла от мошенников и других злоумышленников. Теперь структура меняется: всё больше ботов работают не ради индексации или атак, а ради выполнения пользовательских задач. Для Cloudflare, чья инфраструктура обслуживает примерно пятую часть веба, такой сдвиг уже выглядит не теорией, а операционной реальностью.
Новая нагрузка сети Ключевая проблема здесь не в самом факте автоматизации, а в масштабе.
Когда один агент ради выбора товара проходит путь, который раньше требовал десятков людей или часов ручной работы, нагрузка распределяется по тысячам сайтов, API и серверов. Принс сравнил ситуацию с периодом пандемии, когда интернет резко распух из-за видеосервисов вроде YouTube и Netflix. Разница в том, что тогда был резкий всплеск с последующим плато, а сейчас Cloudflare видит более плавный, но непрерывный рост без явных признаков замедления.
- Больше запросов к страницам товаров, базам знаний и справочным разделам Выше нагрузка на CDN, кэши, антибот-системы и защиту от DDoS Сильнее потребность в новых серверах, стойках и дата-центрах * Сложнее аналитика: сайтам нужно отличать полезных агентов от мусорного трафика Если этот тренд сохранится, интернету придётся масштабироваться не только логически, но и физически. Речь уже не просто о более умных моделях, а о дополнительной вычислительной инфраструктуре, каналах связи и механизмах отказоустойчивости. Иначе владельцы сайтов окажутся в ситуации, где нужно одновременно впускать полезных AI-агентов, блокировать вредоносных ботов и не терять производительность для обычных людей. Для сетевых платформ это превращается из исследовательской темы в задачу ближайших релизов и бюджетов.
Песочницы для агентов
Ещё одна идея, о которой говорил Принс, — специальные «песочницы» для AI-агентов. Логика простая: если пользователь просит систему что-то сделать от своего имени, например спланировать отпуск, подобрать рейсы или собрать варианты проживания, агенту нужна изолированная среда, где он может запускать код, ходить по сайтам и завершать работу без лишних рисков для основной инфраструктуры. По замыслу Cloudflare, такие среды должны подниматься почти так же легко, как новая вкладка в браузере, и так же быстро уничтожаться после выполнения задачи.
В этой модели веб начинает больше походить на фабрику короткоживущих процессов, чем на набор статических страниц. Принс допускает, что в будущем миллионы таких песочниц будут создаваться каждую секунду. Если прогноз оправдается, это изменит не только инфраструктурный слой, но и правила доступа к контенту, авторизацию, лимиты запросов и способы оплаты за использование ресурсов.
Проще говоря, интернету придётся учиться работать не только с людьми и поисковыми роботами, но и с армией автономных исполнителей, которые действуют от лица пользователей.
Что это значит Прогноз Cloudflare важен не только как оценка тренда.
Он описывает сдвиг, при котором AI-агенты становятся нормальными участниками веба, а не исключением. Для медиа, e-commerce, SaaS и инфраструктурных компаний это сигнал уже сейчас пересматривать защиту, производительность и правила доступа, потому что следующий виток конкуренции пойдёт не только за внимание людей, но и за пропускную способность для машин.