3DNews AI→ оригинал

Альтман предложил считать стоимость интеллекта иначе: 20 лет еды против одного дата-центра

Сэм Альтман включился в дебаты об энергопотреблении ИИ, заявив, что сравнивать мощность мозга и нейросети некорректно без учёта полной стоимости человеческого и

Альтман предложил считать стоимость интеллекта иначе: 20 лет еды против одного дата-центра
Источник: 3DNews AI. Коллаж: Hamidun News.

Двадцать ватт. Именно столько потребляет человеческий мозг в режиме активной работы — меньше, чем тусклая лампочка накаливания. Этот факт десятилетиями служил главным козырем в спорах о неэффективности искусственного интеллекта: зачем строить дата-центры размером с небольшой город, если природа решила ту же задачу с помощью полутора килограммов нейронной ткани и горстки глюкозы? Сэм Альтман решил, что пора пересмотреть условия этого сравнения.

Глава OpenAI выступил с провокационным тезисом: сопоставлять энергопотребление работающего мозга и работающей нейросети — это интеллектуальное жульничество. Корректный подсчёт, по мнению Альтмана, должен включать всю энергию, затраченную на создание интеллекта, а не только на его эксплуатацию. Для человека это означает примерно двадцать лет непрерывного питания, сна, обучения — тысячи и тысячи калорий, превращённых в синаптические связи. Если пойти ещё дальше, нужно учесть миллионы лет эволюции, в ходе которых бесчисленные организмы рождались, потребляли ресурсы и погибали, чтобы естественный отбор в конце концов произвёл существо, способное рассуждать об абстракциях.

Аргумент не нов в академических кругах, но из уст главы крупнейшей AI-компании он прозвучал иначе — как стратегический нарратив. Контекст здесь критически важен. OpenAI и её конкуренты сталкиваются с нарастающим давлением по поводу энергетического следа больших языковых моделей. По различным оценкам, обучение одной крупной модели уровня GPT-4 потребляло энергию, сопоставимую с годовым потреблением нескольких тысяч домохозяйств. Каждый запрос к чат-боту расходует в разы больше электричества, чем обычный поисковый запрос. Строительство новых дата-центров для AI-нагрузок стало одной из самых горячих тем в энергетической политике — от Техаса до Скандинавии. В этих условиях любой аргумент, способный переформатировать дискуссию, приобретает не только философское, но и вполне практическое значение.

С научной точки зрения позиция Альтмана содержит рациональное зерно, но и заметные натяжки. Действительно, если рассматривать мозг как продукт обучения, его «тренировочный бюджет» колоссален. Ребёнок потребляет в среднем от 1000 до 2500 килокалорий в день, и значительная часть этой энергии в первые годы жизни идёт именно на развитие нервной системы.

За двадцать лет набегает порядка 15–18 миллионов килокалорий — это примерно 17–21 мегаватт-час в пересчёте на электрическую энергию. Цифра внушительная, но всё ещё на порядки меньше того, что тратится на обучение передовых моделей, если учитывать потери на охлаждение, передачу данных и инфраструктуру. Что касается эволюции — включать её в расчёт технически возможно, но тогда и для ИИ нужно учитывать всю историю вычислительной техники, от первых ламповых машин до современных GPU-кластеров, что делает сравнение бессмысленным.

Критики Альтмана не заставили себя ждать. Многие исследователи указали на принципиальную разницу: мозг — это универсальная система, которая одновременно управляет телом, обрабатывает сенсорную информацию, поддерживает эмоциональную жизнь и решает интеллектуальные задачи. Большая языковая модель делает ровно одну вещь — генерирует текст (или, в мультимодальном варианте, ещё и изображения). Сравнивать их «стоимость обучения» — всё равно что сравнивать затраты на строительство целого города с затратами на строительство одного, пусть и очень впечатляющего, небоскрёба. Другие комментаторы были жёстче, назвав высказывание Альтмана попыткой нормализовать неограниченное энергопотребление AI-индустрии в момент, когда общество начинает задавать неудобные вопросы.

Впрочем, в этой дискуссии есть и более глубокий слой. Сам факт того, что глава OpenAI публично рассуждает о цене интеллекта, сигнализирует о сдвиге в индустриальном мышлении. Ещё пару лет назад компании предпочитали вообще не обсуждать энергетическую тему, надеясь, что прогресс в эффективности чипов и алгоритмов решит проблему сам собой. Теперь стратегия меняется: вместо того чтобы отрицать масштаб потребления, лидеры отрасли пытаются переопределить систему координат, в которой это потребление оценивается. Если интеллект — это дорогой продукт по определению, то высокие энергозатраты перестают быть багом и становятся фичей.

Этот нарративный манёвр будет иметь последствия далеко за пределами социальных сетей. Регуляторы в Европе и США уже разрабатывают стандарты энергоэффективности для AI-систем. То, как индустрия определит базовую линию сравнения — будет ли это стоимость одного запроса, стоимость обучения модели или полная стоимость создания интеллекта «с нуля» — напрямую повлияет на жёсткость будущих нормативов. Альтман, осознанно или нет, задаёт рамку для этих дебатов.

Одно можно сказать точно: эпоха, когда AI-компании могли просто игнорировать вопрос о ресурсах, закончилась. Теперь им приходится не просто строить модели, но и строить аргументы в пользу того, что эти модели стоят потраченной энергии. И от того, насколько убедительными окажутся эти аргументы, зависит не только репутация OpenAI, но и темпы развития всей отрасли на ближайшие годы.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…