MIT News→ оригинал

MIT presentó EnergAIzer — una forma rápida de evaluar el consumo energético de IA en centros de datos

MIT presentó EnergAIzer — un sistema que evalúa el consumo energético de tareas de IA en segundos, no en horas o días. La herramienta ayuda a operadores de cent

MIT presentó EnergAIzer — una forma rápida de evaluar el consumo energético de IA en centros de datos
Источник: MIT News. Коллаж: Hamidun News.

ИИ стал настолько прожорливым к электричеству, что оценка его энергозатрат превращается в отдельную инженерную задачу. Исследователи MIT и MIT-IBM Watson AI Lab предложили EnergAIzer — метод, который за несколько секунд предсказывает, сколько энергии потребит конкретная ИИ-нагрузка на выбранном процессоре или ускорителе. Для дата-центров это возможность принимать решения до запуска модели, а не после лишних трат на электричество.

Проблема уже не теоретическая. По оценке Lawrence Berkeley National Laboratory, к 2028 году дата-центры могут потреблять до 12% всей электроэнергии США, и заметная часть этого роста связана с развитием ИИ. Операторам приходится делить ограниченные GPU-ресурсы между обучением моделей, инференсом и предобработкой данных, но заранее понять энергетическую цену каждого сценария трудно.

Классические методы обычно разбивают нагрузку на множество отдельных операций и поэтапно эмулируют работу внутренних модулей GPU. Такой подход может занимать часы или даже дни, что плохо подходит для быстрых инженерных решений. EnergAIzer строится на более легкой модели.

Команда MIT заметила, что ИИ-нагрузки часто содержат повторяющиеся вычислительные паттерны, особенно когда разработчики уже оптимизировали код под GPU: распараллелили вычисления, грамотно распределили данные и настроили перенос блоков памяти. Вместо полной детальной симуляции система использует эти регулярные структуры, чтобы быстро оценить профиль энергопотребления. Идея в том, чтобы взять меньше низкоуровневой информации, но извлечь из нее достаточно данных для надежного прогноза.

При этом исследователи не ограничились грубой оценкой. Они учли, что у каждого запуска есть фиксированная энергетическая стоимость на подготовку и конфигурирование программы, а затем появляются дополнительные расходы на обработку каждого блока данных. Есть и аппаратные факторы: колебания в работе железа, конфликты при доступе к памяти, неполное использование пропускной способности.

Чтобы компенсировать эти эффекты, команда собрала реальные измерения с GPU и добавила корректирующие коэффициенты. В результате метод сохранил высокую скорость, но стал заметно точнее, чем простые приближенные модели. На практике пользователь может передать EnergAIzer параметры своей нагрузки: какую модель он хочет запускать, сколько входных запросов нужно обработать и какой длины эти запросы.

В ответ система за секунды выдает оценку энергопотребления. Дополнительно можно менять конфигурацию GPU или рабочую частоту и смотреть, как это влияет на итоговый расход энергии. В испытаниях на реальных ИИ-нагрузках и реальных GPU средняя ошибка составила около 8% — это сопоставимо с традиционными подходами, которые требуют куда больше времени.

Авторы также отмечают, что метод можно применять и к перспективным конфигурациям ускорителей, если аппаратная архитектура не меняется радикально. Работу представили 27 апреля 2026 года, а результаты также представляют на IEEE International Symposium on Performance Analysis of Systems and Software. Среди авторов — постдок MIT Кёнми Ли, аспирант Zhiye Song, исследователи IBM Research и старший автор Ананта Чандракасан, провост MIT.

Следующий шаг — проверить EnergAIzer на новейших конфигурациях GPU и масштабировать его на сценарии, где одну нагрузку совместно обрабатывают сразу несколько ускорителей. Это важно, потому что крупные ИИ-нагрузки все чаще распределяются между несколькими GPU. Главный вывод простой: энергоэффективность ИИ упирается не только в новые чипы, но и в возможность быстро измерять цену вычислений до запуска.

Если оценка энергии занимает секунды, а не дни, ее можно встроить в обычную работу дата-центров, команд, обучающих модели, и разработчиков алгоритмов. Тогда энергопотребление становится не постфактум-метрикой из отчета, а реальным параметром для выбора архитектуры, настройки ускорителей и планирования вычислений.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…