AWS Machine Learning Blog→ оригинал

AWS e Atos mostraram como a gamificação acelera o treinamento em AI para centenas de funcionários

A AWS explicou como a Atos usou o programa AWS AI League para acelerar o treinamento em AI dentro da empresa. A liga de duas semanas reuniu 409 pessoas, e as eq

AWS e Atos mostraram como a gamificação acelera o treinamento em AI para centenas de funcionários
Источник: AWS Machine Learning Blog. Коллаж: Hamidun News.
◐ Слушать статью

AWS показала кейс Atos, которая превратила корпоративное обучение ИИ в соревновательную лигу вместо очередного набора курсов и сертификатов. За две недели 409 участников создали более 4,1 тыс. дообученных моделей и получили практику, которую можно сразу переносить в клиентские задачи.

Как устроили лигу У Atos уже была сильная база: более 5,8 тыс.

AWS-сертификаций и 11 Golden Jackets внутри компании. Но этого оказалось мало для цели сделать весь штат ИИ-грамотным к 2026 году. Проблема знакомая многим крупным организациям: сотрудники проходят обучение, но не всегда доходят до уверенного применения моделей в реальной работе. Поэтому Atos вместе с AWS выбрала формат AWS AI League — не лекции ради галочки, а серию практических задач с рейтингом, дедлайнами и финалом в формате живого шоу.

  • Вводный воркшоп по fine-tuning в SageMaker JumpStart Выбор базовой модели Meta Llama 3.2 3B Instruct Подготовка JSONL-датасета под страховой сценарий Дообучение, деплой и проверка ответов в SageMaker Оценка на лидерборде и отбор в live-финал После стартового воркшопа началась двухнедельная виртуальная лига. Участники многократно меняли датасеты, learning rate, epochs, batch size и LoRA-параметры, чтобы подняться в таблице результатов. В онлайн-раунде модели оценивал автоматический LLM-as-a-Judge на базе Llama 3.2 90B. Затем пять лучших финалистов вышли в живой финал, где итоговая оценка складывалась из трёх частей: 40% от LLM-судьи, 40% от пяти экспертов Atos и ещё 20% от голосования аудитории. На каждую финальную задачу у участников было всего 90 секунд, чтобы подкрутить системный промпт и параметры инференса.

Реальный страховой кейс В качестве боевой задачи

Atos выбрала не абстрактный демо-сценарий, а помощника для страхового андеррайтинга — Intelligent Insurance Underwriter. Модель должна была разбирать сложные страховые ситуации, оценивать риски, подсказывать условия полиса и франшизы, рекомендовать корректировки премии и объяснять логику ответа. Такой кейс хорошо показывает ценность fine-tuning: общей языковой грамотности модели мало, если нужно уверенно работать с отраслевыми терминами, исключениями и правилами принятия решений.

Здесь важна не только генерация текста, но и прикладная точность в домене. Технически участники работали в Amazon SageMaker Studio и SageMaker JumpStart, где инфраструктурная часть максимально скрыта. Для обучения они собирали JSONL-датасеты из пар instruction/response, загружали их в Amazon S3 и запускали дообучение без глубокого погружения в ML-операции.

AWS отдельно отмечает, что размер датасета сам по себе не гарантировал лучший результат. Успешнее выступали те, кто чистил данные, повышал разнообразие примеров и системно тестировал гиперпараметры, а не просто генерировал как можно больше записей. Внутри лиги для этого даже использовали отдельные инструменты для генерации и улучшения датасетов.

Отдельным уроком стала проблема переобучения. Некоторые модели хорошо выглядели на знакомых примерах, но начинали повторяться или давать нерелевантные ответы на новых вопросах. Это особенно проявлялось при проверке на 87 unseen-вопросах из лидерборда.

Именно поэтому участникам пришлось учиться не только запускать fine-tuning, но и смотреть на eval-loss, perplexity и поведение модели на inference, чтобы отличать реальные улучшения от косметического роста метрик. Для корпоративного обучения это важный момент: люди осваивали не кнопки интерфейса, а логику работы с моделью и качеством результата.

Почему это сработало Главный эффект дал не сам воркшоп, а соревновательная механика вокруг него.

После запуска лиги участники одновременно делились находками в рабочих каналах, приходили на office hours и при этом старались не раскрывать все свои ходы конкурентам. В результате Atos получила лучший уровень вовлечённости среди своих геймифицированных программ: 409 человек на лидерборде и более 4,1 тыс. созданных fine-tuned моделей.

Чтобы попасть в топ-5, модель должна была показать не менее 93% win rate против ответов гораздо более крупной модели. Это превратило обучение из формальной активности в инженерную задачу с понятной целью и видимым прогрессом. Бизнес-выводы для Atos тоже оказались вполне прикладными.

По данным AWS, дообученная модель на 3 млрд параметров смогла обыгрывать 90-миллиардную модель в узком домене, если у неё были релевантные данные и правильная настройка. Для компаний это важный сигнал: в агентных системах не всегда нужен самый большой общий LLM. Небольшие специализированные модели дешевле в инференсе, быстрее отвечают и проще масштабируются.

В статье AWS даже приводит инфраструктурный контраст: ml.g5.4xlarge против ml.

g5.48xlarge для более крупной базы. После программы 85% участников сообщили, что чувствуют себя увереннее в разговорах с клиентами о генеративном ИИ, а сам цикл обучения занял две недели вместо месяцев традиционной подготовки.

Что это значит

Кейс Atos показывает, что корпоративное обучение ИИ начинает сдвигаться от пассивных курсов к коротким практическим циклам с измеримым результатом. Для компаний, которые хотят не просто обучить сотрудников работе с ИИ, а довести их до реальных внедрений, формат с отраслевым кейсом, лидербордом и постоянной итерацией выглядит заметно эффективнее стандартной теории и одноразовых сертификаций. Особенно там, где бизнесу нужны не общие знания о GenAI, а специалисты, способные быстро собрать рабочий доменный ассистент.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…