MIT Technology Review: Los pequeños modelos de lenguaje se convierten en la base para la implementación de IA en el sector público
El sector público también necesita IA, pero las agencias enfrentan diferentes limitaciones: seguridad, soberanía de datos, conectividad débil y escasez de GPU.

Госструктурам уже недостаточно обсуждать ИИ на уровне пилотов: чтобы технология дошла до реальной работы, им нужны не самые большие модели, а те, которые можно встроить в жесткий контур безопасности, локальную инфраструктуру и регламенты ответственности. Именно поэтому для ведомств и публичных учреждений все заметнее смещается интерес к малым языковым моделям — специализированным системам, которые проще контролировать, дешевле запускать и легче проверять на соответствие требованиям. В бизнесе распространена логика «подключили облачный LLM и пошли тестировать сценарии», но для госорганов она часто не работает.
Там выше требования к защите данных, строже правила перемещения информации, важнее отказоустойчивость и аудируемость решений. Во многих случаях нельзя полагаться на постоянный доступ к интернету, централизованные облака или свободный обмен данными между системами. Поэтому даже при сильном давлении на ускорение внедрения многие AI-проекты в госсекторе застревают между демонстрацией и промышленным запуском.
Эти барьеры подтверждаются и цифрами. По исследованию Capgemini, 79% руководителей в публичном секторе называют главным тормозом безопасность данных, 74% — недоверие к качеству AI-ответов, а 71% — вопросы суверенитета данных и локализации. При этом интерес к технологии высокий: 64% организаций уже изучают или ведут инициативы в области генеративного ИИ, но до пилотов или реального внедрения дошли лишь 21%.
Разрыв между желанием использовать AI и способностью безопасно ввести его в контур работы остается главным узким местом. На этом фоне SLM выглядят как более реалистичный компромисс. Такие модели можно адаптировать под конкретное ведомство, департамент или набор задач, а не пытаться навесить поверх универсального LLM весь массив ограничений.
Они требуют меньше вычислительных ресурсов, чаще могут работать локально или в изолированной среде и позволяют держать чувствительные данные вне самой модели, подавая их по запросу через поиск и retrieval-механизмы. Для сред с ограниченным интернетом и скромным GPU-парком это не удобство, а базовое условие внедрения. Это особенно важно там, где данные нельзя выносить за периметр, а каждый ответ должен быть объясним и привязан к проверяемому источнику.
Практически это означает связку из небольшой модели, корпоративного поиска и строгих правил доступа. В такой схеме система не «угадывает» ответ из общих знаний, а вытаскивает релевантные документы, фрагменты PDF, таблицы, изображения или архивные материалы, ранжирует их и только потом формирует ответ. Для ведомств это дает более полезные сценарии: поиск по нормативным документам, обработку обращений граждан, суммаризацию досье и кейсов, поддержку аналитиков и сотрудников фронт-офиса.
Важен не рекорд в бенчмарке, а возможность журналировать действия, ограничивать права доступа, снижать число галлюцинаций и воспроизводить логику ответа при проверке. В этом подходе ключевой вопрос смещается с «какая модель умнее» на «какая архитектура надежнее». Публичному сектору нужен не просто чат-бот, а полноценный операционный слой для ИИ: с тестовыми контурами, логированием решений, управлением рисками, едиными политиками безопасности и совместимостью между подрядчиками и внутренними системами.
Чем выше ставка — от соцуслуг до обороны и расследований — тем важнее, чтобы AI был не только полезным, но и управляемым на каждом этапе: от запроса к данным до финального ответа. Без такой обвязки даже сильная модель остается эффектной, но плохо контролируемой демонстрацией. Это значит, что для госсектора следующая волна AI-внедрения, скорее всего, будет строиться не вокруг самых громких универсальных моделей, а вокруг специализированных, локально управляемых и проверяемых систем.
Если этот сценарий сработает, именно государственные и публичные организации могут показать рынку, как превращать генеративный ИИ из эффектного демо в инфраструктурный инструмент с понятной ответственностью, контролем и реальной пользой.