SberZdorovye : le non-déterminisme des réseaux neuronaux est une défaillance du pipeline, pas une propriété du modèle
L’architecte de SberZdorovye Ruslan Cherkas conteste la thèse populaire d’un non-déterminisme « inné » des réseaux neuronaux. Selon lui, à entrées, poids et env

Архитектор СберЗдоровья Руслан Черкас выступил против популярного тезиса о том, что нейросети по своей природе недетерминированы. Его главный тезис: если входные данные, веса модели и окружение зафиксированы, система обязана выдавать один и тот же результат, а любые расхождения — это сигнал о сбое в пайплайне, коде или инфраструктуре.
Откуда берётся спор
Поводом для разбора стала типичная ситуация из ML-практики: команда пытается воспроизвести эксперимент, но получает другие метрики или иной ответ модели. Такие случаи часто объясняют самой природой нейросетей, особенно если речь идёт о LLM, обучении на GPU и сложных цепочках из библиотек и сервисов. Черкас спорит именно с этим объяснением и предлагает смотреть на проблему строже, как на инженерный дефект, а не на неизбежную особенность технологии.
По его логике, математическая модель не может быть «случайной сама по себе», если все её аргументы известны и не меняются. Для нейросети это означает фиксированный вход, фиксированные веса и одинаковые условия выполнения. В таком режиме формула должна приводить к одному и тому же выводу каждый раз.
Если этого не происходит, значит где-то между данными, железом, библиотеками и алгоритмом есть неучтённая переменная, которую команда просто не контролирует.
Четыре источника сбоев
Автор разбирает самые частые объяснения, которыми обычно оправдывают плавающий результат, и сводит их к четырём классам проблем. Общая мысль у него жёсткая: недетерминированность не является полезной «фичей», если она возникает без изменения входных условий. Это важно не только для науки, но и для эксплуатации модели в проде, где любое необъяснимое расхождение быстро превращается в риск.
Неопределённость входных данных — случайно меняются сами данные, начальные веса, seed или внутренние состояния. Аппаратные сбои — на результат влияют дефекты оборудования, различия в порядке операций или нестабильная среда выполнения. * Программные расхождения — отличаются версии библиотек, настройки оптимизаций, кэширование или другое окружение.
* Алгоритмические ошибки — плавающий порядок вычислений, гонки потоков и некорректное распараллеливание ломают повторяемость. Отдельно Черкас подчёркивает, что ссылки на «внешние факторы» вроде квантовых эффектов не снимают ответственности с разработчика. Если фактор влияет на вывод модели, он должен быть либо включён в аргументы, либо изолирован.
Иначе это не философский вопрос о природе ИИ, а обычная ошибка реализации. В статье есть и короткая формула позиции автора: > «Недетерминированность — ошибка, которую нужно и можно устранять.»
Как добиваться повторяемости
Практический вывод из статьи простой: сначала нужно признать проблему, а потом локализовать её источник. Если модель ведёт себя по-разному при одинаковом запуске, команда должна разложить инцидент по слоям: проверить данные, сравнить веса, зафиксировать seed, убедиться в идентичности железа, версий библиотек и полного runtime-окружения. Для production-систем это уже не вопрос удобства, а вопрос доверия к результату и возможности нормально расследовать сбои.
Автор также предупреждает, что за скорость нельзя бездумно платить потерей очередности вычислений. Если распараллеливание или оптимизация меняют порядок операций так, что результат начинает плавать, такую реализацию нельзя считать корректной для критичных сценариев. Особенно это касается систем, где от модели зависят бизнес-решения, медицинские рекомендации, безопасность или другие процессы с высокой ценой ошибки.
В этих случаях детерминированный пайплайн должен быть отдельной инженерной целью, а не побочным эффектом удачной настройки.
Что это значит
Материал СберЗдоровья полезен тем, что переводит разговор о «магии нейросетей» в плоскость обычной инженерии. Чем активнее компании встраивают модели в важные процессы, тем менее приемлемо объяснять непредсказуемость абстрактной природой ИИ. На практике выигрывать будут те команды, которые умеют показать воспроизводимость, описать источники случайности и доказать, что система остаётся управляемой даже в сложных сценариях.