AI в криптографии: модель без права быть правой
В криптографии главный вопрос не в том, найдёт ли AI правильный ответ, а в том, останется ли система безопасной при его ошибке. Разбираем архитектуру governed s

Когда AI встраивают в криптографическую систему, часто задают вопрос: может ли модель найти правильный ответ? Но в контексте высоконадёжных систем это неправильный вопрос. Правильный вопрос другой: можно ли встроить AI так, чтобы даже при ошибке он не мог принять опасное решение?
Governed
Solver Orchestration: архитектура доверия В nonce-observatory реализована архитектура, где AI играет чётко определённую роль планировщика, но никогда не выступает источником истины. Модель анализирует только публично доступные и безопасные данные (public-safe feature contract), предлагает маршруты запусков для solver-ов, помогает с триажем и объяснением выбранных решений. Но есть жёсткая граница — набор forbidden fields — которые модель физически не может увидеть.
Вот что доступно AI: Анализ public-safe feature contract Предложение solver routes и оптимизация маршрутов Построение очереди запусков в правильном порядке Помощь с классификацией задач и объяснением выбора Рекомендации без взятия на себя финального решения И вот что находится за линией non-escalation boundary: Приватные nonce-поля (critical secret data) Значения candidate_d и k из криптографических алгоритмов Формирование recovery claim * Превращение своего score или метрики в криптографическое свидетельство ## Граница Non-escalation и детерминированная проверка Граница проходит между двумя слоями: AI-планировщиком и детерминированным верификатором. AI может ошибиться в рекомендации маршрута — это некритично. Почему?
Потому что финальное решение всегда принимает exact verifier, который работает по криптографически проверяемым и детерминированным правилам, без судейства от модели. Такой подход полностью меняет парадигму разработки. Обычно высоконадёжные системы требуют очень умного AI, который просто не должен ошибаться — иначе всё ломается.
Здесь стратегия другая: AI может быть среднего уровня интеллектуально. Главное ограничение — его ошибка никогда не должна автоматически становиться фактом в системе.
"AI suggests.
Exact verifier decides." — не просто архитектурный паттерн, а философия разработки AI в криптографии.
Почему это критично для высоконадёжных систем
Критические системы часто строятся на предположении однозначности решений. Если AI скажет «это верно», и система примет это как аксиому — и модель ошиблась — весь протокол и его гарантии скомпрометированы. Здесь нет такого риска. Логика работы: Модель анализирует только опубликованные данные Предлагает кандидатские маршруты для запуска solvers Верификатор проверяет каждый шаг детерминировано Криптографическое доказательство формируется без участия AI Статья особенно полезна для всех, кто проектирует AI в критических системах — не только криптографических. Если ошибка модели не должна автоматически стать решением системы, нужна именно такая архитектурная граница.
Что это значит AI в критических системах — это не про то, чтобы модель
была идеальна и никогда не ошибалась. Это про правильное разделение ответственности между компонентами. Есть задачи для AI: анализ данных, рекомендации маршрутов, оптимизация очередей. Есть задачи только для детерминированных верификаторов: окончательное решение, криптографический вывод, гарантии безопасности. Когда эта граница ясна и строго выполняется, система остаётся безопасной даже при скромных способностях модели.