Habr AI→ оригинал

AI в криптографии: модель без права быть правой

В криптографии главный вопрос не в том, найдёт ли AI правильный ответ, а в том, останется ли система безопасной при его ошибке. Разбираем архитектуру governed s

AI в криптографии: модель без права быть правой
Источник: Habr AI. Коллаж: Hamidun News.
◐ Слушать статью

Когда AI встраивают в криптографическую систему, часто задают вопрос: может ли модель найти правильный ответ? Но в контексте высоконадёжных систем это неправильный вопрос. Правильный вопрос другой: можно ли встроить AI так, чтобы даже при ошибке он не мог принять опасное решение?

Governed

Solver Orchestration: архитектура доверия В nonce-observatory реализована архитектура, где AI играет чётко определённую роль планировщика, но никогда не выступает источником истины. Модель анализирует только публично доступные и безопасные данные (public-safe feature contract), предлагает маршруты запусков для solver-ов, помогает с триажем и объяснением выбранных решений. Но есть жёсткая граница — набор forbidden fields — которые модель физически не может увидеть.

Вот что доступно AI: Анализ public-safe feature contract Предложение solver routes и оптимизация маршрутов Построение очереди запусков в правильном порядке Помощь с классификацией задач и объяснением выбора Рекомендации без взятия на себя финального решения И вот что находится за линией non-escalation boundary: Приватные nonce-поля (critical secret data) Значения candidate_d и k из криптографических алгоритмов Формирование recovery claim * Превращение своего score или метрики в криптографическое свидетельство ## Граница Non-escalation и детерминированная проверка Граница проходит между двумя слоями: AI-планировщиком и детерминированным верификатором. AI может ошибиться в рекомендации маршрута — это некритично. Почему?

Потому что финальное решение всегда принимает exact verifier, который работает по криптографически проверяемым и детерминированным правилам, без судейства от модели. Такой подход полностью меняет парадигму разработки. Обычно высоконадёжные системы требуют очень умного AI, который просто не должен ошибаться — иначе всё ломается.

Здесь стратегия другая: AI может быть среднего уровня интеллектуально. Главное ограничение — его ошибка никогда не должна автоматически становиться фактом в системе.

"AI suggests.

Exact verifier decides." — не просто архитектурный паттерн, а философия разработки AI в криптографии.

Почему это критично для высоконадёжных систем

Критические системы часто строятся на предположении однозначности решений. Если AI скажет «это верно», и система примет это как аксиому — и модель ошиблась — весь протокол и его гарантии скомпрометированы. Здесь нет такого риска. Логика работы: Модель анализирует только опубликованные данные Предлагает кандидатские маршруты для запуска solvers Верификатор проверяет каждый шаг детерминировано Криптографическое доказательство формируется без участия AI Статья особенно полезна для всех, кто проектирует AI в критических системах — не только криптографических. Если ошибка модели не должна автоматически стать решением системы, нужна именно такая архитектурная граница.

Что это значит AI в критических системах — это не про то, чтобы модель

была идеальна и никогда не ошибалась. Это про правильное разделение ответственности между компонентами. Есть задачи для AI: анализ данных, рекомендации маршрутов, оптимизация очередей. Есть задачи только для детерминированных верификаторов: окончательное решение, криптографический вывод, гарантии безопасности. Когда эта граница ясна и строго выполняется, система остаётся безопасной даже при скромных способностях модели.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…