Habr AI→ original

AI en criptografía: un modelo sin derecho a tener razón

En criptografía, la pregunta principal no es si AI encuentra la respuesta correcta, sino si el sistema sigue siendo seguro cuando AI se equivoca. Analizamos la

AI en criptografía: un modelo sin derecho a tener razón
Fuente: Habr AI. Collage: Hamidun News.
◐ Escuchar artículo

Cuando la IA se incrusta en un sistema criptográfico, frecuentemente surge la pregunta: ¿puede el modelo encontrar la respuesta correcta? Pero en el contexto de sistemas altamente confiables, esta es la pregunta equivocada. La pregunta correcta es diferente: ¿se puede incrustar la IA de forma que, incluso si comete un error, no pueda tomar una decisión peligrosa?

Governed Solver Orchestration: Una Arquitectura de Confianza

En nonce-observatory se ha implementado una arquitectura donde la IA juega un rol claramente definido como planificador, pero nunca actúa como fuente de verdad. El modelo analiza solo datos públicamente disponibles y seguros (contrato public-safe feature), sugiere rutas de ejecución para solvers y ayuda con triaje y explicación de las soluciones elegidas. Pero hay un límite difícil — un conjunto de campos prohibidos — que el modelo no puede ver físicamente.

Aquí está lo que está disponible para la IA:

  • Análisis del contrato public-safe feature
  • Propuesta de rutas de solver y optimización de rutas
  • Construcción de colas de ejecución en el orden correcto
  • Ayuda con clasificación de tareas y explicación de la elección
  • Recomendaciones sin asumir la toma de decisión final

Y aquí está lo que está más allá del límite de non-escalation:

  • Campos privados de nonce (datos secretos críticos)
  • Valores de candidate_d y k de algoritmos criptográficos
  • Formación de recovery claims
  • Conversión de su score o métrica en evidencia criptográfica

Límite de Non-escalation y Verificación Determinística

El límite corre entre dos capas: el planificador de IA y el verificador determinístico. La IA puede equivocarse en recomendaciones de ruta — esto no es crítico. ¿Por qué? Porque la decisión final siempre la toma un verificador exacto que funciona con reglas criptográficamente verificables y determinísticas, sin criterio del modelo. Este enfoque cambia completamente el paradigma de desarrollo.

Típicamente, los sistemas altamente confiables requieren IA muy inteligente que simplemente no debe cometer errores — de lo contrario todo se rompe. Aquí la estrategia es diferente: la IA puede ser intelectualmente promedio. La restricción clave es que su error nunca debe convertirse automáticamente en un hecho del sistema.

"La IA sugiere.

El verificador exacto decide." — no solo un patrón arquitectónico, sino una filosofía de desarrollo de IA en criptografía.

Por Qué Esto Es Crítico para Sistemas Altamente Confiables

Los sistemas críticos a menudo se construyen sobre el supuesto de soluciones unívocas. Si la IA dice "esto es correcto" y el sistema lo acepta como un axioma — y el modelo estaba equivocado — todo el protocolo y sus garantías se ven comprometidos. No hay tal riesgo aquí.

La lógica de operación:

  • El modelo analiza solo datos publicados
  • Propone rutas candidatas para lanzar solvers
  • El verificador comprueba determinísticamente cada paso
  • La prueba criptográfica se forma sin participación de la IA

El artículo es especialmente útil para quienes diseñan IA en sistemas críticos — no solo criptográficos. Si el error de un modelo no debe convertirse automáticamente en una decisión del sistema, este es exactamente el tipo de límite arquitectónico necesario.

Qué Significa Esto

La IA en sistemas críticos no se trata de que el modelo sea perfecto y nunca cometa errores. Se trata de la división correcta de responsabilidad entre componentes. Hay tareas para la IA: análisis de datos, recomendaciones de rutas, optimización de colas. Hay tareas solo para verificadores determinísticos: decisión final, inferencia criptográfica, garantías de seguridad. Cuando este límite es claro y se cumple estrictamente, el sistema permanece seguro incluso con capacidades modestas del modelo.

ZK
Hamidun News
Noticias de AI sin ruido. Selección editorial diaria de más de 400 fuentes. Producto de Zhemal Khamidun, Head of AI en Alpina Digital.
¿Qué te parece?
Cargando comentarios…