Axiom AI: четыре математические загадки, которые наконец сдались нейросети
Пока мы спорим, сможет ли ChatGPT правильно посчитать буквы в слове, стартап Axiom тихо взял и решил четыре нерешенные математические задачи. Это не просто пере

Пока мы развлекаемся генерацией картинок с котами в скафандрах, в недрах индустрии происходит нечто действительно пугающее и захватывающее одновременно. Математика всегда считалась той самой тихой гаванью, где человеческий интеллект мог чувствовать себя в безопасности от нашествия алгоритмов. Мы привыкли думать, что нейросети — это просто очень продвинутые Т9, которые умеют складно врать, но совершенно не способны к строгому логическому выводу. Стартап Axiom только что разрушил этот уютный миф, решив четыре математические задачи, которые годами пылились на полке нерешенных проблем. Это событие меняет правила игры в гонке за сильным ИИ.
Долгое время главной претензией к большим языковым моделям была их неспособность к последовательному рассуждению. Вы наверняка видели сотни мемов о том, как GPT-4 путается в простых дробях или не может определить, какое число больше: 9.11 или 9.9. Проблема заключалась в самой архитектуре — предсказание следующего токена отлично работает для написания эссе, но фатально ошибается там, где нужна абсолютная точность. Математика не терпит приблизительности. Ошибка в одном знаке на начальном этапе превращает все дальнейшее доказательство в бессмысленный набор символов. Axiom подошли к вопросу иначе, внедрив в процесс систему формальной проверки.
Суть успеха Axiom заключается в создании гибридной системы. Она не просто «угадывает» ответ, основываясь на вероятностях. Модель генерирует гипотезы, которые тут же проверяются строгим математическим движком. Это напоминает работу человеческого мозга: сначала у математика возникает интуитивное понимание решения, а затем он начинает методично записывать доказательство, проверяя каждый шаг на соответствие аксиомам. Тот факт, что ИИ смог закрыть сразу четыре открытых вопроса, говорит о том, что мы перешли от стадии имитации знаний к стадии реального оперирования логическими структурами.
Почему это важно для всех нас, а не только для кучки людей в очках и с мелом у доски? Математика — это фундамент всего. Криптография, которая защищает ваши банковские переводы, физика, позволяющая строить ракеты, и даже сама архитектура нейросетей — все это держится на математических доказательствах. Если ИИ научится решать задачи, которые не под силу человеку, мы получим ключ к созданию новых материалов, лекарств и более эффективных алгоритмов сжатия данных. Это переход от ИИ-помощника, который пишет за вас письма, к ИИ-ученому, который открывает новые законы природы.
Конечно, скептики скажут, что четыре задачи — это лишь капля в море. Но важно понимать контекст. Раньше подобные прорывы случались раз в десятилетие и требовали усилий целых институтов. Теперь мы видим, как небольшой стартап достигает таких результатов за счет правильного сочетания вычислительной мощности и архитектурных находок. Это прямой вызов для гигантов вроде OpenAI и Google DeepMind, которые тоже делают ставку на рассуждающие модели вроде o1. Axiom показала, что в этой дисциплине размер модели не всегда является решающим фактором — интеллект кроется в методологии.
Мы вступаем в эру, когда ИИ перестает быть просто зеркалом человеческих знаний. Он начинает генерировать знание, которое мы сами еще не успели сформулировать. Это вызывает массу вопросов: как мы будем проверять доказательства, если они станут слишком сложными для человеческого восприятия? Станем ли мы просто потребителями готовых ответов, не понимая, как они получены? В любом случае, Axiom создали прецедент, который заставит научное сообщество пересмотреть свои взгляды на возможности кремниевого разума. Математика пала, на очереди — теоретическая физика.
Главное: если ИИ начал решать нерешенные задачи, значит, барьер между «имитацией» и «мышлением» стал практически прозрачным. Готовы ли мы к миру, где самые умные математики на планете — это серверные стойки?