Arcee AI Lança Trinity Large Thinking — Modelo de Raciocínio Aberto para Agentes IA
Arcee AI lançou Trinity Large Thinking — um modelo de raciocínio aberto sob Apache 2.0 para tarefas de agentes de longa duração e uso de ferramentas. É uma MoE

Arcee AI 1 апреля 2026 года выпустила Trinity Large Thinking - открытую reasoning-модель, рассчитанную не на короткие чат-ответы, а на длинные агентные сценарии с несколькими шагами, вызовами инструментов и сохранением контекста между ходами. Для рынка это важный сигнал: в сегменте, где тон задают закрытые модели крупных лабораторий, появился открытый вариант с лицензией Apache 2.0, который можно не только вызывать по API, но и запускать, дообучать и встраивать в собственные системы без серых зон вокруг лицензирования.
Trinity Large Thinking - это reasoning-версия семейства Trinity Large, которое Arcee развивает как открытую альтернативу крупным проприетарным моделям. Компания выложила веса на Hugging Face и одновременно запустила модель в своем API. Ключевая ставка здесь не на «универсальный чат для всего», а на задачи, где агенту нужно держать план, помнить предыдущие шаги, аккуратно пользоваться инструментами и не разваливаться после нескольких итераций.
Именно такие сценарии сейчас становятся базовыми для AI-разработки: кодовые агенты, операторы внутренних систем, корпоративные ассистенты и пайплайны с несколькими вызовами внешних сервисов. По архитектуре модель относится к sparse MoE-классу: у Trinity Large Thinking около 398-400 млрд параметров, но на каждый токен активируется примерно 13 млрд. Внутри - 256 экспертов, из которых одновременно работают только четыре.
Такой дизайн нужен, чтобы сохранить высокий потолок качества, не делая инференс полностью неподъемным. Arcee также говорит о поддержке контекста до 512 тысяч токенов после расширения окна, что особенно важно для длинных агентных циклов, больших репозиториев, объемной документации и сложных многоходовых задач. Отдельная деталь - модель генерирует явную «прослойку размышления» перед ответом, и разработчикам рекомендуют сохранять этот reasoning-контекст между ходами, иначе качество многошаговой работы может заметно падать.
Самое интересное в релизе - не только лицензия, но и заявленный фокус на практическую агентность. По данным Arcee, Trinity Large Thinking занимает второе место в PinchBench, уступая только Claude Opus 4.6, и заметно сильнее раннего Trinity Large Preview именно в многошаговой работе с инструментами, следовании инструкциям и удержании связности на длинных прогонах.
В карточке модели компания также указывает сильные результаты на ряде agentic-бенчмарков, включая τ²-Bench и LiveCodeBench. Параллельно Arcee делает упор на экономику: на момент анонса компания оценивала стоимость вывода примерно в 0,90 доллара за миллион выходных токенов, подавая модель как существенно более дешевую альтернативу закрытым reasoning-системам для продакшн-агентов. Контекст вокруг релиза тоже важен.
Trinity Large Preview, представленный в конце января 2026 года, по словам компании, за первые два месяца обслужил 3,37 трлн токенов через OpenRouter. Arcee утверждает, что preview-версия стала самой используемой открытой моделью в США в коллекции OpenClaw и четвертой глобально. Для небольшой команды это способ показать, что спрос на открытые модели для реальных агентных сценариев уже есть, причем не на уровне демо, а на уровне постоянной рабочей нагрузки.
Технически проект тоже получился нетривиальным: Trinity Large предобучали на 17 трлн токенов, использовали 2048 GPU NVIDIA B300, а весь путь до семейства Large компания ранее оценивала примерно в 20 млн долларов. Главный вывод из релиза такой: рынок open-source AI смещается от гонки «кто лучше пишет тексты» к гонке «какая модель надежнее ведет длинную работу». Trinity Large Thinking важна не потому, что мгновенно обошла закрытых лидеров по всем метрикам, а потому что дает разработчикам и компаниям еще один реально открытый вариант для построения агентных систем без ограничений уровня API-only.
Теперь вопрос не в том, можно ли выпустить открытую reasoning-модель такого класса, а в том, насколько стабильно она покажет себя в продакшне, где важны не красивые демо, а многочасовые циклы, цена ошибки и предсказуемость поведения.