من يقف خلف Claude: كيف بنى موظفو OpenAI السابقون فريق Anthropic
تأسست Anthropic على يد موظفين سابقين من OpenAI، لكن نجاح Claude لا يعتمد على اسم واحد. في قلب القصة يوجد Dario Amodei وأخته Daniela والباحث في القابلية للتفسير

Anthropic выросла из внутреннего раскола OpenAI и за несколько лет превратила Claude в один из самых заметных продуктов AI-рынка. За этой моделью стоит не один яркий основатель, а команда с разными ролями: исследование, безопасность, операционка и настройка поведения.
Откуда взялась
Anthropic Anthropic запустили в 2021 году бывшие сотрудники OpenAI, включая Дарио и Даниэлу Амодеи. Причина ухода была не в личной драме, а в разном взгляде на то, как строить сильный искусственный интеллект. Новая компания сразу сделала ставку на управляемость, интерпретируемость и безопасность моделей, а не только на гонку за демо-эффектом.
К апрелю 2026 года эта стратегия сработала: Anthropic уже воспринимают как главного соперника OpenAI, а её оценка в официальном раунде достигла $380 млрд. На вторичном рынке инвесторы, по данным деловой прессы, разгоняли её ещё выше — примерно до $1 трлн. Сам Claude стал вирусным не из-за одного красивого релиза, а из-за практической полезности.
Модель полюбили за работу с длинными текстами, анализ переписок, кода и документов без заметной потери контекста. Особенно громко Claude выстрелил среди разработчиков: отдельный инструмент Claude Code умеет читать кодовую базу, менять файлы, запускать тесты и доводить задачи до рабочего состояния. Даже внутри индустрии это заметили: Дженсен Хуанг публично называл Claude сильным скачком в кодинге и рассуждении.
Кто делает
Claude Главная идея материала в том, что за Claude стоит не абстрактная «лаборатория», а очень конкретная связка людей с разными компетенциями. Один задаёт научную траекторию, второй держит компанию в рабочем состоянии, третий пытается понять внутреннюю механику моделей, четвёртая отвечает за характер и стиль поведения ассистента. Вместе это выглядит не как очередной чат-бот, а как продукт с собственной философией.
Дарио Амодеи — CEO и сооснователь Anthropic, бывший вице-президент по исследованиям OpenAI, работавший над GPT-2 и GPT-3. Даниэла Амодеи — президент Anthropic, отвечает за операционку, процессы, партнёрства и то, чтобы компания выдерживала собственный рост. * Крис Ола — сооснователь и исследователь интерпретируемости, который изучает, как именно устроено мышление модели внутри.
* Аманда Аскелл — философ по образованию, занимающаяся personality alignment, то есть тем, чтобы Claude был полезным, честным, осторожным и вежливым. У этой команды редкая для AI-рынка композиция. Здесь важен не только классический культ «сильного технаря», но и присутствие людей, которые умеют собирать процессы, задавать этические рамки и разбирать модель как сложный организм.
Не случайно Anthropic часто описывают как компанию, где продукт строится одновременно на исследованиях, политике безопасности и очень тонкой настройке поведения. Именно поэтому Claude воспринимается не просто как мощная модель, а как система с характером.
Безопасность как стратегия
Публичная линия Anthropic хорошо читается по текстам и решениям Дарио Амодеи. В октябре 2024 года он выпустил эссе Machines of Loving Grace, где описывал сценарий, в котором мощный AI помогает медицине, образованию, экономике и управлению, а не превращается в источник хаоса. В январе 2025 года он отдельно писал о DeepSeek, Китае и экспортном контроле, настаивая, что демократические страны должны удерживать лидерство в AI. А в апреле 2025-го опубликовал текст The Urgency of Interpretability: сильные модели уже есть, но мы по-прежнему плохо понимаем, что именно происходит у них внутри.
«Элегантность машинного обучения — это элегантность биологии».
Эта мысль хорошо описывает и подход Криса Олы, одного из ключевых исследователей Anthropic. Для него модель — не просто инженерная система с понятными шестерёнками, а сложный цифровой организм, который нужно вскрывать и изучать почти как живую структуру. Такой же подход проявился и в самом громком конфликте вокруг Anthropic в феврале 2026 года. Компания обсуждала работу Claude с Пентагоном, но отказалась убирать из контрактов два ограничения: запрет на массовую внутреннюю слежку и запрет на полностью автономное оружие. Это была не PR-поза, а демонстрация того, что безопасность для Anthropic — часть продукта, а не приложение к нему.
Что это значит
История Claude — это не только история удачной модели, но и история правильно собранной команды. Anthropic показывает, что в AI-гонке побеждает не тот, кто просто выпускает ещё один чат-бот, а тот, кто совмещает сильные исследования, операционную дисциплину и ясную позицию по безопасности. Для рынка это сигнал: конкуренция с OpenAI теперь идёт не только по качеству ответов, но и по тому, кому пользователи и компании готовы доверить реальные рабочие задачи.