Habr AI→ оригинал

Who's Behind Claude: How Former OpenAI Employees Built Anthropic's Team

Anthropic was founded by former OpenAI employees, but Claude's success rests not on a single name. At the heart of the story are Dario Amodei, his sister Daniel

Who's Behind Claude: How Former OpenAI Employees Built Anthropic's Team
Источник: Habr AI. Коллаж: Hamidun News.

Anthropic выросла из внутреннего раскола OpenAI и за несколько лет превратила Claude в один из самых заметных продуктов AI-рынка. За этой моделью стоит не один яркий основатель, а команда с разными ролями: исследование, безопасность, операционка и настройка поведения.

Откуда взялась

Anthropic Anthropic запустили в 2021 году бывшие сотрудники OpenAI, включая Дарио и Даниэлу Амодеи. Причина ухода была не в личной драме, а в разном взгляде на то, как строить сильный искусственный интеллект. Новая компания сразу сделала ставку на управляемость, интерпретируемость и безопасность моделей, а не только на гонку за демо-эффектом.

К апрелю 2026 года эта стратегия сработала: Anthropic уже воспринимают как главного соперника OpenAI, а её оценка в официальном раунде достигла $380 млрд. На вторичном рынке инвесторы, по данным деловой прессы, разгоняли её ещё выше — примерно до $1 трлн. Сам Claude стал вирусным не из-за одного красивого релиза, а из-за практической полезности.

Модель полюбили за работу с длинными текстами, анализ переписок, кода и документов без заметной потери контекста. Особенно громко Claude выстрелил среди разработчиков: отдельный инструмент Claude Code умеет читать кодовую базу, менять файлы, запускать тесты и доводить задачи до рабочего состояния. Даже внутри индустрии это заметили: Дженсен Хуанг публично называл Claude сильным скачком в кодинге и рассуждении.

Кто делает

Claude Главная идея материала в том, что за Claude стоит не абстрактная «лаборатория», а очень конкретная связка людей с разными компетенциями. Один задаёт научную траекторию, второй держит компанию в рабочем состоянии, третий пытается понять внутреннюю механику моделей, четвёртая отвечает за характер и стиль поведения ассистента. Вместе это выглядит не как очередной чат-бот, а как продукт с собственной философией.

Дарио Амодеи — CEO и сооснователь Anthropic, бывший вице-президент по исследованиям OpenAI, работавший над GPT-2 и GPT-3. Даниэла Амодеи — президент Anthropic, отвечает за операционку, процессы, партнёрства и то, чтобы компания выдерживала собственный рост. * Крис Ола — сооснователь и исследователь интерпретируемости, который изучает, как именно устроено мышление модели внутри.

* Аманда Аскелл — философ по образованию, занимающаяся personality alignment, то есть тем, чтобы Claude был полезным, честным, осторожным и вежливым. У этой команды редкая для AI-рынка композиция. Здесь важен не только классический культ «сильного технаря», но и присутствие людей, которые умеют собирать процессы, задавать этические рамки и разбирать модель как сложный организм.

Не случайно Anthropic часто описывают как компанию, где продукт строится одновременно на исследованиях, политике безопасности и очень тонкой настройке поведения. Именно поэтому Claude воспринимается не просто как мощная модель, а как система с характером.

Безопасность как стратегия

Публичная линия Anthropic хорошо читается по текстам и решениям Дарио Амодеи. В октябре 2024 года он выпустил эссе Machines of Loving Grace, где описывал сценарий, в котором мощный AI помогает медицине, образованию, экономике и управлению, а не превращается в источник хаоса. В январе 2025 года он отдельно писал о DeepSeek, Китае и экспортном контроле, настаивая, что демократические страны должны удерживать лидерство в AI. А в апреле 2025-го опубликовал текст The Urgency of Interpretability: сильные модели уже есть, но мы по-прежнему плохо понимаем, что именно происходит у них внутри.

«Элегантность машинного обучения — это элегантность биологии».

Эта мысль хорошо описывает и подход Криса Олы, одного из ключевых исследователей Anthropic. Для него модель — не просто инженерная система с понятными шестерёнками, а сложный цифровой организм, который нужно вскрывать и изучать почти как живую структуру. Такой же подход проявился и в самом громком конфликте вокруг Anthropic в феврале 2026 года. Компания обсуждала работу Claude с Пентагоном, но отказалась убирать из контрактов два ограничения: запрет на массовую внутреннюю слежку и запрет на полностью автономное оружие. Это была не PR-поза, а демонстрация того, что безопасность для Anthropic — часть продукта, а не приложение к нему.

Что это значит

История Claude — это не только история удачной модели, но и история правильно собранной команды. Anthropic показывает, что в AI-гонке побеждает не тот, кто просто выпускает ещё один чат-бот, а тот, кто совмещает сильные исследования, операционную дисциплину и ясную позицию по безопасности. Для рынка это сигнал: конкуренция с OpenAI теперь идёт не только по качеству ответов, но и по тому, кому пользователи и компании готовы доверить реальные рабочие задачи.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…