Anthropic opposed the AI liability bill backed by OpenAI
Anthropic and OpenAI have publicly diverged for the first time on a fundamental question: should AI companies be held liable for the catastrophic consequences o

Anthropic и OpenAI — две компании, которые нередко называют флагманами ответственного развития искусственного интеллекта, — впервые открыто столкнулись на законодательном поле. Поводом стал законопроект штата Иллинойс, который фактически защитит AI-лаборатории от ответственности даже в случаях массовых смертей и финансовых катастроф, спровоцированных их системами. OpenAI выступила в поддержку этой инициативы.
Anthropic — против. Иллинойский законопроект стал частью более широкой волны попыток урегулировать искусственный интеллект на уровне американских штатов. Федерального закона об AI в США до сих пор нет: Конгресс обсуждал различные инициативы годами, но ни одна из них не прошла.
В этом вакууме штаты начали действовать самостоятельно. Калифорния несколько раз пыталась принять жёсткое регулирование, однако каждый раз сталкивалась с мощным отраслевым лобби. Теперь аналогичные дебаты разгораются в Иллинойсе — и на этот раз крупнейшие игроки рынка открыто расходятся во взглядах.
Суть законопроекта, который поддержала OpenAI, сводится к следующему: AI-компании не должны нести юридическую ответственность за последствия работы своих систем, даже если те последствия носят катастрофический характер. Критики называют это иммунитетом от ответственности и предупреждают: если закон будет принят, пострадавшие фактически лишатся механизмов правовой защиты. Представьте систему AI, которая ошибочно выносит медицинские рекомендации, управляет финансовыми активами или встроена в критическую инфраструктуру.
Если что-то пойдёт не так — кто отвечает? Без чёткого законодательного ответа — никто. Антропик заняла прямо противоположную позицию.
Компания, основанная бывшими сотрудниками OpenAI, с самого начала строила свой публичный образ вокруг темы безопасного AI. Её флагманская модель Claude разрабатывается с акцентом на конституционную безопасность, а руководство регулярно выступает за более строгие отраслевые стандарты, в том числе на слушаниях в Конгрессе. Позиция компании по иллинойскому законопроекту выглядит логичным продолжением этой публичной линии.
Позиция OpenAI менее очевидна. Компания тоже декларирует приверженность безопасному развитию AI и создала специальный совет по безопасности. Однако в последнее время OpenAI заметно активизировала лоббистскую деятельность в Вашингтоне и ряде штатов, явно стремясь смягчить потенциальные регуляторные ограничения.
Поддержка иллинойского законопроекта вписывается в эту логику, хотя и вступает в очевидное противоречие с декларативными ценностями компании. Расхождение между двумя крупнейшими AI-лабораториями Америки важно не только само по себе. Оно обозначает трещину внутри отрасли: консенсус о саморегулировании, которому индустрия пыталась следовать последние несколько лет, явно даёт сбои.
Регуляторы в других штатах и на федеральном уровне будут внимательно следить за тем, чем закончатся дебаты в Иллинойсе. Для обычных пользователей AI-систем ставки здесь вполне реальны. Вопрос о том, кто несёт ответственность за ошибки искусственного интеллекта, — не абстрактно-юридический.
Он определяет, есть ли у вас право на защиту, когда AI-система причинила вам вред. И от того, как на него ответит законодательство Иллинойса, во многом зависит, каким будет ответ остальной Америки.