Bloomberg Tech→ оригинал

Anthropic и Пентагон: разногласия по безопасности Claude

Переговоры Anthropic с Пентагоном о продлении контракта на использование ИИ-модели Claude зашли в тупик. Компания настаивает на дополнительных мерах защиты, что

Anthropic и Пентагон: разногласия по безопасности Claude
Источник: Bloomberg Tech. Коллаж: Hamidun News.

АНТРОПИК И ПЕНТАГОН: РАЗНОГЛАСИЯ ПО БЕЗОПАСНОСТИ CLAUDE

Переговоры между ведущей американской компанией в области искусственного интеллекта Anthropic и Министерством обороны США (Пентагоном) о продлении контракта на использование передовой языковой модели Claude зашли в тупик. Основным камнем преткновения стали разногласия по вопросам безопасности и этического применения технологии. Anthropic настаивает на внедрении дополнительных мер защиты, призванных предотвратить использование Claude в целях массовой слежки или для разработки автономного оружия, в то время как Пентагон стремится сохранить гибкость в использовании технологии, пока это не противоречит действующему законодательству.

Контекст этого технологического спора разворачивается на фоне растущей глобальной обеспокоенности по поводу регулирования и контроля над мощными системами искусственного интеллекта. По мере того как ИИ-модели, подобные Claude, становятся все более совершенными и интегрируются в различные сферы, включая оборонную, вопросы их этического использования и потенциальных рисков приобретают первостепенное значение. Anthropic, будучи компанией, которая позиционирует себя как сторонник ответственного развития ИИ, стремится установить четкие «ограничители» для своей технологии, чтобы исключить ее применение в деструктивных целях.

Это включает предотвращение использования Claude для сбора конфиденциальных данных граждан без их согласия или для создания систем вооружений, способных принимать решения о жизни и смерти без участия человека. С другой стороны, Пентагон, как и любое оборонное ведомство, заинтересован в максимальном использовании доступных передовых технологий для обеспечения национальной безопасности, при этом руководствуясь установленными правовыми нормами.

Углубляясь в суть разногласий, можно отметить, что Anthropic хочет гарантировать, что ее модель не будет использована для нарушения прав человека или создания угроз, которые могут выйти из-под контроля. Это отражает растущую тенденцию среди разработчиков ИИ к проактивному подходу к безопасности, основанному на принципах «безопасности по дизайну». Пентагон же, вероятно, рассматривает требования Anthropic как излишние ограничения, которые могут помешать эффективному применению ИИ в критически важных операциях. Их позиция заключается в том, что использование должно быть ограничено законом, но не обязательно дополнительными, возможно, чрезмерными, этическими барьерами, установленными частной компанией. Этот контраст в подходах подчеркивает фундаментальное напряжение между стремлением к инновациям и необходимостью обеспечения безопасности и этичности в области ИИ.

Последствия этой ситуации могут быть многогранными. Для Anthropic тупик в переговорах с таким крупным заказчиком, как Пентагон, может означать потерю значительного источника дохода и, что более важно, упущенную возможность влиять на то, как их технологии используются в оборонном секторе. Для Пентагона это может означать задержку в интеграции передовых ИИ-инструментов, которые могли бы повысить его операционные возможности.

В более широком смысле, эта ситуация может послужить прецедентом для будущих переговоров между технологическими компаниями и государственными структурами, определяя баланс между инновациями, безопасностью и регулированием в сфере ИИ. Интересно, что эта новость совпала с публикацией данных о росте безработицы и замедлении роста зарплат в Великобритании, что усилило ожидания относительно снижения процентных ставок Банком Англии. Хотя прямая связь между этими событиями отсутствует, они оба отражают более широкие экономические и технологические тенденции, влияющие на глобальный рынок.

В заключение, спор между Anthropic и Пентагоном по поводу безопасности Claude высвечивает сложные этические и практические вопросы, связанные с разработкой и применением мощных систем искусственного интеллекта. Пока стороны не найдут компромисс, будущее использование Claude в оборонном секторе остается неопределенным. Эта ситуация подчеркивает необходимость дальнейшего диалога и выработки четких международных стандартов для ответственного использования ИИ, чтобы гарантировать, что технологии служат на благо человечества, а не представляют угрозу.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…