Bloomberg Tech→ оригинал

Anthropic والبنتاغون: خلاف حول ضوابط Claude

وصلت المفاوضات بين Anthropic والبنتاغون بشأن تمديد عقد استخدام نموذج AI Claude إلى طريق مسدود. وتصر الشركة على اتخاذ ضوابط إضافية لمنع استخدام Claude في المراقب

Anthropic والبنتاغون: خلاف حول ضوابط Claude
Источник: Bloomberg Tech. Коллаж: Hamidun News.
◐ Слушать статью

АНТРОПИК И ПЕНТАГОН: РАЗНОГЛАСИЯ ПО БЕЗОПАСНОСТИ CLAUDE

Переговоры между ведущей американской компанией в области искусственного интеллекта Anthropic и Министерством обороны США (Пентагоном) о продлении контракта на использование передовой языковой модели Claude зашли в тупик. Основным камнем преткновения стали разногласия по вопросам безопасности и этического применения технологии. Anthropic настаивает на внедрении дополнительных мер защиты, призванных предотвратить использование Claude в целях массовой слежки или для разработки автономного оружия, в то время как Пентагон стремится сохранить гибкость в использовании технологии, пока это не противоречит действующему законодательству.

Контекст этого технологического спора разворачивается на фоне растущей глобальной обеспокоенности по поводу регулирования и контроля над мощными системами искусственного интеллекта. По мере того как ИИ-модели, подобные Claude, становятся все более совершенными и интегрируются в различные сферы, включая оборонную, вопросы их этического использования и потенциальных рисков приобретают первостепенное значение. Anthropic, будучи компанией, которая позиционирует себя как сторонник ответственного развития ИИ, стремится установить четкие «ограничители» для своей технологии, чтобы исключить ее применение в деструктивных целях.

Это включает предотвращение использования Claude для сбора конфиденциальных данных граждан без их согласия или для создания систем вооружений, способных принимать решения о жизни и смерти без участия человека. С другой стороны, Пентагон, как и любое оборонное ведомство, заинтересован в максимальном использовании доступных передовых технологий для обеспечения национальной безопасности, при этом руководствуясь установленными правовыми нормами.

Углубляясь в суть разногласий, можно отметить, что Anthropic хочет гарантировать, что ее модель не будет использована для нарушения прав человека или создания угроз, которые могут выйти из-под контроля. Это отражает растущую тенденцию среди разработчиков ИИ к проактивному подходу к безопасности, основанному на принципах «безопасности по дизайну». Пентагон же, вероятно, рассматривает требования Anthropic как излишние ограничения, которые могут помешать эффективному применению ИИ в критически важных операциях. Их позиция заключается в том, что использование должно быть ограничено законом, но не обязательно дополнительными, возможно, чрезмерными, этическими барьерами, установленными частной компанией. Этот контраст в подходах подчеркивает фундаментальное напряжение между стремлением к инновациям и необходимостью обеспечения безопасности и этичности в области ИИ.

Последствия этой ситуации могут быть многогранными. Для Anthropic тупик в переговорах с таким крупным заказчиком, как Пентагон, может означать потерю значительного источника дохода и, что более важно, упущенную возможность влиять на то, как их технологии используются в оборонном секторе. Для Пентагона это может означать задержку в интеграции передовых ИИ-инструментов, которые могли бы повысить его операционные возможности.

В более широком смысле, эта ситуация может послужить прецедентом для будущих переговоров между технологическими компаниями и государственными структурами, определяя баланс между инновациями, безопасностью и регулированием в сфере ИИ. Интересно, что эта новость совпала с публикацией данных о росте безработицы и замедлении роста зарплат в Великобритании, что усилило ожидания относительно снижения процентных ставок Банком Англии. Хотя прямая связь между этими событиями отсутствует, они оба отражают более широкие экономические и технологические тенденции, влияющие на глобальный рынок.

В заключение, спор между Anthropic и Пентагоном по поводу безопасности Claude высвечивает сложные этические и практические вопросы, связанные с разработкой и применением мощных систем искусственного интеллекта. Пока стороны не найдут компромисс, будущее использование Claude в оборонном секторе остается неопределенным. Эта ситуация подчеркивает необходимость дальнейшего диалога и выработки четких международных стандартов для ответственного использования ИИ, чтобы гарантировать, что технологии служат на благо человечества, а не представляют угрозу.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…