Wired→ оригинал

OpenAI تدعم مشروع قانون يحد من مسؤولية شركات الذكاء الاصطناعي عن الأضرار الجماعية

دعمت OpenAI مشروع قانون في إلينويز يحد من المسؤولية القانونية لمختبرات الذكاء الاصطناعي—بما في ذلك في الحالات التي تسبب فيها منتجاتها وفيات جماعية أو انهيار مال

OpenAI تدعم مشروع قانون يحد من مسؤولية شركات الذكاء الاصطناعي عن الأضرار الجماعية
Источник: Wired. Коллаж: Hamidun News.

OpenAI поддержала законопроект в штате Иллинойс, который защитит AI-лаборатории от судебных исков даже в случаях, когда их технологии спровоцируют массовые жертвы или финансовый коллапс. Это первый прецедент открытой поддержки подобного законодательства со стороны крупной AI-компании — и он уже вызвал волну критики. Документ, рассматриваемый парламентом Иллинойса, вводит понятие «добросовестного AI-провайдера» и существенно ограничивает его гражданскую ответственность перед пострадавшими.

При этом ограничения распространяются даже на случаи так называемого «критического вреда»: от массовых смертей до серьёзных финансовых потерь для большого числа людей. На слушаниях представитель OpenAI дал показания в пользу законопроекта. Позиция компании: AI-лаборатории не должны нести неограниченную ответственность за все возможные последствия использования их продуктов третьими лицами.

По мнению сторонников, без правовой защиты AI-компании будут вынуждены сворачивать разработки из-за угрозы бесконечных судебных разбирательств. Логика защитников вписывается в уже знакомую по другим отраслям схему: точно так же, как оружейные производители не несут ответственности за каждый случай применения их продукции, AI-компании не должны отвечать за любое злоупотребление своими моделями. OpenAI настаивает: неограниченная юридическая ответственность создаёт асимметричные стимулы и вынуждает компании уходить из юрисдикций с жёстким регулированием.

Противники занимают принципиально иную позицию. По их словам, документ де-факто выдаёт AI-лабораториям индульгенцию от гражданской ответственности именно тогда, когда ставки максимально высоки. Гражданская ответственность — один из немногих правовых механизмов, реально заставляющих корпорации думать о безопасности до выпуска продукта.

Если даже в случаях массовых жертв компания-разработчик юридически защищена, у пострадавших не остаётся инструментов компенсации. Иллинойс — не первый штат, где AI-компании продвигают выгодное для себя законодательство. В последние годы по всей Америке развернулась масштабная лоббистская кампания: технологические гиганты и стартапы участвуют в разработке государственных AI-стратегий, одновременно добиваясь ограничений для регуляторов и расширения правовой защиты для себя.

Схожие дискуссии ведутся в Европе, Великобритании и Азии — везде отрасль добивается примерно одного: ограничить риски, не ограничивая возможности. Если законопроект будет принят, Иллинойс станет одним из первых штатов, законодательно защитившим AI-компании от последствий «критического вреда». Это может задать прецедент для других штатов и усилить давление на федеральный уровень — где дискуссия об ответственности AI-лабораторий пока остаётся незавершённой.

Ключевой вопрос остаётся открытым: кто несёт ответственность, если AI-система ошиблась с катастрофическими последствиями?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…