Wired→ оригинал

OpenAI поддержала законопроект, ограничивающий ответственность AI-компаний за массовый вред

OpenAI поддержала законопроект в штате Иллинойс, ограничивающий ответственность AI-лабораторий перед судом — в том числе в случаях, когда их продукты спровоциру

OpenAI поддержала законопроект, ограничивающий ответственность AI-компаний за массовый вред
Источник: Wired. Коллаж: Hamidun News.

OpenAI поддержала законопроект в штате Иллинойс, который защитит AI-лаборатории от судебных исков даже в случаях, когда их технологии спровоцируют массовые жертвы или финансовый коллапс. Это первый прецедент открытой поддержки подобного законодательства со стороны крупной AI-компании — и он уже вызвал волну критики. Документ, рассматриваемый парламентом Иллинойса, вводит понятие «добросовестного AI-провайдера» и существенно ограничивает его гражданскую ответственность перед пострадавшими.

При этом ограничения распространяются даже на случаи так называемого «критического вреда»: от массовых смертей до серьёзных финансовых потерь для большого числа людей. На слушаниях представитель OpenAI дал показания в пользу законопроекта. Позиция компании: AI-лаборатории не должны нести неограниченную ответственность за все возможные последствия использования их продуктов третьими лицами.

По мнению сторонников, без правовой защиты AI-компании будут вынуждены сворачивать разработки из-за угрозы бесконечных судебных разбирательств. Логика защитников вписывается в уже знакомую по другим отраслям схему: точно так же, как оружейные производители не несут ответственности за каждый случай применения их продукции, AI-компании не должны отвечать за любое злоупотребление своими моделями. OpenAI настаивает: неограниченная юридическая ответственность создаёт асимметричные стимулы и вынуждает компании уходить из юрисдикций с жёстким регулированием.

Противники занимают принципиально иную позицию. По их словам, документ де-факто выдаёт AI-лабораториям индульгенцию от гражданской ответственности именно тогда, когда ставки максимально высоки. Гражданская ответственность — один из немногих правовых механизмов, реально заставляющих корпорации думать о безопасности до выпуска продукта.

Если даже в случаях массовых жертв компания-разработчик юридически защищена, у пострадавших не остаётся инструментов компенсации. Иллинойс — не первый штат, где AI-компании продвигают выгодное для себя законодательство. В последние годы по всей Америке развернулась масштабная лоббистская кампания: технологические гиганты и стартапы участвуют в разработке государственных AI-стратегий, одновременно добиваясь ограничений для регуляторов и расширения правовой защиты для себя.

Схожие дискуссии ведутся в Европе, Великобритании и Азии — везде отрасль добивается примерно одного: ограничить риски, не ограничивая возможности. Если законопроект будет принят, Иллинойс станет одним из первых штатов, законодательно защитившим AI-компании от последствий «критического вреда». Это может задать прецедент для других штатов и усилить давление на федеральный уровень — где дискуссия об ответственности AI-лабораторий пока остаётся незавершённой.

Ключевой вопрос остаётся открытым: кто несёт ответственность, если AI-система ошиблась с катастрофическими последствиями?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…