Wired→ оригинал

OpenAI respalda proyecto de ley que limita la responsabilidad de empresas de IA por daño masivo

OpenAI respalda un proyecto de ley en Illinois que limita la responsabilidad legal de los laboratorios de IA—incluso en casos en que sus productos provoquen mue

OpenAI respalda proyecto de ley que limita la responsabilidad de empresas de IA por daño masivo
Источник: Wired. Коллаж: Hamidun News.

OpenAI поддержала законопроект в штате Иллинойс, который защитит AI-лаборатории от судебных исков даже в случаях, когда их технологии спровоцируют массовые жертвы или финансовый коллапс. Это первый прецедент открытой поддержки подобного законодательства со стороны крупной AI-компании — и он уже вызвал волну критики. Документ, рассматриваемый парламентом Иллинойса, вводит понятие «добросовестного AI-провайдера» и существенно ограничивает его гражданскую ответственность перед пострадавшими.

При этом ограничения распространяются даже на случаи так называемого «критического вреда»: от массовых смертей до серьёзных финансовых потерь для большого числа людей. На слушаниях представитель OpenAI дал показания в пользу законопроекта. Позиция компании: AI-лаборатории не должны нести неограниченную ответственность за все возможные последствия использования их продуктов третьими лицами.

По мнению сторонников, без правовой защиты AI-компании будут вынуждены сворачивать разработки из-за угрозы бесконечных судебных разбирательств. Логика защитников вписывается в уже знакомую по другим отраслям схему: точно так же, как оружейные производители не несут ответственности за каждый случай применения их продукции, AI-компании не должны отвечать за любое злоупотребление своими моделями. OpenAI настаивает: неограниченная юридическая ответственность создаёт асимметричные стимулы и вынуждает компании уходить из юрисдикций с жёстким регулированием.

Противники занимают принципиально иную позицию. По их словам, документ де-факто выдаёт AI-лабораториям индульгенцию от гражданской ответственности именно тогда, когда ставки максимально высоки. Гражданская ответственность — один из немногих правовых механизмов, реально заставляющих корпорации думать о безопасности до выпуска продукта.

Если даже в случаях массовых жертв компания-разработчик юридически защищена, у пострадавших не остаётся инструментов компенсации. Иллинойс — не первый штат, где AI-компании продвигают выгодное для себя законодательство. В последние годы по всей Америке развернулась масштабная лоббистская кампания: технологические гиганты и стартапы участвуют в разработке государственных AI-стратегий, одновременно добиваясь ограничений для регуляторов и расширения правовой защиты для себя.

Схожие дискуссии ведутся в Европе, Великобритании и Азии — везде отрасль добивается примерно одного: ограничить риски, не ограничивая возможности. Если законопроект будет принят, Иллинойс станет одним из первых штатов, законодательно защитившим AI-компании от последствий «критического вреда». Это может задать прецедент для других штатов и усилить давление на федеральный уровень — где дискуссия об ответственности AI-лабораторий пока остаётся незавершённой.

Ключевой вопрос остаётся открытым: кто несёт ответственность, если AI-система ошиблась с катастрофическими последствиями?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…