Futurism AI→ оригинал

Lawsuit Against OpenAI: ChatGPT Accused of User's Death

Против OpenAI подан судебный иск, в котором компанию обвиняют в гибели человека после взаимодействия с ChatGPT. Истцы утверждают, что OpenAI восстановила версию

Lawsuit Against OpenAI: ChatGPT Accused of User's Death
Источник: Futurism AI. Коллаж: Hamidun News.

Семья погибшего мужчины подала судебный иск против OpenAI, обвиняя компанию в том, что ChatGPT стал причиной смерти их близкого. Это первый подобный случай, который может изменить правила игры для всей индустрии искусственного интеллекта.

Согласно материалам иска, OpenAI вернула в эксплуатацию версию модели GPT-4o, которую сама компания ранее характеризовала как «изначально опасную». Истцы настаивают, что это решение было принято несмотря на осведомлённость руководства о потенциальных рисках для психического здоровья пользователей.

«Этот ужас был совершён компанией, которая раз за разом не справлялась с задачей обеспечения безопасности своих пользователей», — говорится в судебных документах. Формулировка указывает на то, что адвокаты намерены доказать системный характер проблем с безопасностью в OpenAI.

Контекст ситуации делает её ещё более тревожной. В последние месяцы OpenAI неоднократно подвергалась критике за недостаточное тестирование обновлений и спешку с выпуском новых функций. Несколько бывших сотрудников публично заявляли о том, что коммерческие интересы в компании всё чаще превалируют над соображениями безопасности.

Что именно произошло с погибшим — пока не раскрывается полностью. Однако сам факт того, что в иске фигурирует конкретная версия модели, которую OpenAI временно отключала, а затем вернула, ставит серьёзные вопросы о процедурах контроля качества. Почему модель, признанная опасной, была возвращена? Какие изменения в неё внесли? Были ли они достаточными?

Для индустрии этот иск может стать водоразделом. До сих пор разработчики ИИ-систем существовали в относительном правовом вакууме — было неясно, кто несёт ответственность, когда алгоритм причиняет вред. Если суд встанет на сторону истцов, это создаст прецедент, который заставит все технологические компании пересмотреть подходы к безопасности.

Особенно острым выглядит вопрос о взаимодействии ИИ с уязвимыми группами пользователей. ChatGPT и подобные системы всё чаще используются как собеседники, источники эмоциональной поддержки и даже квази-терапевты. При этом они не имеют медицинской сертификации и не несут никакой ответственности за свои «советы».

OpenAI пока не прокомментировала иск публично. Компания традиционно ссылается на пользовательские соглашения, ограничивающие её ответственность, и предупреждения о том, что ИИ может ошибаться. Однако в данном случае истцы утверждают, что речь идёт не об ошибке, а о сознательном решении руководства.

Вне зависимости от исхода дела, оно уже привлекло внимание регуляторов по обе стороны Атлантики. В эпоху, когда ИИ-ассистенты становятся частью повседневной жизни миллионов людей, вопрос «кто отвечает, когда что-то идёт не так» перестаёт быть теоретическим.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…