The Verge→ оригинал

Семьи жертв стрельбы в Тамблер-Ридж подали иск против OpenAI за молчание о ChatGPT-переписке стрелка

Семь семей жертв стрельбы в канадской школе Тамблер-Ридж подали иски против OpenAI и Сэма Альтмана. По данным The Wall Street Journal, компания знала о тревожны

Семьи жертв стрельбы в Тамблер-Ридж подали иск против OpenAI за молчание о ChatGPT-переписке стрелка
Источник: The Verge. Коллаж: Hamidun News.

Семь семей погибших и пострадавших при стрельбе в канадской школе Тамблер-Ридж подали иски против OpenAI и её гендиректора Сэма Альтмана. Компанию обвиняют в халатности: её системы зафиксировали тревожные переписки подозреваемого в ChatGPT задолго до трагедии, но в полицию никто не сообщил.

Что знала компания

По данным The Wall Street Journal, сотрудники OpenAI «рассматривали» возможность уведомить правоохранительные органы об 18-летнем Джесси Ван Рутселааре ещё за несколько месяцев до стрельбы. В диалогах с чат-ботом молодой человек затрагивал темы насилия с применением оружия. По версии истцов, этого было достаточно, чтобы немедленно передать информацию в полицию. Семьи погибших утверждают, что OpenAI осознанно выбрала молчание. Мотив, по их словам, — репутационный: сообщение властям могло привлечь нежелательное внимание накануне планируемого IPO компании. Если суд примет эту аргументацию, речь пойдёт не об ошибке алгоритма или недочёте в политике безопасности — а о корпоративном решении поставить будущую оценку стоимости выше человеческих жизней.

Кто и о чём судится

Стрельба произошла в Тамблер-Ридж — небольшом горнодобывающем городке в провинции Британская Колумбия. Среди жертв — дети. Иски поданы от имени семи семей и направлены против двух ответчиков сразу: Юридическое лицо OpenAI обвиняется в халатности и умышленном бездействии Лично Сэм Альтман — соответчик как CEO, осведомлённый о ситуации Внутренняя переписка сотрудников фигурирует в числе ключевых доказательств Истцы требуют финансовой компенсации за нанесённый ущерб * Дополнительно — обязательные системные изменения в политике модерации Обращение к личной ответственности CEO — нетипичный, но всё более распространённый приём в исках против технологических компаний. Это сигнал судам и регуляторам: топ-менеджеры, а не только корпоративные структуры, должны нести последствия за подобные решения.

Конфиденциальность против безопасности

Этот иск обнажает противоречие, с которым рано или поздно столкнётся вся AI-индустрия. Платформы вроде ChatGPT строят доверие пользователей на одном обещании — конфиденциальности переписок. Обязательный мониторинг угроз разрушает это доверие и превращает чат-ботов в инструмент слежки. С другой стороны, если компании знают о потенциально опасных намерениях пользователей и молчат, они рискуют нести прямую юридическую ответственность за последствия.

«Мы рассматривали возможность уведомления, но не предприняли действий» — по данным WSJ, именно такова была позиция сотрудников OpenAI, видевших переписку подозреваемого.

До сих пор крупные AI-компании уклонялись от обязательного мониторинга угроз, ссылаясь на права пользователей на приватность. Прецедент Тамблер-Ридж может изменить этот статус-кво — особенно с учётом того, что ChatGPT ежедневно используют сотни миллионов людей по всему миру.

Что это значит

Если суд встанет на сторону семей, AI-платформы окажутся перед жёстким выбором: выстраивать системы мониторинга угроз с обязательным оповещением властей — или принять на себя гражданскую и уголовную ответственность за предотвратимые трагедии. Оба пути фундаментально меняют правила игры в отрасли.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…