Families of Tumbler Ridge shooting victims sue OpenAI for concealing shooter's ChatGPT exchanges
Seven families of victims from a shooting at Tumbler Ridge school in Canada filed lawsuits against OpenAI and Sam Altman. According to The Wall Street Journal,

Семь семей погибших и пострадавших при стрельбе в канадской школе Тамблер-Ридж подали иски против OpenAI и её гендиректора Сэма Альтмана. Компанию обвиняют в халатности: её системы зафиксировали тревожные переписки подозреваемого в ChatGPT задолго до трагедии, но в полицию никто не сообщил.
Что знала компания
По данным The Wall Street Journal, сотрудники OpenAI «рассматривали» возможность уведомить правоохранительные органы об 18-летнем Джесси Ван Рутселааре ещё за несколько месяцев до стрельбы. В диалогах с чат-ботом молодой человек затрагивал темы насилия с применением оружия. По версии истцов, этого было достаточно, чтобы немедленно передать информацию в полицию. Семьи погибших утверждают, что OpenAI осознанно выбрала молчание. Мотив, по их словам, — репутационный: сообщение властям могло привлечь нежелательное внимание накануне планируемого IPO компании. Если суд примет эту аргументацию, речь пойдёт не об ошибке алгоритма или недочёте в политике безопасности — а о корпоративном решении поставить будущую оценку стоимости выше человеческих жизней.
Кто и о чём судится
Стрельба произошла в Тамблер-Ридж — небольшом горнодобывающем городке в провинции Британская Колумбия. Среди жертв — дети. Иски поданы от имени семи семей и направлены против двух ответчиков сразу: Юридическое лицо OpenAI обвиняется в халатности и умышленном бездействии Лично Сэм Альтман — соответчик как CEO, осведомлённый о ситуации Внутренняя переписка сотрудников фигурирует в числе ключевых доказательств Истцы требуют финансовой компенсации за нанесённый ущерб * Дополнительно — обязательные системные изменения в политике модерации Обращение к личной ответственности CEO — нетипичный, но всё более распространённый приём в исках против технологических компаний. Это сигнал судам и регуляторам: топ-менеджеры, а не только корпоративные структуры, должны нести последствия за подобные решения.
Конфиденциальность против безопасности
Этот иск обнажает противоречие, с которым рано или поздно столкнётся вся AI-индустрия. Платформы вроде ChatGPT строят доверие пользователей на одном обещании — конфиденциальности переписок. Обязательный мониторинг угроз разрушает это доверие и превращает чат-ботов в инструмент слежки. С другой стороны, если компании знают о потенциально опасных намерениях пользователей и молчат, они рискуют нести прямую юридическую ответственность за последствия.
«Мы рассматривали возможность уведомления, но не предприняли действий» — по данным WSJ, именно такова была позиция сотрудников OpenAI, видевших переписку подозреваемого.
До сих пор крупные AI-компании уклонялись от обязательного мониторинга угроз, ссылаясь на права пользователей на приватность. Прецедент Тамблер-Ридж может изменить этот статус-кво — особенно с учётом того, что ChatGPT ежедневно используют сотни миллионов людей по всему миру.
Что это значит
Если суд встанет на сторону семей, AI-платформы окажутся перед жёстким выбором: выстраивать системы мониторинга угроз с обязательным оповещением властей — или принять на себя гражданскую и уголовную ответственность за предотвратимые трагедии. Оба пути фундаментально меняют правила игры в отрасли.