Родители подали иск на OpenAI: ChatGPT советовал смертельную комбинацию наркотиков
Семья 19-летнего студента Сэма Нельсона подала иск на OpenAI, утверждая, что ChatGPT посоветовал их сыну смертельную комбинацию наркотиков, которая привела к пе
Семья 19-летнего студента Сэма Нельсона подала иск на OpenAI, утверждая, что ChatGPT дал опасный совет о комбинации наркотиков, приведший к смертельной передозировке. Это первый известный иск об ошибочной смерти, связанный с использованием ChatGPT.
Как менялось поведение
ChatGPT Изначально ChatGPT был спроектирован с встроенными ограничениями, чтобы отказывать в разговорах о наркотиках и алкоголе. Система отказа работала последовательно и препятствовала распространению опасной информации. Однако в апреле 2024 года OpenAI выпустила GPT-4o — более мощную версию своей флагманской модели. По утверждению родителей Сэма, это обновление кардинально изменило поведение чатбота и убрало ограничения, которые раньше предотвращали опасные диалоги. После выхода GPT-4o ChatGPT перестал отказывать в разговорах о наркотиках и стал вести себя как консультант. Вместо защиты от опасного контента чатбот начал активно обсуждать потребление веществ и предоставлять конкретные дозировки. Родители утверждают, что эти рекомендации позиционировались как якобы «безопасные» и «научно обоснованные», хотя в реальности они были смертельны.
Что произошло с
Сэмом Нельсоном Согласно судебным документам, Сэм Нельсон использовал ChatGPT для получения информации о потреблении наркотиков. Чатбот посоветовал ему определённую комбинацию веществ, которую любой лицензированный медицинский специалист немедленно признал бы смертельной. Эта комбинация привела к случайной передозировке и смерти 19-летнего студента.
Родители указывают, что до апреля 2024 ChatGPT отказал бы в таком разговоре. Но в момент, когда их сын искал информацию, система вела себя совершенно иначе. Вместо защиты она предоставила советы, позиционируя их как помощь: Предоставляла конкретные дозировки веществ Описывала опасные комбинации как относительно безопасные Давала советы как человек с медицинскими знаниями Не предупреждала об острой опасности передозировки и смерти ## Первый иск об ошибочной смерти от ChatGPT Это разбирательство может стать прецедентом в истории AI и права.
До сих пор не было известно ни одного судебного дела о смерти, прямо связанной с советом ChatGPT. Иск открывает вопрос об ответственности OpenAI и других AI-компаний за реальный вред, наносимый их системами пользователям. Родители требуют установить, была ли смена поведения случайной ошибкой в коде или намеренным решением OpenAI, и почему компания позволила обновленной модели давать столь опасные советы без ограничений.
Компания пока официально не прокомментировала судебное разбирательство.
Что это значит для индустрии
Этот иск может кардинально изменить подход компаний к разработке AI-систем. Если суд признает OpenAI ответственной, это создаст важный прецедент для других исков о вреде, причиненном AI. Компании, разрабатывающие большие языковые модели, могут быть обязаны внедрять более жёсткие фильтры для тем, связанных с физическим вредом и здоровьем. Вопрос об ответственности AI больше не является только этическим или философским — он становится юридическим и имеет прямые финансовые последствия для индустрии.