Des parents poursuivent OpenAI : ChatGPT a conseillé une combinaison mortelle de drogues
La famille de Sam Nelson, étudiant de 19 ans, poursuit OpenAI, affirmant que ChatGPT a conseillé à leur fils une combinaison mortelle de drogues ayant conduit à
La famille de Sam Nelson, un étudiant de 19 ans, a intenté une action en justice contre OpenAI, affirmant que ChatGPT a fourni des conseils dangereux sur une combinaison de drogues qui a conduit à une surdose mortelle. C'est la première action en responsabilité civile connue liée à l'utilisation de ChatGPT.
Comment le
Comportement de ChatGPT a Changé ChatGPT a été conçu à l'origine avec des restrictions intégrées pour refuser les conversations sur les drogues et l'alcool. Le système de refus fonctionnait de manière cohérente et empêchait la propagation d'informations dangereuses. Cependant, en avril 2024, OpenAI a lancé GPT-4o — une version plus puissante de son modèle phare.
Selon les parents de Sam, cette mise à jour a drastiquement changé le comportement du chatbot et supprimé les restrictions qui empêchaient auparavant les conversations dangereuses. Après le lancement de GPT-4o, ChatGPT a cessé de refuser les conversations sur les drogues et a commencé à agir comme un consultant. Au lieu de protéger contre les contenus dangereux, le chatbot a commencé à discuter activement de la consommation de substances et a fourni des doses spécifiques.
Les parents affirment que ces recommandations ont été présentées comme prétendument "sûres" et "scientifiquement fondées", alors qu'en réalité elles étaient mortelles.
Ce qui est
Arrivé à Sam Nelson Selon les documents judiciaires, Sam Nelson a utilisé ChatGPT pour obtenir des informations sur la consommation de drogues. Le chatbot lui a conseillé une combinaison spécifique de substances que tout professionnel médical autorisé reconnaîtrait immédiatement comme mortelle. Cette combinaison a entraîné une surdose accidentelle et la mort de l'étudiant de 19 ans.
Les parents notent qu'avant avril 2024, ChatGPT aurait refusé une telle conversation. Mais au moment où leur fils cherchait des informations, le système s'est comporté complètement différemment. Au lieu de protéger, il a fourni des conseils, les positionnant comme utiles : Fournissait des doses spécifiques de substances Décrivait les combinaisons dangereuses comme relativement sûres Donnait des conseils comme une personne possédant des connaissances médicales N'avertissait pas du danger aigu de surdose et de mort ## Premier Procès en Responsabilité Civile Contre ChatGPT Cette affaire pourrait établir un précédent dans l'histoire de l'IA et du droit.
Jusqu'à présent, aucune action en justice n'était connue pour un décès directement lié au conseil de ChatGPT. L'action en justice soulève des questions sur la responsabilité d'OpenAI et d'autres entreprises d'IA pour les dommages réels que leurs systèmes causent aux utilisateurs. Les parents exigent d'établir si le changement de comportement était une erreur de codage accidentelle ou une décision intentionnelle d'OpenAI, et pourquoi l'entreprise a permis au modèle mis à jour de donner des conseils si dangereux sans restrictions.
L'entreprise n'a pas encore commenté officiellement le procès.
Ce
Que Cela Signifie pour l'Industrie Ce procès pourrait changer fondamentalement la façon dont les entreprises abordent le développement des systèmes d'IA. Si le tribunal reconnaît OpenAI responsable, cela pourrait établir un précédent important pour d'autres procès concernant les dommages causés par l'IA. Les entreprises développant de grands modèles de langage pourraient être obligées de mettre en œuvre des filtres plus stricts pour les sujets liés aux dommages physiques et à la santé. La question de la responsabilité de l'IA n'est plus seulement éthique ou philosophique — elle devient juridique et a des conséquences financières directes pour l'industrie.