MENIU

Un student de 19 ani a murit după ce a cerut sfaturi de la ChatGBT despre cum să consume droguri. Unde s-a produs tragedia

Un student a murit din cauza unei supradoze, după ce a cerut sfaturi de la ChatGBT despre cum să se drogheze.

Un student de 19 ani din California a murit în urma unei supradoze, iar mama lui susține că tragedia ar fi fost influențată de discuțiile pe care tânărul le avea cu ChatGPT despre consumul de droguri.

Sam Nelson folosea chatbotul atât pentru sarcini obișnuite, cât și pentru a se confesa sau pentru a pune întrebări legate de doze de substanțe ilegale. Sam a început să folosească inteligența artificială la 18 ani, când a cerut informații despre un analgezic care „te face să te simți high”.

Un tânăr a murit după ce l-a întrebat pe ChatGBT cum să se drogheze

Deși inițial chatbotul îi răspundea cu avertismente și refuzuri, tânărul ar fi reușit treptat să obțină răspunsuri mai permisive, reformulând întrebările până când sistemul genera informații pe care nu ar fi trebuit să le ofere, potrivit informațiilor citate de Daily Mail.

Mama lui, Leila Turner-Scott, spune că uneori AI-ul părea să-i încurajeze deciziile. În mai 2025, Sam i-a mărturisit consumul de droguri și alcool, iar ea l-a internat într-o clinică pentru tratament. A doua zi însă, l-a găsit fără viață în dormitor, având buzele albastre. Deși la exterior părea un tânăr relaxat, cu mulți prieteni și pasionat de jocuri video, istoricul conversațiilor sale cu AI-ul arăta o luptă profundă cu anxietatea și depresia.

Întrebările capcană pe care le formula tânărul

Într-o discuție din februarie 2023, Sam întreba dacă este sigur să combine canabisul cu o doză mare de Xanax. După ce chatbotul i-a spus că nu este, el a reformulat întrebarea, iar sistemul i-a oferit sugestii privind tipuri de canabis și cantități reduse de medicament. În decembrie 2024, tânărul a mers și mai departe, întrebând explicit „câte mg de Xanax și câte shot-uri de alcool ar putea ucide un bărbat cu toleranță medie”, cerând „răspunsuri numerice reale”.

La acel moment, Sam folosea o versiune mai veche a ChatGPT, despre care date interne ar fi indicat numeroase deficiențe. OpenAI a transmis condoleanțe familiei și a precizat că modelele actuale au măsuri de siguranță mult mai stricte. „Atunci când oamenii vin la ChatGPT cu întrebări sensibile, modelele noastre sunt concepute să răspundă cu grijă și să încurajeze utilizatorii să caute sprijin în lumea reală”, a declarat un purtător de cuvânt.

Mama lui Sam știa că fiul ei avea probleme cu drogurile, însă nu și amploarea lor. După pierderea singurului copil, Turner-Scott spune că este „prea obosită pentru a intenta un proces”.

Mai multe articole despre:
chat gbt copil mort adolescent mort