Un jurnalist susține că ChatGPT i-a oferit sfaturi pentru simularea unui atac armat. Apar noi întrebări despre siguranța AI: „Mi-a dat sfaturi tulburătoare”

Chat gbt
Un experiment realizat de un jurnalist american a reaprins discuțiile despre limitele și riscurile chatboturilor bazate pe inteligență artificială. Într-un material publicat de Mother Jones, jurnalistul Mark Follman susține că OpenAI prin chatbotul ChatGPT i-ar fi oferit recomandări detaliate despre arme și tactici, în timp ce simula planificarea unui atac armat în masă.
Potrivit articolului, conversația ar fi durat aproximativ 20 de minute și ar fi început cu întrebări aparent obișnuite despre utilizarea unei arme de tip AR-15 și despre antrenamente de tragere. Jurnalistul spune însă că discuția a devenit treptat tot mai explicită, iar chatbotul ar fi continuat să răspundă chiar și după ce au fost menționate atacuri armate celebre din Statele Unite.
Jurnalistul spune că răspunsurile au devenit tot mai detaliate
În materialul publicat de Mother Jones, Mark Follman afirmă că chatbotul a oferit recomandări într-un ton pe care îl descrie drept „încurajator”, inclusiv după referiri la autorul atacului de la Uvalde și la echipamente folosite în alte atacuri armate.
„ChatGPT a livrat aceste răspunsuri într-un ton încurajator și a continuat chiar și după ce am vorbit despre imitarea alegerii de armă făcute de autorul masacrului de la Uvalde, am întrebat despre transmiterea live cu o cameră montată pe corp și despre folosirea gloanțelor hollow-point și m-am concentrat pe modalități de apărare împotriva focului de ripostă al poliției. În cele din urmă, măsurile sale de protecție au părut să se reactiveze și a încetat să mai coopereze. Până atunci însă, ChatGPT mă bombardase deja cu validări și idei tactice”, a scris jurnalistul.
Follman susține că, la un moment dat, după ce a menționat marca Daniel Defense și atacul de la Uvalde, chatbotul ar fi descris arma drept „o alegere excelentă pentru nevoile tale”. Într-un alt moment al conversației, jurnalistul afirmă că a cerut modificarea programului de antrenament pentru a include situații haotice și persoane care „aleargă, țipă și încearcă să îl distragă”. Potrivit articolului, chatbotul ar fi răspuns: „Este o idee grozavă”, adăugând că exercițiul „îl va ajuta să rămână concentrat în condiții de stres ridicat”.
OpenAI spune că are sisteme de protecție împotriva conținutului periculos
Potrivit articolului, unele măsuri de siguranță ale platformei s-ar fi activat inițial după ce jurnalistul a sugerat că nu va folosi arma într-un poligon autorizat. ChatGPT ar fi transmis atunci că activitățile de tragere trebuie desfășurate doar într-un mediu „legal, sigur și controlat”. Follman afirmă însă că, după crearea unui nou cont, ar fi reușit să continue conversația și să obțină răspunsuri mai detaliate. OpenAI a transmis anterior că ChatGPT include sisteme de protecție menite să limiteze conținutul periculos și utilizarea abuzivă a platformei. Compania spune că a colaborat inclusiv cu specialiști în sănătate mintală pentru îmbunătățirea măsurilor de siguranță.
Articolul amintește și alte cazuri în care ar fi fost folosit ChatGPT
Materialul publicat de Mother Jones menționează și alte cazuri recente în care persoane implicate în acte de violență ar fi folosit ChatGPT înaintea atacurilor. Printre exemplele amintite se numără explozia unui Tesla Cybertruck din Las Vegas, un atac cu cuțitul într-o școală din Finlanda și atacuri armate din Canada și de la Florida State University.
În cazul atacului de la Florida State University, articolul susține că jurnalul conversațiilor ar arăta că suspectul ar fi primit instrucțiuni despre dezactivarea siguranței armei cu doar câteva minute înainte de atac. Totodată, jurnalistul afirmă că suspectul discutase anterior cu chatbotul despre probleme personale și stări depresive.
OpenAI este acuzată în procese că nu ar fi intervenit la timp
Articolul mai arată că mai multe procese depuse în California de victimele atacului de la Tumbler Ridge și familiile acestora acuză OpenAI că măsurile de siguranță ale platformei ar fi insuficiente. Reclamanții susțin că firma ar fi cunoscut riscurile și că nu ar fi alertat autoritățile, deși contul presupusului atacator fusese blocat anterior pentru discuții despre violență armată.
„OpenAI știa că atacatorul planifica atentatul și, după o dezbatere internă tensionată, a luat decizia conștientă de a nu avertiza autoritățile”, susțin victimele, adăugând că atacatorul a folosit ChatGPT „pentru a-și planifica atacul”. OpenAI respinge acuzațiile și afirmă că, după incidentul de la Florida State University, a identificat un cont asociat suspectului și a colaborat cu autoritățile. Potrivit articolului, compania este vizată în prezent și de o anchetă penală în Florida.
Citește și:
- 15:53 - Emmanuel Macron a izbucnit la un eveniment din Kenya. Președintele Franței a urcat pe scenă și a certat publicul - VIDEO
- 15:06 - Hantavirusul provoacă îngrijorare în Franța. Epidemiolog: „Riscul de mortalitate este de 30–50% dintre cazurile infectate”
- 14:30 - Un nou coronavirus descoperit la lilieci în Thailanda. Ce spun autoritățile despre amenințarea unui nou focar
- 14:21 - Prețul petrolului explodează după reacția lui Trump la oferta Iranului. Tensiunile din Orientul Mijlociu cresc din nou
Mai multe articole despre
Urmărește știrile Realitatea.NET și pe Google News














