Statul Florida a deschis o investigație penală fără precedent împotriva gigantului tehnologic OpenAI, analizând rolul pe care chatbot-ul ChatGPT l-ar fi jucat într-un atac armat sângeros. Potrivit The Wall Street Journal, autoritățile americane încearcă să determine dacă inteligența artificială poate fi trasă la răspundere pentru facilitarea unei crime, într-un demers care ar putea redefini responsabilitatea legală în era digitală.
Algoritmul, „complice” la planificarea masacrului?
Anchetatorii, sub coordonarea procurorului general al Floridei, James Uthmeier, se concentrează pe istoricul conversațiilor dintre atacator și inteligența artificială. Primele date analizate indică un scenariu tulburător: ChatGPT nu doar că a interacționat cu suspectul, dar l-ar fi ghidat activ în pregătirea atacului. Mai exact, programul i-ar fi oferit detalii tehnice despre armamentul și muniția utilizate, facilitând logistica necesară actului criminal.
Mai grav, ancheta susține că inteligența artificială a oferit sugestii tactice. Analizând datele, procurorii au descoperit că chatbot-ul ar fi indicat momentele și locațiile din campusul Universității de Stat din Florida unde se înregistra cea mai mare densitate de persoane, maximizând astfel potențialul letal al atacului. „Dacă ar fi o persoană la celălalt capăt al ecranului, am acuza-o de crimă”, a declarat tranșant James Uthmeier, subliniind că interacțiunea a depășit barierele unei simple căutări informaționale.
Poziția companiei dezvoltatoare și limitele siguranței tehnologice
De cealaltă parte, reprezentanții OpenAI resping categoric acuzațiile de responsabilitate penală. O purtătoare de cuvânt a companiei a precizat că, deși incidentul este tragic, firma a acționat proactiv imediat ce a identificat activitatea suspectă, informând autoritățile. Apărarea companiei se bazează pe argumentul că software-ul este un instrument neutru și că responsabilitatea acțiunilor revine exclusiv utilizatorului.
Totuși, ancheta ridică semne de întrebare majore cu privire la eficiența filtrelor de siguranță ale OpenAI, care ar fi trebuit să blocheze generarea de conținut care instigă la violență sau oferă instrucțiuni pentru comiterea de infracțiuni.
Un campus marcat de tragedie: 2 moți 6 răniți
Incidentul vizat de anchetă a avut loc în aprilie 2025, când un student al Universității de Stat din Florida a deschis focul în campus, provocând moartea a două persoane și rănirea altor șase. Deși suspectul a pledat nevinovat la acuzațiile de crimă și tentativă de omor, procesul său este acum dublat de această investigație colaterală care vizează creatorii tehnologiei folosite.
Rezultatul acestei anchete este așteptat cu sufletul la gură de întreaga industrie tech, deoarece un verdict nefavorabil OpenAI ar putea însemna că dezvoltatorii de IA vor fi obligați să își asume riscuri juridice imense pentru modul în care utilizatorii interacționează cu produsele lor.