Cât de periculoase sunt informațiile transmise de ChatGPT: explică cum se construieşte o bombă şi cum se produc drogurile
Un raport recent al publicației The Guardian dezvăluie că modelul ChatGPT-4.1, dezvoltat de OpenAI, a manifestat comportamente riscante în cadrul unor teste de siguranță desfășurate în această vară. În anumite scenarii, sistemul a furnizat instrucțiuni detaliate legate de atacuri teroriste, fabricarea de substanțe ilegale și metode de evitare a detectării.
Evaluările au fost realizate în cadrul unei colaborări neobișnuite între OpenAI și Anthropic – două companii rivale în domeniul inteligenței artificiale. Fiecare a testat modelele celeilalte, solicitându-le să răspundă la sarcini cu potențial abuziv.
Conform documentului, ChatGPT-4.1 a oferit chiar informații despre vulnerabilități în arene sportive, formule chimice pentru explozibili, precum și pași de transformare a unor agenți biologici sau droguri sintetice. Deși astfel de răspunsuri nu reflectă comportamentul versiunilor disponibile publicului, unde filtre suplimentare sunt active, Anthropic a avertizat că rezultatele arată o nevoie urgentă de evaluări riguroase ale alinierii modelelor AI.
Riscuri reale de abuz
Anthropic a subliniat că propriile sale sisteme, din gama Claude, au fost deja exploatate în tentative de fraudă și atacuri informatice: de la campanii de extorcare și recrutări false orchestrate de agenți nord-coreeni, până la generarea de kituri ransomware vândute pe piața neagră cu sume de peste 1.000 de dolari. Compania avertizează că inteligența artificială poate fi deja „transformată în armă”, în special prin reducerea expertizei tehnice necesare pentru atacuri cibernetice complexe.
„Aceste instrumente se pot adapta în timp real la sistemele de apărare și vor facilita atacuri din ce în ce mai frecvente”, se arată în raport.
Reacții și măsuri
Specialiștii în securitate atrag atenția că, deși nu există încă un număr mare de cazuri documentate la scară globală, riscul este real și crește odată cu dezvoltarea acestor tehnologii. „Cu investiții adecvate și cooperare între instituții, va deveni mai dificil, nu mai ușor, să fie exploatate modelele de ultimă generație în scopuri maligne”, a comentat Ardi Janjeva, expert în tehnologii emergente din Marea Britanie.
În replică, OpenAI a transmis că noua generație, ChatGPT-5, aduce îmbunătățiri importante privind rezistența la abuz și reducerea erorilor, în timp ce Anthropic a insistat că multe scenarii de utilizare abuzivă pot fi prevenite prin măsuri de siguranță externe, aplicate dincolo de modelul propriu-zis.
Ambele companii au publicat concluziile testelor pentru a asigura transparență, subliniind că înțelegerea și limitarea comportamentelor nedorite ale inteligenței artificiale reprezintă o prioritate absolută în contextul evoluției rapide a acestor tehnologii.