Escocii se folosesc din nou de chipul lui Ion Țiriac pentru a-i ademeni pe cei care vor să investească
Imaginea lui Ion Țiriac a fost din nou folosită abuziv într-o înșelătorie online care circulă intens pe platformele de socializare.
De această dată, un clip generat cu ajutorul inteligenței artificiale îl arată pe omul de afaceri într-un interviu fictiv alături de jurnalistul Ovidiu Ioanițoaia. Filmarea falsă, prezentată sub forma unui dialog real, a adunat deja mii de vizualizări pe YouTube și este promovată agresiv pe internet.
Interviul fals și promisiunea îmbogățirii rapide
Clipul îl prezintă pe Ion Țiriac discutând despre o așa-zisă platformă de investiții rapide numită „Neurix Profit”. Vocea care imită perfect tonul și intonația miliardarului rostește fraze menite să atragă oamenii dornici de câștiguri ușoare: „Este suficientă o investiție de 10 mii de lei ca să te îmbogățești!”. Imaginile video par autentice, însă întregul conținut este generat artificial, de la voce până la expresiile faciale.
Mecanismul escrocheriei și mesajele manipulatoare
Linkul din descriere duce către un site care găzduiește „interviul complet” cu Ion Țiriac și Ovidiu Ioanițoaia. Acolo, vocea sintetizată a omului de afaceri face o ofertă tentantă: „Nu mă crezi? Dă-mi 1.243 de lei şi o să-i transform în zeci de mii în 3-4 luni! Totul depinde de tine şi de faptul dacă vrei asta sau nu.”
Pentru a da credibilitate escrocheriei, clipul conține și așa-zise dovezi: imagini cu chitanțe pe numele lui Ion Țiriac și mărturii video ale unor persoane care pretind că s-au îmbogățit datorită platformei. Printre comentariile publice apar nume care par a fi de origine rusească, utilizatorii exprimându-și recunoștința pentru „sfaturile” miliardarului român.
O practică repetată de-a lungul anilor
Nu este prima oară când numele lui Ion Țiriac este folosit pentru fraude de acest tip. În 2004, imaginea fostului tenisman a fost implicată într-o altă escrocherie, care urmărea atragerea de bani prin investiții fictive. Nici atunci, nici acum, omul de afaceri nu a avut nicio legătură cu aceste scheme frauduloase.
Cazul recent arată cum progresele inteligenței artificiale pot fi folosite abuziv pentru a crea conținut fals, suficient de convingător încât să păcălească oameni neavizați. Autoritățile avertizează că asemenea clipuri pot face parte din rețele complexe de escrocherii online și îi îndeamnă pe utilizatori să nu trimită bani și să verifice sursele înainte de a accesa astfel de linkuri.