MENIU

Nouă metodă de fraudă: infractorii clonează vocile celor dragi cu ajutorul AI. Cum să nu cazi în capcană

A apărut o nouă metodă de fraudă. Cum pot clona infractorii vocile celor dragi.

Ministerul Afacerilor Interne a transmis un avertisment important pentru cetățeni, după ce a identificat o nouă metodă de înșelăciune: folosirea inteligenței artificiale pentru clonarea vocii persoanelor apropiate.

Potrivit autorităților, infractorii obțin doar câteva secunde de înregistrare audio de pe rețelele sociale, suficiente pentru a genera apeluri telefonice extrem de convingătoare. În timpul apelului, victima este anunțată că o rudă sau un prieten apropiat ar fi avut un accident ori s-ar afla într-o situație gravă și are nevoie urgentă de bani.

Noua metodă de înșelătorie. Escrocii pot clona vocile celor dragi

Reprezentanții MAI au transmis un mesaj în mediul online prin intermediul căruia avertizează românii: „NU ESTE REAL. ESTE O VOCE FALSĂ. Și totuși… sună exact ca el/ea. Am avut un accident… Ajută-mă, te rog! Am nevoie de bani. ACUM! STOP. Respiră. Infractorii folosesc inteligența artificială pentru a clona vocea celor dragi, folosind doar câteva secunde de audio de pe rețelele sociale”.

Autoritățile explică faptul că scenariul este construit special pentru a provoca panică și pentru a împinge victima să reacționeze rapid, fără să verifice informația. „Scenariul e mereu unul de panică: accident ori altă urgență care nu suportă amânare. Ce vor? Bani. Rapid. Fără să te lase să gândești”.

În cazul în care primești un astfel de apel, Ministerul recomandă câteva măsuri clare: „Închizi IMEDIAT. Suni persoana care îți cere ajutorul pe numărul cunoscut. NU trimiți bani. NU oferi date personale sau bancare”. Autoritățile îndeamnă la calm și vigilență și recomandă distribuirea informației pentru a preveni alte posibile victime. „Poate salva liniștea unei familii!”, transmit reprezentanții MAI.

Mai multe articole despre:
frauda metoda de frauda