Poliția Română trage un semnal de alarmă privind explozia de materiale deepfake și imagini generate cu inteligență artificială, folosite tot mai des în fraude financiare, campanii de manipulare și tentative de înșelăciune.
Într-o postare publicată pe Facebook, instituția atrage atenția asupra clipurilor care circulă pe rețelele sociale și explică modul în care pot fi identificate astfel de falsuri.
Postarea începe tranșant:
„Pe cât de FAKE, pe atât de prost realizat!”
Polițiștii oferă 12 criterii prin care cetățenii pot verifica autenticitatea unui video sau a unei imagini create cu AI:
- de la clipitul ochilor, sincronizarea buzelor și iluminarea feței
- până la reflexii nerealiste, mâini deformate, fundaluri „topite” și lipsa coerenței vizuale
Cum recunoști un deepfake, potrivit poliției
Poliția Română detaliază și cele mai comune semne ale unui material fals:
- clipit anormal
- sincronizare imperfectă între buze și sunet (mai ales la clipurile care nu sunt în engleză)
- umbre și iluminare care nu corespund
- reflexii nenaturale în ochi sau dinți
- mâini deformate sau număr greșit de degete
- pupile asimetrice
- păr sau haine cu aspect nerealist
- obiecte distorsionate în cadru
Aceștia mai recomandă verificarea imaginii prin reverse image search. Dacă imaginea nu mai apare undeva înainte de data postării, poate fi considerată suspectă.
De ce sunt periculoase deepfake-urile
Deși multe deepfake-uri rămân imperfecte, infractorii le folosesc în mod profesionist pentru a păcăli populația. Deepfake-urile și imaginile generate artificial sunt folosite masiv în:
- Înșelăciuni financiare (trading scam, investment fraud)
Clipuri deepfake cu oameni de afaceri, politicieni sau „experți” care promovează investiții miraculoase în crypto, forex sau AI, direcționând victimele către site-uri false.
- Scam-uri caritabile
Videoclipuri cu „copii bolnavi” sau „victime ale dezastrelor” care cer donații urgente, toate fabricate cu inteligență artificială.
- Romance scam cu identități generate de AI
Infractorii creează profiluri false cu persoane inexistente, dar perfect realiste, pentru a obține bani sub pretextul unor urgențe.
- Fraude de tip CEO/CFO (Business Email Compromise evoluat)
Video-call-uri deepfake în care „șeful” cere angajaților să transfere bani.
- „Impersonarea” celebrităților – adică înlocuirea lor cu un personaj „digital”, care de fapt nu există – pentru a promova produse false
Clipuri în care personalități „oferă gratuit” diverse servicii sau bunuri.
Poliția Română semnalează că, în 2025, tentativele de fraudă cu deepfake-uri au crescut accelerat. Astfel, provocând pierderi de zeci de miliarde de dolari la nivel global.
Deepfake-uri pentru manipulare și dezinformare: de la pseudo-astronauți la „martori oculari” inventați
Pe lângă fraudele financiare, autoritățile avertizează asupra unui val de conținut fals care circulă viral. Acesta atinge zone sensibile precum știința, medicina sau conflictele internaționale.
Printre exemplele date de poliție:
- clipuri cu „astronauți NASA” care declară că aselenizarea ar fi fost falsă
- „oameni de știință” care afirmă că „vaccinurile conțin cipuri 5G”
- „medici” care recomandă pseudo-tratamente
- „martori oculari” din zone de conflict care relatează evenimente inventate
Cazuri raportate în România: deepfake-uri cu „polițiști”
În ultima perioadă, Poliția Română a primit sesizări privind videoclipuri false în care apar persoane care se prezintă ca fiind ofițeri de poliție sau consultanți financiari, îndemnând oamenii să facă investiții sau să furnizeze date bancare.
Instituția subliniază:
- polițiștii nu contactează niciodată cetățeni prin video-call
- nu fac recomandări de investiții
- colaborează cu băncile doar instituțional, în cadrul investigațiilor
Oficialii au publicat și imagini cu două persoane care pretindeau că sunt polițiști, precizând că uniformele din videoclipurile respective sunt false:
„gradele de pe umeri neexistând în cadrul Poliției Române, cele reale fiind reprezentate de stele”.
Recomandările Poliției Române
Autoritățile enumeră mai multe măsuri esențiale de protecție:
- Dacă pare prea frumos ca să fie adevărat, ESTE FALS
- Nu accesa linkuri din reclame sau mesaje suspecte
- Nu transfera bani persoanelor cunoscute doar online
- Verifică întotdeauna sursa oficială a unui clip sau mesaj
- Activează autentificarea în doi pași (2FA)
- Raportează orice conținut suspect
- Folosește extensii care detectează deepfake-uri
- Dacă ai fost victima unei înșelăciuni, sesizează imediat autoritățile
