Cele mai faimoase virale deepfake. Vedete în centrul atenției, toate „au făcut valuri” pe Facebook și pe Instagram

Cele mai faimoase virale deepfake. Vedete în centrul atenției, toate „au făcut valuri” pe Facebook și pe Instagram

În 2024, devine aproape imposibil să-ți mai dai seama ce e real și ce nu, mai ales că tehnologia deepfake pare să fi inundat internetul până la ultima sa bucățică.

Inteligența artificială crește văzând cu ochii, învățând, pas cu pas, cum să devină mai bună, mai credibilă. Evident că s-a știut încă de la început că situațiile neplăcute vor deveni inevitabile, mai ales luând în calcul interesele pe care le pot avea unii escroci.

Unii folosesc astfel de metode pentru a-i păcăli pe alții de bani, pentru că au interesele politice, dar și pentru amuzamentul personal, iar acestea să fie motive cât se poate de valabile, atunci când vine vorba despre impulsul cuiva de a apela la deepfake-uri pentru a înșela realitatea.

Acestea fiind spuse, haide să vedem care sunt cele mai virale clipuri deepfake, de pe Facebook și/sau Instagram, care au creau neplăceri persoanelor cunoscute, de la noi sau din afară, „schimonosite” de AI.

Vezi și: Ce e deepfake: tehnologia care te poate face să crezi orice

Mugur Isărescu, una dintre „victimele” deepfake din România

Probabil că ai auzit deja despre materialele trucate în care îl „vezi” pe Mugur Isărescu cu o voce clonată.

Totuși, în materialul fake, vocea devine din ce în ce mai incoerentă spre finalul clipului, ceea ce demonstrează clar faptul că vorbim despre un deepfake și nimic mai mult.

Drept pentru care, tentativa a fost rapid scoasă la iveală, fiind marcată ca fraudă, dar nu toți s-au prins de faptul că respectivul clip este un fals.

În pofida raportărilor efectuate de oficialii BNR, Facebook nu a fost de aceeași părere, astfel că a făcut ceea ce face rețeaua de socializare de ani buni, a concluzionat că nu este nimic în neregulă.

Vezi și: Înșelătoriile financiare fac valuri pe Facebook în România. Imaginea lui Marcel Ciolacu, subiect de avertisment din partea autorităților

Nici Marcel Ciolacu n-a scăpat

În ultimul timp, mulți indivizi au fost atrasi în capcana unor afaceri suspecte, care promiteau câștiguri exorbitante prin investiții, utilizând clipuri video editate cu ajutorul inteligenței artificiale pentru a înșela potențialii investitori. Printre cei afectați se numără chiar și Marcel Ciolacu.

Unul dintre modurile în care escrocii utilizează aceste clipuri falsificate este prin copierea imaginilor de pe site-urile oficiale de știri și editarea lor cu ajutorul inteligenței artificiale pentru a părea că persoane cunoscute, precum premierul României, spun lucruri diferite față de realitate.

DNSC a emis avertismente privind apariția a zeci de astfel de clipuri falsificate pe internet, în care persoane cunoscute par să promoveze scheme de îmbogățire rapidă.

Chiar dacă oferta pare prea bună pentru a fi adevărată, cei care cad în această capcană se expun riscului de a pierde sume considerabile de bani și de a-și compromite datele bancare.

Vezi și: Taylor Swift, victima unui deepfake grosolan: Ce „vindea” vedeta pe internet

Klaus Iohannis, „mare muzicant”

Fenomenul imaginilor și videoclipurilor trucate care prezintă persoane publice în situații controversate a luat o amploare fără precedent.

Aceste clipuri, create cu ajutorul algoritmilor sofisticați de inteligență artificială, sunt capabile să imite perfect vocea și chiar mișcările unor figuri publice precum Președintele Klaus Iohannis sau Ministrul Educației, Ligia Deca.

Un exemplu cât se poate de revelator este un videoclip în care Președintele Iohannis apare cântând la acordeon muzică populară, alături de politicieni controversați precum Dragnea și Ciolacu.

Aceste clipuri trucate, deși sunt adesea create ca satire sau pamflete, au reușit să inducă confuzie și să păcălească mulți utilizatori.

Deepfake Klaus Iohannis

Joe Biden, un alt președinte care devine ținta escrocilor în deepfake

Cursa pentru Casa Albă din 2024 se confruntă cu perspectiva unui val de dezinformare activată de inteligența artificială.

„Ce farsă ieftină”,  a spus mesajul telefonic, simulând digital vocea lui Biden și repetând una dintre frazele sale caracteristice.

Apelul automat i-a îndemnat pe locuitorii din New Hampshire să nu-și exprime voturile în primariile democrate din luna trecută, determinând autoritățile statale să demareze o anchetă în legătură cu posibila suprimare a votului.

De asemenea, a declanșat cereri din partea campaniilor pentru reguli mai stricte în jurul instrumentelor de inteligență artificială generativă sau pentru interzicerea totală a apelurilor automate.

Cercetătorii în domeniul dezinformării se tem de utilizarea abuzivă răspândită a aplicațiilor alimentate de AI într-un an electoral crucial pentru America, datorită instrumentelor de clonare a vocii care se multiplică, care sunt ieftine și ușor de utilizat și greu de urmărit.

Taylor Swift, „vedetă” în imagini mincinoase, destinate adulților

Săptămâna trecută, imagini false cu conținut sexual explicit cu Taylor Swift au devenit virale pe X, stârnind o reacție rapidă din partea fanilor.

Imaginile au fost create folosind generatorul de imagini cu inteligență artificială Designer al Microsoft, conform 404 Media.

În urma raportului 404, oficialii Microsoft au declarat că au consolidat sistemele de siguranță și au închis lacunele care au permis utilizatorilor să genereze imaginile în primul rând.

Cu mai bine de șase ani în urmă, Samantha Cole a raportat pentru Motherboard despre primele zile ale proliferării pornografiei deepfake asistate de AI cu celebrități.

La acea vreme, efortul de a crea astfel de materiale, care apoi le-au afectat și pe Gal Gadot, Scarlett Johansson, Aubrey Plaza, printre altele, dura între câteva ore și câteva zile.

„Acest nou tip de pornografie falsă arată că suntem pe cale să trăim într-o lume în care este ușor să fabricăm videoclipuri credibile ale persoanelor care fac și spun lucruri pe care nu le-au făcut niciodată. Chiar și să facă sex”, a scris Cole.

George Carlin, „readus la viață” de tehnologia deepfake

De la moartea sa în 2008, comedianul George Carlin nu a lansat material nou, din motive cât se poate de evidente: nu mai este printre noi.

Totuși, recent, un YouTuber a realizat, fără permisiunea familiei lui Carlin, un program special de o oră în care îl imita pe comediant.

George Carlin cel sintetic: „Mă bucur că sunt mort am fost postat de canalul de YouTube Dudesy, care a realizat și un special de comedie generat de inteligența artificială cu Tom Brady, din cauza căruia fostul quarterback NFL a amenințat că va da în judecată canalul”.

Cu toate acestea, pare că cei din spatele canalului Dudesy nu au învățat din lecție, deoarece fiica lui George Carlin, Kelly, a luat atitudine pe platforma X (fostul Twitter) pentru a clarifica că Dudesy nu a cerut permisiunea familiei.

„Nicio mașină nu va putea înlocui geniul său. Aceste produse generate de inteligența artificială sunt încercări inteligente de a recrea o minte care nu va mai exista vreodată”, scrie Kelly Carlin.

Tom Hanks, în reclame false

Un agent de publicitate pare să fi utilizat un deepfake cu Tom Hanks pentru a promova planuri stomatologice fără a obține permisiunea actorului.

Hanks a postat pe Instagram un avertisment către fanii săi cu privire la un videoclip generat de inteligență artificială, pe care l-a descris drept „total necunoscut” și „fără legătură”.

Autoritățile române iau măsuri și avertizează populația

„Clipuri în care anumite persoane cu reputaţie la nivel naţional girează aceste ‘programe de investiţii’ sunt publicate adesea de infractorii din online pe conturi de social media nou create şi folosite exclusiv în acest scop, ori unele compromise, care au aparţinut în trecut altor utilizatori.

De obicei, atacatorii se folosesc de imaginea unor oameni politici, oameni de afaceri şi chiar jurnalişti, pentru a prezenta aceste oferte-capcană publicului.

Cum funcţionează capcana întinsă de infractori? Spre deosebire de alte cazuri, în care postarea sponsorizată avea ca scop principal redirecţionarea potenţialei victime către un site de phishing, în alte cazuri ca acesta, atacatorii invită audienţa să îşi manifeste interesul pentru a intra în ‘program’ prin transmiterea unui mesaj privat.

Odată contactaţi în acest mod, atacatorii vor folosi tehnici de inginerie socială şi site-uri de phishing pentru a convinge utilizatorii să furnizeze date sensibile”, se menţionează într-o postare publicată, joi, pe pagina de LinkedIn a instituţiei.

Leave a Reply

Your email address will not be published. Required fields are marked *