Vocea președintelui Joe Biden, replicată de inteligența artificială. Cât de periculos este, de fapt, acest lucru

Vocea președintelui Joe Biden, replicată de inteligența artificială. Cât de periculos este, de fapt, acest lucru

ElevenLabs, un startup de inteligență artificială care oferă servicii de clonare vocală, a exclus de pe platformă utilizatorul care a creat un deepfake audio cu Joe Biden, folosit în încercarea de a perturba alegerile, conform Bloomberg.

Alegătorii, „sfătuiți de Joe Biden” să nu voteze

Înregistrarea audio care îl imită pe președinte a fost utilizată într-un apel automat adresat unor alegători din New Hampshire, săptămâna trecută, sfătuindu-i pe aceștia să nu voteze la alegeri.

Inițial, nu era clară tehnologia utilizată pentru a reproduce vocea lui Biden, dar o analiză amănunțită realizată de compania de securitate Pindrop a arătat că infractorii au folosit instrumentele ElevenLabs.

Firma de securitate a eliminat zgomotul de fundal și a curățat sunetul apelului automat înainte de a-l compara cu mostrele de la peste 120 de tehnologii de sinteză vocală folosite pentru generarea de deepfake-uri.

Vezi și: ComedyBox, prima platforma de streaming românească pentru pasionații de comedie. Alternativa la Netflix, HBO Max și PrimeVideo

CEO-ul Pindrop, Vijay Balasubramaniyan, a declarat pentru Wired că „rezultatele au indicat cu un procentaj de mai bine de 99% că este vorba despre ElevenLabs”.

Bloomberg afirmă că gigantul a fost notificat cu privire la concluziile Pindrop și încă investighează, dar a identificat deja și a suspendat contul care a creat înregistrarea falsă.

ElevenLabs a declarat, la rândul său, că nu poate comenta direct problema, dar că este „dedicată prevenirii abuzului uneltelor de AI audio și că tratează orice incident de abuz cu maximă seriozitate”.

Lupta cu deepfake-ul este abia la început

„Acesta este doar vârful aisbergului în ceea ce privește ce se poate face în ceea ce privește suprimarea votului sau atacurile asupra lucrătorilor electorali”, a declarat Kathleen Carley, profesor la Universitatea Carnegie Mellon, pentru The Hill.

Vezi și: VIDEO George Carlin, „imitat” de inteligența artificială. Ce a avut de reproșat fiica regretatului comediant

Au fost necesare doar câteva zile după lansarea versiunii beta a platformei ElevenLabs pentru ca internetul să înceapă să o folosească pentru a crea clipuri audio care imită celebrități, în cele mai ciudate contexte.

Startup-ul le permite clienților să utilizeze tehnologia sa pentru a clona voci în scopuri „artistice și politice care contribuie la dezbaterile publice”.

Vezi și: Moștenitoarea regretatului comediant George Carlin intră „în război” cu inteligența artificială. Motivul pentru care AI va fi târât în judecată

Leave a Reply

Your email address will not be published. Required fields are marked *