Avertisment al Microsoft: China va folosi inteligența artificială pentru a perturba alegerile din SUA, Coreea de Sud și India

Avertisment al Microsoft: China va folosi inteligența artificială pentru a perturba alegerile din SUA, Coreea de Sud și India

După ce a făcut un test în timpul scrutinului din Taiwan, folosind conținut generat de inteligența artificială pentru a influența alegătorii să se îndepărteze de un candidat prosuveranitate, China va încerca în acest an să perturbe alegerile SUA, Coreea de Sud și India, atrage atenția compania Microsoft, relatează The Guardian.

Firma americană de tehnologie a declarat că se așteaptă ca grupurile cibernetice susținute de Beijing să vizeze alegerile programate în 2024, și cu implicarea Coreei de Nord, după cum reiese dintr-un raport al echipei de informații despre amenințări a companiei, publicat vineri.

„Pe măsură ce populațiile din India, Coreea de Sud și Statele Unite se îndreaptă spre urne, este probabil să vedem actori cibernetici și de influență chinezi și, într-o anumită măsură, actori cibernetici nord-coreeni, lucrând pentru a viza aceste alegeri”, scrie în raportul citat.

China, „cel puțin”, va crea și distribui pe rețelele sociale conținut generat de inteligența artificială care „avantajează pozițiile sale în aceste alegeri de profil înalt”, avertizează Microsoft, precizând că impactul conținutului creat de inteligența artificială este minor, dar că acest lucru s-ar putea schimba.

„Experimentarea tot mai mare a Chinei în ceea ce privește augmentarea meme-urilor, videoclipurilor și a înregistrărilor audio va continua – și s-ar putea dovedi eficientă în viitor”, afirmă specialiștii de la compania americană de tehnologie.

Cum a încercat China să influențeze alegerile din Taiwan

În acest context, Microsoft precizează că Beijingul a încercat deja o campanie de dezinformare generată de inteligența artificială vizând alegerile prezidențiale din Taiwan care au avut loc în luna ianuarie, compania afirmând că aceasta a fost prima dată când a văzut o entitate susținută de stat care a folosit conținut creat prin inteligență artificială în încercarea de a influența un scrutin străin.

Concret, un grup sprijinit de Beijing, numit Storm 1376, cunoscut ca Spamouflage sau Dragonbridge, a încercat, printre altele, să influențeze alegerile din Taiwan publicând pe YouTube înregistrări audio false în care candidatul Terry Gou – care s-a retras în noiembrie – susținea un alt candidat. Microsoft a declarat că videoclipul a fost „probabil generat de inteligența”, iar YouTube a eliminat conținutul înainte ca acesta să ajungă la mulți utilizatori.

Grupul susținut de Beijing a difuzat o serie de meme-uri generate de inteligența artificială despre candidatul care a avut succes în cele din urmă, William Lai – un candidat prosuveranitate căruia Beijingul i se opune – care a lansat afirmații nefondate împotriva lui Lai, acuzându-l de deturnare de fonduri de stat.

De asemenea, a existat o utilizare sporită a prezentatorilor de știri TV generați de inteligența artificială, o tactică folosită și de Iran, „prezentatorul” făcând afirmații nefondate despre viața privată a lui Lai, inclusiv despre faptul că a fost tatăl unor copii nelegitimi.

Potrivit Microsoft, „prezentatorii de știri” au fost creați de instrumentul CapCut, care este dezvoltat de compania chineză ByteDance, proprietara TikTok.

Compania a mai afirmat că grupurile chinezești continuă să organizeze campanii de influență în SUA, actori susținuți de Beijing utilizând conturile de pe rețelele sociale pentru a pune „întrebări care provoacă diviziuni”.

„Acest lucru ar putea fi pentru a aduna informații și precizări cu privire la datele demografice-cheie ale votanților înainte de alegerile prezidențiale din SUA”, a afirmat Microsoft într-o postare pe blog care însoțește raportul.

Foto: Profimedia

  

  

Leave a Reply

Your email address will not be published. Required fields are marked *