Cum te fură hoții cu inteligența artificială prin metoda „accidentul”: La ce să fii atent când răspunzi la telefon, ca să nu-ți ia banii

Cum te fură hoții cu inteligența artificială prin metoda „accidentul”: La ce să fii atent când răspunzi la telefon, ca să nu-ți ia banii

Hoții fură bani prin metoda „Accidentul” cu ajutorul inteligenței artificiale. Telefoanele în miez de noapte, în care hoţii se dau drept cineva din familie care a avut un accident şi are nevoie de bani, vor deveni şi mai credibile.

Hoții se folosesc de AI ca să-ți ia banii

Astfel, cu ajutorul AI, escrocii se folosesc de tehnologie pentru a reproduce perfect vocile persoanelor dragi. Iată ce trebuie să știi, ce spun specialiştii pentru a nu pica în capcana tehnologiei deepfake.

Mai exact, iată cum funcționează: escrocii reproduc vocile unor persoane cu ajutorul inteligenței artificiale. Următorul pas este apelul. Victimele sunt sunate, iar în momentul în care răspund, aud vocea reporodusă, care seamănă izbitor cu cea a prietenilor sau a rudelor.

Vocea falsă respectivă, care poate fi o rudă sau un prieten, îți spune că are nevoie de ajutor în bani, pentru că a făcut un accident și e în spital. Iar banii trebuie să îi trimiți într-un cont bancar pe care ți-l transmite.

Totul pare atât de real încât mulți nu iși dau seama și, fără să se gândească, oferă bani instant.

Vezi și: Tehnologia AI, folosită, din ce în ce mai des, în scopuri josnice: cât de departe s-a ajuns cu fenomenul deepfake

Cum să te protejezi de astfel de fraude

În primul rând, urgenţa cu care încearcă autorul să obțină banii este un semn de întrebare. Escrocii pot induce, de asemenea, ideea că telefonul persoanei la care fac referire a fost reținut. În cele mai multe situații, polițiștii nu rețin telefoanele implicate în asemenea evenimente.

Astfel, sfaturile specialiștilor sunt să închidem apelul din primă, să nu stăm la discuții și să verificăm pe numărul real al prietenului sau rudei respective dacă a suferit un accident.

Astfel de apeluri pot conține și elemente identificabile dacă suntem foarte atenți. Cum ar fi o voce ușor distorsionată, pauze lungi în conversație, un limbaj sau poate expresii necaracteristice persoanei respective în numele căreia se face apelul, spune Mihai Rotariu, expert securitate cibernetică, pentru Observator News.

Ca referință, legea care introduce amenzi pentru deepfake a trecut de Senat şi va ajunge în Camera Deputaților. Fenomenul a luat amploare la noi până la cel mai înalt nivel. Ministrul Energiei, Sebastian Burduja, a depus plângere penală după o manipulare video în care promova o falsă schemă de investiții Enel.

România este pe locul al doilea, după Belgia, în clasamentul țărilor europene cu cea mai mare creștere a fenomenului deepfake în perioada 2022 – 2023.

Vezi și: Ai smartphone cu Android și senzor de amprentă? Ai putea să fii vulnerabil în fața hackerilor

Leave a Reply

Your email address will not be published. Required fields are marked *