Nu citi știrile de pe ChatGPT sau Copilot: Riscurile dezinformării

RMAG news

Aceasta este o reamintire periodică a faptului că chatbot-urile alimentate de AI încă inventează lucruri și mint cu toată încrederea unui GPS care îți spune că drumul cel mai scurt spre casă este prin lac.

Dezinformarea de la GPT

Avertizarea vine din partea Nieman Lab, care a desfășurat un experiment pentru a vedea dacă ChatGPT ar putea furniza link-uri corecte către articole din publicații de știri cu care are contracte de milioane de dolari. Rezultatul? ChatGPT nu a reușit. În schimb, a inventat adrese URL complete, un fenomen cunoscut în industria AI drept „halucinație”, un termen care pare mai potrivit pentru o persoană reală sub influența propriilor minciuni.

Andrew Deck de la Nieman Lab a solicitat serviciului să furnizeze link-uri către articole exclusive de la 10 publicații cu care OpenAI are contracte valoroase: Associated Press, The Wall Street Journal, Financial Times, The Times (UK), Le Monde, El País, The Atlantic, The Verge, Vox și Politico. În răspuns, ChatGPT a returnat adrese URL inventate care duceau la pagini de eroare 404, deoarece pur și simplu nu existau. Cu alte cuvinte, sistemul funcționa exact cum a fost proiectat: prezicând cea mai probabilă versiune a unei adrese URL în loc să citeze corect. Nieman Lab a realizat un experiment similar cu o singură publicație — Business Insider — la începutul acestei luni și a obținut același rezultat.

Un purtător de cuvânt al OpenAI a declarat pentru Nieman Lab că compania încă lucrează la „o experiență care îmbină capacitățile de conversație cu conținutul lor de știri, asigurând atribuirea corectă și link-uri către materialele sursă — o experiență îmbunătățită încă în dezvoltare și care nu este încă disponibilă în ChatGPT”. Totuși, nu au explicat de ce apar aceste adrese URL false.

AI inventează fapte

Nu știm când această nouă experiență va fi disponibilă sau cât de fiabilă va fi. În ciuda acestui fapt, publicațiile de știri continuă să furnizeze ani de jurnalism către OpenAI în schimbul unor sume mari de bani, deoarece industria jurnalismului nu a reușit constant să găsească modalități de a face bani fără a-și vinde sufletul companiilor de tehnologie. Între timp, companiile AI consumă conținut publicat de oricine nu a semnat aceste contracte faustiene și îl folosesc pentru a-și antrena modelele. Mustafa Suleiman, șeful AI de la Microsoft, a numit recent orice lucru publicat pe internet „freeware”, considerând că este permis să fie folosit pentru antrenarea modelelor AI. Microsoft era evaluată la 3,36 trilioane de dolari în momentul în care am scris acest articol.

Există o lecție aici: Dacă ChatGPT inventează adrese URL, inventează și fapte. Așa funcționează AI generativă — în esență, tehnologia este o versiune mai sofisticată a completării automate, ghicind pur și simplu următorul cuvânt plauzibil într-o secvență. Nu „înțelege” ce spui, chiar dacă se comportă ca și cum ar înțelege. Recent, am încercat să obțin ajutor de la chatbot-urile noastre de top pentru a rezolva New York Times Spelling Bee și am asistat la un eșec total.

Dacă AI generativă nu poate rezolva nici măcar Spelling Bee, nu ar trebui să o folosești pentru a-ți obține informații.