Profeția șefului OpenAI despre inteligența artificială pe care a creat-o. ”Cu cât putem înțelege mai mult ce se întâmplă, cu atât va fi mai bine”

RMAG news

În cadrul summitului global „AI for Good” organizat de Uniunea Internațională de Telecomunicații la Geneva, CEO-ul OpenAI, Sam Altman, a fost întrebat cum funcționează cu adevărat modelele lingvistice mari (LLM) ale companiei sale. Răspunsul său a scos la iveală provocările și misterele din spatele acestor tehnologii avansate.

Dificultatea interpretabilității modelelor AI

Sam Altman a recunoscut că OpenAI încă nu a reușit să rezolve problema interpretabilității modelelor sale. „Cu siguranță nu am rezolvat interpretabilitatea”, a declarat el, subliniind dificultatea urmăririi deciziilor luate de modele și a înțelegerii raționamentului din spatele răspunsurilor oferite.

Această mărturisire evidențiază o problemă majoră în domeniul inteligenței artificiale. Cercetătorii se confruntă cu dificultăți în explicarea „gândirii” aparent libere și magice a chatbot-urilor AI. Deși tehnologia pare să răspundă fără efort la întrebări, urmărirea sursei și raționamentului din spatele acestor răspunsuri este extrem de complicată.

În ciuda numelui său, OpenAI a păstrat secretele privind datele pe care își antrenează modelele, ceea ce complică și mai mult înțelegerea completă a funcționării acestora. Această lipsă de transparență a fost criticată de experți, care au subliniat că dezvoltatorii AI înțeleg prea puțin despre modul în care funcționează propriile lor sisteme.

Încercările de a „deschide cutia neagră” a AI

Alte companii de inteligență artificială încearcă să găsească soluții pentru a înțelege mai bine funcționarea algoritmilor lor. De exemplu, Anthropic, un competitor al OpenAI, a făcut investiții semnificative în cercetarea interpretabilității. Compania a analizat unul dintre cele mai recente modele lingvistice mari, numit Claude Sonnet, ca un prim pas în maparea neuronilor artificiali.

„Anthropic a făcut o investiție semnificativă în cercetarea interpretabilității, încă de la înființarea companiei, deoarece credem că înțelegerea profundă a modelelor ne va ajuta să le facem mai sigure”, se arată într-o postare recentă pe blogul companiei. Totuși, reprezentanții companiei recunosc că munca este abia la început și că descoperirea unui set complet de caracteristici folosind tehnicile actuale ar fi prohibitivă.

Interpretabilitatea AI rămâne un subiect extrem de important, mai ales în contextul dezbaterilor privind siguranța AI și riscurile potențiale ale acesteia. Cu toate că tehnologia AI promite să aducă beneficii considerabile, există îngrijorări legate de faptul că ar putea deveni periculoasă și ar putea reprezenta un risc pentru umanitate.

Perspectivele viitoare și responsabilitatea OpenAI

Sam Altman a subliniat că înțelegerea mai profundă a modului în care funcționează modelele AI este esențială pentru asigurarea siguranței și securității acestora. „Cu cât putem înțelege mai mult ce se întâmplă în aceste modele, cu atât va fi mai bine”, a declarat el în timpul conferinței. El a adăugat că această înțelegere ar putea face parte din eforturile de verificare a afirmațiilor privind siguranța AI.

OpenAI are un drum lung de parcurs pentru a transforma inteligența artificială într-o forță superinteligentă și sigură. În același timp, este în interesul financiar al companiei să îi liniștească pe investitori că se dedică trup și suflet siguranței, în ciuda faptului că nu are o înțelegere completă a modului în care funcționează produsele sale de bază.

Profeția șefului OpenAI evidențiază necesitatea unei cercetări continue și aprofundate în domeniul interpretabilității AI. Numai prin înțelegerea completă a funcționării acestor modele, se poate asigura că dezvoltarea și implementarea inteligenței artificiale se face într-un mod sigur și benefic pentru societate.