ChatGPT-4, mai „priceput” decât doctorii oftalmologi: Ce performanțe remarcabile a avut inteligența artificială de la OpenAI

RMAG news

Generative Pre-trained Transformer 4, cunoscut sub acronimul GPT-4, reprezintă o inovație deosebită în domeniul inteligenței artificiale și al învățării automate. Dezvoltat de către OpenAI, GPT-4 este un model de limbaj de ultimă generație, construit pe baza succesului predecesorilor săi, și anume GPT-3 și GPT-3.5. Cu o serie de îmbunătățiri și actualizări semnificative, acest model aduce laolaltă puterea computațională avansată și capacitatea de a înțelege și genera limbaj natural într-un mod uimitor.

Un nou studiu efectuat de Școala de Medicină Clinică a Universității din Cambridge a dezvăluit că GPT-4, un model de limbaj de învățare, a obținut rezultate remarcabile în evaluările oftalmologice, apropiindu-se de nivelul medicilor specialiști în domeniu.

Performanță remarcabilă în evaluări oftalmologice pe GPT-4

Potrivit primelor rapoarte din Financial Times, GPT-4 a obținut scoruri mai mari decât medicii juniori nespecializați și rezidenții oftalmologi. În timp ce un medic oftalmolog expert a răspuns corect la doar 56 de întrebări, GPT-4 a reușit să răspundă corect la 60 din cele 87 de întrebări. Deși acest scor a fost mai mare decât media de 37 de răspunsuri corecte a medicilor juniori, a fost doar puțin peste media celor trei rezidenți oftalmologi, care au obținut 59.7 de răspunsuri corecte în medie.

Studiul, publicat în revista PLOS Digital Health, a implicat testarea mai multor modele de limbaj de învățare, printre care și predecesorul lui GPT-4, GPT-3.5, precum și modelele Google PaLM 2 și Meta’s LLaMA. Participanții, inclusiv cinci oftalmologi experți, trei rezidenți oftalmologi și doi medici juniori nespecializați, au primit același examen simulat, format din 87 de întrebări cu alegere multiplă.

Desfășurarea studiului și rezultate

Deși rezultatele studiului sugerează un potențial semnificativ al utilizării modelelor de limbaj de învățare în domeniul medical, cercetătorii au subliniat și anumite riscuri și preocupări. Printre acestea se numără faptul că studiul a avut un număr limitat de întrebări, ceea ce ar putea duce la rezultate variate în practică. De asemenea, modelele de limbaj de învățare au tendința de a „halucina” sau de a inventa informații, ceea ce poate genera inexactități și riscuri în diagnozele medicale. Mai mult, lipsa de subtilitate a acestor sisteme poate duce la o interpretare eronată a datelor și la pierderea unor detalii importante.

Cu toate că modelele de limbaj de învățare, cum ar fi GPT-4, demonstrează un potențial considerabil în asistarea în evaluările oftalmologice, este important să se abordeze cu precauție și să se țină cont de riscurile asociate. Utilizarea acestor tehnologii în domeniul medical necesită o abordare atentă și echilibrată pentru a asigura că beneficiile lor depășesc cu mult riscurile și potențialele neajunsuri.

Leave a Reply

Your email address will not be published. Required fields are marked *