Google impune mai multe restricții asupra inteligenței artificiale, după ce a sugerat oamenilor să pună lipici pe pizza

RMAG news

Liz Reid, șefa căutărilor Google, a recunoscut că motorul de căutare al companiei a făcut unele „prezentări AI ciudate, inexacte sau inutile” după ce au fost lansate pentru toată lumea în SUA.

Ce a făcut Google

Executiva a publicat o explicație pentru răspunsurile mai ciudate generate de AI de la Google într-o postare pe blog, unde a anunțat și că gigantul tech a implementat măsuri de protecție care vor ajuta noua funcție să returneze rezultate mai precise și mai puțin memeorabile.

Reid a apărat Google și a subliniat că unele dintre răspunsurile AI Overview mai exagerate care circulă, cum ar fi afirmațiile că este sigur să lași câinii în mașini, sunt false. Captura virală de ecran care arată răspunsul la întrebarea „Câte pietre ar trebui să mănânc?” este reală, dar a spus că Google a venit cu un răspuns pentru că un site a publicat conținut satiric care abordează subiectul.

„Înainte ca aceste capturi de ecran să devină virale, practic, nimeni nu a întrebat Google acest lucru”, a explicat ea, astfel că AI-ul companiei a făcut legătura cu acel site.

VP-ul Google a confirmat și că AI Overview le-a spus oamenilor să folosească lipici pentru a face ca brânza să se lipească de pizza pe baza conținutului preluat dintr-un forum. Ea a spus că forumurile oferă în general „informații autentice, de primă mână”, dar ar putea duce și la „sfaturi mai puțin utile”.

AI Overview, periculos?

Executiva nu a menționat celelalte răspunsuri virale AI Overview care circulă, dar conform The Washington Post, chat boții le-au spus utilizatorilor că Barack Obama era musulman și că oamenii ar trebui să bea multă urină pentru a-i ajuta să elimine o piatră la rinichi.

Reid a spus că Google a testat intens funcția înainte de lansare, dar „nu există nimic ca atunci când milioane de oameni folosesc funcția cu căutări noi”. Google a fost aparent capabil să identifice modele în care tehnologia sa AI nu a făcut lucrurile bine, analizând exemplele de răspunsuri din ultimele două săptămâni.

Apoi, a implementat protecții bazate pe observațiile sale, începând prin ajustarea AI-ului care să poată detecta mai bine conținutul umoristic și satiric. De asemenea, a actualizat sistemele pentru a limita adăugarea de răspunsuri generate de utilizatori în prezentări, cum ar fi postările de pe rețelele sociale și forumuri, care ar putea oferi oamenilor sfaturi eronate sau chiar dăunătoare. În plus, a adăugat și „restrictii de declanșare pentru interogările în care prezentările AI nu se dovedeau a fi la fel de utile” și a oprit afișarea răspunsurilor generate de AI pentru anumite teme de sănătate.