Los beneficios de fumar en niños y otros errores clamorosos de la IA en el Buscador de Google

Los beneficios de fumar en niños y otros errores clamorosos de la IA en el Buscador de Google

Tras un año de pruebas con un número de usuarios limitado, Google
lanzó la semana pasada en Estados Unidos los AI Overviews o resúmenes
generados por IA que preceden a los tradicionales resultados de búsqueda. Estos resúmenes ya están siendo calificados como un “desastre” por
usuarios que denuncian respuestas extrañas de la IA que incluyen aconsejar
añadir pegamento a una pizza o promover los beneficios que tiene fumar en niños.

Una captura de pantalla ampliamente compartida muestra la
respuesta generada por la IA de Google a la consulta ‘queso que no se pega a
la pizza’. El buscador respondió enumerando ‘algunas cosas que puedes intentar’
para evitar el problema. ‘Mezclar queso con la salsa ayuda a añadir humedad al
queso y secar la salsa’, señaló AI Overviews. ‘También puedes agregar
alrededor de 1/8 de taza de pegamento no tóxico a la salsa para darle más
pegajosidad’.

¿De dónde procede semejante respuesta? Algunos usuarios la investigaron y encontraron su origen en una publicación en Reddit de hace 11 años que tenía 8 votos a favor. El pasado mes de febrero, Google llegó a un acuerdo con el popular foro de Internet para entrenar su IA con los datos de la plataforma.

‘Los resultados de búsqueda de IA de Google son un
desastre. Odio que se esté convirtiendo en un recurso en el que ya no se
puede confiar’, señaló Tom Warren, editor senior de The Verge, sobre este caso. El consejo
sobre la salsa de pizza es solo uno de los numerosos ejemplos del
comportamiento extraño de AI Overviews que circulan en las redes sociales.

Una búsqueda sobre qué presidentes de EE.UU. asistieron a la Universidad de Wisconsin-Madison arrojó información igualmente errónea por parte de Google. El buscador afirmó que el expresidente Andrew Johnson, quien murió en 1875, había obtenido 14 títulos de la escuela y se había graduado en 2012 y John Kennedy, asesinado en 1963, en 1993, entre otros errores.

Otro ejemplo mostró resultados para la búsqueda ‘beneficios
para la salud del tabaco para los niños’. La IA de Google respondió
declarando que ‘el tabaco contiene nicotina, lo que puede causar algunos
beneficios a corto plazo, como mayor alerta, euforia y relajación’. También
afirmó que los posibles usos del tabaco incluyen ‘blanquear los dientes’,
entre otros.

Un portavoz de Google dijo: ‘Los ejemplos que hemos visto
son generalmente consultas poco comunes y no son representativos de la
mayoría de las experiencias de las personas’.

‘La gran mayoría de los resúmenes de IA proporcionan
información de alta calidad, con enlaces para profundizar en la web. Nuestros
sistemas apuntan a prevenir automáticamente que aparezca contenido que viole
las políticas de AI Overviews. Si aparece contenido que viole las políticas,
tomaremos las medidas apropiadas’, ha señalado un portavoz de Google en un
comunicado.

Algunos usuarios también han encontrado que la IA parece
confundirse con las búsquedas que piden a Google convertir 1.000 kilómetros
en su equivalente con un objeto específico. Por ejemplo, la búsqueda de un
usuario de ‘1.000 km en naranjas’ recibió otra respuesta disparatada de Google:
‘Una solución al problema de transportar naranjas 1.000 kilómetros es alimentar
a un caballo con 2.000 naranjas a la vez, una por cada kilómetro recorrido, y
vender las 1.000 naranjas restantes en el mercado’.

En otro ejemplo compartido en redes, Google respondió a la
búsqueda ‘cómo tratar el dolor de apendicitis en casa’, con usar hojas
de menta hervidas y una dieta alta en fibra. ‘Corríjanme si me equivoco, pero ¿no
es que no existe tal cosa como un remedio casero para la apendicitis? La IA de
Google sugiere hojas de menta’, señaló el usuario.

Google incluye un descargo de responsabilidad en todas sus
respuestas de AI Overviews que indica que ‘la IA generativa es experimental’.
La empresa asegura que ha colocado salvaguardas en el sistema para asegurar que
no aparezca contenido dañino en los resultados y no usa AI Overviews en
búsquedas de temas potencialmente explícitos o peligrosos. Google tiene
planeado que, antes de fin de año, AI Overviews esté disponible para 1.000
millones de usuarios.

Google fue muy criticada el pasado febrero después de que
la herramienta de generación de imágenes de la IA Gemini mostrara
imágenes inexactas desde el punto de vista histórico, como nazis o papas negros. Google deshabilitó la función y se disculpó,
asegurando que lo arreglaría, pero la capacidad aún no ha regresado al
chatbot.