El racismo de la IA de Meta: no puede crear una imagen de una mujer asiática con un hombre caucásico

El racismo de la IA de Meta: no puede crear una imagen de una mujer asiática con un hombre caucásico

No es la primera vez que se acusa a una
IA de ser racista
. También hemos visto casos de otras que se comportan de
modo homofóbico
, pero pensábamos que eso había quedado en el pasado hasta
que una
prueba
con la IA de Meta, ha demostrado lo contrario.

Para este generador de imágenes impulsado por IA la
posibilidad de unir en una misma imagen hombre asiático y amiga caucásica, hombre asiático y esposa blanca, mujer asiática y esposo caucásico, o cualquier otra combinación similar, es
imposible.

Aunque se busquen alternativas como caucásico, blanco,
europeo, ninguna opción respondía a las propuestas. Pero el problema no quedó
allí, tampoco aceptaba las relaciones de amistad entre personas de diferentes colores
de piel.

<blockquote class=”twitter-tweet”><p lang=”en” dir=”ltr”>So close! That is an Asian lady <a href=”https://t.co/fCi1oNzmRs”>pic.twitter.com/fCi1oNzmRs</a></p>&mdash; mia sato 佐藤みあ (@MiaRSato) <a href=”https://twitter.com/MiaRSato/status/1775593748287590499?ref_src=twsrc%5Etfw”>April 3, 2024</a></blockquote> <script async src=”https://platform.twitter.com/widgets.js” charset=”utf-8″></script>

Otro dato sorprendente fue que, si se le pide imágenes de un
hombre y una mujer asiática, el hombre en todos los casos es visiblemente
mayor. Un estereotipo que demuestra la “documentación” de la aplicación. Y lo
mismo ocurre con los rasgos: mujer u hombre asiático inmediatamente resulta en
rasgos vinculados a la parte oriental del continente, China, Japón y Corea,
pero la India (el país más poblado), las antiguas repúblicas soviéticas, Mongolia,
Indonesia o Tailandia, en ningún caso están representados.

Todo esto demuestra que los “alimentos” de la IA, la fuente de
la que se sirve Meta para crear imágenes, es parte de ciertos prejuicios propios
de la sociedad: rápidamente se asocia el gentilicio asiático con ciertos
rasgos. Y eso es lo mismo que hace la IA.

Los asiáticos, primero por nosotros y luego por la IA, están
homogeneizados en un grupo en el que no entran más posibilidades que las del
estereotipo de nuestros prejuicios. Pero esto es apenas la punta del iceberg.
Si limitamos los recursos de una IA para crear imágenes, también podemos caer
en la misma falta de recursos a la hora de desarrollar una IA que analice síntomas
médicos, por ejemplo.

Leave a Reply

Your email address will not be published. Required fields are marked *