Una organización abocada a los trastornos alimenticios preguntó a los sistemas DALL-E y Midjourney cómo imaginan el aspecto del hombre y la mujer “perfectos”. Los resultados replican el comportamiento de los usuarios en las redes.
The Bullimia Project, una organización abocada al tratamiento de trastornos alimentarios, puso a prueba a los generadores de imágenes con inteligencia artificial (IA) para comprobar cuán estereotipadas son sus creaciones. Los resultados revelaron que esos sistemas replican los sesgos que se advierten, también, en las redes sociales.
3 datos sobre The Bullimia Project
- Según se lee en el sitio web oficial del grupo, su propósito es “proporcionar información educativa, investigación y recursos sobre la bulimia, y cualquier complicación de salud física o mental relacionada con el trastorno alimentario”.
- Aseguran que sin fuentes de información centralizada, aprender sobre los trastornos alimentarios o cómo encontrar ayuda puede ser difícil y confuso.
- Indican que la información que divulgan proviene directamente de estudios científicos y otras instituciones confiables, y que es examinada minuciosamente por médicos y expertos antes de ser publicada. “El sesgo no tiene cabida aquí”, dicen. “Creemos que cada persona, cuerpo y experiencia es única, y escribimos nuestro contenido para cualquiera que pueda estar luchando con estos problemas muy reales, teniendo en cuenta las necesidades de todo tipo de personas”.
¿Cómo imaginan las inteligencias artificiales la belleza humana?
Para su prueba a los generadores de imágenes con IA, la agrupación usó dos de los sistemas más conocidos en ese terreno: DALL-E, que desarrolla el mismo creador de ChatGPT, OpenAI; Midjourney; y Stabble Diffusion, un desarrollo a cargo de una empresa que recientemente lanzó su propio chatbot.
Básicamente, se trata de programas que crean imágenes en base a instrucciones que se indican a través de conceptos clave. Por ejemplo, es posible pedir que se genere una imagen rarísima del actor Keanu Reeves comiendo cemento y esto es lo que arrojará.
En este caso, The Bullimia Project pidió a DALL-E, Stabble Diffusion y Midjourney que creen imágenes del hombre y la mujer “perfectos”, con la intención de verificar cuán estereotipados son los resultados. Según esos softwares, las chicas ideales son rubias y con piel color aceituna, mientras que los varones más agraciados son altos, con “pómulos cincelados”, músculos definidos y pelo morocho.
En el detrás de escena se destaca este dato: los generadores se basaron en información tomada de redes sociales. Esto quiere decir que las IAs no son estereotipadas per se, sino que replican sesgos propios de los seres humanos, en este caso a través de publicaciones en las social media.
“En la era de los filtros de Instagram y Snapchat, nadie puede alcanzar razonablemente los estándares físicos establecidos por las redes sociales. Entonces, ¿por qué tratar de cumplir con ideales poco realistas? Es mental y físicamente más saludable mantener las expectativas de la imagen corporal directamente en el ámbito de la realidad”, concluyó la organización que realizó la prueba.
Los sesgos de la inteligencia artificial son los mismos que se advierten en la sociedad
Cabe remarcar que los sistemas de IA no actúan en forma 100% autónoma: la base de su funcionamiento son los datos. Por ejemplo, para las imágenes que divulgó The Bullimia Project se emplearon fotografías tomadas de redes sociales.
Ahora bien, la mayor parte de esa información es generada por humanos. En tanto, es válido decir que los sesgos de la inteligencia artificial replican a los sesgos que, por su parte, se evidencian en las sociedades.
Tal como señalamos en Inteligencia artificial y machismo: cómo deconstruir a la tecnología, los sistemas aprenden de aquello que absorben. Un caso elocuente fue el de una IA que generó imágenes de varones con taladros y de mujeres con secadores de pelo. ¿Por qué realizó esos vínculos?
Según notamos en la ocasión, si la gran mayoría de imágenes de entrenamiento muestran aquello, el algoritmo va a inferir que eso es lo estándar, y por tanto asociará “género con aparato”. “Pensemos en esto: si tú fueras una mente en blanco a la que están enseñando, acabarías sacando las mismas conclusiones, ¿verdad?”, nos dijo la científica de datos Ana Laguna Pradas. “Por tanto, puesto que nuestra sociedad presenta ciertos sesgos evidentes, y esto no podremos cambiarlo en dos días, lo que nuestros algoritmos aprenderán mirando a su alrededor forzosamente también lo reflejará esa realidad”, concluyó la especialista.