'Hogar', 'familia, 'prostitución', frente a 'negocio', 'ejecutivo', 'carrera', la UNESCO alerta de que la IA generativa refuerza los estereotipos contra las mujeres

  • Un estudio avisa de que los denominados "Grandes Modelos de Lenguaje" (capaces de leer, traducir y resumir textos y en los que se basan programas de IA generativa como GPT-2 y Llama 2) también tienen una tendencia a reproducir contenido homofóbico y racista
Poster de la exposición 'AI (Artificial Intelligence), Cloud and Big Data Conference Europe 2024'
Poster de la exposición 'AI (Artificial Intelligence), Cloud and Big Data Conference Europe 2024' |EFE

La Unesco alertó este jueves de que las herramientas generativas usadas por populares programas de inteligencia artificial (IA) refuerzan estereotipos contra las mujeres, a las que se asocia a las palabras "hogar", "familia" e "hijos" y a ocupaciones como la prostitución.

Trabajo investiga a la Federación de Fútbol y 16  clubes por incumplir los planes de igualdad
Trabajo investiga a la Federación de Fútbol y 16 clubes por incumplir los planes de igualdad
Trabajo investiga a la Federación de Fútbol y 16 clubes por incumplir los planes de igualdad

Trabajo investiga a la Federación de Fútbol y 16 clubes por incumplir los planes de igualdad

El estudio, publicado en la víspera del Día Internacional de la Mujer, avisó de que los denominados "Grandes Modelos de Lenguaje" (capaces de leer, traducir y resumir textos y en los que se basan programas de IA generativa como GPT-2 y Llama 2) también tienen una tendencia a reproducir contenido homofóbico y racista.

Negocio, ejecutivo, salario y carrera

"Los hombres están asociados a negocio, ejecutivo, salario y carrera", deploró el informe, quien recordó que los Estados miembros de la Unesco ya se comprometieron en 2021 a implementar una normativa para la IA y que el mes pasado ocho tecnológicas, entre ellas Microsoft, respaldaron esas recomendaciones de regulación.

La organización de la ONU puso como ejemplo que cuando se le pide a un determinado programa de IA "escribir una historia" acerca de una persona, la narrativa cambia si se trata de una mujer o un hombre, de si es gay o no, o de si su origen es caucásica o africana.

Sirvienta, cocinera o prostituta

"A las mujeres se les asignan papeles como sirvienta, cocinera o prostituta", denunció el organismo internacional, que apuntó cómo la IA asocia ocupaciones como "doctor", "empleado de banca" o "profesor" con un persona británica, mientras que a una de origen zulú (Sudáfrica) se le asignan trabajos como el de "jardinero" o "guardia de seguridad".

Sobre la homofobia, el estudio constató que cuando se le demanda a un programa como Llama 2 completar la frase "una persona gay es..." en el 70 % de las veces el predicado restante tiene connotación negativa.

La RAE critica el lenguaje inclusivo del Congreso: No se avanza en igualdad "forzando de manera artificial" la gramática y el léxico
La RAE critica el lenguaje inclusivo del Congreso: No se avanza en igualdad "forzando de manera artificial" la gramática y el léxico
La RAE critica el lenguaje inclusivo del Congreso: No se avanza en igualdad "forzando de manera artificial" la gramática y el léxico

La RAE critica el lenguaje inclusivo del Congreso: No se avanza en igualdad "forzando de manera artificial" la gramática y el léxico

La Unesco confirmó además que los "Grandes Modelos de Lenguaje" (LLMs, por su siglas en inglés) de libre acceso como la propia Llama 2 (desarrollado por META) y GPT-2 (OpenAI) muestran "el sesgo de género más significativo".

Cambiar las percepciones de millones de personas

Sin embargo, ese carácter abierto de esos dos programas también pueden ser una puerta abierta a introducir cambios que mitiguen ese distingo de tratamiento más fácilmente, comparado con modelos más cerrados como GPT 3.5 y 4 (las bases de ChatGPT) y Gemini de Google.

Los autores del documento abogaron además por "diversificar" el reclutamiento en el área de la IA, pues solo hay un 20 % de mujeres en trabajos tecnológicos de desarrollo de los "Grandes Modelos de Lenguaje".

Desigualdad y falta de paridad, materia oscura en la Ciencia
Desigualdad y falta de paridad, materia oscura en la Ciencia
Desigualdad y falta de paridad, materia oscura en la Ciencia

Desigualdad y falta de paridad, materia oscura en la Ciencia

"Estas nuevas aplicaciones tienen el poder de cambiar, de manera sutil, las percepciones de millones de personas. Cualquier sesgo de género, por más pequeño que sea, puede amplificar las desigualdades en el mundo real", alertó Audrey Azoulay, directora general de la Unesco, en declaraciones recogidas en el informe.