Las tecnologías de IA promueven los estereotipos de género y la discriminación, advierte la UNESCO

Eulerpool News·

Un estudio reciente de la Unesco revela que los modelos de inteligencia artificial (IA) y los robots de texto basados en IA están transmitiendo cada vez más clichés de género, estereotipos racistas y posturas homofóbicas. Los resultados del estudio indican que las mujeres son asociadas significativamente más a menudo con tareas domésticas en los textos generados por los sistemas de IA que los hombres. Términos típicos que se mencionan en el contexto de las mujeres incluyen "casa", "familia" y "niños". Por el contrario, en el caso de los hombres predominan campos léxicos como "empresa", "ejecutivo", "sueldo" y "carrera". La investigación se centró en los mecanismos de procesamiento del lenguaje natural que se utilizan en plataformas populares de IA. Audrey Azoulay, Directora General de la Unesco, señala que los robots de texto se utilizan cada vez más en contextos profesionales, académicos y privados, lo cual les otorga el potencial de influir significativamente -y a menudo de manera subliminal- en la percepción de los usuarios. Destaca que incluso sesgos de género mínimos en los contenidos generados por IA pueden llevar a una amplificación de las desigualdades del mundo real. Ante estos hechos, la Unesco insta a la adopción y aplicación de directrices legales claramente definidas por parte del Estado, que aborden los prejuicios estructurales en las aplicaciones de IA. Además, el estudio examinó la diversidad de contenidos producidos por las IA a través de un amplio espectro de participantes, teniendo en cuenta diferentes géneros, orientaciones sexuales y antecedentes culturales. Resulta especialmente preocupante que los modelos de lenguaje de código abierto tiendan a asociar a los hombres más frecuentemente con profesiones prestigiosas como "ingeniero", "profesor" y "médico", mientras empujan a las mujeres hacia roles socialmente menos reconocidos o estigmatizados como "criada", "cocinera" o "prostituta". Además, se demostró que los textos generados por la IA a menudo contienen contenidos negativamente connotados sobre personas homosexuales y grupos étnicos específicos.
EULERPOOL DATA & ANALYTICS

Make smarter decisions faster with the world's premier financial data

Eulerpool Data & Analytics