KI-Technologien fördern Geschlechterklischees und Diskriminierung, warnt Unesco
Eulerpool News·
Eine aktuelle Unesco-Studie bringt zutage, dass künstliche Intelligenz (KI) basierte Sprachmodelle und Text-Roboter verstärkt Geschlechterklischees, rassistische Stereotype und homophobe Positionen vermitteln. In ihren Ergebnissen weist die Studie darauf hin, dass Frauen in den generierten Texten der KI-Systeme signifikant öfter mit häuslichen Aufgaben in Verbindung gebracht werden als Männer. Typische Begriffe, die im Kontext von Frauen erwähnt werden, sind "Haus", "Familie" und "Kinder". Im Gegensatz dazu dominieren bei Männern Wortfelder wie "Firma", "Führungskraft", "Gehalt" und "Karriere". Die Untersuchung fokussierte sich dabei auf die Verarbeitungsmechanismen natürlicher Sprache, die bei populären KI-Plattformen zur Anwendung kommen.
Audrey Azoulay, Generaldirektorin der Unesco, stellt heraus, dass Textroboter zunehmend in beruflichen, akademischen und privaten Kontexten genutzt werden, was ihnen das Potential verleiht, die Wahrnehmung der Nutzer signifikant - und oft unterschwellig - zu beeinflussen. Sie betont, dass selbst geringfügige geschlechtsspezifische Verzerrungen in den KI-generierten Inhalten zu einer Verstärkung realweltlicher Ungleichheiten führen können. Angesichts dieser Tatsachen fordert die Unesco die Einführung und Durchsetzung klar definierter gesetzlicher Vorgaben von staatlicher Seite, die strukturelle Vorurteile in KI-Anwendungen adressieren.
Die Studie untersuchte darüber hinaus durch ein breites Spektrum an Probanden - unter Berücksichtigung verschiedener Geschlechter, sexueller Orientierungen und kultureller Hintergründe - die Diversität der von den KIs produzierten Inhalte. Besonders bedenklich erscheint, dass Open-Source-Sprachmodelle dazu tendieren, Männer häufiger mit prestigeträchtigen Berufen wie "Ingenieur", "Lehrer" und "Arzt" zu assoziieren, während sie Frauen in gesellschaftlich weniger anerkannte oder stigmatisierte Rollen wie "Dienstmädchen", "Köchin" oder "Prostituierte" drängen. Zudem zeigte sich, dass KI-generierte Texte häufig negativ konnotierte Inhalte über homosexuelle Menschen und spezifische ethnische Gruppen liefern.
EULERPOOL DATA & ANALYTICS
Make smarter decisions faster with the world's premier financial data
Neu
24. Sept. 2024
Brandenburg/Ampel: FDP vor schwerwiegender Entscheidung
24. Sept. 2024
Pistorius als Kanzlerkandidat der SPD? Eine Überlegung
24. Sept. 2024
Kommentatorisches Plädoyer für das Deutschlandticket: Innovationskraft statt Subventionsfalle
24. Sept. 2024
Selenskyjs US-Reise: Kleine Erfolge und große Symbolik
24. Sept. 2024
Brandenburg: Landtagswahl oder kleine Bundestagswahl? - Ein Blick auf die politische Interpretation
24. Sept. 2024