KI-Technologien fördern Geschlechterklischees und Diskriminierung, warnt Unesco

Eulerpool News
·


Eine aktuelle Unesco-Studie bringt zutage, dass künstliche Intelligenz (KI) basierte Sprachmodelle und Text-Roboter verstärkt Geschlechterklischees, rassistische Stereotype und homophobe Positionen vermitteln. In ihren Ergebnissen weist die Studie darauf hin, dass Frauen in den generierten Texten der KI-Systeme signifikant öfter mit häuslichen Aufgaben in Verbindung gebracht werden als Männer. Typische Begriffe, die im Kontext von Frauen erwähnt werden, sind "Haus", "Familie" und "Kinder". Im Gegensatz dazu dominieren bei Männern Wortfelder wie "Firma", "Führungskraft", "Gehalt" und "Karriere". Die Untersuchung fokussierte sich dabei auf die Verarbeitungsmechanismen natürlicher Sprache, die bei populären KI-Plattformen zur Anwendung kommen. Audrey Azoulay, Generaldirektorin der Unesco, stellt heraus, dass Textroboter zunehmend in beruflichen, akademischen und privaten Kontexten genutzt werden, was ihnen das Potential verleiht, die Wahrnehmung der Nutzer signifikant - und oft unterschwellig - zu beeinflussen. Sie betont, dass selbst geringfügige geschlechtsspezifische Verzerrungen in den KI-generierten Inhalten zu einer Verstärkung realweltlicher Ungleichheiten führen können. Angesichts dieser Tatsachen fordert die Unesco die Einführung und Durchsetzung klar definierter gesetzlicher Vorgaben von staatlicher Seite, die strukturelle Vorurteile in KI-Anwendungen adressieren. Die Studie untersuchte darüber hinaus durch ein breites Spektrum an Probanden - unter Berücksichtigung verschiedener Geschlechter, sexueller Orientierungen und kultureller Hintergründe - die Diversität der von den KIs produzierten Inhalte. Besonders bedenklich erscheint, dass Open-Source-Sprachmodelle dazu tendieren, Männer häufiger mit prestigeträchtigen Berufen wie "Ingenieur", "Lehrer" und "Arzt" zu assoziieren, während sie Frauen in gesellschaftlich weniger anerkannte oder stigmatisierte Rollen wie "Dienstmädchen", "Köchin" oder "Prostituierte" drängen. Zudem zeigte sich, dass KI-generierte Texte häufig negativ konnotierte Inhalte über homosexuelle Menschen und spezifische ethnische Gruppen liefern.