
Am 5. März 2025 thematisierte Karin Zeisel, die Bundesfrauenvorsitzende der Fraktion Christlicher Gewerkschafter:innen in der Gewerkschaft GPA, den neuen KI Gender Gap anlässlich des Internationalen Frauentages. Sie stellte fest, dass die vorherrschende männliche Perspektive bei der Entwicklung von Künstlicher Intelligenz zu einer digitalen Zukunft führt, die nicht alle gleich behandelt. „Die Geschlechterlücke im Bereich der Künstlichen Intelligenz muss sofort geschlossen werden“, forderte Zeisel. Der Gender Data Gap verschärft diese Problematik, da Frauen in den Daten und Entscheidungsträgern der KI-Modelle häufig nicht berücksichtigt werden. Laut der globalen Untersuchung waren im Jahr 2022 nur rund ein Drittel der KI-Talente Frauen, und die Nutzung von KI-Tools durch Frauen ist sogar um 24,6 Prozent geringer als bei Männern, wie ots.at berichtet.
Selina Haupt, Co-Founderin des FinTechs Moneten, betont zudem, dass bestehende Diskriminierungen durch den Gender Bias in der KI nicht ignoriert werden dürfen. Eine unzureichende Berücksichtigung von Frauen und diverser Gruppen in Trainingsdaten führt dazu, dass Algorithmen stereotype Muster und Verzerrungen verstärken. Zum Beispiel hat Amazon eine KI-gestützte Recruiting-Software entwickelt, die Männer deutlich bevorzugte, da ihre Datenbasis fast ausschließlich aus männlichen Bewerbern bestand. Haupt fordert daher die Einführung von Bias-Audits zur regelmäßigen Überprüfung von Algorithmen und sicherzustellen, dass einschließlich der Datensätze attraktivere und gerechtere KI-Anwendungen geschaffen werden. Die Dringlichkeit dieser Maßnahmen bestätigt die BaFin, die vor den gesellschaftlichen Risiken warnt, die aus diesen Ungleichheiten resultieren können, wie it-finanzmagazin.de erläutert.
Die Probleme im Bereich KI erstrecken sich auch auf die Finanzindustrie, wo geschlechtsspezifische Ungleichheiten in den Angeboten vorherrschen. Haupt stellt klar, dass KI-Systeme zur Bewertung von Kreditwürdigkeit und Risikoprofilen bestehende Ungleichheiten weiter verschärfen können. Ein Beispiel dafür ist die Apple-Card, die Frauen bei der Kreditzuteilung benachteiligte, selbst wenn sie eine bessere Bonität aufwiesen. Diese und ähnliche Probleme zeigen auf, wie wichtig es ist, die Relevanz von Inklusion und Diversität bereits in der Entwicklung von Algorithmen zu implementieren, um die digitale Zukunft gerechter zu gestalten.
Ort des Geschehens
Details zur Meldung