„Der Gender Bias in der KI: Herausforderungen und Lösungsansätze„
Liebe Wnet-Frauen und alle an unserem Netzwerk Interessierte,
die fortschreitende Integration von Künstlicher Intelligenz (KI) in verschiedene Lebensbereiche wirft zunehmend Fragen zur Geschlechtergerechtigkeit auf. Gender Bias in KI-Systemen, die auf Vorurteilen und Stereotypen beruhen, hat ernsthafte Auswirkungen auf die Chancengleichheit und Vielfalt. Auch wenn es uns nicht immer bewusst ist, hat die künstliche Intelligenz (KI) Einzug in unseren Alltag gefunden. Die meisten Menschen sind tagtäglich mit KI in Berührung, ohne sich dessen bewusst zu sein:*.
- Wir nutzen Mobiltelefone mit Gesichtserkennung,
- Inhalte auf Social-Media werden für uns personalisiert,
- wir nutzen digitale Assistenzsysteme für das Erfassen von Texten und für Recherchen zu den unterschiedlichsten Themen und Produkten,
- unser Zuhause wird durch das Nutzen von smarten Geräten immer intelligenter,
- wir nutzen KI-gestützte Systeme im Verkehr zum Planen von Routen oder als Fahrassistenz, unsere Bankgeschäfte werden verschlüsselt abgewickelt,
- oder wir erhalten Empfehlungen zu Produkten und zum nächsten Film, den wir anschauen sollten.
Die Potentiale von KI sind beeindruckend, doch so wie jede Technologie hat sie auch ihre Schattenseiten, eine davon ist der Genderbias, der durch KI verstärkt wird. Gender Bias (Geschlechtsbezogener Verzerrungseffekt) bezieht sich auf eine verzerrte Wahrnehmung durch sexistische Vorurteile und Stereotypen.* Es gibt drei Formen von Gender Bias:
1) Die unkritische Wahrnehmung des Mannes als Norm in patriarchalen Gesellschaften,
2) Die fehlende Berücksichtigung des biologischen oder soziale Geschlechts ,
3) Die unterschiedliche Bewertung gleicher Eigenschaften oder Verhaltensweisen abhängig vom Geschlecht.
Genderbias in KI bezieht sich auf die Verzerrungen, die in KI-Systemen auftreten können, wenn sie auf Daten trainiert werden, die geschlechtsspezifische Vorurteile enthalten. Diese Verzerrungen können dazu führen, dass KI-Systeme Entscheidungen treffen, die Frauen oder andere Gruppen benachteiligen. Beispielsweise kann ein KI-System – das auf Daten trainiert wurde, die geschlechtsspezifische Vorurteile enthalten – Frauen bei der Einstellung im Beruf diskriminieren oder Frauen bei der medizinischen Versorgung benachteiligen. Es ist wichtig, dass KI-Systeme so entwickelt werden, dass sie fair und gerecht sind und keine geschlechtsspezifischen Vorurteile enthalten.*
Der Gender Data Gap (von englisch gender „soziales Geschlecht“) oder Geschlechter-Datenlücke bezieht sich auf die fehlende oder unzureichende Datenerhebung für ein bestimmtes Geschlecht bei Datenerhebungsverfahren, die gesellschaftlich, wirtschaftlich, medizinisch, kulturell oder auch in Bezug auf Sicherheitsaspekte relevant sind.* Es gibt eine geschlechtsspezifische Lücke in wissenschaftlichen Daten, die eine dezidiert weibliche Form hat.* Der Gender Data Gap bezieht sich nicht nur auf Frauen, sondern auch auf andere Geschlechter. Die fehlende Berücksichtigung geschlechtsspezifischer Unterschiede bei Datenerhebungen stellt eine subtile Form von Diskriminierung dar und kann für alle Geschlechter fatale Folgen haben.
Deshalb greifen wir das Thema auf und diskutieren es gemeinsam mit Fachreferent:innen bei der diesjährigen Wnet-Impulstagung.
Darüber hinaus erwartet euch wieder ein Jahr mit unterschiedlichen Veranstaltungen, die dem Wnet-Motto folgen: Frauen vernetzen sich, um beruflich und persönlich zu wachsen.
Wir als Wnet-Vorstand wünschen euch gutes Netzwerken!
Kathrin Pichler
Wnet Präsidentin