Alle Meldungen »

Aktuelles

Fairness und Chancengleichheit durch Algorithmen: Wie kann das gelingen?

Code beeinflusst, wer zum Vorstellungsgespräch eingeladen wird. Code weiß, was beim Online-Shopping „ebenfalls interessieren könnte“. Code steuert die Wahrnehmung unserer Arbeitswelt, wenn wir Berufe „googeln“. Algorithmische Systeme wirken längst in unserer Gesellschaft mit. Sie lernen von Daten aus der realen Welt, mit denen Menschen sie füttern – und übernehmen deren Vorurteile und Ungleichheiten ihrer Lebenswelt. Das betrifft vor allem auch Geschlechterstereotype.

Wie sieht ein verantwortungsvoller Umgang mit algorithmischen Systemen aus? Wie können sie gestaltet werden, um Menschen fair und neutral zu behandeln? Diese Fragen stehen im Mittelpunkt des 4. Fachtags des Projekts „Gender. Wissen. Informatik. Netzwerk zum Forschungstransfer des interdisziplinären Wissens zu Gender und Informatik (GEWINN)“ am 25. April 2019 von 9:30 bis 16:30 Uhr an der Technischen Universität München. Rund 70 Personen aus Wirtschaft und Wissenschaft treffen sich, um sich zu „Gender in algorithmischen Systemen“ auszutauschen.

Bild: Christian Schmid

Der Handlungsdruck ist angesichts der fortschreitenden Digitalisierung vieler Lebensbereiche groß: „Ohne Intervention führen algorithmische Systeme zu einer Fortschreibung existierender Geschlechterrollen und -bilder“, so Prof. Dr. Nicola Marsden, wissenschaftliche Leiterin des GEWINN-Projekts. Algorithmen sind nichts anderes als Rechenvorgaben, die die häufigsten Daten in einer großen Datenmenge finden, die mit einer bestimmten Eigenschaft korrelieren. Anders gesagt: Sie „lernen“ unsere Stereotype. „Im Umkehrschluss kann das im Hinblick auf den Arbeitsmarkt bedeuten, dass auf lange Sicht nur Menschen, deren Biografien diesen Mustern entsprechen, die Chance bekommen, sich in einem bestimmten Berufsfeld zu beweisen“, befürchtet Marsden.

Wie kann gegengesteuert werden, damit Frauen nicht aufgrund ihrer geringen Repräsentanz für einen Beruf als weniger geeignet erscheinen? Was muss passieren, damit algorithmische Systeme Daten nicht unbemerkt in einen anderen Kontext transportieren, zum Beispiel aus privaten sozialen Netzwerken in berufliche Bereiche? Und worin liegen die Chancen, durch algorithmische Systeme mehr Fairness und Gerechtigkeit zu ermöglichen?

In insgesamt neun Workshops diskutieren die Teilnehmerinnen und Teilnehmer verschiedene Aspekte dieser Thematik. Keynote-Sprecherin Ulrike Irmler von Microsoft spricht zum Thema „Gender im Design von Personalisierungsalgorithmen“. In den interaktiven Sessions werden Wege gesucht, wie die IT mit mehr als zwei Geschlechtern umgehen kann und wie Diskriminierungen in Algorithmen rechtlich verhindert werden können. Die Spieleindustrie wird auf ihre Diversityfreundlichkeit geprüft und ein Roboter diskriminierungsfrei programmiert. Zum Abschluss gibt es Einblicke in den ersten KI-Hackathon exklusiv für Frauen, durchgeführt von der Deutschen Telekom: Das Gewinnerinnenteam präsentiert die Lösung, mit der es die Jury überzeugt hat.

In einer digitalisierten Lebens- und Arbeitswelt sollte gelten: „Gender Equality by Design“: „Algorithmische Systeme stellen notwendigerweise Ausschlüsse her“, betont Nicola Marsden, „es ist wichtig, sie von vorneherein so zu gestalten, dass überprüfbar ist, ob hier ungerechtfertigt diskriminiert wird." Der Fachtag in München gibt Hinweise, wie Designprozesse algorithmischer Systeme aktiv unterstützt werden können.

www.gender-wissen-informatik.de/Fachtage/Muenchen

 

GENDER//WISSEN//INFORMATIK" in den soziale Netzwerken