• Kultur
  • Künstliche Intelligenz

Vom Algorithmus diskriminiert

Suchmaschinen im Internet benachteiligen all jene, die keine Männer sind. Ihre Technik ist alles andere als geschlechtsneutral

  • Thomas Gesterkamp
  • Lesedauer: 5 Min.
Der Algorithmus zählt auf diesem Bild mehr Männer. Die Wahrscheinlichkeit, dass er eine Frau für die Führungsposition vorschlägt, darf damit aber nicht sinken.
Der Algorithmus zählt auf diesem Bild mehr Männer. Die Wahrscheinlichkeit, dass er eine Frau für die Führungsposition vorschlägt, darf damit aber nicht sinken.

»Kaum jemand wird auf den Gedanken kommen, dass die Xing-Suche Expertinnen des gleichen Berufszweigs komplett ausschließt«, schrieb die Bloggerin Lisa Ringen bereits 2017 zur Kritik des Online-Karrierenetzwerks. Wer eine männliche Berufsbezeichnung in die Suche eingebe, erhalte aber nur Ergebnisse zu männlichen Experten und auch beim Scrollen durch die Ergebnisliste bei der Konkurrentin Google entstehe der »unterschwellige Eindruck, Männer seien die erfolgreicheren, kompetenteren Fotografie-, Beratungs- und Grafik-Spezialisten«. 

Mit der Wirklichkeit habe diese selektive Darstellung erst einmal wenig zu tun, Grund sei vielmehr die rein mathematische Logik des genutzten Algorithmus. Gängige Suchmaschinen können zum Beispiel die Wörter Architekt und Architektin nicht als Synonyme erkennen, auf Bildschirmen und Displays erscheint daraufhin die irritierte Nachfrage: »Meinten Sie Architekt?« Die männliche Form einer beruflichen Tätigkeit wird bei Recherchen im Internet viel häufiger eingegeben. Eine sprachliche Kleinigkeit, aber mit gravierenden und ausgrenzenden Folgen: Wenn Anbieterinnen im Netz die weibliche Schreibweise verwenden, sind sie für ihre potenzielle Kundschaft schwieriger auffindbar als ihre männlichen Kollegen. Ein halbes Jahrzehnt nach Lisa Ringens Beschwerde über Xing ist die Debatte über die sogenannte digitale Diskriminierung auch in der Wissenschaft angekommen. 

Mögliche Betroffene dieser Form der Benachteiligung können neben Frauen auch Menschen mit schwarzer Hautfarbe sein. Ein immer wieder angeführtes Beispiel ist der automatische Seifenspender, dessen Sensoren nur auf die Hände weißer Personen reagieren. Während sich dieses Phänomen mit technischen Mitteln relativ leicht abstellen lässt, hat die Diskriminierung nach Geschlecht eher strukturelle Ursachen. Denn die eingeschriebenen Vorurteile beruhen auch auf der (manchmal unbewussten) geschlechterpolitischen Ignoranz der Programmierenden. Der Anteil männlicher Mitarbeiter beträgt in den wichtigen Unternehmen des Silicon Valley über 60 Prozent, in den Technologieabteilungen von Facebook, Microsoft, Uber, Google oder Apple sogar mehr als 80 Prozent. Hierzulande sieht es ähnlich aus: Laut Zahlen der Statistikbehörde Eurostat war im Jahr 2021 immer noch nur knapp jede fünfte deutsche IT-Fachkraft weiblich.

Die Unternehmensberaterin Janina Kugel, früher im Vorstand von Siemens, fordert ein Umdenken in den Chefetagen. Die Tech-Branche müsse »das soziale Gefüge einer Gesellschaft berücksichtigen und diverse Erfahrungen und Lebensrealitäten einschließen«, mahnte sie 2021 in einer Kolumne im Manager Magazin. Es reiche eben nicht, die Welt aus einer männlichen Ingenieurs-Perspektive »als eine Ansammlung von Nullen und Einsen zu sehen«. Auch Sichtweisen aus Sozial- und Geisteswissenschaften seien wichtig, denn Künstliche Intelligenz könne nur »mathematische Entscheidungen treffen, keine ethischen«.

Mieses Erbe

»Der Algorithmus ist ein Macho«, so bezeichnete es ein Artikel im Magazin Science Notes. Bei Zoom-Konferenzen und ähnlichen Diskussionsformaten erkennt die Software weibliche Stimmen und Gesichter schlechter, fand eine Studie von Wissenschaftlerinnen an der dänischen Universität Sonderborg heraus. Stellengesuche von Frauen behandelt die Künstliche Intelligenz, kurz KI genannt, häufig nachrangig und der elektronische Speicher trägt dazu bei, dass meist Männer auf den ersten Plätzen der Bewerbungslisten landen. Denn gefüttert wird die Maschine vorwiegend mit Erfahrungswerten und Auswahlkriterien aus der Vergangenheit, obwohl die genutzten Informationen manchmal längst überholt sind. Oft stützen sie sich auf die traditionelle Verteilung der Geschlechterrollen, im Extremfall können die Inhalte auch explizit rassistisch oder sexistisch sein.

»Sind die Daten mit Ungleichheit gespickt, so schlägt sich diese Ungleichheit auch in den Resultaten der Algorithmen nieder«, resümiert der Medienwissenschaftler Tobias Matzner, der an der Universität Paderborn zum Thema forscht. KI ist also keineswegs so fair, unvoreingenommen und egalitär wie immer wieder behauptet wird. »Neutralität gibt es für Algorithmen nicht«, betont Matzner. Vielmehr wiederholen sich im digitalen Raum die althergebrachten Muster der realen Welt – und das hat erhebliche Konsequenzen für die Entscheidungsprozesse in Betrieben und Institutionen. Die nur scheinbar objektiven Suchmaschinen bestimmen in wachsendem Maße mit, wer an einer beliebten Hochschule zugelassen wird, wer einen Immobilienkredit zu attraktiven Konditionen erhält oder wer eine günstige Versicherungspolice abschließen kann.

Eine Untersuchung der US-amerikanischen Carnegie Mellon University hat ermittelt, dass Frauen bei Google weniger gut bezahlte Stellen in Führungspositionen angezeigt bekommen als Männer. Schon 2015 geriet Amazon in die Schlagzeilen, weil ein im Konzern entwickeltes Programm weibliche Bewerberinnen bei der Vergabe lukrativer Jobs systematisch aussortierte. Die (mittlerweile überarbeitete) Software war darauf ausgerichtet, Anfragen von Menschen mit über zehn Jahren Berufserfahrung zu bevorzugen – ein Kriterium, das eher männliche Bewerber erfüllten. 2020 wurde bekannt, wie Geschlechterstereotype die Stellenausschreibungen bei Facebook prägen: Die Suche nach einem LKW-Fahrer (männlich/weiblich/divers) bekamen Männer zehn Mal häufiger angezeigt als Frauen, die Anzeige für eine Erzieherinnenstelle (m/w/d) hingegen landete 20 Mal so oft bei weiblichen Nutzerinnen.

Nur Nullen und Einsen?

Eine Studie der Antidiskriminierungsstelle des Bundes listete 2019 ähnliche Beispiele aus der Sozialverwaltung und dem Gesundheitswesen auf. In Österreich ist ein Algorithmus äußerst umstritten, der die beruflichen Möglichkeiten von Arbeitslosen abschätzen soll. Frauen erhalten dort schon Minuspunkte, falls sie Kinder haben – und generell, weil ihnen aufgrund der fragwürdigen historischen Daten schlechtere Jobchancen prognostiziert werden. Auf dieser Basis folgt dann die Einstufung in eine hohe, mittlere oder niedrige Kategorie bei den Angeboten der Jobvermittlung zur Wiedereingliederung. So reproduziert und verfestigt das digitale Bewertungssystem die weibliche Benachteiligung auf dem Arbeitsmarkt.

Dagegen anzugehen ist für die Betroffenen schwierig, denn die Auswahlkriterien von computergesteuerten Systemen sind viel versteckter als die klare Entscheidung eines Prüfgremiums der Personalabteilung nach einem persönlichen Gespräch. Die durch elektronische Filter abgelehnten Kandidatinnen können den Vorgang »nicht richtig nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist«, sagt Lisa Hanstein. Einst Softwareentwicklerin bei SAP, setzt sie sich inzwischen an der Europäischen Akademie für Frauen und Politik in Berlin für mehr Transparenz und den Abbau digitaler Diskriminierung ein. »IT gilt als sehr rational«, betont Hanstein, »dabei vergessen wir, dass sie von Menschen hergestellt wird und diese Menschen in Stereotypen denken«. Oft entstünden die programmierten Algorithmen allerdings »ohne böses Zutun oder Absicht«. 

nd Journalismus von links lebt vom Engagement seiner Leser*innen

Wir haben uns angesichts der Erfahrungen der Corona-Pandemie entschieden, unseren Journalismus auf unserer Webseite dauerhaft frei zugänglich und damit für jede*n Interessierte*n verfügbar zu machen.

Wie bei unseren Print- und epaper-Ausgaben steckt in jedem veröffentlichten Artikel unsere Arbeit als Autor*in, Redakteur*in, Techniker*in oder Verlagsmitarbeiter*in. Sie macht diesen Journalismus erst möglich.

Jetzt mit wenigen Klicks freiwillig unterstützen!

Unterstützen über:
  • PayPal