- Wirtschaft und Umwelt
- Künstliche Intelligenz
KI und Geschlechterrollen: Achtung, Systemfehler
Künstliche Intelligenz wird in Deutschland von Männern entwickelt. Das könnte schwerwiegende Folgen haben
Von 2023 bis 2040 fallen in Deutschland, dem Institut für Arbeit- und Berufsforschung (IAB) zufolge, rund vier Millionen Arbeitsplätze weg. Das hängt zu einem Drittel mit der demografischen Entwicklung im Land zusammen. Aber auch die Digitalisierung der Arbeit trägt ihren Teil dazu bei. Früher ersetzte Technologie vorrangig Stellen im Niedriglohnsektor, seit dem verstärkten Einsatz Künstlicher Intelligenz (KI) werden auch hochqualifizierte Beschäftigungen automatisiert. Zugleich entstehen, ebenfalls laut IAB, bis 2040 etwa 3,1 Millionen neue Arbeitsplätze – 2,5 Millionen davon aufgrund des Strukturwandels durch die Digitalisierung.
»Verstärkter Technologieeinsatz verändert die Tätigkeiten – und es können auch neue Tätigkeiten entstehen«, schreibt das IAB. Berufe in der Digitalisierungswirschaft sind vielfältig. Prekäre Anstellungen wie Content-Moderation, bei der häufig über Projektarbeit Beschäftigte, sogenannte Gig-Workers oder Plattformarbeitende, Hassrede und Gewalt auf sozialen Plattformen verhindern sollen, werden weiterhin großteils ins Ausland ausgelagert. In Kenia, Uganda und Südafrika kritisieren feministische Ökonominnen seit Jahren auch die Geschlechterperspektive der Ausbeutung als eine Art »digitale Care-Arbeit«.
In Deutschland sind Männer, laut einer Studie des Frauenhofer Instituts, »in Übereinstimmung mit stereotypen Kompetenzzuschreibungen« in den Bereichen Engineering, Architektur und Entwicklung von KI dominierend, während Frauen in »weniger prestigeträchtigen Feldern« wie Datenanalytik und Forschung überwiegen. In der Hauptstadt stelle, so Jan Otto, Erster Bevollmächtigter IG Metall Berlin gegenüber »nd«, zum Beispiel Content-Moderation in von der Gewerkschaft betreuten Betrieben kein Thema dar. Doch: »Bei Abbau- und Sparprogrammen in der Digitalwirtschaft sind Frauen und Menschen mit prekären Aufenthaltstiteln stärker gefährdet.«
Einer Studie des Personalvermittlers Randstadt zufolge sind in Deutschland 74 Prozent der Stellen, die Kenntnisse zu KI voraussetzen, mit Männern besetzt. Innerhalb Europas ist der Unterschied zwischen der Anzahl von Frauen und Männern in diesen Tech-Berufen nur in Belgien höher. In Bereichen, die »Ahnung von Software verlangen«, arbeiten sogar zu 83 Prozent Männer. Weltweit lag der Frauenanteil in KI-Berufen laut dem Global Gender Gap Report des Weltwirtschaftsforums bei etwa 30 Prozent.
KI wird in Deutschland also von Männern entwickelt – mit wirkmächtigen Folgen. Denn die Technik spiegelt in der Regel die Lebensrealität ihrer Entwickler wider. Je vielfältiger die Teams, desto sensibler auch die KI für beispielsweise Ungleichheit. Sind Frauen dagegen unterrepräsentiert, kann das die Datensätze verzerren, die Algorithmen zugrunde liegen, und zu falschen Ergebnissen führen.
Ein prominentes analoges Beispiel für einen derartigen »Bias« in der Forschung ist der Einsatz von Crashtestdummies. In den USA passierten bis in die 2010er Jahre über 80 Prozent von Embryonal-Todesfällen mit bekannter Ursache bei Autounfällen. Sitzgurte, die die Folgen von derartigen Unfällen abschwächen sollen, gibt es bereits seit den 1950er Jahren. Doch erst ab 1996 begannen Forscher*innen deren Wirkung auch mit »schwangeren« Unfallpuppen zu testen. Mit dem Ergebnis: Die Positionierung eines klassischen Sitzgurtes erdrückt bei einem Unfall das ungeborene Kind.
Ein klassisches Beispiel aus der Welt der Digitalisierung dafür, wie sich Diskriminierung in Algorithmen fortsetzt, wenn die verwendeten Daten aus einer diskriminierenden Gesellschaft stammen und nicht entsprechend bearbeitet werden, lieferte der Onlineversandhändler Amazon vor einigen Jahren. Er nutzte ein KI-basiertes System, um Bewerbungsunterlagen zu sichten. Schnell stellte sich heraus: Der Algorithmus sortierte Bewerberinnen automatisch aus. Er orientierte sich an Unterlagen erfolgreicher Bewerber*innen aus der Vergangenheit – hauptsächlich Männer.
Das Frauenhofer Institut schlägt Firmen deshalb vor, auf verschiedene Strategien zur Teilhabe von Frauen in der KI zu setzen. Dazu gehören Diversity-Programme, flexible Arbeitsmodelle, Quereinstiegsprogramme oder interdisziplinäre Teams.
Einen anderen Ansatz bieten gewerkschaftsnahe Strukturen. So beschreiben Christina Colclough und Mirko Herberg von why not lab, eine Organisation, die sich für digitale Arbeitsrechte einsetzt, wie Gewerkschaften bis 2035 Arbeit »rehumanisieren« könnten. In einer Welt, in der perspektivisch digitale Plattformen den Hauptvermittler auf dem Arbeitsmarkt darstellen und algorithmisches Management weit verbreitet sein könnte, müssten Arbeitende demnach eine Gegenmacht darstellen. Dafür müssten sich aber auch Gewerkschaften anpassen. So brauche es beispielsweise Angestellte mit digitalen Kompetenzen und den Zugang der Arbeitnehmer*innenvertretungen zu relevanten Daten.
Auf einen klassischen Weg zu einem gleichberechtigteren Arbeitsmarkt weist zudem Otto von der IG Metall Berlin hin: »Ein Tarifvertrag ist das zuverlässigste Mittel, Beschäftigte gegen Diskriminierung in Bezug auf Entgelt, Qualifizierung und Beschäftigungssicherheit zu schützen.«
Andere Zeitungen gehören Millionären. Wir gehören Menschen wie Ihnen.
Die »nd.Genossenschaft« gehört ihren Leser:innen und Autor:innen. Sie sind es, die durch ihren Beitrag unseren Journalismus für alle zugänglich machen: Hinter uns steht kein Medienkonzern, kein großer Anzeigenkunde und auch kein Milliardär.
Dank der Unterstützung unserer Community können wir:
→ unabhängig und kritisch berichten
→ Themen ins Licht rücken, die sonst im Schatten bleiben
→ Stimmen Raum geben, die oft zum Schweigen gebracht werden
→ Desinformation mit Fakten begegnen
→ linke Perspektiven stärken und vertiefen
Mit »Freiwillig zahlen« tragen Sie solidarisch zur Finanzierung unserer Zeitung bei. Damit nd.bleibt.