Algorithmus mit Vorbehalten

Künstliche Intelligenz kann Inklusion fördern. Unkritisch eingesetzt bekräftigt sie vorhandene Formen von Diskriminierung

Die Grenze zwischen Mensch und Technologie verschwimmt zunehmend.
Die Grenze zwischen Mensch und Technologie verschwimmt zunehmend.

Eine verzerrte automatisierte Gesichtserkennung des Onlinehändlers Amazon, die schwarze Menschen schlechter identifiziert als weiße. Ein US-Finanzunternehmen, das KI für die Entscheidung über Kreditvergaben einsetzt und plötzlich beginnt, weniger Kredite an Frauen zu vergeben. Dass KI nicht frei von Diskriminierung funktioniert, ist hinlänglich bekannt. Ihr Algorithmus fußt auf einer einseitigen Datenlage und präsentiert voreingenommene Ergebnisse.

Das zeigt sich auch in den Large Language Models (LLMs), die Text erkennen und generieren können und auf großen Datenmengen basieren. Auf ihnen beruhen Anwendungen wie Chat-GPT. Inzwischen arbeiten auch immer mehr sogenannte assistierende Technologien mit LLMs. Sie sollen Kommunikationsmöglichkeiten erweitern und Barrierefreiheit stärken.

Die Software »Be my eyes« (dt.: Sei meine Augen) nutzt zum Beispiel GPT-4, um Bilder oder Texte in Audiodateien zu transformieren. Werden diese Anwendungen nicht auf ihren Bias untersucht, können sie den gegenteiligen Effekt haben, stellte ein Forscher*innenteam der Universität Zürich vergangenes Jahr fest. Das Programm generiert dann Output, der »weniger unterstützend oder sogar diskriminierend gegenüber Menschen mit Behinderungen agiert und durch weitere Marginalisierungen und Gefährdung von Menschen mit Behinderungen den Sinn assistierender Technologien unterminiert«, warnen Rong Li, Ashwini Kamaraj, Jing Ma und Sarah Ebling.

»Der Bias ist eine kontinuierliche Herausforderung, die sich genauso schnell weiterentwickelt wie die Technologie selbst.«

Rong Li, Ashwini Kamaraj, Jing Ma und Sarah Ebling Universität Zürich

Besonders große Datensätze ändern daran per se nichts. Die Forscher*innen plädieren deshalb dafür, einzelne Sprachmodelle kontinuierlich auf ihre Voreingenommenheit zu untersuchen und dabei auf ihr Zusammenspiel mit anderen Diskriminierungsformen, ihre Intersektionalität, zu achten. »Der Bias ist eine kontinuierliche Herausforderung, die sich genauso schnell weiterentwickelt wie die Technologie selbst«, schlussfolgern sie.

Ute Kalender vom Deutschen Ethikrat forscht zu intersektionalen Perspektiven auf Digitalisierung und KI. Ihrer Arbeit zufolge wird regelmäßig auf vermeintliche Interessen von Menschen mit Behinderung zurückgegriffen, um KI gesellschaftlich durchzusetzen. In ihrer Entwicklungspraxis sei der Technologie aber weiterhin ein »androzentrisches Ideal eines autonomen, nicht-behinderten, (hyper-)weißen Menschen eingeschrieben«, schreibt sie in einem Aufsatz.

»Allgemein sind KI-basierte digitale Architekturen für Menschen mit Behinderungen oft schwerer zugänglich als für die vermeintlich Normalen«, erklärt Kalender »nd«. Diese »reibungsbehaftete Zugänglichkeit zu digitalen Architekturen« könne auf verschiedenen Ebenen wirken. Auf der Ebene der digital-sozialen Kluft, laut der Menschen mit Behinderungen zur ärmsten Gruppe weltweit gehören. Geräte, auf denen KI-Anwendungen laufen, sowie KI-Systeme, die in Smart Homes oder KI-basierten Autos zum Einsatz kommen, sind teuer und dementsprechend oft nicht erschwinglich.

nd.DieWoche – unser wöchentlicher Newsletter

Mit unserem wöchentlichen Newsletter nd.DieWoche schauen Sie auf die wichtigsten Themen der Woche und lesen die Highlights unserer Samstagsausgabe bereits am Freitag. Hier das kostenlose Abo holen.

Außerdem seien Programme und Benutzeroberflächen häufig nicht barrierefrei. Das zeige sich zum Beispiel in fehlenden Alt-Texten, die Bilder für Menschen mit Sehschwächen beschreiben sollen, in heller Schrift auf hellem Grund, verschachtelten Sätzen, reduzierten Navigationsmöglichkeiten auf Websites und problematischen Geschwindigkeiten. Darüber hinaus basiert Repräsentation vor allem in den sozialen Medien meist auf stereotypen Vorstellungen von Normalität. Das Videoportal Tiktok ließ Moderator*innen der Seite beispielsweise 2019 explizit Bilder von Menschen mit Behinderungen aussortieren.

Ein dramatisches Beispiel für Ableismus in Technologie und smarter Software sind selbstfahrende Autos. Die Wissenschaftlerin Jutta Treviranus untersuchte, wie automatisierte Fahrzeuge auf eine Person reagieren würden, die im Rollstuhl rückwärts fährt: Sie würden die Person überfahren. Treviranus trainierte daraufhin das Programm, indem sie es mit mehr Daten zu rückwärts fahrenden Personen im Rollstuhl fütterte. Doch je mehr Daten die Software erhielt, desto eher fuhr das Auto die Person um. Die Erklärung: KI rechnet Ausreißer heraus, wenn sie auf statistischen Modellen beruht. Um derlei gefährlicher Diskriminierung vorzubeugen, braucht es also nicht nur andere oder größere Datensätze, sondern diversere Grundlagen und statistische Modelle.

Kalender argumentiert deshalb für eine ganzheitliche Betrachtung. Sollen LLMs künftig tatsächlich inklusiv wirken, müssten sie von Menschen aus diverseren Gruppen gebaut und mit vielfältigen Lernbeispielen trainiert werden. »Allerdings würde das noch immer den Glauben zementieren, dass KI Gesellschaft neutral abbilden oder deren Mannigfaltigkeit gerecht werden könnte«, gibt sie zu bedenken.

- Anzeige -

Andere Zeitungen gehören Millionären. Wir gehören Menschen wie Ihnen.

Die »nd.Genossenschaft« gehört ihren Leser:innen und Autor:innen. Sie sind es, die durch ihren Beitrag unseren Journalismus für alle zugänglich machen: Hinter uns steht kein Medienkonzern, kein großer Anzeigenkunde und auch kein Milliardär.

Dank der Unterstützung unserer Community können wir:

→ unabhängig und kritisch berichten
→ Themen ins Licht rücken, die sonst im Schatten bleiben
→ Stimmen Raum geben, die oft zum Schweigen gebracht werden
→ Desinformation mit Fakten begegnen
→ linke Perspektiven stärken und vertiefen

Mit »Freiwillig zahlen« tragen Sie solidarisch zur Finanzierung unserer Zeitung bei. Damit nd.bleibt.