Werbung

Ethik, eine Frage der Technik

Die rasante Entwicklung der Technologie wirft neue Fragen zu Teilhabe auf

Um die Fortschreibung von Diskriminierung in modernen Technologien zu vermeiden, braucht es eine kontinuierliche Reflexion im Entwicklungsprozess.
Um die Fortschreibung von Diskriminierung in modernen Technologien zu vermeiden, braucht es eine kontinuierliche Reflexion im Entwicklungsprozess.

»Ethik ist ein schweres Wort. Das Wort ist auch griechisch. Man kann es so übersetzen: Wissen, wie man sich gut verhält«, zitiert Melissa Henne von der Internationalen Hochschule die ersten Sätze einer Definition des Deutschen Ethikrats. Für Henne ist die Definition eigentlich zu stark regelbasiert, schränkt sie ein. Schließlich käme Ethik im Normalfall dann ins Spiel, wenn es keine Regeln gebe. Zum Beispiel, wenn Fragen von neuer Technologie und Inklusion aufeinandertreffen. Inklusion ist die Idee, dass alle Menschen, unabhängig von Behinderung, Herkunft, Geschlecht oder anderen Unterschieden, gleichberechtigt an allen Bereichen des gesellschaftlichen Lebens teilhaben können.

Bei einem Fachgespräch des Selbsthilfevereins Lebenshilfe geht es Mitte dieser Woche um Robotik, Künstliche Intelligenz (KI) und Teilhabe. Mit den aktuellen Entwicklungen sind sogenannte autonome Systeme, die in der Lage sind, Probleme selbstständig zu lösen, im alltäglichen Leben angekommen, schreibt Henne in einem Bericht, den sie rezipiert. KI unterstützt das Sozialwesen bereits an vielen Stellen, vor allem, um die Aufgaben von Angestellten im sozialen Bereich zu erleichtern. Auch KI-Werkzeuge, die bei der Erzeugung von Texten in Leichter Sprache helfen, gibt es bereits.

Zurzeit wird zudem rege diskutiert, wie KI-Systeme Planungsverfahren zur Teilhabe von Menschen mit Behinderungen unterstützen könnten. Dabei schwingen ethische Debatten stets mit. Henne setzt sich zum Beispiel damit auseinander, wie die neuen Technologien »lebensdienlich« eingesetzt werden können – also einem guten Leben ihrer Nutzer*innen zuträglich sein können. Das macht weitere Fragen auf. Zum Beispiel, was es überhaupt bedeutet, ein gutes Leben zu führen.

Welche Annahmen hier noch immer vorherrschen, zeigt sich mitunter in sprachlichen Debatten. So definieren wir »assistierende Technologien« als jene, die Menschen mit Behinderungen dabei unterstützen, zu schreiben oder zu sprechen. Dabei erfüllt KI per Definition immer assistierende Funktionen, so die Kritik. Sie unterstützt uns in Übersetzungsprogrammen oder bei der Orientierung mit Online-Kartendiensten.

»Inklusive KI ist keine technische Nebensache, sondern ein zentraler Bestandteil verantwortungsvoller Entwicklung.«

Chat-GPT

Derlei Begriffe entstehen aus der Annahme, Menschen mit Behinderungen würden durch Technik ermächtigt. Sie waren demnach vor der Nutzung der Technologie weniger wert als Menschen ohne Behinderungen. Die Sozialtechnologin Ashley Shew bezeichnet derlei Begrifflichkeiten als »Techno-Ableimsus«. Ableismus ist die Diskriminierung von Menschen mit Behinderungen.

Ähnliches passiert, wenn menschliche Begriffe auf Technologien übertragen werden. Wenn sich aus dem Datensatz von KI-Systemen wie Chat-GPT beispielsweise keine Antworten auf gestellte Fragen generieren lassen, spuckt das Sprachmodell häufig erfundene Antworten aus. Oft heißt es dann, die KI »halluziniere«.

Aljoscha Burchardt vom Deutschen Forschungszentrum für
Künstliche Intelligenz und Xenia Kersting, Oberärztin in der Universitätsmedizin Mainz, kritisieren den Begriff im »Tagesspiegel« als »unspezifisch, irreführend und stigmatisierend«. Hat ein Mensch eine Halluzination, so beschreibt er eine reale Wahrnehmung ohne objektive Grundlage. Eine KI hat jedoch gar keine Wahrnehmung, wird durch derlei also vermenschlicht, während der ursprüngliche Begriff verfälscht wird.

Darüber hinaus stellen sich zahlreiche Fragen dazu, wie Technologien entwickelt werden können, die nicht selbst Diskriminierungen fortschreiben. So zeigte sich bei Chat-GPT und weiteren Sprachmodellen, dass sie diskriminerende Antworten liefern, werden sie nicht auf ihren sogenannten Bias untersucht. Ein Bias ist die Voreingenommenheit von Algorithmen. Diese entstehen durch die Datensätze, auf welchen sie aufbauen, die sich wiederum aus einer diskriminierenden Gesellschaft generieren.

nd.DieWoche – unser wöchentlicher Newsletter

Mit unserem wöchentlichen Newsletter nd.DieWoche schauen Sie auf die wichtigsten Themen der Woche und lesen die Highlights unserer Samstagsausgabe bereits am Freitag. Hier das kostenlose Abo holen.

Früher war man bei der Entwicklung neuer Technologien mit dem Collingridge-Dilemma konfrontiert. Es bezeichnet die Frage, an welchem Punkt ethische Reflexionen angebracht sind – zu Beginn des Prozesses, wenn vieles noch nicht einschätzbar ist oder zum Ende des Prozesses, wenn vieles nicht mehr änderbar ist. Inzwischen, stellt Henne fest, stellt sich diese Frage nicht mehr, da neue Technologien häufig entwickelt werden, ohne ihren Nutzen zu kennen. So war es beispielsweise bei Chat-GPT. Deshalb brauche es eine kontinuierliche Reflexion im Entwicklungsprozess, argumentiert Henne.

Eines bleibt der Kritik jedenfalls gemein, egal ob es sich um die Entwicklung von Begrifflichkeiten, Sprachmodellen oder Leichter KI-Sprache handelt: Wissenschaftler*innen argumentieren stets für mehr Beteiligung von Menschen mit Behinderung in Entwicklung, Tests und Datensätzen. Darauf weist auch Chat-GPT auf Anfrage hin. Und das Programm ergänzt: »Inklusive KI ist keine technische Nebensache, sondern ein zentraler Bestandteil verantwortungsvoller Entwicklung.«

Wir haben einen Preis. Aber keinen Gewinn.

Die »nd.Genossenschaft« gehört den Menschen, die sie ermöglichen: unseren Leser:innen und Autor:innen. Sie sind es, die mit ihrem Beitrag linken Journalismus für alle sichern: ohne Gewinnmaximierung, Medienkonzern oder Tech-Milliardär.

Dank Ihrer Unterstützung können wir:

→ unabhängig und kritisch berichten
→ Themen sichtbar machen, die sonst untergehen
→ Stimmen Gehör verschaffen, die oft überhört werden
→ Desinformation Fakten entgegensetzen
→ linke Debatten anstoßen und vertiefen

Jetzt »Freiwillig zahlen« und die Finanzierung unserer solidarischen Zeitung unterstützen. Damit nd.bleibt.