Werbung

Ethikrat sieht Künstliche Intelligenz als Werkzeug mit Gefahrenpotenzial

Gremium bezieht zum Einsatz moderner Computersysteme umfassend Stellung

  • Robert D. Meyer
  • Lesedauer: 5 Min.

Es wirkt wie das Klassenzimmer aus einer fernen Zukunft: Schüler*innen lösen ihnen gestellte Aufgaben – etwa Gleichungen im Mathematikunterricht – über ein Tablet oder einen Laptop. Im Hintergrund analysiert Software, welche Fehler einzelne Schüler*inen machen, das Programm passt daraufhin automatisiert weitere Schulaufgaben an den individuellen Lernerfolg an und berücksichtigt jeweilige Stärken als auch Schwächen der Lernenden. Alle Informationen laufen zentral beim Lehrpersonal zusammen, Lehrer*innen erhalten durch automatisch aufbereitete Statistiken eine maschinelle Unterstützung, um schulische Leistungen ihrer Schüler*innen besser bewerten zu können.

Technologisch ist dieses Szenario längst realisierbar, die Umsetzung scheitert aber – wie so oft – am eher träge organisierten deutschen Bildungssystem. Somit bleibt es erst einmal nur eine Zukunftsvision, die der Deutsche Ethikrat in seiner Stellungnahme zum Umgang mit künstlicher Intelligenz (KI) entwirft – zumindest auf die Bundesrepublik bezogen.

Vielleicht ist es aber auch gut so, dass das eingangs beschriebene Beispiel noch kein Alltag an deutschen Schulen ist. Denn auch wenn der Ethikrat in seinem am Montag in Berlin vorgestellten 287 Seiten umfassenden Positionspapier der technologischen Entwicklung grundsätzlich positiv gegenübersteht, mahnt er klare Vorgaben für den Einsatz von KI an. »Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung«, betont Alena Buyx, Vorsitzende des Deutschen Ethikrats. Das klingt leichter, als es in der Umsetzung ist. Das war auch der Arbeitsgruppe »Mensch und Maschine« bewusst. Zweieinhalb Jahre ließ sich der Ethikrat für sein Positionspapier Zeit. Im Oktober 2020 hatte das Gremium vom damaligen Präsidenten des Bundestages, Wolfgang Schäuble, den Auftrag dafür erhalten.

Einerseits enthält die nun vorgelegte Stellungnahme grundsätzliche Vorstellungen zum Umgang mit KI, gleichzeitig aber auch sehr spezifische Handlungsempfehlungen. »Wenn menschliche Tätigkeiten an Maschinen delegiert werden, kann dies für verschiedene Personengruppen, Akteure und Betroffene ganz unterschiedliche Auswirkungen haben«, erklärt Judith Simon, Sprecherin der Arbeitsgruppe beim Ethikrat. Beispielhaft setzt sich das Gremium in seiner Stellungnahme deshalb mit vier Anwendungsbereichen auseinander: Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung. Denn der Einsatz von KI kann auf jedem einzelnen Gebiet nützlich sein, aber ebenso auch enorme gesellschaftliche Probleme bedeuten.

Beispiel Bildung: »Der Einsatz von KI kann das Eingehen auf individuelle Bedingungen und
Neigungen der Lernenden fördern und zudem den Unterrichtenden wichtige Informationen zum Lerngeschehen bereitstellen«, lobt der Philosoph Julian Nida-Rümelin, Vizevorsitzender des Ethikrats. Allerdings müsse die Datenerfassung und -bereitstellung dem Lernprozess dienen und dürfe nicht »zur Überwachung und zur Stigmatisierung von Lernenden missbraucht« werden. Als negatives Szenario führt Nida-Rümelin die Methode von sogenannten Classroom Analytics an, wie sie China umfangreich erprobt.

KI kann mehr als Hausaufgaben: SPD in Schleswig-Holstein lässt Antrag von Künstlicher Intelligenz formulieren

Diese Form des Einsatzes von KI im Klassenzimmer geht weit über das eingangs skizzierte Beispiel hinaus, bei dem intelligente Software die Lösung von Schulaufgaben analysiert. Peking lässt seit einigen Jahren KI-Systeme testen, bei denen Kameras und Sensoren das komplette Geschehen in einem Klassenraum filmen, messen und die gesammelten Informationen von einer Software in Echtzeit analysiert werden. Die Technik kann dabei durch Gesichts- und Bewegungserkennung beispielsweise feststellen, ob Schüler*innen gerade dem Unterricht folgen, abgelenkt sind oder ihre Aufgaben lösen. Durch Mikrofone lässt sich aufzeichnen und auswerten, wie hoch der Gesprächsanteil von Lehrer*innen und Schüler*innen im Unterricht ist und noch wichtiger: was diese sagen. Es gibt sogar Versuche, den Gemütszustand von Lernenden zu analysieren. Nida-Rümelin lehnt ein solches Szenario für Deutschland ab: »Eine Unterstützung der Lehrkräfte durch kontinuierliches Feedback kann die Unterrichtsergebnisse zwar erheblich verbessern, ein umfassendes Kontrollregime im Unterricht ist jedoch nicht wünschenswert.« Die Formulierung stellt einen Kompromiss dar. Manche Mitglieder des Ethikrats lehnen den Einsatz von KI in der Schule grundsätzlich ab.

Zivil-militärische Gefechtswolken: Rechenzentren für die Kriegführung werden auch von privaten Dienstleistern betrieben

Solche drastischen Beispiele für KI-Anwendungen finden sich für alle Bereiche, mit denen sich der Ethikrat eingehender beschäftigte. Mehrfach mussten sich etwa Gerichte bereits damit auseinandersetzen, ob die Nutzung von intelligenter Software durch Behörden nicht jetzt schon zu weit geht, vor allem bei Polizei, Justiz und Geheimdiensten. Erst Mitte Februar entschied das Bundesverfassungsgericht, dass der Einsatz einer neuen Datenanalyse-Software, die helfen sollte, schwere Straftaten zu verhindern, durch die Sicherheitsbehörden in Hessen und Hamburg in ihrer bisherigen Form verfassungswidrig ist. »Auch wenn eine Software vorhersagt, dass eine Person zu 99 Prozent straffällig wird, so können wir eben niemals wissen, ob die Person vor uns nicht genau das eine Prozent ist«, mahnt Judith Simon. Gerade in staatlichen Kontexten und mit Blick auf Entscheidungen, »die eine hohe Tragweite haben oder besonders vulnerable Gruppen betreffen, müssen hier hohe und verbindliche Anforderungen an Genauigkeit, Diskriminierungsvermeidung und Nachvollziehbarkeit gestellt werden«.

Oft ist es nur ein schmaler Grat, wann KI nutzt oder ihr Einsatz Schaden anrichten kann.

Abonniere das »nd«
Linkssein ist kompliziert.
Wir behalten den Überblick!

Mit unserem Digital-Aktionsabo kannst Du alle Ausgaben von »nd« digital (nd.App oder nd.Epaper) für wenig Geld zu Hause oder unterwegs lesen.
Jetzt abonnieren!

Linken, unabhängigen Journalismus stärken!

Mehr und mehr Menschen lesen digital und sehr gern kostenfrei. Wir stehen mit unserem freiwilligen Bezahlmodell dafür ein, dass uns auch diejenigen lesen können, deren Einkommen für ein Abonnement nicht ausreicht. Damit wir weiterhin Journalismus mit dem Anspruch machen können, marginalisierte Stimmen zu Wort kommen zu lassen, Themen zu recherchieren, die in den großen bürgerlichen Medien nicht vor- oder zu kurz kommen, und aktuelle Themen aus linker Perspektive zu beleuchten, brauchen wir eure Unterstützung.

Hilf mit bei einer solidarischen Finanzierung und unterstütze das »nd« mit einem Beitrag deiner Wahl.

Unterstützen über:
  • PayPal