nd-aktuell.de / 24.03.2023 / Politik / Seite 1

Künstliche Intelligenz: Der lange Weg zur Lernmaschine

Es dauerte viele Jahrzehnte, bis Algorithmen selbst einfachste Probleme erlernen konnten. Denn die Mathematik legte den Forscherinnen Steine in den Weg

Julian Hitschler
Sensoranlage im Opel-Werk Bochum, 1999.
Sensoranlage im Opel-Werk Bochum, 1999.

Die Menschheit spekuliert schon seit vielen Jahrhunderten über die Möglichkeit, denkende Apparate zu erschaffen – sei es nun durch technische Raffinesse oder durch Magie. Der arabische Gelehrte al-Dschazarī baute mechanische Apparaturen, die Personen nachempfunden waren. Er beschreibt unter anderem einen Pfauenbrunnen mit automatisierten Dienern. Menschenähnliche Wesen aus Menschenhand wie etwa die Figur des Golem sind schon seit langem Stoff für Mythen und Sagen[1]. Einer der berühmtesten Romane des 19. Jahrhunderts, Mary Shelley‹s »Frankenstein«, handelt von einem solchen Wesen.

Bis vor wenigen Jahrzehnten blieben solche Überlegungen Spekulation oder bestenfalls feinmechanische Spielerei. Doch Mitte des 20. Jahrhunderts trat erstmals eine Technologie auf den Plan, die neue Spekulationen entfachte, man könnte künstliches Bewusstsein erschaffen. Nach dem Zweiten Weltkrieg wurden die ersten generalisierten Rechenmaschinen, heute bekannt als Computer – die für mathematische Kalkulationen flexibel einsetzbar waren, im großen Maßstab gebaut. Die Konstruktion einer solchen generalisierten Rechenmaschine hatte Charles Babbage erstmals im 19. Jahrhundert vorgeschlagen – der Mathematikerin Ada Lovelace fiel daraufhin auf, dass man mit einer solchen – damals rein theoretischen – Maschine noch ganz andere Probleme lösen werden könne als rein arithmetische Aufgaben.

Die Fähigkeiten real existierender Computer fachten in den 1950ern sofort den Enthusiasmus der Forscherinnen und Forscher an. Innerhalb weniger Jahre könnten ihre kognitiven Fähigkeiten die des Menschen überflügeln. 1958 sagten die Informatiker H. A. Simon und Allen Newell voraus, Maschinen würden menschliche Großmeister innerhalb von zehn Jahren im Schach schlagen.

Innerhalb der ersten Jahren der Forschung zur künstlichen Intelligenz sollte sich herausstellen, dass man, um Computer immer komplexere Probleme lösen zu lassen und ihnen mehr und mehr menschenähnliche Fähigkeiten zu schaffen, im Wesentlichen mit zwei Klassen von Problemen konfrontiert war: Wollte man erreichen, dass Maschinen komplexe Schlussfolgerungen ziehen, musste man ihnen ihnen die Regeln des logischen Denkens anhand eines komplexen Regelwerks vermitteln. Wollte man aber erreichen, dass sie selbst solche Regeln und Strategien entwickelten, muss man ihnen vor allem das Lernen beibringen.

Eines der frühesten Lernprogramme war der sogenannte Perceptron-Algorithmus, der einer Schicht von Nerven im Gehirn nachempfunden war. Wissenschaftlerinnen und Wissenschaftler stellten schnell fest, dass er in der Lage war, einfach mathematische Funktionen sehr schnell nachzubilden. Doch 1969 machten die KI-Forscher Marvin Minsky und Seymour Papert eine enttäuschende Entdeckung: Zwar konnte man dem Perceptron-Algorithmus die einfachen logischen Funktionen für »Und« beziehungsweise »Oder« beibringen. Doch schon bei wenig komplexeren Problemen scheiterte er aufgrund von inhärenter Beschränkung. In mathematischen Begriffen ausgedrückt konnten Perceptrons nur lineare Funktionen erlernen, nicht aber Probleme, denen kein einfaches Proporzverhältnis zugrundelag.

Minskys und Paperts Ergebnisse sorgten für eine regelrechte Krise der Forschung zur künstlichen Intelligenz, die Regierung der USA und Großbritanniens strichen die Fördermittel zusammen. Man konzentrierte sich in der Folge wieder darauf, symbolische Regeln für Computerprogramme zu formulieren, mithilfe derer sie zu selbständigen Schlussfolgerungen in der Lage sein sollten. Doch stieß man dabei immer wieder auf dasselbe Problem: Die Welt war zu kompliziert, der Umfang des notwendigen Vorwissens zu groß, die Ausnahmen vom Regelwerk zu mannigfaltig, als dass sie eine menschliche Programmiererin auch nur annähernd vollständig hätte aufschreiben können.

Eine Lösung für das Problem fand die Wissenschaft einige Jahre später: Es war durchaus möglich, lernenden Algorithmen auch komplexere, nichtlineare Funktionen beizubringen. Der Schlüssel hierfür war, nicht nur eine einzelne Neutronenschicht im Gehirn nachzuempfinden, sondern mehrere solcher Schichten aufeinanderzulegen. Dies ermöglichte es den Programmen, komplizierte Funktionen, wie zum Beispiel Parabeln, aus einfachen linearen Komponenten zusammenzufügen.

Die Grundidee war zwar recht einfach, doch stellte es sich heraus, dass die mathematischen Probleme, die bei der Konstruktion solch komplexerer KI-Modelle entstanden, alles andere als einfach zu lösen waren. Unter anderem hatten mehrschichtige Perceptrons die unangenehme Eigenschaft, dass es für sie keine eindeutige beste Lösung gab, man wusste also nie, ob der Algorithmus an der falschen Stelle stecken bleiben würde. Die KI-Forschung der letzten Jahrzehnte hat sich vor allem darauf konzentriert, diesen mathematischen Problemen mit verschiedenen Tricks und Kniffen beizukommen. Doch auch noch heute, im Zeitalter von ChatGPT[2], brauchen Computer viel menschliche Hilfestellung, ebenso wie gigantische Rechenzentren und Unmengen an Energie, um bestimmte menschenähnliche Fähigkeiten zu erlernen. Von einem künstlichen Bewusstsein sind sie noch immer weit entfernt.

Links:

  1. https://www.nd-aktuell.de/artikel/1171963.science-fiction-kuenstliche-intelligenz-angst-gegner-oder-verbuendete.html
  2. https://www.nd-aktuell.de/artikel/1171974.kuenstliche-intelligenz-mythos-ki.html