Einfach hirnreißend

Vor 60 Jahren: Die Dartmouth 
Conference legte einen Grundstein 
für die Entwicklung der Künstlichen Intelligenz. Heute sind »denkende« Apparate längst Alltag. Überholen 
die Maschinen bald ihre Erfinder?

  • Tom Strohschneider
  • Lesedauer: 13 Min.

Manchmal beginnen Revolutionen mit einem Förderantrag über vergleichsweise schlappe 13.500 US-Dollar. »Es soll versucht werden herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die zurzeit dem Menschen vorbehalten sind, zu lösen und sich selbst weiter zu verbessern«, mit diesen Worten baten Marvin Minsky, John McCarthy und andere um finanzielle Unterstützung für ein zweimonatiges Seminar im Jahr 1956.

Zehn Pioniere, so der Plan, sollten am Dartmouth College in Hanover im US-Bundesstaat New Hampshire »einen Sommer lang« daran arbeiten, wovon heute mal in besorgt warnender, mal in euphorisch hoffnungsfroher Absicht die Rede ist: an Künstlicher Intelligenz. Man glaube, dass »eine sorgfältig zusammengestellte Gruppe von Wissenschaftlern« gemeinsam »bedeutsame Fortschritte« erzielen könne.

Und das taten sie dann auch. Zwar ging es nicht so schnell wie anfangs gedacht. Schon gar nicht konnte die Nuss »innerhalb einer Generation im Wesentlichen« geknackt werden. Doch inzwischen, vor allem weil genügend Daten immer schneller von Computern verarbeitet werden können, wodurch Maschinen in die Lage versetzt werden zu lernen, ist Künstliche Intelligenz - kurz: KI - längst alltäglich geworden: Autonome Autos, sprechende Smartphones, Computer, die Texte lesen, schreiben oder Sprachen übersetzen, oder der Einsatz humanoider Roboter sind heute praktisch alltäglich.

60 Jahre nach dem »Dartmouth Summer Research Project on Artificial Intelligence« ist denn auch unbestritten, welche Bedeutung das Treffen für die Wissenschaft und die technologische Entwicklung hatte. Es ist keine gerade Linie von Alan Turing über die Arbeiten John von Neumanns, von der Unterscheidung in schwache (etwa für Spracherkennung) sowie starke KI (etwa als logisches Denken) bis zu den postbiologischen Visionen von heute, die Künstliche Intelligenz als Mittel zur Überwindung des »natürlichen« Todes ansehen. Es hat viel länger gedauert als von Herbert Simon vorausgesagt, bis ein Rechner gegen einen Schachweltmeister gewinnt. Es gab lange Durststrecken in der Erforschung. Doch heute ist wieder von einem Durchbruch die Rede.

Wie weit man wirklich auf dem Weg zu Künstlicher Intelligenz vorangekommen ist, darüber gibt es ganz unterschiedliche Meinungen. Unlängst hat der Rechtsausschuss des Europaparlaments den Entwurf einer Entschließung vorgelegt, in dem es um »Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik« geht - und um Künstliche Intelligenz. Man stehe »an der Schwelle einer Ära«, in der »immer ausgeklügeltere Roboter, Bots, Androiden und sonstige Manifestationen Künstlicher Intelligenz anscheinend nur darauf warten, eine neue industrielle Revolution zu entfesseln, die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird«, heißt es darin. Mehr noch: Die Europapolitiker gehen davon aus, »dass letzten Endes die Möglichkeit besteht, dass die KI die intellektuellen Fähigkeiten des Menschen innerhalb nur weniger Jahrzehnte in einer Weise überflügeln könnte«, die nicht bloß enorme Risiken und Potenziale in sich birgt, sondern »die Fähigkeit der Menschheit, ihre eigene Schöpfung zu kontrollieren und folglich vielleicht auch die Fähigkeit, Herr über ihr eigenes Schicksal zu bleiben und für das Überleben der Spezies Mensch Sorge tragen zu können, ernsthaft gefährden könnte«.

Experten wie Wolfgang Wahlster vom Deutschen Forschungszentrum für Künstliche Intelligenz sind 60 Jahre nach dem historischen Treffen von Hanover etwas skeptischer. Ja, die Künstliche Intelligenz sei heute »zwar besser als natürliche Dummheit, aber die menschliche Intelligenz ist doch bei weitem überlegen«, sagte der Geschäftsführer der wirtschaftsnahen Forschungseinrichtung unlängst dem Magazin »Wired«. Man habe zwar »spektakuläre Systeme entwickelt«, die »an manchen Stellen sogar« den Menschen übertrumpfen. Aber überholt haben die Maschinen ihre Erfinder noch längst nicht, meint Wahlster: »Davon sind wir meilenweit entfernt.«

Und dennoch reißen die Warnungen vor den möglichen Folgen selbstlernender intelligenter Maschinen nicht ab. Wissenschaftler wie Stephen Hawking oder Unternehmer wie Elon Musk haben sich mehrfach entsprechend geäußert - und das, obwohl Musk mit seinem Tesla-Auto einer der prominentesten Vertreter des autonomen Fahrens ist.

Es gibt Appelle wie jenes »Digitale Manifest« aus der Feder von Experten unterschiedlichster Fachbereiche, die »zur Sicherung von Freiheit und Demokratie« aufrufen, weil eine »Automatisierung der Gesellschaft mit totalitären Zügen« durchaus wahrscheinlich sei - »im schlimmsten Fall droht eine zentrale künstliche Intelligenz zu steuern, was wir wissen, denken und wie wir handeln«.

Es gibt Papiere wie jenes der »Stiftung für Effektiven Altruismus«, die »historisch beispiellose ethische Herausforderungen« sieht und einen Vergleich mit der Atomgefahr zieht: Von der KI würden »neben globalen Chancen auch globale Risiken ausgehen, welche diejenigen etwa der Nukleartechnologie - die historisch ebenfalls lange unterschätzt wurde - übertreffen werden«.

Was als Künstliche Intelligenz bezeichnet wird, ist aus unserem Leben freilich längst nicht mehr wegzudenken: Selbstfahrende Autos, Algorithmen, die aus dem Verhalten menschlicher Nutzer Schlüsse ziehen und entsprechende Vorschläge unterbreiten, sprechende Smartphones und Maschinen, die selbsttätig an Börsen handeln oder Informationen zu Nachrichten verarbeiten. Als vor ein paar Monaten eine Software im Go-Spiel gegen die menschlichen Großmeister Fan Hui und Lee Sedol gewann, lief die Debatte über die möglichen Folgen der KI einmal mehr auf allen Kanälen. Wieder wurde die Frage gestellt: Überflügeln uns die Maschinen? Und wann?

Der Hirnforscher Ad Aertsen hat vor einigen Jahren in einem noch heute äußerst lesenswerten Suhrkamp-Bändchen mit Gesprächen »über die Zukunft von Mensch und Technologie« die sehr grundsätzliche Frage aufgeworfen, ab wann man überhaupt von Künstlicher Intelligenz sprechen kann. »Was meint man eigentlich mit Intelligenz, oder anders gesagt, wann würde man nun wirklich sagen, dass eine intelligente Leistung vorliegt?«, zeigte sich der Experte vom Bernstein Center in Freiburg skeptisch. Schließlich könnte man ebenso gut sagen, die Maschine, der »intelligentes« Tun nachgesagt wird, erfülle einfach nur eine Funktion, die vom Menschen zuvor implementiert werden musste. Wenn man sich solche Apparate von außen anschaue, »dann sieht das ganz intelligent aus«, sagt Aertsen. »Aber wenn man weiß, wie die Maschine gebaut wurde, dann löst sich die Frage« nach ihrem KI-Gehalt »irgendwie auf«.

Ähnlich sieht es der Philosoph Roberto Casati, der kritisiert, »dass wir den Begriff der Intelligenz missbräuchlich verwenden, wenn es um Künstliche Intelligenz geht«. Gegenüber dem Magazin »Brand eins« sagte er unlängst, »die Systeme, die wir meinen, sind ja sehr dumm. Ihre Dummheit ist ihre Stärke. Statt Maschinen intelligenter zu machen, sollte man diese Stärke weiterentwickeln.« Derartige Maschinen könnten dann »vieles sehr schnell erledigen, viel schneller als wir. Sie sind großartig, um Routinen abzuarbeiten. Aber sie verstehen nicht, was sie tun, sie haben kein Bewusstsein für das, was sie durchführen.«

Geoff Hinton, ein britischer Informatiker und Kognitionspsychologe, glaubt daher, dass es noch ein weiter Weg ist bis zu einer Qualität Künstlicher Intelligenz, bei der man sich Sorgen machen müsste. Dem »Spiegel« sagte er vor einiger Zeit, »die Probleme würden dann beginnen, wenn sich Maschinen ihre eigenen Ziele setzen«. Davon aber könne heute noch keine Rede sein. Zwar nimmt das rasant zu, was man die »Intelligenz« der »Manifestationen« von KI nennen kann - aber wirklich autonom sind die Maschinen laut Hinton noch lange nicht. Und selbst wenn: Seiner Meinung nach könnte man diese Autonomie technisch leicht einschränken.

Genau darum geht es letzten Endes den Europa-Abgeordneten mit ihrem Entwurf für eine Roboter-Richtlinie der EU: um Einhegungen, Regeln, Kontrollmechanismen, Fördergrundsätze, bürokratische Begleitung - und vor allem um den Anschluss, den die dafür zuständige Politik an die wissenschaftliche Debatte und die technologische Forschung erst wieder finden müsste.

Immer öfter wendet sich inzwischen die Politik auch Fragen der KI zu, warnt vor den Folgen des Einsatzes intelligenter Maschinen für den Arbeitsmarkt, entwirft Vorschriften für neue Technologien und berät sich mit Philosophen über das Ausmaß der »Revolution«. Doch eine wirkliche Res publica, eine öffentliche Angelegenheit, ist KI nicht. Es fehlt an Sachverstand, es fehlt an eindeutigen Begriffen. Der Einfluss privater Interessen in Forschungs- und Anwendungsförderung ist immens; die demokratische Kontrolle läuft teils meilenweit hinterher. Digitalisierung hat als Politikfeld zwar inzwischen Einzug gehalten, aber während es auf der einen Seite wie ein Feld der Durchsetzung von Unternehmensinteressen aussieht, dominiert auf der anderen Seite eine angstbesetzte Skepsis, die letzten Endes auch verhindert, dass sich die demokratische Öffentlichkeit mehr mit den Risiken, aber auch Potenzialen etwa der KI befasst.

Der Publizist Thomas Wagner hat vor einiger Zeit in einem Buch vor dem Aufziehen einer »Robokratie« gewarnt. Die Kritik zielt auch auf Protagonisten, die mit weitgehenden Visionen für Schlagzeilen sorgen - wie Propheten einer Art neuzeitlicher Religion und kapitalistischer Esoterik, deren Schwerpunkt Wagner im Silicon Valley sieht, wo Unternehmen, Wissenschaft und Militär gemeinsam die Technik ihren Zwecken unterwerfen. Einer der Treiber dieser »Robokratie« ist für Wagner Ray Kurzweil, Visionär, Forscher, Unternehmer - und inzwischen Leiter der technischen Entwicklung bei Google.

Bei dem Konzern, der längst mehr ist als ein Suchmaschinenbetreiber, ist Sundar Pichai derzeit Chef - und er sieht vor allem die positiven Potenziale der KI. »Technologie hatte immer ein großes Veränderungspotenzial, aber sie hat zugleich das Leben der Menschen immer besser gemacht«, sagte er unlängst der »Welt« - und verwies unter anderem auf Anwendungsmöglichkeiten bei der Heilung von Krankheiten. Im Übrigen sei es nichts Neues, dass der technologische Fortschritt tiefe Spuren in der Arbeitswelt hinterlässt - ob daraus neue soziale Verwerfungen folgen, ist eine Frage der Geschwindigkeit, mit der die Veränderungen ablaufen. Und einer der politischen Begleitung solcher Prozesse. »Die Entwicklung, die wir erwarten«, glaubt Pichai, »wird sich über einen längeren Zeitraum hinziehen.«

Im Rechtsausschuss des Europaparlaments ist man hin- und hergerissen. Einerseits geht man davon aus, »dass ein Großteil der Arbeiten, die heute von Menschen erledigt werden, in Zukunft von Robotern übernommen werden, was Fragen über die Zukunft der Beschäftigung und der Tragfähigkeit der Sozialversicherungssysteme aufwirft«. Andererseits erwartet man »Effizienzvorteile und Kosteneinsparungen« sowie automatisierte Anwendungen, die es »möglich machen, dass Menschen keinen gefährlichen Bedingungen mehr ausgesetzt werden müssen«. In dem Entwurf des Ausschusses ist sogar von einem »auf längere Sicht« bestehenden »Potenzial für einen praktisch unbegrenzten Wohlstand« die Rede.

Die Frage ist freilich auch in einer Welt von »intelligenten« Robotern: Was ist Wohlstand? Und wer sorgt für welche Verteilung des Kuchens? Es ist schließlich auch eine Welt voller intelligenter Maschinen vorstellbar, die ökologisch korrekt und friedlich enormen Reichtum produzieren und gesellschaftlich sehr nützliche Dienstleistungen erbringen - die Früchte der Arbeit aber weiterhin so ungleich verteilt werden wie heute. Vorschläge wie die einer Maschinensteuer oder einer Umverteilung der Digitalisierungsdividende sind Teil einer Suche nach neuen Wegen. Auch die Debatte über ein Grundeinkommen hat im Zuge der neuen Welle der Automatisierung und des immer schneller laufenden technologischen Fortschritts eine Renaissance erlebt.

Doch im Alltagsdenken löst die »Künstliche Intelligenz« oftmals noch ganz andere Reaktionen aus. Es geht um ethische Fragen, um die Sorge, zum bloßen Anhängsel einer Technokultur zu werden, in denen dann auch noch kapitalistische Imperative maßgeblich sind. Was machen »emphatische Roboter« mit uns, die heute schon in der Altenpflege zum Einsatz kommen? Wie gefährdet sind der freie Wille und die politische Freiheit, wenn Algorithmen sich in unsere individuellen Entscheidungen einmischen? Vom möglichen und umstrittenen Einsatz von »intelligenten« Maschinen durch Polizei und Militär einmal ganz abgesehen.

Bei der Basler »Stiftung für Effektiven Altruismus« sieht man einerseits eine lange Tradition: »Irrationale Ängste vor neuartigen, im Grunde vorteilhaften Technologien sind nach wie vor weit verbreitet«. Jedoch seien Bedenken hinsichtlich neuartiger Technologien auch »nicht immer irrational«. Ob eine Technologie zum Wohle der Menschheit eingesetzt oder ob sie für diese zur Gefahr wird, hängt von den politisch gestaltbaren Bedingungen ihres Einsatzes ab. Man kann zuspitzen: Was wollen wir erlauben und was nicht? »Selbstgesteuerte Autos könnten unser Leben erleichtern und Menschenleben retten, aber komplexe Computeralgorithmen können auch die Börse abstürzen lassen.«

Und das sind allenfalls die Vorboten. Für Vordenker wie den nicht unumstrittenen Ray Kurzweil steht der Schritt über eine entscheidende Schwelle für die Menschheit praktisch kurz bevor: Er geht vom Eintritt einer »Singularität« in den nächsten Jahrzehnten aus - gemeint ist ein »Zeitabschnitt, in dem der technische Fortschritt so schnell und seine Auswirkungen so tiefgreifend sein werden, dass das menschliche Leben einen unwiderruflichen Wandel erfährt«.

Kurzweil geht sehr weit, in seinen Prognosen verschmelzen menschliche Technik und Intelligenz, der Fortschritt verläuft seiner Meinung nach so rasant, dass man von heute aus gar nicht über einen bestimmten Punkt in der Zukunft hinausblicken kann - denn wir wissen ja nicht, welche Entscheidungen über ihre Entwicklung die Maschinen dann treffen. Kurzweil hat auch viel Kritik für seine Thesen geerntet, aber er steht in einer prominenten Tradition.

John von Neumann etwa, einer der Pioniere der Informatik, glaubte schon in den 1950er Jahren, dass sich die Geschichte der Menschheit »einer entscheidenden Singularität nähert, nach welcher das menschliche Leben, wie wir es kennen, nicht weitergehen kann«. In den 1960ern prognostizierte der britische Mathematiker Irving John Good eine »Intelligenzexplosion«, die dazu führen würde, dass Maschinen ohne menschliches Zutun ihre Nachfolger-Generationen entwickeln.

Ein Punkt, der für diese Zukunftsbeschreibungen zentral ist: die Geschwindigkeit der technologischen Entwicklung. Kurzweil geht davon aus, dass das 21. Jahrhundert gemessen an der Menschheitsgeschichte nicht 100 Jahre Weiterentwicklung bringt, sondern ungefähr 20 000. Die entscheidende Kraft des Fortschritts sei heute die exponentielle Geschwindigkeit, mit der sich Neuerungen durchsetzen - in der Speicherkapazität und der für die Bewältigung enormer Datenmengen nötigen Rechenleistung; in der Signalübertragung, der Software-Entwicklung, der Nano-Technologie und so fort.

Im Rechtsausschuss des Europaparlaments diskutiert man derweil über die Forderung nach einer Europäischen Agentur für Robotik und Künstliche Intelligenz, »damit das erforderliche technische, ethische und regulatorische Fachwissen zur Verfügung steht, um die relevanten öffentlichen Akteure auf EU-Ebene und nationaler Ebene in ihren Bemühungen zu unterstützen, eine rechtzeitige und fundierte Antwort auf die neuen Chancen und Herausforderungen zu geben«. Man muss das auch so lesen: Bisher steht der Politik das erforderliche Fachwissen nicht zur Verfügung.

Über die Frage, warum das so ist, lässt sich vortrefflich streiten. Die Neigung, die Lösung neuer Probleme mit den Instrumenten der Vergangenheit anzugehen, dürfte dabei eine Rolle spielen. Wenn man etwa an die Arbeitswelt denkt, erscheinen manchem offenbar die 1970er Jahre als Paradies wohlfahrtsstaatlicher Entwicklung und umverteilungspolitischen Klassenkompromisses - und so strebt man dahin zurück. Doch dies wird eine Sackgasse sein. Ein zweites Problem ist: Der andere Weg, der in die Zukunft, ist mit Unsicherheiten gepflastert. Wer hat schon das Internet in seiner heutigen Form vorausgesehen? Auch Ray Kurzweil nicht.

Und was die »Überwindung des Todes« angeht, die Marvin Minsky vor vielen Jahren als ein Ziel der Künstlichen Intelligenz angesehen hat - davon ist man noch ziemlich weit entfernt. Minsky starb Anfang dieses Jahres im Alter von 88 Jahren. John McCarthy, der 1955 den Förderantrag für die Dartmouth Conference ein Jahr später formulierte und damit zum Urheber des Begriffes »Künstliche Intelligenz« wurde, lebt schon seit 2011 nicht mehr. Nathaniel Rochester und Claude Shannon, die ebenfalls zu den Pionieren von Hanover gehörten, starben bereits 2001.

Sie haben damals eine »Revolution« losgetreten, mit einem Förderantrag über 13 500 US-Dollar - und die nächsten Wellen der Entwicklung der KI kommen bestimmt. Mit welchen Folgen? Das wird umstritten bleiben. Neil Jacobstein, der an der Stanford-University forscht und auch für die von Kurzweil ins Leben gerufene Singularity University für Künstliche Intelligenz und Robotik arbeitet, hat unlängst gesagt, er »liege nicht nachts ängstlich wach«, weil ihn der Gedanke an Künstliche Intelligenz und Robotik wach halte. Sondern ihn treibe etwas ganz anderes um - die menschliche Dummheit sei es, vor der er sich fürchte.

#ndbleibt – Aktiv werden und Aktionspaket bestellen
Egal ob Kneipen, Cafés, Festivals oder andere Versammlungsorte – wir wollen sichtbarer werden und alle erreichen, denen unabhängiger Journalismus mit Haltung wichtig ist. Wir haben ein Aktionspaket mit Stickern, Flyern, Plakaten und Buttons zusammengestellt, mit dem du losziehen kannst um selbst für deine Zeitung aktiv zu werden und sie zu unterstützen.
Zum Aktionspaket

Linken, unabhängigen Journalismus stärken!

Mehr und mehr Menschen lesen digital und sehr gern kostenfrei. Wir stehen mit unserem freiwilligen Bezahlmodell dafür ein, dass uns auch diejenigen lesen können, deren Einkommen für ein Abonnement nicht ausreicht. Damit wir weiterhin Journalismus mit dem Anspruch machen können, marginalisierte Stimmen zu Wort kommen zu lassen, Themen zu recherchieren, die in den großen bürgerlichen Medien nicht vor- oder zu kurz kommen, und aktuelle Themen aus linker Perspektive zu beleuchten, brauchen wir eure Unterstützung.

Hilf mit bei einer solidarischen Finanzierung und unterstütze das »nd« mit einem Beitrag deiner Wahl.

Unterstützen über:
  • PayPal