nd-aktuell.de / 31.08.2016 / Politik

Algorithmen

Smarte Worte II: Sie sind die »neue Weltsprache« und der Rohstoff des vierten Maschinenzeitalters. Und sie brauchen bessere Kontrolle

Man hat sie die »neue Weltsprache« genannt und als einen der Rohstoffe des vierten Maschinenzeitalters bezeichnet: Algorithmen. In einem engeren Sinne versteht man darunter Berechnungsverfahren, mit denen mathematische Fragen gelöst werden können. Breiter gefasst ist ein Algorithmus eine »systematische, logische Regel oder Vorgehensweise, die zur Lösung eines vorliegenden Problems führt« (Werner Stangl). Dabei geht es nicht darum einmalig eine Lösung zu finden, sondern immer. Ein Navigationsgerät soll in jeder Stadt den besten Weg von A nach B finden – das Prinzip soll in jedem Einzelfall funktionieren.

Die politische und ökonomische Bedeutung von Algorithmen ist heute enorm: Sie steuern Fabriken, kaufen an der Börse oder entscheiden welche Nachrichten einem bei Google oder in den Sozialen Medien angezeigt werden und welche eben nicht. Fast überall werden große Datenmengen in staatlicher oder privatkapitalistischer Regie per Algorithmen ausgewertet und so etwa zum Predictive Policing, zur (Massen)Überwachung, zu Produktionsplanung oder zur Organisation des öffentlichen Nahverkehrs eingesetzt.

Damit können Algorithmen bzw. ihre Macher auch Kontrolle über Menschen und unpersönliche Herrschaft ausüben, den privaten Einkauf oder die Wahlentscheidung beeinflussen. Algorithmen können - zum Beispiel in den USA - urheberrechtlich geschützt werden. Als entscheidende Betriebsgeheimnisse stellen sie Produktionsmittel dar, über die eigentumsrechtlich zu verfügen einen Faktor von Macht bilden kann.

Algorithmische Entscheidungen sind häufig für diejenigen, die von ihnen betroffen sind, nicht nachvollziehbar, der Code nicht einsehbar. Dies müsse nicht so sein, sagt zum Beispiel die Gruppe »Algorithm Watch«. Demokratische Gesellschaften hätten die Pflicht eine Nachvollziehbarkeit herzustellen, dies solle durch eine Kombination aus Technologien, Regulierung und geeigneten Aufsichtsinstitutionen passieren.

Eine häufig diskutierte Frage ist, wie Algorithmen in ethisch schwierigen Situationen entscheiden sollen. Was soll das selbstfahrende Auto in einer unausweichlichen Unfallsituation machen: Soll es seine Insassen, eine Menschengruppe auf dem Zebrastreifen oder ein Kind am Straßenrand gefährden? Und wer trägt in einem solchen Fall die Verantwortung - die Firma, die einen Algorithmus einsetzt, die Personen, die ihn nutzen oder die ProgrammiererInnen?

Algorithmen werden auch beim maschinellen Lernen, bekannt unter den Begriffen künstliche Intelligenz oder neuronale Netze, eingesetzt. Hier werden Strukturen erkannt und Rückschlüsse aus vorherigen Ergebnissen gezogen. Lösungen werden bewertet und durch weiteres Probieren verbessert, der Algorithmus trainiert sich selbst. Das kann praktisch sein, wenn es darum geht Katzenbilder oder gar Krebssymptome zu finden, aber problematisch, wenn es um die Bewertung von Menschen geht. Deutet die Stimmlage des neuen Bewerbers auf eine psychische Erkrankung, die Wortwahl auf terroristische Aktivitäten?

Algorithmen sind nicht neutral. Sie werden von Menschen geschrieben, sollen einem von Menschen bestimmten Zweck dienen und verwenden Daten, die in ihrer Struktur von Menschen ausgewählt wurden. Heute sind es vor allem junge, weiße Männer, die Programme schreiben, sie sehen Aufgaben entsprechend aus ihrer Perspektive und lösen sie im Sinne ihres Auftraggebers. Wird der Algorithmus mit Daten gefüttert, die beispielsweise rassistische Strukturen abbilden, kann er nicht anders als diese Strukturen zu reproduzieren.

Algorithmen sind Ausdruck der Verfassung einer Gesellschaft, die sie einsetzt. Algorithmen können auch sehr hilfreich sein, zum Beispiel die Verfügbarkeit disponibler Zeit erhöhen - weil Maschinen Dinge erledigen, die bisher Menschen gemacht haben. Es ist nicht der Algorithmus das Problem, sondern jene sind es, die ihn auf bestimmte Weise interessengeleitet zum Einsatz bringen. (md, tos)

Zum Weiterlesen:

IBM will Flüchtlinge von Terroristen unterscheiden können[1]
Website von algorithmwatch.org[2]
Machines Of Loving Grace: Brauchen wir einen Leinenzwang für Algorithmen?[3]

Links:

  1. http://IBM will Flüchtlinge von Terroristen unterscheiden könnenhttp://www.golem.de/news/big-data-analyse-ibm-will-fluechtlinge-von-terroristen-unterscheiden-koennen-1602-119346.html
  2. http://algorithmwatch.org/
  3. https://www.wired.de/collection/tech/ubernehmt-endlich-verantwortung-fur-eure-algorithmen