Künstliche Intelligenz – über die Chancen und Grenzen von Algorithmen

Die Mathematikerin Hannah Fry hat mit ihrem Buch “Hello World. Was Algorithmen können und wie sie unser Leben verändern“, einen guten Überblick geliefert zum Einsatz von KI. Der nüchterne Blick bereichert die aktuelle Diskussion um die Macht und Grenzen der künstlichen Intelligenz. Dies ist eine gute Basis für das Verständnis dessen, was technologisch möglich ist und wie die Auswirkungen einzuschätzen sind. Darauf lassen sich dann auch Folgerungen für unser weiteres Handeln aufbauen.

Die zentralen Thesen von Fry sind die folgenden:

  • Algorithmen können in manchen Teilbereichen bessere Ergebnisse erzielen als Menschen, haben aber auch klare Grenzen.
  • Aktuelle Erfahrungen in den Bereichen Rechtsprechung, Medizin, selbstfahrende Autos, Kriminalität und Kunst zeigen jeweils andere Möglichkeiten des Einsatzes auf. Allen gemeinsam ist, dass die Algorithmen Fehler begehen.
  • Wie mächtig die Algorithmen sind, hängt auch von der Macht ab, die wir Menschen ihnen geben. Aktuell gibt es keine Bedrohung durch eine böse KI, sondern durch den Missbrauch der KI durch Menschen und ihre Firmen oder Staaten.
  • Daten sind für das Funktionieren von Algorithmen wichtig. Der aktuelle Umgang mit ihnen gleicht dem Wilden Westen, in dem jeder seinen Vorteil sucht, weil man viel Geld verdienen kann. Das führt zu einem unkontrollierten Machtzufluss bei einigen Unternehmen und steht im Widerspruch zum Allgemeinwohl.
  • Es gibt keine perfekten Algorithmen. Und es gibt keine perfekten Menschen. Das beste Zusammenspiel beider kann nur erfolgen, wenn man Algorithmen nie zu viel Macht gibt und den Menschen immer zur Wachsamkeit zwingt.

Hannah Fry will in ihrem Buch vor allem das Zusammenspiel von Algorithmen und Mensch untersuchen. Als Mathematikprofessorin am University College London kann sie gut und klar erklären, was Algorithmen können und wo sie wie zum Einsatz kommen. Auf die andere, existenzielle Frage, was einen Menschen zum Menschen macht, kann sie naturgemäß in ihrem Buch wenig eingehen. Die Lektüre lohnt sich, um die Arbeitsweisen und Einsatzorte von Algorithmen zu erkennen.

Zentral ist für sie, dass der Algorithmus immer auch so stark ist wie die Vorstellung, die wir uns von ihm machen. Das greift auf die zahlreichen Positionen der Philosophie seit Schopenhauer (Die Welt als Wille und Vorstellung) bis zu den Denkern der Postmodernen oder der Analytischen Philosophie zurück: Die Wahrnehmung der Wirklichkeit ist keine reine Frage unserer Sinneswahrnehmung, sondern es liegt in unserer Hand, welche Vorstellungen der Welt wir zulassen und welche nicht.

Sie macht dies am Spiel des Schachgroßmeisters Garri Kasparov mit dem IBM-Computer Deep Blue deutlich: Weil die Programmierer ein paar Tricks eingebaut hatten (der Computer scheint nach bestimmten Zügen lange zu überlegen, obwohl er schon längst eine Antwort hat), begann Kasparov sich mehr Gedanken über die Leistungsfähigkeit und Taktik des Rechners Gedanken zu machen als über die Qualität des eigenen Spiels. Er verlor knapp. (Seite 17 ff)

Sie plädiert deshalb für einen gemäßigten Einsatz, so wie ihn Kasparov seit seiner Niederlage praktiziert: Im sogenannten „Zentaurenschach“ (Seite 237) bewertet der Algorithmus die möglichen Folgen eines Zuges und reduziert die Wahrscheinlichkeit eines Fehlers, während der Mensch die Verantwortung für das Spiel behält. Dieses Zusammenspiel von Algorithmus und Mensch hält Fry für gelungen.

In einem Gespräch mit Tyler Cowen spricht Garry Kasparov über das Zusammenspiel von Computer und Mensch. Seine Niederlage gegen Deep Blue hat ihn nicht zum Pessimisten werden lassen, sondern dazu gebracht, sich über die Fähigkeiten und die Intelligenz von Maschine und Mensch Gedanken zu machen. Bemerkenswert sind z.B. in dem Interview die folgenden Aussagen: “Machines have a decisive advantage because, you may call, they have steady hand. Humans are vulnerable because we cannot keep the similar vigilance required to play with the machines, even if we understand chess as well as machines do, even if we can survive the brute force of calculation. At the end of the day, the pressure on the human player facing the machine is simply unbearable. (…) The biggest problem, and I’ve been talking about for quite a while, that we’re still teaching very specific knowledge in the schools. Instead of teaching what, we have to teach how because this knowledge may be redundant 10 years from now. We are preparing kids for the world that will change dramatically. (…) I reached the formulation that a weak human player plus machine plus a better process is superior, not only to a very powerful machine, but most remarkably, to a strong human player plus machine plus an inferior process. At the end of the day, it’s about interface. Creating an interface that will help us to coach machine towards more useful intelligence will be the right step forward. I’m a great believer that, if we put together a good operator — still a decent chess player, not necessarily a very strong chess player — running two, three machines and finding the best way to translate this knowledge into quality moves against Rybka Cluster, I would probably bet on the human plus machine.”

 

Was machen Algorithmen?

Nach Fry sind Algorithmen „ganz einfach eine Abfolge logischer Anweisungen, die, von Anfang bis Ende, zeigen, wie eine Aufgabe ausgeführt werden soll.“ (Seite 20). In diesem Sinne machen sie das, was wir tagtäglich tun, wenn wir unser Handeln strukturieren und in eine sinnvolle Abfolge bringen.

Die Aufgaben aus der „realen Welt“, die dabei von Algorithmen übernommen werden, klassifiziert Fry grob in vier Bereiche (und weist auch darauf hin, dass man auch weit mehr Kategorien bilden könnte):

  1. Algorithmen priorisieren und legen eine geordnete Liste an (Bsp. Googles Trefferliste, Schachcomputer…).
  2. Algorithmen klassifizieren und ordnen Objekte bestimmten Kategorien zu (Bsp. Songs zu Genres bei Spotify, Videos bei YouTube oder Werbung zu Personengruppen …)
  3. Algorithmen stellen Verbindungen her, indem sie verschiedene Datentöpfe miteinander kombinieren (Bsp. Empfehlungen bei Amazon, weil ein „ähnlicher“ Kunde etwas gesehen oder gekauft hat, das wahrscheinlich auch für einen selbst von Interesse sein kann).
  4. Algorithmen filtern und grenzen das Wichtigste ein, indem sie andere Informationen ausblenden (Bsp. filtert die Spracherkennung bei Siri u.a. Hintergrundgeräusche aus, empfehlen Facebook oder Twitter persönliche Newsfeeds …).

Dabei sind zwei Hauptparadigmen am Werk, die Vorgabe von Regeln und ein selbstlernendes System.

Regelbasierte Algorithmen folgen einer vorgegebenen Logik, die sie bedingungslos befolgen (bei Rot bremsen, bei falschem Passwort Zugang verweigern …).

Selbstlernende Algorithmen (maschinelles Lernen und KI lauten die in dem Zusammenhang häufig fallenden Schlagwörter) haben ein klares Ziel vorgegeben, erhalten dann viele Daten und dürfen selbst den besten Weg wählen.

Beide Wege haben ihre Vor- und Nachteile: Die Begrenzung und Kontrolle im ersten Fall und die verblüffend guten Lösungswege und zugleich schwer einzugrenzenden Fehler auf der anderen sind bekannt. Fry führt eine Reihe von Beispielen vor, die zeigen, dass das blinde Vertrauen in die Algorithmen ebenso gefährlich ist wie eine kategorische Absage wenig zielführend: Algorithmen können irren und ein absolutes Vertrauen kann zu Katastrophen führen – aber sie bieten in unserem Alltag oft eine schnellere und bessere Lösung (z.B. bei der Recherche von Inhalte, bei der Wegbeschreibung oder Umgehung von Staus).
Fry hält dabei die Diskussion um KI im Sinne einer Revolution der Intelligenz für überzogen. Sie erkennt eine „Revolution der Computerstatistik“, die zu immer größeren Erfolgen geführt hat, und hält Sorgen um eine „böse KI“ für so berechtigt wie die Sorge um eine Überbevölkerung auf dem Mars (Seite 25).

Am digitalen Nachbau von Wurmintelligenz mit seinen 302 Neuronen versucht sich das Projekt www.openworm.org. Noch ist das Ziel nicht erreicht, aber man kann durchaus Wetten abschließen, wie lange es dauern wird, die 100000000000 Neuronen beim Menschen nachzubilden.

Wie gerecht ist der Mensch, wie gerecht der Algorithmus?

Am Beispiel der Rechtsprechung stellt Fry die Bewertungen und Prognosen von Algorithmen denen von Spezialisten in ihrem Fach gegenüber.
Das Problem der Rechtsprechung ist, dass alle vor dem Gesetz gleich sein sollen, die Gesetze aber nicht alle Fälle im Detail abbilden können. Es bleibt immer eine Ermessensfrage, wie der jeweils konkrete Fall mit den allgemein aufgestellten Regeln des Gesetzessystems in Bezug stehen. Und je nach Land differieren hierbei die Freiheiten der Richter. Bei Befragungen und Untersuchungen bestätigte sich, was fast schon als Allgemeingut gelten kann: Rechtsprechung und Gerechtigkeit gehen häufig auseinander. Richter urteilen sehr unterschiedlich und die Bewertung von Fällen differiert auch bei den Richtern selbst, je nachdem wann und wo dies geschieht (Seite 67 ff).

Algorithmen, denen man statt einem Entscheidungsbaum gleich mehrere vorlegt, gehen nach der Methode des Random Forest vor (Seite 73 ff). Sie ermitteln aus den vielen vorliegenden, möglichen Entscheidungsbäumen den statistischen Mittelwert und treffen daraufhin eine Entscheidung bzw. geben eine Prognose ab. Diese ist in der Regel genauer als die eines Einzelnen. Vergleichbar ist das mit dem Publikumsjoker bei Quizsendungen: Die Masse der Entscheider, bei der jeder einen eigenen Entscheidungsbaum im Sinn hat, ist prozentual deutlich besser als der Anruf bei einem Experten, der befragt wird. (Die Grenzen des Vergleichs ergeben sich dadurch, dass der Experte in dem Beispiel kein wirklicher Experte ist, denn er kannte das Themengebiet ja auch nicht zu Beginn. Gleichwohl lässt sich das Bild übertragen: „Experten“ haben meist auch immer unterschiedliche Meinungen und erst die Summe derselben macht die Einschätzung besser.] Während der Mensch in der Situation nur eine begrenzte Anzahl an Varianten und „Entscheidungsbäumen“ im Blick haben kann und zudem seine Sinne vom Jetzt in Anspruch genommen sind, wird der Algorithmus mit einer höheren Wahrscheinlichkeit für mehr „Gerechtigkeit“ sorgen, weil er statistisch fundierter und immer gleich bewertet. Beim Menschen ist der jeweilige Kontext im Moment der Entscheidung prägend, beim Algorithmus die Fülle der Entscheidungsbäume.

Das heißt aber nicht, dass der Algorithmus immer richtig liegt. Fry führt eine Reihe von Beispielen an (S. 78 ff), in denen Algorithmen falsch lagen. Und das führt zu der Herausforderung, wann man dem Rechner vertrauen soll und darf und wann nicht. Zudem speist sich der Rechner aus vorliegenden Daten und Annahmen. Bei Risikoentscheidungen wie der Frage, ob man den Verdächtigen auf Kaution freilassen kann, schließt man aus den bisher gemachten Erfahrungen. Es liegt auf der Hand, dass Farbige in den USA eher verdächtigt werden, bei Männern die Wahrscheinlichkeit einer Gewalttat häufiger auftritt als bei Frauen. Will man gesellschaftliche Entwicklungen positiv beeinflussen, müsste man hier auch abwägen können zwischen einer Etablierung des Ist, so dass jede Handlung zu einer selbsterfüllenden Prophezeiung wird, und dem Interesse, die Dinge zu verändern.
Für unsichere Menschen ist der Rechner eine Erleichterung, weil sie sich auf ihn berufen können. Denn in den meisten Fällen kann man niemandem einen Vorwurf machen. Aber es braucht schon Mut, um gegen den Rechner zu entscheiden, wenn man einer anderen Ansicht ist. Denn meistens kennt man nicht alle „Argumente“ des Rechners, kann das eigene „Bauchgefühl“ noch nicht artikulieren oder hat das schlechte Gewissen, etwas im Vergleich zum Rechner übersehen zu haben.

Widersprüchlich ist oft das Verhältnis zu Algorithmen aus der Sicht der Angeklagten: In Untersuchungen (Seite 95 ff) wollen sie einerseits von realen Menschen beurteilt werden, verlangen von diesen aber die Objektivität eines Algorithmus.

Wie entscheidet der Mensch?

Mit einem Beispiel von Daniel Kahnemann verdeutlicht Fry, dass der Mensch in seinen Entscheidungen meist von automatischen und instinktiven Impulsen geprägt ist und in einem zweiten Denksystem erst die Vorstellungen und Gefühle rationalisiert. Diesen zweiten Schritt gehen aber die wenigsten (Seite 90). („Ein Schläger und ein Ball kosten zusammen 1,10 €. Der Schläger kostet einen Euro mehr als der Ball. Wie viel kostet der Ball?“ – Die meisten Menschen antworten 10 Cent, während die Antwort 5 Cent richtig wäre. Seite 89 f).

Fry führt zahlreiche Studien auf, die belegen, wie stark der jeweilige Kontext die Entscheidungen prägt. Dem Weber´schen Gesetz folgend (Seite 92ff) ist der Ursprungsreiz entscheidend für alle folgenden Wahrnehmungen. In einem Raum von 10 Kerzen bemerken wir noch den Effekt einer weiteren Kerze, bei 100 nicht mehr. Für einen Algorithmus ist der Unterschied zum Ausgangsreiz jeweils gleichbleibend 1 Kerze, für den Menschen ist das nicht wahrnehmbar. Das zeigt sich bei der Festlegung von Strafen: Während z.B. bei einem geringen Strafmaß zwischen Monaten unterschieden wird bei der Anklage, geht man bei längeren Strafen gleich in Jahressprüngen vor, obwohl es für die Verurteilten einen Unterschied darstellt, drei Monate oder drei Jahre im Gefängnis zu sitzen. Auch bei der Preisgestaltung kennen wir diese Ankereffekte zur Genüge und der Handel macht sie sich natürlich zu Nutze, um uns zu überrumpeln (zu den verschiedenen Preisstrategien des Handels haben sich ganze Heerscharen von Beratern geäußert oder wie Simon-Kucher darauf spezialisiert).

Medizinische Diagnosen und maschinelles Lernen

In der Medizin kommt zunehmend maschinelles Lernen zum Einsatz (Seite 105 ff): Das regelbasierte Paradigma wird durch neuronale Netze erweitert, indem man das System mit Daten (=Erfahrungen) füttert und die Lösungswege dem System überlässt. Der Algorithmus identifiziert dann Muster und Korrelationen und leitet daraus dann neue Regeln ab. Es setzt aber viel Vorlauf voraus, bei dem die Ergebnisse durch Menschen kontrolliert und korrigiert werden. Ohne ein umfangreiches Training geht es nicht.
Vergleichbar ist das mit dem Lernprozess eines Kindes, was ein Hund ist. Tausende von Bildern sind nötig, um die verschiedensten Merkmale zu erfassen und laufende Korrekturen durch die Eltern und andere Menschen, die dem Kind bestätigend oder abweisend sagen, ob seine Annahmen noch stimmig sind. So kommt z.B. ein Algorithmus bei der Frage, ob er auf einem Bild einen Husky oder einen Wolf vor sich hat, zu dem Ergebnis, es sei ein Wolf, wenn kein Schnee im Bildhintergrund erkennbar ist. Denn das war das bisherige Unterscheidungsmerkmal, das allen bisherigen Bildern gemeinsam war, mit dem man ihn gefüttert hat. Und mit dieser Annahme wird der Algorithmus arbeiten, bis man ihn eines Besseren belehrt und zeigt, dass auch Wölfe im Schnee leben. Dazu braucht es jedoch einen Kurator, einen menschlichen Trainer – oder andere Algorithmen.

Ein Vierjähriger hat z.B. auf die Frage nach dem Unterschied zwischen Wolf und Husky die Hundeleine als Unterscheidungsmerkmal aufgeführt. (Seite 107)

An diesem Beispiel wird deutlich, dass durch die gestiegene Rechnerleistung Algorithmen in der Lage sind, durch das Scannen zahlreicher Datentöpfe Merkmale zu erfassen, die uns manchmal selbst noch verborgen sind. Das wird in der Erfassung von Krankheitsbildern wie z.B. beim Identifizieren von Krebszellen deutlich.

Die wesentliche Schwierigkeit besteht darin, dass es in Rechtsfragen oder in der Gesundheit Grauzonen gibt. Menschen können sich verändern, zum Guten wie zum Bösen. Krebszellen können vom Körper in Schach gehalten werden oder ihn töten.
Der Algorithmus kann immer nur zwischen 1 und 0, zwischen „Helden und Bösewichtern“ (Seite 78), zwischen „Darth Vader“ und „Luke Skywalker“ entscheiden. Der Algorithmus kann also zwei Fehler machen: Er erkennt nicht das Risiko (= er lässt einen Kriminellen frei, obwohl er ein Darth Vader ist, er erkennt eine Krebszelle nicht als Bedrohung: das ist ein „falsch-negatives Ergebnis“) oder er erkennt das Risiko dort, wo es nicht besteht (= er beschuldigt einen Unschuldigen, obwohl er Luke Sykwalker ist, er identifiziert eine Zelle als gefährliche Krebszelle, obwohl sie nicht schädlich ist: das ist ein „falsch-positives Ergebnis“).

Richter wie auch Pathologen können irren. Bei einer Studie wurden Pathologen ein Brust-Scan mit einem versteckten Gorilla-Bild gezeigt und 83% sahen das nicht. Wir sind betriebsblind (Seite 110). Algorithmen sind im Identifizieren von Krebstumoren sehr gut, schätzen aber zu viele „gesunde“ Zellen auch als bedrohlich ein. Es wäre verantwortungslos, diesen Menschen einen „positiven“ Befund mitzuteilen.

Maschinelles Lernen heißt, dass man Algorithmen nicht gut genug darin trainieren kann, sensitiv und spezifisch gleichzeitig zu sein. D.h. man kann sie dahingehend optimieren, alle möglichen Darth Vaders zu erkennen, aber dann schießen sie auch meistens über das Ziel hinaus und verhaften zu viele Luke Skywalkers. Hier ist eine Kontrolle durch den Menschen nötig. Der Mensch kann entscheiden, wann mehr, wann weniger Kontrolle sinnvoll ist. Er kann den Kontext selber bewerten.

Ein weiteres Problem liegt in der Einspeisung der richtigen Daten. So gibt es in der Medizin Frühindikatoren, die aber in anderen Datenquellen liegen können. Sprache, Herkunft, soziale Umgebung etc. – diese Quellen müssten sinnvoll miteinander verknüpft werden, damit sie sinnstiftend genutzt werden. Und hier stößt man noch an eine der größten Grenzen der Algorithmen:

  1. Welche Daten man für wichtig erachtet ist nicht immer klar. Gibt die Sprachfähigkeit im frühen Altern wirklich Aufschluss über eine spätere Alzheimererkrankung? (Seite 111 ff)
  2. Nicht alle Datenquellen will und soll man freigeben, denn viele werden als Eigentum der jeweiligen Persönlichkeit bewertet und nur sie darf den Zugriff gestatten.

Selbstfahrende Autos und die Zusammenführung der richtigen Daten

Das oben benannte Problem wird an den selbstfahrenden Autos deutlich. Kamera, Radar, GPS-Signale, Geräusche, Geschwindigkeit… eine Vielzahl an Datenquellen muss bewertet werden, um zu entscheiden, welche wann Priorität haben. Soll man dem Radar folgen, weil er eine Bewegung erkannt hat oder der Kamera, die diese nicht sieht auf einer dunklen Straße? Welche Abmessungen am Rand sind die richtigen? Das unten gezeigte Video über ein Auto, das zwar in den Kreis kommt, diesen aber nicht mehr verlassen darf, ist längst der virale Beweis dieser Grenzen. Oder gar: Gilt das Leben der Insassen mehr als das eines Fußgängers, sollte es zu einem Unfall kommen?

Das selbstfahrende Auto kommt zwar in den Kreis hinein, weil die Linie nicht durchgezogen ist. Aber es kann ihn auf der Basis seines Algorithmus nicht mehr verlassen, denn die Regel verhindert eine Überschreitung durchgezogener Linien. Welcher Mensch würde manchmal nicht gerne derlei Streiche spielen und den Autos seine Überlegenheit zeigen? Der Verkehr wäre dann alles andere als flüssig.

 

Und hier beginnt die Wahrscheinlichkeitsrechnung und die Abkehr vom Glauben an die eine Wahrheit, an die a priori gegebene Wirklichkeit. Nicht von ungefähr kommt der „Satz von Bayles“, ein mathematischer Satz aus der Wahrscheinlichkeitstheorie, entwickelt vom englischen Mathematiker Thomas Bayes, aus dem 18. Jahrhundert zu Zeiten, als auch Kant mit der Frage nach den a priori gegebenen Fakten seine „Kritik der reinen Vernunft“ schrieb. Für die Mathematiker ist diese Formel wichtig, weil sie die Abkehr vom Paradigma der a priori gegebenen Wahrheit ist und man mit Formeln zu Wahrscheinlichkeiten und Korrelationen arbeiten kann. Für Fry ist es eine der „einflussreichsten Ideen der Menschheitsgeschichte“ (Seite 146), die Basis für den Aufbau von Algorithmen, die verschiedene Regeln in Relation bringen müssen. Das zeigte sich konkret an der Entwicklung von selbstfahrenden Autos seit 2004. Konnten die ersten Prototypen damals kaum eine kurze Strecke allein bewältigen, so sind sie jetzt in der Lage, viele Kilometer ohne Fehler zu meistern. Aber sie werden nie fehlerfrei sein. Denn der Satz von Bayes kann bedingte Wahrscheinlichkeiten genauer erfassen, wenn die Ausgangsgrößen relativ gleich groß sind. Aber er kann nie eine Kausalbeziehung nachweisen. Und damit ist man beim Höhlengleichnis von Platon angekommen: Wir erkennen immer nur die Schatten.

Ein weiteres Problem ergibt sich, wenn man den regelbasierten Algorithmen zu viel Verantwortung einräumt und als Mensch nicht mehr im Cockpit sitzen will. Beim Absturz eines Airbus 2009 war genau dieses Vertrauen in den Autopiloten das Problem, denn der junge Pilot konnte nicht auf Erfahrungen zurückgreifen und als seine älteren Kollegen hinzukamen, war es zu spät (Seite 157 ff). Um im Falle einer Notsituation eingreifen zu können, braucht es Erfahrung und Training. Diese erwirbt man nicht, wenn man sich von Automatismen steuern lässt.

Die Interaktion von Mensch und Maschine

Selbstfahrende Autos können als Symbol für den sich in der Welt orientierenden Menschen betrachtet werden. Aus den über 1 Millionen Sinneseindrücken in der Sekunde werden die relevanten gefiltert, entsprechend gespeichert und bewertet. Mit dem Nachbau dieser Fähigkeiten in einem Algorithmus, der ein Auto steuern soll, gelangt man an die Grenzen des reinen Nachbaus: Nicht nur die Speicherkapazitäten reichen nicht aus, sondern auch das Training durch erfahrene Mentoren ist erstmal zeitlich und von den Ressourcen nicht machbar. Erziehung heißt das bei den Menschen und dauert länger als bei anderen Lebewesen. Die aktuellen Debatten um mangelnde Lehrkräfte und eine ungenügende (Aus-)Bildung derselben verdeutlicht, dass der Mensch sich selbst schon nicht ganz im Griff hat, geschweige denn seine Autos.
Und damit sind wir beim entscheidenden Punkt: In der Abwägung der vielen Datenquellen macht auch der Mensch „Fehler“. Er tariert sein Verhalten immer wieder neu aus, wägt ab, setzt Schwerpunkte. Er ist wie Herakles ständig am Scheideweg. Das macht seine „Natur“ aus.

Entlässt man selbstfahrende Autos mit ihrem begrenzten Regelwerk nun auf den Dschungel des modernen Verkehrs, in die Gesellschaft, in der sie dann mit allen Menschen interagieren, so sind sie überfordert. Sie können wie dressierte Affen mechanisch Befehle ausführen, aber auch nur die. Das Problem, das sich jetzt aber ergibt, ist, dass sie mit realen Menschen interagieren, die wiederum auf sie Bezug nehmen. Reale Menschen werden diese autonomen Autos stören, sie werden sie wie die Leihfahrräder oder Roller in den Städten missbrauchen zu anderen Dingen, sie werden auf deren Regeln Bezug nehmen oder auch nicht. Auf dieses unkontrollierte Verhalten sind Algorithmen nicht vorbereitet.
Übertragen auf das selbstfahrende Auto kann man hier deshalb nur der Empfehlung von Fry folgen, dieses auf einen ganz klar begrenzten Rahmen zu setzen, ähnlich den Kinderautos auf Jahrmärkten, die auf Bahnen gelenkt in ihrem Bereich bleiben müssen. Sie können uns und die Kinder trainieren und schulen. Algorithmen können uns dann unterstützen, wenn wir in punkto Aufmerksamkeit, Präzision oder Beständigkeit (Seite 166) unsere Schwierigkeiten als Menschen haben. Aber eben auch nur unterstützen und nicht ersetzen.

Das zeigt sich besonders beim Einsatz von Algorithmen bei der Verbrechensbekämpfung (Seite 169 ff). Vor allem durch Geoprofiling lassen sich Korrelationen herstellen zwischen den Orten, Zeiten und Bedingungen von Gewalttaten oder anderen unerwünschten Aktivitäten wie z.B. der Produktion von Malaria verursachenden Fliegen. Diese Korrelationen unterstützen. An den zahlreichen Beispielen für fehlerhafter Gesichtserkennung (189 ff) zeigt sich dann aber auch die Gefahr, wenn man diese Korrelationen für Beweise hält und Unschuldige vermeintlich richtig erkannt wurden.

Wann ist der Menschen ein Mensch?

In ihrem Abschlusskapitel streift Fry die verschiedenen Spielarten der Algorithmen, die in der Kunstwelt eingesetzt werden (207 ff). Die relativ simplen Zuordnungen von Vorlieben und Zustimmungen bei Büchern, Liedern oder Filmen kennt mittlerweile jeder auf den verschiedenen Plattformen von Amazon über spotify und netflix. Hierbei kann aufgrund des Verhaltens auf Bedürfnisse geschlossen werden. Und so werden in der Regel auch Märkte bearbeitet und Bestseller „gemacht“. Das ist für die damit arbeitenden Unternehmen von großem Vorteil. Sie haben dadurch die Märkte geprägt und verändert. Algorithmen haben hier ihre prägende Kraft in Märkten gezeigt und bestätigt, dass Daten das Öl im Getriebe der Wirtschaft ist.

Interessanter ist die Frage, was Kunst ausmacht, wenn diese von Algorithmen selbst erstellt wird. Das Thema beschäftigt die Kunstszene schon länger (siehe z.B. das globale media forum von 2019, Bücher wie die von Holger Volland oder Aufsätze wie die von Luciano Floridi). Und wenn man so will ist es ein der Kunst immanentes Thema: Welche Bedeutung gebe ich als Betrachter der das menschliche Sein reflektierenden Kunst – und welche gebe ich in dem Kontext auch dem sie produzierenden Künstler. Diese grundlegenden Fragen finden sich in allen Kulturen seit es Kunst gibt. Das ist nicht neu. Neu ist hingegen, dass jetzt auf der Basis der KI ein neuer Akteur auf die Bühne tritt. Und diesen virtuellen Akteur kann man nur richtig bewerten, wenn man für sich, für die Gesellschaft die Frage stellt, was die menschliche Existenz ausmacht. Aber das führt dann doch über das Buch von Hannah Fry hinaus.
Und es führt dazu, dass wir bei den folgenden Fragen in der Zukunft wachsam weiterdenken müssen. Es sind beileibe keine neuen Themen, das wäre auch verwunderlich. Es gibt hierzu keine einfachen Lösungen, sonst hätten wir diese schon längst. Und es sind auch keine fertigen Lösungen zu erwarten, sondern Bemühungen um unser je eigenes Selbstverständnis:

  1. Welche Daten von und über Menschen wollen wir sammeln, aggregieren und staatlich oder privatwirtschaftlich allen zur Verfügung stellen?
    (Aktuell spiegelt sich das in der Diskussion um die Macht der Tech-Konzerne und des Staates als regulierender Instanz.)
  2. Welche Fähigkeiten wollen wir als Menschen bewahren und pflegen, damit wir unsere Abhängigkeit gering halten und im besten Sinne handlungsfähig bleiben?
    (Aktuell spiegelt sich das in der Frage nach den Kompetenzen und dem Wissen, das wir für Bildung halten und an den Schulen lehren.)
  3. Welche Werte wollen wir als Menschen bewahren, so dass sie auch für Algorithmen Zielvorgaben sind. Wie würde ein Grundgesetz für Algorithmen lauten?
    (Aktuell spiegelt sich das in der politischen Diskussion um Umgangsformen und die Öffnung bzw. Abgrenzung zu anderen Volksgruppen und Ländern.)

Weitere nützliche Links in dem Zusammenhang:
Der Vortrag von Professor Andreas Wagner auf dem Mobile Learning Day 2018 führt fundiert und unterhaltsam durch das Thema: Daten und Künstliche Intelligenz in der Informationsgesellschaft: Wie Algorithmen und digitale Systeme unsere Lebensumwelt verändern”.
Die Bitkom versucht die vielen Formen der KI in einem Periodensystem darzustellen.
Die moral machine des MIT lässt Sie Ihre moralische Entscheidungen testen.
Microsofts CaptionBot zeigt, was KI auf Bildern erkennen kann.
Adam Geitgey erläutert machine learning in einer Serie von Artikeln auf medium.
Steve Nouri erläutert machine learning in einem white paper mit zahlreichen einfachen Bildern.
Und eine bilderreiche Darstellung der Geschichte des autonomen Fahrens und einer Bewertung der Chancen von Matt Meiresonne findet sich auf engios.

Meine Schwerpunkte sind die strategische Entwicklung von Unternehmen, die Gestaltung der passenden Geschäftsmodelle und die Kundenanalyse - das klingt nach trockenem Brot. Aber es kann sehr kreativ, anregend und erfüllend sein. Mit dem Master "Digital Media Manager" in München lehre ich Medienkompetenz als Zusammenspiel von Geschäftsmodellen, Technologiebewertung und medialer Kommunikation. Aus meiner Erfahrung als Produktmanager, Verlagsleiter und Geschäftsführer beim Carl Hanser Verlag und Haufe-Lexware kenne ich das Mediengeschäft und die Herausforderungen durch die Digitalisierung. Mit Partnern entwickle ich Plattformen wie flipintu oder lectory und digitale Lernmethoden mit dem Goethe-Institut und verschiedenen Universitäten. Man muss etwas selber erfahren, um es auch vermitteln zu können. Nicht dass ich ein Fan von Steve Jobs wäre, aber seine legendäre Rede in Stanford ist klug und das Motto passt: Stay hungry. Stay foolish. Das Leben ist zu kurz, um es mit sinnlosen Meetings und Phrasen zu vergeuden.