1 Vor Ihnen liegt ein Messer. Sie können damit Ihr Mittagessen einfacher zu sich nehmen oder einen anderen Menschen verletzen. Die Verantwortung für das Verhalten wird immer Ihnen zugesprochen, nie dem Messer.
2 Sie haben zum Schutz Ihres Hauses eine Selbstschussanlage installiert, die mit Hilfe zahlreicher Sensoren visuelle, akustische, seismographische, olfaktorische und mehrere andere Signale aufnimmt, klassifiziert, miteinander in Verbindung setzt und Schlussfolgerungen ableitet. Die Anlage erschießt in einer Nacht 3 Katzen, 2 Hunde, einen Einbrecher und einen betrunkenen Jugendlichen.
Wer trägt die Verantwortung, wenn das Gericht in
Bayern, in Texas oder im Donbass liegt?
Die Beantwortung dieser Frage soll uns helfen, die Grenzen sogenannter “künstlicher Intelligenz” besser zu erfassen. Sie hilft uns auch bei der Einschätzung, ob ChatGPT wirklich alle Arbeitsplätze ersetzen wird oder nicht, ob DALL E 2 kreativer ist als wir.
“Künstliche Intelligenz” ist nicht “verantwortungsvolles Handeln”
Die Frage nach der Verantwortung von Verhalten verschiebt sich gerade, weil wir selber nicht mehr verstehen, wie eine Maschine auf der Basis von Softwareprogrammen zu Entscheidungen kommt. Da passiert etwas, was wir gerne mit “künstlicher Intelligenz” umschreiben, weil wir es selbst nicht nachvollziehen können und es immer mehr Anwendungsfälle wie Navigation, Bilderkennung oder Suche in großen Textmengen gibt, in denen uns ein Algorithmus überlegen ist. (Hier verweisen wir auf unseren Artikel über menschliche Intelligenz als Basis zur Unterscheidung von künstlicher Intelligenz.)
Das Thema “KI” hat Hochkonjunktur, weil Softwareprogramme
- große Datenmengen verarbeiten und uns für bestimmte Situationen Lösungen vorschlagen, die wir nicht so schnell und präzise erarbeiten könnten (z.B. in der Medizin, bei der Navigation, Gesichtserkennung etc.) und
- wir nicht mehr nur regelbasierte Vorgaben machen, sondern von supervised und unsupervised machine learning sprechen, d.h. dass die Softwareprogramme selbständig aufgrund der ihnen zugespielten Daten zu Lösungsvorschlägen kommen und wir den Weg nicht mehr genau nachvollziehen können.
Das heißt, dass Sie bestimmte Leistungen (rechnen, übersetzen etc.) besser als das menschliche Gehirn erbringen und sie dabei “lernen”. Und an diesem “lernen” hängen wir uns gerade auf, weil wir prognostizieren, dass diese “KI” jetzt Dinge machen wird, die wir nicht mehr verstehen. Wir haben scheinbar wie Frankenstein ein Monster erschaffen, das sich unabhängig von uns zum Negativen entwickelt – anstatt den Tod zu überwinden.
Dass die Software “lernt”, heißt noch nicht, dass sie eigenständig, selbstbewusst und zukunftsorientiert handeln kann.
Relativieren wir den Begriff “künstliche Intelligenz”. Intelligenz ist mehr als ein IQ-Test und es macht Sinn zu sagen, “dumm” ist, wer nicht die Fähigkeit hat, eigenständig zu entscheiden. Denn ziehen wir den Stecker und füttern das Programm mit den entsprechenden Daten, so kommt das heraus, was wir als Kontext setzen: “garbage in – garbage out”, heißt es beim machine learning. Wer Mist reinsteckt, erhält auch nur Mist. KI ist ein selbstreferenzielles System, in dem man wie in einem Bild von Escher in der eigenen Schleife bleibt.
In der Philosophie gibt es eine jahrhundertelange Diskussion um den Begriff des Bewußtseins als Voraussetzung für menschlich verantwortliches Handeln. Hier ist nicht der Ort darauf einzugehen, ob man z.B. Searle folgt und seiner Kritik am Turingtest oder wie z.B. Dennett auch Tieren ein Bewußtsein zugesteht, wenn auch in anderer Form als dem menschlichen Selbst.
Wer einem Softwareprogramm “Bewußtsein” zusprechen will, muss in der Folge auch die rechtsphilosophische Frage nach der “Schuldfähigkeit” beantworten. Es wäre ein Quantensprung, den ChatGPT und andere KI-basierte Programme machen müssten, um auch nur annähernd vor Gericht denselben Status wie ein fünfjähriges Kind zu erhalten. Ich sehe diesen nicht, auch in Zukunft nicht.
“Intelligenz” umfasst eben auch, moralische Entscheidungen abzuwägen, die eigenen Emotionen steuern können oder eine kritische Kommunikationssituation angemessen zu moderieren – und einiges mehr. Das heißt aber auch, dass man einem Algorithmus nur das zugesteht, was er kann, nämlich die Verarbeitung großer Contentbestände mit Hilfe mathematischer Fähigkeiten, vor allem der Statistik.
Intelligenz ohne Moral?
Greifen wir wieder unser Beispiel vom Messer und der Selbstschussanlage auf. Beide sind vom Menschen erschaffene Artefakte, die ihm das Leben erleichtern sollen. Bei beiden kann der Schuss im wahrsten Sinne des Wortes nach hinten losgehen, wenn man sie falsch einsetzt. Deshalb organisieren sich alle Stammesgemeinschaften, Völker, Gruppen von Menschen mit Hilfe ausgefeilter Regeln. Diese Regeln betreffen den Gebrauch aller Artefakte, von Werkzeugen über Waffen bis zur Kleidung. Die Regeln werden in langwierigen, aufwändigen Prozessen gelernt, angepasst, weitergegeben. Wir sprechen dann von Werten, die wir für so wichtig und richtig erachten, dass wir sie an unsere Nachkommen weitergeben – egal ob diese das wollen oder nicht. Wir sprechen dann von Kultur.
Intelligent ist, wer diesen Prozess sinnvoll gestalten kann.
Übertragen auf unser Beispiel heißt das, dass eine Selbstschussanlage
- bestimmte Signale besser als ein Mensch registrieren kann: Sie kann z.B. andere Frequenzen “hören”, bei Nacht “sehen” etc., das heißt mehr Informationen, genauer und präziser registrieren.
- schneller kategorisieren kann: Sie kann z.B. durch den Vergleich mit verschiedensten Datenquellen wie Bildern von Tieren, Gerüchen, Bewegungsabläufen oder Geräuschen schneller die richtigen Bezüge herstellen und statistisch eine Hochrechnung machen, um was es sich handelt.
- in “Echtzeit” nie dieselben Informationen haben wird wie ein Mensch in derselben Situation, sondern abhängig von den Datenquellen immer nur auf vorhandene Daten zurückgreifen wird.
- die Informationen nie “emotional” bewerten können wird, weil ihr die Prägung aller Wahrnehmung durch das limbische System fehlt und damit die Fähigkeit, ein Verhalten immer im Kontext einer menschlichen Gemeinschaft zu bewerten.
- keine Regeln aufstellen kann für eine menschliche Gemeinschaft dafür, ob Tiere oder Menschen verwundet oder getötet werden dürfen – und welche Werte an die nächste Generation weitergegeben werden sollten.
So gesehen kann eine Selbstschussanlage im besten Fall 2 von 5 Punkten erreichen und wäre bei einem “Intelligenztest” erstmal durchgefallen. Wir sollten sie deshalb in Zukunft auch “dumm” nennen dürfen, denn anders als in der Mathematik ergeben “künstliche Dummheit” und “menschliche Dummheit” zusammen leider immer noch keine Intelligenz.
Für den richtigen Einsatz von Messern, Selbstschussanlagen, ChatGPD oder Dalle 2 gelten also nach wie vor ein paar Regeln. Es vergeht kaum ein Tag, an dem nicht ein Anbieter von KI-basierten Werkzeugen davor warnt, zu hohe Erwartungen bei fehlender Datenlage zu haben (hier ein Beispiel). Diesen Beitrag über die Implementierung von KI in Unternehmen bei moresophy fasst beispielhaft drei Grundregeln zusammen:
- Transparenz über die Quelle der Daten ist die Voraussetzung für den Einsatz von digitalen Werkzeugen. Niemand würde eine Selbstschussanlage abnehmen, wenn nicht klar ist, welche Daten auf welcher Basis erfasst, kategorisiert und interpretiert werden.
- Vertrauen in die Überprüfung der Systeme ist nur möglich, wenn jemand in regelmäßigen Abständen das Funktionieren überprüft und zur Rechenschaft gezogen werden kann, wenn etwas nicht funktioniert.
- Verantwortung kann nur der übernehmen, der ein System produziert und einsetzt. Für den richtigen Gebrauch des Messers, der Selbstschussanlage oder von ChatGPT muss man den Nutzer und die Produzenten rechtlich und moralisch anklagen und freisprechen können. Denn der Mörder war im Zweifelsfall nicht das Messer.
Die Verantwortung für den Einsatz von KI hat der Mensch. Sie beginnt bei den “Schöpfern” und endet bei denen, die sie einsetzen.
Und das Katz-und-Maus-Spiel hat schon längst begonnen bei der Frage, welche Rahmenbedingungen man der KI-gestützten Software gibt. Denn wenn die Trainingsdaten aus so vielen Äußerungen der Menschen über sich selbst im Internet gezogen wurden, so wurden auch (fast) alle menschlichen Verhaltensweisen als Vorlage genommen – die guten wie die schlechten. So verbreitet ChatGPT natürlich Fake News und betrügt den Anwender. Man muss an Karl Valentins Ausspruch denken, Erziehung sei zwecklos, weil die Kinder einem eh alles nachmachten.
Wie bei jeder Technologie kann die Frage nach der “Schuld” durch fehlerhaften Einsatz nur bei Menschen liegen, die daran beteiligt sind. Alfred Bernhard Nobel mag hier leider beispielhaft sein in seiner Ambivalenz, der Kritik am Krieg und dem Schaffen von todbringenden Waffen.
Hier ein paar Hinweise, die sich für eine nähere Betrachtung lohnen. Wir setzen uns an der Hochschule mit dem Zusammenspiel von KI, Geschäftsmodellen und interkultureller Kommunikation auseinander und freuen uns über einen Austausch.
- Was ein Algorithmus kann und was nicht, dazu gibt es zahlreiche gute Titel und Kurse. Hier geht es z.B. zu unserer Besprechung des klugen Buchs von Hannah Fry, die als Mathematikerin gut verständlich in das Thema einführt. Das Journal of Artificial Intelligence befasst sich ausführlich mit dem Thema der Grenzen von KI.
- Catrin Misselhorn bietet mit ihrem Buch “Grundfragen der Maschinenethik” einen systematischen Einstieg in das Thema, von den Fragen nach Intelligenz, Bewußtsein und Selbstidentität angefangen über Moraltheorien bis hin zu Anwendungen im Bereich der Drohnen, Pflegeroboter und dem autonomen Fahren.
- Der Ethikrat hat im März 2023 eine Stellungnahme zum Zusammenspiel von Mensch und Maschine veröffentlicht, in dem es um die menschliche Vernunft geht im Unterschied zur verständlichen Intelligenz.
- In ihrem Buch “Digitaler Humanismus” beschreiben Julian Nida-Rümelin und Nathalie Weidenfeld anhand zahlreicher Filme einige der dystopischen Vorstellungen zu KI und diskutieren die Begriffe “starke und schwache KI” kritisch. Man erhält einen Überblick zu zahlreichen Filmen inklusive einer kritischen Analyse und eine Einführung in die Argumentationen der klassischen Moralphilosophie.
- Eine gegensätzliche Position vertritt beispielsweise Daniel Dennett (hier z.B. ein Video zum Thema Bewußtsein), der auf der Basis neurowissenschaftlicher Untersuchungen keine prinzipielle Unterscheidung des Bewußtseins beim Menschen zu dem von Tieren feststellen kann, gleichwohl mit dem Begriff des “Selbst” eine andere Qualität beibehält.
- The Oxford Handbook of Digital Ethics umfasst zu verschiedenen Themen rund um KI Einzelbeiträge, die den aktuellen Stand der Diskussion gut wiedergeben. Die Themen reichen von sexueller Belästigung online über “algorithmic bias” bis zu Gesichtserkennung und Privatsphäre.
- Die Serie Black Mirror stellt durch leichte Überzeichnungen technologischer Möglichkeiten dystopische Szenarien vor und regt zum Nachdenken an. Die Episoden dauern ca. 40-50 Minuten und sind von unterschiedlichen Regisseur:innen gedreht worden. Auch hierzu gibt es eine Diskussion um die dort behandelten ethischen Fragen in Buchform.
Pingback: Die Woche im Rückblick 17.03. bis 23.03.2023 - Wieken-Verlag Autorenservice