Am 19.03.2018 meldeten die Zeitungen, dass im amerikanischen Bundesstaat Arizona erstmals eine Fußgängerin von einem autonom fahrenden Auto getötet wurde. Die Frau hatte in der Dunkelheit mit ihrem Fahrrad die Straße überquert und wurde dabei von einem Testfahrzeug der Firma Uber erfasst. Kurz darauf erlag sie im Krankenhaus den Verletzungen (Wilhelm 2018).

Die gemeinnützige Organisation AlgorithmWatch berichtete im Februar 2019 über einen Vorfall im schwedischen Arbeitsamt. Dort war ein Computersystem eingeführt worden, das automatisch überprüfen sollte, ob Menschen in einer bestimmen Form des Arbeitslosenbezuges ihre Verpflichtungen erfüllten. War dies nach Meinung des Systems nicht der Fall, konnte es Verwarnungen verschicken und Zahlungen zurückhalten. Als Unregelmäßigkeiten bemerkt wurden, wurde das System einer Überprüfung unterzogen, und es stellte sich heraus, dass 10-15 % seiner Entscheidungen falsch waren. Über 70.000 Antragsstellern waren aufgrund des fehlerhaften Algorithmus zu Unrecht die Leistungen verweigert worden. Das Programm wurde daraufhin aus dem Verkehr gezogen. Bis heute ist unklar, wo der Fehler im System lag und wie er entstehen konnte (Wills 2019).

Die beiden Meldungen veranschaulichen zwei Aspekte, die für das Thema dieses Buches relevant sind: Erstens kommen Algorithmen und autonome Systeme bereits in zentralen Bereichen unseres Lebens zum Einsatz und übernehmen dort immer eigenständiger Aufgaben. Diese Entwicklung zeigt sich nicht nur im Verkehrswesen und in der öffentlichen Verwaltung, sondern in vielen weiteren Branchen, wie der Industrie, Landwirtschaft, Finanzwirtschaft, Medizin und Pflege, Kommunikations- und Unterhaltungsindustrie, in der Logistik und im Handel, beim Militär, in der Forschung sowie im gesamten IT-Bereich. Damit werden künstliche Intelligenzen zunehmend zu Begleitern unseres Alltags und zu Gestaltern unserer Lebensrealität. Dass diese Entwicklung nicht nur faktisch stattfindet, sondern auch politisch gewünscht ist, zeigen Strategiepapiere der Europäischen Union und der deutschen Bundesregierung (European Commission 25.04.2018, 2020; Bundesministerium für Bildung und Forschung 2018). Zweitens führen künstliche Intelligenzen die ihnen anvertrauten Aufgaben nicht immer erwartungsgemäß und richtig aus. Ihnen können Fehler unterlaufen und sie können Schäden verursachen. Diese Schäden sind aufgrund der verantwortungsvollen Aufgabenbereiche, die ihnen übertragen werden, keineswegs marginal, sondern können, wie in den genannten Beispielen, eine existentielle Dimension annehmen.

Wenn ein Schaden entstanden ist, steht in der Regel die Frage im Raum, wer für den Schaden verantwortlich gemacht werden kann. Dabei geht es zumeist nicht nur um die Frage, wer im rechtlichen Sinn zur Verantwortung gezogen werden kann, sondern auch um die Frage, wer aus moralischer Sicht dafür geradestehen muss. Im Diskurs über künstliche Intelligenzen, deren Entwicklung und Einsatzmöglichkeiten wird immer wieder die Befürchtung formuliert, dass die Zuschreibung moralischer Verantwortung im Kontext künstlicher Intelligenzen ein großes Problem darstellt. Letztlich könne in den Augen mancher vielleicht sogar niemand gerechtfertigterweise für Schäden verantwortlich gemacht werden, die durch künstliche Intelligenzen verursacht wurden. Dieser Befürchtung ist dieses Buch gewidmet. Das Ziel besteht darin zu klären, wie mit den Verantwortungsfragen rund um intelligente Systeme umgegangen werden kann und insbesondere, ob künstliche Intelligenzen eines Tages selbst moralisch verantwortliche Akteure sein können.

Die Befürchtung, dass Verantwortungszuschreibung mit dem Einsatz künstlicher Intelligenzen zu einem Problem wird, speist sich aus der Tatsache, dass die Technisierung unserer Lebenswelt nicht nur quantitativ zunimmt, sondern sich auch qualitativ verändert. Das Verhalten traditioneller Maschinen, Computer und Roboter ist in der Regel technisch determiniert und vorhersehbar. Durch ihre Konstruktion und eine feste Programmierung sind ihre Funktions- und Verhaltensweisen vorgegeben. Kaffeemaschinen und Textverarbeitungsprogramme folgen stets den gleichen Abläufen, solang sie richtig bedient werden und kein technischer Defekt vorliegt. Derartige Maschinen und Programme haben den Charakter eines Werkzeugs. Sie erweitern zwar die Handlungsmöglichkeiten des Menschen, haben jedoch selbst keine (Beck 2012, S. 14). Eine vollautomatische Kaffeemaschine ist vielleicht etwas komplexer als ein Hammer, das Prinzip jedoch ist das gleiche.

Zu den Merkmalen eines Werkzeugs gehört nicht nur, dass seine Konstruktions- und Verhaltensweise durchschaubar und vorhersehbar sind, sondern auch, dass es stets einen Benutzer gibt, der das Werkzeug verwendet und kontrolliert. Erst wenn ein Hammer in die Hand genommen wird, erhält er eine Funktion. Zudem hängt es von der Person ab, zu der die Hand gehört, zu welchem Zweck und in welcher Weise er eingesetzt wird. Richtet ein Hammer einen Schaden an, ist in der Regel die Person dafür verantwortlich, die den Hammer in der Hand hielt. Auch künstliche Intelligenzen können unter der direkten Kontrolle eines Akteurs stehen. Allerdings besteht das Ziel der Entwicklung autonomer Systeme darin, dass eine Kontrolle durch den Menschen nicht mehr notwendig ist. In ihrer Selbständigkeit liegt die Stärke und Effizienz künstlicher Intelligenzen begründet. Autonomie ist in diesem Kontext nicht als das anspruchsvolle Konzept der personalen Autonomie zu verstehen, das die Fähigkeit zur selbständigen Lebensführung, authentischen Entscheidungsfindung oder dergleichen vorsieht (Betzler 2013). Stattdessen bedeutet autonom zu sein für eine künstliche Intelligenz, dass sie in einem bestimmten Umfeld selbständig Aktionen ausführen und Entscheidungen treffen kann (Christaller 2001, S. 126). Autonome künstliche Intelligenzen werden damit zu einem Werkzeug, über das wir keine direkte Kontrolle mehr haben.

Zudem folgen intelligente Maschinen und Systeme nicht mehr einfach einer festgelegten Programmierung. Lernende Algorithmen führen dazu, dass sich die Programmierung zu einem gewissen Grad selbst entwickeln und verändern kann. Dies ermöglicht dem System eigene Verhaltensweisen zu erproben, auf neue Situationen zu reagieren und in Entscheidungssituationen eine Wahl zu treffen, die nicht von außen vorgegeben sein muss:

Presently there are machines in development or already in use which are able to decide on a course of action and to act without human intervention. The rules by which they act are not fixed during the production process, but can be changed during the operation of the machine, by the machine itself. This is what we call machine learning (Matthias 2004, S. 177).

Die Möglichkeit des Maschinenlernens bringt adaptive Systeme hervor, die vielleicht immer noch als Werkzeuge verstanden werden können, deren Charakter aber nicht mehr vergleichbar mit dem eines Hammers ist. Die technischen Möglichkeiten sind zwar noch weit entfernt von einer generellen künstlichen Intelligenz, die sich menschengleich in unterschiedlichen Kontexten bewegen kann. Dennoch sind bereits erstaunliche Fortschritte für eng umrissene Aufgabenbereiche gemacht worden. So haben künstliche Intelligenzen eigenständig gelernt Computerspiele oder Tischtennis zu spielen, Bewegungsroboter können laufen lernen und ohne externe Hilfe mechanische Schäden kompensieren. Auch autonome Fahrsysteme sind nicht vollständig vorprogrammiert, sondern entwickeln sich in der direkten Konfrontation mit Verkehrssituationen. Lernende Algorithmen in Verwaltungsprogrammen oder Börsencomputern können derart komplex werden, dass sie nicht einmal mehr von erfahrenen Programmiererinnen und Programmierern nachvollzogen werden können. Dies führt nicht zur zum Verlust von Kontrolle, sondern auch von Transparenz.

Halten wir also fest, dass sich künstliche Intelligenzen im Gegensatz zu traditionellen Maschinen und Computerprogrammen nicht mehr dadurch auszeichnen, dass sie einer festen Programmierung folgen und unter der direkten Kontrolle eines menschlichen Akteurs stehen, sondern dadurch, dass sie sich selbständig bewegen und entwickeln können, dass sie sich an ihre Umwelt anpassen und Entscheidungen treffen, die sich aus ihrer eigenständig erworbenen Programmierung ergeben. Deshalb mag es unfair sein, die Programmiererinnen und Programmierer einer künstlichen Intelligenz für entstandene Schäden zur Verantwortung zu ziehen. Denn das System könnte sich inzwischen in einer Weise entwickelt haben, wie es von ihnen nicht beabsichtigt oder vorhersehbar war. Ebenso mag es unfair sein die Nutzerin oder den Nutzer des Systems verantwortlich zu machen. Anders als die Person, die den Hammer hält, haben die Nutzerinnen und Nutzer einer künstlichen Intelligenz nicht mehr die volle Kontrolle darüber, wie das System sich verhält. Das intelligente System selbst für sein Verhalten verantwortlich zu machen, scheint den meisten Menschen intuitiv ebenfalls unplausibel.

Es könnte also sein, dass völlig unklar ist, wer für Schäden verantwortlich ist, die durch künstliche Intelligenzen verursacht wurden, und letztlich ist es vielleicht niemand. Damit ist das Problem der Verantwortungslücke beschrieben, wie es beispielsweise Andreas Matthias postuliert:

Traditionally we hold either the operator/manufacturer of the machine responsible for the consequences of its operation, or ›nobody‹ (in cases, where no personal fault can be identified). Now it can be shown that there is an increasing class of machine actions, where the traditional ways of responsibility ascription are not compatible with our sense of justice and the moral framework of society because nobody has enough control over the machine’s actions to be able to assume the responsibility for them. These cases constitute what we will call the responsibility gap. (Matthias 2004, S. 177)

Gehen Transparenz und Kontrolle verloren, ginge demnach auch Verantwortung verloren. Derartige Lücken sind für uns nur schwer zu ertragen, besonders wenn der entstandene Schaden ‒ wie in den zu anfangs genannten Beispielen ‒ ein existentielles Ausmaß hat. Verantwortungslücken in diesen Bereichen gilt es zu vermeiden. Würden durch den Einsatz künstlicher Intelligenzen Bedingungen geschaffen, die systematisch zu Verantwortungslücken führen, wäre ein gewichtiges Argument gegen deren Einsatz gegeben.

Das Argument zerfällt jedoch, wenn gezeigt werden kann, dass das Problem der Verantwortungslücken lösbar ist und dass Verantwortungsfragen im Kontext künstlicher Intelligenzen geklärt werden können. Eine einfache Lösung wäre gefunden, wenn man künstliche Intelligenzen selbst für die Schäden zur Verantwortung ziehen könnte, die sie verursacht haben. Dafür müssten sie über Fähigkeiten verfügen, die es rechtfertigen, sie als moralisch verantwortliche Akteure anzuerkennen. Wenn sie ab einem bestimmten Grad der Entwicklung tatsächlich über diese Fähigkeiten verfügen sollten, wäre es nicht nur möglich, sie moralisch zur Verantwortung zu ziehen, sondern wir sollten das auch tun (Neuhäuser 2014, S. 273). Bevor dieser Entwicklungsgrad erreicht ist, droht weiterhin die Gefahr von Verantwortungslücken. Daher sollte darüber hinaus die Frage gestellt werden, ob tatsächlich keine verantwortungsfähigen Akteure existieren, die für durch künstliche Intelligenzen verursachte Schäden zur Verantwortung gezogen werden können. Vielleicht sind beispielsweise Programmierer oder Betreiber künstlicher Intelligenzen doch in irgendeiner Weise für die Folgen deren Verhaltens verantwortlich, obwohl sie diese nicht vollständig kontrollieren oder vorhersehen konnten. Innerhalb dieses Buches werden beide Themenkomplexe bearbeitet. Die ersten beiden Teile sind primär der Frage gewidmet, ob es denkbar ist, dass künstliche Intelligenzen zu moralisch verantwortlichen Akteuren werden. Im dritten Teil wird exemplarisch ein Fallbeispiel auf die Frage hin analysiert, welche Akteure für einen durch eine künstliche Intelligenz verursachten Schaden zur Verantwortung gezogen werden können.

In den drei Teilen des Buches wird jeweils eine Leitfrage beantwortet. Die Leitfrage des ersten Teils lautet: Was ist ein moralisch verantwortlicher Akteur? Wenn man klären möchte, ob künstliche Intelligenzen verantwortliche Akteure sein können, ist zunächst ein Verständnis davon notwendig, was ein verantwortlicher Akteur ist. Dieses Verständnis kann nur durch eine intensive Auseinandersetzung mit dem Phänomen »Verantwortung« und der Praxis der Verantwortungszuschreibung erlangt werden. Auf eine erste Bestimmung dessen, was für die Arbeit unter »künstlicher Intelligenz« verstanden werden soll (Kapitel 1), folgt daher eine Auseinandersetzung mit den Fragen, was es bedeutet moralisch verantwortlich zu sein und wie die Praxis der Verantwortungszuschreibung strukturiert ist (Kapitel 2). Aufbauend auf den Ergebnissen des zweiten Kapitels wird dann beantwortet, welche Fähigkeiten eine Entität benötigt, um an der Praxis der Verantwortungszuschreibung als verantwortliches Subjekt teilnehmen zu können. Damit ist die Frage, wodurch sich moralisch verantwortliche Akteure auszeichnen, am Ende des ersten Teils vorerst hinreichend beantwortet.

Die Leitfrage des zweiten Teils lautet: Können künstliche Intelligenzen moralisch verantwortliche Akteure sein? Da sich im ersten Teil Intentionalität als zentrale Voraussetzung für Verantwortungsfähigkeit erwiesen hat, wird zunächst der Versuch unternommen vor dem Hintergrund der Philosophie des Geistes, die Frage zu beantworten, ob künstliche Intelligenzen intentionale Einstellungen haben können. Dieser Weg führt jedoch zu keinem klaren Ergebnis, weshalb in einem zweiten Ansatz die Frage bearbeitet wird, woher wir wissen können, ob künstliche Intelligenzen über die notwendigen Fähigkeiten für Verantwortungsfähigkeit verfügen (Kapitel 4). Auch auf diesem Weg lässt sich keine eindeutige Antwort auf die Frage finden, ob künstliche Intelligenzen verantwortliche Akteure werden können. Es zeigt sich jedoch, dass wir keine guten Gründe für die Annahme haben, dass sie es bereits sind und dass zumindest nicht ausgeschlossen werden kann, dass sie es jemals sein werden. Problemlos vorstellbar sind jedoch künstliche Intelligenzen, die menschliches Verhalten imitieren können. So könnte der Verdacht entstehen, dass es gerechtfertigt wäre, künstliche Intelligenzen wie verantwortliche Akteure zu behandeln, sobald sie sich so verhalten als wären sie welche. Damit werden die Fragen virulent, ob wir künstliche Intelligenzen, die menschliches Verhalten perfekt imitieren können, zur Verantwortung ziehen sollten und ob das überhaupt möglich ist (Kapitel 5). Durch die Auseinandersetzung mit diesen Fragen wird eine weitere Voraussetzung für Verantwortungsfähigkeit sichtbar, sodass die Frage, wodurch sich moralisch verantwortliche Akteure auszeichnen, erst am Ende des zweiten Teils vollständig beantwortet ist.

Die Leitfrage des dritten Teils lautet: Sollten künstliche Intelligenzen moralisch verantwortliche Akteure werden? Selbst wenn künstliche Intelligenzen mit ihrem derzeitigen Entwicklungsstand keine verantwortlichen Akteure sind und wir nicht genau wissen, ob es möglich ist, dass sie jemals die Voraussetzungen dafür erfüllen, könnte es sinnvoll und vielleicht sogar moralisch geboten sein, darauf hinzuarbeiten, dass künstliche Intelligenzen zu verantwortlichen Akteuren werden. Dadurch könnten Verantwortungsprobleme wesentlich einfacher gelöst und Verantwortungslücken vermieden werden. Um das Problem zu präzisieren, werden daher zu Beginn des dritten Teils Verantwortungslücken genauer beschrieben und ihre moralische Relevanz wird verdeutlicht. Daran anschließend werden die Fragen beantwortet, wer im Umfeld einer künstlichen Intelligenz als Verantwortungsträger oder -trägerin in Frage kommt und worin die Verantwortlichkeit jeweils begründet liegt (Kapitel 6). Das Problem der Verantwortungslücken erweist sich damit als weniger drastisch als befürchtet. Dennoch könnte es attraktiv sein, die Entwicklung künstlicher Intelligenzen zu verantwortlichen Akteuren voranzutreiben. Denn sollte es gelingen, sie mit den notwendigen Fähigkeiten auszustatten, könnten sie selbst zur Verantwortung gezogen werden und es wären weniger komplexe Analysen notwendig, um festzustellen, wer für die Schäden verantwortlich ist, die sie in der Welt verursachen. Deshalb werden abschließend die Fragen bearbeitet, ob es aus einer zweckrationalen Perspektive sinnvoll ist, künstliche Intelligenzen zu verantwortlichen Akteuren zu machen, und ob es aus moralischer Perspektive unbedenklich wäre (Kapitel 7). Zuletzt werden die Antworten auf die drei Leitfragen in einem Fazit zusammengefasst.

Dieses Buch kann als ein Beitrag zur Debatte um künstliche Intelligenzen gelesen werden. Mit der Frage, ob es prinzipiell möglich ist, dass künstliche Intelligenzen moralisch verantwortliche Akteure werden, wird die Verantwortungsfrage auf einer sehr grundsätzlichen Ebene behandelt. Künstliche Intelligenzen werden auf ihre Potenziale hin untersucht und ihr Charakter wird im Vergleich zu menschlichen Akteuren verdeutlicht. Zugleich wird im dritten Teil vorgeführt, wie im konkreten Anwendungsfall Verantwortung für die Folgen des Verhaltens künstlicher Intelligenzen zugewiesen werden kann. Verantwortungsprobleme erweisen sich im Laufe der Arbeit zwar als Herausforderung, aber nicht als unlösbares Problem. Insofern kann die Entwicklung und der Einsatz künstlicher Intelligenzen nicht allein durch den Hinweis auf vermeintlich unüberwindbare Verantwortungsproblematiken verunglimpft und gestoppt werden. Die Frage, ob die Entwicklungen vorangetrieben werden sollten und künstliche Intelligenzen in allen Bereichen eingesetzt werden dürfen, ist damit keineswegs geklärt. Die Frage nach der Verantwortung ist zwar ein gewichtiges Thema, wenn man über die Zulässigkeit künstlicher Intelligenzen spricht, sie ist aber keineswegs das einzige.

Neben dem Themenfeld »Verantwortung« finden sich weitere Themen aus der philosophischen Auseinandersetzung mit künstlicher Intelligenz und aus der Maschinenethik. Der zweite Teil liefert einen Beitrag zu der Frage, ob künstliche Intelligenzen intentionale Einstellungen entwickeln können und damit zu der Frage, ob starke künstliche Intelligenz möglich ist. In Kapitel 7 werden einige Überlegungen zum moralischen Status künstlicher Intelligenzen angestellt. Weiterhin wird in Kapitel 6 verhandelt, ob und inwiefern sich künstliche Intelligenzen als soziale Gefährten oder gar Beziehungspartner eignen. Nicht behandelt wird hingegen, auf welche Weise Ethik in intelligenten Systemen implementiert werden kann und wie sich künstliche Intelligenzen in komplexen Entscheidungs- oder dilemmatischen Situationen verhalten sollten. Es werden ebenfalls keine detaillierten technischen Erläuterungen oder Prognosen über zukünftige Entwicklungen künstlicher Intelligenzen gegeben.

Neben der Möglichkeit das Buch als Beitrag zur Debatte um künstliche Intelligenz zu lesen, besteht die Möglichkeit es als Beitrag zur Debatte um moralische Verantwortung zu lesen. Teil I und Kapitel 5 können ohne ein spezifisches Interesse an künstlicher Intelligenz gelesen werden. Darin findet sich Grundlagenarbeit zum Begriff und Phänomen der Verantwortung, die auch ohne Kenntnis der übrigen Kapitel verständlich sein sollte. Insbesondere erfolgt eine präzise Charakterisierung moralisch verantwortlicher Akteure. Die Rahmung der Verantwortungsthematik durch die spezifische Frage nach der Verantwortlichkeit künstlicher Intelligenzen kann als methodisches Hilfsmittel verstanden werden, durch das manche Aspekte des Begriffs und des Phänomens deutlicher sichtbar werden. Denn wie in dem der Arbeit vorangestellten Zitat angeklungen ist, könnte der wahre Mehrwert der Auseinandersetzung mit Robotern und künstlichen Intelligenzen letztlich darin bestehen, dass wir dabei stets etwas über uns selbst lernen.