Können und sollen wir künstlichen Systemen den Status als moralische Akteure zuschreiben? Welcher moralische Status darf einem künstlichen System überhaupt zugeschrieben werden? Die moderne Technik durchdringt beinahe jeden Lebensbereich, sowohl in individueller als auch gesellschaftlicher Hinsicht. Maschinen geraten bereits jetzt bisweilen in Situationen, die ethische Entscheidungen von ihnen verlangen. Das Gesundheitswesen wie auch das Militär stellen zwei exemplarische Einsatzbereiche, in denen künstliche Systeme mit ethischen Prinzipien in Berührung kommen, dar. Auch deshalb sieht sich jede fortgeschrittene technisierte Gesellschaft mit zunehmender Komplexität und Autonomie von künstlichen Systemen zwangsläufig mit dieser Problematik konfrontiert.
Diese Arbeit orientiert sich an zwei zusammenhängenden theoretischen Fragen, die systematisch nacheinander abgehandelt werden. Die erste Frage konzentrierte sich auf die notwendigen und hinreichenden Bedingungen von Bewusstsein und Moral, die wiederum für die Erlangung des Status als moralischer Akteur erfüllt sein müssen. Die zweite Frage ist praktischer Natur und soll darüber Aufschluss geben, inwiefern künstliche Systeme tatsächlich in der Lage sind, moralisch zu handeln. Es wird zudem ein Konzept des Autors, welches er unter dem Begriff der "situativen Freiheit" beschreibt, vorgestellt. Das Konzept der situativen Freiheit soll als ein anschauliches Abgrenzungskriterium zwischen Mensch und Maschine dienen, und darüber hinaus Bedingungen für verschiedene Stufen der Autonomie sowie der moralischen Handlungsfähigkeit von künstlichen moralischen Akteuren formulieren. .
INHALT
1. Einleitung
1.1. Aufbau und Formulierung der Forschungsfrage
1.2. Zentrale Begriffsbestimmungen
2. Kritik der starken KI
2.1. Philosophische Grundlagen der Bewusstseinsdebatte
2.1.1. Monistische Theorien
2.1.2. Dualistische Theorien
2.1.3. Vom Materialismus zur Theorie der starken KI
2.2. Einwände gegen die starke KI
2.2.1. Das Chinesische Zimmer - Ein paradigmatisches Beispiel
2.2.2. Kreativität, Irrationalität und Imagination
2.2.3 Der Loebner Preis - Ein weiteres paradigmatisches Beispiel
2.3. Maschinenbewusstsein als neue Bewusstseinsform?
2.4. Zwischenfazit
3. Moral in künstlichen Systemen
3.1. Philosophische Grundlagen der Moralimplementierung
3.1.1. Echte und künstliche Handlungsakteure
3.1.2. Künstliche Systeme als moralische Akteure
3.1.3. Autonomie und Verantwortung
3.1.4. Drei Ansätze der normativen Ethik
3.2. Zwischenfazit
3.3. Die praktische Seite der Moralimplementierung
3.3.1. Methoden der praktischen Moralimplementierung
3.3.2. Von guten und schlechten Robotern
4. Kritik der funktionalistischen Theorie
4.1. Potenziale und Probleme des Funktionalismus
4.2. Das Konzept der situativen Freiheit
5. Resümee
6. Literatur- und Abbildungsverzeichnis
1. EINLEITUNG
Das Ausmass, in welchem artifizielle Systeme, die von Menschen programmiert und anschliessend dem Kauf sowie der entsprechenden Nutzung zugänglich gemacht werden, den Alltag der Käufer und Nutzer beherrschen, hat ein in der Geschichte beispielloses Mass erreicht. Der Umgang mit Technik wirft viele Fragen auf, seien sie juristischer, politischer oder nicht zuletzt auch ethischer Natur. Ebenso scheint klar zu sein, dass diese Fragen mit steigender Komplexität, Intelligenz und Autonomie der artifiziellen Systeme, sowie jedem zusätzlichen neuen sozialen Anwendungsbereich, auf den der Einsatz dieser ausgedehnt wird, umso dringlicher zu beantworten sind. Ein unter Technikphilosophen bekanntes Sprichwort lautet: „Je grösser die Autonomie eines künstlichen Systems, desto grösser die Notwendigkeit von ethischen Regeln“.1 Doch nach welchen Massstäben sollen diese ethischen Regeln in theoretischer und praktischer Hinsicht gestaltet werden? Und wie soll mit einem künstlichen System, das dazu programmiert ist, (un)bewusst moralische Entscheidungen zu treffen, umgegangen werden? Es offenbaren sich in dieser Hinsicht also gleichzeitig mehrere ineinander verwobene Problemfelder: Ein gewisser Grad an Autonomie wird benötigt, um überhaupt moralisch handeln zu können. Autonomie ist jedoch nur in Zusammenhang mit Verantwortung zu denken, also stellt sich zwingend die Frage der Verantwortungsfähigkeit von künstlichen Systemen. Umgekehrt sehen sich stark technisierte Gesellschaften mit dem Problem konfrontiert, dass in sukzessive ansteigender Tendenz Autonomie und damit auch Verantwortung von Menschen an künstliche Systeme abgegeben werden. Die Delegation jeder Aktion respektive jedes Handlungsentscheids, der von einer oder mehreren menschlichen Personen an ein technisches System weitergegeben wird, stellt insofern eine Reduktion menschlicher Autonomie dar, als dadurch (wenn auch nur in einem begrenzten Masse) Verantwortung an ein künstliches System abgegeben wird. Bereits Immanuel Kant hat darauf hingewiesen, dass Autonomie und Verantwortung untrennbar aneinandergekoppelt sind.2 Sie bilden sozusagen ein dualistisches Prinzip, welches später im aufklärerischen Denken und im liberalen Rechtsstaat seinen Niederschlag gefunden hat.
Wenn sich im Umkehrschluss allerdings mit fortschreitender Intelligenz und Autonomie von künstlichen Systemen ein artifizielles Moralempfinden rudimentärer Form in diesen entwickeln liesse, könnte ihnen dadurch der Status als moralisch handelnde und folglich auch als verantwortungsfähige Akteure zugeschrieben werden. Am Ende dieser Ereigniskette, so lautet eine verbreitete Annahme unter KI-Idealisten, würden sich moralisch perfekt konditionierte Maschinen produzieren lassen. Gleichzeitig hätte man das Autonomie-Verantwortungsproblem, mit dem sich stark technisierte Gesellschaften zwangsläufig konfrontiert sehen, gelöst.
In dieser Arbeit wird der Versuch unternommen, systematisch aufzuzeigen, wieso sich technische Heilsversprechen dieser Art nicht so leicht in die Praxis umsetzen lassen. Denn solange künstliche Systeme keine vollumfängliche Autonomie besitzen - davon sind wir Stand heute noch meilenweit entfernt - braucht es Menschen, die das System mit konkreten ethischen Handlungsanweisungen ausstatten. Jeder Mensch bringt bereits sein eigenes inneres moralisches Wertesystem mit individuellen Normen und Vorstellungen mit, welches, bewusst oder unbewusst, in die Programmierung des künstlichen Systems miteingegossen wird. Die These der Technikneutralität muss deshalb vor diesem Hintergrund zurückgewiesen werden, da Technik im Allgemeinen das Produkt menschlichen Handelns ist, und menschliches Handeln definitionsgemäss durch Werte bestimmt wird. Die ihr zugrundeliegende Intention, wie Janina Loh ausführt, wirkt konstitutiv für eine Handlung: „Denn gerade durch ihre Intention unterscheidet sich eine Handlung vom Instinkt oder blossem Verhalten. Durch die Intention werden Werte in eine Handlung eingeschrieben.“3 Darüber hinaus wäre es meines Erachtens naiv, davon auszugehen, dass sämtliche künstlichen Systeme ausschliesslich guten Zwecken dienen und deshalb stets moralisch einwandfrei handeln würden. Solange es keine moralisch vollkommenen Menschen gibt, und die wird es aufgrund der kognitiven Schwächen des menschlichen Gehirns niemals geben4, werden auch keine „moralischen Supermaschinen“ ins Leben gerufen. An dieser Stelle kristallisiert sich folgendes grundsatztheoretisches Problem, mit dem sich die Ethik seit jeher konfrontiert sieht, heraus: Es existiert kein ethisches System, welches universell zu jeder Zeit und von jeder Gesellschaftsform widerspruchslos akzeptiert werden würde. Mit anderen Worten: Es gibt nicht DIE eine letztgültige Ethik. Einige Ethik- und Moraltheorien nehmen zwar universelle Gültigkeit in Anspruch (so beispielweise die Pflichtethik von Immanuel Kant5 ), das heisst jedoch nicht, dass dieses Ideal zu jeder Zeit und in jeder Situation verwirklicht werden könnte. Der starke normative Gehalt von ethischen Regeln, besonders von ethischen Regelwerken, die wenig bis gar keinen Spielraum für Interpretation zulassen, kann in manchen Situationen ihre grosse Schwachstelle sein. Denn viele Handlungsentscheidungen in alltäglichen Situationen erfordern eine moralische Güterabwägung, die besonders in moralischen Extremsituationen, sogenannten moralischen Dilemmata, unheimlich schwer vorzunehmen ist und zu eklatanten Widersprüchen führen kann. Die menschliche Natur scheint eben doch weitaus komplexer und widersprüchlicher zu sein als dies die Sichtweise der klassischen Moraltheorien impliziert.
Dieselben menschlichen Entscheidungsprobleme, die durch eine moralische Güterabwägung verursacht werden, lassen sich analog auf die Ebene der künstlichen Systeme übertragen. Ein künstliches System, das die Intelligenz und Moral besitzt, um überhaupt in moralische Extremsituationen zu gelangen, sieht sich dort den gleichen moralischen Dilemmata ausgeliefert wie Menschen. Berühmte Beispiele für moralische Dilemmata sind das Trolley- Problem6, das sich mit der Abwägung von verschiedenen Menschenleben infolge eines drohenden Zugunglücks auseinandersetzt, sowie die Frage nach der Legitimität von Folter oder der Tötung eines Terroristen, wenn dabei gleichzeitig viele Menschenleben verschont blieben. Letztlich geht es bei beiden Beispielen um die Abwägung von Menschenleben, was sie zu absoluten Ausnahmefällen macht. Der entscheidende Punkt bezüglich moralischer Dilemmata ist aber wie bereits oben erwähnt die Tatsache, dass es kein universell akzeptiertes und praktiziertes Moralsystem gibt, welches dieses widerspruchsfrei auflösen könnte, was wiederum daher rührt, dass die diesbezüglichen Meinungen innerhalb der Ethik, die die traditionell dafür zuständige Disziplin für die Ausarbeitung von Moralsystemen ist, erheblich divergieren. So stehen sich, wie Misselhorn bemerkt, für die praktische Implementierung von Moral in artifiziellen Systemen drei ethische Theorien gegenüber, die in der einschlägigen Forschung herangezogen werden: Die eben schon erwähnte Pflichtethik von Immanuel Kant, die im anglistischen Raum sehr dominante utilitaristische Ethik von Bentham und Mill, und schliesslich die aristotelische Tugendethik.7 Auf die Erklärungslogiken dieser drei ethischen Ansätze wird in Abschnitt 3.1.4. dieser Arbeit vertiefter eingegangen.
Die Allgegenwertigkeit artifizieller Systeme innerhalb moderner Gesellschaften und das damit verbundene Chancen- wie auch Gefahrenpotenzial im Hinblick auf Entwicklung, Gestaltung und Einsatzmöglichkeiten künstlich geschaffener Systeme, hat viele Forscher dazu bewogen, sich intensiv mit genau diesen Fragen auseinanderzusetzen. Als Produkt interdisziplinärer Denk- und Arbeitsprozesse ist dabei die Maschinenethik als eigenständige Forschungsrichtung entstanden. Weil nicht alle Maschinen Roboter, jedoch alle Roboter Maschinen sind, ist zu späterer Zeit zusätzlich die Roboterethik als Teilgebiet der Maschinenethik hinzugekommen. Die Maschinenethik erforscht nicht nur Moral, sondern sie bringt die künstliche Moral in einem praktischen Prozess hervor, was sie gleichzeitig zu einer Gestaltungsdisziplin macht.8 Die vorliegende Arbeit setzt an diesem Punkt an und fokussiert sich auf die ethischen Dimensionen der Entwicklung, der Gestaltung und des sozialen Umgangs mit artifiziellen Systemen. Konkret stehen dabei zwei Fragen im Mittelpunkt: Erstens, was sind die notwendigen und hinreichenden Bedingungen von Moral und zweitens inwiefern können künstliche Systeme überhaupt als moralische Akteure qualifiziert werden? Um diese Fragen zu beantworten, werden zu Beginn der Abschnitte 2 und 3 dieser Arbeit jeweils die philosophischen Grundlagen formuliert. Im Weiteren werden die Themen behandelt, nach welchen konkreten Massstäben moralische Werte in künstlichen Systemen implementiert werden können und sollen. Die zweite Frage soll besonders in Abschnitt 4 geklärt werden. Abschnitt 5 schliesslich enthält das Resümee.
1.1. AUFBAU UND FORMULIERUNG DER FORSCHUNGSFRAGE
In der Einleitung ist sichtbar geworden, dass sich sowohl das Forschungsinteresse des Verfassers dieser Arbeit als auch die daraus resultierende Forschungsfrage an zwei voneinander abhängigen und sich gegenseitig ergänzenden Dimensionen der Maschinenethik orientieren. Beide Dimensionen werden folgend konkretisiert:
Die erste Dimension ist theoretischer Natur. Sie betrifft primär die Frage, was überhaupt gemeint ist, wenn von Moral gesprochen wird. Jeder gesunde Mensch spürt intuitiv, ob eine Handlung moralisch oder unmoralisch wahrgenommen wird. Ebenso scheint den meisten Menschen schnell klar zu werden, dass Emotionen eine wichtige Rolle bei der Bewertung moralischer Situationen einnehmen. Dasselbe gilt für den Begriff des Bewusstseins, der eng mit der Moral verbunden ist, dessen alltagssprachliche Verwendung jedoch oftmals ambivalent ist. Beim Bewusstsein kommt neben dem emotionalen Aspekt noch der sogenannte phänomenale Aspekt der subjektiv erlebten Wahrnehmung hinzu. Ein Ziel dieser wissenschaftlichen Arbeit besteht darin, einige Begriffsbestimmungen zu klären (siehe Abschnitt 1.2) und schliesslich in Abschnitt 2 diejenigen Bedingungen für Bewusstsein und Moral zu formulieren, die ein - gleich ob auf organischer oder anorganischer Basis - Organismus in einer äquivalenten Weisen erfüllen muss, damit er letzten Endes auch als moralischer Akteur qualifiziert werden kann.
Im Zuge dieser Auseinandersetzung wird in den Kapiteln 2.1 und 2.2 die Position vertreten, dass die sogenannte „These der starken KI“9, die davon ausgeht, dass künstliche Systeme in absehbarer Zeit Menschen in kognitiver und moralischer Hinsicht überlegen sein werden, auch bekannt als „Singularitätsthese“10, aus verschiedenen Gründen an den Bedingungen der Moral scheitert.
Die zweite Dimension in Abschnitt 3 richtet den Blick auf die praktische Welt und soll dabei vor allem untersuchen, welche Moraltheorien, sprich welche Regelsysteme in welchen Situationen als erstrebenswerte Handlungsgrundlage von künstlichen Systemen dienen könnten. Bezüglich der Ausarbeitung von ethischen Regelsystemen für artifizielle Systeme konkurrieren sogenannte „bottom-up-Ansätze“ mit „top-down-Ansätzen“. Beide Ansätze weisen sowohl Vor- als auch Nachteile auf, die in Abschnitt 3.1.3. dieser Arbeit ausführlicher diskutiert werden. Konkret werden in den Abschnitten 3 und 4 unterschiedliche Ansätze zur funktionalen Moralentwicklung in künstlichen Systemen diskutiert. Es werden in diesem Zusammenhang ebenso die Grenzen der funktionalen Moralentwicklung im Besonderen, als auch die Grenzen der zugrundliegenden funktionalistischen Theorie im Allgemeinen kritisch hinterfragt. Das vom Verfasser präsentierte Konzept der situativen Freiheit soll dabei als anschauliches Beispiel dienen (Siehe Abschnitt 4.2).
Einige der in dieser Arbeit thematisierten ethischen Ansätze weisen aus der Sicht des Verfassers das Potenzial zur praktischen Bewährung innerhalb von modernen technisierten Gesellschaften auf, andere haben sich in Teilbereichen bereits etabliert. Beispielsweise befinden sich bereits heute künstliche Systeme im Medizin- und Pflegebereich oder in den Einsatzsphären des Militärs in gewissen Situationen, die moralische Entscheidungen von ihnen verlangen.11 Letztlich bedeutet dies, dass künstliche Systeme bisweilen in Situationen geraten, die moralische Entscheidungen verlangen, ohne dass sie ein Bewusstsein dafür aufweisen, was die moralisch inhärenten Intentionen und Implikationen einer Handlung sind. Ein Problem, welches die Befürworter der Theorie der starken KI immer wieder in erhebliche Erklärungsschwierigkeiten bringt, und dass sie dann meistens insofern zu lösen versuchen, als sie ihren Prognosezeitpunkt der Singularität künstlicher Systeme zeitlich immer weiter hinausschieben (siehe Abschnitt 2). Darüber hinaus scheint der moralische Status von künstlichen Systemen, der für die Frage der Verantwortungsfähigkeit von essenzieller Bedeutung ist, höchst unklar zu sein. Ein Grund hierfür könnte in der anthropozentrischen Position, die von einer überwiegenden Mehrheit westlicher Wissenschaftler vertreten wird, liegen. Der Anthropozentrismus ist im Wesentlichen durch zwei Grundprinzipien gekennzeichnet:12 Das erste Prinzip ist der Vorzug der menschlichen Spezies gegenüber anderen Lebensformen. Den Menschen kommt dieser Betrachtung zufolge also moralischer Sonderstatus zu. Diese Position wird auch moralischer Anthropozentrismus genannt. Das zweite Prinzip ist die These des epistemischen Anthropozentrismus, die beinhaltet, dass nur Menschen über die Fähigkeit zur Erkenntnis verfügen und demzufolge auch nur Menschen ein eigenes Urteilsvermögen ausbilden können. Wer eine strikt anthropozentrische Position einnimmt, muss folglich die Idee eines künstlichen Systems, das die Fähigkeit moralischen Handelns und den Status als moralischer Akteur besitzt, zwingend ablehnen, um nicht in logische Widersprüche mit den eigenen philosophischen Grundannahmen zu geraten. Es sprechen meines Erachtens gute erkenntnistheoretische und moralische Gründe dafür, Menschen den Status als vollkommen autonom handelnde moralische Akteure gegenüber künstlichen Systemen vorzubehalten. Andererseits hilft uns ein kategorischer Ausschluss aller künstlichen Systeme aus dem Spektrum der moralischen Akteure aber auch nicht weiter, weil, wie oben gezeigt worden ist, künstliche Systeme bereits jetzt in Situation geraten können, die moralische Entscheidungen von ihnen verlangen.
Aufgrund dessen wird in Kapitel 3 an einigen Stellen das pragmatische Argument hervorgebracht, dass unser traditionelles anthropozentrisches Begriffsverständnis von Moral und Verantwortung aufgeweicht werden muss, weil man ansonsten Gefahr läuft, in starren und endlosen Diskussionen bezüglich artifizieller Moral zu verharren. Das Forschungsfeld der „schwachen KI“ bietet hier attraktive Chancen, um mithilfe verschiedener, hierarchisch gestalteten Differenzierungsstufen artifizieller Moral, das Feld des wissenschaftlichen Diskurses rund um moralische Handlungsfähigkeit von Entitäten gewinnbringend zu erweitern.
1.2. ZENTRALE BEGRIFFSBESTIMMUNGEN
Dieser Abschnitt will durch einzelne zentrale Begriffsbestimmungen mögliche semantische Ambivalenzen, die im Verlaufe der Arbeit entstehen könnten, vermeiden. Die vom Verfasser gewählten Definitionen basieren auf wissenschaftlichen Grundlagen.
I. Bewusstsein: Misselhorn definiert Bewusstsein als dasjenige Merkmal geistiger Zustände, welches sich auf das Empfinden und das Denken bezieht.13 Beim Empfinden spricht man vom phänomenologischen Bewusstsein. Das phänomenologische Bewusstsein kennzeichnet die Art und Weise, wie sich mentale Zustände für ein Subjekt anfühlen. (Zum Beispiel die subjektive Farbwahrnehmung beim Betrachten eines Sonnenuntergangs oder das subjektive Gefühl von Schmerzempfinden). Die Frage, ob man das phänomenologische Bewusstsein naturwissenschaftlich erklären kann, stellt das sogenannte schwierige Problem des Bewusstseins dar14, welches in Abschnitt 2, bei welchem es um die These der starken KI geht, genauer unter die Lupe genommen wird. Das sogenannte Zugangsbewusstsein bezieht sich auf das rationale Handeln, während das Selbstbewusstsein sowohl eine Komponente des Empfindens, als auch eine des Denkens aufweist: Das Bewusstsein seiner selbst kann als Form des Empfindens gedeutet werden, wohingegen ein reflexives Selbstwissen prinzipiell dem Denken zugeordnet wird.
II. Ethik: Ethik wird als philosophische Disziplin definiert, die sich mit der Moral beschäftigt. Während die deskriptive Ethik Moralvorstellungen von einzelnen Personen oder Gruppen beschreibt, prüft die normative Ethik, was moralisch richtig oder falsch ist.15 Für die Disziplin der Maschinenethik generell, und entsprechend auch für diese Arbeit, sind ausschliesslich Theorien der normativen Ethik von Bedeutung.
III. Moral: Als Moral bezeichnet man die Gesamtheit der moralischen Normen, Gebote und Handlungen. Die Moral ist Untersuchungsgegenstand der Ethik.
IV. Künstliche Systeme: Es existieren unterschiedliche Definitionen für künstliche Systeme. Die beiden Adjektive „künstlich“ und „artifiziell“ sind bedeutungsgleich (artifiziell ist dem englischen Sprachgebrauch entlehnt), und werden in dieser Arbeit als Synonyme verwendet. Maschinen und Roboter sind ebenfalls künstliche Systeme, die jedoch in den meisten Fällen bereits höhere Anforderungen bezüglich kognitiver Intelligenz und Autonomie erfüllen. Insofern könnte man den Begriff des künstlichen Systems auch als breit gefassteren Oberbegriff definieren. Der Verfasser wird bevorzugt den neutraleren Begriff des „künstlichen Systems“ gegenüber den etwas ambivalenteren Begriffen „Maschine“ und „Roboter“ verwenden. Den Grund dafür sieht der Verfasser hauptsächlich in der inflationären Verwendung der beiden letztgenannten Begriffe sowie dem dadurch erzeugten Framing durch die Kultur- und Filmindustrie.
V. Algorithmus: Ein Algorithmus stellt eine mathematisch operationalisierbare Handlungsvorschrift zur Lösung eines konkreten Problems dar. Algorithmen bilden die Grundlage von Computerprogrammen.16
VI. Künstliche Intelligenz (KI genannt): Grundsätzlich wird als künstliche Intelligenz eine Intelligenz bezeichnet, die sich konkret im mathematisch-logisch-operativen Bereich eines Algorithmus festmachen lässt. Künstliche Intelligenz ist als Teilgebiet der Informatik entstanden. Das ursprüngliche Ziel bestand darin, künstliche Systeme zu erschaffen, die zu intelligentem Verhalten und zu bestimmten kognitiven Leistungen fähig sind.17 Wie in Abschnitt 2 dieser Arbeit noch gezeigt wird, stellt ein hohes Mass an künstlicher Intelligenz eine notwendige, jedoch keine hinreichende Bedingung für die Implementation von Bewusstsein und Moral in künstlichen Systemen dar.
VII. Kkünstliche/artifizielle Moral: Während die künstliche Intelligenz das Ziel hat, intelligentes Verhalten zu modellieren oder zu simulieren, strebt die künstliche Moral an, künstliche Systeme mit der Fähigkeit zum moralischen Entscheiden und Handeln auszustatten.18
VIII. Intentionalität: Intentionalität markiert das fundamental wichtige Merkmal geistiger Zustände, sich auf einen Gegenstand oder einen Sachverhalt beziehen zu können. Dazu gehört auch, eine Meinung von, beziehungsweise über etwas zu haben, oder etwa Wünsche zu entwickeln. Intentionalität wurde von einigen Philosophen auch als die Eigenschaft, Inder-Welt-zu-sein, d.h. seine Einstellungen und Handlungen auf die (Um)Welt zu extrapolieren, bezeichnet.19 Darüber hinaus steht Intentionalität in engem Zusammenhang mit der Semantik der menschlichen Sprache. Diese kennzeichnenden Merkmale der Intentionalität besitzen künstliche Systeme aktuell noch nicht, und es wird innerhalb der Philosophie des Geistes kontrovers darüber diskutiert, ob sie diese Fähigkeiten grundsätzlich jemals in Zukunft entwickeln werden können.
IX. Willensfreiheit: Willensfreiheit wird generell als notwendige Bedingung moralischer Verantwortung betrachtet, und steht zugleich in enger Verbindung zur Autonomie.20
X. Theorie der schwachen KI: Die Theorie der schwachen KI fokussiert sich auf die Lösung konkreter Anwendungsprobleme, wobei menschliche Intelligenz im besten Falle simuliert, jedoch nicht eins zu eins dupliziert werden kann. Die Theorie der schwachen KI könnte man insofern als pragmatisch bezeichnen, als sie die Schwächen und Grenzen der starken KI anerkennt, und dennoch nach technisch konkret umsetzbaren, und gleichzeitig auch nach ethisch vertretbaren Lösungen strebt.21
XI. Theorie der starken KI: Der Theorie der starken KI ist mit dem Anspruch verbunden, eine dem Menschen vergleichbare allgemeine Form der Intelligenz hervorzubringen (Duplikation). Die starke KI betrachtet die Entwicklung künstlicher Systeme von einem evolutionären Standpunkt aus, und vertritt die Annahme, dass in absehbarer Zukunft ein Kipppunkt erreicht wird, ab dem sich künstliche Systeme (die als rein mathematische Objekte aufgefasst werden) unvorhersehbar verhalten, und eine dem Menschen überlegene Intelligenzform entwickeln werden. Diesen Zeitpunkt nennt man Singularität, weshalb die Theorie der starken KI auch als Singularitätsthese bezeichnet wird.22
2. KRITIK DER STARKEN KI
Die Bewusstseinsdebatte markiert seit den Forschungsanfängen im Bereich künstlicher Intelligenz ein interdisziplinäres Arbeitsfeld, in dem Philosophen, Kognitionsforscher, Psychologen und Informatiker gemeinsame Forschung betreiben. In den folgenden Abschnitten werden sowohl die wichtigsten theoretischen Grundlagen als auch die praktischen Konsequenzen ebenjener Debatte beleuchtet. Dies ist insofern wichtig, als das Bewusstsein eine zentrale Rolle bei der Entwicklung von fortgeschrittenen künstlichen Systemen spielt. Die Frage, ob es möglich ist, ein künstliches System zu erschaffen, das Bewusstsein entwickelt, erweist sich sozusagen als die „Gretchenfrage“ der KI-Forschung.23 An ihr offenbart sich das philosophische Weltbild der dahinterstehenden Person. So neigt jemand, der dem Materialismus nahesteht, tendenziell eher dazu, die Frage, ob es möglich ist, echtes Bewusstsein in künstlichen Systemen zu erzeugen, zu bejahen. Die materialistische Strömung vertritt die Auffassung, dass das Bewusstsein sich auf physikalische Prozesse im Gehirn reduzieren lässt, dass sich mentale Prozesse also naturwissenschaftlich- reduktionistisch erklären lassen. Indem man von dieser ontologischen Annahme ausgeht, lösen sich grundlegende Probleme auf den ersten Blick scheinbar in Luft auf. Dennoch, wie in dieser Arbeit gezeigt wird (s. Abschnitt 2.2), kann auch der Materialismus das harte Problem des Bewusstseins nicht lösen.24 Der Funktionalismus stellt eine in praktischer Hinsicht für die Entwicklung komplexer künstlicher Systeme hochrelevante Strömung dar, die dem Materialismus entstammt (ausführlicher dazu in Abschnitt 4).
Doch aus welchen Gründen ist die Bewusstseinsdebatte für diese Arbeit, in der es in erster Linie um die Frage der Moralimplementierung in künstlichen Systemen geht, von Bedeutung? Wenn man sich die Disziplin der Maschinenethik vor Augen führt, so sieht man, dass zwei Gründe dafür ausschlaggebend sind. Erstens: Bewusstsein ist eine notwendige Bedingung für Moral. Es ist unmöglich, das Wesen der Moral ohne das Bewusstsein zu erklären. Moralisches Handeln erfordert beispielweise nicht nur das Vorhandensein einer einfachen Form des reflexiven Selbstbewusstseins. Vielmehr wird zusätzlich eine minimale Form des Fremdbewusstseins benötigt, was konkret bedeutet, dass man dazu in der Lage sein muss, die Gefühlsperspektive einer anderen, sich in dieser moralischen Situation befindenden Person, einzunehmen. Fremdbewusstsein stellt also eine notwendige Bedingung für das, was unter Empathie verstanden wird, dar.25 Sowohl das Selbst- als auch das Fremdbewusstsein stehen mithin eng mit Gefühlswahrnehmungen in Verbindung, und moralisches Handeln ohne jegliche Gefühlswahrnehmungen erscheint im Lichte der gegenwärtig vorherrschenden Moralvorstellungen undenkbar.
Der zweite Grund, wieso die Bewusstseinsdebatte für diese Arbeit bedeutsam ist, liegt darin, dass sich anhand der Frage nach der Entstehung und wissenschaftlichen Erklärbarkeit von Bewusstsein die Position der starken KI und diejenige der schwachen KI ausgezeichnet analysieren und auch vergleichen lassen. Diese beiden Grundpositionen sind wiederum unabdingbar für die spätere Analyse, wenn es um die zentrale Frage geht, ob künstliche Systeme moralisch handeln können. Deshalb bietet sich die Bewusstseinsdebatte auch gut für eine kritische Positionierung der eigenen These an.
Nachdem in Abschnitt 2.1. die theoretischen Grundlagen der Bewusstseinsdebatte kurz charakterisiert werden, folgt in Abschnitt 2.2. eine Kritik der starken KI. Dabei werden die Schwachstellen der starken KI anhand des berühmten Gedankenexperiments des „chinesischen Zimmers“26, welches im Jahre 1980 vom amerikanischen Philosoph John Searle in die einschlägige Debatte eingeführt worden ist, rekonstruiert und kritisch besprochen. In Abschnitt 2.3. wird schliesslich eine potenzielle neue Bewusstseinsform, die von einigen Autoren ins Feld geführt wird, das Maschinenbewusstsein, kritisch diskutiert. Abschnitt 2.4. soll die Bewusstseinsdebatte mit einem kurzen Zwischenfazit beenden und ferner den Übergang zur höherstufigen Analyse der Bedingungen von Moral und Verantwortung markieren.
2.1. PHILOSOPHISCHE GRUNDLAGEN DER BEWUSSTSEINSDEBATTE
Die Philosophie des Geistes bildet diejenige Disziplin innerhalb der analytischen Philosophie, welche sich unter anderem mit der ontologischen Beschaffenheit der Welt und damit auch des menschlichen Bewusstseins befasst.27 Aus diesem Grunde besitzt die Philosophie des Geistes beachtliche Relevanz hinsichtlich der Diskussion um die Implementierung von Bewusstsein und Moral in künstlichen Systemen. Grob gesagt gibt es in der Philosophie des Geistes zwei gegensätzliche ontologische Standpunkte, die man für die Beschreibung der Phänomenbereiche unserer Welt einnehmen kann: Monistische und dualistische Theorien.28 Im Folgenden werden kurz die wichtigsten Aspekte beider Strömungen dargestellt.
2.1.1. MONISTISCHE THEORIEN
Alle bedeutenden monistischen Theorien haben die Tatsache gemeinsam, dass sie die Existenz eines Phänomenbereichs (man könnte anstatt Phänomenbereich auch die Begriffe „Welt“ oder „System“ benutzen), also entweder des Physisch-Materiellen oder des Geistig-Immateriellen, leugnen. Darüber hinaus setzen alle monistischen Theorien eine kausale Geschlossenheit des jeweiligen Phänomenbereichs voraus. Innerhalb des Monismus lassen sich zwei verschiedene Standpunkte festmachen. Dem idealistischen Standpunkt zufolge ist das ganze Universum mental oder spirituell, und es existieren nichts als blosse „Vorstellungen“, wobei jedes mentale Phänomen bereits eine solche Vorstellung ist.29 Die wohl berühmteste Form des Idealismus stammt vom britischen Philosophen George Berkeley. Für Berkeley gibt es nicht allein nur Vorstellungen, sondern auch einen Geist, der diese Vorstellungen enthält. Andere berühmte Philosophen wie Hegel oder Royce waren ebenfalls Idealisten. Angesichts unseres heutigen fortgeschrittenen naturwissenschaftlichen Wissenstandes findet die idealistische Theorie kaum mehr Beachtung in den entsprechenden Forschungskreisen.
Der materialistische Standpunkt vertritt Auffassung, dass die einzige Wirklichkeit, die es gibt, die materielle oder physische Wirklichkeit ist.30 Infolgedessen müssen mentale Zustände, sollten sie wirklich sein, auf eine Art von physischen Zuständen reduziert werden können, weil sie letztlich ja nichts anderes als physische Zustände in einem physisch kausal geschlossenen Phänomenbereich sein können.
Eine einflussreiche Form des Materialismus im letzten Jahrhundert war der sogenannte Behaviorismus. Die behavioristische Auffassung postuliert, dass der Geist das Verhalten des Körpers repräsentiert, und dass es darüber hinaus nichts gibt, was für das Mentale konstitutiv sein könnte. Der methodologische Behaviorismus entstammt der Psychologie und kann als Versuch angesehen werden, die Psychologie durch objektiv beobachtbares Verhalten auf eine Stufe mit den Naturwissenschaften zu heben.31 Die behavioristische Psychologie wurde oft auch als Reiz-Reaktionspsychologie bezeichnet. Behavioristen kritisierten Vertreter des Dualismus mit dem Einwand, wissenschaftliche Aussagen müssten objektiv überprüfbar sein und die einzigen objektiv überprüfbaren Aussagen über den Geist sind Aussagen über menschliches Verhalten.
Von der Annahme auszugehen, dass unsere Gefühle, Schmerzen, Gedanken usw. letztlich nichts als Verhaltensdispositionen sind, wirkt meines Erachtens kontraintuitiv und alles andere als plausibel. Durch seine offenkundigen Schwächen ist der Behaviorismus in den 1960er Jahren immer mehr in Kritik geraten und wurde schliesslich durch den sogenannten Physikalismus ersetzt. Dem Physikalismus wird oftmals auch der synonym verwendete Begriff „Identitätstheorie“ gleichgesetzt. Anhänger der Identitätstheorie glauben, dass das, was allgemein als mentale Zustände bezeichnet wird, in Wirklichkeit nur Zustände des Gehirns oder des Zentralnervensystems sind.32 Wenn wir also beispielsweise ein Schmerzgefühl oder einen starken Juckreiz empfinden, ist das ausschliesslich auf physische Prozesse in unserem Körper zurückzuführen. Es wird also eine Identität zwischen Bewusstseinszuständen auf der einen, und Gehirnzuständen auf der anderen Seite dargelegt. Verteidiger der Identitätstheorie beziehen sich dabei gerne auf wissenschaftliche Entdeckungen.
[...]
1 Wallach Wendell und Colin Allen, Moral Machines - Teaching Robots Right from Wrong, Oxford University Press, 2009, S.23.
2 Vgl. dazu: Kant Immanuel, Kritik der praktischen Vernunft, Frankfurt, 1977, Zugriff auf: www.zeno.org.
3 Loh Janina, Roboterethik - Eine Einführung, Suhrkamp Taschenbuch, 2019, S.07.
4 Vgl. dazu: Kahnemann Daniel, Schnelles Denken - Langsames Denken, Penguin Verlag, 2011, S.10-30.
5 Vgl. dazu: Kant Immanuel, Die Metaphysik der Sitten, Frankfurt, 1977
6 Vgl. dazu: Thomson Judith, The Trolley Problem, in: The Yale Law Journal, Vol. 94, 1985, S.1395-1415.
7 Vgl. dazu: Misselhorn Catrin, Grundfragen der Maschinenethik, Reclam Verlag, 2018.
8 Vgl. dazu: Bendel Oliver, Wozu brauchen wir die Maschinenethik? in: Handbuch Maschinenethik, Springer Verlag, 2019.
9 Wird in Abschnitt 1.2. definiert.
10 Vgl. dazu: Otte Ralf, Maschinenbewusstsein - Die neue Stufe der KI, Campus Verlag, 2021.
11 Vgl. dazu: Misselhorn Catrin, Grundfragen der Maschinenethik, Reclam Verlag, 2018.
12 Loh Janina, Roboterethik - Eine Einführung, Suhrkamp Taschenbuch, 2019, S.51-52.
13 Misselhorn Catrin, Grundfragen der Maschinenethik, Reclam Verlag, 2018, S.265.
14 Vgl. dazu: Chalmers David, The Hard Problem of Consciousness, Blackwell Publishing Ltd, 2007.
15 Misselhorn Catrin, Grundfragen der Maschinenethik, Reclam Verlag, 2018, S.267.
16 Misselhorn Katrin, Grundfragen der Maschinenethik, Reclam Verlag, 2018, S.265.
17 Ebd. S.267.
18 Ebd. S.8.
19 Vgl. dazu: Neuhäuser Christian, Künstliche Intelligenz und ihr moralischer Standpunkt, in: Jenseits von Mensch und Maschine, Nomos Verlag, 2012.
20 Misselhorn Catrin, Grundfragen der Maschinenethik, Reclam Verlag, 2018, S.273.
21 Misselhorn Katrin, Künstliche Intelligenz und Empathie - Vom Leben mit Emotionserkennung, Sexrobotern & Co., Reclam, 2021, S.10.
22 Vgl. dazu: Otte Ralf, Maschinenbewusstsein - Die neue Stufe der KI, Campus Verlag, 2021.
23 Vgl. dazu: Otte Ralf, Maschinenbewusstsein - Die neue Stufe der KI, Campus Verlag, 2021.
24 Vgl. dazu: Chalmers David, The Hard Problem of Consciousness, Blackwell Publishing Ltd, 2007.
25 Misselhorn Catrin, Künstliche Intelligenz und Empathie - Vom Leben mit Emotionserkennung, Sexrobotern & Co., Reclam, 2021, S.45.
26 Vgl. dazu: Searle John, Minds, Brains and Programs, Cambridge University Press, 1980.
27 Vgl dazu: Bieri Peter, Analytische Philosophie des Geistes, Springer Verlag, 1982.
28 Searle John, Geist - Eine Einführung, Suhrkamp Verlag, 2006, S.16ff.
29 Ebd. S.56.
30 Vgl. dazu insbesondere: Dennett Daniel, From Bacteria to Bach and Back: The Evolution of Minds, Norton & Company Verlag, 2017.
31 John Searle, Geist - Eine Einführung, Suhrkamp Verlag, 2006, S.58.
32 Ebd. S.63.
- Citar trabajo
- Lukas Zwiefelhofer (Autor), 2022, Maschinen als moralische Akteure, Múnich, GRIN Verlag, https://www.grin.com/document/1215867
-
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X.