Die Arbeit beschäftigt sich mit dem Vergleich verschiedener Theorien über das Bewusstsein und einer Synthese dieser, um in der Folge methodologische Kriterien zu entwickeln, um künstlichen Systemen Bewusstseinsgehalte zuzuschreiben. Um eine möglichst aussagekräftige Antwort zu formulieren, wird zunächst auf das Problem der Zuschreibung von Bewusstsein als solches eingegangen, um anhand der aufgezeigten Problematiken einen akzentuierten Bewusstseinsbegriff zu definieren, welcher es erlaubt, einen methodologischen Ansatz für Zuschreibungsmechanismen bei Maschinen zu finden.
Ruhr- Universität Bochum
Institut für Philosophie
Wintersemester 2019/2020
Seminar: Analytische Bewusstseinstheorien
Hausarbeit: Methodologie für die Zuschreibung von Bewusstsein bei Maschinen
Gordon Welzel
Methodologie für die Zuschreibung von Bewusstsein bei
Maschinen
Folgende Ausarbeitung beschäftigt sich mit dem Versuch der Formulierung einer zufriedenstellenden Antwort auf die Frage: “Wie kann ich feststellen, dass eine Maschine bewusst ist?” Um eine möglichst aussagekräftige Antwort zu formulieren, werde ich zunächst auf das Problem der Zuschreibung von Bewusstsein als solches eingehen, um anhand der aufgezeigten Problematiken einen akzentuierten Bewusstseinsbegriff zu definieren, welcher es mir erlauben wird, einen methodologischen Ansatz für Zuschreibungsmechanismen bei Maschinen zu finden.
1. Das “Other Minds” - Problem
Wenn man einer Maschine Bewusstsein zuschreiben möchte, entstehen zwangsläufig sehr spezifische Problematiken, welche sich auf den Begriff des Bewusstseins als solches zurückführen lassen. Um die Frage “woran erkenne ich, dass ein Roboter bewusst ist?” zu beantworten, sollte man sich zuerst fragen “woran erkenne ich überhaupt, dass ein anderes Lebewesen bewusst ist?” Im Allgemeinen gehen wir bei unseren menschlichen Gegenübern davon aus, dass wir typische Zustände, die wir mit dem Bewusstsein assoziieren aus ihren Mimiken ausdeuten können. Wenn man etwa einem Menschen begegnet, welcher heruntergezogene Mundwinkel und Tränen im Gesicht hat, dann wird man, selbst ohne Kontextwissen zu seiner Situation, mit hoher Wahrscheinlichkeit davon ausgehen, dass er Trauer empfindet.
Die Übertragung dieses intuitiven Zuschreibungssystems auf künstliche Systeme gestaltet sich aus mehreren Gründen als sehr schwierig. Wenn man sich einen Roboter vorstellt, welcher die gleichen äußeren Merkmale aufweist, also auf einen negativen Reiz mit der eben beschriebenen Mimik reagiert, liegt die Vermutung nahe, dass es sich um eine bloße Simulation eines Gesichtsausdruckes handelt mit der nicht zwangsläufig das Empfinden der Trauer einhergeht. Man könnte sagen, dass der Roboter zu dieser Reaktion programmiert wurde, selbige allerdings von keinem mit dem Bewusstsein assoziiertem Zustand begleitet wird.
Wenn in beiden Fällen nun die gleichen äußeren Zuschreibungskriterien erfüllt sind, man aber dennoch zu zwei unterschiedlichen Ergebnissen kommt, stellt sich die Frage, welchen epistemischen Wert dieses intuitive Zuschreibungssystem aufweist. Weiter könnte man die Frage stellen “was macht uns so sicher, dass ein anderer Mensch überhaupt empfindet, wenn wir allein seine Mimiken berücksichtigen?” Diese Problematik wird in der Philosophie unter dem Begriff des “Other Minds” - Problems1 diskutiert. Der Diskurs steht in der skeptischen Tradition von Descartes Meditationen, genauer gesagt auf der logischen Möglichkeit seines dritten methodischen Zweifels. In diesem geht er davon aus, dass jede Erkenntnis, die er von der Welt haben kann, potenziell fehlerhaft ist, wenn er annimmt, dass es einen “bösen Dämon” gibt, der ihm diese Welt nur vortäuscht. Wenn man diese Annahme nun überträgt, besteht ebenso die logische Möglichkeit, dass dieser “Dämon” mir alle Lebewesen um mich herum vortäuscht und selbige bewusstseinsleere Zombies sind, welche weder denken noch fühlen können, sondern sich lediglich so verhalten als würden sie es tun.
Diese Zombies würden, ähnlich wie eingangs beschriebener Roboter, auf einen negativen Reiz mit der entsprechenden Mimik reagieren, welchen man mit Trauer assoziiert, dennoch wäre mit dieser simulierten Reaktion kein Bewusstseinszustand verknüpft.
Wenn nun also dieses Gedankenexperiment zumindest logisch möglich ist, sollte die für uns so intuitive Zuschreibung von Bewusstsein über das Ablesen von Bewusstseinszuständen aus Gestiken und Mimiken kein verlässliches Instrument darstellen, da wir weder bei dem künstlichem System noch bei anderen Menschen mit wirklicher Sicherheit sagen können, ob ein Bewusstsein vorliegt oder ob die Kennzeichen simuliert werden, welche wir mit dem Vorhandensein von Bewusstseinszuständen assoziieren.
2. Das Problem des phänomenalen Bewusstseins
Das zu Grunde liegende Problem bei dem beschriebenem Zuschreibungsmechanismus liegt bei dem Verständnis des Zuschreibungsobjektes, also dem Begriff “Bewusstsein”. Was genau ist also das Bewusstsein? Eine Antwort im Sinne einer Definition scheint es nach heutigem Forschungsstand nicht zu geben und die Diskursansätze sind so vielfältig, dass eine komplette Darstellung den Rahmen meiner Arbeit sprengen würde. Dennoch ist die Spezifikation des Begriffs ein wichtiger Schritt in meiner Entwicklung einer Methodologie und im Folgenden werde ich zumindest eine grundlegende Unterscheidung treffen.
Das entscheidende Charakteristikum des Bewusstseins aus 1. scheint gewesen zu sein, dass ein Individuum bestimmte Empfindungen bei mentalen Zuständen aufweist. Ein Mensch ist demnach ganz intuitiv ein bewusstes Lebewesen, weil manche seiner mentalen Zustände von Emotionen begleitet sind, welche sich z.B. in seiner Mimik ausdrücken können.
Dieser subjektive Aspekt von bewussten, mentalen Zuständen wird unter dem Begriff des “Phänomenalen Bewusstseins” bearbeitet. Thomas Nagel etwa beschreibt in seinem Essay “What is it like to be a Bat?”2 den subjektiven Erlebnisgehalt mentaler Zustände, in der Philosophie auch Qualia genannt, als eine bestimmte Art und Weise auf die sich ein mentaler Zustand anfühlt (“what is it likeness”).
Wenn ein Mensch beispielsweise hungrig ist, dann laufen eindeutige neuronale Prozesse in seinem Hirn ab und die Person wird bestimmte Verhaltensmuster zeigen. Allerdings ist dies nicht das Einzige was passiert, denn beides wird von einer Qualität begleitet. Es fühlt sich auf eine bestimmte Art und Weise an hungrig zu sein. Nagel macht dieses Phänomen anhand des Beispiels einer Fledermaus deutlich und in diesem Zuge gleichzeitig auf ein Problem dieses Phänomens aufmerksam.
Die Fledermaus hat durch ihren eigentümlichen sensorischen Apparat, das Sonar, eine ganz besondere Wahrnehmung der Welt. Was wir durch optische Reize wahrnehmen und in unserem Hirn verarbeiten, erlebt sie durch das Ausstoßen von hochfrequentem Schall, welcher an Gegenständen der Welt abprallt und es ihr so ermöglicht, ein genaues Bild ihrer Umwelt zu erzeugen. Nagel gelangt in seiner Ausarbeitung nun zu dem Schluss, dass es für einen Menschen unmöglich ist, sich die Lebenswelt einer Fledermaus vollständig vorzustellen. Selbst wenn wir ein komplettes Wissen über die physikalisch und biologisch zu Grunde liegenden Prozesse haben, fehlt ein entscheidender Aspekt, der für dieses Verständnis unabdingbar ist, nämlich der subjektive Erlebnisgehalt, den die Fledermaus bei all diesen Prozessen hat.
Es sei höchstens möglich, so Nagel, sich aus der Perspektive eines Menschen heraus vorzustellen, wie es möglicherweise sei eine Fledermaus zu sein. Mit dieser Schlussfolgerung macht er auf einen interessanten Aspekt des phänomenalen Bewusstseins aufmerksam: Es ist privat. Diese Privatheit ist allerdings nicht nur auf verschiedene Spezies beschränkt, sondern ist dem phänomenalen Bewusstsein grundsätzlich zu eigen. Selbst in Bezug auf den Menschen kann sich ein Individuum höchstens anhand seiner eigenen Erfahrungsgehalte vorstellen, wie es sich möglicherweise für ein anderes Individuum anfühlt in einem bestimmten Zustand zu sein.
So könnte man nur vermuten wie sich Hunger für einen anderen Menschen anfühlt, indem man sein selbst erfahrenes Gefühl bei diesem Zustand abruft und auf dem Gegenüber überträgt. Ob es sich allerdings für beide tatsächlich identisch anfühlt, ist letztlich nicht festzustellen.
David Chalmers3 führte in diesem Zusammenhang den Term “hard problem of consciousness” ein, welchem er sogenannte “easy problems” gegenüberstellt. Er definiert das “hard problem” aus eben erklärten Gründen als ein unlösbares Problem im Zusammenhang mit dem phänomenalen Bewusstsein. Laut Chalmers werden wir selbst dann nicht in der Lage sein zu erklären, warum bestimmte Zustände
[...]
1 https://plato.stanford.edU/entries/other-minds/#TradEpisProb Stand 17.03.2020
2 Nagel, Thomas.1974 - What is it like to be Bat? In The Philosophical Review, Vol. 83, No. 4 . pp. 435-450
3 Chalmers, D. J. 1995. Facing up to the problem of conscioussnes. Journal of Consciousness Studies 2: 200-19.
- Arbeit zitieren
- Gordon Welzel (Autor:in), 2020, Intelligente Technologien. Die Zuschreibung von Bewusstsein bei Maschinen, München, GRIN Verlag, https://www.grin.com/document/1140385
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.