Die Defense Advanced Research Projects Agency (DARPA) des Verteidigungsministeriums der Vereinigten Staaten von Amerika rief 2016 das Explainable Artificial Intelligence (XAI)-Programm ins Leben, mit dem Fokus, Techniken maschinellen Lernens zu entwickeln, die erstens erklärbare Modelle bei gleichbleibend hoher Lernfähigkeit erzeugen und zweitens den Menschen befähigen, AI-Systeme zu verstehen, ihnen angemessen zu vertrauen und die nächste Generation intelligenter Systeme kontrollieren zu können. Denn nur, wenn wir Menschen verstehen, wie KI-Systeme zu Entscheidungen gelangen, haben wir die Möglichkeit, sie mehrwertbringend in industriellen Prozessen anzuwenden und positiv in das tägliche Leben unserer Gesellschaft zu integrieren. Zielvorgabe der vorliegenden Arbeit ist die Darstellung und Analyse zweier Methoden, namentlich der Sensitivity Analysis (SA) und der Layerwise Relevance Propagation (LRP), deren eigene Zielsetzung es ist, die Entscheidungen intelligenter Systeme für den menschlichen Betrachter nachvollziehbar zu machen. Bevor jedoch auf die einzelnen Methoden, deren Funktionsweise und auf eine kritischen Betrachtung eingegangen werden kann, bedarf es einer Abgrenzung des Forschungsgebiets der XAI.
Artificial Intelligence (AI) – ein populärer Begriff aktueller Zeit, der mit einer Vielzahl an technologischen Anwendungen in Verbindung gebracht wird. Manchmal prominent und tangibel in Form von menschenähnlichen Robotern, wieder andere Male subtil, weder sichtbar noch greifbar in Form von Algorithmen. Dabei ist die konzeptionelle Idee der Abbildung künstlicher Intelligenz durch Computersysteme keine neue Errungenschaft, sondern geht bis auf die Erkenntnisse von Warren McCulloch und Walter Pitts im Jahr 1943 zurück. McCulloch/Pitts (1943) offerierten ein Modell, das in Anlehnung an das biologische Vorbild künstliche Neuronen an- bzw. ausschaltet, je nach Stimulus durch benachbarte Neuronen. Dabei wird impliziert, dass durch ein Netzwerk künstlicher Neuronen ebenfalls die Möglichkeit der Lernfähigkeit bestünde.
Inhaltsverzeichnis
Abkürzungsverzeichnis in alphabetischer Ordnung
1 Aritificial Intelligence – ein Black Box System?
2 Explainable Artificial Intelligence
3 Künstliche Intelligenz
3.1 Abgrenzung und Begriffsdefinition
3.2 Deep Learning und künstliche neuronale Netzwerke
4 Methoden von Explainable Artificial Intelligence
4.1 Sensitivity Analysis
4.2 Layerwise Relevance Propagation
4.3 Quantitative Evaluation und Vergleich beider Methoden
5 Kritische Betrachtung und Fazit
Quellenangaben
Literaturverzeichnis
Abbildungsverzeichnis
Gleichungsverzeichnis
Anhang
Abkürzungsverzeichnis in alphabetischer Ordnung
Abb. Abbildung
Abk. Abkürzung
AI Artificial Intelligence
ANN Artificial Neural Network
bspw. Beispielsweise
bzw. Beziehungsweise
DARPA Defense Advanced Research Projects Agency
d.h. Das heißt
DL Deep Learning
DNN Deep Neural Network
e.g. example given
engl. english
Gl. Gleichung
EU Europäische Union
KI Künstliche Intelligenz
LRP Layerwise Relevance Propagation
ML Machine Learning
SA Sensitivity Analysis
u.a. unter anderen
XAI Explainable Artificial Intelligence
z.B. zum Beispiel
1 Aritificial Intelligence – ein Black Box System?
Artificial Intelligence (AI) – ein populärer Begriff aktueller Zeit, der mit einer Vielzahl an technologischen Anwendungen in Verbindung gebracht wird. Manchmal prominent und tangibel in Form von menschenähnlichen Robotern, wieder andere Male subtil, weder sichtbar noch greifbar in Form von Algorithmen. Dabei ist die konzeptionelle Idee der Abbildung künstlicher Intelligenz durch Computersysteme keine neue Errungenschaft, sondern geht bis auf die Erkenntnisse von Warren McCulloch und Walter Pitts im Jahr 1943 zurück. McCulloch/Pitts (1943) offerierten ein Modell, dass in Anlehnung an das biologische Vorbild, künstliche Neuronen an- bzw. ausschaltet, je nach Stimulus durch benachbarte Neuronen. Dabei wird impliziert, dass durch ein Netzwerk künstlicher Neuronen ebenfalls die Möglichkeit der Lernfähigkeit bestünde.1
Doch erst jüngste technologische Fortschritte wie die Verfügbarkeit von Speicherkapazität und Rechenleistung ermöglichten die effiziente Implementierung dieser Modelle und liefern eine Erklärung für die derzeitige Prominenz von Artificial Intelligence- Systemen in industrieller Anwendung und Gesellschaft. Autonomes Fahren, Robotik, medizinische Diagnostik oder Entscheidungsfindung bei der Vergabe von Krediten sind nur einige Beispiele der Applikation Künstlicher Intelligenz (KI) in der Praxis. Aufgrund ihrer verzweigten, nicht linearen Architektur sind solche Systeme jedoch häufig hoch komplex und damit für den Menschen nicht transparent in ihrer Funktionsweise. Ein Umstand, der ihnen ein sogenanntes Black-Box- Verhalten nahelegt, d.h. es ist weder ersichtlich noch nachvollziehbar wie die inneren Abläufe einer solchen Struktur zu einem bestimmten Ergebnis kommen.2 Doch sollten wir Artificial Intelligence nicht in ihrer Gesamtheit verstehen, wenn sie unser tägliches Leben beeinflusst und sowohl die Industrie als auch das gesellschaftliche Zusammenleben nachhaltig prägt? Sollten wir nicht nachvollziehen können, wie bestimmte Entscheidungen durch intelligente Systeme getroffen werden, um sie bei Fehlentscheidungen zu verbessern oder zumindest zu hinterfragen? Gilt es nicht Transparenz zu fordern, anstatt der Empfehlung eines KI-Systems blindlings zu vertrauen?
Fragen, mit denen sich längst Institutionen wie zum Beispiel die Europäische Union (EU) oder die Defense Advanced Research Projects Agency (DARPA) des Verteidigungsministeriums der Vereinigten Staaten von Amerika beschäftigen. So erließ erstere im Jahr 2017 ein Recht auf Erklärung algorithmischer Entscheidungen für alle EU-Bürger. Jeder Bürger hat ein Recht auf u.a. gehaltvolle Informationen bezüglich der Logik, die zur Entscheidungsfindung genutzt wird, wodurch der Bedarf nach mehr Transparenz von algorithmischen Entscheidungen manifestiert wird.3 DARPA hingegen rief 2016 das Explainable Artificial Intelligence (XAI) - Programm ins Leben, mit dem Fokus Techniken maschinellen Lernens zu entwickeln, die erstens erklärbare Modelle bei gleichbleibend hoher Lernfähigkeit erzeugen und zweitens den Menschen befähigen AI-Systeme zu verstehen, ihnen angemessen zu vertrauen und die nächste Generation intelligenter Systeme kontrollieren zu können.4 Denn nur, wenn wir Menschen verstehen wie KI-Systeme zu Entscheidungen gelangen, haben wir die Möglichkeit sie mehrwertbringend in industriellen Prozessen anzuwenden und positiv in das tägliche Leben unserer Gesellschaft zu integrieren.
Zielvorgabe der vorliegenden Arbeit ist die Darstellung und Analyse zweier Methoden, namentlich der Sensitivity Analysis (SA) und der Layerwise Relevance Propagation (LRP), deren eigene Zielsetzung es ist, die Entscheidungen intelligenter Systeme für den menschlichen Betrachter nachvollziehbar zu machen. Bevor jedoch auf die einzelnen Methoden, deren Funktionsweise und auf eine kritischen Betrachtung eingegangen werden kann, bedarf es einer Abgrenzung des Forschungsgebiets der XAI.
2 Explainable Artificial Intelligence
Explainable Artificial Intelligence – beschreibt kein neues Forschungsgebiet, sondern viel mehr eine Weiterentwicklung, denn die Herausforderung Entscheidungen intelligenter Systeme erklärbar zu machen, hat ihren Ursprung in der Forschung Künstlicher Intelligenz selbst und ist ebenso alt.5 Ziel der Forschung auf dem Gebiet der KI ist es nach wie vor, Systeme bzw. Software-Artefakte zu entwickeln, die auf Basis gelernter Erfahrungen möglichst genaue Prognosen treffen.6 Von einem Black Box-Verhalten, bei dem die inneren Entscheidungsprozesse eines AI-Systems verdeckt bleiben, soll der Weg hin zu einem Glassbox -Verhalten geebnet werden, d.h. vollkommen transparent und nachvollziehbar. So proklamiert Holzinger (2018), dass „kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ‚explainable AI‘“.7
Techniken des maschinellen Lernens finden sich bereits heute in vielen Anwendungen wie zum Beispiel der Bild- und Spracherkennung oder der Prozessierung natürlicher Sprache – teilweise sogar auf dem Niveau menschlichen Leistungsvermögens. Dennoch ist bei sicherheitskritischen Applikationen wie in der medizinischen Diagnostik oder auf dem Gebiet des autonomen Fahrens die Korrektheit und die Güte der Techniken und Modelle intelligenter Systeme zu garantieren. Eine Vorgabe, die Möglichkeiten für das Interpretieren und Verstehen solcher Modelle im Sinne robuster Validierungsprozeduren in den Mittelpunkt rückt.8
Allgemein anerkannt bisher ist, dass simple Modelle eine höhere Interpretierbarkeit aufweisen als komplexe.9 Die traditionellen Modelle maschinellen Lernens, hier als simple Modelle eingestuft, haben jedoch ihre Limitierungen in der Verarbeitung unstrukturierter, „roher“ Inputdaten, d.h. Rohdaten müssen von einem KI-System zunächst in eine geeignete Repräsentationsform gebracht werden, bevor eine Mustererkennung durchgeführt werden kann. Weiterhin sind solche Systeme nur mit Expertenwissen realisierbar und bedürfen einer präzisen Implementierung.10 Im Gegensatz hierzu müssen Deep Learning (DL) - Methoden unstrukturierte Inputdaten nicht erst in eine geeignete Repräsentationsform zur Mustererkennung überführen – das KI-System selbst lernt die geeignete Form anhand der Eingabeinformationen. Es handelt sich hierbei also um Repräsentations-lernende Methoden, die es einem intelligenten System ermöglichen sich die zur Mustererkennung benötigte Repräsentationsform eigenständig und automatisiert anzueignen.11 Aufgrund ihrer vernetzten, non-linearen inneren Struktur und ihre dadurch gesteigerte Lernfähigkeit übertreffen Deep Learning-Modelle herkömmliche Modelle maschinellen Lernens in Applikationen wie u.a. Bild- und Spracherkennung sowie der Prozessierung natürlicher Sprache. Eben diese innere Architektur ist es jedoch auch, die den Ablauf der Entscheidungsfindung für den Menschen schwer nachvollziehbar und intransparent macht. Die gesteigerte Leistungsfähigkeiten von KI-Systemen wird somit auf Kosten der Interpretier- und Erklärbarkeit erreicht, weshalb DL-Modelle häufig als sogenannte Black Boxes bezeichnet werden.12 Hinsichtlich sicherheitskritischer Anwendungen, kann die Intransparenz solcher Anwendungen sogar potentiell gefährlich werden. Im Zuge dessen rückt die Entwicklung von Techniken zur verbesserten Interpretier- und Erklärbarkeit von AI-Systeme vermehrt in den Fokus, was sich auch durch das oben aufgeführte Explainable Artificial Intelligence-Programm der DARPA bemerkbar macht, dessen Teilziel es ist, erklärbare Modelle bei gleichbleibend hoher Leistungsfähigkeit hervorzubringen.13
Im Kontext jener Interpretationstechniken sind die Begriffe „Interpretation“ und „Erklärung“ hinsichtlich Künstlicher Intelligenz für die vorliegende Arbeit eindeutig festzulegen. So definieren Montavon et al. (2017) den Begriff der Interpretation wie folgt:
„An interpretation is the mapping of an abstract concept (e.g. a predicted class) into a domain that the human can make sense of.”14
Weiterhin wird der Begriff der Erklärung wie folgt definiert:
„An explanation is the collection of features of the interpretable domain, that have contributed for a given example to produce a decision (e.g. classification or regression).”15
Eine Erklärung, gewonnen durch die Anwendung solcher Interpretationstechniken, kann sich zum Beispiel in Form einer sogenannten Heatmap manifestieren, die im Bereich der Bilderkennung die für eine Klassifikationsentscheidung relevanten Pixel eines Bildes farblich hervorhebt.16 Die aufgeführten Begriffsdefinitionen sind für die vorliegende Arbeit maßgebend. Einzugliedern sind die folgend zu analysierenden Interpretationstechniken, Sensitivity Analysis und Layerwise Relevance Propagation, in die Kategorie der post-hoc interpretability. Im Gegensatz zu Ante-Hoc-Methoden, d.h. Methoden basierend auf von Natur aus interpretierbaren Modellen17, oder der direkten Integration der Interpretierbarkeit in das Modell selbst, sucht die Post-Hoc Interpretierbarkeit das Modell für den Menschen verständlich zu machen, nachdem eine Vorhersage bereits getroffen wurde.18 In diesem Kontext bedeutet „Verstehen“, ein funktionales Verstehen des zugrunde liegenden Modells, d.h. die Charakterisierung des Black Box-Verhaltens eines Deep Learning-Modells ohne die genauere Betrachtung der inneren Architektur. Vielmehr wird der Fokus auf die Interpretation der Ausgabe und die Erklärung individueller Prognosen solcher Systeme gelegt.19
Samek et al. (2017) charakterisiert dabei weiterführende Möglichkeiten, die sich durch die zielgerichtete Anwendung von Interpretiertechniken ergeben. So wird argumentiert, dass AI-Systemen, deren Funktionsweise intransparent ist, nicht blindlings vertraut werden sollte. Vielmehr gilt es deren Funktionsweise zu verstehen, um die Systeme weiterentwickeln und verifizieren zu können. Weiterhin birgt die automatische Prozessierung von Millionen an Datensätzen die Möglichkeit für den Menschen neue Erkenntnisse zu gewinnen und somit von einem AI-System zu lernen. Letztlich stellt sich mit dem Einzug intelligenter Systeme in das alltägliche Leben unserer Gesellschaft auch die Frage der Verantwortlichkeit bei Fehlentscheidungen. Doch erst, wenn diese Entscheidungsprozesse vollumfänglich nachvollzogen werden können, ist eine Verantwortlichkeit eindeutig zuschreibbar, sodass die Transparenz von Entscheidungsprozessen intelligenter Systeme auch in den Fokus eines legislativen Rahmens fällt.20 Diese Potenziale im Blick, drängt sich zunächst die Frage auf, wie der Begriff „Artificial Intelligence“ definiert und abgegrenzt wird.
3 Künstliche Intelligenz
3.1 Abgrenzung und Begriffsdefinition
In der Literatur ist der Begriff „Künstliche Intelligenz“ nicht eindeutig definiert. Es findet sich vielmehr ein breites Spektrum an Begriffsdefinitionen, die jeweils kontextbezogen unterschiedliche Charakteristika intelligenter Systeme hervorheben. Sinnvoll erscheint jedoch zunächst die Orientierung an menschlichen, d.h. natürlichen Fähigkeiten.21
Doch welche dieser Eigenschaften hat ein System aufzuweisen, um als intelligent eingestuft zu werden?
Der sogenannte Turing Test nach Alan Turing (1950) ist einer der bekanntesten Versuche einer operationalen Definition von Künstlicher Intelligenz. Ein Computersystem nimmt hierbei an einem Dialog mit einem menschlichen Interviewpartner teil, der schriftliche Fragen stellt. Das System besteht den Test, sobald der menschliche Interviewpartner nicht mehr differenzieren kann, ob die Antworten auf die vormals gestellten Fragen natürlicher oder künstlicher Natur sind. Mit anderen Worten: Eine Unterscheidung, ob nun eine Person oder ein Computersystem geantwortet hat, nicht mehr möglich ist.22 Hieraus schließt Turing (1950), dass ein Computersystem insgesamt vier Fähigkeiten aufweisen muss, um den Test zu bestehen und damit als intelligent zu gelten. Namentlich die Fähigkeit natürliche Sprache zu prozessieren (engl. natural language processing), die Fähigkeit Wissen zu speichern und vorzuhalten (engl. knowledge representation) sowie die Eigenschaften jenes Wissen zur Beantwortung der Fragen zu nutzen (engl. automated reasoning) und das Vermögen sich an veränderte Umstände anzupassen und Mustererkennung zu betreiben (engl. machine learning).23 Den ursprünglichen Test erweiternd, ermöglicht der sogenannte totale Turing Test dem menschlichen Interviewer mittels eines Videosignals die Fähigkeiten der Wahrnehmung des Befragten zu validieren. So werden die vier oben genannten Eigenschaften um zwei weitere Fähigkeiten, der Computer Vision zur Wahrnehmung von Objekten (engl. computer vision) sowie der Robotik zur Manipulation von Objekten (engl. robotics), ergänzt.24
Eng verbunden und auf den Befunden des Turing Test basierend ist der Ansatz des rationalen Agenten. Abstammend vom Lateinischen „agere“, ins Deutsche übersetzt „tun“, ist ein Agent zunächst lediglich etwas oder jemand, das bzw. der handelt. Ein rationaler Agent hingegen ist etwas oder jemand, das bzw. der auch unter Umständen der Ungewissheit, das bestmögliche Ergebnis erzielt. Von Computer Agenten wird hierbei erwartet, dass sie ihre Umgebung wahrnehmen und sich an sie anpassen, autonom und zielgerichtet handeln und dies persistent über einen längeren Zeitraum. Somit ist der Maßstab intelligenter Systeme das Agieren als rationale Agenten, die u.a. die Fähigkeit innehaben auf Basis logischer Schlussfolgerung zu handeln, um eine gesteckte Zielvorgabe zu erreichen oder eine Problemstellung zu lösen.25
Damit ein Computersystem rational im Sinne eines rationalen Agenten fungiert, werden die durch den Turing Test identifizierten Fähigkeiten benötigt.26 Für die vorliegende Arbeit ist „Künstliche Intelligenz“ im Sinne eines intelligenten Systems als rationaler Computeragent zu betrachten, der mindestens die durch den Turing Test identifizierten Fähigkeiten aufweist. Insbesondere die Fähigkeit Wissen zu speichern, vorzuhalten und für die Lösung eines Problems bzw. einer Aufgabe zu nutzen (knowledge representation und automated reasoning) in Kombination mit der Eigenschaft sich an die Umstände anzupassen und Mustererkennung zu betreiben (machine learning), bedingen die Fähigkeit des Lernens. Ein Charakteristikum, das durch eine bestimmte Netzwerkarchitekur ermöglicht wird. Im Folgenden daher eine kurze Einführung in Deep Learning-Modelle und deren strukturelle Realisierung.
3.2 Deep Learning und künstliche neuronale Netzwerke
Deep Learning (DL), ins Deutsche übersetzt „tiefes “ bzw. „mehrschichtiges Lernen “27 , ist eine spezielle Form der in Abschnitt 2 angesprochenen Repräsentations-lernenden Methoden, die aufgebaut über mehrere Prozessierungsschichten die Repräsentation von Rohdaten in eine abstrahierte, aber für intelligente Systeme zur Entscheidungsfindung geeignete Repräsentationsform überführen.28 Einzugliedern sind diese Methoden in den Bereich der Techniken des maschinellen Lernens.29 Im Vergleich zu traditionellen Machine Learning (ML)-Methoden, erzielen Deep Learning-Methoden deutlich bessere Ergebnisse auf den Gebieten der Sprach- und (visuellen) Objekterkennung sowie der Sequenzerkennung.30 Zurückzuführen ist das gesteigerte Leistungsvermögen auf die Fähigkeit aussagekräftige Muster in hoch dimensionalen Datensätzen zu erkennen.31 Eine Charakteristik, die in ihrer Implementierung durch die Funktionsweise künstlicher neuronaler Netzwerke (engl. Artificial Neural Network / Abk. ANN) bewerkstelligt wird. Zur verbesserten Orientierung ist in Abbildung 1 eine solche Netzwerkarchitektur schematisch dargestellt.
In Anlehnung an das biologische Vorbild der Neuronen, d.h. der Hypothese, dass die natürliche, mentale Aktivität durch die elektrochemischen Impulse eines neuronalen Netzwerks konstruiert wird, nimmt die Realisierung von Deep Learning-Methoden die Struktur künstlicher neuronaler Netzwerke an.32 Ein Artificial Neural Network ist definiert als eine vernetzte Ansammlung von Neuronen, die in einer Aufeinanderfolge mehrerer Schichten angeordnet sind, bei denen Neuronen einer jeweiligen Schicht (engl. layer) die neuronale Aktivität der vorherigen Schicht als Input empfangen, selbst eine simple Berechnung durchführen und wiederum ihre Aktivität als Output, respektive Input an die Neuronen der nachfolgenden Schicht weitergeben. Jedes Neuron für sich führt dabei eine einfache Berechnung durch, zusammen jedoch dient das Kollektiv der Neuronen der Implementierung einer komplexen, non-linearen Funktion zur Abbildung von Eingabe- auf Ausgabewerte.33 In Anlehnung an Abbildung 1 wird so eine mathematische Funktion definiert, die die Neuronen der ersten Eingabeschicht (engl. input layer) über die Neuronen der verdeckten Schichten (engl. hidden layer) mit den Neuronen der letzten Ausgabeschicht (engl. output layer) verbinden.34
Abbildung in dieser Leseprobe nicht enthalten
Abb. 1: Schematische Darstellung eines ANN, Bach et al. (2015), S. 20.
Bach et al. (2015) nutzen ein solches mehrschichtiges Netzwerk zur Dekomposition auf Pixelebene bei der Klassifikation von Bildern und argumentieren, dass eine Verknüpfung von einer zur nachfolgenden Schicht durch eine lineare Projektion gefolgt von einer non-linearen Funktion realisiert wird und wie folgt mathematisch definiert ist:
Abbildung in dieser Leseprobe nicht enthalten
wobei das Gewicht bzw. Stärke der Verbindung von Neuron zu Neuron beschreibt, den Bias -Term und als nicht lineare Aktivierungsfunktion definiert ist.35 Die Verbindung von Neuronen der Schicht zu Neuronen der Schicht wird dabei definiert als die Aktivierung des Neurons multipliziert mit dem Gewicht der Verbindung . Das numerische Gewicht legt hierbei die Signalstärke und das Vorzeichen jener Verbindung fest. Der von Neuron empfangene Inputwert setzt sich zusammen aus der gewichteten Summe aller Inputverbindung addiert mit dem Bias-Term . Schlussendlich wendet Neuron auf den so empfangenen Inputwert eine non-lineare Aktivierungsfunktion an, wie z.B. die Sigmoid Aktivierungsfunktion (Sigmoid Perzeptron), um den eigenen Ausgabewert, respektive Inputwert für die mit ihm verknüpften Neuronen der nachfolgenden Schicht zu berechnen.36 Das hier vorgestellte mathematische Modell ist generisch genug gehalten, um ein breites Spektrum an unterschiedlichen Ausprägungen solcher Netzwerkarchitekturen abzudecken.37 Dennoch offen ist die Beantwortung der Frage, wie die Fähigkeit des Lernens realisiert wird.
Mehrschichtige neuronale Netzwerke oder auch Deep Neural Networks (DNN) etablieren ihre Lernfähigkeit durch die Anpassung des Gewichts der Verbindungen jedes einzelnen Neurons und erlernen die geeignete Repräsentationsform anhand gegebener Datensätze durch eine Technik namens error backpropagation.38 Kernidee hierbei ist die rückwärtsgerichtete Propagierung einer Abweichung, d.h. einer fehlerhaften Ausgabe auf die dafür „verantwortlichen“ Neuronen, um so durch Anpassung der gewichteten Verbindungen die Abweichung zu minimieren. Der Ansatz einer rückwärtsgerichteten Berechnung findet sich ebenfalls in Methoden der XAI, von denen zwei im Folgenden näher charakterisiert werden.
[...]
1 Vgl. Russell/Norvig (2009), S. 16.
2 Vgl. Samek et al. (2017), S. 1.
3 Vgl. Goodman/Flaxman (2017), S. 55.
4 Vgl. DARPA (2016), S. 6.
5 Vgl. Holzinger (2018), S. 2.
6 Vgl. ebd., S. 1.
7 Ebd., S. 2.
8 Vgl. Montavon et al. (2017), S. 1.
9 Vgl. ebd.
10 Vgl. LeCun et al. (2015), S. 436.
11 Vgl. ebd.
12 Vgl. Samek et al. (2017), S. 1.
13 Vgl. DARPA (2016), S. 6.
14 Montavon et al. (2017), S. 2.
15 Ebd.
16 Vgl. ebd.
17 Vgl. Holzinger (2018), S. 4.
18 Vgl. Montavon et al. (2017), S. 2.
19 Vgl. ebd.
20 Vgl. Samek et al. (2017), S. 2 f.
21 Vgl. Lämmel/Cleve (2012), S. 13.
22 Vgl. Russell/Norvig (2009), S. 2 f.
23 Vgl. ebd.
24 Vgl. ebd., S. 3.
25 Vgl. Russell/Norvig (2010), S. 4.
26 Vgl. ebd.
27 Vgl. Bruderer (2018), S. 408.
28 Vgl. LeCun et al. (2015), S. 436.
29 Vgl. Montavon et al. (2017), S. 1.
30 Vgl. LeCun et al. (2015), S. 436.
31 Vgl. LeCun et al. (2015), S. 436.
32 Vgl. Russell/Norvig (2009), S. 727.
33 Vgl. Montavon et al. (2017), S. 2.
34 Vgl. Bach et al. (2015), S. 19.
35 Vgl. Bach et al. (2015), S. 19.
36 Vgl. Russell/Norvig (2009), S. 728 f.
37 Vgl. Bach et al. (2015), S. 19.
38 Vgl. Montavon et al. (2017), S. 2.
- Quote paper
- Enzo Muschik (Author), 2020, Künstliche Intelligenz verstehen. Wie funktionieren die Methoden "Sensitivity Analysis" (SA) und "Layerwise Relevance Propagation" (LRP)?, Munich, GRIN Verlag, https://www.grin.com/document/888524
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.