Dass Diskriminierung durch algorithmische Entscheidungssysteme und vor allem die Gesichtserkennungstechnologie produziert und reproduziert werden kann, zeigen verschiedene Beispiele aus dem Alltag. Wie Diskriminierungen entstehen, welchen Einfluss die Entwickler*innen und Nutzer*innen der Technologie haben und wie eine faire und gleichberechtigte Nutzung gewährleistet werden kann, soll im Folgenden geklärt werden.
Dafür werden zuerst die technischen Grundlagen der Gesichtserkennungstechnologie dargestellt, die bei der Produktion von Ungleichbehandlungen eine wesentliche Rolle spielen. Im Fokus steht dabei das maschinelle Lernverfahren, vor allem das Deep Learning, welches den autonomen Lernprozess der Systeme bezeichnet und sich so dem menschlichen Einfluss und der Kontrolle immer mehr entzieht. Außerdem wird der Prozess der Gesichtserkennung näher untersucht und mit der menschlichen Fähigkeit, Gesichter zu erkennen und zu verarbeiten, verglichen
Ob zum Entsperren des eigenen Smartphones, zur automatischen Sortierung von Fotos oder bei der Passkontrolle am Flughafen: Gesichtserkennungstechnologie nimmt einen immer größer werdenden Anteil unseres Lebens ein. Hinter der Technologie stecken algorithmische Systeme, die unter der Bezeichnung „künstliche Intelligenz“ zusammengefasst werden und seit Jahren sowohl die Technikindustrie als auch die Geisteswissenschaften beschäftigen. In der Vergangenheit hat sich jedoch bereits mehrfach gezeigt, dass die als neutral angesehene Technologie durchaus in der Lage ist, menschliche Einstellungen und Vorurteile zu übernehmen und auf seine Nutzer*innen anzuwenden. Ein Fall, der sich 2015 ereignete, sorgte besonders für Aufsehen und zeigte, dass diskriminierenden Praktiken durch Algorithmen reproduziert werden können. In der Kritik stand die Google Fotos Anwendung, die Bilder automatisch anhand von Gesichtserkennungsalgorithmen klassifiziert. In diesem Fall ordnete das System jedoch das Foto eines dunkelhäutigen Paares nicht den Menschen zu, sondern klassifizierte sie mit der Bezeichnung „Gorilla".
Inhaltsverzeichnis
- Einleitung
- Technische Grundlagen
- Maschinelle Lernverfahren
- Gesichtserkennung: Mensch vs. Technik
- Probleme der KI Nutzung
- Vertrauen statt Wissen
- Bias: Auslöser von Diskriminierung
- Praxisbeispiele
- Bias: Wissenschaftlich belegt
- USA: Nutzung von KI in der Strafverfolgung
- China: Überwachungsstaat durch Gesichtserkennungstechnologie?
- Medienphilosophische Ansätze
- Das Phänomen „,Black Box“
- Bewusstsein, Erkenntnis, Kreativität – durch KI abbildbar?
- Fazit und Ausblick
Zielsetzung und Themenschwerpunkte
Die Arbeit untersucht die Auswirkungen von Gesichtserkennungstechnologie auf unsere Gesellschaft. Im Fokus steht dabei die Frage, wie Diskriminierungen durch algorithmische Systeme produziert und reproduziert werden können. Die Arbeit analysiert die technischen Grundlagen der Technologie, insbesondere das maschinelle Lernverfahren Deep Learning, sowie die Rolle von Bias in der Gesichtserkennung. Anhand von aktuellen Fallbeispielen aus den USA und China wird die Nutzung der Technologie in der Praxis und deren Folgen für Einzelpersonen und Gesellschaften betrachtet. Darüber hinaus beleuchtet die Arbeit die ethischen und philosophischen Herausforderungen, die sich aus der zunehmenden Verbreitung von Gesichtserkennungstechnologie ergeben.
- Technische Grundlagen der Gesichtserkennungstechnologie
- Die Rolle von Bias in der Gesichtserkennung
- Diskriminierung durch algorithmische Systeme
- Nutzung von Gesichtserkennungstechnologie in der Praxis
- Ethische und philosophische Herausforderungen
Zusammenfassung der Kapitel
Die Einleitung führt in die Thematik der Gesichtserkennungstechnologie ein und stellt die Problematik von Diskriminierung durch algorithmische Systeme dar. Das Kapitel „Technische Grundlagen“ beleuchtet die Funktionsweise von KI und konzentriert sich auf das Deep Learning, welches die Basis für die Gesichtserkennungstechnologie bildet. Das dritte Kapitel beschäftigt sich mit den Problemen der KI-Nutzung und beleuchtet die Themen Vertrauen in die Technik und Bias. Der Fokus liegt dabei auf der Frage, wie Verzerrungen in Algorithmen zu Diskriminierung führen können. Im vierten Kapitel werden Praxisbeispiele aus den USA und China vorgestellt, die die Nutzung und die Auswirkungen von Gesichtserkennungstechnologie verdeutlichen. Das fünfte Kapitel befasst sich mit medienphilosophischen Ansätzen und betrachtet die Beziehung zwischen Mensch und Technik sowie die Herausforderungen, die sich aus der künstlichen Intelligenz ergeben.
Schlüsselwörter
Gesichtserkennungstechnologie, künstliche Intelligenz, Deep Learning, Bias, Diskriminierung, Überwachung, Medienphilosophie, „Black Box“, Mensch-Maschine-Interaktion.
Häufig gestellte Fragen
Was versteht man unter dem Begriff „Coded Bias“?
Der Begriff beschreibt die Voreingenommenheit von Algorithmen, die menschliche Vorurteile übernehmen und dadurch Diskriminierungen produzieren oder verstärken.
Wie entstehen Diskriminierungen in der Gesichtserkennungstechnologie?
Diskriminierungen entstehen oft durch fehlerhafte oder einseitige Trainingsdaten im maschinellen Lernprozess, insbesondere beim Deep Learning.
Welches bekannte Beispiel für algorithmische Diskriminierung wird genannt?
Ein Fall von Google Fotos aus dem Jahr 2015, bei dem ein dunkelhäutiges Paar fälschlicherweise als „Gorilla“ klassifiziert wurde.
Was ist das Problem der sogenannten „Black Box“ bei KI-Systemen?
Es bezeichnet den Umstand, dass die autonomen Lernprozesse von Systemen oft so komplex sind, dass sie sich dem menschlichen Einfluss und der Kontrolle entziehen.
In welchen Bereichen wird Gesichtserkennung bereits eingesetzt?
Die Technologie wird zum Entsperren von Smartphones, bei der Passkontrolle an Flughäfen sowie in der staatlichen Überwachung und Strafverfolgung genutzt.
Welche ethischen Herausforderungen thematisiert die Arbeit?
Es geht um die Frage, wie eine faire und gleichberechtigte Nutzung von KI gewährleistet werden kann und welchen Einfluss Entwickler auf die Neutralität der Technik haben.
- Quote paper
- Hannah Jacobs (Author), 2021, Coded Bias. Gesichtserkennungstechnologie als Träger und Vermittler von Diskriminierungen, Munich, GRIN Verlag, https://www.grin.com/document/1025580