Die folgende Arbeit zielt darauf ab, ein Verständnis über die Funktionsweise und den Aufbau heutiger Grafikprozessoren zu vermitteln. Hierbei wird exemplarisch für moderne GPU-Architekturen, die auf dem GP100-Chipsatz basierende Nvidia Pascal Architektur der GTX1000 Serie analysiert.
Die Graphics Processing Unit (GPU) hat im Verlauf der letzten fünf Jahrzehnte eine rasanten Entwicklung erfahren. GPUs (auch als Parallelrechner bezeichnet) wurden zu Beginn ihrer Entwicklung als eine Entlastung der Central Processing Unit (CPU) bei der Berechnung von Grafiken konzipiert. Derartige Grafik-Berechnungen (Voxel-Berechnungen, Kalkulationen von dreidimensionalen Volumengrafiken, etc) bestehen heruntergebrochen aus simplen und schrittweise stattfindenden Verrechnungen von Gleitkommazahlen innerhalb einer Fixed-Funciton-Pipeline. Die zunehmenden Anforderungen von Spiele- und Rendering-Engines (Unity, Blender, Cinema4D, etc) sowie eine Erhöhung der Auflösung heutiger Ausgabegeräte erfordern GPU-Architekturen, welche in der Lage sind immer größere Mengen an Daten unter kleinstmöglicher Latenz zu verarbeiten.
Der hohe Durchsatz einer GPU - gemessen in FLOPS (Floating Point Operations per Second) - geht auf die besondere Eigenschaft der GPU zurück, Daten parallelisiert nach dem Single Instruction Multiple Thread (SIMT)-Prinzip verarbeiten zu können. Anspruchsvolle Textur- und Voxel-Berechnungen werden - zunächst vereinfacht betrachtet - als ein teilbares Gesamtproblem auf die vielen Rechenkerne der GPU aufgeteilt, als Bruchstücke berechnet und zuletzt wieder zu einem Ergebnis zusammengefügt. Nicht zuletzt hat diese Art der alternativen Prozessierung (im Vergleich zur Multiple Instruction Multiple Data (MIMD)-basierten Datenverarbeitung einer CPU) auch in vielen anderen Feldern der rechenintensiven Informatik neue Möglichkeiten eröffnet.
Inhaltsverzeichnis
1 Einleitung
2 Einführung in die Parallelisierung anhand des Vergleichs von GPU und CPU
2.1 Befehls-Modell: Single Instruction und Multiple Instruction
2.2 Daten-Modell: Single Data und Multiple Data
2.3 SIMD(T) und MIMD
3 Analyse der Nvidia Tesla P100 Pascal Architektur
3.1 Komponenten des GPU-Rechenclusters
3.1.1 Streaming Prozessoren - CUDA Rechenkerne
3.1.2 Streaming Multiprozessor
3.1.3 Texture Processing Cluster und Graphics Processing Cluster
3.2 Speicher-Struktur der Graphics Processing Unit
3.2.1 Registerspeicher
3.2.2 L1-CACHE und Texturspeicher
3.2.3 L2-CACHE
3.2.4 Der Globale Speicher
3.3 Schnittstellen und Interfaces
3.3.1 PCI Express 3.0 Host Interface
3.3.2 SLI und NVLink
4 Fazit
Literaturverzeichnis
- Arbeit zitieren
- Lars Kaiser (Autor:in), 2020, Grafikprozessoren und deren Architektur. Einblicke in die Parallelisierung und die Funktionsweise von Mehrkernprozessoren, München, GRIN Verlag, https://www.grin.com/document/1020075
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.