Paralleles Rechnen ist die Zusammensetzung der Ergebnisse mehrerer Teilberechnungen zu einem Gesamtergebnis. Es existieren mehrere Gründe wie z.B. die Ausführungsdauer. Durch das Parallele Rechnen ist es bei Simulationen möglich viel Zeit zu sparen und die Ergebnisse schneller zu erhalten. Ein anderer Grund ist die Ressourcenbeschränktheit. Simulationen können die Kapazitäten (z.B. Speicherkapazität) eines einzigen Computers übertreffen. Um trotzdem die Simulation durchzuführen, könnte man mehrere Computer miteinander verbinden. Der letzte Grund den wir erwähnen ist die Komplexe Problemdarstellung. Es gibt Simulationen die so komplex sind, dass um ein Ergebnis zu erhalten, eine Parallele Bearbeitung die einzige Möglichkeit ist. Paralleles Rechnen wird in vielen verschiedenen Bereichen wie z.B. in der Wirtschaft (Big Data, Data Mining...) und in der Forschung (Physik, Mathematik...) verwendet.
Inhaltsverzeichnis
1 Einleitung
2 Lattice Boltzmann Grundlagen
2.1 Einführung
2.2 Die Lattice Boltzmann Methode
3 Parallelisierungmethoden
3.1 OpenMP
3.1.1 Grundlagen
3.1.2 Vorteile und Nachteile von OpenMP
3.2 MPI
3.2.1 Definition
3.2.2 Message-Passing-Modell
3.2.3 Vorteile und Nachteile von MPI
3.3 GPGPU
3.3.1 Grundlagen
3.3.2 Vor- und Nachteile von GPGPU
4 Parallelisierung von Lattice Boltzmann
4.1 Mit MPI
4.2 Mit OpenMP
4.3 Mit GPGPU
- Citation du texte
- Samory Gassama (Auteur), 2017, Paralleles Rechnen, Munich, GRIN Verlag, https://www.grin.com/document/443071
-
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X.