Installieren Sie die genialokal App auf Ihrem Startbildschirm für einen schnellen Zugriff und eine komfortable Nutzung.
Tippen Sie einfach auf Teilen:
Und dann auf "Zum Home-Bildschirm [+]".
Bei genialokal.de kaufen Sie online bei Ihrer lokalen, inhabergeführten Buchhandlung!
Ihr gewünschter Artikel ist in 0 Buchhandlungen vorrätig - wählen Sie hier eine Buchhandlung in Ihrer Nähe aus:
Die ersten Kapitel konzentrieren sich auf die Informatik und beinhalten informatische Grundbegriffe, Rechnerarchitekturen und ein Performancemodell, OpenMP als Programmierumgebung für Mehrkernrechner und MPI und PVM als Programmiermodelle für Rechner mit verteiltem Speicher. Anschließend werden mathematische Algorithmen, Performancebetrachtungen, Design paralleler Programme und Ausführungen zu Simulationsprogrammen aus den Ingenieur- und Naturwissenschaften gegenübergestellt. Die nächsten Kapitel sind Performancebetrachtungen und Parallelisierungsstrategien für mathematische Algorithmen gewidmet, bevor abschließend GPUs behandelt und Teile der zuvor erläuterten Algorithmen auf diese übertragen und diskutiert werden. Roter Faden durch das mit vielen Erläuterungen und Quelltextbeispielen angereicherte Buch ist die Performanceanalyse unterschiedlicher Speicherungstechniken von Feldern am Beispiel der algorithmischen Lösung linearer Gleichungssysteme. Dazu wird zunächst das Gaußsche Eliminationsverfahren auf ein Blockverfahren umgestellt und dieses mit sehr hoher Performance auf einem Mehrkernrechner parallelisiert. Bei der iterativen Lösung linearer Gleichungssysteme steht das konjugierte Gradienten-Verfahren und seine fein granulare Parallelisierung im Vordergrund. Besonderes Augenmerk richtet sich dabei auf die Matrix-Vektor-Multiplikation und die Abhängigkeit der Performance von der Speicherungstechnik der Matrix. Gebietszerlegungsmethoden zur Lösung linearer Gleichungssysteme bieten einen grob granularen Parallelisierungsansatz, der für das massiv parallele Rechnen der fein granularen Parallelisierung auf Schleifenebene überlegen ist.
Nach der Promotion zum Dr. rer. nat. in Münster arbeitete Josef Schüle als Post-Doc zunächst am Institut für Theoretische Physik in Stockholm und dann am Institut für Theoretische und Physikalische Chemie an der TU Berlin. Seit 1990 ist er Mitarbeiter am Rechenzentrum der TU Braunschweig und zuständig für Parallel- und Hochleistungsrechnen. Von 1993 bis 1996 hatte er einen Lehrauftrag vom dortigen Institut für Betriebssysteme und Rechnerverbund - Hochleistungsrechnen, seit 1996 einen Lehrauftrag am Institut für Wissenschaftliches Rechnen - Paralleles Rechnen I+II.
1 Einleitung 2 Modellbetrachtungen, Speicher- und Rechnerarchitekturen 3 Parallele Programmierung mit OpenMP 4 Message Passing für Rechner mit verteiltem Speicher 5 Performance der Gaußelimination und das Design paralleler Programme 6 Speichertechniken und die Performance iterativer Löser 7 Grob granulare Parallelisierung mit Gebietszerlegungsmethoden 8 GPUs als Parallelrechner Literaturverzeichnis Stichwortverzeichnis
E-Mail: productsafety@degruyterbrill.com