High-Performance Scientific Computing

Please note: This article is only available in German.
High-Performance Scientific Computing

Der Kurs fand im Spring Term des Jahres 2011 an der University of Colorado at Boulder statt und wurde von Prof. Liz Jessup gehalten.

Icon
[ 1277 kB ]
Dokumentation des Abschlussprojektes
Icon
[ 1186 kB ]
Präsentation des Abschlussprojektes
Icon
[ 569 kB ]
Schreiben eines Greeting-Ring-Programms und implementieren der Simpson Regel zur numerischen Integration für mehrere Prozessoren.
Icon
[ 673 kB ]
Eigene Implementation der Funktion MPI_Allreduce() auf Basis einer Butterfly Topologie, und Vgl. dieser mit Original auf NCAR Frost (BlueGene/L).
Icon
[ 760 kB ]
Messungen der Übertragungsgeschwindigkeiten von NCAR Frost, SDSC Trestles und PSC SGI Blacklight mit Hilfe eines Ping-Ping-Programms.
Icon
[ 617 kB ]
Ausführen der Matrix-Operation Transpose auf Dense Matrizen mit MPI_Vector und durch eigene Funktionen mit MPI_Pack für Sparse Matrizen.
Icon
[ 523 kB ]
Gruppieren der Kommunikation und erstellen eines Intra-Communicators, sowie eines Inter-Communicators. Ausführen multipler Anwendungen.
Icon
[ 436 kB ]
Verwenden von MPI_Type_create_darray() um eine Datei über MPI-IO parallel in einer bestimmten Ansicht (Matrix) einzulesen.
Icon
[ 600 kB ]
Die MPI / Funktionsaufrufe eines Beispielprogramm mit MPE Profiling auslesen und mit dem Programm jumpshot 4 auswerten.
Icon
[ 351 kB ]
Ausführen und Auswerten von Performance Test im Bereich GPFS gegen SSD auf Trestles und Blacklight mit anschließender Interpretation der Ergebnisse.
Icon
[ 564 kB ]
Installation und Durchführung eines Benchmark Tests für Supercomputer inkl. Evaluation mit der richtigen Wahl der Parameter in Form des HPL/Linpack Benchmarks.
Icon
[ 482 kB ]
Ausprobieren von OpenMP als einfache Möglichkeit Geschwindigkeitsgewinn bei Programmen durch Parallelisierung von z.B. Schleifen auf Mehrkernprozessoren zu erzielen.
Created . Last updated .

Sharing is caring!