Der Forschungsbereich für Paralleles Rechnen (Parallel Computing) beschäftigt sich mit Methoden zur effizienten Ausnutzung von realen (Computer-Cluster oder Supercomputern) und idealisierten (PRAM, communication networks) parallelen Rechnerarchitekturen bei der Lösung von Rechenproblemen.

Einige konkrete Arbeitsgebiete sind:

  • Schnittstellen für die Parallele Programmierung im Bereich des Hochleistungsrechnens (High Performance Computing [HPC]) und die damit verbundene effiziente Implementierung dieser. In diesem Kontext ist speziell das Message-Passing Interface (MPI) zu nennen, bei welchem herausfordernde Design- und Implementierungprobleme zu lösen sind. Spezifisch beschäftigen wir uns mit der Leistungs-Portabilität von parallelen Programmen (performance portability) und mit Algorithmen für kollektiven Kommunikationsoperationen.
  • Effiziente Programmierung von Rechnern mit gemeinsamem Speicher: Programmiermodelle, Schnittstellen (z.B. OpenMP), Frameworks, Algorithmen und Datenstrukturen (z.B., lock-fee und wait-free data structures).