abgeschlossen

Effektive Laufzeitunterstützung für zukünftige Programmierstandards

Durch die steigende Anzahl an Rechenkernen pro Prozessor und durch den Trend zur Nutzung von Beschleunigern innerhalb einzelner Rechenknoten reicht ein rein auf Nachrichtenaustausch basierendes Paradigma, wie etwas MPI, für viele Anwendungen nicht mehr aus um optimale Performance zu erreichen. Daher werden immer häufiger hybride Anwendungen entwickelt, welche MPI+OpenMP oder MPI+OpenACC oder MPI+OpenMP+OpenACC einsetzen. Hierdurch steigt die Komplexität der Codeentwicklung und es wird noch schwerer die Korrektheit solcher Programme zu erreichen. Das ELP Projekt hat das Ziel, eine bessere Unterstützung in Korrektheits-Analyse-Werkzeugen für solche Programme zu erreichen. Dazu wird eine Open-Source OpenMP Laufzeitumgebung erweitert, welche Daten an Debugger oder Analysetools wie MUST liefern kann um automatisch gewisse Fehlerklassen überprüfen zu können. Weiterhin sollen diese Daten auch für die Analyse der Performanceeigenschaften der Anwendung verwendet werden, etwa in dem Werkzeug Vampir.

Partner des vom BMBF geförderten Projektes sind die TU Dresden, die science+computing ag, sowie die RWTH Aachen. Außerdem nehmen noch die Allinea GmbH sowie die Intel GmbH als assoziierte Partner an dem Projekt teil.

Logo des Bundesministerium für Bildung und Forschung (BMBF) Urheberrecht: © Bundesministerium für Bildung und Forschung (BMBF)

Skalierbare Werkzeuge zur Energieanalyse und ‑optimierung im Höchstleistungsrechnen - Score-E

Die Energiekosten für den Betrieb eines Hochleistungsrechners sind bei modernen Clustern in etwa so hoch wie die Anschaffungskosten. Dies ist der Grund aus dem die Analyse und Optimierung des Energieverbrauchs einzelner Anwendungen zu einem bedeutenden Faktor für den Betrieb eines Hochleistungsrechners geworden sind. Das Score-E Projekt zielt darauf ab bessere Unterstützung zur Analyse und auch Möglichkeiten zur Optimierung des Energieverbrauchs in der Messinfrastruktur Score-P und den Werkzeugen Vampir, Scalasca und Periscope zu schaffen. Außerdem soll die Visualisierung dieser und andere Messdaten verbessert werden, indem die Möglichkeit geschaffen wird Daten nicht nur auf Ebene von Prozessen und Threads, wie in herkömmlichen Analysewerkzeugen üblich, sondern auch auf Ebene von Nutzergeometrien zu ermöglichen. Dies erlaubt es dem Anwender Daten in Bezug zu seiner Anwendung zu sehen wodurch die Optimierung erleichtert werden kann. mehr (auf Englisch)

Logo des Bundesministeriums für Bildung und Forschung

Entwicklung eines skalierbaren Data-Mining-basierten Vorhersagemodells für ICT- und Power-Systeme – ScaMPo

Die Komplexität von Stromnetzen ebenso wie die von Hochleistungsrechnern nimmt ständig zu. Insbesondere der steigende Anteil erneuerbarer Energien an der Stromerzeugung bringt grundlegende Veränderungen im Stromnetz mit sich. Eine wachsende Zahl von Teilnehmern ist in der Lage, Strom zu produzieren und zu verbrauchen. Jede Verhaltensmodifikation hat somit Einfluss auf das Gitter. Im Bereich des Hochleistungsrechnens nimmt die Komplexität des Systems zu. So wird der neue RWTH-Cluster CLAIX, der im November 2016 in Betrieb gehen soll, 600 2-Sockel-Compute-Knoten haben und jede CPU 24 Cores (48 Cores inklusive Hyperthreading). Teile des Systems werden durch GPUs beschleunigt und die Leistungsaufnahme des Gesamtsystems, aber auch jeder einzelnen Komponente kontinuierlich überwacht. Änderungen am Software-Stack und ein eventueller Austausch einer defekten Hardwarekomponente beeinflussen die Performance, den Stromverbrauch und auch die Ausfallrate. Insbesondere die Prognose der Auswirkungen von Veränderungen und deren Langzeitfolgen wie die Reduzierung der Ausfallraten ist eine große Herausforderung. Data Mining ist die Schlüsseltechnologie zur Handhabung solch komplexer Systeme und ist im Prinzip ein rechnergestützter Prozess der Mustererkennung in großen Datenmengen. Data Mining ist generell eine der Schlüsseltechnologien für die digitale Gesellschaft. Basierend auf den beiden Beispielen - dem Umgang mit komplexen Stromnetzen und Supercomputern - schafft das Projekt ScaMPo ein skalierbares Framework, um die Daten zu sammeln und in einer Cloud-Infrastruktur zu speichern. Anschließend werden die Daten analysiert, Muster entdeckt und das Verständnis des Systems verbessert. Bei Supercomputern werden die Betriebskosten gesenkt, während im Stromnetz die Stabilität und die Durchdringung erneuerbarer Energien erhöht werden. Dieses Projekt wird keine neuen Data-Mining-Techniken entwickeln. Vielmehr wird das Projekt auf Open-Source-Ansätzen für Data Mining basieren und sich auf die Stärke des Projektpartners konzentrieren, d. h. das Design eines skalierbaren und robusten Ansatzes. Die langfristige Vision des Projektes ist die Verallgemeinerung des Ansatzes für andere Forschungsgebiete und die Schaffung eines Kompetenzzentrums für skalierbare Data-Mining-Technologien.

Prozess-orientierte Leistungsmodell-Infrastruktur für wissenschaftliche Software an deutschen HPC Zentren - ProPE

ProPE ist ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Projekt mit einer Laufzeit von 2017 bis 2020. Ziel ist die Entwicklung einer nachhaltigen, strukturierten und prozessorientierten Service-Infrastruktur für das Performance Engineering (PE) von HPC-Anwendungen in deutschen Wissenschaftsrechenzentren der Tier-2- und Tier-3-Ebene.

Die Vision von ProPE ist es, die Strukturen einer landesweite Support-Infrastruktur zu entwickeln, die es Anwendungswissenschaftlern ermöglicht, Code mit nachweislich optimaler Auslastung der Hardware-Ressourcen auf Hochleistungssystemen zu entwickeln und zu verwenden und so die IT-Kosten des wissenschaftlichen Fortschritts zu reduzieren.

Weitere Informationen finden Sie auf der Projekthomepage.

ProPE Logo Urheberrecht: © ProPE