bluebit

China und USA führend

Die schnellsten Supercomputer und ihre Einsatzzwecke

von Robert Klatt •

Supercomputer sind heutzutage aus Forschung, Wissenschaft und Militär nicht mehr wegzudenken. Ein neues deutsches System schafft es ebenfalls in die Top 10.


0 Kommentare

Supercomputer sind definiert als die jeweils schnellsten universal programmierbaren Rechner ihrer jeweiligen Zeit. Die Bauart der Supercomputer ist dabei zwar unerheblich, derzeit basieren jedoch alle Supercomputer auf einer Vielzahl zusammenarbeitender Prozessoren, die typischerweise auf gemeinsame Peripheriegeräte und oft auch auf einen gemeinsamen Hauptspeicher zugreifen.

Haupteinsatzzwecke der aktuellen Supercomputer

Aufgrund der enormen Anschaffungs- und Betriebskosten werden Supercomputer nur von großen Unternehmen, Forschungseinrichtungen, Universitäten und dem Militär betrieben. Sie werden meistens für komplexe Simulationen genutzt, die häufig ausfolgenden Forschungsgebieten stammen:

  • Meteorologie (Wettervorhersagen)
  • Klimatologie (Klimaforschung)
  • Biologie
  • Chemie
  • Physik
  • Geologie
  • Medizin
  • Luft- und Raumfahrt
  • Militär (Kernwaffen)
  • Kernenergie
  • Entdecken neuer Öl- und Gasvorkommen
  • Finanzmärkte (Kursentwicklungen und Vorhersagen)

Dank der inzwischen enormen Rechenleistung können in diesen Bereich Simulationen durchgeführt werden, die auch unwichtig erscheinende Interdependenz (Abhängigkeiten) berücksichtigen. Durch die Vielzahl der in der Simulation enthaltenen Rand- und Nebenbedingungen werden die erzielten Ergebnisse mit jeder neuen Supercomputer-Generation immer aussagekräftiger und realistischer.

Betriebssysteme und Programmierung

Zwischen 1990 und dem Anfang der 2000er Jahre wurde ein Großteil der Supercomputer mit unterschiedlichen Unix-Distributionen betrieben. Inzwischen dominiert fast ausschließlich Linux diesen Bereich. In den derzeitigen Top 500 werden 462 der Hochleistungscomputer mit unterschiedlichen Linux-Betriebssystemen genutzt. Windows hat bei Supercomputern mit weniger als 1 Prozent einen verschwindend geringen Marktanteil.

Die speziellen Programme werden fast ausschließlich in Fortran sowie C und C++ entwickelt, da so schneller Code generiert werden kann. Außerdem werden spezielle Compiler verwendet, die von den Herstellern der Supercomputer für die Anforderungen der Systeme entwickelt wurden.

Da die meisten Systeme parallel von verschiedenen Projekten genutzt werden, werden außerdem Job-Scheduler wie beispielsweise IBMs LoadLeveler eingesetzt, die die einzelnen Aufgaben auf die Ressourcen des Supercomputers verteilen.

Geschichte, Entstehung und Meilensteine

Die ersten als Supercomputer bezeichneten Systeme spalteten sich bereits in den 1960er Jahren von der Entwicklung sonstiger Großrechner aus dem wissenschaftlichen Bereich ab. Während die höchste Priorität in der Entwicklung von Supercomputern die Rechenleistung ist, zeichneten sich damalige Großrechner vor allem durch die absolute Zuverlässigkeit aus.

Der erste Supercomputer

Das erste offiziell als Supercomputer bezeichnete System, der Cray 1 befand sich im Los Alamos National Laboratory (LANL), einer Forschungseinrichtung im Bereich Kernenergie. Das LANL ist unteranderem dafür bekannt, dass dort während des Manhattan-Projekts die erste Atombombe entwickelt wurde. Die Kosten des Cray 1 lagen bei 8,8 Millionen Dollar, was inflationsbereinigt derzeit etwa 37 Millionen Dollar entspricht. Entstanden ist da System im Jahr 1977. Die Rechenleistung von 130 MegaFLOPS ist selbst im Vergleich zu aktuellen Heimcomputern lächerlich gering. Ein aktueller Intel Core i7 8700k hat bereits eine Rechenleistung von über 61 GFlops bei wissenschaftlichen Berechnung (einfache Genauigkeit).

Technische Verbesserung für mehr Rechenleistung

Zu Beginn der Entwicklung von Supercomputern versuchte man die Rechenleistung vor allem über technische Verbesserungen zu erreichen, die für den Massenmarkt zu aufwendig und zu teuer waren. Dies waren besonders kompakte Aufbauten um Signalwege zwischen einzelnen Komponenten zu verkürzen, bessere Materialien und Flüssigkühler. Die Anzahl der verbauten Prozessoren war bei den ersten Hochleistungscomputern noch überschaubar.

Entwicklung zum Cluster

Erst im Zuge der Entwicklung als keine größten Leistungssprünge durch diese Methoden mehr möglich waren, wurden vermehrt Cluster (Rechnerverbunde) eingesetzt, bei denen eine Vielzahl günstiger Einzelrechner gemeinsam eine hohe Rechenleistung erzeugten. Die einzelnen Rechner des Clusters verfügen jeweils über einen eigenen Hauptspeicher und eigene Peripherie. Problematisch war vor allem die Programmierung, da sich viele Programme erst nach großer Anpassung auf viele Prozessoren verteilen ließen.

Parallelrechner mit gewöhnlicher Hardware

Aktuelle Supercomputer sind größtenteils Parallelrechner, die aus verschiedenen vernetzten Rechnern bestehen, die üblicherweise jeweils mehrere Prozessoren besitzen. Genutzt werden speziell angepasste Programme, die die einzeln arbeitenden Prozessoren mit Aufgabenpaketen versorgen. Es handelt sich bei Supercomputern daher genau wie bei Heimcomputern um gewöhnliche Vektorrechner, von denen lediglich eine große Anzahl gemeinsam ein Problem bearbeitet. Die meisten Supercomputer unterscheiden sich in der Art der verbauten Prozessoren nur gering von Desktop-Rechnern. Neben Prozessoren von Intel (Xeon) und AMD (Threadripper) werden auch Grafikkarten von Nvidia eingesetzt.

Meilensteine

  • Deep Blue 2 - Der erste Meilenstein eines Supercomputers der die Aufmerksamkeit der breiten Öffentlichkeit war das Hochleistungssystem Deep Blue 2 von IBM, das ohne Handicap im Jahr 1997 den damaligen Schachweltmeister besiegt hat.
  • PI – Im Jahr 2002 konnte der japanische Informatiker und theoretischer Physiker Yasumasa Kanada die Preiszahl Pi mit dem Supercomputer Hitachi SR8000 der Universität Tokio auf 1,24 Billionen Stellen genau bestimmen.

Vergleiche

  • BOINC – Das Berkeley Open Infrastructure for Network Computing (BOINC) ist eine Plattform für verteiltes Rechnen die auf tausende Computer die sich freiwillig dem Netzwerk angeschlossen haben zurückgreifen kann. Die Gesamtleistung der etwa 15.000.000 aktiven Rechnern, von denen viele auch in privaten Haushalten stehen, liegt bei rund 175 PFlop.
  • Earth Simulator – Die beiden japanischen Supercomputer Earth Simulator am Yokohama Institute for Earth Sciences (YES) aus dem Jahr 2002 waren bis zum Jahr 2004 die schnellsten Systeme der Welt. Ihre Rechenleistung war so groß, dass sie sämtliche Aufgaben aller Computer von 1960 bis 1970 in nur 35 Minuten hätte erledigen können.

Korrelatoren sind keine Supercomputer

Auch die Leistung von Korrelatoren wird in denselben Einheiten gemessen wie die Leistung von Supercomputern. Da es sich dabei jedoch um Spezialcomputer handelt, die nur ein einzelnes Problem lösen können (Kreuzkorrelation zur Messung von Zeitversatz bei Signalen) werden sie nicht zu den Supercomputern gezählt, da diese universal programmierbar seien müssen.

Das geplante Radiotelekstop Square Kilometre Array (SKA) das bis 2023 fertiggestellt werden soll, hat einen Korrelator mit einer geplanten Rechenleistung von 4 ExaFlops. Die Rechenleistung liegt also in der einen möglichen Spezialaufgabe weit über deren aktueller Supercomputer.

Situation in Deutschland

Deutschland befindet sich im Vergleich zu den Spitzenreitern China und den USA in der Liste der schnellsten Supercomputer relativ weit hinten. Derzeit hat die Bundesrepublik Deutschland keinen Computer in den Top 20. Insgesamt befinden sich in den Top 500 neun Supercomputer aus Deutschland, die vor allen in Universitäten und Forschungsinstituten wie dem Max-Plank-Institut und dem Forschungszentrum Jülich befinden (Stand Juni 2018).

  • Platz 23 - Forschungszentrum Jülich - JUWELS Module 1 – 114.480 CPU-Kerne
  • Platz 27 - HLRS - Höchstleistungsrechenzentrum Stuttgart - Hazel Hen – 185.088 CPU-Kerne
  • Platz 28 - Max-Planck-Gesellschaft MPI/IPP – COBRA – 127.520 CPU-Kerne
  • Platz 38 - Forschungszentrum Juelich (FZJ) – JURECA – 155.150 CPU-Kerne
  • Platz 55 - DKRZ - Deutsches Klimarechenzentrum – Mistral – 99.072 CPU-Kerne
  • Platz 57 - Leibniz Rechenzentrum – SuperMUC – 147.456 CPU-Kerne
  • Platz 58 - Leibniz Rechenzentrum – SuperMUC Phase 2 – 86.016 CPU-Kerne
  • Platz 87 - Universitaet Mainz - Mogon II – 49.432 CPU-Kerne
  • Platz 94 – BASF – QURIOSITY – 35.280 CPU-Kerne

Noch nicht in der Liste enthalten ist der kürzlich eingeweihte SuperMUC NG im Leibniz Rechenzentrum in München, der mit seiner Leistung das derzeit schnellste System in Deutschland ist. Sobald das nächste Update der "offiziellen" Top 500 Liste der schnellsten Supercomputer im November erscheinen wird, wird sich der neue SuperMUC NG in der dortigen Top 10 platzieren. Das Budget des schnellsten europäischen Supercomputers liegt bei 96 Millionen Euro inklusive der Betriebskosten der ersten sechs Jahre. Die theoretische Spitzenleistung liegt bei 26,7 PFLops.

Der nur eine Woche vor dem SuperMIC NG vorgestellte Supercomputer Juwels ("Jülich Wizard for European Leadership Science") am Forschungszentrum Jülich befindet sich mit seiner Rechenleistung von 7,5 PFlops damit nach nur wenigen Wochen wieder auf Position 2 der schnellsten deutschen Systeme. Auch der neue Supercomputer aus Jülich befindet sich derzeit noch nicht in der aktuellen Top 500 der Supercomputer, wird sich dort mit dem nächsten Update aber in den Top 25 platzieren.

Außerdem sind auch in Baden-Württemberg hohe Investitionen in neue Rechenleistung geplant. Insgesamt sind für das Höchstleistungsrechenzentrum Stuttgart bis 2024 240 Millionen Euro für den Ausbau vorgesehen. Der aktuell 5,6 PFlop schnelle Supercomputer Hazel Hen soll bis 2019 durch das Nachfolgesystem Hawk abgelöst werden, dessen geplante Leistung rund fünfmal so hoch ist. Mit geschätzten 28 PFlops wäre Hawk nach derzeitigem Stand ebenfalls in den Top 10 der weltweit schnellsten Systeme und in Europa auf dem ersten Platz.

Dual-Use-Möglichkeiten und Exportkontrolle

Aufgrund der Dual-Use-Möglichkeit (zivile und militärische Nutzung) fallen Supercomputer in Deutschland unter die Waffenexportkontrolle. Dies bedeutet, dass ihr Nutzung und die Ausfuhr grundsätzlich streng kontrolliert werden. Dies ist insbesondere bei internationalen Projekten problematisch, an denen Forscher aus verschiedenen Ländern mitwirken. In einem Dokument des Bundesministeriums für Forschung und Bildung wird daher empfohlen, dass nur nach ausgiebiger Prüfung mit Personen aus Nordkorea, Syrien, Iran und Pakistan zusammengearbeitet werden darf, da davon ausgegangen wird, dass die Nutzung der Supercomputer durch diese Staaten auch zur Entwicklung von ABC-Waffen und Trägerraketen genutzt werden können. Bei Verstößen gegen die Exportkontrolle und embargorechtliche Vorschriften sind Bußgelder bis zu 500.000 Euro und Freiheitsstrafen von bis zu 5 Jahren möglichen.

Top 10 der Supercomputer

In der aktuelle Top 10 der schnellsten Supercomputer (Stand Juni 2018) befinden sich ausschließlich Systeme aus den USA (6), China (2), Japan (1) und der Schweiz (1). Im kommenden Update wird sich auch ein deutsches System unter den Top 10 befinden.

  • Platz 1 - DOE/SC/Oak Ridge National Laboratory (USA) – Summit – 2.282.544 CPU-Kerne
  • Platz 2 - National Supercomputing Center in Wuxi (China) – Sunway TaihuLight - 10.649.600 CPU-Kerne
  • Platz 3 - DOE/NNSA/LLNL (USA) – Sierra – 1.572.480 CPU-Kerne
  • Platz 4 - National Super Computer Center in Guangzhou (China) - Tianhe-2A – 4.981.760 CPU-Kerne
  • Platz 5 - National Institute of Advanced Industrial Science and Technology (Japan) - AI Bridging Cloud Infrastructure – 391.680 CPU-Kerne
  • Platz 6 - Swiss National Supercomputing Centre (Schweiz) – Piz Daint – 361.760 CPU-Kerne
  • Platz 7 - DOE/SC/Oak Ridge National Laboratory (USA) – Titan – 560.640 CPU-Kerne
  • Platz 8 - DOE/NNSA/LLNL (USA) – Sequoia – 1.572.864 CPU-Kerne
  • Platz 9 - DOE/NNSA/LANL/SNL (USA) – Trinity – 979,968 CPU-Kerne
  • Platz 10 - DOE/SC/LBNL/NERSC (USA) – Cori – 622.336 CPU-Kerne

Geplante Supercomputer

Aufgrund des enormen Stellenwerts von Supercomputern in der Wissenschaft, dem Militär und der Wirtschaft haben die führenden Industrienationen angekündigt in den nächsten Jahren hohe Investitionen in diesem Bereich zu tätigen.

USA

Der ehemalige US-Präsident Barack Obama hat mit seiner Executive Order an die US-Bundesbehörden den Entwicklungsstart eines Supercomputers mit einem ExaFlop-Rechenleistung angestoßen. Geplant ist, dass bereits im Jahr 2021 das Energieministerium der Vereinigten Staaten (DOE) einen Exascale-Supercomputer erhalten und neun Monate später in Betrieb nehmen wird.

Europa

Ende September 2018 hat auch die EU in einer öffentlich-privaten Kooperation über eine Milliarde Euro für den Bau und den Betrieb neuer Supercomputer bereitgestellt. Das geplante Hochleistungsrechenzentrum soll in Luxemburg entstehen. Die Arbeit dafür beginnt bereits im November. Die Investitionssumme soll für ein Exaflop-System und mehrere Supercomputer mit hunderten PFlops fließen. Insgesamt sind am Projekt 24 Staaten darunter auch Deutschland und das Nicht-EU-Mitglied Norwegen beteiligt.

Vizekommissionspräsident für den digitialen Binnenmarkt Andrus Ansip:

"Daten sind der Rohstoff unserer digitalen Wirtschaft. Wir brauchen Supercomputer, um sie zu verarbeiten, um künstliche Intelligenz zu entwickeln und um Lösungen für komplexe Fragen in Bereichen wie Gesundheit und Sicherheit zu finden"

Das Ziel des Projekts sind zwei Supercomputer in den weltweiten Top 5 sowie zwei Supercomputer in den weltweiten Top 25. Die Finanzierung wird mit 486 Millionen Euro aus EU-Mitteln, 400 Millionen Euro aus den nationalen Mitteln der Staaten und 400 Millionen Euro aus privaten Unternehmen getragen. Die geplante Anlage soll mit bereits bestehenden Supercomputern vernetzt werden und von verschiedenen Unternehmen und öffentliche Stellen wie Universitäten genutzt werden.

China

Auch China die bereits mit zwei Systemen in den aktuellen Top 10 vertreten sind investieren zukünftig in einen weiteren Ausbau ihrer Rechenleistung. Das Reich der Mitte möchte bis 2020 einen Supercomputer im Exaflop-Bereich entwickeln und sich damit langfristig in den Top 5 der schnellsten Rechner festigen.

Japan

Japan hat bereits 2013 angekündigt, dass bis 2020 ein Supercomputer mit mindestens einem Exaflop-Rechenleistung errichtet werden soll. Der geplante Supercomputer am RIKEN-Forschungsinstitut (Rikagaku Kenkyūjo) soll mit einem Energieverbrauch von maximal 30 MW im Vergleich zu anderen Hochleistungsrechner vergleichsweise stromsparend seien.

"Grüne" Supercomputer

Aufgrund des enormen Energiebedarfs aktueller Supercomputer wird neben der Rechenleistung auch stets daran gearbeitet den Stromverbrauch zu reduzieren. Der derzeit schnellste Supercomputer Summit (USA) benötigt beispielsweise 15.000 kW. Andere Supercomputer mit geringerer Rechenleistung haben einen noch höheren Verbrauch, da ihre Hardware älter und weniger effektiv ist.

Neben den Top 500 der Supercomputer die lediglich die Leistung berücksichtigen gibt es daher auch noch das Ranking der Top 500 "grünen Supercomputer", in deren Bewertung auch der Stromverbrauch einfließt.  Auffallend ist, dass in diesem Bereich in den Top 10 Japan mit 7 Systemen führend ist. Ansonsten ist noch die USA mit 2 Systemen und Spanien mit 1 System vertreten.

  • Platz 1 (Platz 359 gesamte Top 500) - RIKEN (Japan) - Shoubu system B – 794.400 CPU-Kerne
  • Platz 2 (Platz 419 gesamte Top 500) – KEK (Japan) – Suiren2 – 762.624 CPU-Kerne
  • Platz 3 (Platz 385 gesamte Top 500) - PEZY Computing K.K. (Japan) – Sakura – 794.400 CPU-Kerne
  • Platz 4 (Platz 227 gesamte Top 500) - NVIDIA (USA) – DGX SaturnV Volta – 22.400 CPU-Kerne
  • Platz 5 (Platz 1 gesamte Top 500) - DOE/SC/Oak Ridge National Laboratory (USA) – Summit – 2.282.544 CPU-Kerne
  • Platz 6 (Platz 19 gesamte Top 500) - Tokyo Institute of Technology (Japan) – TSUBAME3.0 – 135.828 CPU-Kerne
  • Platz 7 (Platz 287 gesamte Top 500) - National Institute of Advanced Industrial Science and Technology (Japan) – AIST AI Cloud – 23.400 CPU-Kerne
  • Platz 8 (Platz 5 gesamte Top 500) - National Institute of Advanced Industrial Science and Technology (Japan) - AI Bridging Cloud Infrastructure – 391.680 CPU-Kerne
  • Platz 9 (Platz 255 gesamte Top 500) - Barcelona Supercomputing Center (Spanien) - MareNostrum P9 CTE – 19.440 CPU-Kerne
  • Platz 10 (Platz 171 gesamte Top 500) – RIKEN (Japan) - RAIDEN GPU subsystem – 35.360 CPU-Kerne
0 Kommentare

Kommentar verfassen