Aufrufe
vor 3 Jahren

Netzwoche 02/2016

  • Text
  • Schweiz
  • Unternehmen
  • Schweizer
  • Netzmedien
  • Webcode
  • Supercomputer
  • Laut
  • Digitalisierung
  • Mitarbeiter
  • Millionen

Das Nationale

Das Nationale Hochleistungsrechenzentrum in Lugano. onen Rechenkerne und erreicht eine Spitzengeschwindigkeit von 54 902 Teraflops. Sie kann also nahezu 55 Billiarden Operationen pro Sekunde ausführen. Hierfür verbraucht der Superrechner 17 Megawatt Strom. Dem versuchen Ingenieure gegenzusteuern. «Um die Stromkosten und die Kühlungskosten zu senken, werden jetzt oft Supercomputer mit einer Kombination aus CPUs und GPUs gebaut», sagt Kraemer. Auch das CSCS setzt auf die Grafikprozessoren von Nvidia. «Der Vorteil dieser GPUs ist die hohe Leistung bei gleichzeitig niedriger Stromaufnahme», erklärt Kraemer. «So verbraucht der Piz Daint nur einen Achtel der Stromaufnahme bei einem Viertel der Rechenleistung von Tianhe-2». Die Energieeffizienz des Schweizer Superrechners ist folglich doppelt so hoch. Trotz der höheren Energieeffizienz benötigt das CSCS mehr als 2 Megawatt. Entsprechend hoch sind die Stromrechnungen, räumt Schulthess ein. Die Supercomputer werden ihre Energieeffizienz noch weiter steigern müssen. Darin sind sich die Experten alle einig. Denn die Datenmengen nehmen zu. Die Maschinen von morgen werden also mehr Daten in kürzerer Zeit bei gleichbleibendem Stromverbrauch analysieren müssen. «Vergleicht man die Supercomputer aber mit derselben Leistung auf normalen Rechnern, lägen deren Stromkosten viel höher.» Da die Prozessoren des Superrechners keine Leistung für unnötige Operationen verschwenden, benötigen sie pro Knoten viel weniger Strom als reguläre Computer. Ein Schnäpchen – pro Prozessor gerechnet Die gleiche Rechnung gelte auch für die Anschaffungskosten. Bei den grossen Superrechnern liegen diese schnell im achtstelligen Bereich. «Der Piz Daint kostete zwischen 40 und 50 Millionen Franken», sagt Schulthess. Dafür erhalte man aber auch knapp 5200 Rechenknoten. Würde man diese als einzelne, leistungsfähige Workstations kaufen, käme man schnell auf 10 000 Franken pro Knoten beziehungsweise auf Gesamtkosten von über 50 Millionen Franken allein für die Prozessoren. Hinzu kämen weitere Kosten für das Netzwerk, das die Prozessoren verbindet, und für tausende Festplatten. Zudem würden die Workstations viel mehr Energie verbrauchen, und die Umwelt belasten, weil sie weniger effizient gekühlt werden. Aufgrund der hohen Kosten der Geräte handelt es sich auch nur um einen kleinen Markt mit geringen Verkaufszahlen. «In der Regel hat man nur eine Handvoll Supercomputer in einem Land», sagt Donal Greene, Head of Presales & Engagement bei Fujitsu Schweiz. «Die Architektur ist nun aber so weit entwickelt, dass auch Privatfirmen kleinere Systeme installieren können.» Fujitsu bietet Einsteigerlösungen ab 100 000 Franken an. Damit werden die Geräte auch ausserhalb der Forschung interessant und erschwinglich. «So könnten etwa die grösseren Schweizer Chemiekonzerne für ihre Simulationen durchaus ihre eigenen Supercomputer nutzen», sagt Greene. Dies soll sich auch für kleinere Unternehmen lohnen, die den eigenen Superrechner nicht voll auslasten. So könnten sie etwa die überschüssige Rechenleistung wieder vermieten – ein Supercomputer-as-a-Service-Angebot sozusagen. Ähnlich macht es auch das CSCS. Wie die meisten Rechner auf der Liste wird der Piz Daint primär in der Forschung genutzt. Hierfür verwendet das CSCS den Löwenanteil seiner Rechenleistung. «Wir haben aber auch kommerzielle Kunden», sagt Schulthess. Das Zentrum führt für diese Unternehmen Machbarkeitsnachweise durch. Schulthess will mit dem CSCS nicht zu einer Konkurrenz für kommerzielle Anbieter werden. Daher bleibt es nur bei einem Proof-of-Concept. «Wenn ein Modell bei uns gut funktioniert, können Unternehmen dieses skalieren und in ihren eigenen Rechenzentren betreiben oder die Leistung bei privaten Anbietern einkaufen», sagt er. Der Markt für Supercomputer mag zwar noch klein sein. Doch stehen alle Zeichen auf Wachstum. Big Data verspricht in jeder Datensammlung einen digitalen Goldklumpen. «Wir haben so viele elektronisch gespeicherte Daten, die man analysieren kann», sagt Schulthess. Das sehe man auch an Informationsbrokern wie Google. «Heutzutage betreiben diese Unternehmen Rechenzentren, die viel grösser sind als die der öffentlichen Forschung», sagt Schulthess. Und er sieht einen weiteren Grund: «Jede hochentwickelte Gesellschaft hat einen Bedarf an Hochleistungsrechnern – und dieser wird in den nächsten Jahren stark zunehmen.» Artikel online: www.netzwoche.ch ▸ Webcode 6429 «Der Bedarf an Hochleistungsrechnern wird in den nächsten Jahren stark zunehmen.» Thomas Schulthess, Direktor des CSCS i DIE «TOP 500»-LISTE Zweimal jährlich verrät die «Top 500»-Liste, wer den schnellsten Superrechner hat. Verglichen werden sie anhand ihrer Teraflops-Zahlen. Die Liste wird von den Universitäten Mannheim und Tennessee sowie dem Lawrence Berkeley Laboratory geführt. Die aktuellen Top-Rechner: ▪▪ Tianhe-2 im National Super Computer Center in Guangzhou, China ▪▪ Titan im DOE/SC/Oak Ridge National Laboratory, USA ▪▪ Sequoia im DOE/NNSA/ LLNL, USA ▪▪ K Computer im Riken Advanced Institute for Computational Science (AICS), Japan ▪▪ Mira im DOE/SC/Argonne National Laboratory, USA ▪▪ Trinity im DOE/NNSA/LANL/ SNL, USA 02 / 2016 www.netzwoche.ch © netzmedien ag

Technology Titelgeschichte 31 «Wir wollen Probleme lösen, die wir eigentlich nicht lösen können» Thomas Schulthess ist der Direktor des Nationalen Hochleistungsrechenzentrum der Schweiz, des CSCS – Centro Svizzero di Calcolo Scientifico, in Lugano. Im Interview spricht er darüber, warum die Schweiz im Bereich Supercomputing so stark ist und ob man sich selbst einen Supercomputer basteln könnte. Interview: Coen Kaat Thomas Schulthess, Direktor des CSCS. Müssen sich diese einzelnen Rechenknoten eines Supercomputers an einer Stelle befinden? Eigentlich nicht. Aber es ist sinnvoll. Aus Energie- und kühlungstechnischen Gründen ist es besser, die Knoten in einem seriös entwickelten System alle beisammen zu halten. Aber auch die kurzen Latenzzeiten bei der Kommunikation zwischen den Prozessoren erreicht man nur, wenn man die physischen Distanzen zwischen den Knoten so gering wie möglich hält und die Netzwerkbauteile optimal baut und programmiert. «Das Portieren ist in der Regel nicht das Problem, sondern das Skalieren.» Thomas Schulthess, Direktor des CSCS. Woran liegt es, dass die Schweiz, wenn es um Supercomputer geht, global so weit vorne ist? Thomas Schulthess: Es sind die Köpfe, die wir hier haben. Die ETH selbst mischt ja in den globalen Rankings auch ganz vorne mit. Sie ist seit den Anfängen im elektronischen Rechnen dabei. Auf diese Erfahrung aufbauend haben wir heute sehr starke rechnergestützte Wissenschaften in den Departementen, insbesondere in der Informatik, den Ingenieurswissenschaften sowie der Physik, und die Mathematikausbildung ist generell sehr gut. Mit den fähigen Anwendungsentwicklern, in die wir zudem noch investieren, können wir die neuesten Architekturen sehr früh einsetzen. Das gibt uns im HPC-Umfeld einen entscheidenden Vorteil gegenüber der internationalen Konkurrenz. Könnte ich theoretisch einfach zum Elektro-Handel gehen, mir ein paar PCs kaufen und daraus einen Supercomputer bauen? Das ist durchaus möglich. Ich empfehle sogar, es zu versuchen. Die Schwierigkeiten würden wohl eher bei der Software aufkommen, und zwar sowohl auf System- wie auch auf Anwendungsebene. Man kann etwa Anwendungssoftware auf einem PC oder Laptop schreiben und dann später die Programme auch auf Supercomputern laufen lassen. Man muss dabei aber aufpassen. Das Portieren ist in der Regel nicht das Problem, sondern das Skalieren. Ein kleines System toleriert gewisse Fehler, die bei einem komplexeren System schwerer ins Gewicht fallen. Aber im Prinzip entwickeln wir heute genauso für unsere Supercomputer. Wie pflegeleicht ist ein Supercomputer? Supercomputer sind wartungsintensiv. Je ausgereifter eine Technologie ist, umso pflegeleichter wird sie. Im wissenschaftlichen Rechnen wollen wir aber immer Probleme lösen, die wir eigentlich nicht lösen können. Wir versuchen also immer, die schnellste Hardware zu finden – aber die kostengünstigste, schnellste Hardware. Das heisst, man wird immer versuchen, bei den Entwicklungskosten einzusparen. Die Rechner sind am Ende gerade so gut ausgereift, dass sie laufen. Sie laufen aber nur, wenn Leute sie benutzen, die wissen, wie man mit ihnen umgeht. Sind Supercomputer eine Belastung für die Umwelt? Die Umweltbelastung ist vernachlässigbar. Wir produzieren keine Abgase und keinen Lärm. Für die Kühlung verwenden wir Wasser aus dem Luganersee. Das Wasser wird aus etwa 40 Metern Tiefe abgezogen und einige Kilometer weit ins Rechenzentrum gepumpt. Im Gebäude fliesst es in einem internen Kreislauf mit Wärmetauschern. Danach fliesst es wieder zurück in den See. Im Prinzip könnte der lokale Energielieferant die entstehende Abwärme anzapfen. Die Frage ist derzeit, ob ein Unternehmen da ist, das diese einsetzen will. Die Abwärme zu nutzen ist zwar durchaus sinnvoll. Aber durch effizientere Architekturen und effizientere Algorithmen versuchen wir eigentlich, gar nicht erst so viel Energie zu verbrauchen und Abwärme zu produzieren. Das ist immer besser. Artikel online: www.netzwoche.ch ▸ Webcode 6433 www.netzwoche.ch © netzmedien ag 02 / 2016

Archiv