Komponenten

Inside Tsubame - der Nvidia-GPU-Supercomputer

Petaflop Biofluidics Simulations on the TSUBAME 2.0 Supercomputer

Petaflop Biofluidics Simulations on the TSUBAME 2.0 Supercomputer
Anonim

Wenn man den Computerraum im zweiten Stock des Computergebäudes des Tokyo Institute of Technology betritt, fällt einem sofort die Größe des zweitschnellsten Supercomputers in Japan auf. Sie können den Tsubame-Computer für die Industrieklimageräte, die Ihnen im Weg stehen, nicht sehen, aber das allein ist schon bezeichnend. Mit mehr als 30.000 Prozessorkernen verbraucht die Maschine ein Megawatt Strom und muss kühl gehalten werden.

Tsubame wurde in der neuesten Top 500-Rangliste mit einer Geschwindigkeit von 77.48T Flops (29. Platz) der schnellste Supercomputer der Welt. Gleitkommaoperationen pro Sekunde) auf dem Industriestandard Linpack Benchmark.

Obwohl seine Position relativ gut ist, ist es nicht so besonders. Das Interessante an Tsubame ist, dass es nicht allein auf die rohe Verarbeitungsleistung von CPUs (Central Processing Units) angewiesen ist, um seine Arbeit zu erledigen. Tsubame umfasst hunderte von Grafikprozessoren des gleichen Typs, die in Consumer-PCs verwendet werden. Sie arbeiten mit CPUs in einer gemischten Umgebung, die als Modell für zukünftige Supercomputer für Disziplinen wie Materialchemie gilt.

[Weiterführende Literatur: Beste NAS-Boxen für Media-Streaming und Backup]

Grafikprozessoren (GPUs) sind sehr gut darin, schnell die gleichen Berechnungen für große Datenmengen durchzuführen, so dass sie einige Probleme in Bereichen wie Moleküldynamik, Physiksimulationen und Bildverarbeitung kurzschließen können.

"Ich denke, dass in der großen Mehrheit der interessanten Probleme der Zukunft die Probleme, die die Menschheit beeinflussen, wo die Auswirkungen von der Natur kommen, die Fähigkeit erfordern, auf einem sehr großen Datensatz zu manipulieren und zu berechnen", sagte Jen-Hsun Huang, CEO von Nvidia, der diese Woche an der Universität sprach. Tsubame verwendet 680 von Nvidias Tesla-Grafikkarten.

Wie viel Unterschied machen die GPUs? Takayuki Aoki, Professor für Materialchemie an der Universität, sagte, dass Simulationen, die früher drei Monate dauerten, nun zehn Stunden auf Tsubame benötigen.

Tsubame selbst - nachdem man an den Klimaanlagen vorbeigegangen ist - teilt sich mehrere Räume in zwei Teile Etagen des Gebäudes und besteht weitgehend aus Rack-montiert Sun X 4600-Systeme. Davon sind insgesamt 655 mit je 16 AMD Opteron CPU-Kernen und Clearspeed CSX600-Beschleunigerkarten ausgestattet.

Die Grafikchips befinden sich in 170 Nvidia Tesla S1070 Rack-Mount-Einheiten, die zwischen die beiden CPUs gesteckt wurden Sonnensysteme. Jedes der 1U-Nvidia-Systeme verfügt über vier GPUs, von denen jede 240 Prozessorkerne für insgesamt 960 Kerne pro System besitzt.

Die Tesla-Systeme wurden im Laufe einer Woche während des Betriebs des Computers zu Tsubame hinzugefügt.

"Die Leute dachten, wir wären verrückt", sagte Satoshi Matsuoka, Direktor des Global Scientific Information and Computing Centre an der Universität. "Dies ist ein 1 Milliarde (US $ 11 Millionen) Supercomputer, der ein Megawatt Leistung verbraucht, aber wir haben technisch bewiesen, dass es möglich war."

Das Ergebnis ist, was Universitätspersonal Version 1.2 des Tsubame Supercomputers nennt.

" Ich denke, wir hätten 85 [T-Flops] erreichen können, aber wir hatten keine Zeit mehr, also waren es 77 [T-Flops] ", sagte Matsuoka zu den Benchmarks, die auf dem System durchgeführt wurden. Bei 85T Flops wäre es ein paar Plätze in den Top 500 gestiegen und in Japan am schnellsten gewesen.

Es gibt immer das nächste Mal: ​​Eine neue Top 500-Liste wird im Juni 2009 erscheinen, und auch das Tokyo Institute of Technology sucht weiter im Voraus.

"Dies ist nicht das Ende von Tsubame, es ist nur der Beginn der GPU-Beschleunigung, die zum Mainstream wird", sagte Matsuoka. "Wir glauben, dass es in den kommenden Jahren Supercomputer geben wird, die mehrere Petaflops registrieren, und wir würden gerne folgen."

Tsubame 2.0, wie er das nächste Upgrade nannte, sollte in den nächsten zwei Jahren hier sein und wird eine anhaltende Leistung von mindestens einem Petaflop (ein Petaflop ist 1.000 Teraflops) rühmen, sagte er. Das grundlegende Design für die Maschine ist noch nicht abgeschlossen, aber es wird die heterogene Berechnungsbasis der Mischung von CPUs und GPUs fortsetzen, sagte er.