Car-tech

Weiter oben: Exascale-Computer, voraussichtlich 2020.

The IT That Will Take Us to Mars | The Element Podcast - E05

The IT That Will Take Us to Mars | The Element Podcast - E05

Inhaltsverzeichnis:

Anonim

Wenn die Geschwindigkeit der Supercomputer in ihrem derzeitigen Tempo weiter steigt, werden wir die erste exascale-Maschine bis 2020 sehen, schätzten die Instandhalter der Top500 Zusammenstellung der schnellsten Systeme der Welt.

Systemarchitekten solcher großen Computer werden jedoch mit einer Reihe kritischer Probleme konfrontiert, warnt ein Halter der Liste.

"Die Herausforderungen werden wesentlich für die Lieferung der Maschine sein", sagte Jack Dongarra, eine Universität von Tennessee, Knoxville, Forscher, der einer der Hauptverantwortlichen hinter den Top500 ist. Dongarra sprach auf der SC2012-Konferenz, die diese Woche in Salt Lake City stattfand, während einer Präsentation über die letzte Ausgabe der Liste, die letzte Woche veröffentlicht wurde.

Wir haben noch einen Weg zu gehen, bevor Exascale-Leistung möglich ist. Eine Exascale-Maschine wäre in der Lage, eine Trillion FLOPS (Fließkommaoperationen pro Sekunde) oder 10 bis 18 FLOPS zu bilden. Selbst die schnellsten Supercomputer von heute bieten weniger als 20 Prozent der Fähigkeiten einer Exascale-Maschine.

Top500

Neue Höhen

In der neuesten Ausgabe der Top500-Liste der Supercomputer, veröffentlicht am Montag, der schnellste Computer auf der Liste war das Oak Ridge National Laboratory Titan-System, eine Maschine, die 17.59 Petaflops ausführen kann. Ein Petaflop ist eine Billiarde Fließkommaberechnungen pro Sekunde oder 10 bis 15 FLOPS.

Aber jede neue Top500 - die Liste, die zweimal pro Jahr erstellt wird - zeigt, wie schnell die Geschwindigkeit von Supercomputern wächst. Nach dieser Liste scheinen Supercomputer alle zehn Jahre das Zehnfache zu erreichen. 1996 erschien der erste Teraflop-Computer auf den Top500, und 2008 erschien der erste Petaflop-Computer auf der Liste. Ausgehend von dieser Fortschrittsrate schätzt Dongarra, dass das Exascale-Computing etwa 2020 eingeführt werden sollte.

Die High Performance Computing (HPC) -Gemeinschaft hat Exascale Computing als einen wichtigen Meilenstein angenommen. Intel hat eine Reihe von Multi-Core-Prozessoren namens Phi entwickelt, von denen die Firma hofft, dass sie als Grundlage für Exascale-Computer dienen könnten, die bis 2018 laufen könnten.

In seinem Vortrag skizzierte Dongarra die Eigenschaften einer Exascale-Maschine. Solch eine Maschine wird wahrscheinlich irgendwo zwischen 100.000 und 1.000.000 Knoten haben und wird in der Lage sein, zu jeder gegebenen Zeit bis zu einer Milliarde Threads auszuführen. Die Leistung der einzelnen Knoten sollte zwischen 1,5 und 15 Teraflops betragen, und die Verbindungen müssen einen Durchsatz von 200 bis 400 Gigabytes pro Sekunde haben.

Supercomputerhersteller müssen ihre Maschinen so konstruieren, dass ihre Kosten und ihr Stromverbrauch nicht linear steigen zusammen mit der Leistung, damit sie zu teuer werden, um zu kaufen und zu laufen, Dongarra sagte. Eine Exascale-Maschine sollte etwa 200 Millionen Dollar kosten und nur etwa 20 Megawatt oder etwa 50 Gigaflops pro Watt verbrauchen.

Dongarra geht davon aus, dass die Hälfte der Kosten für den Bau eines solchen Computers für den Kauf von Speicher für das System ausgegeben werden würde. Nach den Roadmaps der Speicherhersteller schätzt Dongarra, dass bis 2020 100 Millionen US-Dollar zwischen 32 Petabyte und 64 Petabyte Speicher gekauft werden.

Top500

Software-Herausforderung

Neben den Herausforderungen in der Hardware müssen auch Entwickler von Exascale-Supercomputern beschäftigen sich auch mit Software-Problemen. Ein Problem wird die Synchronisation sein, sagte Dongarra. Heutige Maschinen übergeben Aufgaben zwischen vielen verschiedenen Knoten, obwohl dieser Ansatz rationalisiert werden muss, da die Anzahl der Knoten zunimmt.

"Heute ist unser Modell für die Parallelverarbeitung ein Fork / Join-Modell, aber das ist nicht möglich. das Exascale] Niveau einer Parallelität. Wir müssen unser Modell ändern. Wir müssen synchroner sein ", sagte Dongarra. Analog dazu müssen Algorithmen entwickelt werden, die die Gesamtkommunikation zwischen den Knoten reduzieren.

Andere Faktoren müssen ebenfalls berücksichtigt werden. Die Software muss über eingebaute Routinen zur Optimierung verfügen. "Wir können uns nicht darauf verlassen, dass der Benutzer die richtigen Drehregler und Wahlschalter so einstellt, dass die Software in der Nähe der Spitzenleistung läuft", sagte Dongarra. Die Fehlerresilienz wird ein weiteres wichtiges Merkmal sein, ebenso wie die Reproduzierbarkeit der Ergebnisse oder die Garantie, dass eine komplexe Berechnung bei mehrmaliger Ausführung die gleiche Antwort liefert.

Die Reproduzierbarkeit mag für einen Computer eine offensichtliche Eigenschaft sein. Aber in der Tat kann es eine Herausforderung für große Berechnungen auf multinodischen Supercomputern sein.

"Vom Standpunkt der numerischen Methoden ist es schwer, bitweise Reproduzierbarkeit zu garantieren", sagte Dongarra. "Das Hauptproblem besteht darin, eine Reduzierung vorzunehmen - eine Zusammenfassung von Zahlen parallel. Wenn ich nicht garantieren kann, in welcher Reihenfolge diese Zahlen zusammenkommen, habe ich verschiedene Rundungsfehler. Dieser kleine Unterschied kann vergrößert werden in einer Weise, die dazu führen kann, dass die Antworten katastrophal auseinander gehen ", sagte er.

" Wir müssen ein Szenario entwickeln, in dem wir die Reihenfolge garantieren können, in der diese Operationen ausgeführt werden, damit wir die gleichen Ergebnisse garantieren können, Sagte Dongarra.

Joab Jackson berichtet über Unternehmenssoftware und allgemeine Technologie, die Neuigkeiten für Der IDG-Nachrichtendienst enthält. Folge Joab auf Twitter unter @Joab_Jackson. Joabs E-Mail-Adresse ist [email protected]