Supercomputer El Capitan: Mit EPYC Genoa mit Zen 4 und Radeon Instinct zu 2 ExaFLOPS

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.820
doe-el-capitan.jpg
Gleich drei Supercomputer des Department of Energy (DoE) sollen in den kommenden Jahren die Grenze von einem ExaFLOP pro Sekunde an Rechenleistung erreichen. Nun gibt es weitere Details zum El Capitan, einem der Exascale-Systeme, welches von der National Nuclear Security Administration (NNSA) gestellt und vom Lawrence Livermore National Laboratory (LLNL) in Kalifornien betrieben werden soll. El Capitan soll eine Rechenleistung von zwei ExaFLOPS erreichen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welchen Nutzen bringen noch gleich Simulationen von Nuklearteaktionen?
Muss die Menschheit wirklich an der „Verbesserung“ von nuklearen Waffen forschen und simulieren?
Ergibt sich daraus ein Nutzen der der Allgemeinheit zuträglich ist?
 
Welchen Nutzen bringen noch gleich Simulationen von Nuklearteaktionen?
Muss die Menschheit wirklich an der „Verbesserung“ von nuklearen Waffen forschen und simulieren?
Ergibt sich daraus ein Nutzen der der Allgemeinheit zuträglich ist?
Es könnten doch Aliens auftauchen. :unsure: Capitan hört sich doch cool an.
 
Welchen Nutzen bringen noch gleich Simulationen von Nuklearteaktionen?
Muss die Menschheit wirklich an der „Verbesserung“ von nuklearen Waffen forschen und simulieren?
Ergibt sich daraus ein Nutzen der der Allgemeinheit zuträglich ist?

Das Thema Atomwaffen sollte man natürlich in diesem Zusammenhang hinterfragen. In gewisser Weise gibt es da eine selbsterhaltende Industrie in den USA, die rein auf die Erhaltung solcher Systeme ausgelegt ist.
 
"Ein ExaFLOP entspricht 1018Fließkomaberechnungen"
Fehlt da nicht noch ein "m"?
Beitrag automatisch zusammengeführt:

"Die Zen-4-Architektur hingegen befand sich für einem Jahr in der Designphase." Ein "vor" erscheint mir sinniger.
 
  • Danke
Reaktionen: Don
Danke für die Hinweise!
 
Ich finde berechnungen anstatt real life tests natürlich besser. Abgesehen davon sind atombomben eine der besten erfindungen.

Nicht nur weil wir alle gemäß chaos theorie ihnen unser leben verdanken. Die tatsache dass ein krieg in atomwaffengebrauch und damit totale zerstörung resultiert, war doch das was im kalten krieg den krieg auch schön kühl gehalten hat.

Ohne atomwaffen wären die doch übereinander hergefallen wie hungrige wölfe.
 
Ich denke der Japaner sieht das anders.
 
Das Atomwaffen uns vor einem 3ten Weltkrieg bewahrt haben bisher ist eine interessante Theorie.

Aber als beste Erfindung, nein das ginge wohl zu weit, wie @Infi88 das schon treffsicher anmerkt. :hust:
 
Ich denke der Japaner sieht das anders.

Naja, abgesehen davon, dass Kalter Krieg und Zweiter Weltkrieg zwei verschiedene Sachen sind, glaube ich nicht, dass "der" Japaner da nur eine einzige Meinung zu hat.

Man muss sich auch mal anschauen was damals passiert ist. Ganze Städte wurden schon mit Brandbomben vernichtet. Mehrere 100.000 Tote gab es schon, aber die Kapitulation kam nicht. Der Krieg war eigentlich schon vorbei, aber wirklich aufgeben wollten die Japaner nicht. Und eine Invasion wollte niemand. Ist auch zweifelhaft, dass es diese ein besseres Ergebnis gebracht hätte. Die Potsdamer Erklärung ("Gebt auf oder ihr werdet vernichtet"), wurde ignoriert.

Und dann hatte man eben die Atombombe fertig entwickelt... Sehr schwierige Entscheidung. Aber wer von euch hätte denn als amerikanischer Präsident noch einmal eine Invasion durchführen wollen? Deutschland wurde gerade unter gewaltigen Verlusten besiegt, und man hatte unzählige Verluste bei der Einnahme der Inseln vor den japanischen Hauptinseln erlitten.
 
Don hat Recht, back to topic. Die Berechnung von Atomwaffentests ist gut für das Design von Computerspielen. Etliche Monate gehen in diese Berechnungen, um dann von Spieledesignern in Partikel- und Texturpaketen detailgenau nachgebastelt zu werden. Fallout, Doom, Command & Conquer, Minesweeper - glaubt mir, das Ding wurde nur angeschafft um Computerspielegrafiken *noch* realistischer zu machen. :d
 
Die aufwändigsten Simulationen sind meines Wissens immer noch in der Astrophysik anzutreffen.
Für die realistische Simulation einer Sternexplosion reicht leider selbst ein Exaflop nicht aus, um die Rechenzeit signifikant zu reduzieren.
Derartige transiente Simulationen mit Berücksichtigung u. a. quantenphysikalischer und gravitativer Bedingungen dauern heutzutage nicht einige Monate, sondern Jahre.
Dagegen war die Berechnungszeit der Millenniumsimulation noch relativ gering.
Man darf natürlich nicht vergessen, dass wir hier immer von Vereinfachungen und theoretischen Betrachtungen ausgehen.
Nun, ich hoffe in 10 Jahren werden wir Supercomputer mit einem Zetaflop haben.
Im Bereich der angewandten Forschung des Ingenieurwesens, den Materialwissenschaften und der Chemie, insbesondere durch die Implementierung von AI, aber auch zum großen Teil für die Grundlagenforschung ist ein Exaflop gewiss ein riesiger Fortschritt, keine Frage.
Es ist eine Schande, dass die Menschheit diese Rechenleistung zum großen Teil für militärische Zwecke verwenden wird.
So reichen später dann keine 200 sondern nur 100, wenn nicht sogar weniger, gezielte Atombombenabwürfe zur näherungsweisen Auslöschung unserer Spezies aus.
 
Zuletzt bearbeitet:
Don wird mich wohl nun schimpfen :d
Gibt so einige Artikel, recherchierte Akten von damals und z.B. sogar ein Buch von einem deutschen Autor, mit ziemlich vielen Details und Beweisen beschrieben dass die Kriegsteilnehmer aus den usa damals gar keinen triftigen Grund hatten die Bomben auf Japan zu werfen, da man bereits vor dem Abwurf wusste dass diese sowieso zeitnah kapitulieren werden. Noch war der Abwurf vernünftig, notwendig und in gar keinem Fall verhältnismäßig (schon gar nicht die Argumentation des Angriffes auf Pear Harbor). §Den Krieg vorzeitig beendet" ist einfach nur Propaganda.
Größter nicht verurteilter Massenmord auf einen Schlag (okay zwei^^) an Zivilisten. Krieg, die Wahrheit und so^^

Die Nr.1 der Topp 500 schafft 200k Tflops bei 10 MW/s.
Mehr als eine 6er Potenz schneller, also 1 Million mal? :whistle:
 
Zwei Experimente, eine Uran- und eine Plutoniumbombe. Little-Boy und Fat-Man. Damals wie heute ein abscheuliches Verbrechen.
 
Es geht bei den Berechnungen nicht mehr um eine maximale Vernichtung durch Atomwaffen. Heute ist man schon soweit, kleine Atomwaffen zu bauen, die einen kleinen Bereich vernichten und nicht ganze Städte.
 
Also haben sie dann mit ihrem alten super computer berechnet, wie toll es sein wird mit Uran Munition ganze Landstriche zu kontaminieren?
 
Natürlich, schau dir die Doku an. Da geht es um eine neue Strategie der Kriegsführung. Gezielt kleine Atombomben setzen. Man löst damit keinen nuklearen Weltkrieg aus, kann aber seine Ziele mit ungebrochenen Nachdruck durchsetzen.
Um mal ein Bild zu zeichnen. Idlib. Zu nahe an der Grenze zur Türkei für schwere Atomwaffen. Aber solche kleine Atombömchen, die einen Umkreis von 30km vernichten. Das wird bald auf uns zukommen. So können die mächtigen Staaten bald ihre Interessen durchsetzen, ohne einen weltweiten Atomkrieg vom Zaun zu brechen.
 
Welchen Nutzen bringen noch gleich Simulationen von Nuklearteaktionen?
Muss die Menschheit wirklich an der „Verbesserung“ von nuklearen Waffen forschen und simulieren?
Ergibt sich daraus ein Nutzen der der Allgemeinheit zuträglich ist?
Nuklearreaktionen finden nicht nur beim Abwurf eine Atombombe statt und ich bezweifele, dass ein Exascale Computer ausschließlich zum Entwickeln neuer Bomben gebaut wird. Genau so gut lässt sich damit die Effizienz von neuen AKW-Designs berechnen oder Möglichkeiten in der Kernfusion Energie zu gewinnen , wie z.b. Die Berechnung der nötigen Magnetfelder zur Eindämmung.
Auch das sind Punkte mit nationalem Interesse (im Bereich Atomphysik) für die USA und geht über die Privatforschung hinaus.
 
Nuklearreaktionen finden nicht nur beim Abwurf eine Atombombe statt und ich bezweifele, dass ein Exascale Computer ausschließlich zum Entwickeln neuer Bomben gebaut wird. Genau so gut lässt sich damit die Effizienz von neuen AKW-Designs berechnen oder Möglichkeiten in der Kernfusion Energie zu gewinnen , wie z.b. Die Berechnung der nötigen Magnetfelder zur Eindämmung.
Auch das sind Punkte mit nationalem Interesse (im Bereich Atomphysik) für die USA und geht über die Privatforschung hinaus.

das klingt allerdings auch etwas anders als der Inhalt des Beitrages.
 
Nuklearreaktionen finden nicht nur beim Abwurf eine Atombombe statt und ich bezweifele, dass ein Exascale Computer ausschließlich zum Entwickeln neuer Bomben gebaut wird. Genau so gut lässt sich damit die Effizienz von neuen AKW-Designs berechnen oder Möglichkeiten in der Kernfusion Energie zu gewinnen , wie z.b. Die Berechnung der nötigen Magnetfelder zur Eindämmung.
Auch das sind Punkte mit nationalem Interesse (im Bereich Atomphysik) für die USA und geht über die Privatforschung hinaus.

Mag sein das man auch andere Berechnungen darauf fährt, aber selbst wenn, wir werden es nicht erfahren weil er nicht öffentlich zugänglich ist. Das DoE deckt ja einen breiten Anwendungsbereich ab. Es wird wird wohl noch eine kleine Variante des El Capitan geben, der ebenfalls AMD-EPYC + AMD-GPUs verwendet, aber vom LLNL für öffentlich kommunizierte Projekte verwendet wird.
 
Mag sein das man auch andere Berechnungen darauf fährt.....
Gibt es denn irgendeine offizielle Quelle die diesen Computer überhaupt mit Atombomben in Verbindung bringt? Im Artikel ist nur die Rede von National Nuclear Security Administration und Atomreaktionen.
Vllt werden mit diesem Computer ja sogar gar keine Berechnungen zu Bomben laufen! (Obwohl ich das selber auch nicht glaube =)
Dass der Computer im neuen „kalten Krieg“ zwischen Russland und USA auch für die Modernisierung der Bomben genutzt wird, ist mmn. nur das 1+1 addieren des Autors.
Aber du hast recht, was da Berechnet wird, werden wir nie erfahren.
 
Wenn die HPE-Mitteilung als Grundlage für die News genommen wurde, wäre interessant zu erfahren, warum ihr folgende explizit benannte Nutzungen nicht wiedergegeben habt:
- Accelerating cancer drug discovery from six years to one year through a partnership with the GlaxoSmithKline, the National Cancer Institute and other DOE national laboratories through the ATOM consortium,
- Understanding the dynamics and mutations of RAS proteins that are linked to 30% of human cancers by collaborating with The National Cancer Institute and other partner institutions?
 
Wenn die HPE-Mitteilung als Grundlage für die News genommen wurde, wäre interessant zu erfahren, warum ihr folgende explizit benannte Nutzungen nicht wiedergegeben habt:

Nein, die Mitteilung von HPE war nicht Grundlage für den Artikel. Wir haben die Informationen im Vorfeld erhalten und hier war nur die Rede von der Nutzung im Rahmen des Atomprogramms.
 
Naja die schreiben halt das Atomprogramm rein. Denn irgendwie müssen sie ja dem durchschnitts Amerikaner ja die Ausgabe von 600 Mio. erklären. Und in einen Hurra Patriotismus Land wie den USA ist Militär/Verteidigung immer gut.
Forschung zu die eventuell zu Medikamente oder zum besseren Verständnis unseres Sonnensystems führen. Sind da halt schlecht erklärbar, bei 600 Mio.
 
Viele Staaten sind zu der Erkenntnis in der Lage, dass eigene Interessen letztlich nur mit militärischen Fähigkeiten zu wahren oder durchzusetzen sind, zudem dass man sich dabei nicht von anderen hineinpfuschen lassen sollte. Man kann das auch darauf ausweiten, dass viele Staaten überhaupt erst mal eigene Interessen haben...
Die Errichtung und Unterhaltung eines Nukleararsenals ist daher vorübergehend - bis neue bzw. andere Kampfmittel der Maximalzerstörung ge-/erfunden sind - die logische Konsequenz und alternativlos

Ob ggü. dem bisherigen Material, welches durchaus nicht als lasch bezeichnet werden könnte, weitere "Verbesserungen" notwendig sind, kann natürlich debattiert werden. Immerhin hat man sich korrekterweise zur Aussetzung echter Detonationen entschlossen und hält sich daran. Und auch immerhin bieten solche Projekte, als Nebenprodukt, die Aussicht auf technischen Fortschritt in der IT/EDV.
 
Um welchen Faktor ist die Effizienz, z.B. Tflops/Watt, nun höher als bei den jetzigen der Top500 oder Green500 Liste?
Finde auf die schnelle keine Information über deren Zusammensetzung, Prozessor-Grafikkarten-Anteil.
 
Natürlich, schau dir die Doku an. Da geht es um eine neue Strategie der Kriegsführung. Gezielt kleine Atombomben setzen. Man löst damit keinen nuklearen Weltkrieg aus, kann aber seine Ziele mit ungebrochenen Nachdruck durchsetzen.
Um mal ein Bild zu zeichnen. Idlib. Zu nahe an der Grenze zur Türkei für schwere Atomwaffen. Aber solche kleine Atombömchen, die einen Umkreis von 30km vernichten. Das wird bald auf uns zukommen. So können die mächtigen Staaten bald ihre Interessen durchsetzen, ohne einen weltweiten Atomkrieg vom Zaun zu brechen.

Um einen Umkreis von 30km zu zerstören brauchst Du ein paar Megatonnen. Worum es bei den Mini-Nukes geht ist, z.B Bunker zu zerstören, die für konventionelle Sprengkörper zu gut gesichert sind, aber mit ein, zwei Kilotonnen Sprengkraft angreifbar sind.
Der Nachteil dieser "Mini-Nukes" ist aber, dass die relativ geringe Sprengkraft einen Einsatz um so wahrscheinlicher macht. Und wenn die Büchse der Pandorra mal offen ist, weiss man nie was passiert.

Um an Daten für die Computer zu kommen, werden aber sowieso immer noch subkritische Atomtests durchgeführt. Der ganz große Knall bleibt halt dank der Simulationen aus.

Cunhell
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh