Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
kann ich mir aber nicht verkneifen bei den Kommentaren der bekannten unsachlichen und realitätsfremden
Das sind doch lediglich TDP Werte. Die sagen herzlich wenig über die reale Leistungsaufnahme. Wir haben schon in der Vergangenheit gesehen, dass Nvidia hier gerne schummelt und real deutlich mehr brauchen kann. Ich bin mir ziemlich sicher, auch der K20X Peak liegt höher als die angegebenen 235 W.
Fakt ist, dass der AMD befeuerte Sanam effizienter arbeitet als der Nvidia befeuerte Titan. Zahlen lügen nicht. ....
Erstens bezieht sich der Verbrauch auf das ganze Rechenzentrum, nicht nur auf die S10000. Zweitens ist sowas bzgl. der Karten gar nicht vergleichbar, da gibt es viel zu viele Variablen, z.B. CPU, Menge RAM/HDDs, Effizienz/Art der Kühlung, Effizienz des Netzteils, Netzwerk usw.
Das sind doch lediglich TDP Werte. Die sagen herzlich wenig über die reale Leistungsaufnahme. :
Bitte bring Klarheit in deinen Kontent^^
Wenn man "günstiger wegkommt",hat man nach Adam Riese am Jahresende,auch mehr in der Hosentasche.Nur zur Erklärung mehr in der Hosentasche = mehr Gewinn
Ich gehe mit dir nicht konform. Aber eines stimmt:
Viele Betriebe erhalten bei einem höheren Stromverbrauch als geplant Rabatte und kommen sogar günstiger weg wenn mehr Strom verbraucht wird als weniger. Ich würde jedenfalls als sinvoll ansehen das Stromargument von scully1234 in Maßen zu relativieren und nicht derart hochzuschaukeln.
scully1234 schrieb:Da kannst du relativieren was du willst ,ega welches Land nd egal bei welchen Rabatt,kein Unternehmen wird so blöd sein 40Megawatt in Kauf zu nehmen wenn es das gleiche Projekt bereits mit 30Megawatt in selber Zeit bewältigt und bestehende Infrastruktur weiter verwenden kann
Wenn man "günstiger wegkommt",hat man nach Adam Riese am Jahresende,auch mehr in der Hosentasche.Nur zur Erklärung mehr in der Hosentasche = mehr Gewinn
Hier kommt keiner günstiger weg wenn er nicht auf Perf/Watt achtet.
Kann man so einen Scheiß nicht einfach mal weglassen? Hier geht es sehr sachlich zu, das sollte doch bitte auch so bleiben.
Das sind zwei völlig verschiedene Sachverhalte. Wenn ich ein vertragliches Strombudget nicht ausnutze oder unterschreite kostet das einen ordentlichen Aufpreis für Betrieb.
Ich muss also immer schauen dass ich das Strombudget einhalte, oder vielleicht auch überschreite.
Mit Gewinn des Unternehmens hat dies eigentlich nichts zu tun. Aber wenn für dich nach meinem Einwand die Faustregel gilt Mehr Stromverbrauch = mehr Gewinn, dann gratuliere ich schonmal. Du hast nichts kapiert.
3,6KW bei 8 Karten weil du ja immer so auf Quellen stehst,sieht mir nicht so aus,als ob AMD hier auch nur ein Bisschen übertrieben hätte bei den Werten Kannst den Verbrauch nun gerne wieder auf andere Komponenten umzulegen versuchen,aber jeder der ernsthaft begreift was hier primär den Verbrauch verursacht,weiß was gehauen und gestochen ist
Selbst wenn ich 600Watt für den Rest der Peripherie CPU/Motherboard/Ram/Netzteileffizienz abziehe,was schon reichlich zu deinen Gunsten ausfällt,kommt das Rack hier mit Ach und Krach auf 375Watt pro Steckkarte
scully Ich kenne nun den genauen Wirkungsgrad solcher NTs nicht, behaupte aber, derart dicke NTs dürften auch aufgrund von Redundanzen usw. deutlich unter 90% liegen, daher pauschal einfach mal mit 80% gerechnet.
Aber sei es drum, so extrem schlecht, wie man hier über S10000 spricht, scheint das Teil dennoch nicht zu sein. Man schafft über 8TFLops/s quasi aus dem Stand und der Verbrauch wird unter Beachtung des Wirkungsgrades auch nicht so "heiß" "gegessen", wie er hier "gekocht" wird.
@scully, wird nur mit 1200W irgendwie schwierig
Ich könnte mich irren, aber sollte nicht das NT auf den Bildern vom S10000 Rack so ausgelegt sein, das die Kiste auch mit Ausfall eines der drei Module weiter rennt?
Soll heißen, zwei der Kisten zusammen müssen schonmal mindestens besagte Leistung bringen.
...
According to the podcast guys at HPCWire, Tesla K20/K20X is more energy efficient than both Xeon Phi and FirePro 10000 when compared on it's own:
http://www.hpcwire.com/hpcwire/2012-...nd_losers.html
The podcast guys even hint that it would be possible to create a "trick" system to gain top honors on the Green 500 list. They suggest that Beacon (with Xeon Phi) and SANAM (with FirePro 10000) supercomputing systems are propelled to the top of the Green 500 list for two reasons: 1) The ratio of accelerators to CPU's in the system is relatively high. For instance, in the Beacon system with Xeon Phi accelerator, there are four Xeon Phi's for every two Xeon CPU's per node. Since accelerators have relatively high performance/watt compared to CPU's, the Green 500 performance/watt score is significantly boosted. 2) The size and scope of the system is relatively small compared to the Top 10 supercomputing systems. For instance, the Beacon system contains only 144 Xeon Phi accelerators (compared to 18,688 Tesla K20X accelerators in the Titan system and 1,875 Xeon Phi accelerators in the Stampede system). Performance scaling tends to become worse as the number of cores in a supercomputing system increases, so it is much easier to achieve high performance/watt with smaller systems.
Das ist ein über 2 Jahre alter Supercomputer mit alten Magny-Cours Opterons. Das hat mit Bulldozer gar nichts zu tun und ist auch nicht mit aktueller Hardware vergleichbar. Zumal Cypress ja auch nicht mehr taufrisch ist (VLIW5) und noch in 40 nm gefertigt wurde. Der aktuelle Opteron ist natürlich sehr wohl für Supercomputer geeignet, gerade dort. Und entgegen der landläufigen Meinung ist der auch recht effizient, wenn man es mit den Taktraten nicht übertreibt und aktuelle ISA Erweiterungen wie FMA nutzen kann, was ja bei den Opterons der Fall ist. Es ist also mehr als fraglich, dass der K20x SC mit Xeons effizienter wäre. Aber gut, sich an irgendwelche dünnen Strohhalme zu klammern, soll natürlich erlaubt sein.Schaut man sich die Green500 Liste an, sieht man doch, dass Opterons eben nicht dafür gemacht wurden sind.
Das erste Opteron-System mit nicht Kepler taucht erst auf Platz 109 mit 718.12 MFLOPs/Watt (AMD Cypress Karten) und 110 mit 715.14 MFLOPs/s (Fermi M2050) auf.
Sagt uns nur rein gar nichts, da es kein vergleichbares BD Opteron System mit Fermi gibt.Das erste Xeon System mit nicht Phi oder Tahiti ist Bullex 505 mit 2090 Karten auf 35 mit 1,266.26 MFLOPs/Watt (Fermi M2090). Das ist 76% besser als die Supercomputer mit Cypress und 2050...
Ist natürlich eine Milchmädchenrechnung, die überhaupt nicht aufgeht, wenn man Systeme mit solch grossen Unterschieden vergleicht. Der Titan braucht praktisch hundert mal so viel Energie und ist dementsprechend üppig ausgestattet. Mal davon abgesehen nutzt der SANAM E5-2650 Xeons. Und Xeon E5-2650 mit Fermi gibt's erst ab #37 mit 1038,29 MFLOPS/W, nicht 1266,26 MFLOPS/W. Da könnte ich jetzt auch behaupten, SANAM wäre mit anderer CPU, zB Bulldozer, noch effizienter.Eine sehr versimpelte Rechnung, wo das Bullex 505 mit Kepler stehen könnte:
Ersetzt man die 256 M2090 Karten durch 256 K20 Karten, erreiche das System ein rPeak von 315,280 TFLOPs/s und bei Effizienz von 69% in Linpack wären es 217,5432 TFLOPs/s. Macht bei einem gleichen Verbrauch von 81,5 kW stolze 2669 MFLOPs/s...
Es hat auch niemand behauptet, dass die Grafikkarte alleine gemessen wurde. Und dass die Opterons ineffizienter sein sollen, sind nichts als unbelegte Vorurteile. Ich könnte mir sogar vorstellen, dass sie in einem solchen Verbund effizienter als E5-2650 arbeiten. Lustigerweise scheint sogar der ältere Westmere-EP effizienter zu arbeiten, wenn man sich #35 und #36 anschaut. Beides jeweils mit Nvidia 2090.Beim HPL wird die Effizienz über den kompletten Knoten gemessen, und nicht über die Grafikkarte alleine. Und Titan verwendet ineffizientere AMD Opterons mit speziellen Cray Interconnects.
Da sagen aber Benchmarks, zB basierend auf OpenCL, was anderes. Zumal solche SC eh speziell optimiert werden. Sry, aber da bekommt man das Gefühl, du denkst dir einfach nur was aus oder willst es nicht wahrhaben.AMD Software unter Linux ist Schrott, da gibt es nichts positives darüber zu berichten. Der HPL auf AMD ist auch nur Blendwerk, da der Code für DGEMM hochoptimiert ist, aber alles andere für HPC wichtige ist extrem langsam.
Nein, du liegst falsch. Ich habe gar nicht auf die Effizienz einer einzelnen Komponente geschlossen. Das haben andere gemacht. Wie man auch an den Milchmädchenrechnungen weiter vorne sehen kann. Es ging hier um Aussagen, dass die Kepler viel effizienter sein sollen, S10000 nicht für HPC und Supercomputer geeignet wäre usw. Genau das habe ich kritisiert und ist eben nicht der Fall, wie man an den Systemen sehen kann. Was eine einzelne Komponente konkret ausmacht, interessiert mich dabei gar nicht und ist aufgrund der angesprochenen Punkte auch nicht eindeutig ermittelbar. Letztendlich funktioniert es nur im Verbund. Und diese sprechen für sich. Klar sollte aber eines sein, was ich schon sagte, die GPUs haben einen nicht zu vernachlässigenden Anteil an Performance und Leistungsaufnahme und damit auch Effizienz. Es wird hier von einigen ja so getan, als würde K20 mit 225 W das schaffen, was S10000 mit 375 W schafft, und damit praktisch 2/3 effizienter wäre. So ist es aber bei weitem nicht.Der in Rankings zum Ausdruck kommende Vergleich von Rechenzentren im Ganzen ist in gar keinen Fall eine Aussage über die Leistungsfähigkeit oder die Effizienz von einzelnen Bauteilen dieser Anlagen (Obwohl sich Komponentenhersteller gerne mit den Federn von Gesamtsystemen schmücken). Zwar leistet jede Komponente eines Systems einen Beitrag zum Verhalten des Gesamtssystems (so dass die Leistung/Effizienz des Systems natürlich nicht unabhängig von der Leistung/Effizienz der Komponenten ist), aber von der Leistung/Effizienz eines solchen Gesamtsystems kann nicht (und schon gar nicht zuverlässig) auf die konkrete Leistung/Effizienz einer bestimmten Einzelkomponente geschlossen werden. Und deswegen ist dein Schluss von der Effizienz des Sanam Gesamtsystems auf die Effizienz der darin verwendeten Grafikkarte schon methodisch falsch.
Nur sagt uns dieser "zulässige" Vergleich rein gar nichts. Bzw lassen sich damit nur theoretische Effizienzangaben konstruieren, die mit der Praxis meist wenig zu tun haben. Beispiel SANAM. Mit 420 S10000, die je 375 W brauchen sollen, wären es bereits 157,5 kW. Hinzu käme noch der Wirkungsgrad der Stromversorgung. Bei 80-90% hätte man damit schon die Leistungsaufnahme von knapp 180 kW erreicht. Die 3360 Xeon Kerne, Speicher, Interconnects usw brauchen demzufolge nichts. Ist natürlich Quatsch. Auch anhand der Rechnung von fdsonne sollte jedem langsam mal klar werden, dass es mehr als fraglich ist, ob S10000 auch nur ansatzweise die 375 W ausreizt. Selbst wenn es um HPC geht.Der zunächst einzig zulässige Vergleich beruht auf den sog. "theoretischen" Herstellerangaben.
Unwahrscheinlich würde ich nicht sagen. ZB 235 W für K20x klingt schon recht "ausgelotet". Bei Fermi davor mit 238 W sah das schon ähnlich aus. Wobei ich davon ausgehe, dass das unter hohem Peak eben auch noch mehr sein könnte. Wir kennen ja Nvidias Schönrechnerei. 375 W klingt hingegen alles andere als ausgelotet, sondern einfach nach Standardschema, PCIe + 2x 8-Pin PCIe, um in jedem Szenario auf der sicheren Seite zu sein.Bei der Rechnung nimmst du aber an, dass die S10000 viel weniger verbraucht als ihre TDP angibt, die K20 aber exakt an der TDP-Grenze liegt. Das ist doch auch recht unwahrscheinlich.
Richtig, je höher der GPU Anteil ist, umso besser wird die Effizienz bei solchen Vergleichen. Nur, das macht SANAM ja nicht schlechter im Vergleich gegenüber Titan. Auf eine S10000 Grafikkarte kommen 8 CPU Kerne (16 Threads). Titan kommt auf das gleiche CPU-GPU-Verhältnis. Auf eine K20 Grafikkarte kommen 8 BD CUs (16 Threads).Bei hpcwire macht man sich ein paar Gedanken zu der green500 Liste. Es ist also so, wie ich sagte - die Platzierung an sich sagt ziemlich wenig, da muss man schon etwas weiterdenken
Das gebe ich mal unkommentiert an die ganzen AMD Basher hier zurück.Du kennst AMD GPGPUs aus dem HPC Alltag? -- Nein? -- Dann maß dir besser kein Urteil an!
Du bist wie immer an der falschen Adresse. "Scheiss" ist, wenn irgendwelche Kleinkinder wieder mal ihre "Fail"-Hasstiraden hier ablassen. Das sollte man einfach mal weglassen. Also richte deine Beschwerde an diese Leute. Wirst du natürlich nie machen, da du genauso gerne Nvidia schönredest. Man beschmutzt ja nicht das eigene Nest, gell?Kann man so einen Scheiß nicht einfach mal weglassen? Hier geht es sehr sachlich zu, das sollte doch bitte auch so bleiben.
Ich spielte auf die Tatsache an, daß es zwar eine hochoptimierte DGEMM Routine gibt, aber der Rest (heißt die restliche BLAS, LAPACK und FFT) nicht optimiert wird. Als Wissenschaftler erfindet man das Rad nicht ständig neu und schreibt sich Routinen der BLAS, LAPACK und FFT neu. D.h. man hat von der theoretisch erreichbaren Rechenleistung, wenn man denn die Routinen selbst implementieren würde, rein gar nichts, denn man nutzt die vorhandenen Bibliotheken. Und an diesem Punkt ist nVidia AMD absolut überlegen.Da sagen aber Benchmarks, zB basierend auf OpenCL, was anderes. Zumal solche SC eh speziell optimiert werden. Sry, aber da bekommt man das Gefühl, du denkst dir einfach nur was aus oder willst es nicht wahrhaben.
Eine S9000 hat 225W, die GPGPUs auf der S10000 mußten gegenüber der S9000 gedrosselt werden, damit die TDP nicht über 375W ansteigt, und dann gibt's nur 3GB RAM statt 6GB pro GPGPU.375 W klingt hingegen alles andere als ausgelotet, sondern einfach nach Standardschema, PCIe + 2x 8-Pin PCIe, um in jedem Szenario auf der sicheren Seite zu sein.
Und was sagt uns das über SC wie SANAM? Überhaupt nichts. Was dort für Software oder für Bibliotheken zum Einsatz kommen, weisst du gar nicht. Es ist ausserdem nicht AMDs Aufgabe, solche Sachen wie BLAS oder LAPACK zu implementieren. AMDs Aufgabe ist erstmal nur, die GPU SDK (APP/OpenCL/CAL) bereitzustellen. Der Rest liegt in der Verantwortung der Autoren der jeweiligen Bibliothek.Ich spielte auf die Tatsache an, daß es zwar eine hochoptimierte DGEMM Routine gibt, aber der Rest (heißt die restliche BLAS, LAPACK und FFT) nicht optimiert wird. Als Wissenschaftler erfindet man das Rad nicht ständig neu und schreibt sich Routinen der BLAS, LAPACK und FFT neu. D.h. man hat von der theoretisch erreichbaren Rechenleistung, wenn man denn die Routinen selbst implementieren würde, rein gar nichts, denn man nutzt die vorhandenen Bibliotheken. Und an diesem Punkt ist nVidia AMD absolut überlegen.
AMD liefert schlechte Software aus, die im Dauerbetrieb (wir haben AMD Karten im HPC Dauerbetrieb) beständig in irgend einer Form herumzicken: extreme Laufzeitschwankungen, abstürzende Karten, Treiberprobleme die ein Reboot nach bestimmten Jobs erzwingen, etc. pp.
Die nVidia Teslas sind im Dauerbetrieb sehr viel stabiler.
Und weiter? Auch das sagt uns nichts darüber, ob die 375 W in der Praxis erreicht werden. Es sagt uns ja nicht mal, ob die S9000 ihre 225 W in der Praxis erreicht. Auch das darf stark bezweifelt werden.Eine S9000 hat 225W, die GPGPUs auf der S10000 mußten gegenüber der S9000 gedrosselt werden, damit die TDP nicht über 375W ansteigt, und dann gibt's nur 3GB RAM statt 6GB pro GPGPU.
Es ist immer der gleiche Satz an Basissoftware, der auf einem HPC Cluster vorhanden ist, und durch spezielle Software für die jeweiligen Problemstellung ergänzt wird. Clusterverwaltung, Job Scheduler, MPI Bibliotheken, diverse Compiler, BLAS, LAPACK, ScaLAPACK, PBLAS, FFT finden sich immer auf den Systemen.Was dort für Software oder für Bibliotheken zum Einsatz kommen, weisst du gar nicht.
Doch ist es, weil sie die CPUs bzw. GPUs verkaufen wollen. Wenn AMD daran kein Interesse hat, können sie darauf verzichten.Es ist ausserdem nicht AMDs Aufgabe, solche Sachen wie BLAS oder LAPACK zu implementieren.
Wenn dies alle anderen Mitbewerber anders handhaben hat AMD keine Wahl, sie müssen das tun. IBM, Oracle(SUN), Intel, nVidia tun es. AMD hat somit ein großes Problem, und dies ist ein wesentlicher Grund weshalb AMD im HPC Bereich große Probleme hat.AMDs Aufgabe ist erstmal nur, die GPU SDK (APP/OpenCL/CAL) bereitzustellen.
Netlib.org stellt nur eine Referenzimplementation für CPUs zur Verfügung.Der Rest liegt in der Verantwortung der Autoren der jeweiligen Bibliothek.
In die Knoten würden 4 Karten passen, es werden nur zwei eingebaut. Dreimal darfst Du raten warum.Und weiter? Auch das sagt uns nichts darüber, ob die 375 W in der Praxis erreicht werden.
scully, ja ein einziges Beispiel
Laut der News soll es das AMD Produkt ja ab sofort zu kaufen geben. Sprich ab zum Distri und kaufen. Beim GK110 wird das schwieriger bis unmöglich aktuell.
Ich sehe als aktuelles Gegenstück gar nichts,denn eine Folie mit der Absicht auf Verfügbarkeit,mündet nicht zwangsläufig augenblicklich in ein real existierendes Produkt,das zeigte die Vergangenheit zur Genüge
Hast du Zugriff auf diverse Konfiguratoren der großen Hersteller?
Weil sie nicht im Preisvergleich gelistet ist, heist das nicht, das es sie nicht gibt
Aber mir solls wurscht sein, ich werd mir so oder so wohl so ein Teil nie einbauen müssen, weil ichs nicht brauch...
Hi scully, in welcher Einheit wird den der Strom abgerechnet?Schau dir das Rack nochmal genau an,dort sind 3x2U Modelle verbaut,reicht also genau für 3.6KW
Zumal die Kiste sowieso mit der Verlustleistung und dem Kühlsystem niemals dauerlaufgeeignet ist
Würde mich wundern wenn die Karten das ne halbe Stunde mitmachen ohne abzustürzen oder die Kernschmelze einzuleiten
Hi scully, in welcher Einheit wird den der Strom abgerechnet?
Im Link steht "a total of 3.6 kilowatts" also gehe ich davon aus das ist der Wert für die gesamte Benchdauer.
Also bei den großen Konfiguration stehts 19 000 K20 zu ?????
Und im Endkundenmarkt zeichnet sich nun das gleiche Bild
Ne Tedenz Zwecks der Verfügbarkeit,lässt sich da schon erkennen
Nochmal die Frage, was interessiert dieser eine SuperComputer mit scheinbar exklusivrecht zur Abnahme der Karten!?
Ich spreche von Konfiguratoren, die jede Firma nutzen kann, um sich Hardware diverser Hersteller zu konfigurieren...
Aber wenn du unbedingt recht haben willst. Bitte... DU HAST RECHT, AMD ist scheiße, AMD ist zu langsam, und K20 ist die beste Karte die es jemals gab und jemals geben wird. AMD wird weil sie so scheiße sind, untergehen
Nochmal die Frage, was interessiert dieser eine SuperComputer mit scheinbar exklusivrecht zur Abnahme der Karten!?
Ich spreche von Konfiguratoren, die jede Firma nutzen kann, um sich Hardware diverser Hersteller zu konfigurieren. Nur weil die Karte im Endkundenmarkt nicht verfügbar ist, weil es ggf. keinen Shop gibt, der diese an Endkunden verkauft (was laut jdl ja bei FirePro Karten durchaus sein kann) heist das wie schon gesagt lange nicht, das diese nicht verfügbar ist.
Warum kann man es nicht einfach mal nüchtern betrachten... Es wird niemand dran sterben einzugestehen
Diese Herstellerverbundenheit, die du Tag täglich für NV hier kund tust, finde ich übrigens extrem scheiße... Aber das ist nur meine persönliche Meinung...
Der Punkt ist hier doch, dass mit zweierlei Maß gemessen wird. Wenn S10000 schon über Distris erhältlich sein soll, wieso wird diese Möglichkeit K20 abgesprochen? Und wenn man das kritisiert, wird man als Fanboy abgestempelt - das ist doch unter aller Sau! Denn das ist eine "Herstellerverbundenheit", das was scully sagt, ist nur eine logische Schlussfolgerung und hat mit Bias doch gar nichts zu tun.
Fakt ist:
K20(X) sitzt schon zu Tausenden in Supercomputern - S10000 nicht, sonst hätte man davon werbeträchtig gehört
K20(X) ist bei geizhals schon gelistet - S10000 nicht
K20(X) ist möglicherweise genauso wie S10000 in Systemkonfiguratoren auswählbar. Genau weiß das niemand.
Und das kommt von jemanden, der hier behauptet, dass AMD ihre Karten angeblich schon ausliefern würde.
du treibst es ja jedesmal so weit das es den anderen zuviel wird mit deinem hochjubeln von nVwenn du das Bedürfniss hast auf dem Level weiter zu reden bitte