AMD präsentiert FirePro S10000 mit zwei Tahiti-GPUs

Warte es doch ab, dann kannst du immernoch über die Verfügbarkeit meckern ;) Im Vorfeld macht das keinen Sinn.
Und wieso sollte man jetzt nicht klein K dort antreten lassen? Etwa weil Big K noch ne Weile braucht? Oder wie, so recht versteh ich das nicht, worauf du hinaus willst. Wie gesagt, betrachte es nüchtern. Stand heute, scheint AMD mit der Karte ein neues Produkt zu versprechen, wärend NV zwar womöglich das schnellere/bessere Produkt hat, dies aber noch ne Weile zu brauchen scheint, bis es den Endkunden erreicht.

nVidia liefert die K20 Produkte an die OEMs aus und alle Vorbestellungen werden innerhalb von 1-2 Wochen bedient. Kein Unterschied zu AMD.

Wie ich auf Quadro komme habe ich oben erklärt. Steck bitte einen Monitor an ne Tesla Karte und versuch dort Bild zu bekommen. Soweit ich das sehe, hat keine Tesla Karte aktuell einen Monitoranschluss. Wie willst du also eine Tesla Karte in einer Grafikworkstation beispielsweise einsetzen!? Apfel und Birnen lässt also grüßen :wink:

AMD vergleicht die Karte mit den Tesla-Versionen. Also handelt es sich hier auch um die Konkurrenz zu denen.

Aber OK, ich lass dich mal in dieser Traumweld ;) Lang lebe NV und das sie immer die Besten sein werden, auch wenn ihre Produkte noch gar nicht am Markt sind :fresse:

Ähm, K20 ist ab heute am Markt - jedenfalls genauso "am" wie AMD's S10000...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Damit du dich auch mal freuen kannst: Glückwunsch, hast richtig geraten.
Mit raten hatte das nichts zu tun, sondern mit den Infos bis dahin, Zeitplänen und logischen Zusammenhängen. Daher war es auch wahrscheinlich, dass solche Lösungen vorgestellt werden, wenn GK110 langsam am Markt eintrudelt. Dass die Dual-Tahiti Prototypen nicht einfach nur zum Spass existierten, sollte klar gewesen sein. Und es war auch klar, dass CI erst später kommt. Wie ich schon mal sagte, der dürfte Gegenspieler des Kepler Refreshs sein. Maxwell kommt danach, der sich mit dem CI Nachfolger duellieren dürfte.

Vielleicht kann man in Zukunft ja mal darauf verzichten, mit vernebeltem Blick ständig pro oder kontra eines Herstellers zu schreiben, und sich rein auf die Faktenlage zur Technik beschränken. ;)


Und was die TDP betrifft, da wäre ich vorsichtig. Wir wissen ja, wie Nvidia hier schon mal gerne schummelt. GF110 TDP 250 W, genehmigte sich unter voller Belastung aber auch schon mal >320 W. Da vertraue ich AMDs Angaben mehr. Also sollte man erstmal entsprechende Messungen abwarten. Und dass die FirePro tatsächlich 375 W braucht, ist auch noch lange nicht gesagt. Wenn sie real 301 W brauchen würde, würde sie trotzdem mit 375 W TDP eingestuft werden. Im HPC Bereich und für Workstations hat AMD damit auf jeden Fall erstmal die potentere Lösung, sowohl SP als auch DP. Leistungsaufnahme dürfte da auch nicht das Problem sein. Es werden ja nicht selten sowieso mehre von solchen Karten mit passender Stromversorgung und Kühlung verbaut.
 
Zuletzt bearbeitet:
Genau so schauts nämlich aus. Zeit ist Geld - da nimmt man einen höheren Stromverbrauch gerne in Kauf. Wenn man bei umfangreichen Projekten nur 10% mehr Rechenleistung hat, macht sich das, aufsummiert aufs Jahr, deutlich bemerkbar.
Nein, so ist es nicht. Da die FirePro S10000 eine Dual-GPU-Karte ist, muß man so oder so für Multi-GPUs programmieren, wenn man diese Karte verwenden will. Es macht softwaretechnisch keinerlei Unterschied, ob man nun eine Karte mit zwei GPGPUs hat, oder zwei Karten mit je einer GPGPU. Wenn man den Aufwand scheut, ist man mit einer Telsa K20 besser beraten, da diese Karte eine höhere Leistung pro GPGPU hat, und bei Multi-GPU-Einsatz ist sie deutlich effizienter. Hinzu kommt, daß nVidia massiv an der Optimierung der MPI Anbindung der Karten arbeitet, so daß man mit Infiniband direkt aus dem Karten RAM RDMA auf das RAM einer Karte in einem anderem Knoten machen kann. Bei AMD geht das nicht, da muß man jedesmal erstmal in das RAM des Mainboards kopieren, damit man IB RDMA machen kann.

Ein normales Rack hat 42 HE, davon gehen mindestens 2 HE für Switches drauf (je ein Ethernet- und ein IB-Switch), verbleiben also 40 HE. Aktuelle GPU-Server haben 2HE und nehmen entweder 4 oder 6 GPU-Karten auf. Nehmen wir mal an 6 Karten/2HE. Das macht dann 120 Karten in einem Rack, und das ergibt dann 45kW für die FirePros und 27kW für die Teslas, und pro Knoten 2,25kW (FirePro) bzw. 1,35kW (Tesla), der Rest des Knotens ist dabei noch gar nicht berücksichtigt. Diese Leistungsaufnahme (FirePro) schaffen weder die Standardknoten noch die Racks mit Zusatzkühlung. Effektiv heißt das für einen Cluster doch nur FirePro S9000 Karten, und die sind langsamer als die Tesla K20.

---------- Post added at 18:53 ---------- Previous post was at 18:52 ----------

Wenn du da aus deinem reichen Erfahrungschatz sprichst, dann ist das für dich ja in Ordnung. Ich - der nebenbei noch CATIA offen hat - sage dir, dass 10% mehr Rechenleistung merkbar und nützlich sind.
Die S10000 verlangt zwingend MultiGPU Support in der Software, da kann man dann auch problemlos mehrere K20 nutzen!

---------- Post added at 18:55 ---------- Previous post was at 18:53 ----------

Ich denke aber, hier hat NV mit Cuda etwas die Nase vorn.
Die Untertreibung des Jahres. Der Softwaresupport ist sowohl qualitativ wie auch quantitativ bei nVidia sehr viel besser.

---------- Post added at 19:06 ---------- Previous post was at 18:55 ----------

Wer schaut biete in der Industrie und hochprofessionellen IT auf den Stromverbrauch.
JEDER!
Was glaubt ihr denn was ein RZ an Strom verbraucht? Selbst mit Industriepreisen ist das richtig teuer!

---------- Post added at 19:10 ---------- Previous post was at 19:06 ----------

Wie gesagt, betrachte es nüchtern.
Bisher waren alle AMD GPGPU-Karten faktisch nicht erhältlich, da sie von kaum jemanden vertrieben wurden.
 
Wie gesagt, betrachte es nüchtern. Stand heute, scheint AMD mit der Karte ein neues Produkt zu versprechen, wärend NV zwar womöglich das schnellere/bessere Produkt hat, dies aber noch ne Weile zu brauchen scheint, bis es den Endkunden erreicht.

Nun nüchtern betrachtet und da muss ich ebenso Sontin recht geben hat Nvidia bereits 18000 Chips an Endkunden ausgeliefert,oder was soll Oak Ridge als berümteststes Beispiel denn bitte sonst sein?

Ob das das einzige Clustersystem ist weiß man ebenso noch nicht,gut möglich das auch schon andere Großkunden exclusiv beliefert wurden,bisher nur unter NDA standen

Was für einen Abverkauf kann dennn der S10000 vorweißen?

Nach der Logik müsste ich jetzt sogar bei AMD den Vorgänger als Vergleich heran ziehen weil eben nichts physisch greifbares vorhanden ist,außer einer Folie die ihn ankündigt

Nvidia hat also physisch schon reichlich mehr Derivate ihrer Profikarten auf dem Markt
 
Zuletzt bearbeitet:
AMD vergleicht die Karte mit den Tesla-Versionen. Also handelt es sich hier auch um die Konkurrenz zu denen.

So manche Marketingfolie muss man auch nicht nachvollziehen können. Viermodul Bulldozer wird auch als ackt Kern CPU vermarktet, dennoch kommt niemand auf die Idee diese mit Intels 8 Kern CPUs zu vergleichen ;)
Aber sei es drum, mir ist es wurscht... Ich hab es nicht nötig mich für einen Hersteller einsetzen zu müssen. Ich kaufe das, was mir zusagt. Und aktuell ist das NV. Davor war es AMD bzw. ATI und davor wiederum NV und noch weit früher 3dfx usw... :wayne:

Bisher waren alle AMD GPGPU-Karten faktisch nicht erhältlich, da sie von kaum jemanden vertrieben wurden.

Ändert aber nix an der Tatsache, das diese erhältlich waren und man diese, wenn man wollte, auch bekommen hat...

@scully
man kann sich Sachen auch schönreden ;)
ich sagte doch, ab sofort soll die Karte erhältlich sein. So wie es in der News steht. Wie viel davon im Umlauf ist, ist doch vollkommen wurscht. Fakt ist jedoch, K20 betittelte Produkte gibt es aktuell! nicht am Markt zu kaufen.
Sofern die News von sotin stimmt, dürfte es aber auch dort dann bald losgehen... Mich wundert eher, das NV auf ihrer Page davon nix schreibt. Oder hab ich was verpasst? Weil dort steht nur "coming soon"
 
Zuletzt bearbeitet:
@scully
man kann sich Sachen auch schönreden ;)
ich sagte doch, ab sofort soll die Karte erhältlich sein. So wie es in der News steht. Wie viel davon im Umlauf ist, ist doch vollkommen wurscht. Fakt ist jedoch, K20 betittelte Produkte gibt es aktuell! nicht am Markt zu kaufen.
Sofern die News von sotin stimmt, dürfte es aber auch dort dann bald losgehen... Mich wundert eher, das NV auf ihrer Page davon nix schreibt. Oder hab ich was verpasst? Weil dort steht nur "coming soon"

Da will ich dir auch gar nicht wiedersprechen nur sollte man dann eben so fair sein und die Produkte zu vergleichen die zusammen gehören bzw in ihrem Sinne mit einander konkurieren

Das ist im Server Bereich K20X vs S9000

Betreib ich eine Workstation ist es zudem ebenso egal ob man auf die Karte zwei Cores presst(s10000) mit exorbitant hohen Verbrauch oder wie bei Nvidia üblich als Quadro Plex System mit mehreren Steckkarten
 
Zuletzt bearbeitet:
Mit raten hatte das nichts zu tun, sondern mit den Infos bis dahin, Zeitplänen und logischen Zusammenhängen. Daher war es auch wahrscheinlich, dass solche Lösungen vorgestellt werden, wenn GK110 langsam am Markt eintrudelt. Dass die Dual-Tahiti Prototypen nicht einfach nur zum Spass existierten, sollte klar gewesen sein. Und es war auch klar, dass CI erst später kommt. Wie ich schon mal sagte, der dürfte Gegenspieler des Kepler Refreshs sein. Maxwell kommt danach, der sich mit dem CI Nachfolger duellieren dürfte.

Vielleicht kann man in Zukunft ja mal darauf verzichten, mit vernebeltem Blick ständig pro oder kontra eines Herstellers zu schreiben, und sich rein auf die Faktenlage zur Technik beschränken. ;)


Und was die TDP betrifft, da wäre ich vorsichtig. Wir wissen ja, wie Nvidia hier schon mal gerne schummelt. GF110 TDP 250 W, genehmigte sich unter voller Belastung aber auch schon mal >320 W. Da vertraue ich AMDs Angaben mehr. Also sollte man erstmal entsprechende Messungen abwarten. Und dass die FirePro tatsächlich 375 W braucht, ist auch noch lange nicht gesagt. Wenn sie real 301 W brauchen würde, würde sie trotzdem mit 375 W TDP eingestuft werden. Im HPC Bereich und für Workstations hat AMD damit auf jeden Fall erstmal die potentere Lösung, sowohl SP als auch DP. Leistungsaufnahme dürfte da auch nicht das Problem sein. Es werden ja nicht selten sowieso mehre von solchen Karten mit passender Stromversorgung und Kühlung verbaut.

Die hätten genauso die 7990 darstellen können, das wusste zu dem Zeitpunkt niemand. Es ist auch kein Kunststück, zwei Chips auf eine Karte zu setzen, das könnte Nvidia theoretisch auch, müssen sie aber nicht, da sie beim im HPC-Bereich wichtigen DP/W mit K20(X) weit vor S9000 und S10000 liegen und bei den Absolutwerten nicht so weit von letzterer entfernt sind. Die S10000 ist ein Bruteforce-Produkt, das in ihrem Haupteinsatzbereich HPC
"S" pretty much stands for server, and these are targetted towards number crunching workloads not CAD workloads; Visualisation and sim are more maths problems. So these are more inline with prior "Firestream" offering than Quadro competitors.
http://forum.beyond3d.com/showthread.php?p=1678991#post1678991

jetzt eher weniger überzeugt. Für den Aufwand (2 Chips, hohe TDP) ist das Ergebnis nicht gerade prickelnd, nur 13% mehr DP-Leistung. Die höhere Bandbreite ist da schon viel interessanter. Vielleicht kann AMD mit einer auf "Venus XT" basierenden Karte auch im 225W-Bereich aufschließen.
Deine Gegenspielergeschichte ist im Consumerbereich zutreffend, bei den Karten im Profisegment aber nicht wirklich anwendbar, da beide IHVs recht unterschiedliche Ansätze fahren und eine richtige Gegenüberstellung teilweise keinen Sinn macht. Dual-GPU vs. Single-GPU, 225W TDP vs 375W TDP, K10+K20 (Maximus) vs. W9000/S10000/?. Die S-Serie konkurriert im Übrigen nicht gegen die Quadros, siehe Dave Baumann von AMD:

Vielleicht kann man in Zukunft mal auf Sticheleien verzichten ;)

AMD schummelt genauso, die 7970 verbrät auch an die 300W, siehe Test bei HT4U. Bleiben wir doch bei den TDPs, alles andere ist Spekulatius. Zumal die Abregelungsmechanismen bei den Profikarten wieder ganz anders vorgehen könnten als bei den Consumerkarten. Bei Kepler regelt die Boost-geschichte jedenfalls ziemlich gut ab, z.B. bei Furmark. Potent bringt leider nix, wenn man sie in vielen Racks nicht verbauen kann eben aufgrund der TDP und der Anschlüsse. Die S10000 ist da eher ein Exot. Mehrere Karten werden in solchen Racks schon verbaut, aber so ein Rack ist auf eine Maximalbelastung ausgelegt, und da ist 4x375 nunmal deutlich mehr wie 4x225 oder 4x235. Im Übrigen kostet Strom Geld und Strom zur Kühlung ebenfalls. Wenn die Karten 24/7 laufen, kommt da schnell ein ganz schönes Sümmchen zusammen. Man kann in einen Supercomputer nicht einfach mal so Karten mit einem deutlich höheren Verbrauch einbauen ohne an der Infrastruktur kostspielige Änderungen vorzunehmen. Die S10000 ist für Workstations interessant, wo man maßgeschneiderte Lösungen anbieten kann.
 
Zuletzt bearbeitet:
Zweichip Design vs Singlechip und ne TDP von Achtung 375Watt sind auch nicht gerade dienlich in dem Segment,wenn es Alternativen gibt die bei vergleichbarer DP Performance mit nem 225Watt Budget auskommen

Abwarten wie das ganze bei realen Messungen aussieht.

Ja eben sowas lockt keine Großkunden hinterm Tisch hervor die mit ihrer bestehenden Infrastrukltur ihre Cluster aufrüsten wollen

Erstmal abwarten, wie die Effizienz und Leistung in er Praxis aussieht, bevor schon wieder mit ungelegten Eiern Aussagen getroffen werden.

Und ~ 120Watt mehr verballern für das selbe Resultat?

Wieso das selbe Resultat? Ich dachte die AMD hätte eine höhere Leistung?

Du willst mir also ernsthaft erklären wenn es im selben Rahmen Alternativen gibt die das gleiche Projekt ohne Mehraufwand in der Infrastruktur und eines Bruchteils der Stromnebenkosten schneller rendern/berechnen ec pp,du diese Alternative gar nicht in Betracht ziehst

Und du willst uns etwas vom professionellen Markt erzählen und reitest alleinig schon wieder auf der TDP herum und hast nur im Fokus AMD Produkte zu beginn ohne Differenzierung madig zu reden, das ist natürlich sehr konstruktiv für das Forum.

Sie zahlen fast gar nichts für ihre Wattstunden, dies macht brav der Steuerzahler.

Ich gehe mit dir nicht konform. Aber eines stimmt:

Viele Betriebe erhalten bei einem höheren Stromverbrauch als geplant Rabatte und kommen sogar günstiger weg wenn mehr Strom verbraucht wird als weniger. Ich würde jedenfalls als sinvoll ansehen das Stromargument von scully1234 in Maßen zu relativieren und nicht derart hochzuschaukeln.

Davon abgesehen stecken in Titan 18.688 K20X Karten. Mal sehen, ob AMD alleine diese Zahl von der S10000 ausliefern wird.

Das waren soviel ich weiß Verträge die Nvidia unbedingt einhalten musste. Das ist doch dann ein etwas anderer Sachverhalt zu dem Produkt von AMD.

Zu deinem Apfel Birnen Vergleich sag ich jetzt mal nichts weiter, ist eh immer das selbe mit dir.

Wenn ihr wollt könnt ihr ja einen Schönrede Dialog führen, aber ohne mich, ich habe auch keine Lust mehr eine !Firma! wegen indifferenten Gesabbel von immer den gleiche Leuten in Schutz nehmen zu müssen.
 
Zuletzt bearbeitet:
Die Effizienz und die Leistung nützen nichts, wenn die Infrastruktur kostspielig geändert werden muss. Das muss man vom eigentlichen Verbrauch getrennt sehen.
Im Übrigen könnte AMD die TDP ja auch auf 360 oder 330W setzen. Es steht nirgendwo geschrieben, dass diese Zahl mit den verbauten Stromanschlüssen übereinstimmen muss. Aus Spass werden die das wohl nicht so gemacht haben.

Dein krampfhafter Verteidigungsbeitrag ist nicht konstruktiv für das Forum, nur mal so nebenbei. Man darf hier doch diskutieren, ohne, dass du dich aufregst, oder?
 
Zuletzt bearbeitet:
.

Ich gehe mit dir nicht konform. Aber eines stimmt:

Viele Betriebe erhalten bei einem höheren Stromverbrauch als geplant Rabatte und kommen sogar günstiger weg wenn mehr Strom verbraucht wird als weniger. Ich würde jedenfalls als sinvoll ansehen das Stromargument von scully1234 in Maßen zu relativieren und nicht derart hochzuschaukeln.
.
Da kannst du relativieren was du willst ,ega welches Land nd egal bei welchen Rabatt,kein Unternehmen wird so blöd sein 40Megawatt in Kauf zu nehmen wenn es das gleiche Projekt bereits mit 30Megawatt in selber Zeit bewältigt und bestehende Infrastruktur weiter verwenden kann


Denn sowas erzeugt keinen Gewinn ,oder mit deinen Worten "günstiger wegkommen",sondern ist ein enormes Verlustgeschäft,bei den Größenordnungen von denen wir hier reden
 
Zuletzt bearbeitet:
Wieso das selbe Resultat? Ich dachte die AMD hätte eine höhere Leistung?
Nur in der Theorie - die praktisch erzielbaren Werte hat AMD nicht angegeben im Gegensatz zu nVidia.
Die Tesla K20x schaft im DGEMM 1,22TFlops von theoretischen 1,31TFlops. Da AMD erfahrungsgemäß sehr viel schlechtere Software liefert, ist anzunehmen, daß deren DGEMM Routine auf einer S10000 weniger TFlops schafft als die K20x.

Und du willst uns etwas vom professionellen Markt erzählen und reitest alleinig schon wieder auf der TDP herum
Insbesondere im RZ ist es wichtig, daß die Abwärme auch weggekühlt werden kann. Ich habe schon angeführt was für Packungsdichten in HPC Racks üblich sind. 45kW pro Rack nur an GPGPUs ist extrem viel, dafür bräuchte es Spezialracks wahrscheinlich sogar spezielle Knoten, die direkt mit Wasser gekühlt werden, das treibt die Beschaffungskosten in die Höhe. Allerdings ist direkte Wasserkühlung im Betrieb effizienter siehe SuperMUC, daher geht der Trend immer mehr zur Wasserkühlung bzw. direkten Wasserkühlung. Was bleibt sind die reinen Betriebskosten, und da sind 20% Mehrverbrauch auch wenigstens 20% mehr Betriebskosten.

Viele Betriebe erhalten bei einem höheren Stromverbrauch als geplant Rabatte und kommen sogar günstiger weg wenn mehr Strom verbraucht wird als weniger.
Das ist definitiv bei den für HPC üblichen Verbrauch nicht mehr der Fall. Die Dinger ziehen wenigsten mehrere 100kW - eher mehrere MW. 20% geringerer Stromverbrauch bedeutet auch drastisch geringere Betriebskosten.
 
Die hätten genauso die 7990 darstellen können, das wusste zu dem Zeitpunkt niemand.
Das ist doch völlig irrelevant. Dual-Tahiti ist Dual-Tahiti. Als was das dann verkauft wird, ist eine rein marktstrategische Entscheidung und ändert an der eigentlichen Technik nichts. Auch das hatte ich damals schon gesagt.

Es ist auch kein Kunststück, zwei Chips auf eine Karte zu setzen, das könnte Nvidia theoretisch auch
Soweit ich weiss hat das Nvidia mit GK104 bereits getan. Mit Brute-Force hat das auch wenig zu tun. Dual-GPU ist alles andere als trivial. Brute-Force kann man da genauso GK110 andichten. Viele Einheiten, viel Transistorlogik, trotzdem nichts anderes als Kepler. Erhöht nur das Risiko, weil die Entwicklung länger dauert und die Fertigung anfälliger ist. Zwei kleine vs einen grossen Chip ändert letztendlich nichts an den Zielen. Bei beiden Lösungen versuchst du in die Breite zu bauen, um den Durchsatz auf gleicher Fläche zu erhöhen. Die Umsetzung ist lediglich anders. Und AMD hat da im Moment einfach die potentere Lösung, sowohl SP als auch DP. Wie die Leistungsaufnahme und damit die Energieeffizienz ausschaut, lässt sich bisher noch nicht beurteilen.

Die S10000 ist ein Bruteforce-Produkt, das in ihrem Haupteinsatzbereich HPC

AMD: Southern Islands (7*** series) Speculation/ Rumour Thread - Page 166 - Beyond3D Forum

jetzt eher weniger überzeugt.
Wo steht das? Ich kann davon nichts lesen. Kann es sein, dass du nur wieder was siehst, was du gerne sehen möchtest?

AMD schummelt genauso, die 7970 verbrät auch an die 300W, siehe Test bei HT4U.
AMD hat ja auch als Angabe "<300 W" im Vorfeld verwendet. Ansonsten sind die 250 W "Typical Board Power". Was sogar noch zu viel ist, wenn wir mit "typical" Spiele betrachten. Ich wüsste nicht, wo da geschummelt worden sein soll. Selbst mit einer TDP von 375 W sollte man so eine Karte noch in vielen Racks problemlos verbauen können. Die sind wie gesagt sowieso auf mehrere Karten ausgelegt. Frühere Dual-GPU Karten hatten bereits ähnliche Specs. Und es mag stimmen, dass es bestimmte Energie- und Kühlungslimits gibt. Nur, wenn eine Karte mehr Performance liefert, braucht man natürlich auch weniger davon, um auf die gleiche Gesamtperformance zu kommen. Die FirePro ist also sehr interessant, für alle möglichen Anwendungszwecke, sowohl Server/HPC als auch Workstations.

Dein krampfhafter Verteidigungsbeitrag ist nicht konstruktiv für das Forum, nur mal so nebenbei. Man darf hier doch diskutieren, ohne, dass du dich aufregst, oder?
Lustig. Was du Schaffe hier vorwirfst, denke ich mir bei dir auch immer. :rolleyes:


Nur in der Theorie - die praktisch erzielbaren Werte hat AMD nicht angegeben im Gegensatz zu nVidia.
Die Tesla K20x schaft im DGEMM 1,22TFlops von theoretischen 1,31TFlops. Da AMD erfahrungsgemäß sehr viel schlechtere Software liefert, ist anzunehmen, daß deren DGEMM Routine auf einer S10000 weniger TFlops schafft als die K20x.
Zu Evergreen Zeiten habe ich das Thema etwas verfolgt. Damals hatte AMD bessere SGEMM/DGEMM Effizienz als Nvidia. Daher wäre ich mit solchen Annahmen vorsichtig. Letztendlich sind das aber recht synthetische Vergleiche. Man sieht ja bereits im Linpack Test, dass die K20 Effizienz deutlich wegbricht. Generell würde ich da aber bessere Karten bei AMD sehen aufgrund der höheren Bandbreite.
 
. Die Umsetzung ist lediglich anders. Und AMD hat da im Moment einfach die potentere Lösung, sowohl SP als auch DP. Wie die Leistungsaufnahme und damit die Energieeffizienz ausschaut, lässt sich bisher noch nicht beurteilen.

Da hast du ausnahmsweiße recht,der Rest ist aber völliger Schwachsinn

Erstens kann man bei TDP Werten von 235 K20X vs 375W S10000 sehr wohl beurteilen das die eine Steckkarte an termischen Grenzen getrieben wurde

Zweitens ist an einen Einsatz in Serienracks aufgrund der termischen Anforderungen nicht zu denken

Drittens wenn es also klar ist das s10000 in Worksation arbeitet ist es irrelevant wieviele Cores AMD da auf eine Platine presst,das Gegenstück von Nvidia ist QuadroPlex und das dreht mit 2x 110 Cores Kreise um die S10000 Dualcoeresteckkarte,sowohl was Rechenleistung betrifft als auch Perf/Watt

Ne Karte zu bauen die 375Watt Peak verbrät um sich damit zu brüsten das man statt Rackkonformer 0.8 (s9000) jetzt 1,49 Tflops Peak DP reißt ist kein Meisterstück der Technik
 
Zuletzt bearbeitet:
3,6KW wie lange soll das denn in dem Gehäuse( geschlossen )laufen bis sich alles in seine Bestandteile zerlegt

Bzw wie lange ist es gelaufen:asthanos:
 
Damals hatte AMD bessere SGEMM/DGEMM Effizienz als Nvidia. Daher wäre ich mit solchen Annahmen vorsichtig.
Wie der Link von Sontin zeigt, ist das tatsächlich so. Da die anderen Algorithmen prinzipiell schlechter umzusetzen sind, sieht es für die S10000 eher mau aus.
 
Fast 8,25 TFLOPS mit 8 Karten ist aber recht gut. Und das sind lediglich "early drivers". Gerade bei Evergreen hat man seinerzeit mit Treiberoptimierung noch erheblich mehr rausgeholt bei SGEMM/DGEMM.

AMD FirePro S10000 GPU-Powered SANAM Supercomputer Comes First for Power and Efficiency - Legit Reviews
over 2.3 GFLOPS per watt and performing 2,351 million calculations per second per watt

>2300 MFLOPS/W > 2142,77 MFLOPS/W

Tja, ein weiterer Fail von Nvidia. Einer nach dem anderen. :rolleyes:

Und natürlich ist es völlig legitim, 2x 4,3 Mrd Transistoren mit 1x 7,1 Mrd Transistoren zu vergleichen. Das sind letztendlich nur etwa 21% Unterschied. Nicht fair wäre 1x 4,3 Mrd Transistoren mit 1x 7,1 Mrd Transistoren zu vergleichen. Das sind dann schon etwa 65% Unterschied. Was anderes behaupten nur Leute, die vermutlich seinerzeit trotzdem einen C2Q mit einem Phenom X4 verglichen haben. :rolleyes:
 
Zuletzt bearbeitet:
Fast 8,25 TFLOPS mit 8 Karten ist aber recht gut.:

Dudi irgendwie hast du ein mathematisches Problem kann das sein?

Oben wurde auch geäußert was eine K20 reale Tflops Leistung bringt bei selben Berechnungsalgorithmus,bei gerdade mal 225Watt und nicht 375

Und noch was zu deiner Optimierung der Treiber,Nvidia hat auch ein Treiberteam,wenn du es auf die "early Driver" schiebst
 
Zuletzt bearbeitet:
60% mehr Server für die selbe Leistung wie mit K20.
Nur 62% der Effizienz bei Linpack, selbst Titan hat mit 65% erheblich mehr.
Nur effizienter wegen Intel CPUs.

Wow, was für ein Erfolg.
 
Insbesondere im RZ ist es wichtig, daß die Abwärme auch weggekühlt werden kann.
Das stimmt ja auch da gebe ich dir recht.

scully1234 schrieb:
Denn sowas erzeugt keinen Gewinn ,oder mit deinen Worten "günstiger wegkommen",sondern ist ein enormes Verlustgeschäft,bei den Größenordnungen von denen wir hier reden

Ich habe auch nicht gesagt man macht Gewinn durch mehr Stromverbrauch.
Hör doch endlich damit auf mir Sachen erzählen zu wollen die ich so nie gesagt habe.
Jede Diskussion läuft immer auf den gleichen Mist raus.

Der eine stellt sich da wie ein selbstverliebter Narzist der nur von seiner Firma schwafeln kann und der andere versucht ständig Strohmannargumente zu benutzen.

Es ist immer dasselbe. AMD = etwas langsamer und Stromhungriger = unbrauchbar.
Sollte Nvidia mal was Effizienz.. etc.. zurückliegen.. dann redet sich Sontin wohl um Kopf und Kragen, so wie er es im 3DCenter bezüglich Tegra getan hat.
Es ist sinnlos überhaupt eine Diskussion zu führen, weil ihr alles was AMD anbelangt als Mist hinstellt.

Tja, ein Fail nach dem anderen.

Fail ist eigentlich nur dein überhebliches Verhalten.
 
Zuletzt bearbeitet:
Ich habe auch nicht gesagt man macht Gewinn durch mehr Stromverbrauch.
Hör doch endlich damit auf mir Sachen erzählen zu wollen die ich so nie gesagt habe.
Jede Diskussion läuft immer auf den gleichen Mist raus.

@Schaffe89
Viele Betriebe erhalten bei einem höheren Stromverbrauch als geplant Rabatte und kommen sogar günstiger weg wenn mehr Strom verbraucht wird als weniger


Bitte bring Klarheit in deinen Kontent^^

Wenn man "günstiger wegkommt",hat man nach Adam Riese am Jahresende,auch mehr in der Hosentasche.Nur zur Erklärung mehr in der Hosentasche = mehr Gewinn

Hier kommt keiner günstiger weg wenn er nicht auf Perf/Watt achtet.In den Regionen wo sich diese Cluster bewegen,ist Industrierabatt hin oder her schon längst obsolet,weil sie weit oberhalb dieser Grenzen aggieren,darum sind solch große Rechenzentren allemal daran interessiert,die Kosten für Energie so gering wie möglich zu halten
 
Zuletzt bearbeitet:
"Die AMD FirePro 10000 mit 375 Watt liefert 1,48 DP-TFlops, also theoretisch 3,95 GFlops/W.
Die Tesla K20X bringt es auf 5,57 GFlops/W: 1,31 [DP]-TFlops aus 235 Watt."

Wo ist die S10000 da bitte effizienter?
 
Erstens bezieht sich der Verbrauch auf das ganze Rechenzentrum, nicht nur auf die S10000. Zweitens ist sowas bzgl. der Karten gar nicht vergleichbar, da gibt es viel zu viele Variablen, z.B. CPU, Menge RAM/HDDs, Effizienz/Art der Kühlung, Effizienz des Netzteils, Netzwerk usw.
 
"Die AMD FirePro 10000 mit 375 Watt liefert 1,48 DP-TFlops, also theoretisch 3,95 GFlops/W.
Die Tesla K20X bringt es auf 5,57 GFlops/W: 1,31 [DP]-TFlops aus 235 Watt."

Wo ist die S10000 da bitte effizienter?

da wo man nicht die theoretische leistung vergleicht
 
Erstens bezieht sich der Verbrauch auf das ganze Rechenzentrum, nicht nur auf die S10000. Zweitens ist sowas bzgl. der Karten gar nicht vergleichbar, da gibt es viel zu viele Variablen, z.B. CPU, Menge RAM/HDDs, Effizienz/Art der Kühlung, Effizienz des Netzteils, Netzwerk usw.

aber sicher ist das vergleichbar (empirisch ist sowieso alles vergleichbar) und zwar hier direkt und ohne weiteres,
denn in dem von senbei gelieferten Vergleich ist der Maßstab (auf dem er mit Recht wie ich meine besteht) auch direkt gegeben
die Effizienz der PSU spielen darin keine Rolle, weil die 375 bzw. 235 Watt AC-Angaben sind
ebenso invariant, nämlich unabhängig von jeder CPU, sind die (theoretischen) Maximalleistungsangaben der Karten
und es ist auch nicht zu sehen, weswegen deine übrigen Angaben (ram, hdd, kühlung) varianten in dem gefragten Vergleich darstellen sollen

alles, was für einen gültigen Effizienzvergleich der Karten erforderlich ist, hat senbei angegeben, und danach wird sich der Preis der neuen ATI-Karte richten
der Preis der Karte richtet sich nicht danach, welche Leistung in irgendeiner bestimmten Konstellation eines Rechenzentrums praktisch unter anderem mittels einer ati- oder nvidia-karte oder xeon-phi karte konkret generiert wird, sondern danach, was die karte (theoretisch) liefert an Leistung und welche Features die Karte bieten mag
 
"Die AMD FirePro 10000 mit 375 Watt liefert 1,48 DP-TFlops, also theoretisch 3,95 GFlops/W.
Die Tesla K20X bringt es auf 5,57 GFlops/W: 1,31 [DP]-TFlops aus 235 Watt."

Wo ist die S10000 da bitte effizienter?
Das sind doch lediglich TDP Werte. Die sagen herzlich wenig über die reale Leistungsaufnahme. Wir haben schon in der Vergangenheit gesehen, dass Nvidia hier gerne schummelt und real deutlich mehr brauchen kann. Ich bin mir ziemlich sicher, auch der K20X Peak liegt höher als die angegebenen 235 W.

Fakt ist, dass der AMD befeuerte Sanam effizienter arbeitet als der Nvidia befeuerte Titan. Zahlen lügen nicht. Und die GPUs haben daran einen nicht unerheblichen Anteil. Schliesslich liefern sie die Rechenleistung. Auch wenn natürlich noch weitere Komponenten hinzukommen, wie Speicher, Interconnects usw. Der Xeon Phi befeuerte Beacon ist zwar noch effizienter. Man sollte aber bedenken, Xeon Phi wird bereits in 22 nm gefertigt. Bezogen auf die gleiche Strukturgrösse sieht's bei AMD auf jeden Fall sehr gut aus. Und wenn die Specs zum SI Nachfolger stimmen, dann erwartet uns selbst in 28 nm noch ein recht üppiges Performanceupdate (~70%). Damit sollte auch Xeon Phi locker zu knacken sein. Auch wenn eine CI Dual-GPU wohl nicht vor 2H 2013 zu erwarten ist.

Mir persönlich ist es relativ egal. Nette Spielzeuge für RZ, für normale Leute wie uns aber belanglos. Ein bisschen Schadenfreude kann ich mir aber nicht verkneifen bei den Kommentaren der bekannten unsachlichen und realitätsfremden AMD Basher und Nvidia Schönredner. Und dass sie sich ständig so zahlreich in AMD Threads aufhalten, spricht Bände. Ist Nvidia zu langweilig geworden? Lustig finde ich vor allem die Aussagen, dass die FirePro nicht für RZ geeignet wäre und bei HPC nicht überzeugen könnte. Und jetzt, wo sich herausstellt, dass sie das doch ist bzw kann (was jedem mit objektiver Sichtweise auch schon vorher klar gewesen sein sollte), und TDP Angaben unterschiedlicher Hersteller eben nur bedingt vergleichbar sind, werden Ausreden bei anderen Komponenten gesucht und man könne die Karten doch gar nicht miteinander vergleichen. Das war vorher aber natürlich völlig egal als man Nvidia noch vorne wähnte. :fresse:
 
aber sicher ist das vergleichbar (empirisch ist sowieso alles vergleichbar) und zwar hier direkt und ohne weiteres,
denn in dem von senbei gelieferten Vergleich ist der Maßstab (auf dem er mit Recht wie ich meine besteht) auch direkt gegeben
die Effizienz der PSU spielen darin keine Rolle, weil die 375 bzw. 235 Watt AC-Angaben sind
ebenso invariant, nämlich unabhängig von jeder CPU, sind die (theoretischen) Maximalleistungsangaben der Karten
und es ist auch nicht zu sehen, weswegen deine übrigen Angaben (ram, hdd, kühlung) varianten in dem gefragten Vergleich darstellen sollen

alles, was für einen gültigen Effizienzvergleich der Karten erforderlich ist, hat senbei angegeben, und danach wird sich der Preis der neuen ATI-Karte richten
der Preis der Karte richtet sich nicht danach, welche Leistung in irgendeiner bestimmten Konstellation eines Rechenzentrums praktisch unter anderem mittels einer ati- oder nvidia-karte oder xeon-phi karte konkret generiert wird, sondern danach, was die karte (theoretisch) liefert an Leistung und welche Features die Karte bieten mag

Der Punkt ist eben, dass die GPUs bzw. Karten nicht die einzigen Energieverbraucher in einem Rechenzentrum sind. Das ist doch ganz logisch. Wenn man das vergleichen wollte, müsste man im selben Rechenzentrum ausschließlich die Karten austauschen und nochmal Linpack laufen lassen. Praxiswerte sind wichtiger als theoretische Werte, korrekt - aber bitte unter gleichen Bedingungen.
 
Schaut man sich die Green500 Liste an, sieht man doch, dass Opterons eben nicht dafür gemacht wurden sind.
Das erste Opteron-System mit nicht Kepler taucht erst auf Platz 109 mit 718.12 MFLOPs/Watt (AMD Cypress Karten) und 110 mit 715.14 MFLOPs/s (Fermi M2050) auf.

Das erste Xeon System mit nicht Phi oder Tahiti ist Bullex 505 mit 2090 Karten auf 35 mit 1,266.26 MFLOPs/Watt (Fermi M2090). Das ist 76% besser als die Supercomputer mit Cypress und 2050...

Eine sehr versimpelte Rechnung, wo das Bullex 505 mit Kepler stehen könnte:
Ersetzt man die 256 M2090 Karten durch 256 K20 Karten, erreiche das System ein rPeak von 315,280 TFLOPs/s und bei Effizienz von 69% in Linpack wären es 217,5432 TFLOPs/s. Macht bei einem gleichen Verbrauch von 81,5 kW stolze 2669 MFLOPs/s...

Es hat schon seinen Grund, warum Cray AMD als Standard-CPU aus ihrem neusten Serversystem gekickt hat...

Aber hey, AMD wird ja mit seinem 28nm Refresh ganze 70% drauflegen. :lol:
 
Zuletzt bearbeitet:
Fakt ist, dass der AMD befeuerte Sanam effizienter arbeitet als der Nvidia befeuerte Titan.
Beim HPL wird die Effizienz über den kompletten Knoten gemessen, und nicht über die Grafikkarte alleine. Und Titan verwendet ineffizientere AMD Opterons mit speziellen Cray Interconnects.
Und die GPUs haben daran einen nicht unerheblichen Anteil.
Nur bei der Rechenleistung - beim Stromverbrauch ist der restliche Knoten nicht mehr zu vernachlässigen.

… kann ich mir aber nicht verkneifen bei den Kommentaren der bekannten unsachlichen und realitätsfremden …
Du kennst AMD GPGPUs aus dem HPC Alltag? -- Nein? -- Dann maß dir besser kein Urteil an!

AMD Software unter Linux ist Schrott, da gibt es nichts positives darüber zu berichten. Der HPL auf AMD ist auch nur Blendwerk, da der Code für DGEMM hochoptimiert ist, aber alles andere für HPC wichtige ist extrem langsam. Solche Problem gibt es bei Intel und nVidia nicht, die optimieren die komplette Software Suite. AMD fehlt dafür seit Jahren die Manpower.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh