NVIDIA A100 zeigt sich im ersten Workstation-Benchmark

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
a100-pcie.jpg
Mitte Mai stellte NVIDIA mit dem A100 den ersten GPU-Beschleuniger auf Basis der Ampere-Architektur vor. Inzwischen hat man auch eine PCI-Express-Variante vorgestellt. Neben den von NVIDIA veröffentlichten, eher theoretischen Leistungswerten, kennen wir das wirkliche Leistungspotenzial aber noch nicht.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine GeForce RTX 2080 Ti erreicht etwa 310 Punkte mit 4352 Shadern. Der A100-Beschleuniger 446 Punkte mit über 6.912 Shadern.
Das sind 14,04 Punkte/Shader gegen 15,5 Punkte/Shader. Das wären dann ca 10% mehr IPC.

Sind dann so aus als ob die RTX 3090 400W fressen wird.
Eine durchschnittliche 2080 TI liegt bei 250W und eine stark übertaktete 2080 TI frisst auch schonmal 380W.
Geht man von einer durchschnittlichen 2080 TI aus sind das 60% mehr Energieverbrauch bei 44% mehr Leistung.

Sieht für mich nach dem Ende der gegenwärtigen NVidia GPU Architektur aus.
Erinnert ein wenig an die AMD FX CPUs die versuchten mit hohem Stromverbrauch noch irgendwie mitzuhalten.

Ich hab die Rechnung für "BIG NAVI" schonmal gemacht:
Nimmt man die Leistung der RX 5700 XT mal zwei für 5120 Shader bei 50% besserer effizienz bei RDNA2, wären das schon ~ 130% der Leistung einer 2080 TI bei 300W. Dabei soll RDNA 10% mehr Takt schaffen und die IPC vermutlich auch 10% höher ausfallen wobei wir damit schon gut bei 150% der Leistung einer 2080TI sind.

Heisst für mich 3090TI 400W 144% Leistung vs RX 6900 XT 300W 150% Leistung. (GPU Namen vermutet)
Der 7nm+ Prozess könnte sich hier letzendlich für AMD lohnen was die Leistung der GPU angeht.
Allerdings darf man dann auch DLSS 2.0 nicht vergessen, was die Leistung in unterstützten Spielen deutlich anheben kann.
Die Frage ist auch wie stark die Raytracingleistung und Qualität von AMD gegen NVidia aussieht.
Eine andere Frage wird der Preis sein.

Ich gehe davon aus, dass sich Nvidia die Mehrleistung überproportional bezahlen lässt. 2500€ für die RTX 3090 würden mich nicht wundern.
 
Zuletzt bearbeitet:
Das sind 14,04 Punkte/Shader gegen 15,5 Punkte/Shader. Das wären dann ca 10% mehr IPC.
Du hast den Takt vergessen. IPC ist pro Shader und Takt. Ist der Shadertakt der A100 bekannt die hier zum Einsatz kam?
 
@Mordrac
Ich meine die Effizienz von rdna2 steigt um 50%. Das wäre Faktor 1.5 bzw. 2/3 und nicht 1/2. In deiner Rechnung kommt AMD damit zu gut weg ;)

Die Effizienz von Nvidia und AMD sollte mit der nächsten Generation auf ähnlichem Niveau liegen, es ist damit also die Frage wie viele shader man nutzt und ob man die entsprechende Karte an der kotzgrenze laufen lässt, was auf die Effizienz geht.
 
zwei berechtigte einwände.
dann wären es 300W bei amds RX 6900 XT.

sollte der takt beim A100 höher ausfallen wäre der ipc gewinn geringer, bzw geringerer takt mehr ipc gewinn.

edit:
ich möchte noch ergänzen, dies sind nur vermutungen auf vorhandenen zahlen.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Tzk
@Mordrac
Ich meine die Effizienz von rdna2 steigt um 50%. Das wäre Faktor 1.5 bzw. 2/3 und nicht 1/2. In deiner Rechnung kommt AMD damit zu gut weg ;)
Ja, so habe ich das auch in Erinnerung. Ich bin gespannt, ob sie das halten können, denn die 50% wären trotzdem noch wirklich viel.
 
  • Danke
Reaktionen: Tzk
Die Effizienz von Nvidia und AMD sollte mit der nächsten Generation auf ähnlichem Niveau liegen, es ist damit also die Frage wie viele shader man nutzt und ob man die entsprechende Karte an der kotzgrenze laufen lässt, was auf die Effizienz geht.

Das wäre enorm, ich kanns noch nicht glauben. Als wenn Nvidia nicht von den 7 bzw. 8 nm profitieren könnte...
 
Die 5700xt liegt derzeit bei 225W und zwischen 2070 (175w) und 2070 super (215w). Mit den angesagten +50% effizienz hört sich das bei amd nicht schlecht an. Die rdna architektur hat schon einen großen schritt auf turing aufgeholt, wenn man an polaris im vergleich sieht.

Die frage ist was nvidia mit dem 8nm prozess bei samsung, welcher ein minimal verbesserter 10nm prozess ist, reissen kann. Ich vermute nich immer das 7nm bei tsmc nvidia zu teuer oder nicht ausreichend verfügbar war.

@Oberst
Amd hat in den zen2 apus die vega gpu auch ordentlich verbessert. Das kam eher überraschend, das man da so viel rausholen konnte... lassen wir uns von rdna2 mal überraschen.
 
Mit den angesagten +50% effizienz hört sich das bei amd nicht schlecht an.
Wurde denn in den Folien (die ich eh nicht mehr für voll nehme) gesagt wann diese 50% Steigerung kommen sollen? Ist gesichert, dass die für dieses Jahr erwartete AMD GPU die RDNA2 Architektur beinhaltet, die AMD auf den Folien mit +50% angepriesen hat?

Oder werden da einfach auf der Fan Seite best Case Szenarien zusammengespinnt die am Ende so von AMD nie vorgesehen waren?

Edit:
Wenn man einen linearen Verlauf/Zusammenhang unterstellt (sollte man im Zweifel nie tun!), dann würde es schon hinkommen:
RDNA2.jpg


Edit2:
Könnte aber ebenso auch folgendermaßen sein, wer weiß das schon?
RDNA2_2.jpg
 
Zuletzt bearbeitet:
Das wäre enorm, ich kanns noch nicht glauben. Als wenn Nvidia nicht von den 7 bzw. 8 nm profitieren könnte...
Die sache ist dass amd 7nm damals zum start von vega als pipecleaner genutzt hat.

Amd hat was den prozess und die entsprechende optimierung angeht mal gut 16 monate voraus.

Das ist nicht zu unterschätzen.

Man kann ja eine alte architektur nicht 1:1 auf einen neuen prozess porten. Irgendwo müssen abstriche gemacht werden ( siehe intels 10nm)

Also völling unmöglich ist die oben genannte rechnung mal nicht. Nur lehnen wir uns da mit 1! Benchmark und vielen vagen zahlen schon sehr weit aus dem fenster.

Was jedoch interessant ist, ist dass nvidia die tdp erhöhen will.


Und da nvidia detlich besser abschätzen kann als wir, was amd da abliefern wird, kann es gut sein dass dies als zeichen gesehen werden kann dass amd massiv leistung bringen wird.
 
@undervolter19
Amd hat folgendes bisher kommuniziert:
1. rdna2 hat +50% perf-per-watt zu rdna1
2. ps5 und xbox haben rdna2
3. die consumer rdna2 gpus erscheinen mit oder vor den neuen konsolen

Daraus folgt das die kommenden gpus rdna2 sind und diesen herbst/winter auf den Markt kommen.


EDIT:

+50% perf-per-watt:

1595680964403.png


RDNA2 kommt dieses Jahr:

1595681788759.png
 
Zuletzt bearbeitet:
Seitenlanges AMD Wunschdenken, basierend auf gar nichts. Gähn :whistle: .

Die 5700xt liegt derzeit bei 225W und zwischen 2070 (175w) und 2070 super (215w). Mit den angesagten +50% effizienz hört sich das bei amd nicht schlecht an. Die rdna architektur hat schon einen großen schritt auf turing aufgeholt, wenn man an polaris im vergleich sieht.

Die frage ist was nvidia mit dem 8nm prozess bei samsung, welcher ein minimal verbesserter 10nm prozess ist, reissen kann. Ich vermute nich immer das 7nm bei tsmc nvidia zu teuer oder nicht ausreichend verfügbar war.
Selbst Igor kann nicht sagen welche Node das ist, bzw. TSMC komplett ausschließen kann man noch gar nicht.
Die Marketingnamen in Sachen Fertigung mit denen der Neu-Intellektuelle um sich wirft haben anhand ihrer Abmessung(Gates) keine Aussagekraft(Meaning Lost).

Davon ab hat Samsung selbst mehrere 8nm Nodes, teils auf GF Basis, teils Eigene, aber evlt. auch mit Nvidia's "Maske" ein Joint Venture was schön länger vermutet wird, und ich auch schon erwähnte. Diese Ergebnisse sehen ehrlich gesagt für Samsung schockierend gut aus, selbst wenn man den Shadercluster beibehält und in etwa die 40% Rasterleistung mitnehmen kann, vor allem bei etwas mehr Clock den man hier nicht erahnen kann, wäre das genau wie in etwa vermutet.
Dann in etwa doppelte Tensor und RT Leistung wie ebenfalls schon gemutmaßt, basierend auf dem Supercomputer den Nvidia auf Ampere Basis schon abgeliefert hat, und ab in den Handel.

Ebenfalls eine Idee wie Igor anspricht könnte der Preis sein, sollte die gewünschten architektonischen Veränderungen speziell bei der GeForce nicht so anschlagen wie gedacht, dreht man etwas an der Preisschraube, aber eher nach unten nicht nach oben.
Zu meinen AMD sei schon vorbeigezogen auf Basis von noch nicht mal erschienen Low-End SOC's, die beim erscheinen schon veraltet sind und Keynotescreenshots ist doch völlig absurd.
 
Zuletzt bearbeitet:
Zu meinen AMD sei schon vorbeigezogen auf Basis von noch nicht mal erschienen Low-End SOC's, die beim erscheinen schon veraltet sind und Keynotescreenshots ist doch völlig absurd.

Als hätte es das in der Vergangenheit nicht schon gegeben. Aber inwiefern veraltet? Was meinst du damit?
 
So wie ich es gemeint habe, meinste Jensen läuft mim "Jetson Nano" bei BMW rum um seinen Roboter zu vermarkten ?
Nur weil bei den Konsolen RDNA 2 draufsteht kannste dir nicht 3 Playstation 5 für einen hocheffizienten "Nvidia-Killer" schön rechnen :unsure: , selbst zu RT gibt es noch keine wirklichen absoluten Informationen.
Stattdessen Preishaluzinationen von 2500€ GeForce in Samsung Fertigung 🤪 und AMD sei 130% schneller, man kann nur zu Gott beten das die Radeons am Tag eins nicht den Realitätsverlust der Community haben, wobei GDDR6 schon mal ein gutes Zeichen sind.

Auch die Vereinheitlichung der Architektur mit den Tensor-Cores bei Ampere könnte zusätzlich noch mal bei der GeForce wie auch in HW Artikeln schon angeschnitten dramatisch Leistung bringen ohne die Shadercluster zu verändern, die waren für FP32 an sich in Spielen abgesehen von Sachen wie DLSS und anderem Schabernack meist völlig useless so weit ich informiert bin.
Natürlich noch ineffizient wahrscheinlich das ganze hier in dem Bench, und trotzdem solche Werte, heißt aber für eine GeForce 3080ti beispielsweise gar nichts. Wie effizient tatsächlich diese Chips sind für Spieler vor allem oben rum sind kann man noch nicht abschätzen.
 
ich halte die Vermutung, dass Amd nvidia in Sachen Effizienz einholt bzw überholt für absolutes Wunschdenken, aber das wird sich noch zeigen. Was die meisten Innovationen angeht hinkt Amd ja immer noch hinterher oder bringt kurz darauf seine eigene Interpretation der nvidia-Technik auf den Markt
 
ich halte die Vermutung, dass Amd nvidia in Sachen Effizienz einholt bzw überholt für absolutes Wunschdenken, aber das wird sich noch zeigen. Was die meisten Innovationen angeht hinkt Amd ja immer noch hinterher oder bringt kurz darauf seine eigene Interpretation der nvidia-Technik auf den Markt
Dein erster Satz mag ja korrekt sein, dein zweiter dagegen ist einfach nur dummes Geschwätz.
 
Das wäre enorm, ich kanns noch nicht glauben. Als wenn Nvidia nicht von den 7 bzw. 8 nm profitieren könnte...
Können sie - allerding ist Nvidias Architektur schon ziemlich effizient und ausgereizt - bei AMD hingegen sind noch einige Treppenstufen nach oben Luft. Und genau dort schließt AMD mal zu Nvidia auf. Was also Leistung/Shader angeht, sollten AMD und Nvidia dieses Mal auf ähnlichem Niveau stehen. Ist natürlich alles ohne Tricks wie DLSS und Konsorten.

Was bleibt ist der 7/8nm Prozess, der es beiden Firmen ermöglicht viele Shader auf kleinstem Raum mit halbwegs beherrschbaren Verbrauchszahlen zu treiben. Allerdings habe ich den Eindruck, dass die 400W bei Team grün kaum noch abführbar sind. Die Ryzen-Chips mit ihren mickrigen 100-150W haben schon ein Problem bei der thermischen Dichte, bekommen es aber noch halbwegs hin. 400W... na ja, wir werden sehen.
 
Sind dann so aus als ob die RTX 3090 400W fressen wird.

Wie kommst du denn darauf?
Dir ist aber schon geläufig, dass nur die SXM4 Version der A100 eine TDP von 400W hat?
Die PCIe Version hat eine TDP von 250W, bei identischen Specs. Das Design der Karten für Gamer wird sich wohl eher an der PCIe Version orientieren..

Die SXM Varianten hatten auch schon bei den Vorgängern eine höhere TDP als die PCIe Varianten. Auch wenn der Unterschied dort nicht so groß war. Beispiel Tesla V100: https://www.nvidia.com/de-de/data-center/tesla-v100/


Was bleibt ist der 7/8nm Prozess, der es beiden Firmen ermöglicht viele Shader auf kleinstem Raum mit halbwegs beherrschbaren Verbrauchszahlen zu treiben. Allerdings habe ich den Eindruck, dass die 400W bei Team grün kaum noch abführbar sind. Die Ryzen-Chips mit ihren mickrigen 100-150W haben schon ein Problem bei der thermischen Dichte, bekommen es aber noch halbwegs hin. 400W... na ja, wir werden sehen.

Wenn die 400W nicht abführbar wären, dann würde man soetwas wohl nicht veröffentlichen oder?
Klar werden die Dinger nicht mit einem 0815-BlingBling-Gaming-Design-Kühler veröffentlicht...
 
Wenn die 400W nicht abführbar wären, dann würde man soetwas wohl nicht veröffentlichen oder?
Klar werden die Dinger nicht mit einem 0815-BlingBling-Gaming-Design-Kühler veröffentlicht...
Das nicht, wenn man aber feststellt, dass der Chip die 100°C knackt und Nvidia sagt, bis 110°C ist alles Knorke, dann "geht" das auch, schön wäre dann aber was anderes.
 
Oder man macht ne 140er aio drauf. Hat bei amd doch auch geklappt.. nen guten 120er radi kannst du mit 300W bei 80c durchaus betreiben.

Habe das mal auf meiner alten gpu getestet.

Wir reden hier auch über high end karten, und leute die die kaufen, haben meistens platz für nen triple slot kühler.
 
Allerdings habe ich den Eindruck, dass die 400W bei Team grün kaum noch abführbar sind. Die Ryzen-Chips mit ihren mickrigen 100-150W haben schon ein Problem bei der thermischen Dichte, bekommen es aber noch halbwegs hin. 400W... na ja, wir werden sehen.
Das nicht, wenn man aber feststellt, dass der Chip die 100°C knackt und Nvidia sagt, bis 110°C ist alles Knorke, dann "geht" das auch, schön wäre dann aber was anderes.

Du kannst 150 W auf ner kleinen CPU (~200 mm²) nicht mit 150 W auf ner riesigen GPU (2080Ti = 754 mm²)vergleichen. Der Übergangswiderstand unterscheidet sich erheblich.
 
Das nicht, wenn man aber feststellt, dass der Chip die 100°C knackt und Nvidia sagt, bis 110°C ist alles Knorke, dann "geht" das auch, schön wäre dann aber was anderes.

Weil du der Meinung bist?

Wir reden hier auch über high end karten, und leute die die kaufen, haben meistens platz für nen triple slot kühler.

Es geht hier um Grafikkarten für Hochleistungscomputer und da wird wohl niemand mit einem Tripple Slot Kühler herumhantieren...
 
Dein erster Satz mag ja korrekt sein, dein zweiter dagegen ist einfach nur dummes Geschwätz.
Im GPU Umfeld ist das aber zutreffend... Raytracing war NV first. Downsampling war NV first, der Spaß mit den Turbo Boost/variablen Taktraten war NV first, Upscaling war NV first, dieses Schärfeding war NV first, PhysX per GPU war NV first -> die Liste kann man noch weiter führen. Sicher hat AMD auch ein paar Features, wie das Sound Teil da aus Tahiti/Hawaii? Zeiten oder Eyefinitiy... Im Moment spielen sie featureseitig aber zweite Geige. Was auch maßgeblich daran liegt, dass sie die viel geringere Marktdurchdringung haben und damit ihre Features natürlich weniger breit angenommen werden. Siehe Mantel damals.

Können sie - allerding ist Nvidias Architektur schon ziemlich effizient und ausgereizt - bei AMD hingegen sind noch einige Treppenstufen nach oben Luft. Und genau dort schließt AMD mal zu Nvidia auf. Was also Leistung/Shader angeht, sollten AMD und Nvidia dieses Mal auf ähnlichem Niveau stehen. Ist natürlich alles ohne Tricks wie DLSS und Konsorten.
Nicht immer so wischi waschi - Erkläre mal, wo die Architektur "ausgereizt" sein soll und bei AMD nicht!? Das ist doch totaler Käse... So ein Argument kommt immer, wenn der AMDler versucht irgendwo sich einen Punkt schön zu reden.
Nach bisherigen Informationen wird AMD mit BigN auf eine noch bessere 7nm Ausbaustufe bauen. Sprich es gibt maßgeblich eine Prozessverbesserung. Je nachdem, wir werden sehen, was dabei genau rum kommt und wo und wie das Vorteile bringt. Wie viel an Potential wirklich in der Architektur steht, ist aktuell überhaupt nicht von außen zu beziffern. Das ist auch dir natürlich ganz klar bewusst - warum wird sowas immer behauptet? Es kann doch aktuell eh keiner nachweisen - sowas zu behaupten zeigt nur wie unnötig solche Aussagen sind...

Was bleibt ist der 7/8nm Prozess, der es beiden Firmen ermöglicht viele Shader auf kleinstem Raum mit halbwegs beherrschbaren Verbrauchszahlen zu treiben. Allerdings habe ich den Eindruck, dass die 400W bei Team grün kaum noch abführbar sind. Die Ryzen-Chips mit ihren mickrigen 100-150W haben schon ein Problem bei der thermischen Dichte, bekommen es aber noch halbwegs hin. 400W... na ja, wir werden sehen.
Was hat das eine mit dem anderen zu tun!?
Du vermischst da einfach mal wieder viel zu viel... 8nm Samsung, sofern das überhaupt stimmt, abwarten... ist nach bisherigen Infos nicht nur spott billig im Vergleich zu TSMC, sondern auch schlechter ggü. dem bisher genutzten 7nm Prozess bei AMD (und NVs GA100) aber natürlich auch ggü. dem spekuliert genutzten 7nm+ für BigN -> so ein Vergleich taugt also nicht ohne genauere Infos.

Weiterhin kann man CPU Chiplets nicht in der Form vergleichen. Der Epyc belegt ganz klar, dass es kein Temperaturproblem gibt bei 7nm - auch nicht bei 250W Verlustleistung. Ich hatte so ein Teil schon hier. Da stehen dann um die 50-60°C auf der Uhr und das Teil hat absolut kein Temperaturproblem. Warum? Weil die Fläche von 8x75mm² viel viel viel größer ist, als bei 140W aus (ggf. gar teildeaktivierten) 2x75mm². Oder gar nem Single 75mm² Wie beim 3800X(T).
GA100 ist verdammte 826mm² groß! Selbst mit 10 ihrer Chiplets kommt AMD da nicht ran... Die Fläche zum Übergang in den Kühler ist also deutlich größer als bei den CPUs. Was allein die Fläche, ohne Änderungen beim Rest ausmacht kannst du bspw. mit nem HEDT Intel Prozessor nachprüfen. Einfach die Cores abschalten und gleichsam die Verlustleistung erhöhen. Der 18C Die hat deutliche Vorteile bei gleicher Verlustleistung wie der 10C Die.

Und zu guter Letzt der Part zur Packdichte - auch das ist nicht vergleichbar. Ne CPU besteht zu großen Teilen aus Cache. Bei Ryzen sind das 2x16MB L3 zzgl. L2 und L1 Cache pro Compute Die. Diese lassen sich seeeehr dicht packen. Der Vergleich ggü. anderen CPUs hinkt dabei schon, weil der Compute DIE only eben Teile nicht beinhaltet, die andere CPUs im gleichen Die haben - ggü. einer GPU funktioniert das schon gleich gar nicht... Zumal auch, gerade bei AMDs APUs bekannt, AMD hier gern zugunsten der Packdichte und damit der Flächeneinsparung auf etwas höhere Taktbarkeit verzichtet. Das war nicht erst einmal der Fall seit es die APUs gibt. Mit Renoir erreichen sie wieder mal top Werte bei der Packdichte mit gut 50% mehr Packdichte zum Compute Die bei Zen2.

Nur um dir das mal in Zahlen zu benennen:
GA100 - 826mm² - 7nm TSMC - 54,2 Mrd Trans. = 65,6 MTr/mm²
GV100 - 815mm² - 12nm TSMC - 21,1 Mrd. Trans. = 25,9 MTr/mm²
TU102 - 750mm² - 12nm TSMC - 18,6 Mrd Trans. = 24,7 MTr/mm²
GP102 - 471mm² - 16nm TSMC - 12,0 Mrd Trans. = 25,48 MTr/mm²
Navi 10 - 251mm² - 7nm TSMC - 10,3 Mrd. Trans. = 41,0 MTr/mm²
Vega 20 - 331mm² - 7nm TSMC - 13,2 Mrd. Trans. = 39,9 MTr/mm²
Zen2 Chiplet - 74mm² - 7nm TSMC - 3,9 Mrd. Trans. = 52,7 MTr/mm²
Renoir - 156mm² - 7nm TSMC - 9,8 Mrd. Trans. = 62,8MTr/mm²

Was dabei komplett auffällt - die NV GPUs der vorgänger Generation, egal ob HPC oder Gamer, liegen alle auf einem Niveau bei der Packdichte. 12nm/16nm spielt da keine Rolle. GA100 im 7nm TSMC Prozess, der ja der gleiche? sein soll, wie bei AMD mit ihren GPUs tanzt mit mal ganz schlappen 50% mehr Packdichte ggü. AMD komplett aus der Reihe! Wie möchtest du das bitte ernsthaft vergleichen, wenn da 50% hoch oder runter im effektiv gleichen Prozess die Basis sein können?
Mit GA100 hat NV die Packdichte ca. um Faktor 2,5x erhöht - was das für den Gamerchip bedeutet, werden wir ganz klar sehen müssen... Und vor allem, wo der raus kommt. Nach bisschen Suche habe ich gefunden, dass der 8nm Samsung Prozess wohl auch in die Region ~60-65MTr/mm² gehen soll. Ich sag aber ganz ehrlich - wenn die das ausfahren, dann kann der GA102 nicht nur läppische 5374 ALUs haben wie bisher spekuliert -> oder das Ding wird wirklich "klein" im Vergleich. Also so wie Pascal GP102 vllt. mit unter 500mm². Also vs. 25-30 Mrd. Transistoren total. Aber selbst da sollten mehr wie 5374 ALUs drin sind, die sie im GV100 schon in 21,1 Mrd. gepackt haben. Zwar ohne RT Zeugs, aber nachweislich belegt der RT Kram nicht sonderlich viel Fläche bei Turing. Müsste also drastisch mehr im Verhältnis werden.
Irgendwas stimmt da noch nicht in den Zahlen! Es täte gut, nicht wieder vorschnell AMD den Gewinn zuzusprechen von wegen "400W bei Team grün kaum noch abführbar sind" -> das sind die gleichen Vorzeichen wie bei Polaris damals, "historischer Durchbruch bei der Energieeffizienz von Radeon GPUs oder so wurde da im Vorfeld von AMD rumposaunt. Gibt ein Interview oder sowas von einer Messe halbes Jahr vor Release auf heise dazu. Was kam, wissen wir alle.
 
Weil du der Meinung bist?



Es geht hier um Grafikkarten für Hochleistungscomputer und da wird wohl niemand mit einem Tripple Slot Kühler herumhantieren...
Ah verzeih. Dann reden wir sowieso über airflow oder eben wasserkühlung jenseits von gut oder böse.
 
@Paddy92 Jupp - meine Meinung. Die Benches werden zeigen, wie nah oder weit weg ich von dieser Schätzung bin, aber heiße Chips gefallen mir generell nicht, weil sie ineffizienter werden und etwas an Takt verlieren (im Vergleich zum "kalten" Zustand)

@fdsonne Ja mei - was glaubst du denn wo die 50% Effizienz herkommen sollen? Von 7nm auf 7nm+ - das sind im besten Falle 10%! Alles andere zeigen die Benches. Denn wie du bereits gesagt hast: 50% hier, 50% da - so wirklich schätzen kann da niemand - höchstens grob in eine Richtung munkeln.
 
Ja mei - was glaubst du denn wo die 50% Effizienz herkommen sollen? Von 7nm auf 7nm+ - das sind im besten Falle 10%!
Was ich glaube oder nicht, spielt doch keine Rolle?
Ich fragte dich nach konkreten Angaben zu deiner Aussage - du meinst, die Architektur bei NV wäre ausgelutzt und bei AMD nicht. Also mal raus mit den Details?
Oder ist das echt das einzige - ne Indizienschlussfolgerung auf exakt einem einzigen möglichen Indiz - nichtmal sonderlich wahrscheinlich, weil aktuell nicht bezifferbar ist, wie effizient RDNA 1 GPUs den Prozess ausnutzen? Stichwort Spannung für das letzte bisschen an Takt, wie so gern bei AMD schon gesehen?

Dachte, da kommt echt was mehr...
 
Da ich die Karte nicht in der Hand halte, kann ich sie nicht testen. Ansonsten gibt es von der Marketingabteilung eine schöne folie die zeigt, was RDNA 2 im Vergleich zu RDNA 1 alles so hat - zum Bleistift zwei Command Einheiten anstatt eine. Auch soll die Shader IPC gesteigert worden sein. Für Tiefeneinblicke müssen wir aber halt auf Benches warten.

Wenn AMD es geschafft hat, das Power-Management von den CPUs auf die GPUs zu bringen, sollte da schon noch was drin sein, denn bisher sind die Karten - wie du es bereits angedeutet hast - weit entfernt vom Sweet-Spot gefahren. Wenn wir das miteinander kombinieren (plus Verbesserungen im Fertigungsprozess selbst), kann ich die 50% Effizienzsteigerung schon glauben, aber mit 50% mehr Strom kommt auch nicht 50% mehr hinten raus. Deswegen bleibt ich da konservativ.
 
Finde denn Vergleich total bone irgendwie, A100 ist für so etwas Optimiert, eine Quadro eben nicht oder nur teilweise.
Man hätte A100 gegen andere Optimierte Grafikkarten in diesem Bereich antreten lassen sollen.

Deswegen hatte nvidia vermutlich auch nichts dagegen das solche werte veröffentlicht werden, zumindest für mich haben die werte keine aussage kraft auf die Perfomance.
 
Hat eine gpu ohne rtx in dem Benchmark Nachteile oder wieso heißt es „even with rtx off“.
Wenn man davon ausgeht, dass die Dinger auch besser Takten dann wäre die ipc ja gerade mal im einstelligen Bereich?!
Beitrag automatisch zusammengeführt:

Was jedoch interessant ist, ist dass nvidia die tdp erhöhen will.


Und da nvidia detlich besser abschätzen kann als wir, was amd da abliefern wird, kann es gut sein dass dies als zeichen gesehen werden kann dass amd massiv leistung bringen wird.

Jo hoffen wir mal dass amd diesmal liefert 🙌
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh