RTX Ampere: zu Leistung/Verbrauch. Nvidia oder DF - wer flunkert?

Hyrasch

Banned
Thread Starter
Mitglied seit
10.12.2012
Beiträge
2.649
Moin,

da die meisten das Video von Digital Foundry gesehen haben, müsste ich wohl nicht der Einzige sein dem aufgefallen ist, dass zwischen den Werten auf der offiziellen nvidia Präsentationsfolie (Relative Performance) und dem was DF zeigt, ein (kleiner aber feiner) Unterschied von 10 - 15 % (min. max) besteht (in Doom bis 15 %). Im Durchschnitt sind es mit ~ 10 % weniger.
In 1440p/4k uhd ist die rtx 2080 ~ 7 -10 % schneller als die rtx 2070S (letztere mit höherem Takt), rtx 2080S wiederum ~ 5 - 7 % schneller als rtx 2080.

Hier die Präsentationsfolie.
Ampere.jpg



Hier nun die Zahlen im Diagramm dargestellt.
Rtx 2070S (dunkelblauer Balken als Basis 0). Davon ausgehend wie viel % mehr Leistung von x zu y es jeweils gibt.
Also "2070S -> 3070" heißt "Wie viel % an Leistung packt 3070 auf 2070S oben drauf).
Folie1.jpg




Und noch was zum Thema Verbrauch (Leistung/Watt).
Die "x1.9" ist natürlich irgendein theoretischer Wert.
Edit: Sollen bei der rtx 3070 doch 220 W sein. Tabelle geändert; damit verändert sich einiges!
Die rtx 3070 soll nun effizienter als die rtx 3080 sein. Von 4 - 11 %, im Mittelwert 7 %.

Es sind nun in den Vergleichen zwischen 20 - 28 %, 22 - 35 %, 35 - 40 % in den gezeigten non-rtx Spielen.
Man sieht deutlich das 2080S und 3080 auf Kante genäht sind, bzw. prozentual mehr vebrauchen.
In rtx-Spielen sind es nun je nach Vergleich 28 - 32 %, 30 - 35 % oder 35 - 40 %,.
47, 49 und 54 % in Minecraft!

Das ist dann doch deutlich besser als die vor der Präsentation kursierten 10 - 15 %. Die erwarteten Werte aus der Kombination "beinahe full-node-Sprung" des 8 nm Prozesses und dem Generations-Sprung gibt es dennoch nicht.
Der 8 nm Fertigungsprozess müsste eig 10 nm+ lauten (Gruß an Intel) :d
https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/
https://semiwiki.com/semiconductor-...undry/7442-samsung-10nm-8nm-and-7nm-at-vlsit/

Den größten Effizienzsprung gibt es ganz deutlich in Minecraft, zwischen 42 - 54 %. Das ist ein ganz eindeutiger Nvidia-Titel und wird so natürlich gerne als Vergleich genommen ;)

Folie3.jpg




Und zu guter Letzt ein Bussi von Mr. Lederjacke 😙 ❤
Und nicht vergessen, an alle Pascal-Freunde: The more you buy, the more you save!
Bussi von Lederjacke.jpg

Beitrag automatisch zusammengeführt:

Hab es mal editiert. Rtx 3070 soll doch 220 W Verbrauchen.
Damit verändert sich einiges!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bin mir nicht ganz sicher auf was du hinaus willst. Natürlich ist solch Präsentation immer viel Marketing und es werden sicher keine Spiele getestet, auf denen Nvidia besonders schlecht abschneidet. Aber BF5 beispielsweise ist ein Titel, der auf AMD Karten definitiv besser läuft (zum mind. verglichen mit Touring). So ist dort eine RX 5700 XT auf WQHD sogar vor der 2080 und in FullHD sogar vor der 2080-Ti
Und dennoch haben sie den Titel mit aufgenommen. Auch wenn ich das in deinem Post jetzt nicht sehe, aber mir ist so, als hätte ich das in der Präsentation gesehen gehabt.

Selbst wenn die Karten nicht ganz da stehen wo er sie in der Marketingpräsentation gezeigt hat, ist es dennoch ein guter Schritt und leider ein hartes Brett für AMD. Dennoch denke ich, dass AMD da etwas gegen 3070 und 3080 in der Hand haben wird. Die Flaggschiffkrone wird Nvidia sich aber wohl nicht nehmen lassen.
 

Das hier schon gelesen? Bzw. das Diagramm gesehen?
NVIDIA-GeForce-RTX-3000-Keynote-031_A241945261D04009B7EA94374F4FB995.jpg


Damit ist eig. alles gesagt.... es wurde die ineffizienteste Turing Karte (2080Ti) gegenüber die effizienteste Ampere Karte (120W, also 3050 oder 3060) gestellt. In diesem Szenario hast du dann die 90% Steigerung.
Wenn man 1660Ti vs. 120W Ampere vergleicht landet man eher bei 30-36% :(
 
@undervolter19
Jau. Darauf beziehe ich mich auch.
Wie an den Diagrammen zu sehen ist Leistung/Watt meilenweit von +90 % entfernt.
Die einzige Situation wo 50 % erreicht werden ist der Vergleich von 2070S zu 3070 in Minecraft RTX. Alles andere dümpelt irgendwo zwischen 20 - 40 %
Median ausgerechnet: Liegt bei non-rtx bei 33 %; Mittelwert bei 35 %. Die 3070 zieht die Effizienz nach oben, die 3080 runter.

Es ist somit keine totale Enttäuschung, aber dennoch weeeiit davon entfernt was ein beinahe full-node Sprung und eine neue Generation hätten leisten müssten.
Die Jahre zuvor hätte diese Kombination auch ohne Tensor-/RT-Kerne +70% ergeben.

Bin mir nicht ganz sicher auf was du hinaus willst.
Aber sichi; für dich erkläre ich es auch noch gern zweimal :bigok:

- Die Werte von DF liegen 10 - 15 % (Doom teils 20 %) über denen von nvidia.
Entweder flunkert man bei DF oder deren Messmethode (Kamera nimmt Bildschirm auf) ist verbesserungswürdig.

- Doom Eternal (Nividias neues Vergleichsvideo) gibt es im Schnitt auch keine 50 %, sondern 40 %.
In 4k uhd ist die 2080 ti nämlich 20 % schneller als die 2080S. Was laut deren Folie und meinen Diagrammen hier genau 40 % macht.
Wie Don erwähnt hat flunkert man bei nvidia beim Treiber: 451.67 gegen 455.77.
Auch der Vulkan Build ist bei der 2080 ti älter 1.2.133 gegen 1.2.142.

Effizienz:
Siehe Diagramma und Beitrag von undervolter19 und meiner Antwort.

Spielevergleiche:
Stimmt. Bin auch überrascht dass man RDR2 in die Präsentationsfolie gepackt hat.
Die anderen Spiele zu vergleichen ist nicht möglich da DF kein BF5 getestet hat und von nvidia kein Tomb Raider.

Selbst wenn die Karten nicht ganz da stehen wo er sie in der Marketingpräsentation gezeigt hat, ist es dennoch ein guter Schritt
Jau, ein guter Schritt. Leider nur halb motiviert und mit halbgarem Ergebnis.^^
Ganz nüchtern betrachtet, einbezogen Herstellungskosten, Preis, Leistung (was min. und max. möglich wäre), Verbrauch, Vergleich zu Turing und Pascal,
ist Ampere 50 % Freude und 50 % Enttäuschung.
Hier lassen sich diejenigen die sofort zu Wort kommen und kaufen möchten einfach zu stark vom Hype, der Vorfreude und dem 2 - 3 Jahre Frust seit Turing leiten.

Und Preise? puhhh. Was da einige feiern (n)
Lederjacke und Unternehmensführung haben Turing-Preise etabliert. 500 - 600 € für 'ne rtx 3070 und 700 - 800 € für 'ne rtx 3080.
Das hatten wir bereits mit Turing.
Und diejenigen die gern 20 GB für die ganzen next-gen Spiele mit vielen Mods und raytracing hätten, können mit Sicherheit nochmal 100 - 200 € auf die 3080 20 GB draufschlagen.

"Jayyy, Ampere ist sooo günstig". Tja, wenn man den Frosch an 90 °C heißes Wasser gewöhnt, erscheinen ihm 80 °C plötzlich ganz kalt :haha:

Habe da Bild von Jensen nicht 100 % aus Spaß hochgeladen. Gepfiffen wie der Mann und die Werbeabteilung ist, zielt man gezielt auf Pascal-Besitzer ab und möchte diese so schnell wie möglich - auf keinen Fall die Füße still halten - zum Geld ausgeben motivieren. :d
 
Treiber waren gleich. Die Spiele die auf nvidias Präsentationsfolie waren, habe ich mit den von DF verglichen.

Also mit Vertrauenswürdigkeit haben sie bei mir vor genau 2 Monaten verschossen, als sie "future proof"- Future-Proofing Your PC For Next-Gen Gaming [Sponsored] - die teuren Turing-Karten empfohlen haben und das "Sponsored" erst nach reichlich Kritik der Zuschauer hinzugefügt haben :haha:

Getoppt hat dies nur noch der leitende Redakteur bei tomshardware Just Buy It: Why Nvidia RTX GPUs Are Worth the Money :haha:
 
Die Karten sind nicht vorbestellbar :d Was also NV oder DF oder du jetzt zu sagen haben, ändert erst mal nichts :) In 2 Wochen dann jedoch gehts rund und ich hoffe sehr, dass sich alles bestätigt und die Karten top sind.
 
  • Danke
Reaktionen: THK
- Die Werte von DF liegen 10 - 15 % (Doom teils 20 %) über denen von nvidia.
Entweder flunkert man bei DF oder deren Messmethode (Kamera nimmt Bildschirm auf) ist verbesserungswürdig.

- Doom Eternal (Nividias neues Vergleichsvideo) gibt es im Schnitt auch keine 50 %, sondern 40 %.
In 4k uhd ist die 2080 ti nämlich 20 % schneller als die 2080S. Was laut deren Folie und meinen Diagrammen hier genau 40 % macht.
Wie Don erwähnt hat flunkert man bei nvidia beim Treiber: 451.67 gegen 455.77.
Auch der Vulkan Build ist bei der 2080 ti älter 1.2.133 gegen 1.2.142.

Leg mal bitte deine genaue Rechnung dar. Das sieht mir hier so aus als unterliegst du einfach den Tücken der Prozentrechnung bei sich ändernden Basiswerten.
Auf der Folie ist die 2080S, zumindest steht das dort. Im Video von DF ist die 2080 non S. Du sagst, es macht 5-7% Unterschied. Nimm die Mitte und rechne mit 6%. Dann kommst du auf eine Differenz vom Video zur Folie von 7,95%. Ehrlich, das kann alles und nix sein. Das seitens NV gepostete Video mit Doom zeigt schon definitiv mal ganz andere Szenen als das von DF. Was direkt mal ein Indikator ist warum sich das vllt nicht aufs Prozent genau deckt.

Btw. Zahlen für den Nachweis:
2080 = 100%
2080S = 106%
3080 = 180% (nach DF schwankt das zwischen 170-190, selten mal drüber, in der Masse aber in der Region 180)
-> ergibt 80% mehr als von die 2080 und aber "nur" 69,81% mehr von einer 2080S

-> jetzt nimm die 1,18 zu 1,91 von der Folie, was einer Steigerung von 61,86% entspricht. Der Unterschied zwischen dem Wert der Folie und dem Wert vom DF-Video beträgt demnach besagte ~7,95% (mathematisch korrekt gerundet)


Ehrlich gesagt sehe ich deine 10-15% an der Stelle nicht. Auch nicht wo das 20% gerade bei Doom sein sollen????
Flunkern tut da auch ganz bestimmt Keiner, weil das so gering ist vom Unterschied, dass das eher durch verschiedene Szenen oder Versionen oder sonstwas kommt. Wozu sollte man nichtmal 8% und dann noch falschrum, unterschlagen? Eine positive Beschönigung ist eher NV zuzurechnen auf ihrer Präsentation und nicht DF mit ihrem Video...
 

Naja, die Bezeichnungen der Prozesse ist auch eher Marketing. Aber der hier bei Ampere eingesetzte 8 nm-Prozess ist auch eine Custom-Lösung, lässt sich daher wahrscheinlich nur bedingt mit den Daten von semiwiki vergleichen. Und wenn man von den angeblichen 627 mm² beim GA102 ausgeht, scheint er bei der Transistorendichte im Vergleich auch so schlecht nicht zu sein. Immerhin scheint man da auf ein ähnliches Niveau - sogar minimal besser - wie bei den TSMC 7nm-Prozessen zu kommen.

- GA102 (8 nm Samsung) = 627 mm² = 28 Mrd. Tr. = ~44,66 M/mm²

- TU102 (12 nm TSMC) = 754 mm² = 18,6 Mrd. Tr. = ~24,67 M/mm²

- Navi 10 (7 nm TSMC) = 251 mm² = 10,3 Mrd. Tr. = ~41,04 M/mm²

- Xbox Series X APU (7 nm TSMC) = 360 mm² = 15,3 Mrd. Tr. = ~42,5 M/mm²
 
Damit ist eig. alles gesagt.... es wurde die ineffizienteste Turing Karte (2080Ti) gegenüber die effizienteste Ampere Karte (120W, also 3050 oder 3060) gestellt. In diesem Szenario hast du dann die 90% Steigerung.
Wenn man 1660Ti vs. 120W Ampere vergleicht landet man eher bei 30-36% :(

Die Grafik zeigt keine GPU, sondern mit wie viel Watt Leistung X erreicht wird.
Der theoretische Maximalverbrauch einer GPU ist dabei komplett irrelevant.

Was da gezeigt wird, ist einfach:
"Wenn Turing bei 250 Watt 60fps schafft, dann braucht Ampere für das gleiche Ergebnis nur 130 Watt."

Das bedeutet weder, dass sie den neuen GPUs ein Limit von 130 Watt geben (das könnten sie, dann hätten wir halt NULL Performancesteigerung), noch bedeutet es, dass eine Ampere GPU immer genau mit der maximalen Leistung laufen muss. Meine 2080ti läuft in nahezu jedem Spiel mit einem Limiter bei 55% Powertarget, wenn das für stabile FPS reicht. Reduziert die Abwärme dramatisch, die FPS sinken dadurch um weniger als 20%.

Was wir sehen ist einfach eine Umwandlung von Effizienz in FPS, oder genauer gesagt: Watt in FPS (Effizienz bleibt ja gleich).
Schau doch mal auf der Grafik steil nach oben, über dem Turing 250Watt Punkt. Das sind fast doppelt so viel FPS (evtl. Richtung 75-85%), wie Turing bei 250Watt macht.
Und was zeigt eine 3080? Mit etwas mehr Watt als eine 2080, bringt sie nahezu doppelte FPS.
Das stimmt doch sehr solide überein wie ich finde.

Effizienz bedeutet nicht weniger Watt Verbrauch, sondern mehr FPS pro Watt, wobei ab einem gewissen Level mehr Watt für weniger extra FPS sorgen, als vorher (Sweetspot überschritten).
Kann ja sein, dass sie die 1,9x im Sweetspot haben, aber eben Pascal als Generationssprung schlagen wollten und den Sweetspot deswegen leicht überschritten haben. Mehr FPS verkauft sich halt besser als "weniger Strom!". So arg weit drüber sind sie aber gar nicht.
Beitrag automatisch zusammengeführt:

Und wenn man von den angeblichen 627 mm² beim GA102 ausgeht, scheint er bei der Transistorendichte im Vergleich auch so schlecht nicht zu sein. Immerhin scheint man da auf ein ähnliches Niveau - sogar minimal besser - wie bei den TSMC 7nm-Prozessen zu kommen.

- GA102 (8 nm Samsung) = 627 mm² = 28 Mrd. Tr. = ~44,66 M/mm²
- Navi 10 (7 nm TSMC) = 251 mm² = 10,3 Mrd. Tr. = ~41,04 M/mm²
- Xbox Series X APU (7 nm TSMC) = 360 mm² = 15,3 Mrd. Tr. = ~42,5 M/mm²

Sehr interessante Information / Rechnung!
Danke!

Ich nehme an, dass man die Effizienz nicht auch irgendwie so simpel (mit frei verfügbaren Informationen) kontrollieren kann, oder? Wird ja gerne behauptet, dass TSMC viel, VIEEEEEEEEL effizienter wäre als Samsung 8 nm(das eigentlich 10 nm sein soll auch noch). Frage mich, ob das genauso falsch ist wie die Transistorendichte. Hmm.
 
Zuletzt bearbeitet:
Schau doch mal auf der Grafik steil nach oben, über dem Turing 250Watt Punkt. Das sind fast doppelt so viel FPS (evtl. Richtung 75-85%), wie Turing bei 250Watt macht.
Das war ja der Kritikpunkt an der Stelle - wenn du bei 250W gerade hoch gehst, kommst du mit der Ampere bei ~90 raus. Was eine Steigerung von 50% entspricht und den Kritikern zu wenig ist. Warum auch immer. Bevor nicht klar ist, was jetzt den Mehrverbrauch erzeugt - und das wird erst klar, wenn wir entsprechende Tests machen können - kann man nur spekulieren wie das zusammen hängt. Sollte nur ansatzweise was davon wahr sein, dass der Speicher 60W säuft, dann ist auch klar, dass die Effizienz nicht um Faktor 2 und mehr steigen kann, denn der realtive Anteil vom Speicher wäre damit deutlich höher als bei Turing davor. Allerdings beschränkt man die Effizienzbewertung irgendwie immer nur auf die ganze Grafikkarte - was OK ist für das Argument, man kauft schließlich eine Karte im ganzen und nicht die Teile einzeln - aber dann sollte man das auch so im Text verpacken und es dann nicht in der Erklärung warum das kritisiert wird, auf die GPU redudieren und allen Rest komplett weg lassen...

Effizienz bedeutet nicht weniger Watt Verbrauch, sondern mehr FPS pro Watt, wobei ab einem gewissen Level mehr Watt für weniger extra FPS sorgen, als vorher (Sweetspot überschritten).
Genau genommen ist "Effizienz" einfach nur eine Relation zwischen einem Input und einem Output. Ob du jetzt einen fixen Leistungspunkt als Output nimmst (wie die 60 FPS) und schaust, was wie viel Input dafür benötigt (also wie viel Verbrauch) oder ob du nun einen fixen Verbrauch hast als Input und schaust, wer davon am meisten raus holt oder gar ob beides variabel ist, ist völlig egal. Es ist alles dreies Effizienz ;)

Nen fixen Input hat es bspw bei der Bewertung von Klassen. 250W GPU Klasse macht xyz Leistung. Oder im Notebook Bereich - 15W CPU/APU macht wie viel Leistung.
Nen fixen Output hast du ja selbst schon benannt - Gaming im Framelimit oder mit VSync oder ähnlichem. Wer verbraucht dafür wie viel.
Für die meisten dürfte aber Effizienz eher das was, wo beides variabel ist. Denn damit ermöglichst du den Vergleich zwischen Produkten wie sie sind was sie können und das gar so, wie es der Hersteller eben vorsieht. Hier kommt Ampere dann natürlich etwas weniger gut weg, weil der absolute Verbrauch klar steigt...

Ich nehme an, dass man die Effizienz nicht auch irgendwie so simpel (mit frei verfügbaren Informationen) kontrollieren kann, oder? Wird ja gerne behauptet, dass TSMC viel, VIEEEEEEEEL effizienter wäre als Samsung 8 nm(das eigentlich 10 nm sein soll auch noch). Frage mich, ob das genauso falsch ist wie die Transistorendichte. Hmm.
Die Aussage dass der Prozess die Effizienz macht, also ein Prozess von Fertiger A effizienter wäre als der von Fertiger B ist eh Käse. Weil da viel viel mehr dazu gehört. Der Vergleich von Samsung zu TSMC ist auch nur bedingt möglich, weil sooo viele vergleichbare Produkte gibt es da nämlich gar nicht. Und selbst mit Ampere ist das nur bedingt möglich, weil eben mehr als der Prozess dazu gehört. Ob eine Ampere mit N7P oder N7+ effizienter wäre, ist absolut unklar. Vllt könnten sie bisschen höher packen mit N7+, vllt können sie auch etwas höher takten. Die Frage ist aber, was hätte es gebracht? Kommen da 60W vom Speicher und man bringt 10-20% (angenommen) mehr Leistung -> dann brauchts auch entsprechend mehr Bandbreite, das säuft dann noch mehr als jetzt schon. Also wozu?

Übrigens noch zum Thema Packdichte.
Die Packdichte von TSMC, die AMD mit den Navi GPUs und der Vega20 erziehlt liegt weit unter dem, was theoretisch geht. Die Compute Dies der Zen2 Chiplets packen schon gut höher. NV packt mit GA100 bei über 60 MTrans/mm² -> da kommen sie mit dem Samsung Prozess nicht hin. Aber ob sie das wollten bzw. ob das der Maßstab war, ist nicht von extern bezifferbar. Am Ende steht auch noch der Preis. Bei 7nm hieß es von AMD mal, es kostet ca. Faktor 2 auf 7nm bei TSMC ggü. dem Vorgänger. Man spart damit zwar Fläche, wo die Packdichte steigt, aber es steigen auch die Kosten. Zumal man Fläche braucht um die Abwärme in den Kühler zu bekommen. Also wie man sieht, auch hier ist es nicht soooo einfach, weil viel mehr dran hängt...
 
Ist immer alles viel komplexer, als es hingestellt wird. Das ja nix Neues.

Ich wundere mich aber, wie viele Leute hier und da suggerieren, eine GPU wäre ne Totgeburt, nur weil Samsungs 8 nm involviert ist.
Das gerne auch noch nachdem die Daten schon bekannt waren,... als ob beim Endprodukt relevant wäre was zum Endergebnis führt. Wenn das Ding 320 Watt frisst und damit 200 FPS macht, dann ist mir als Endkunde doch komplett egal, ob sie das mit 8 nm, 7 nm oder 14+++ schaffen.

Interessant finde ich die Unterschiede trotzdem, nur halt absolut irrelevant für eine Kaufentscheidung. Leider habe ich im Bekanntenkreis auch zwei Profis, die stur auf diese nm-Angaben schauen und danach die Produkte kaufen. Die werden auch BN kaufen, selbst wenn es 80 % Leistung für 150 % Preis wäre, weil es halt 7 nm sind und damit OFFENSICHTLICH besser... ;-)

Für die meisten dürfte aber Effizienz eher das was, wo beides variabel ist. Denn damit ermöglichst du den Vergleich zwischen Produkten wie sie sind was sie können und das gar so, wie es der Hersteller eben vorsieht. Hier kommt Ampere dann natürlich etwas weniger gut weg, weil der absolute Verbrauch klar steigt...

Dieser Aspekt der Effizienz ist aber leider variabel, bzw eine Kurve. Da kann man nicht sagen "die Effizienz ist 1,9x!". Das hat NVidia zwar gemacht, aber damit meiner Meinung nach einfach den Sweetspot angegeben, bzw. das Maximum. Effizienz bleibt nicht über alle Inputmengen gleich. Genau da entsteht die Diskrepanz zwischen diesen 1,9x und dem bei der 3080 vermuteten Werten. Sie schieben mehr Input rein, weil sie eben doch einen gewissen Output wollten. In dem Fall nahe der 2x FPS.

Hätten sie den Sweetspot mit 1,9x nicht verlassen, wäre evtl. eine deutlich weniger beeindruckende FPS Steigerung entstanden.
Ähnlich, nur extremer, erwarte ich das dann bei BigNavi. Da wurde ja auch von 2x Performance / Watt gesprochen. Aber sie werden den größten Teil davon in ein erzwungenes Leistungslevel schieben müssen, bei dessen erreichen diese Effizienz nicht mehr existiert.
 
Zuletzt bearbeitet:
Ich wundere mich aber, wie viele Leute hier und da suggerieren, eine GPU wäre ne Totgeburt, nur weil Samsungs 8 nm involviert ist.
Das sind gaaar nicht mal so viele - häufig kommt das vom Hörensagen und wird einfach nachgeplappert. Leider wird sowas selten differenziert genug beschrieben. Es macht halt den Eindruck als wäre es so -> also muss es ja so sein ;) Das läuft in der Tat wie immer. Den Schreihälsen an der Stelle kann man es da aber eh nicht recht machen, weil die wollen eh irgendwas zum rumhupen haben. Das sind aber dann nur ein paar wenige, die laut sind. Der Rest nimmt das zur Kenntnis - ließt vllt gar die Erklärung und dann ist das Thema durch.

Der Spaß lässt sich am Ende eh erst sauber bewerten, wenn AMD geliefert hat. Denn dann zeigt sich, ob der relative Anteil bei ihnen auch so hoch ist für den Speicher bzw. für irgendwas anderes -> ich würde ja aus dem Bauchgefühl eher von ausgehen, dass das dort nicht anders läuft. TSMC hin oder her ;) Die Schreihälse werden dann eher ruhig - dafür kommen die Anderen, die dann da sich da dann dran aufhängen und ätisch bätisch rufen. Rumzuhupen gibts immer was ;)


Dieser Aspekt der Effizienz ist aber leider variabel, bzw eine Kurve. Da kann man nicht sagen "die Effizienz ist 1,9x!". Das hat NVidia zwar gemacht, aber damit meiner Meinung nach einfach den Sweetspot angegeben, bzw. das Maximum. Effizienz bleibt nicht über alle Inputmengen gleich. Genau da entsteht die Diskrepanz zwischen diesen 1,9x und dem bei der 3080 vermuteten Werten. Sie schieben mehr Input rein, weil sie eben doch einen gewissen Output wollten. In dem Fall nahe der 2x FPS.
Haben sie ja nicht gemacht ;) Sie sagten der Folie zu entnehmend, bei 60 FPS ist die Ampere GPU 1,9x so effizient wie die Turing GPU. In dem Titel der da halt getestet wurde. Steht bestimmt auch irgendwo im Kleingedruckten, wird allerdings häufig weggelassen was da wie wo galt oder gültig war.
 
Übrigens noch zum Thema Packdichte.
Die Packdichte von TSMC, die AMD mit den Navi GPUs und der Vega20 erziehlt liegt weit unter dem, was theoretisch geht. Die Compute Dies der Zen2 Chiplets packen schon gut höher. NV packt mit GA100 bei über 60 MTrans/mm² -> da kommen sie mit dem Samsung Prozess nicht hin. Aber ob sie das wollten bzw. ob das der Maßstab war, ist nicht von extern bezifferbar. Am Ende steht auch noch der Preis. Bei 7nm hieß es von AMD mal, es kostet ca. Faktor 2 auf 7nm bei TSMC ggü. dem Vorgänger. Man spart damit zwar Fläche, wo die Packdichte steigt, aber es steigen auch die Kosten. Zumal man Fläche braucht um die Abwärme in den Kühler zu bekommen. Also wie man sieht, auch hier ist es nicht soooo einfach, weil viel mehr dran hängt...

In den oben zitierten Links findet sich zu Samsungs 8nm-Prozess auch folgendes:

Using the MTr/mm² metric, the new 8nm uHD cell has a transistor density of 61.2 MTr/mm² – Samsung’s highest density non-EUV cell.

Quelle: https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/

Theoretisch würde der Prozess also auch mehr hergeben. Aber wie du ja selbst schreibst, bleibt die Frage ob man das auch immer anstreben sollte. Ein weniger dicht gepackter Chip hätte hier vielleicht eine bessere Charakteristik bzgl. Takt.

In Bezug auf den Samsung-Prozess ist es auch interessant, dass man bei der 3080 den GA102 um knapp 20% beschneidet, was schon ungewöhnlich viel ist. Von dem Full-Die mit 5376 Rechenkernen (bzw. 10752 wie nVidia neuerdings rechnet) bleiben für die Salvage-Lösung auf der 3080 nur noch deren 4352 (8704) übrig. Wahrscheinlich um eben auch die Kosten zu drücken, sonst würde man die 699,- Euro wohl nicht machen wollen. Aber selbst für 1499,- Euro bekommt man auf der 3090 keinen Full-Die. Insgesamt gesehen könnte man hier schon vermuten, dass der Prozess noch nicht ganz rund läuft.
 
@fdsonne
Die Werte sind verglichen mit min. max.
Stimmt, sollte ich angeben danke. Durchschnitt sind es dann wohl eher ~ 10 % max.
Der Rest ist wie mehrfach erwähnt schwer zu ermitteln ohne das nvidia und DF beides dies genauen Benchmarkszenen und Specs angeben.

Zu Doom Eternal von Hardware Unboxed Twitter Account " Here’s why Nvidia made DF test the 3080 against the 2080 at 4K using the Nightmare quality setting. Here the game requires more than 8GB's for optimal perf. Note how the 1080 Ti and 2080 scale. Also the 2080 Ti is 25% faster than the 2080 at 1440p, but 59% faster at 4K!"

Bei den anderen Spielen nachgeschaut und Control mampft auch unter 4k uhd + raytracing gern mal mehr als 8 GB Vram.
Hier ist die rtx 2080 ti auch 30 % schneller zur 2080 als üblicherweise 20 %. Womöglich geht letzter auch die Datenrate aus?
Interessant: Seit dem neuesten Patch?
reddit control vram usage
Control benchmarks
https://www.tweaktown.com/articles/9131/control-tested-8k-nvidia-titan-rtx-uses-18gb-vram/index.html

Da wurde ja auch von 2x Performance / Watt gesprochen.
Jop. Werden in der Realität höchst wahrscheinlich weit unter 50 % sein; wurde ja keine Angabe gemacht unter welcher Takrate und mit welcher Gpu!
Blazer-Dame Lisa Lu flunkert da auch! Ist aber eine Angabe die weit näher am echten Anwendungsfall ist als ein sweetspot mit Karte x y.
 
Blazer-Dame Lisa Lu flunkert da auch! Ist aber eine Angabe die weit näher am echten Anwendungsfall ist als ein sweetspot mit Karte x y.

Uhm, ist das nicht 1:1 das Gleiche?
NVidia erzählt was von 1,9x Perf / Watt und zeigt ne Grafik.
AMD erzählt was von 2.0x Perf / Watt und zeigt gar nix.

Beides werden Angaben von Sweetspots sein und beides wird durch den Bedarf an mehr Leistung aus dem Sweetspot gedrängt und weit unter dem Faktor liegen.
Das Problem ist lediglich, dass einige AMD Fans den Faktor 2x nehmen und einfach 2x5700XT zusammenkleben virtuell, dabei vergessen den Preis auch zu verdoppeln und von einem NVidia Killer reden.

Bin echt gespannt was bei AMD von den 2.0x übrig bleibt.
Sie werden ja wohl auf Teufel komm raus zumindest an die 3080 ran kommen wollen. Wenn wir die reale Effizienz dann sehen, wissen wir wie sehr sie pushen mussten für das Ergebnis.
Ist nur noch 1,1x über, oder gar nix, dann sind sie an der Kotzgrenze.
 
Ist eig. genau angebende auf was sich die Effizienzkurve bei der Präsentation der rtx Karten bezieht?
Undervolter19 schreibt vom Vergleich der effizientesten Karten bei 120 W (im Spiel Control). Nvidia intern könnte dies dann mit dem Programm Frameview gemacht sein.
Könnte aber auch ein theoretischer Wert gemacht durch Analyse mit nvidias Nsight etc. sein. wo FP32/INT8 samt Tensor-/RT-Kerne gegenüber gestellt werden (turing vs Ampere).
Dann wäre der Vergleich für Spiele unpassend, da hier von optimaler Auslastung der Recheneinheiten etc. ausgegangen wird, und so kommen Fatansiewerte von 90 % heraus.
Für mich zählt am Ende was beim Spielen hinten raus kommt, darum geht es ja ^^ Und hier sind 20 - 40 % deutlich weniger als 90 %.

Blazer-Dames Effizienz-/Leistungsprognose ist auch Schönfärbung, aber näher an der Realität, da hier die Kenngrößen mit Navi verglichen werden (RX 5700 oder XT).
Und meine Milchmädchenrechnung und das gerade neu hochgeladene Video von Bullzoid (im anderen Thread), weisen in Richtung 50 % mehr Leistung/W hin.

Bin auch gespannt ^^
"Halo Produkt" für 4k Uhd muss unbedingt rtx 3080 erreichen. Alles andere wäre eine Katastrophe und braucht gar nicht erst veröffentlicht zu werden.
Eine 4k uhd + raytracing Karte die nahe 100 Bildrate für next-gen Spiele liefert (ähnlich wie rtx 3080) muss es werden.
Eine 700 -800 € Karte (die für soviel verkauft werden muss, da Herstellungskosten, Marge, Dividenden etc.) die nur ~ 60 fps in den Setting liefert braucht nicht veröffentlicht zu werden, denn dafür gibt es die 500 € Konsolen.
 
Für mich zählt am Ende was beim Spielen hinten raus kommt, darum geht es ja ^^ Und hier sind 20 - 40 % deutlich weniger als 90 %.

Das ist der richtige Ansatz.
Nen Faktor von 1,9 kann man hinnehmen als geile technische Info im Sweetspot.
Als Kunde ist das aber eigentlich total irrelevant. Keine GPU läuft im Sweetspot, also juckt eh nur was kommt hinten raus und was geht dafür vorne rein,... wobei der Input die meisten Käufer auch nicht interessiert. Darum ja die fallende Effizienz. Wozu einen Wert pushen, den niemand bemerkt... wenn man auf Kosten dieses Wertes auch die FPS steigern kann, woran sich dann jeder aufgeilt.
 
Habe zwei Videos mit der gleichen Szene wie aus Nvidias Doom Eternal Vergleich gefunden.
Einmal mit einer rtx 2080 ti bei 2,1 GHz und 16,6 Gbps Datenrate und einmal mit 2 GHz und 16 GBps.

Beim ersten ist die rtx 2080 ti meist 1) entweder übehaupt nicht langsamer (bis auf 5 fps) oder meist 0 - 5 % oder 5 - 10 % langsamer. Bei einigen schnellen Szeenen wechsel sind es rauf bis 15 %
Doom Eternal: 4K Ultra Nightmare Preset RTX 2080 Ti Quick Demo
Szene1.jpg

Szene2.jpg


Beim zweiten Video sind es dann überall 5 % mehr für die rtx 3080.
Doom Eternal 2080Ti@2010Mhz8000Ram
Ich sehe keine Angaben zum Stromlimit, müssten laut Taktraten aber ~ 300 W für die rtx 2080 ti gegenüber der rtx 3080 bei 320 W sein. Beim 2,1 GHz Modell vllt. mehr.
Also von Durschnittlich 40 % weit entfernt.

Was das heißt? Nun vllt. überlegen es sich diejenigen nochmal die rtx 2080 ti für 350 € zu verkaufen^^
Wird bei Raytracing aber ganz anders aussehen.
 
Ich würde auf solche Videos nicht zu viel geben.
Dabei sind unendlich viele Parameter, die alle anders, gleich, ähnlich, gar nicht vorhanden sein können.

Solange nicht beide Videos aus EINER Quelle kommen, ist es relativ fürn Hintern.
Gerade all die aufkommenden "aber meine Nitrogen gekühlte 2080ti kommt an die Stock 3080 fast hin!" Videos sind... nunja. Die Wahrheit wird final sicher irgendwo in der Mitte liegen (sobald wir kontrollierte und echte Benchmarks haben), aber ich würde einiges darauf setzen, dass wir näher an den 80 % landen, als bei 50 % oder sogar weniger.
 
Hmmm, Deine Gründe gegen die Legitimität greifen bei genau diesen beiden Benchmarks aber nicht, deswegen sehe ich es genau anders rum.

Einer der Tester ist Powerplay hier aus dem Forum, während der andere mit seinen anderen Benchmarks bereits bewiesen hat dass er nicht flunkert.
Die Hardware ist zu sehen und limitiert die rtx 2080 ti in Doom Eternal nicht. Alle Grafikeinstellungen sind zu sehen.
Alles ist in 4k uhd auf das Maximum gestellt (wie im Video zu sehen) was nichts anderes heißt als: Die Framerate kann gar nicht weiter sinken, sie kann höchstens steigen, in Richtung rtx 3080 (weniger Differenz).

Und genau hiervon zeigt der nvidia Benchmark eben gar nichts. Es sind also die Beschäftigten bei nvidia die erste Legitimität und Echtheit beweisen müssten, nicht die Gegenseite.
Es sieht in Doom Eternal bis jetzt eben nicht nach Durchschnittlich 40 % mehr für die rtx 3080 aus, selbst wenn die rtx 2080 ti nur mit Standard 1800 MHz und Speichertakt läuft. Eher 20 - 30 %.
 
Von Leonidas aus 3dcenter.org http://www.3dcenter.org/news/weitere-benchmarks-zur-geforce-rtx-3080-geleakt
Seine Einstufung zur rtx 3080 im eigenen 3dcenter-Performance-Index.

Der Leak? vom TecLab-Test ist entweder ein gut gemachter Fake oder ein Leak vor der eigentlichen Veröffentlichung der Test.
Generell würde ich auf youtube Videos mit ihren Prozessor-/Grafikkarten-Vergleichen nichts geben.
Kanäle wie TestingGames, Benchmark For Gamers etc. sind nämllich mehr als offensichtliche Fakes, merhfach Accounts die immer die gleichen Videos mit veränderten Zahlen hochladen, teils widersprüchlichen Ergebnissen etc.
Und keiner von denen kann oder hat in den hunderten von Videos bewiesen dass er die Produkte auch wirklich besitzt.
Genrell ist es möglich die Zahlen im Overlay zu fälschen oder als richtig aussehen zu lassen. Aus einem 8-Kern Prozessor kann man einen 4-Kern Prozessor machen etc. pp.
 
Nach 7 Bier und einem netten Filmabend ist mir das hier alles zu komplex :-), ich habe meine 1070 verkauft und krebs mit meiner iGPU rum :kotz:... alles was schneller als Pascal ist und weniger als Turing kostet ist BOMBE :banana: !!! Warum so einen riesen Aufriss???? Einfach mal bis zum 16.09 warten, dann hört diese ständige Spekulation auf, ist doch alles nichts Halbes und nichts Ganzes.... keiner hat wirklich was handfestet, nur Gerüchte, Leaks, und Gewäsch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh