Neue Details: Ampere und GTX-30-Series Deep Dive

Ist das denn irgendwie relevant? Wichtig ist doch nur das software XY jetzt 50% mehr FPS hat hat bzw besser läuft. Den Rest kann man ja selber raustechnen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau wichtig ist was geht da noch mit OC. :bigok:
 
Was mich ja mal interessieren würde ist, warum die Presse so einen Mist ala "wir geben jetzt doppelt soviele Shadereinheiten an, weil wir die Leistung pro Shadereinheit verdoppelt haben" durchgehend mitmacht. Verstößt man gegen irgendwelche NVidia-Auflagen, wenn man die echte Anzahl nennt oder sowas?

Wenn jetzt als Beispiel AMD beim Ryzen 4000 die IPC um 50% steigert, wird der neue 16-Kerner dann auch als 24-Kerner beworben, weil ja jeder Kern 50% mehr Leistung hat, obwohl es trotzdem nur 16 Kerne sind?
 
Zuletzt bearbeitet:
Was mich ja mal interessieren würde ist, warum die Presse so einen Mist ala "wir geben jetzt doppelt soviele Shadereinheiten an, weil wir die Leistung pro Shadereinheit verdoppelt haben" durchgehend mitmacht. Verstößt man gegen irgendwelche NVidia-Auflagen, wenn man die echte Anzahl nennt oder sowas?

Es ist halt die Frage was zählst du als Shader? Die FP32-Einheiten haben sich nun einmal verdoppelt.
 
Es ist halt die Frage was zählst du als Shader? Die FP32-Einheiten haben sich nun einmal verdoppelt.
Soweit ich weiß ist ein Shader ein Shader, es gibt keine FP32 Einheiten und spearate FP64 Einheiten innerhalb eines Shaders. Da rechnet die selbe Schaltung, nur wenn diese FP64 rechnen soll, braucht sie mehr Taktzyklen pro Berechnung. Und wenn sie nur FP16 rechnen soll, kann sie ggf. sogar zwei Berechnungen in einem Takt machen.
Und wenn sich die FP32-Leistung verdoppelt hat, weil die Shader jetzt in Hardware mit 64Bit rechnen und damit gar 2 32Bit Berechnungen pro Takt rechnen können, sind es trotzdem nicht mehr Shadereinheiten.

Und selbst wenn da verschiedene Einheiten sind, dann hat ein Shader jetzt eben 2 FP32-Einheiten, ist aber trotzdem nur ein Shader. Ansonsten bleibt das maximal so diffus wie die Bulldozer-8-Kerner, die zwar 8 ALUs, aber nur 4FPUs hatten.
 
Zuletzt bearbeitet:
eine Ryzen 3900x ist ja auch nur eine 12Kerner obwohl er 24Thread bearbeiten kann
 
@Don
Vielleicht kannste ja mal im eigentlichem Test besser erklären wieso man sagt das die karte nun die doppelte Shader anzahl hat und wie relevant das ganze ist.
Weil wenn es wirklich so relevant ist dann sollte die RTX3080 vs der 2080Ti bei gleichem takt ja schon gravierend schneller sein

Edit: für mich sieht das eher so aus als wenn die 3080 nun halt 4352shader hat die sich eben deutlich besser auslasten lassen weil einige Sachen gleichzeitig laufen
 
Zuletzt bearbeitet:
Ich habe das in der Tabelle mal in FP32 und INT32 aufgeschlüsselt.
Ob das jetzt so wiederrum korrekt ist, weiß ich auch nicht. Man könnte jetzt auf die Idee kommen, das eine 3090 gar insgesamt 15.744 Was-auch-Immer-Recheneinheiten hat.

Die exakt technischen Details kenne ich nicht, ihr anscheinend auch (noch) nicht, aber NVidia hat doch laut diversen News schon selbst angegeben, das sie die Anzahl doppelt angeben, weil sie die Leistung PRO EINHEIT verdoppelt haben. Daraus ergibt sich ja schon, das es eben nicht mehr Einheiten sind, es sind nur bessere.

Ihr seid die Journalisten, werft mal genauer ein Auge darauf, spätestens wenn man dann wirklich mal Karten hat.


Das ist aber schon etwas anderes ;)
Naja, sehe ich nicht so. Das hat schon eine gewisse Verwandschaft.
Man hat ja auch nicht irgendwelche Taktraten höher angegeben, nur weil man die IPC eines Kerns erhöht hat. Nur weil früher mal die Taktrate die maßgebliche Geschwindigkeitsangabe war.
Wenn man das irgendwie machen wollte, gibt man das separat an, wie bei den Athlons damals das "Pentium Rating". Die echte Taktrate bleibt aber trotzdem.
Beim Wechsel von 32 zu 64Bit bei CPUs haben sich auch nicht die Kerne oder die Taktrate verdoppelt, obwohl man damit 64Bit ja trotzdem schneller rechnen konnte.

Dann sollte zumindest die Presse das als Next-Gen-Shader oder sowas bezeichnen, die besser sind, aber von der Anzahl her trotzdem nur 5248 sind. Von genau diesem stumpfen Marketingnachgeplappere kommen dann später immer wieder ganz krude Werte rum.
 
Zuletzt bearbeitet:
Ob das jetzt so wiederrum korrekt ist, weiß ich auch nicht. Man könnte jetzt auf die Idee kommen, das eine 3090 gar insgesamt 15.744 Was-auch-Immer-Recheneinheiten hat.

Die exakt technischen Details kenne ich nicht, ihr anscheinend auch (noch) nicht, aber NVidia hat doch laut diversen News schon selbst angegeben, das sie die Anzahl doppelt angeben, weil sie die Leistung PRO EINHEIT verdoppelt haben. Daraus ergibt sich ja schon, das es eben nicht mehr Einheiten sind, es sind nur bessere.

Also: Turing hat pro SM 64 FP32- + 64 INT32-Einheiten. Für Ampere hat man nun pro SM 64 FP32-Einheiten + 64 FP32/INT32-Einheiten. Also hat man die FP32-Leistung bzw. die Anzahl der Recheneinheiten verdoppelt. Was man nicht machen kann ist, das 128 FP32- und 64 INT32-Einheiten gleichzeitig zu nutzen. Aber darauf gehen wir zum Start und den Benchmarks dann noch ein.
 
Schön mein X570 Kauf hab ich auch Zukunftsorientiert getätigt !
Festplatten 4.0 Check/ Grafikkarten 4.0 Check und nun noch RTX I.O mit 14GBs im RAID über Pcie 4.0 Nvme möglich!

Die PS5 erreicht wohl mit direkter Anbindung zur GPU durch eine optimierten Festplatte wohl 5,5GB/s Raw Typical 8-9GB/s Compressed.

Ich hab mich gefragt wann wie und ob das im PC Bereich eingeführt wird!
Das noch vor dem Launch der Konsolen eine Lösung für den PC präsentiert wird hätte ich nicht gedacht!

@Don
Machst du uns einen Test mit neuen Spielen @4K Pcie 3.0 vs 4.0 mit der 3090 und 3080???
Danke!
Zero Horizon Dawn wäre auf jeden Fall interessant auf Grund der hohen V- Ram Nutzung!
Gerne auch noch weitere Spiele!

Denke das könnte auf viel Interesse stoßen und würde sich eventuell von anderen Tests abheben aber eventuell hast du so etwas eh an gedacht !
Gruss

Naja Intel CPUs sind im Gaming schon noch schneller, IO kommt in ca 2 Jahren wirklich in die Games mal wirklich und PCIE 4.0 bringt weniger als hochtaktende Intel CPUS.. (das könnte Ryzen 4K ändern)
Nvidia testet ja nicht umsonst selbst auf Intel Systemen obwohl die GPUs PCIE 4.0 können..
 
Das testen auf PCIe 4.0 oder die Darstellung möglicher Unterschiede würde ich eher so sehen, dass man hier zeigen wird, dass es eben keinen Unterschied macht, ob die GeForce RTX 3080 per PCIe 3.0 oder 4.0 angesprochen wird. Ausnehmen können wie von uns schon dargestellt Karten mit wenig VRAM sein, wo dann häufiger Daten per PCIe übertragen werden müssen.
 
Es ist halt die Frage was zählst du als Shader? Die FP32-Einheiten haben sich nun einmal verdoppelt.

Aber nur die , es hat halt bisserl das Geschmäckle wie bei den AMD FX CPUs die als 8 Kerner angepriesen wurden aber keine vollwertigen 8 Kerner waren..
 
Also: Turing hat pro SM 64 FP32- + 64 INT32-Einheiten.
= 128 Einheiten

Für Ampere hat man nun pro SM 64 FP32-Einheiten + 64 FP32/INT32-Einheiten.
= 128 Einheiten

Also hat man die FP32-Leistung bzw. die Anzahl der Recheneinheiten verdoppelt.
Von der Leistung rede ich nicht, die mag sich ja durchaus verdoppelt haben, aber die Anzahl eben trotzdem nicht.
Man erfindet nurmal wieder neue Marketing-Mathematik (64+64 = 256) um sich da abzuheben.

Was man nicht machen kann ist, das 128 FP32- und 64 INT32-Einheiten gleichzeitig zu nutzen.
Also eben doch nicht 192 Einheiten und erst recht nicht 256 Einheiten.

Die 64 "neuen" Kombi-Einheiten die FP32 ODER INT32 (in voller Geschwindigkeit) rechnen können, mögen ja jetzt mehr Transistoren haben, sind aber doch trotzdem weiterhin nur eine Einheit (und haben wohl insgesamt trotzdem weniger Transistoren als 2 separate FP32 und INT32 Einheiten)


Aber darauf gehen wir zum Start und den Benchmarks dann noch ein.
Ich bin gespannt. ;)
 
Zuletzt bearbeitet:
Marketing eben. Vielleicht überrascht uns AMD ja. Und wenn nicht, mir ist eigentlich egal wie viele Shader das Ding hat solange die Leistung stimmt. Und damit meine ich keine Hexerei wie DLSS, RTX oder sonst was, sondern einfach nur solide Gamingleistung in nativem 2160p. Wenn RTX auch noch zusätzlich geht wäre das nett, ist aber für mich kein Zwang. Gut aussehen werden die Spiele auch so.
 
RTX IO spielt für 2020 und die aktuellen Tests noch keine Rolle.

Für mich schon, aber gut, lets agree to disagree :bigok:

Darf man aber noch erfahren, warum ihr dass konsequent für 2020 ignorieren wollt?
Es ist ja definitiv ein neues und interessantes Feature, alle Tage haben wir das nun nicht....
 
Weil RTX IO in diesem Jahr von keinem Spiel mehr unterstützt werden wird.
 
Sehr schöner und ausführlicher Artikel. Ich bin gespannt auf die Testergebnisse und danke euch für die tolle Arbeit.
 
  • Danke
Reaktionen: Don
Zusätzlich wegen der hohen TDP wird bestimmt diesmal UV ein großes Thema sein bei den neuen Ampere Modellen. Da bin ich echt gespannt was man da noch verbessern kann ohne viel Leistung zu verlieren.
Könnte mir vorstellen dass das genauso wie bei Pascal/Turing ist, also dass man damit (Reduzierung des Taktes) deutlich die Effizienz verbessern kann.
 
Die 3070 müsste ja leiser sein, als das leiseste 2070 Custommodell. Das wäre ja ein Traum.
Die Founders Editionen der RTX 20XX waren ja von Haus aus schon nicht laut
 
Naja Intel CPUs sind im Gaming schon noch schneller, IO kommt in ca 2 Jahren wirklich in die Games mal wirklich und PCIE 4.0 bringt weniger als hochtaktende Intel CPUS.. (das könnte Ryzen 4K ändern)
Nvidia testet ja nicht umsonst selbst auf Intel Systemen obwohl die GPUs PCIE 4.0 können..
Bei 720 P mag das zutreffend sein bei 4K läuft das ganze jedoch im GPU Limit!
Gruss
 
 
Ein neues Testsystem ohne pcie gen4 ist schade gerade für Ampere wäre das wirklich sehr interessant gewesen, ich hoffe Redaktion lässt sich da noch was einfallen. :)
 
Das RTX.IO Update soll doch erst irgendwann 2021 von MS kommen.. Und PCIe 4.0 macht doch sowieso wenn überhaupt nur wieder 2-3 FPS aus, falls es überhaupt was ausmacht.
Die Kombination soll’s ja machen. So wie sich das anhört, können die 7Gb/S von PCIe4 NVMes beim Laden mit RTX.IO genutzt werden, wenn die Games darauf optimiert sind.
 
Ein neues Testsystem ohne pcie gen4 ist schade gerade für Ampere wäre das wirklich sehr interessant gewesen, ich hoffe Redaktion lässt sich da noch was einfallen. :)

Ja, wir verwenden einfach ein Tiger-Lake-Notebook und löten da eine dGPU dran ;)

Die Kombination soll’s ja machen. So wie sich das anhört, können die 7Gb/S von PCIe4 NVMes beim Laden mit RTX.IO genutzt werden, wenn die Games darauf optimiert sind.

Due 7 GB/s sind nicht das Ding, du bekommst auch heute schon 14 GB/s an die GPU geliefert, dann aber eben von der CPU entpackt und das eben mit entsprechender CPU-Last. RTX IO oder besser DirectStorage umgeht den Prozessor und den Arbeitsspeicher vollständig und kommt bei einem Kompressionsverhältnis von 1:2 eben auch auf 13-14 GB/s.
 
Das Problem ist, dass unser Testsystem kein PCIe 4.0 hat. Es ärgert mich schon irgendwie, dass wir nun auf einen Core i9-10900K wechseln, wir aber noch immer ohne PCIe 4.0 auskommen müssen.

Die Ryzen-Plattformen habe ich nicht hier, das macht es nun natürlich kompliziert.



Das stimmt, das habe ich falsch gemacht. Ist nun korrigiert.
Andererseits wirst du mit einer Ryzen Plattform nicht genug "CPU FPS" mehr generieren bis incl. WQHD, eigtl. müsste euer 10900K auch mit RamOC fahren um genug Leistung für die neuen Graka´s zu haben.
RTXIO soll doch wohl auch mit PCIE 3.0 laufen oder nicht?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh