Blackwell Smalltalk Thread (RTX 5000er Reihe)

  • Ersteller Gelöschtes Mitglied 102156
  • Erstellt am
Die 5090 ist wohl in 4K native ohne RT massiv CPU limitiert, selbst mit dem 9800x3d
Bei 8k ~50% uplift:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was auch interessant ist: Igor spricht, dass der FrameBuffer extra Stromphasen bekommen hat. Es hat 100% was mit dem Mit freundlichen Grüßen zu tun.
Da werden die Pixelinformationen kurz vor der Ausgabe gehalten. Jetzt ist auch klar, wozu wir die Bandbreite zum GDDR7 Speicher brauchen.

Zu den Netzteilen: ich habe Dark Power 12 1000W
Im Handbuch steht: kurzzeitig 1100W möglich. Und auf der 2 getrennten 12V PCI-E Schienen stehen je 40A!
Bei 12V ;-)
Also wird das Netzteil es auch schaffen.
PS: das ist kein 3.1 Netzteil!
 
Was auch interessant ist: Igor spricht, dass der FrameBuffer extra Stromphasen bekommen hat. Es hat 100% was mit dem Mit freundlichen Grüßen zu tun.
Da werden die Pixelinformationen kurz vor der Ausgabe gehalten. Jetzt ist auch klar, wozu wir die Bandbreite zum GDDR7 Speicher brauchen.

Zu den Netzteilen: ich habe Dark Power 12 1000W
Im Handbuch steht: kurzzeitig 1100W möglich. Und auf der 2 getrennten 12V PCI-E Schienen stehen je 40A!
Bei 12V ;-)
Also wird das Netzteil es auch schaffen.
PS: das ist kein 3.1 Netzteil!
MFG = Mit freundlichen Grüßen. Genau mein Humor
 
Die 5090 ist wohl in 4K native ohne RT massiv CPU limitiert, selbst mit dem 9800x3d
Bei 8k ~50% uplift:

DirectX 12 4K ohne CPU Bottleneck +55%

SteelNomadDX12.jpg
 
Lass mal das verbreiten von Falschinfos in jedem Thread. Überschreib den Screenshot dann auch richtig: "DirectX 12 4k Steel Nomad Benchmark" 55%. Das ist dann einfach wie ein Game, dass man gesondert betrachten muss. Insgesamt bleiben die knapp 30% avg.
 
Lass mal das verbreiten von Falschinfos in jedem Thread. Überschreib den Screenshot dann auch richtig: "DirectX 12 4k Steel Nomad Benchmark" 55%. Das ist dann einfach wie ein Game, dass man gesondert betrachten muss. Insgesamt bleiben die knapp 30% avg.
Ja wegen des CPU Limits. Wahrscheinlich könnte die gpu 10x so schnell sein aber so wie getestet wird, würde nur +200% rauskommen.
Rohleistung ≠ real world uplift.
 
Ja wegen des CPU Limits. Wahrscheinlich könnte die gpu 10x so schnell sein aber so wie getestet wird, würde nur +200% rauskommen.
Rohleistung ≠ real world uplift.
Es war doch nicht jedes Game CPU limitiert. Mit RT würde ich behaupten keins.
 
Puh - ich muss ehrlich zugeben ich bin ein wenig enttäuscht. Nicht wegen der Performance - das war wegen derselben Fertigungsart zu erwarten. Mich schreckt aber wirklich die Stromaufnahme und die Temperatur ab... ich weiß nicht, ob es mir das Wert ist. Sitze gerade noch auf einer 4080. Mal schauen was die Customs so rausholen...
 
Ja wegen des CPU Limits. Wahrscheinlich könnte die gpu 10x so schnell sein aber so wie getestet wird, würde nur +200% rauskommen.
Rohleistung ≠ real world uplift.

und du glaubst nicht, nvidia würde die reviewer anleiten mehr tests in 8k zu machen, wenn die karte in 4k im CPU limit wäre?

Das oben is der erste test in 8k den ich sehe.

Siehe damals die 3090 als "erste 8k Karte", überall gabs 8k benchmarks
 
Es war doch nicht jedes Game CPU limitiert. Mit RT würde ich behaupten keins.
Alle Vergleiche 5090 vs 4090:
Cyberpunk 4K: +32%
Cyberpunk 8K: +38%
Hogwarts Legacy 4K: +31%
Hogwarts Legacy 8k: +95%
Star Wars outlaws 4K: +19%
Star Wars outlaws 8k: +23%
In allen fällen sieht man mehr uplift in 8k, ein klares Indiz für ein limit woanders im System oder den kleineren Memory Bus der 4090, der erst bei 8k ins Gewicht fällt.
Ich denke, dass vor allem bei aufwändigeren spielen in der Zukunft die Lücke zwischen 5090 und 4090 in Zukunft wachsen wird.


Quelle: Hardware unboxed für 4K, techradar für 8k.
 
Schick mal n Link zu dem Techradar Review bitte, finde das irgendwie nicht.

Ich sage nicht, dass das aussagekräftig ist mit nur 3 Games, aber es ist klar, dass es auch in 4K mit RT ein limit geben kann. Und Ich persönlich finde daher 8k Tests interessant, um mir ein Bild von der rohleistung zu machen.
 
Die 5090 ist wohl in 4K native ohne RT massiv CPU limitiert, selbst mit dem 9800x3d
Bei 8k ~50% uplift:
Das ist keine CPU Limitierung, sondern es zeigt viel mehr das es ein Problem ist die riesige Menge an Shader der 5090 richtig auszulasten.
Aus dem gleichen Grund sieht man auch bei synthetischen Benchmarks ein höheren Zugewinn, näher an der theoretischen Rohleistung.
 
Hat doch bestimmt irgendwo jemand einen 720p test für Hogwarts. Ich glaub der 9800X3D 13900K schafft mehr als 77FPS. @Scrush, wo biste wenn man Dich braucht? :d
 
Zuletzt bearbeitet:
Das ist keine CPU Limitierung, sondern es zeigt viel mehr das es ein Problem ist die riesige Menge an Shader der 5090 richtig auszulasten.
Aus dem gleichen Grund sieht man auch bei synthetischen Benchmarks ein höheren Zugewinn, näher an der theoretischen Rohleistung.
Andere Bezeichnung für das gleiche Resultat:
1. in Zukunft werden aufwändigere spiele den Abstand zwischen 5090 und 4090 wachsen lassen.
2. die rohleistung der 5090 ist nicht gleich der realen Leistung, weshalb 8k benchmarks/ synthetische benchmarks interessant sind um die rohleistung herauszufinden
Beitrag automatisch zusammengeführt:

Hat doch bestimmt irgendwo jemand einen 720p test für Hogwarts. Ich glaub der 9800X3D schafft mehr als 77FPS. @Scrush, wo biste wenn man Dich braucht? :d
Da Tests auch in manchen Szenen CPU und in anderen GPU limitiert sein können (oder Bandbreite des VRAM oder sonst was) hilft das nicht.
 
Da Tests auch in manchen Szenen CPU und in anderen GPU limitiert sein können (oder Bandbreite des VRAM oder sonst was) hilft das nicht.
Habe grad gesehen dass er mit einem 13900K getestet hat (im Beitrag korrigiert).

Wenn das ein Thema ist, werden das sicherlich auch andere Reviewer zeitnah aufgreifen und 8k Tests machen. Dann hoffentlich ohne DLSS/MFG. Auf Grund der "ultra performance" DLSS Einstellung denke ich schon dass es einen Unterschied macht. Na werden wir in den nächsten Wochen sicherlich noch mehr zu sehen.

Da ich dadurch aktuell nicht das Gegenteil beweisen kann gebe ich mich dann erstmal geschlagen. :)
 
@Qarrion Sehe ich ähnlich und Raff von PCGH im Video auch angesprochen. Je mehr Last und höhere Auflösungen auf die 5090 kommen, desto mehr kann die sich von der Vorgängerin absetzen.

Ich würde aktuell sagen das die +55% in 4K Steel Nomad das Maximum sind was theoretisch drin ist. Die +50% in Skylines 2 oder +48% in CP2077 sind nah dran am Optimum. Bei den anderen Games wird man schauen müssen wo es klemmt.

1737666763017.png 1737666801333.png

4090 = 100% Basis
 
Proshop.fi hat jetzt schon ein paar neue 5090 inkl Preis gelistet und bei einigen Modellen schon auf den 13.02 verwiesen zwecks verfügbarkeit
 
Würde die PCGH bestätigen. Die haben bei ca 500W dann die normalen 28% mehr Leistung beibehalten können.
 
Die 5090 ist wohl in 4K native ohne RT massiv CPU limitiert, selbst mit dem 9800x3d
Bei 8k ~50% uplift:
nope bzw ich vermute was anderes

bei der 4090 ist das "problem" ähnlich. die abstand zur 4080 wird größer je höher die auflösung ist. das cpu limit spiel da weniger eine rolle

ich glaube eher dass die ressourcen die eine große gpu wie die 4090/5090 mitbringt, erst bei hohen auflösungen wirklich voll zum tragen kommen.

ich kann dir nämlich viele games nennen wo meine 4090 am anschlag läuft und von 450w weit weit entfernt ist.
 
Langsam kommen auch die interessanteren Tests.

Golem hat die 5090 auf das 450 Watt Powerlimit der 4090 begrenzt. Etwa +25% Effizenz.
Mit richtigem Undervolting kann man sicher noch mehr erreichen, aber das zeigt schon mal die Richtung auf. https://www.golem.de/news/nvidia-ge...aera-der-3d-grafik-beginnt-2501-192667-3.html

02-3dmark-speed-way-chart.png
Ne ähnliche Stichprobe hatte ein Youtuber auch genommen mit einem Game, hatte das im anderen Thread erwähnt: https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-5090-faq.1361567/post-30666825

Aber Golem macht das auch in Hogwarts. Da ist der Unterschied 450W vs 575W geschlagene 3 FPS bei eh schon 150 FPS (mehr als genug). Das sind wirklich 125W nutzlos produziert... Das ist schon wild.
 
Ne ähnliche Stichprobe hatte ein Youtuber auch genommen mit einem Game, hatte das im anderen Thread erwähnt: https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-5090-faq.1361567/post-30666825

Aber Golem macht das auch in Hogwarts. Da ist der Unterschied 450W vs 575W geschlagene 3 FPS bei eh schon 150 FPS (mehr als genug). Das sind wirklich 125W nutzlos produziert... Das ist schon wild.
Ist ja bei Lovelace auch so gewesen. Der 8auer meinte auch mal irgendwo, man hätte die TDP auch direkt bei 400W ansetzen können und die Karte hätte nix verloren.

Evtl. ist das ja bei der 5090 wieder so und man kann eigentlich fest 500W oder so einstellen und sie bleibt trotzdem 28% schneller. Dann wäre das schon ne Granate in meinen Augen.
 
Der Kurve ausm Afterburner von dem Youtuber nach zu urteilen, sitzt der Sweetspot wohl bei ~890/900mV rum wieder. Kann man auch einfach im Treiber einen "Eco" Modus reinhauen und dort abriegeln. Dann hast ~170W weniger und wahrscheinlich 10% Verlust, wenn überhaupt. Bin auf OC und UV Tests gespannt, was da wirklich geht.
 
Andere Bezeichnung für das gleiche Resultat:
Nix gleiches Resultat. Was hat das denn jetzt bitte mit CPU Limit zu tun?
Du wolltest allen ernstes erzählen das in 8k die CPU mehr limitiert als in niedrigeren Auflösungen und deshalb die 5090 in 8k besser performt. Das ist absoluter Käse.
Die CPU generiert immer die gleichen FPS, ob das jetzt 1k, 2k, 4k oder 8k sind ist total Wurst. Kann doch echt nicht so schwer zu verstehen sein.

In höheren Auflösungen war es schon immer einfacher die Shader auszulasten. Das ist nun wirklich nix außergewöhnliches. Nicht zuletzt wird sich die 5090 auch dank der deutlich höheren Speicherbandbreite in extremen Auflösungen/Settings besser absetzen können. Bei solchen Auflösungen limitiert die 4090 nämlich schon, was auch der Grund ist warum Speicher OC bei der 4090 so einiges bringt.

Ob Spiele irgendwann in Zukunft daraus einen Nutzen ziehen, weiß man nicht. Höherer Rechenaufwand, heißt nicht immer unbedingt bessere Auslastung, so madig wie mehrheitlich optimiert wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh