Blackwell Smalltalk Thread (RTX 5000er Reihe)

  • Ersteller Gelöschtes Mitglied 102156
  • Erstellt am
Kann man denn schon irgendwie nachvollziehen welche Karte in welchem Shop verkauft wird morgen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nicht wirklich würde ich sagen
Dann heißt es wieder 10 Seiten offen halten und F5 ballern und sich um kurz nach 3 aufregen, dass entweder nix mehr da ist oder Preise zu hoch sind. :heuldoch:
 
wenn ihr halt einfach mal die finger still halten würdet und die karten nicht von den elendigen scalpern kaufen würdet, müssen die idioten die karte vor ablauf der FAG zurückschicken. Denn das sind die letzten, die auf den karten sitzen bleiben wollen. aber solange ihr den leuten das zeug fleißig abnehmt, kaufen die von eurem geld die nächste scalpkarte nach

ach was red ich, da kann ich auch gleich mit nem stein diskutieren
Bin damit jetzt auch durch mit dem Thema 5*** von Nvidia. Aber Spiele eh nur Games wie D4 POE1 und POE2. Bleibe bei meiner 4080 NON Super und steige bei der 6*** wieder ein. Um das gesparte Geld dafür trotzdem unter die Händler zu bringen setze ich endlich mal meinem ersten Custom Loop mit HardTubes in die Tat um ☺️

Allen anderen noch viel Spaß auf der Jagd und natürlich mit der Hoffnung auf ein baldiges Ende der Knappheit der 50*0 Serie.
 
Hey Zusammen,

ich habe noch einmal eine Frage, wie macht ihr das eigentlich mit dem Stromkabel. Der Adapter der Grafikkarte benötigt ja 4x PCIe 6+2 Pin. Mein neues Netzteil hat aber nur 3 davon:

Natürlich kann ich das 12V-2x6 12+4 pin Kabel nutzen, aber da habe ich aktuell irgendwie schiss vor.

Entschuldigt meine Unwissenheit, hatte nur gesehen, dass viele den Adapter nutzen und mich hat es gewundert, dass mein neues Netzteil einfach nicht genug Kabel und Anschlüsse hat^^

Hab das auch im Zulauf... bliebt ja nur das native Kabel. Wird schon passen, ansonsten wird reklamiert. Hätte aber auch noch ein überschüssiges 2x8 PIN auf 12VHPWR vom Seasonic da... wenn die Belegung am NT gleich ist,
 
Spielt hier wer Space Marine 2? Habe mit DLSS Quality, fps gen aus und alles auf Ultra teilweise übelste FPS drops. Die fps schwanken extrem von 40-144, die Auslastung der GPU ist auch nicht bei 100% was mich bei 4K wundert und dem Game.
 
Spielt hier wer Space Marine 2? Habe mit DLSS Quality, fps gen aus und alles auf Ultra teilweise übelste FPS drops. Die fps schwanken extrem von 40-144, die Auslastung der GPU ist auch nicht bei 100% was mich bei 4K wundert und dem Game.
Das Spiel geht halt heftig auf die CPU wenn ordentlich was passiert. Auch mit 9800X3D gibt es da noch signifikante Drops
 
Das Spiel geht halt heftig auf die CPU wenn ordentlich was passiert. Auch mit 9800X3D gibt es da noch signifikante Drops
Übel, also ist mein 5800X3D der Flaschenhals? o_O Wunder mich halt auch, dass die GPU nicht durchgehend bei 100% ist, ist sie z.B. bei Hunt Showdown.
 
Manche schreiben mit frame gen ist's richtig beschissen, weil der VRAM vollläuft. Das Problem sind wohl eher die Ultra Texturen. Muss dazu sagen sowas hatte ich bei der 4080 vorher nicht.
 
Hier läuft es bisher top. Kann mich gar nicht beklagen. Aber DLSS4 mit dem neuen Transformer Modell bringt ja auch noch mal viel, finde ich.
 
Gab wohl nicht nur neue Features sondern auch Feature Streichungen :(


Find ich schon extrem frech. Gerade bei älteren Titeln (Borderlands, Mafia 2, Batman reihe) Springt das massiv ins Auge wenn PhysX fehlt. Da bringt auch die CPU Berechnung nichts wenn die Effekte nicht mehr vollständig dargestellt werden.

Muss man bald zu seiner vergoldeten RTX dröftausend noch ne alte Karte zu stecken für ältere Titel :fresse:
 
Find ich schon extrem frech. Gerade bei älteren Titeln (Borderlands, Mafia 2, Batman reihe) Springt das massiv ins Auge wenn PhysX fehlt. Da bringt auch die CPU Berechnung nichts wenn die Effekte nicht mehr vollständig dargestellt werden.

Muss man bald zu seiner vergoldeten RTX dröftausend noch ne alte Karte zu stecken für ältere Titel :fresse:
Ganz ehrlich.. ich glaube die RTX 4090 wird super altern. Quasi die schnellste Legacy-GPU, mit der man noch so ziemlich alles (teilweise mit Community Patches) aus der Win7/Vista/Win10-Ära hardwarebeschleunigt zocken kann. Fragt sich natürlich nur, wie lange die Karten leben.
 
Ganz ehrlich.. ich glaube die RTX 4090 wird super altern. Quasi die schnellste Legacy-GPU, mit der man noch so ziemlich alles (teilweise mit Community Patches) aus der Win7/Vista/Win10-Ära hardwarebeschleunigt zocken kann. Fragt sich natürlich nur, wie lange die Karten leben.
Joah tendiert dann wohl bald zum zusätzlichen "Retro" Rechner. Nur das der dann gar nicht mal so Retro sein muss und eigentlich überflüssig wäre :fresse:
 
@LDNV Ich rede ja nicht von "in 2 Jahren" ;-)
Guck dir doch mal die 3dfx Voodoo 5 5500 an bspw.. Das ist die schnellste (soweit ich weiß) GPU, die Glide Games beschleunigen kann.
 
Hier läuft es bisher top. Kann mich gar nicht beklagen. Aber DLSS4 mit dem neuen Transformer Modell bringt ja auch noch mal viel, finde ich.
Kann man das neue Modell denn bei Space Marine 2 schon erzwingen? Hatte das bisher nur in Cyberpunk gesehen.

Edit: Aber ihr wollt mir ernsthaft sagen, dass meine 5800X3D nen Gaming BIEST, bei Space Marine 2 in 4K was ja eigentlich immer GPU limitiert ist durch meine CPU ruckelt? Fucking euer Ernst?! Was das denn für ne beschissene Optimierung..
 
geht in jedem spiel ja
Beitrag automatisch zusammengeführt:

Kann man das neue Modell denn bei Space Marine 2 schon erzwingen? Hatte das bisher nur in Cyberpunk gesehen.

Edit: Aber ihr wollt mir ernsthaft sagen, dass meine 5800X3D nen Gaming BIEST, bei Space Marine 2 in 4K was ja eigentlich immer GPU limitiert ist durch meine CPU ruckelt? Fucking euer Ernst?! Was das denn für ne beschissene Optimierung..
settings runter die auf die cpu gehen, sofern möglich und fps cappen auf einen wert der gehalten werden kann. es macht keinen sinn auf einem adaptive sync monitor mit offenen fps zu spielen

seit wann ist denn "4k immer gpu limitert" ? das ist halt quatsch mit Soße^^

wie du siehst ist es das halt eben nicht "immer". ;)
 
Zuletzt bearbeitet:
Edit: Aber ihr wollt mir ernsthaft sagen, dass meine 5800X3D nen Gaming BIEST, bei Space Marine 2 in 4K was ja eigentlich immer GPU limitiert ist durch meine CPU ruckelt? Fucking euer Ernst?! Was das denn für ne beschissene Optimierung..
Ich ziehe mir das Game mal und teste es in der Mittagspause mit meinem Ryzen 5 7700-System. Der 5800X3D sollte i.d.R. eine Ecke schneller sein.
 
Also verstehe den Typen
Ganz ehrlich.. ich glaube die RTX 4090 wird super altern. Quasi die schnellste Legacy-GPU, mit der man noch so ziemlich alles (teilweise mit Community Patches) aus der Win7/Vista/Win10-Ära hardwarebeschleunigt zocken kann. Fragt sich natürlich nur, wie lange die Karten leben.
Leistungstechnisch liegt sie zwischen der 5080 und der 5090 und verfügt über mehr VRAM als die 5080er, die bereits die Neural Texturen, Shader und DLSS-Qualität/ausgeglichen benötigt, damit der Speicher zukünftig nicht volläuft. Ich habe mich weiter oben schon auf die Streichung bezogen und finde es ebenso schwach, da ich gerne ältere Titel spiele, besonders jetzt mit dem neuen OLED, und ich bei Spielen gerne die Grafik durch Downsampling und HDR aufwerte.
 
geht in jedem spiel ja
Beitrag automatisch zusammengeführt:


settings runter die auf die cpu gehen, sofern möglich und fps cappen auf einen wert der gehalten werden kann. es macht keinen sinn auf einem adaptive sync monitor mit offenen fps zu spielen

seit wann ist denn "4k immer gpu limitert" ? das ist halt quatsch mit Soße^^

wie du siehst ist es das halt eben nicht "immer". ;)
Nicht immer aber wenn du dir Tests von CPUs anguckst und Benchmarks dazu ist in fast allen Spielen bei 4K, teilweise schon 1440P die GPU, die limitiert und nicht die CPU. Schau dir mal z.B. ausführliche Tests wie von Linus vom 9800X3D an und du wirst sehen, was ich meine.
Beitrag automatisch zusammengeführt:

Also verstehe den Typen

Leistungstechnisch liegt sie zwischen der 5080 und der 5090 und verfügt über mehr VRAM als die 5080er, die bereits die Neural Texturen und Shader benötigt, damit der Speicher zukünftig nicht volläuft. Ich habe mich weiter oben schon auf die Streichung bezogen und finde es ebenso schwach, da ich gerne ältere Titel spiele, besonders jetzt mit dem neuen OLED, und ich bei Spielen gerne die Grafik durch Downsampling und HDR aufwerte.
Das die 5080 nicht wenigstens 20GB bekommen hat ist echt schwach..
 
CPU tests werden in low res gemacht
GPU tests werden in high res gemacht

niemals mischen!

die cpu leistung entnimmst du aus dem cpu test und die gpu leistung aus dem gpu test.

wenn ich einen GPU test macht, ist das ziel das die cpu nicht limitiert, ergo wird die stärkste cpu genommen > das ist absicht.

daraus die cpu leistung abzulesen ist nicht möglich und macht auch keinen sinn
 
Zuletzt bearbeitet:
Kann man das neue Modell denn bei Space Marine 2 schon erzwingen? Hatte das bisher nur in Cyberpunk gesehen.

Edit: Aber ihr wollt mir ernsthaft sagen, dass meine 5800X3D nen Gaming BIEST, bei Space Marine 2 in 4K was ja eigentlich immer GPU limitiert ist durch meine CPU ruckelt? Fucking euer Ernst?! Was das denn für ne beschissene Optimierung..

Das kann man ganz komfortabel mit einem Tool wie DLSS Swapper https://github.com/beeradmoore/dlss-swapper/releases/tag/v1.1.6 oder inzwischen wohl auch über die Nvidia App machen. Kann ich nur empfehlen. Das neue DLSS was ja auch auf älteren Karten läuft ist eigentlich das Highlight am ganzen Blackwell Launch.
 
@Scrush Grundsätzlich hast du schon recht. Grade wenn noch ein gewisser Driver Overhead dazu kommt, kannst du aber auch in 4k und maximalen Details im CPU Limit hängen.
Nicht umsonst testet bspw. Hardware Unboxed in allen relevanten Auflösungen bis 4k und bei hohen Details:


Zudem ist Space Marine 2 auch, soweit ich mich entsinne AMD-sponsored. Daher vielleicht einfach intensiver optimiert für Radeons.
 
hab ich ja nichts gegenteiliges gesagt^^

HU testest CPUs nicht in 4k wegen irgendwelchem overhead sondern wegen teilen der unfassbar dämlichen community, die nix versteht^^

dann müsste man auch in einem gpu test mit unterschiedlichen cpus testen. der aufwand wäre gigantisch und führt am ende zu nichts wirklich verwertbarem.

warum? > der eine hat die cpu, der andere wieder eine andere. etc... das bringt am ende nix.

CPU tests und GPU tests getrennt betrachten und man weiß ziemlich gut wo man landet

stell dir vor du hast 115fps, aber willst 120.

du kaufst dir ja keine neue hardware für 5 fps. A gibts die nicht, B wäres wirtschaftlich komplett käse.

du kaufst dir ja immer etwas weiter oben ein und die getrennten tests sind aussagekräftig genug
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh