Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Oder darf ich einfach behaupten, dass das Shader Prefetching bei der 4080 deaktiviert ist?
Das ist jetzt aber ein ziemlich billiger Strohmann. In dem Fall gibtes keinerlei Anhaltspunkte darauf, dass Shader Prefetching bei der 4080 deaktiviert ist, während es bei den neuen RDNA3 GPUs durch den verlinkten Code konkrete Anhaltspunkte dazu gibt.

Klar ist dies noch lange kein Beweis dafür, dass es da wirklich Probleme gibt. Habe ich auch nicht behauptet. Nur sind es Hinweise dafür, dass es so sein könnte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist jetzt aber ein ziemlich billiger Strohmann. In dem Fall gibtes keinerlei Anhaltspunkte darauf, dass Shader Prefetching bei der 4080 deaktiviert ist, während es bei den neuen RDNA3 GPUs durch den verlinkten Code konkrete Anhaltspunkte dazu gibt.

Klar ist dies noch lange kein Beweis dafür, dass es da wirklich Probleme gibt. Habe ich auch nicht behauptet. Nur sind es Hinweise dafür, dass es so sein könnte.
Dann sollte man das auch so behandeln. Denn es gibt auch keinen konkreten Hinweis darauf, dass es in der Windowsversion so gehandhabt wird. Außer zu sagen "Wir wissen ja auch nicht, dass es nicht so ist". Hier im Thread wird das aber schon wieder von einigen Usern als Fakt breitgetreten.

Und es kann ja auch keine Anhaltspunkte bei der 4080 geben, wenn der Quellcode geschlossen ist.
 
Zuletzt bearbeitet:
Weil das doch nur den Mesa Treiber betrifft, die haben doch gar nichts mit Windows zu tun? Wie wichtig ist wohl der Mesa Treiber im Vergleich zum Windowstreiber so kurz vor Release? Und warum werden prophylaktisch alle Navis mit aufgenommen, die noch nicht mal releast wurden?


Woher stammt denn die Info, dass das auch Windows betrifft? Den Quellcode kann doch niemand einsehen?

Und dass sich da ein paar Leute auf Reddit einig sind, reicht heute als Quelle?

Können wir uns mal wieder auf Fakten berufen?
Mich bitte nicht so angehen, ich habe nur auf den Bug hier aufmerksam gemacht. Ich bin weder der Finder des Bugs noch kann ich etwas beweisen, dafür bitte in das Englische Forum wechseln. Und dort wird es so beschrieben, wie ich es wieder gebe.

Natürlich ist es möglich, dass das Shader Prefetching deaktiviert ist - aber das lässt sich eben nicht nur aus einem quelloffenen alternativen Linuxtreiber ableiten, der bisher sicher zu Release die allerniedrigste Priorität hat. Der muss nur funktionieren, auf die von euch genannten 2-3% würde es da sicher nicht ankommen.
Naja, wenn im Quelltext schon im Kommentar steht, dass es ein BUG ist, dann wird der wohl auch unter Windows da sein... Meine Vermutung...
Einfach mal locker bleiben und nicht bei jedem Gerücht ausrasten.
Aber es ist doch mehr als ein Gerücht... Es gibt Fakten!
 
Mich bitte nicht so angehen, ich habe nur auf den Bug hier aufmerksam gemacht. Ich bin weder der Finder des Bugs noch kann ich etwas beweisen, dafür bitte in das Englische Forum wechseln. Und dort wird es so beschrieben, wie ich es wieder gebe.
Dann kannst du es auch als Gerücht kennzeichnen? Oder "irgendein Typ auf Twitter behauptet, dass XY bei der 7900XTX auftritt" Wenn du aber folgendes schreibst:

LOL !


Alle Navi31 A0 haben einen schönen Bug
dann bist du doch auch für deine Aussage verantwortlich. Alle Navi31 A0 haben einen schönen Bug
Naja, wenn im Quelltext schon im Kommentar steht, dass es ein BUG ist, dann wird der wohl auch unter Windows da sein... Meine Vermutung...
Im Quelltext steht im Kommentar nur "/* Return 0 for some A0 chips only. Other chips don't need it. */" oder bin ich blind? Da steht nicht das Wort Bug.
Und warum versteht keiner, dass das nur ein alternativer Treiber für Linux ist, der eventuell nichts mit dem Windowstreiber zu tun hat? Die erscheinen weder zeitgleich noch haben sie immer die gleichen Features. Also warum weiß man jetzt schon angeblich ohne irgendwelche Beweise, dass das Gleiche für den Windowstreiber gilt? Wie ich schon schrieb, kann es dafür viele Erklärungen geben.
Es handelt sich dabei nicht um den Windowstreiber.
Aber es ist doch mehr als ein Gerücht... Es gibt Fakten!

Und die Fakten sehen momentan so aus:



Es gibt im Mesa Treiber für Linux seit dem 03. August eine Codezeile, die für die folgenden (auch noch nicht erschienenen) Navi Karten unter Linux im Treiber shader-prefetching deaktiviert, wenn es sich um eine a0 Karte handelt:
CHIP_GFX1100, CHIP_GFX1102, CHIP_GFX1103




Dabei handelt es sich meines Wissens nach um Navi 31, 32 und 33.

Weder wissen wir, ob das noch aktuell ist, ob es eine Vorsichtsmaßnahme im Hinblick auf Kompatibilität ist oder sonstwas. Dafür, dass es in Windows ebenfalls deaktiviert ist, gibt es keinen einzigen Beweis.

Da kann man jetzt gerne diskutieren, aber eigentlich ist das auch quasi alles, was wir gerade wissen. Und das meine ich wirklich nicht böse.
 
Zuletzt bearbeitet:
Nein nein nein, und die Erde ist doch eine Scheibe!!!
 
Da kommt bestimmt ein ähnlich großer Skandal wie bei den verschmorten 4090 auf uns zu - Igor & Co sind schon fleißig am Video schneiden...
 
Da kommt bestimmt ein ähnlich großer Skandal wie bei den verschmorten 4090 auf uns zu - Igor & Co sind schon fleißig am Video schneiden...
Es gibt keinen Skandal Bei NVidia, NIE!!:lol:
 
Dann kannst du es auch als Gerücht kennzeichnen? Oder "irgendein Typ auf Twitter behauptet, dass XY bei der 7900XTX auftritt" Wenn du aber folgendes schreibst:


dann bist du doch auch für deine Aussage verantwortlich. Alle Navi31 A0 haben einen schönen Bug

Im Quelltext steht im Kommentar nur "/* Return 0 for some A0 chips only. Other chips don't need it. */" oder bin ich blind? Da steht nicht das Wort Bug.
Und warum versteht keiner, dass das nur ein alternativer Treiber für Linux ist, der eventuell nichts mit dem Windowstreiber zu tun hat? Die erscheinen weder zeitgleich noch haben sie immer die gleichen Features. Also warum weiß man jetzt schon angeblich ohne irgendwelche Beweise, dass das Gleiche für den Windowstreiber gilt? Wie ich schon schrieb, kann es dafür viele Erklärungen geben.
Es handelt sich dabei nicht um den Windowstreiber.


Und die Fakten sehen momentan so aus:


Es gibt im Mesa Treiber für Linux seit dem 03. August eine Codezeile, die für die folgenden (auch noch nicht erschienenen) Navi Karten unter Linux im Treiber shader-prefetching deaktiviert, wenn es sich um eine a0 Karte handelt:
CHIP_GFX1100, CHIP_GFX1102, CHIP_GFX1103




Dabei handelt es sich meines Wissens nach um Navi 31, 32 und 33.

Weder wissen wir, ob das noch aktuell ist, ob es eine Vorsichtsmaßnahme im Hinblick auf Kompatibilität ist oder sonstwas. Dafür, dass es in Windows ebenfalls deaktiviert ist, gibt es keinen einzigen Beweis.

Da kann man jetzt gerne diskutieren, aber eigentlich ist das auch quasi alles, was wir gerade wissen. Und das meine ich wirklich nicht böse.

Wenn Du meinst ich müsste meinen Text als Gerücht kennzeichnen, dann solltest Du auch deinen Text als Meinung kennzeichnen.
 

Kurzfassung: eher kein Bug beim HW-Prefetching.
Beitrag automatisch zusammengeführt:

Wenn Du meinst ich müsste meinen Text als Gerücht kennzeichnen, dann solltest Du auch deinen Text als Meinung kennzeichnen.
Ich empfehle, Deinen Text als anhalts- und kenntnislose Stimmungsmache zu kennzeichnen.
 
Na, wenn die Treiber das Produkt dann gut aussehen lassen, kaufen andere schon die 5090. ;-)
 
Na, wenn die Treiber das Produkt dann gut aussehen lassen, kaufen andere schon die 5090. ;-)
Dass die 4090 aktuell King of the hill ist und AMD hier gerade nen Ryzen1-Moment hat, ist ja unbestritten. Mir persönlich reicht die XTX-Leistung aktuell trotzdem aus, bei 120Hz ist bei mir eh Schluss, UND ich kann mir zwei XTX (mit 1Slot-WaKü-Block) zum Preis von einer 4090 holen. Wenn nV also preislich nachlässt, ne 4080Ti nachschiebt oder doch noch eine 2GCD 7950 kommt, schmerzt es nicht. Kein Grund also für Häme. Passt schon. 2,3k verderben mir einfach wirklich zu sehr die Laune…
 
Zuletzt bearbeitet:
......................für ca. 3500,-!! :shot:
Auch wenn das natürlich als Witz gedacht war, ... ich vermute ernsthaft, dass die 5090 um 200 Dollar günstiger sein wird, als die 4090. Wir werden es sehen. 8-)
Wenn die Produktpalette bis 3500 erweitert wird für Gamer, wäre ich aber auch nicht böse. Glaube nur nicht, dass das technisch machbar sein wird.
 
Auch wenn das natürlich als Witz gedacht war, ... ich vermute ernsthaft, dass die 5090 um 200 Dollar günstiger sein wird, als die 4090. Wir werden es sehen. 8-)
Wenn die Produktpalette bis 3500 erweitert wird für Gamer, wäre ich aber auch nicht böse. Glaube nur nicht, dass das technisch machbar sein wird.
Die Hoffnung stirbt natürlich zuletzt.
 
Dass die 4090 aktuell King of the hill ist und AMD hier gerade nen Ryzen1-Moment hat, ist ja unbestritten. Mir persönlich reicht die XTX-Leistung aktuell trotzdem aus, bei 120Hz ist eh Schluss, UND ich kann mir zwei XTX (mit 1Slot-WaKü-Block) zum Preis von einer 4090 holen. Wenn nV also preislich nachlässt, ne 4080Ti nachschiebt oder doch noch eine 2GCD 7950 kommt, schmerzt es nicht. Kein Grund also für Häme.
Die 7900XTX ist ja auch durchweg das bessere Produkt, wenn keine der Probleme für einen relevant sind.
Würde die jedem ans Herz legen, der RT aus irgendeinem Grund nicht haben will und die Stromrechnung nicht selber zahlt / den Strom eh vom Dach holt und mit Medium / high Settings ausreichend happy ist.

Die 4090 ist ja nur sinnvoll für Leute, die einfach gar keine Kompromisse eingehen wollen. Für die sind die paar hundert Euro dann auch egal. Passender Monitor dafür geht ja auch erst 4-stellig los.
 
Dass die 4090 aktuell King of the hill ist und AMD hier gerade nen Ryzen1-Moment hat, ist ja unbestritten. Mir persönlich reicht die XTX-Leistung aktuell trotzdem aus, bei 120Hz ist bei mir eh Schluss, UND ich kann mir zwei XTX (mit 1Slot-WaKü-Block) zum Preis von einer 4090 holen. Wenn nV also preislich nachlässt, ne 4080Ti nachschiebt oder doch noch eine 2GCD 7950 kommt, schmerzt es nicht. Kein Grund also für Häme. Passt schon. 2,3k verderben mir einfach wirklich zu sehr die Laune…
Wobei jetzt mal ganz aus ehrlichen Interesse gefragt, ohne Bashing Absichten: warum ist für dich die XTX das bessere Produkt gegenüber der 4080? Wirklich wegen des 200€ Preisunterschiedes?
 
Das einzige Produkt was überzeugt ist die 4090 für den der sich das leisten kann und will.Alle anderen haben überzogene Preise und oder funktionieren nicht wie angekündigt das sind für mich die Fakten.Auch das Mesa Codeschnipsel hat nichts mit dem eigentlichen Treiber zutun sondern ist eine OpenGL/Vulkan... Libary die eine Abhängigkeit zum verwendeten Kerneltreiber hat.Rückschlüsse daraus zu ziehen das AMD irgendwas deaktiviert hat sind vorsichtig ausgedrückt abenteuerlich.Das einzigste was man tun kann ist abzuwarten was AMD Software mäßig fixen kann und was an Bug`s übrig bleiben.
 
Sein Wissen aus Texten zu ziehen, die mit dem Satz "Meiner Interpretation nach klingt das wie..." ist auch nicht sehr seriös.
Schon recht. War nur das mit Abstand relativ seriöseste, was ich bislang dazu finden konnte und geht halt deutlich zurückhaltender mit dem Thema um als die teilweise dazu um sich greifende Stimmungsmache.

@Chris1975:
Bist Du tatsächlich von der 4090 überzeugt? Also einschließlich des aktuellen Preispunkts? Eine FE zur UVP würde ich ja inzwischen auch mitnehmen, aber der Rest des Felds? Imho (bislang) eben (noch) nicht überzeugend.
 
Zuletzt bearbeitet:
Das einzige Produkt was überzeugt ist die 4090 für den der sich das leisten kann und will.Alle anderen haben überzogene Preise
Rein auf den Preis betrachtet, hat die 4090 das schlechteste P/L-Verhältnis, zumindest rein auf Kosten und FPS betrachtet. Nimmt man verschiedenen Charts zusammen, ist die 4090 in 4K rund 30% besser als eine 4080, kostet aber über 50% mehr.

Beispiel mit dem Chart von HWU:

1671187551793.jpeg

4080 - 111 FPS = 100%
4090 - 144 FPS = 129,73%

Nimmt man die aktuell günstigsten Preise (Geizhals) für eine 4080 und 4090 als Bezug, erreicht sich folgender Wert:

Manli 4080 Gallardo - 1.348 € = 100%
Manli 4090 Gallardo - 1.949 € = 144,48%

Man zahlt für 30% mehr Leistung (ausgehend von einer 4080) rund 600€ drauf, was bei Manli aktuell die kleinste Differenz darstellt. Vergleiche ich das mit meiner MSI 4080 Gaming X Trio, die ich neu für 1.329€ erworben habe, beträgt der Aufpreis auf die baugleiche 4090 (Gaming X Trio) +870€ (2.199€). Selbst im Best Case, wo die 4090 "nur" 1.859€ kosten würde, wäre das Aufpreis über 500€.
 
Zuletzt bearbeitet:
Schön vorgerechnet. Der Unterschied bzw. der entscheidende Punkt ist, dass die 4090 wirklich ausreichend ist für 4K mit RT. In Witcher 3 next gen habe ich mir ihr in RT Ultra 60FPS minimum. Also ich glaube man zahlt hier eher für das Durchbrechen der Schallmauer, als FPS/€.

Also ohne Quatsch, für mich ist die 4090 seit Ewigkeiten (und damit meine ich bis zur 8800GTX zurück) die erste Karte, die einfach immer genügend Leistung liefert. Alle Regler auf rechts und tschüss.

Ja es mag die eine schlecht optimierte Ausnahme geben irgendwo, aber in allen Games, die ich halt so zocke. Ich undervoltet da auch nix, ich will jedes FPS!
 
Rein auf den Preis betrachtet, hat die 4090 das schlechteste P/L-Verhältnis, zumindest rein auf Kosten und FPS betrachtet. Nimmt man verschiedenen Charts zusammen, ist die 4090 in 4K rund 30% besser als eine 4080, kostet aber über 50% mehr.

Beispiel mit dem Chart von HWU:

Anhang anzeigen 828756

4080 - 111 FPS = 100%
4090 - 129 FPS = 129,73%

Nimmt man die aktuell günstigsten Preise (Geizhals) für eine 4080 und 4090 als Bezug, erreicht sich folgender Wert:

Manli 4080 Gallardo - 1.348 € = 100%
Manli 4090 Gallardo - 1.949 € = 144,48%

Man zahlt für 30% mehr Leistung (ausgehend von einer 4080) rund 600€ drauf, was bei Manli aktuell die kleinste Differenz darstellt. Vergleiche ich das mit meiner MSI 4080 Gaming X Trio, die ich neu für 1.329€ erworben habe, beträgt der Aufpreis auf die baugleiche 4090 (Gaming X Trio) +870€ (2.199€). Selbst im Best Case, wo die 4090 "nur" 1.859€ kosten würde, wäre das Aufpreis über 500€.

Woran sich eben viele stören ist die Nvidia Preispolitik mit der 4080.


Bei nvidia 3000 war die 3090 für 800 Euro mehr nur 5-10% schneller wie die 3080. Aktuell ist die 4090 mit nur 500 Euro Aufpreis viel schneller und ist viel besser hardwaretechnisch ausgerüstet. Aus diesem Grund werden hoffentlich auch viele zu amd 7900xtx wechseln.


Seltsam war auch die 4080 12 GB aka 4060ti. Gleiche hinters Licht Führung wie bei den Notebooks wo die 3060 130w schneller ist wie die 3080 85w.
 

Anhänge

  • Screenshot_20221216_123538_Google.jpg
    Screenshot_20221216_123538_Google.jpg
    56 KB · Aufrufe: 69
  • Screenshot_20221216_123654_Google~2.jpg
    Screenshot_20221216_123654_Google~2.jpg
    51,2 KB · Aufrufe: 70
nvidia.png

Also, wie ich zuvor schon einmal schrieb, die 4090 ist ein monstrum. sie hat über 50% mehr cuda cores als die 3090 ti.
da deutlich weniger so große chips fehlerfrei produziert werden, ist der preis so hoch.

der vorteil des chiplet designs ist eine deutlich bessere ausbeute bei der herstellung, und das sich verschiedene grafikkarten mit verschiedener anzahl von chiplets herstellen lassen.
das ist bei grafikkarten so komplett neu, und macht deshalb ganz offensichtlich probleme.
leider entspricht die versprochene leistung (50%-70% mehr gegenüber einer rx 6950) leider nicht dem bisher geleistetem. aber das sich die rx 7900xtx gegenüber einer rtx 4080 einordnet dagegen schon.
und das liegt größtenteils einfach daran, das die 4090 so immens groß ist.

was jetzt noch mit bios update und neuen treibern machbar ist wird sich zeigen.
und es wird auch immer wieder dlss 3 zum vergleich gezogen. fsr 3 soll auch kommen, und die 7000er haben jetzt auch ai kerne.

was bleibt sind im moment die energieverbrauchsprobleme. nicht nur wegen des höheren fertigungsprozesses.
hoher stromverbrauch beim video gucken und hoher stromverbrauch trotz framecap oder verringerung der auflösung.

wenn einem die strompreise egal sind, was außerhalb von europa wahrscheinlich eher der fall ist, bleibt die rx 7900xtx eine wirklich gute grafikkarte.

in meinem fall würde ich momentan, wieder einmal zu nvidia greifen. nur die preise sind mir zu hoch. (und auch nur wegen des stromverbrauchs, nicht wegen raytracing oder dlss)
bis zur 4070 ti dauerts noch ein wenig, und bis dahin könnte es auch neue treiber von amd geben.)

ich denke trotzdem, dass das chiplet design eine gute entscheidung ist, und in zukunft. nach ausgeräumten 'kinderkrankheiten', sich für amd auszahlen wird.
(nur zur info, 3 von 4 der zuletzt von mir gekauften grafikkarten, waren von nvidia)
 
Die 7900XTX ist ja auch durchweg das bessere Produkt, wenn keine der Probleme für einen relevant sind.
Würde die jedem ans Herz legen, der RT aus irgendeinem Grund nicht haben will und die Stromrechnung nicht selber zahlt / den Strom eh vom Dach holt und mit Medium / high Settings ausreichend happy ist.

Die 4090 ist ja nur sinnvoll für Leute, die einfach gar keine Kompromisse eingehen wollen. Für die sind die paar hundert Euro dann auch egal. Passender Monitor dafür geht ja auch erst 4-stellig los.
Die XTX ist durchaus eine Option, da sie mindestens gleich viel, zum Teil auch etwas mehr Leistung als die 4080 hat. Medium-High Settings braucht die nicht, sie schafft auch problemlos alles auf Ultra was nicht RT ist. Und das ist der Knackpunkt, nichtmal die 4090 schafft das, die 4080 ist in RT nochmal deutlich schlechter. Ist ja toll wenn die 4080 dann "doppelt so viele FPS" in RT macht, das sind dann 30 verglichen mit 15 die AMD in Cyberpunk macht. Also nicht spielbar für mich. Ich spiele einfach ohne RT, oder RT auf low-medium.

Monitore gibt es auch schon unter 1000 €, je nach Anspruch, ich habe bereits 55er C1 unter 1 K gesehen. Es hat sich 4K120-mäßig einiges getan. Dennoch würde ich jedem zu LG raten, was Besseres habe ich bislang nicht gesehen. Zumindest nicht ohne wieder exorbitant teuer zu werden.
Bist Du tatsächlich von der 4090 überzeugt? Also einschließlich des aktuellen Preispunkts? Eine FE zur UVP würde ich ja inzwischen auch mitnehmen, aber der Rest des Felds? Imho (bislang) eben (noch) nicht überzeugend.
Wenn ich eine hätte wäre ich sicher auch davon überzeugt. Die Leistung will auch niemand kleinreden, aber P/L sind nunmal nicht gegeben. Zumal ich auch keine Manli/Gainward/Palitkarten kaufen würde. Wenn man dann mal einen Garantiefall hat bei seinem 2K+-Produkt...
Schön vorgerechnet. Der Unterschied bzw. der entscheidende Punkt ist, dass die 4090 wirklich ausreichend ist für 4K mit RT. In Witcher 3 next gen habe ich mir ihr in RT Ultra 60FPS minimum. Also ich glaube man zahlt hier eher für das Durchbrechen der Schallmauer, als FPS/€.

Also ohne Quatsch, für mich ist die 4090 seit Ewigkeiten (und damit meine ich bis zur 8800GTX zurück) die erste Karte, die einfach immer genügend Leistung liefert. Alle Regler auf rechts und tschüss.
Man zahlt für das Maximum was möglich ist. Spiele die sie in die Knie zwingen wird es immer geben.
Bei nvidia 3000 war die 3090 für 800 Euro mehr nur 5-10% schneller wie die 3080. Aktuell ist die 4090 mit nur 500 Euro Aufpreis viel schneller und ist viel besser hardwaretechnisch ausgerüstet. Aus diesem Grund werden hoffentlich auch viele zu amd 7900xtx wechseln.
Ja, das Problem ist dass die X80 nun fast doppelt so viel kostet (UVP vs UVP). Also von 699 auf 1199 $ UVP. Bei AMD kann man sagen was man will, die UVP entspricht der 6900 XT und ist sogar wieder gesunken verglichen zur 6950 XT (1099 $). AMD kann es sich aber auch nicht leisten die Preise noch weiter anzuheben, sie gehen aktuell den Mittelweg. Es dürfte völlig klar sein dass AMD die Preise auch anziehen wird wenn es eine 7950 geben sollte, mit 3D Cache oder was auch immer.
 
Schön vorgerechnet. Der Unterschied bzw. der entscheidende Punkt ist, dass die 4090 wirklich ausreichend ist für 4K mit RT. In Witcher 3 next gen habe ich mir ihr in RT Ultra 60FPS minimum. Also ich glaube man zahlt hier eher für das Durchbrechen der Schallmauer, als FPS/€.

Also ohne Quatsch, für mich ist die 4090 seit Ewigkeiten (und damit meine ich bis zur 8800GTX zurück) die erste Karte, die einfach immer genügend Leistung liefert. Alle Regler auf rechts und tschüss.

Ja es mag die eine schlecht optimierte Ausnahme geben irgendwo, aber in allen Games, die ich halt so zocke. Ich undervoltet da auch nix, ich will jedes FPS!
Ich habe in UWQHD mit der RTX3080 (10G) auch 60FPS+, wenn ich Effekte runterschraube die man nicht sieht/wahrnimmt. Einfach ein paar Optionen auf "High" wirken wie Magic FPS.
 
Ich bin nicht von der 4090 überzeugt nur das ist das Ausnahme Modell mit der besten Leistung was von einem bestimmten Kundenkreis gekauft wird.Wo dann die anderen Karten Positioniert werden Preislich ist doch das Problem weil das andere Kunden sind.
 
Ich habe in UWQHD mit der RTX3080 (10G) auch 60FPS+, wenn ich Effekte runterschraube die man nicht sieht/wahrnimmt. Einfach ein paar Optionen auf "High" wirken wie Magic FPS.
Es reicht schon eine Stufe meist macht es keinen optischen Unterschied, gerade bei Schatten und SSAO.
 
Es reicht schon eine Stufe meist macht es keinen optischen Unterschied, gerade bei Schatten und SSAO.
Ja und genau deswegen ist die 4090 für Gamer ein Halo-Produkt. Das sagt Gamers Nexus, Linus und ich^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh