[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.535
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.417
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.711
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.780
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 786
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 762
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 756
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 706
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 725
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 458
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 745
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.881
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 803
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.576
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Euphorie bei den 7900 XTX Fans verstehe ich nicht ganz. Rasterization wird zwar irgendwo bei einer 4080 landen, aber Raytracing scheint irgendwo bei einer 3090 zu liegen, ggf. sogar darunter. Das ist etwas enttäuschend, zudem scheint AMDs FSR 3.0 aktuell nur in Träumen zu existieren, null Info in der Präsentation zu der Technik und das "H1 2023" heißt im Zweifel, dass irgendwann Juli 2023 die erste Tech Demo angekündigt wird. Von Support in mehreren Spielen ist man dann im Zweifel noch einige Zeit lang entfernt.

Der Preis wird auch nur für die Referenzkarten gelten, die Custom kosten mit Sicherheit 1200 Dollar aufwärts, sind bei uns in Europa dann 1400/1500 € aufwärts.
 
Zuletzt bearbeitet:
Doppelter Preis für nicht mal ansatzweise die doppelte Performance. Ich war nie AMD Fan aber die Präsi und die Preise sind beeindruckend. Gute Nacht Nvidia

1000$ zu 1600$ aint aber der doppelte price.
Wenn die 4090 aktuell für 2200 wegged, dann ged die 7900XTX eben für ca 1375EUR weg.
Beitrag automatisch zusammengeführt:

Ja nur das wirkt. Das Ding (4090) ist so weit weg von allem, dass man jetzt auch mal wieder Bock hat den ganzen PC mit aufzurüsten (ich habe bei mir ja alles schleifen lassen).
Ich denke das ist schon auch ein Grund dafür dass das PC Gaming geschäft etwas einschläft. Solche Zugpferde haben irgendwie gefehlt. So wie ein alter Countach: total unsinnig, aber eben mit Haben Wollen Effekt

Die drei Zahlen die AMD präsentiert hat dürften sicherlich unter besten Vorraussetzungen, also mit komplettem AMD Unterbau entstanden sein. Das wird sich nicht für jeden so zeigen. Es würde mich nicht wundern, wenn die 7900 XTX bereits an einer 4080 zu Kauen hat im realen Leben.

Bei den Zahlen stand auch noch "up to" (y)
 
Zuletzt bearbeitet:
Die 4090 TI wird dann wohl nicht so schnell erscheinen. :o
Wird wohl ähnlich wie die 3090 Ti erst im späten Lebenszyklus der 4090 erscheinen, aktuell scheint die 4090 ja alles wegzuputzen (nicht verwunderlich, da der generational leap von 70-100% absolut krank ist); da braucht NVIDIA kein weiteres Konkurrenzprodukt auf den Markt zu bringen, weil die sich auch so gut verkauft. Etwas schade, wenn die 7900 XTX die 4090 weggeknüppelt hätte, wäre die 4090 TI mit Sicherheit noch H1 2023 erschienen.

Man muss dazu aber sagen, dass die guten Gerüchte über RDNA3 höchstwahrscheinlich erst dazu geführt haben, dass NVIDIA sich dazu durchgerungen hat, TSMC extrem viel Geld in den Rachen zu werfen. Die haben gedacht, dass die mit einem echten Dual-Chip chiplet design mithalten müssen, haben also 100% uplift mit 600watt geplan. Dass nun AMD nicht abliefern kann, ist für NVIDIA in der Hinsicht zwar doof (weniger Marge), aber trotzdem gut für die Verkaufszahlen.
 
Die Euphorie bei den 7900 XTX Fans verstehe ich nicht ganz. Rasterization wird zwar irgendwo bei einer 4080 landen, aber Raytracing scheint irgendwo bei einer 3090 zu liegen, ggf. sogar darunter. Das ist etwas enttäuschend, zudem scheint AMDs FSR 3.0 aktuell nur in Träumen zu existieren, null Info in der Präsentation zu der Technik und das "H1 2023" heißt im Zweifel, dass irgendwann Juli 2023 die erste Tech Demo angekündigt wird. Von Support in mehreren Spielen ist man dann im Zweifel noch einige Zeit lang entfernt.

Der Preis wird auch nur für die Referenzkarten gelten, die Custom kosten mit Sicherheit 1200 Dollar aufwärts, sind bei uns in Europa dann 1400/1500 € aufwärts.
Nicht jeder ist scharf auf Raytracing.
Ebenso gibt's es genug Leute die DLSS/FSR hässlich finden.
 
Nicht jeder ist scharf auf Raytracing.
Ebenso gibt's es genug Leute die DLSS/FSR hässlich finden.
Die bisherigen AMD Kartenbesitzer haben vernünftiges Raytracing noch nie vernünftig erlebt (man kann nicht missen, was man nicht kennt).

Einmal diese Menschen an einen RTX 3000/4000 Rechner setzen, mit einem guten 42" OLED und gutem Surround Sound, Control/Cyberpunk anmachen und die werden nie wieder Raytracing missen wollen. Wenn das vernünftig läuft, ist es endgeil.

Viele Spiele haben das nur leider schlecht umgesetzt, und die meisten YouTube Videos sind durch fehlenden VRR support und kaputt-Kompression wenig sinnvoll als Vergleich. Nativ so einen Spaß erleben ist eine ganz andere Erfahrung.
 
Wenn AMD die 7900xtx für 1000€ raushaut muss die Karte sich auch nicht mit einer 4090 messen . Wenn die 40-50% über einer 3090 liegt und etwas mehr RT Leistung als eine 3090 liefert ist es ja trotzdem keine schlechte Karte in dem Preisbereich .Für uns 4090 Besitzer ist alles doch Cool , weil wir eh die schnellste Karte wollen und keinen Fehlkauf gemacht haben ;-)

Also ich brauche kein DP 2.xxx , aber wäre schön gewesen , wenn Nvidia das dazu gepackt hätte bei dem Preis und halt Intel und AMD liefern , aber im Endeffekt mein Monitor hat DP 1.4 und mein Oled HDMI 2.1. Also passt es ja für mich zumindest .
 
Zuletzt bearbeitet:
Die XTX wird ca 1400EUR Straßenprice haben.
 
Jup... Wochenlang haben die sich das Maul zerrissen im OLED Thread über den fehlenden 2.1 DP...
Wenn wir bedenken, dass die 4090 grade so 4k 120hz schafft (noch gutes Stück unter HDMI 2.1 max specc), ist das Drama aktuell noch etwas unnötig. Erst die nächste Generation von Karten wird DP 2.0 ernsthaft ausreizen können - und dann wird NVIDIA abliefern mit DP 2.0. Es ist etwas schade für reine High-FPS displays (wo es nicht um Game-Frames geht, sondern einfach um Refreshrate im Windows-Betrieb), wirklich problematisch ist das allerdings nicht.
Beitrag automatisch zusammengeführt:

Die XTX wird ca 1400EUR Straßenprice haben.
Die Referenzkarte, jo. Customkarten?

Mhhh.

Wird vermutlich weh tun, wie die 4090.
 
Rasterization wird zwar irgendwo bei einer 4080 landen

Ich weiß, Marketingfolien, aber: Wenn die Angaben stimmen liegt die Karte in 4k Cyberpunk sogar deutlich vor der 4090. Kann ich mir zwar bei dem Preis nicht vorstellen, aber das sagt die Folie. Oder rechne ich hier falsch? Hab die Zahlen mal aus dem HUB Test genommen.

Und in WD:Legion ca. 10% langsamer.

Alles natürlich ohne RT, aber das klingt doch....ziemlich gut?

Mfg
Kiryu
 
Die Euphorie bei den 7900 XTX Fans verstehe ich nicht ganz. Rasterization wird zwar irgendwo bei einer 4080 landen, aber Raytracing scheint irgendwo bei einer 3090 zu liegen, ggf. sogar darunter. Das ist etwas enttäuschend, zudem scheint AMDs FSR 3.0 aktuell nur in Träumen zu existieren, null Info in der Präsentation zu der Technik und das "H1 2023" heißt im Zweifel, dass irgendwann Juli 2023 die erste Tech Demo angekündigt wird. Von Support in mehreren Spielen ist man dann im Zweifel noch einige Zeit lang entfernt.

Der Preis wird auch nur für die Referenzkarten gelten, die Custom kosten mit Sicherheit 1200 Dollar aufwärts, sind bei uns in Europa dann 1400/1500 € aufwärts.
Ich verstehe nicht wie du auf 4080 Leistung kommst, eine 4080 ist vlt 30% schneller als eine 3090, die 7900xtx ist ca 1.6 - 1.7x schneller als eine 3090. Ich persönlich hol mir auch ne 4090, aber so schlecht muss man AMD nicht reden. Nvidia müsste sich jetzt eigentlich gezwungen sehen die UVP der 4080 auf 899 dollar zu senken weil die wird wohl auf gleichen Level wie eine 7900 XT sein
 
Ich weiß, Marketingfolien, aber: Wenn die Angaben stimmen liegt die Karte in 4k Cyberpunk sogar deutlich vor der 4090. Kann ich mir zwar bei dem Preis nicht vorstellen, aber das sagt die Folie. Oder rechne ich hier falsch? Hab die Zahlen mal aus dem HUB Test genommen.

Und in WD:Legion ca. 10% langsamer.

Alles natürlich ohne RT, aber das klingt doch....ziemlich gut?

Mfg
Kiryu
Das war mit FSR3.0 und ohne RT
 
Ich weiß, Marketingfolien, aber: Wenn die Angaben stimmen liegt die Karte in 4k Cyberpunk sogar deutlich vor der 4090. Kann ich mir zwar bei dem Preis nicht vorstellen, aber das sagt die Folie. Oder rechne ich hier falsch? Hab die Zahlen mal aus dem HUB Test genommen.

Und in WD:Legion ca. 10% langsamer.

Alles natürlich ohne RT, aber das klingt doch....ziemlich gut?

Mfg
Kiryu
4K Raytracing Cyberpunk (techpowerup):

6950 XTX 400 Watt = 12 FPS
RTX 3090 = 24 FPS

Die 4090 = 55-60 FPS, DLSS 3.0: 85 - 110 FPS
AMD sagt, dass Raytracing um 50-70% steigt, also sind wir hier irgendwo bei 18-22 FPS, plus 50% generational uplift (ursprünglicher Basiswert von 12, also 6) irgendwo bei 24-28 FPS (wenn überhaupt).

Das ist weit, weit entfernt von einer 4090, selbst ohne DLSS 3.0.

Rasterization ist in RT Titeln wie Cyberpunk wertlos, weil dann 60% der Grafikqualität flöten geht...
 
Schau dir das GN Video an, da ist irgendwo ein Verweis auf FSR
 
Die bisherigen AMD Kartenbesitzer haben vernünftiges Raytracing noch nie vernünftig erlebt (man kann nicht missen, was man nicht kennt).

Einmal diese Menschen an einen RTX 3000/4000 Rechner setzen, mit einem guten 42" OLED und gutem Surround Sound, Control/Cyberpunk anmachen und die werden nie wieder Raytracing missen wollen. Wenn das vernünftig läuft, ist es endgeil.

Viele Spiele haben das nur leider schlecht umgesetzt, und die meisten YouTube Videos sind durch fehlenden VRR support und kaputt-Kompression wenig sinnvoll als Vergleich. Nativ so einen Spaß erleben ist eine ganz andere Erfahrung.
Tjo habe beide games auf meinem LG oled gezockt mit und ohne Raytracing. Control nach 1ner Stunde von der Platte gelöscht weil total langweilig und Cyberpunk war nur ok für mich. Da hat auch RT die Spiele nicht besser gemacht.

Geht mir eher um das Argument der competitiv games, wo im Endeffekt nur max FPS gepusht werden auf Kosten von Optik.
 
Die 7900xtx customs werden aber deutlich schneller als die 7900xtx founders sein da 3x8 Pin und 450 Watt und höhere Clocks, somit dann wahrscheinlich auch 1.8 bis 1.9 schneller als eine 6950xt und boom ist die Karte im Raster gleichschnell wie eine 4090. Raytracing wird auf 4080 Level sein
100W mehr für die gleiche Leistung? Was ein schlechter Deal.
Die Referenzkarte knackt nicht mal die 3090 in RT, wie soll da die 4080 geknackt werden?
 
100W mehr für die gleiche Leistung? Was ein schlechter Deal.
Die Referenzkarte knackt nicht mal die 3090 in RT, wie soll da die 4080 geknackt werden?
Die Tatsache, dass AMD sich im Raytracing Vergleich nichtmal die alte Generation von NVIDIA herangezogen hat, sollte aufhorchen lassen. Ich erwarte da nichts gutes.

AMD wird hier über Preis und Rasterization Marktanteile nehmen können, aber Raytracing scheint AMD sogar - im Verhältnis zu NVIDIAs Anstieg in Leistung durch neue Tensor Generation - sogar eine halbe Generation zurückgefallen zu sein, man liegt hier jetzt also scheinbar 1 1/2 Generationen zurück.

Das ist schade, da sich hier dementsprechend viele Menschen trotz neuer Generation nie ernsthaft mit Raytracing auseinander setzen werden (low FPS), aber da kann man jetzt wohl auch nichts mehr machen.

Limitiert sind wir ja ohnehin in der Mehrheit der Games durch die alten, schwachen Konsolen APUs von AMD mit ihrer mikrigen Raytracing Leistung, abgesehen von ein paar NVIDIA gesponsorten Titeln werden wir in den nächsten 2-3 Jahren also nicht soviel erwarten können für die Technik. Schade.
 
Zuletzt bearbeitet:
AMD haut meiner Meinung nach das bessere Gesamtpaket raus. Am Ende werden die Tests es aber zeigen. Hier hat mal jemand auf Basis der bekannten Informationen hochgerechnet:

0ddbb96bbeaf3447c072c55d0abaf2acbe2563bd3cae5c453097168a22006d7d.png
 
AMD haut meiner Meinung nach das bessere Gesamtpaket raus. Am Ende werden die Tests es aber zeigen. Hier hat mal jemand auf Basis der bekannten Informationen hochgerechnet:

Anhang anzeigen 811752
Metro, Watch Dogs und Cyberpunk sind allesamt RT lastige Titel, die einen Großteil ihrer Grafikpracht aus dieser Technik beziehen. Der Vergleich da oben wird in sich zusammenfallen, wenn man RT beachtet. Leider. Ich hätte mir hier mehr von AMD gewünscht.
 
Finde die neuen AMD Karten interessant aber trotzdem keine Alternative für mich. Ich hoffe, dass die interessanten Modelle der 4090 irgendwie besser verfügbar sein werden. Ich bezahle von mir aus auch einen Aufschlag, bei einem seriösen Händler.
 
Vor allem hat AMD sicherlich auch nur die Best Case Szenarien gezeigt. Bei anderen Spielen wird es ganz anders aussehen.
 
Vor allem hat AMD sicherlich auch nur die Best Case Szenarien gezeigt. Bei anderen Spielen wird es ganz anders aussehen.
Das macht NVIDIA auch, ist üblich in der Branche. Die werden sich die besten Beispiele rauspicken, und dort laut werden, wo es sinnvoll ist (Rasterization). Ich hatte mir persönlich erhofft, dass AMD im RT Bereich zumindest an NVIDIA nahe kommen kann, aber scheinbar hat NVIDIA hier sogar den Vorsprung vergrößert. Zudem scheint NVIDIA in der Frame Generation tech minimum 1 Jahr mehr Entwicklungszeit zu haben. Schade, aber ist dann eben so.
 
Wie gut ist DSR mittlerweile? DLSS ist ja in den meisten Fällen besser als nativ...
 
Metro, Watch Dogs und Cyberpunk sind allesamt RT lastige Titel, die einen Großteil ihrer Grafikpracht aus dieser Technik beziehen. Der Vergleich da oben wird in sich zusammenfallen, wenn man RT beachtet. Leider. Ich hätte mir hier mehr von AMD gewünscht.
Das RT Argument suckt für mich hart. Ich weiß nicht was mit so manchen Augen los ist aber RT war für mich in all deinen besagten Titel nicht der Rede wert. Wenn ich da nicht irgendwo in einer Ecke stehen bleibe um Details zu betrachten, kann ich darauf zu gunsten von FPS jederzeit gerne verzichten...erst recht wenn ich dann noch unschärfe Müll wie DLSS dazu schalten muss.
RT ist für mich auf dem jetzigen Level der Implementierung hauptsächlich ein Marketing Erfolg aber kein Visual Erfolg.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh