[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.525
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.410
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.703
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.772
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 780
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 755
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 750
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 698
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 718
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 451
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 735
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.873
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 795
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.569
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja ich hatte vor ein paar Tagen gefragt ob die NDA wie beim 30er Launch auch wieder am Release Tag um 15 Uhr fällt. Da sagten hier einige im forum der 5.10
 
Am 5. gehen die Reviews für die Intel Karten online, ich hab noch nichts von Nvidia gelesen. Mich würde auch nicht der 11. wundern.

Edith sagt, https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq.1323338/post-29454124 meint einer am auch am 5.
Mich würde nicht überraschen wenns dann doch nicht so wäre, eine Woche vor Release Reviews wäre sehr nvidia untypisch. Die wollen schauen dass so viele wie möglich am 12. um 15 Uhr eine 4090 bestellen um dann kurz nach Bestellung die Reviews zu lesen die die Karten in der Luft zerreissen weils nur 30% schneller sind als die 3090 Ti 🤣🤣
 
Zuletzt bearbeitet:
Mich würde nicht überraschen wenns dann doch nicht so wäre, eine Woche vor Release Reviews wäre sehr nvidia untypisch. Die wollen schauen dass so viele wie möglich am 12. um 15 Uhr eine 4090 bestellen um dann kurz nach Bestellung die Reviews zu lesen die die Karten in der Luft zerreissen weils nur 30% schneller sind als die 3090 Ti 🤣🤣
Wenn du keine Konkurrenz hast und 70-400% mehr Leistung hast und schon massig Werbung machst mit Digital Foundry, darf man die anderen Presselager nicht vernachlässigen.

Ist zwar cool für DF exklusiv Sachen zeigen zu können, aber alle anderen 400 Webseiten schauen erstmal in die Röhre. Ich sehe den 5.10 daher als sehr realistisch. Meine offene Frage ist noch, ob man ab dem 5.10 auch schon vorbestellen kann.
 
Ich glaube zum Launch Tag werden selbst die seltsamen 4080er Karten ausverkauft sein und Jensen sich kaputt lachen. Das Marketing rund um DLSS 3 mit DF und co. läuft doch schon auf Hochtouren und die 3000er Karten sind nur noch Alteisen

2-4x faster ;)

@SH Ich glaube wir sehen das ganz ähnlich was hier gerade läuft
 
  • Danke
Reaktionen: SH
Wenn du keine Konkurrenz hast und 70-400% mehr Leistung hast und schon massig Werbung machst mit Digital Foundry, darf man die anderen Presselager nicht vernachlässigen.

Ist zwar cool für DF exklusiv Sachen zeigen zu können, aber alle anderen 400 Webseiten schauen erstmal in die Röhre. Ich sehe den 5.10 daher als sehr realistisch. Meine offene Frage ist noch, ob man ab dem 5.10 auch schon vorbestellen kann.
Zu begrüßen wäre der 5.10 auf jeden Fall für jeden der eine 4090 kaufen will, auch wenns für mich persönlich keine Rolle spielt da ich diese Gen kein early adaptor sein werde wie sonst
 
Worauf stützt Du diese Vermutung?
Mit Ryzen 7000 besteht kein Zusammenhang.
Das ist schon richtig, ich habe aber ein ähnliches Gefühl. Die Nachfrage abseits der Enthusiasten ist doch geringer wenn man den Berichten glauben darf und die Lieferengpässe bei diversen elektronischen Komponenten haben abgenommen, es gibt schon wieder die ersten Überangebote, der Mining Boom ist weg und Scalper werden recht schnell merken daß sich das Geschäft diesmal weniger lohnt.
Meine Vermutung ist daher, das es zwar in der Releasewoche durchaus eng wird, es sich dann aber doch recht schnell einpendelt. Ist aber auch nur meine Glaskugel, ich weiss auch nicht mehr als der Rest.
 
Je näher wir dem 05.10. kommen, desto weniger glaube ich daran, dass an dem Tag die 4090 Reviews landen. So ein Embargodatum wäre bereits geleakt.
 
@******
Siehe Post von @MADman - meine Worte, danke!

Ganz mies finde ich die Anbieter, welche gerade in den ersten Tagen ordentlich abkassieren wollen und die gleichen Karten dann aber 1-2 Wochen später, für 300-400 Euro günstiger verfügbar sind.
 
Ich vermute, dass die Verfügbarkeit nach 1-2 Wochen erstaunlich gut sein wird.
Nachfrage nach Hardware ist deutlich geringer als vor 2 Jahren. Die Ryzen 7000 CPUs sind auch überall lieferbar.
Die Preise werden vermutlich auch nach und nach runtergehen.

@Brainscan1979
Woher entnimmst du denn diese Info?
Das mit den Preisen kann ich mir auch gut vorstellen. Anfangs noch hoch aber dann wenn die letzten Miner doch verkaufen und Gamer, die eigentlich für gewöhnlich top Karten mal zu Preisen von 500€ rum gekauft haben (damals gabs die noch zu den Preisen) ne 3090 für 800€ bekommen können, werden es sich ggf einige überlegen ob sie wirklich eine 16GB 4080 holen oder doch ne 3090 für 800€.

Mal ne Frage zu den 3-4 Mal "schneller" als die bisherige 3090 Ti.
Bezieht sich das eigentlich nur auf DLSS 3?
Mich interessiert das DLSS Zeug eigentlich Null. I.d.R. bedeutet das zwar nur minimale Einbußen bei der Grafik und dafür mehr FPS aber ich will maximale Grafik! :fresse2::fresse2::fresse2:
Somit deaktiviere ich i.d.R DLSS und naja wenn ich mir die Nvidia Seite ansehe, vergleichen die eine 3090 Ti ohne DLSS 2 mit einer 4090 mit DLSS 3! Alleine dass DLSS bei der 3090 TI deaktiviert ist beutet ja dass es weniger FPS sein müssen. Bei den anderen 3 Spielen haben sie DLSS 3 ebenfalls aktiv und das auch noch im "Performance" Modus anstatt Qualitäts Modus
.... das deutet doch eigentlich darauf hin dass die ganzen Benchmarks auf DLLS3 beruhen und auch noch der Vergleich bei Cyberpunk None DLSS vs DLÖSS 3 ist was natürlich locker 3x-4x bringt.
Damn... ich habe das eigentlich so verstanden dass die 4090 3-4 Mal schneller ist als eine 3090... und zwar die Rohleistung bei maximaler Grafik ohne DLSS usw.
Bah das wäre ja der Hammer wenn man dann später ohne DLSS doch nur 30%-50% mehr Leistung hat :wall:
 

Anhänge

  • DLSS31.png
    DLSS31.png
    23,3 KB · Aufrufe: 37
  • DLSS.png
    DLSS.png
    494,4 KB · Aufrufe: 40
Je näher wir dem 05.10. kommen, desto weniger glaube ich daran, dass an dem Tag die 4090 Reviews landen. So ein Embargodatum wäre bereits geleakt.
Ist es doch schon indirekt :)

 
Mich interessiert das DLSS Zeug eigentlich Null. I.d.R. bedeutet das zwar nur minimale Einbußen bei der Grafik und dafür mehr FPS aber ich will maximale Grafik! :fresse2::fresse2::fresse2:
Somit deaktiviere ich i.d.R DLSS und naja wenn ich mir die Nvidia Seite ansehe, vergleichen die eine 3090 Ti ohne DLSS 2 mit einer 4090 mit DLSS 3! Alleine dass DLSS bei der 3090 TI deaktiviert ist beutet ja dass es weniger FPS sein müssen.

Bah das wäre ja der Hammer wenn man dann später ohne DLSS doch nur 30%-50% mehr Leistung hat :wall:
@bisonigor hat ja schon die Zahlen geliefert und das macht auch absolut Sinn wenn man sich die Stats anschaut, 10752 gegen 16384 Einheiten, RAM ist gleich schnell...die Hauptpower liegt in den Tensor-Kernen und dem höheren Takt, Texturiergeschwindigkeit auch etwa verdoppelt...da können ohne DLSS und Co gar keine Steigerungen im Faktorbereich rauskommen, 50-100%, mehr hatte ich zu keiner Zeit erwartet seit die Stats bekannt sind.

Für mich stellt sich aber auch die Frage, worin die Abneigung gegen DLSS jeweils genau begründet ist. Einfach aus Prinzip weil pure Grafik schon immer besser war halte ich persönlich wenig von, das Bild mit DLSS ist aus meiner Sicht meistens nicht schlechter sondern eher anders. Und die Designer der Spiele haben das oft schon mit im Hinterkopf, sowas sich für mich dann die Frage stellt, ob es ohne DLSS dann überhaupt noch die "Originalgrafik" ist (FSR bei AMD macht ja ähnliches).
Ich hatte mit DLSS 1 auch noch große Probleme und dachte mir "was soll der Müll, es lebe die pure Grafik". Aber spätestens mit 2.0 musste ich feststellen, daß ich die Unterschiede meist mit der Lupe suchen muss und ich will ja zocken und nicht Fehler suchen. Und dafür bekomme ich noch ordentlich FPS dazu. Zudem geht es bei Spielen wie Cyberpunk ja kaum anders, ich hätte keine spielbaren Bildraten mit meiner 3090 in UHD ohne DLSS bekommen. Und jetzt soll dort ja sogar ein Patch kommen, der neue Beleuchtungseffekte bringt, für die man ohne DLSS 3 gar nicht die Performance hat. Von daher finde ich mittlerweile, daß DLSS sogar die Tür zu neuen Effekten vorzeitig aufstoßen kann, wo wir ohne noch nicht hinkommen und das es daher sogar eine Bereicherung ist.
Klar, in Spielen ohne DLSS wird es dann natürlich enger aber neue Spiele kommen kaum noch ohne und für ältere reicht die Performance meist eh schon. Ich kann daher nVidia vollkommen verstehen, DLSS zu einem zentralen Bestandteil ihrer Strategie zu machen und kann sehr gut damit leben.

Ich spiele aber alles auf DLSS Quality, weiter runter will ich auch nicht gehen, ich kann Deinen "maximale Grafik" Ansatz daher durchaus noch gut nachvollziehen :) Aber in der Praxis habe ich mich mit DLSS trotzdem gut angefreundet mittlerweile. Wenn ich jetzt noch durchgängig 120 FPS in UHD auf Quality nahezu überall bekomme, dann bin ich sehr glücklich, mehr machen meine Augen (und mein OLED) eh nicht mit ;)
 
Das wird vom Takt abhängig sein. Etwa 50% auf die 3090Ti sollte sie allein durch die Erhöhung der Shader schaffen. Dazu kommt halt 500MHz mehr in der Basis, wenn dann das Powerlimit hochgesetzt wird müsste es abgehen.
 
Man muss einfach festhalten, auch wenn es vielleicht für einige (für mich auch am Anfang) wirklich schwierig ist sowas nachzuvollziehen:
Bei RTX 40 zahlt man insbesondere auch für die Software, denn das ganze herkömmliche Verfahren der Bildberechnung, basiert auf einer jahrzehnten alten Basis.

Die künstliche Intelligenz (Machine Learning inkl.) wird die Hardware auf eine neue Ebene befördern. Das was wir sehen, ist gerade ein Meilensteine in der Grafikkartengeschichte.
In Zukunft werden enorme Leistungssteigerungen durch verlustfreie Bildwiedergabe möglich sein mittels KI (DLSS 3.0, 4.0...).
Gerade für CPU limitierte Titel wie MS Flight Simulator eröffnen sich ja jetzt schon Vorteile, welche weder ein Zen6, noch ein 16900k bringen können.
Man muss wirklich umdenken... Hardware ist wichtig, Software wird aber noch viel viel wichtiger.
 
Afaik sind die ersten 3 Spiele wohl AMD sponsored, hier also 1,6x.
Ich würde eher von ca 1,8-1,9x bei "neutralen" Spielen ausgehen.
3-4x dann eben mit DLSS3on.
Du fängst langsam auch an dir die 2k€ Grafikkarte nächste Woche schön zu reden? Gefällt mir 😇
 
Man muss einfach festhalten, auch wenn es vielleicht für einige (für mich auch am Anfang) wirklich schwierig ist sowas nachzuvollziehen:
Bei RTX 40 zahlt man insbesondere auch für die Software, denn das ganze herkömmliche Verfahren der Bildberechnung, basiert auf einer jahrzehnten alten Basis.

Die künstliche Intelligenz (Machine Learning inkl.) wird die Hardware auf eine neue Ebene befördern. Das was wir sehen, ist gerade ein Meilensteine in der Grafikkartengeschichte.
In Zukunft werden enorme Leistungssteigerungen durch verlustfreie Bildwiedergabe möglich sein mittels KI (DLSS 3.0, 4.0...).
Gerade für CPU limitierte Titel wie MS Flight Simulator eröffnen sich ja jetzt schon Vorteile, welche weder ein Zen6, noch ein 16900k bringen können.
Man muss wirklich umdenken... Hardware ist wichtig, Software wird aber noch viel viel wichtiger.
Auf der Nvidia Seite kannst du es gut sehen das es halt Fake FPS sind!
Bzw. eine KI basierende Vector Zwischenbildberechnung die es Visuell zwar smoother macht aber nicht echten FPS entspricht !
Das erkennt man an der DLSS 2.0 Folie mit 58ms bei 62 FPS und der Frame Generation Folie mit Nvidia Reflex on 55ms bei 101 FPS !
Wären das echte FPS müsste der Input lag um ca 40 % niedriger sein!

Das Feature wird schon Klasse sein gerade bei Spielen wo man mit aktivierten DLSS nur 62 FPS hat und dann Frame Generation aktiviert .
Aber wenn du die 101 FPS hast wie auf der Seite von NV zu sehen hast du aber auch nur 62HZ in diesem Moment und nicht 101HZ wenn du über einen dementsprechenden Monitor verfügst!
Ich gehe zumindest davon aus das die Hz Zahl nicht steigt weil der Inputlag halt nicht besser wird!

Vielleicht kommt das später noch mal das auch die HZ mit gehen und der Inputlag mit sinkt bei DLSS 4.0 5.0 oder der 5000ner Serie.
Im Ganzen finde ich die Technik echt Klasse NV macht echt viel für ein gutes Spiele Erlebnis!


War mal so frei siehe Inputlag !
Wenn das echte FPS wären müsste der Inputlag deutlich niedriger sein!
Beim online Spielen von Shootern sollte man deshalb dann möglichst ohne Frame Generation zocken und dafür die Grafik anpassen um mehr FPS zu generieren und einen niedrigeren Inputlag zu erhalten!
Screenshot 2022-10-03 013853.jpg


Hier sieht man nun die 4* Fach Leistung !
Weil man vom Ursprung ausgeht das heißt
4K Nativ 22 FPS = 166ms 3090/3090TI?? oder 4090 wo 22 FPS ja ein Witz wären in 4K Native ohne Raytracing!
4K DLSS 62FPS =58ms
4K DLSS +Frame Generation 101 FPS=55-58ms
Screenshot 2022-10-03 074418.jpg



Für mich ist die Präsentation zu sehr geschönt!
Jedoch wird das ein Cooles Feature mit Mehrwert gerade bei DLSS kann ich mir vorstellen das in Bewegung die Qualität weiter gesteigert wird!
 
Zuletzt bearbeitet:
Du fängst langsam auch an dir die 2k€ Grafikkarte nächste Woche schön zu reden? Gefällt mir 😇
Ne, ich warte trotzdem up mit dem Kauf. Mal schauen was AMD m8 und ob die Lederjacke es schafft die Preise stabil zu halten.
Der Preis stört mich tatsächlich nicht, es würde mich nur stören, die Shice zu kaufen und 3 Sekunden später kommt nen drop auf 1400EUR. (y)
 
Wegen DLSS3

Jeder muss sich erstmal Fragen warum er überhaupt hohe FPS benötigt.
Für mich ist es hauptsächlich wegen dem geringen Inputlag also der "input smoothness".
DLSS3 erhöht aber den Inputlag.
Eventuell wie bei SLI, dass sich 140 fps DLSS3 plötzlich wie 100fps DLSS2 anfühlen

Kann also sein das es komplett raus ist für einige. Bin da sehr skeptisch. fps ist nicht =fps
 
Wegen DLSS3

Jeder muss sich erstmal Fragen warum er überhaupt hohe FPS benötigt.
Für mich ist es hauptsächlich wegen dem geringen Inputlag also der "input smoothness".
DLSS3 erhöht aber den Inputlag.
Eventuell wie bei SLI, dass sich 140 fps DLSS3 plötzlich wie 100fps DLSS2 anfühlen

Kann also sein das es komplett raus ist für einige. Bin da sehr skeptisch. fps ist nicht =fps
Sorry das ich dich etwas korrigiere der Input lag soll laut NV in etwa gleich bleiben durch Reflex mal ein Tick weniger mal ein Tick mehr sieht man auch bei Foundries im Video !

Was aber Fakt ist der Input lag wird mit 101FPS Framegeneration nicht besser vs 62 FPS ohne Frame Generation.

Und da sieht man das die FPS nicht echt sind die ausgegeben werden .
Gruss
 
Meint Ihr, ich muss mein derzeitiged Netzteil (SeaSonic Fokus GX-1000 W) gegen ein 1300 W NT wechseln?
Eher nicht wechseln. Nvidia selbst empfiehlt 850W, da werden noch Reserven drin stecken, also bist du mit deinem NT gut dabei.
 
Alle reden immer von 60 fps vs 120 etc. aber wie wird es sich verhalten wenn die Karte mit Next gen Games viel weniger „echte“ fps rechnen kann und nur noch mit dlss 3 auf 4k60 kommt, wie wird es sich dann vom Spielerlebnis anfühlen?
 
In dem Moment wo Dein Netzteil abschaltet, machste Dir Gedanken um ein neues.
Nicht immer vorher.
Warum macht ihr das nur?


Neues Netzteil ist in 3h besorgt von Dir.
Ins Auto rein, bei Caseking raus, neues Netzteil in der Hand ins Auto zurück.
 
@bisonigor

Für mich stellt sich aber auch die Frage, worin die Abneigung gegen DLSS jeweils genau begründet ist. Einfach aus Prinzip weil pure Grafik schon immer besser war halte ich persönlich wenig von, das Bild mit DLSS ist aus meiner Sicht meistens nicht schlechter sondern eher anders. Und die Designer der Spiele haben das oft schon mit im Hinterkopf, sowas sich für mich dann die Frage stellt, ob es ohne DLSS dann überhaupt noch die "Originalgrafik" ist (FSR bei AMD macht ja ähnliches).
DLSS nutze ich quasi nur da wo das ingame AA das spiel eh schon zermatscht

bei Spiderman z.b. ist native + TAA klar von DLSS, FSR2.0 und dem ingame upsampler zu unterscheiden.

in GOD of War ist quality noch ok.

in sehr vielen anderen games sieht man dieses DLSS typische bild sofort imho.
Alle reden immer von 60 fps vs 120 etc. aber wie wird es sich verhalten wenn die Karte mit Next gen Games viel weniger „echte“ fps rechnen kann und nur noch mit dlss 3 auf 4k60 kommt, wie wird es sich dann vom Spielerlebnis anfühlen?
könnte mir ein sehr schwammiges gefühl vorstellen
 
Was mich dieses Mal etwas stutzig macht ist das es bis heute noch keine leaks gibt gerade der ferne Osten hat sonst immer mal was gezeigt zumal es dort Karten schon zu kaufen gibt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh