[Sammelthread] NVIDIA GeForce RTX 4090 + FAQ

The golden Rule... Kein Hate und unterstützt Euch :)

Here we go again



1665056638636.png


4090...ICH HABE VIEL STROMDURST, ABER NÜCHTERN BIN ICH GENAUSO GEIL
UNDERVOLTET EURE KARTEN UND SPART STROMKOSTEN!!!!


1665498687911.png
1665498502894.png

1665498549000.png

Quelle:

TEST:


Karten:


News:

Wakü News:



Vorstellung 20.9.2022 - 17 Uhr CEST

Shops:

Alternate: https://www.alternate.de/listing.xh...tlink&campaign=AF/DeZanox/Textlinks/Alternate
Amazon: https://www.amazon.de/s?k=rtx+4090&...g=2015_pc-magazin_ratgeber-21&ref=as_li_ss_tl
ARLT: https://www.arlt.com/Hardware/PC-Ko...3_1665086675_c41bcfa362400660aa68799a8d544c1f
Caseking: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090?awc=28817_1665086675_8c71f2e2a0b8302f9e83be95d89de776&utm_medium=utm_medium=affiliate&utm_source=http://www.connect.de _550751_Editorial+Content
MediaMarkt: https://www.mediamarkt.de/de/search...inkgenerator-AO&emid=633f34d4aaad325e8546c28e
Mindfactory: https://www.mindfactory.de/search_r...2_1665086677_f0779a4b84d05c6ff304fd720f0d2c19
NBB: https://www.notebooksbilliger.de/produkte/rtx%204090?nbbct=1001_550751&nbb=2177fc&wt_cc8=httpwwwconnectde&pid=11348_1665086678_58bddee53bb045cbf554da788649c09d&awc=11348_1665086678_58bddee53bb045cbf554da788649c09d
NVIDIA: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
ProShop: https://www.proshop.de/Grafikkarte?...1_1665086679_6daff1a5dd54a584f698dce239078ff8
Saturn: https://www.saturn.de/de/search.htm...inkgenerator-AO&emid=633f34d9f418ae2bef4a481b

PowerLimits:

KarteMinMax
4090 Founders Edition450W600W
4090 Gainward Golden Sample450W450W
4090 MSI Suprim X450W450W Silent Mode / 520W Power Modus
4090 STRIX OC500W600W / Dual Bios
4090 Aorus Master450W600W
4090 Zotac AMP Extreme450W495W
4090 MSI Suprim Liquid X480W530W / Selten auch 600W
4090 Gigabyte Gaming OC450W600W
4090 Palit Gamerock OC450W500W


CARDGPU Voltage PhasesGPU Voltage ControllerGPU MOSMOS Current (A)Total GPU CurrentMemory Voltage PhasesMemory Voltage ControllerMemory MOSMOS Current (A)Total Memory CurrentTotal PhasesSource
MSI Suprim X (& Liquid)
26​
Monolithic MP2891Monolithic MP86957
70​
1820​
4​
Monolithic MP2891Monolithic MP86957
70​
280​
30​
Techpowerup
ASUS STRIX OC
24​
Monolithic MP2891OnSemi FDMF3170
70​
1680​
4​
Monolithic MP2891OnSemi FDMF3170
70​
280​
28​
Techpowerup
Nvidia Founders
20​
Monolithic MP2891Monolithic MP86957
70​
1400​
3​
Monolithic MP2891Monolithic MP86957
70​
210​
23​
Techpowerup
Colorful Vulcan (& Neptune)
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI-03 BLN3
55​
220​
28​
Techpowerup
Zotac AIRO
24​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
1320​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
28​
Techpowerup
ASUS TUF OC
18​
Monolithic MP2888AInfineon TDA21570
70​
1260​
4​
uPI uP9512QVishay SIC638A
50​
200​
22​
Hardware Unboxed
Gigabyte Gaming OC
20​
uPI uP9512UVishay SIC653A
50​
1000​
4​
uPI uP9512RVishay SIC653A
50​
200​
24​
Techpowerup
MSI Gaming Trio X
18​
Monolithic MP2891OnSemi NCP303151
50​
900​
4​
Monolithic MP2891OnSemi NCP303151
50​
200​
22​
CoolPC
Palit GameRock OC
16​
uPI uP9512UOnSemi NCP302150
50​
800​
3​
uPI uP9512ROnSemi NCP302150
50​
150​
19​
Techpowerup
Zotac Trinity OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI-03 BLN3
55​
770​
4​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
50​
200​
18​
CoolPC
Inno3D X3 OC
14​
uPI uP9512UAlpha & Omega AOZ5311NQI BLN0
55​
770​
3​
uPI uP9512RAlpha & Omega AOZ5311NQI BLN0
55​
165​
17​
KitGuru
Gigabyte Windforce
14​
?Vishay SIC653A
50​
700​
4​
?Vishay SIC653A
50​
200​
18​
profesionalreview

Quelle: https://www.reddit.com/r/nvidia/comments/y5x5pg/comment/isn62q2/?context=3

1665005165274.png

Quelle: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/

1665606818675.png

Quelle: Danke an @Brainscan1979

BIOS Flashen (BIOS FLASHEN IST IMMER AUF EIGENE GEFAHR UND KANN DIE GRAFIKKARTE FUNKTIONSUNTÜCHTIG MACHEN!!!)

Tool


How To?

Anleitung
1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Garantie: > Von 15.09.2020 10:00 Uhr. Wenn ihr neuere Infos habt, bitte bescheid geben

1663423961927.png


1663423968554.png


Quelle: https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/


Speziellen Netzteilstecker für die RTX 4090 bestellen:

Seasonic
gibt Ihren Kunden das Kabel Umsonst, für spezielle Seasonic-NT, welche in den letzten 12 Monaten gekauft wurde.
"Starting on October 12, 2022, our complimentary cable offer will be valid for customers who purchased a PRIME 1300, PRIME 1000 or FOCUS 1000 W power supply and a newest, high-power VGA card within the past 12 months. Proofs of both purchases are required to apply for the free 12VHPWR cable. The quantity of free cable sets is limited, and this offer is valid only as long as our supplies last."
https://seasonic.com/cable-request/

Corsair

Store für Corsair, ASUS, EVGA und Seasonic Netzteilstecker:

FAQ:

Brauche ich ein neues Netzteil für die RTX 4000 Reihe? Nein > https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/

Verliere ich Leistung, wenn ich die RTX 4090 mit PCIe 3 laufen lasse? > Ja, ca 2,1% :) Also nicht viel
1665669653653.png

Quelle: https://www.computerbase.de/2022-10...hnitt_die_geforce_rtx_4090_mit_pcie_30_update
 

Anhänge

  • 1663149915787.png
    1663149915787.png
    12,8 KB · Aufrufe: 2.535
  • 1663740699330.png
    1663740699330.png
    9,7 KB · Aufrufe: 3.417
  • 1663917323564.png
    1663917323564.png
    17,5 KB · Aufrufe: 11.711
  • 1663917392159.png
    1663917392159.png
    85,2 KB · Aufrufe: 1.780
  • 1664862132798.png
    1664862132798.png
    108,9 KB · Aufrufe: 786
  • 1664862159294.png
    1664862159294.png
    9,1 KB · Aufrufe: 762
  • 1664862278766.png
    1664862278766.png
    7,2 KB · Aufrufe: 757
  • 1664862319280.png
    1664862319280.png
    5 KB · Aufrufe: 706
  • 1664862405381.png
    1664862405381.png
    7,6 KB · Aufrufe: 725
  • 1665056332046.png
    1665056332046.png
    47,2 KB · Aufrufe: 459
  • 1665056371177.png
    1665056371177.png
    79 KB · Aufrufe: 745
  • 1665056772151.png
    1665056772151.png
    76,2 KB · Aufrufe: 11.881
  • 1665169879074.png
    1665169879074.png
    62 KB · Aufrufe: 803
  • 1665387046109.png
    1665387046109.png
    61,8 KB · Aufrufe: 1.576
Der Sweet Spot ist bei der 4090 auch nicht oben zu suchen sondern eher unten, selbst mit 300 Watt bzw. ~2600MHZ hat man immer noch genug Leistung. Beim Benchmark Spielen ok, aber ansonsten ist weniger mehr.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich wäre mit der Leistung zufrieden, die 16K ohne DLSS mit min. 120fps kann :fresse:
Problem ist - wie bekommt man bis dahin 5,7 Mio. Dollar zusammen :haha:
 
Bin ich gespannt wann der erste mit dem screen in der Signatur auf taucht. :d
 
Ich wäre mit der Leistung zufrieden, die 16K ohne DLSS mit min. 120fps kann :fresse:
Problem ist - wie bekommt man bis dahin 5,7 Mio. Dollar zusammen :haha:
Wenn es 2019 noch 5,7 Millionen gekostet hat, würdest es jetzt wahrscheinlich für 60.000 oder so bekommen. In weiteren vier Jahren für unter 10.000.

Aber ernsthaft, selbst eine 4090 liefert in 4k mit max Details nicht in jedem Spiel 120FPS. Insofern stimmt es schon, genug Leistung gibt es nicht. Denn ALLES andere bedeutet Abstriche machen. Die müssen nicht immer gravierend sein oder auf den ersten Blick auffallen (Ultra -> High Settings), aber es sind Abstriche.

Daher bleibe ich dabei, die 4090 ist die einzig kaufbare 4K Karte, die 4070 eben für 1080P/1440p. Bei allen anderen RDNA3/Lovelace Modellen muss man einfach zu viele Abstriche machen. Dann lieber ne gebrauchte RDNA2 oder Ampere Karte. Oder seine Pascal/Turing Karte behalten und auf 1080p bleiben. Meine 2060 Super machte bis zuletzt auch ne ganz gute Figur auf meinem 1080P/60Hz Monitor, den ich da noch hatte.
 
Wenn es 2019 noch 5,7 Millionen gekostet hat, würdest es jetzt wahrscheinlich für 60.000 oder so bekommen. In weiteren vier Jahren für unter 10.000.

Aber ernsthaft, selbst eine 4090 liefert in 4k mit max Details nicht in jedem Spiel 120FPS. Insofern stimmt es schon, genug Leistung gibt es nicht. Denn ALLES andere bedeutet Abstriche machen. Die müssen nicht immer gravierend sein oder auf den ersten Blick auffallen (Ultra -> High Settings), aber es sind Abstriche.

Daher bleibe ich dabei, die 4090 ist die einzig kaufbare 4K Karte, die 4070 eben für 1080P/1440p. Bei allen anderen RDNA3/Lovelace Modellen muss man einfach zu viele Abstriche machen. Dann lieber ne gebrauchte RDNA2 oder Ampere Karte. Oder seine Pascal/Turing Karte behalten und auf 1080p bleiben. Meine 2060 Super machte bis zuletzt auch ne ganz gute Figur auf meinem 1080P/60Hz Monitor, den ich da noch hatte.
Noch nochmal 10.000 für Strom am "Supercharger" :d

Und ja, die 4090 ist quasi die erste GPU, die mit 4K reletiv gut umgehen kann (mit DLSS sowieso)
Für 8K wird es wohl einige Jahre dauern. Es es sei denn NV kommt mit DLSS+++ daher :fresse:
 
Zuletzt bearbeitet:
Naja, 8K Bildschirme sind aktuell sowieso noch eine absolute Rarität. Bis es die mal in ausreichender Zahl am Markt gibt könnte die Grafikkarten vielleicht auch so weit sein. Aber nach fast 10 Jahren 4K Gaming hätte ich nichts dagegen noch mal ne Ecke höher zu springen. :d

Aber erst mal die 4090, die wird spätestens hoffentlich am Dienstag bestellt und dann erst mal sehen wie ich sie optimal einstellen kann um sie kühler und sparsamer zu kriegen.
 
Den Sinn von 8K auf dem Schreibtisch kann man natürlich auch etwas in Frage stellen, aber Single Display ist ja nur das eine. Gaming auf VR Brillen wird aus meiner Sicht erst dann interessant, wenn man mindestens 2x 4K @120Hz fahren kann. Mindestens, eher so 200Hz wäre gut und mehr Auflösung natürlich auch. Die bisherigen Teile finde ich absolut grauenhaft, entweder lahm oder Fliegengitter.
 
Gerade VR kostet halt eine Menge Leistung. Auf der anderen Seite fehlen dann aber auch die grafisch hochwertigen Inhalte, dank Meta Quest 2 haben wir oft eher miese Comic Grafik dank PC Ports... wobei natürlich auch das geringe Budget für solche Titel eine Rolle spielt. Vieles was in VR am PC gut aussieht, sind Simulationen, die eh noch mal mehr Leistung fressen. Ich hoffe mit den MicroOLED Panels wird sich das mit der VR Optik grundsätzlich ändern, LCD VR Headsets haben auch viel kaputt gemacht, die ersten VR Headsets setzten auf OLED, OLED hat aber bei Schwarz Mura Probleme, die bei MicroOLED nicht mehr existiert, perfektes Schwarz, schöne Farben und die Helligkeit wird auch noch werden.

Ohne Kompromisse geht es halt nie, auch am Bildschirm nicht, irgendwas ist immer. :d

8K selbst, ich hab auch nur ein 28" 4K Bildschirm, die Bildschärfe durch die hohe Pixeldichte will ich nicht missen. Viele sind ja auf 4K umgestiegen und haben dabei eine Monitor Größe gewählt, bei der sie kaum eine höhere Pixeldichte wie vorher die kleinen 24" 1080p Monitore hatten. DAS empfinde ich als Verschwendung, weil dann sieht man wieder mehr Aliasing und vergeudetet wieder viel Leistung für Kantenglättung. Ich hingegen brauch kaum Kantenglättung und hab daher mehr Leistung für anderes übrig. Aber klar, bei 8K würde ich auch größer kaufen, vielleicht sogar ultra wide. Aber mit einer 4090 wäre das dann wieder nicht mehr so toll.
 
Zuletzt bearbeitet:
Den Sinn von 8K auf dem Schreibtisch kann man natürlich auch etwas in Frage stellen, aber Single Display ist ja nur das eine. Gaming auf VR Brillen wird aus meiner Sicht erst dann interessant, wenn man mindestens 2x 4K @120Hz fahren kann. Mindestens, eher so 200Hz wäre gut und mehr Auflösung natürlich auch. Die bisherigen Teile finde ich absolut grauenhaft, entweder lahm oder Fliegengitter.
Sehe ich anders...
Wenn ich knapp 1m vor 48" sitze, könnte das Bild ruhig noch schärfer sein

Meine Hoffnung ist ja, dass man die Apple Vision Pro auch am Rechner betreiben kann - also unabhängig von "VisionOS" arbeitet
11,5Mio Pixel pro Auge - also zwei mal 3.400x3.400 Pixel (oder rechnerisch 2x 5,57K :fresse: ) wäre schon sehr nett. Mindestbildrate soll 90Hz sein (up to 120Hz)
Wenn das Ding ausser Spatial-Computing auch echtes VR könnte (ich fürchte eher nicht), wäre es praktisch schon gekauft

Für Journalisten stelle ich mir eine POV-Berichterstattung unheimlich praktisch vor
Beitrag automatisch zusammengeführt:

Gerade VR kostet halt eine Menge Leistung
Eigentlich ja, aber die Entwicklung bei "Foveated Rendering" geht ja ständig weiter
Niemand braucht einen knackigscharfen Rand, wenn man dort gerade nicht hin sieht. Und wenn die Pupillen zb von links unten nach rechts oben wechseln, ist der Bereich rechts oben schon scharf
Also egal, wo du hinschaust, ist alles scharf (insofern Eyetracking perfekt eingerichtet wurde). Ich weiß gerade nicht, wie groß dieser Bereich bei der PSVR2 ist oder wieviel Grad (Sichtfeld) das sind
Wenn der Hersteller es zulässt, wäre der POV-Bereich einstellbar (je kleiner der Bereich, desto höher die FPS/Hz)
 
Zuletzt bearbeitet:
Meine Hoffnung bei 8K läge eher darin dass man mal wieder an eine ähnliche Optik bekäme wie bei CRTs früher. Wenn das dann ein Subpixel Layout wie bei den Samsung QLEDs wäre, hätte man u.U. wirklich ein sehr ähnliches Bild mit einer gaaaaanz leichten Konvergenz, die dank der kleinen Pixel nicht bewusst auffällt. Und wenns ganz gut läuft dann hat man mit so kleinen Subpixeln auch bessere Karten bei anderen Auflösungen als nativ.
 
Finde 4K 32 Zoll optimal für Gaming am Schreibtisch.
Hoffe das sowas auch mal als OLED kommt mit 144 HZ
 
Ich empfinde 48 Zoll als perfekt, werde wohl nie wieder eine andere Größe kaufen. Hängt bei mir aber auch an der Wand also ein Stück weiter weg als Schreibtisch. Ansonsten würde ich wohl einen 42er kaufen weil es sonst ja kaum Alternativen im OLED Bereich gibt.
 
Ich empfinde 48 Zoll als perfekt, werde wohl nie wieder eine andere Größe kaufen. Hängt bei mir aber auch an der Wand also ein Stück weiter weg als Schreibtisch. Ansonsten würde ich wohl einen 42er kaufen weil es sonst ja kaum Alternativen im OLED Bereich gibt.
Mir war 34 zoll schon fast zu groß:) beim tv kann es aber nicht groß genug sein.. Aktuell 65 Zoll oled und irgendwann mal 77 oder 83.
 
Finde 4K 32 Zoll optimal für Gaming am Schreibtisch.
Hoffe das sowas auch mal als OLED kommt mit 144 HZ
Zum lesen sind meine 48" (mit 80-90cm Abstand zum Auge) vielleicht nicht ideal, aber beim Zocken sind man null Pixel
Bin mit meinem 48CX (120Hz + G-Sync) noch sehr zufrieden und bereue den Kauf, des X27 für 2.000€ ein Jahr zuvor
 
Zuletzt bearbeitet:
8k aufm schreibtisch bei 32" seh ich eigentlich nicht als überflüssig. guckt euch mal diverse games ohne AA an. RDR2 ohne AA flimmerparty des grauens. res scale auf 200% geknallt und das game ist rasiermesserscharf aber die 4090 kackt dann komplett weg :d
 
Zum lesen sind meine 48" (mit 80-90cm Abstand zum Auge) vielleicht nicht ideal, aber beim Zocken sind man null Pixel
Bin mit meinem 48CX (120Hz + G-Sync) noch sehr zufrieden und bereue den Kauf, des X27 für 2.000€ ein Jahr zuvor

Würde jetzt auch nicht mehr die 3,5k hinlegen bzw. generell nicht mehr. Bin aber im Großen und Ganzen zufrieden von der BQ her . Ein Lüfter von vorne links höre ich mittlerweile mehr heraus nach gut zwei Jahren . Wir wissen ja das ein Oled TV ab 2019 alles niedermäht was auf Monitor Markt vorhanden ist . Sowohl von Bild wie auch von P/l Verhältnis was irgendwie auch traurig ist .
Mir persönlich wäre sogar 27 Zoll lieber gewesen , aber konnte mich mit 32 Zoll arrangieren.
 
Passt gerade ganz gut
 

Anhänge

  • Screenshot_20230626_122352_mydealz.jpg
    Screenshot_20230626_122352_mydealz.jpg
    238,9 KB · Aufrufe: 108
Würde jetzt auch nicht mehr die 3,5k hinlegen bzw. generell nicht mehr. Bin aber im Großen und Ganzen zufrieden von der BQ her . Ein Lüfter von vorne links höre ich mittlerweile mehr heraus nach gut zwei Jahren . Wir wissen ja das ein Oled TV ab 2019 alles niedermäht was auf Monitor Markt vorhanden ist . Sowohl von Bild wie auch von P/l Verhältnis was irgendwie auch traurig ist .
Mir persönlich wäre sogar 27 Zoll lieber gewesen , aber konnte mich mit 32 Zoll arrangieren.
3.500 für 32"? :oops:
 
Eigentlich ja, aber die Entwicklung bei "Foveated Rendering" geht ja ständig weiter
Niemand braucht einen knackigscharfen Rand, wenn man dort gerade nicht hin sieht. Und wenn die Pupillen zb von links unten nach rechts oben wechseln, ist der Bereich rechts oben schon scharf
Also egal, wo du hinschaust, ist alles scharf (insofern Eyetracking perfekt eingerichtet wurde). Ich weiß gerade nicht, wie groß dieser Bereich bei der PSVR2 ist oder wieviel Grad (Sichtfeld) das sind
Wenn der Hersteller es zulässt, wäre der POV-Bereich einstellbar (je kleiner der Bereich, desto höher die FPS/Hz)
Klar, aber dazu müsste dann auch mal Eye Tracking Standard werden damit dynamisches Foveated Rendering auch genutzt werden kann, aber Meta setzt lieber auf AR Mist statt sich die Kosten für EyeTracking aufzusparen und Meta gibt halt aktuell leider den Ton im VR Umfeld an...
 

Edit
Bin mal gespannt, wie "grusselig" der 16Pin-Anschluss mit der eigentlichen Platine verbunden ist.
Meine Hoffnung wäre ja, das sie beim Layout der 4090 bleiben und einfach da vollfunktionsfähige Chips drauf packen. Dann könnte ich nochmal schwach werden. :rofl:

Edit
1687791643506.png
kupferfarbene Verschraubungsflächen. Da würde ich ja glatt drauf tippen, das hierüber der 16Pin-Anschluss bzw. die leitende Verbindung zwischen diesem und der Platine verschraubt wird.
 
Zuletzt bearbeitet:
Vielleicht sollte man sie lieber NVidia WTF 4090 TI nennen. :LOL:
 
Klar, aber dazu müsste dann auch mal Eye Tracking Standard werden damit dynamisches Foveated Rendering auch genutzt werden kann, aber Meta setzt lieber auf AR Mist statt sich die Kosten für EyeTracking aufzusparen und Meta gibt halt aktuell leider den Ton im VR Umfeld an...
Die Meta kenne ich nicht, aber als die PSVR2 erschien, fanden das Viele richtig gut
Und die Vision Pro wird, was Gestensteuerung und Eyetraking angeht, alles in den Schatten stellen. Wenn da nicht der Preis von min. 3.500 Dollar wäre
Wenn man die Präsentation richtig gedeutet hat, wird es min. 2 Modelle geben, sonst würde "Starts at ..." keinen Sinn machen. Daher rechne ich beim Top-Modell mit 4.000€ :-[

Mal abgesehen von Sachen, wie Eyetracking, Foveated Rendering etc. ist der Unterschied von zocken am großen Moni oder TV zu VR echt extrem und man sollte gut überlegen, ob man sich gewisse Games wirklich antun soll. Man weiß, dass RE4 (remastered) nur ein Game ist aber diese "Regeneratoren" würden mir in VR den Rest geben (am Monitor oder TV ist eher für "Pussies") :fresse:

Und wenn man sich mal überlegt, dass die Auflösung der PSVR2 eher gering gegen über der Vision Pro ist, ist der Showroom in GT7 einfach traumhaft
Nur schade, dass SONY und Apple wahrscheinlich auch, ihre Brillen nur für ihr eigenes Ecosystem öffnen (gerade der Vision Pro traue ich viel zu)
 
Zuletzt bearbeitet:
Ja, gerade bei der PSVR2 würde ich mir wünschen wenn Sony sie zum PC kompatibel machen würde, man bräuchte halt ein Adapter von USB-C auf DP und USB, was ja einige schon gemacht haben, aber mangels Treiber ist nicht mehr möglich. Es hängt also wirklich nur an Treibern. Und Sony hat ja auch ihren DualShock/-Sense schon für PC kompatibel gemacht. Sie könnten also, wenn sie nur wollten.

EyeTracking ist eben eine Technologie die erst mal Standard werden müsste und dann noch Jahre bräuchte bis sie Jeder nutzt. Bis das also mal Standard wäre, damit sich auch die Verwendung in Games selbst ebenfalls lohnt und nicht nur als Gimmick genutzt wird (weil viele es nicht haben), hätten wir sicherlich gut 5 Jahre später. Man muss ja nur sehen wie lange es dauert bis neue Grafikkarten Features Standard werden, so langsam nach und nach nutzen neue Spiele alle DLSS. 2018 unterstützte das erste Spiel DLSS, das ist ebenfalls 5 Jahre her und DLSS ist wirklich ein Gamechanger Feature auf einem sehr großen Markt. In einer Nische tun sich neue Features noch schwerer.

Aber egal, wir diskutieren hier nicht im VR Bereich. ;)

So oder so ist aber klar, dass VR auch weiterhin eine starke Grafikkarte wie eben eine 4090 nötig hat, will man realistischere und scharfe Grafik. Das wird sich auch in den nächsten 10 Jahren nicht ändern.
 
Ja, die VR2 kann deutlich mehr...
Wer noch eine 2080(ti) hat, könnte sie am PC betreiben. Wenn da nicht das Treibergebastel wäre
 
Für mich ist der 4090 Ti Zug schon abgefahren, falls sie überhaupt kommt. Die Bilder sind ja nur von einem Prototyp Kühler... Der Wertverlust der 4090 ist zu groß, da wird man locker 1000-1500€ nochmal drauflegen müssen wenn man die 4090 jetzt veräußert und dann die Ti kaufen will. Wenn die Anfang des Jahres gekommen wäre hätte ich evtl. noch mal überlegt.
 
Lohnt nur für Leute mit zuviel Geld oder jmd, der noch keine 4090 hatte...
Der Perf.-Unterschied zur TI wird wahrscheinlich nicht spürbar sein (ausser leisere Spulen/Lüfter vielleicht)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh