NVIDIA stellt die ersten Modelle der GeForce-RTX-40-Serie vor

Übertreib halt maßlos, Strom sind eher so 20€.

Ansonsten wird selbst die mächtige 4090 ohne DLSS in vielen Spielen keine stabile 120 FPS schaffen, erst recht nicht mit Raytracing ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ach Unfug. In den Empfehlungsthreads wurde sehr oft eine 3080 (noch bevor es die TI gab) für 4K empfohlen.
Was für Games sind in den letzten 2 Jahren rausgekommen die auf einmal noch mehr Leistung brauchen?

Klar, wer stabil 120fps+ Ultra ohne DLSS braucht, soll halt 2K für die Karte und 100€ monatlich für Strom zahlen. Da es offenbar solche Leute gibt, macht NV wohl alles richtig.
Da aber nicht jeder so denkt, haben auch die anderen Karten ihre Daseinsberechtigung und womöglich gutes P/L Verhältnis.
Diverse Techniktests zu neuen Spielen zeigen oftmals, dass 4k Leistung ohne Ende benötigt um Richtung 100fps+ kommen zu können. Es ist einfach ein Unterschied ob man mit 50fps oder 100fps spielt. Die Smoothness sprich high fps ist m.E. nach wie vor größer als die Bildquali/Auflösung zu werten. Ein Beispiel Cyberpunk mit RT... läuft nicht mal mit DLSS smooth. Und da gibt es noch jede Menge andere Games...

Damals war die 3080 halt das nonplusultra und sicher kann man damit @4k spielen aber es gibt einfach nie genug Leistung um z.B. einen 4k Monitor mit 144Hz zu befeuern und die maximalen frames dazu rauszuholen.
 
Diverse Techniktests zu neuen Spielen zeigen oftmals, dass 4k Leistung ohne Ende benötigt um Richtung 100fps+ kommen zu können. Es ist einfach ein Unterschied ob man mit 50fps oder 100fps spielt. Die Smoothness sprich high fps ist m.E. nach wie vor größer als die Bildquali/Auflösung zu werten. Ein Beispiel Cyberpunk mit RT... läuft nicht mal mit DLSS smooth. Und da gibt es noch jede Menge andere Games...

Damals war die 3080 halt das nonplusultra und sicher kann man damit @4k spielen aber es gibt einfach nie genug Leistung um z.B. einen 4k Monitor mit 144Hz zu befeuern und die maximalen frames dazu rauszuholen.
Das war wahrscheinlich gerade dein 4090er Posts. GZ! Nu musst du eine kaufen. :d

Ich zock auch mit einer 3080 10Gig exklusiv @4k. Das geht schon. Durch G-Sync am TV wie auch am Moni merk ich nu nicht ob es gerade 50 oder 70 FPS sind. Notfalls Details bissl runter. Wer die Kohle hat soll doch kaufen. Ich hab sie im Moment nicht für eine Grafikkarte. Im Grunde hat NVIDIA einfach das Ampere-Portfolio nach oben erweitert statt zu ersetzen. Das ist für manche okay jedoch für andere unbrauchbar. Vielleicht kommt Mitte nächsten Jahres der richtige Launch mit einer Super Linie. Im Moment werde ich jedenfalls abwarten. :)
 
Durch G-Sync am TV wie auch am Moni merk ich nu nicht ob es gerade 50 oder 70 FPS sind.
Ist ja gut wenn du den Unterschied nicht merkst aber das hat nichts mit G-Sync zu tun. Bei Games mit ner Konsole (ala Doom z.B.) kann man das schnell mal testen in dem man die fps auf 60fps limitiert und auf z.B. 120fps. Der Unterschied ist so heftig, dass man nie wieder unter 100fps spielen will!

Das war wahrscheinlich gerade dein 4090er Posts. GZ! Nu musst du eine kaufen. :d
Ich kämpfe noch mit mir selbst und meine Meinung kurz nach der Präsentation ist leicht abgestumpft. Die 100 Dollar mehr zur 3090 finde ich echt in Ordnung aber der Euro Verfall ist einfach zum :kotz:
 
Ist ja gut wenn du den Unterschied nicht merkst aber das hat nichts mit G-Sync zu tun. Bei Games mit ner Konsole (ala Doom z.B.) kann man das schnell mal testen in dem man die fps auf 60fps limitiert und auf z.B. 120fps. Der Unterschied ist so heftig, dass man nie wieder unter 100fps spielen will!

Na bloß gut, dass du das Problem mit 2500€ aus der Welt schaffen kannst und dann endlich wieder Spaß findest am Zocken. :d
 
Ist ja gut wenn du den Unterschied nicht merkst aber das hat nichts mit G-Sync zu tun. Bei Games mit ner Konsole (ala Doom z.B.) kann man das schnell mal testen in dem man die fps auf 60fps limitiert und auf z.B. 120fps. Der Unterschied ist so heftig, dass man nie wieder unter 100fps spielen will!

Also da muss ich aber auch sagen: Native 120 FPS fühlen sich natürlich besser an, aaaaber - wenn G-Sync richtig greift war ich schon das ein oder andere mal erstaunt, wie flüssig sich 50 fps anfühlen können. G-Sync ist nicht nur hören/sagen :d
 
G-Sync ist nicht nur hören/sagen :d
Nein absolut nicht und ein Gaming Rig ohne G-Sync oder Freesync kommt für mich heutzutage nicht mehr in Frage! Das ist ein absolut krasses Feature aber hat einen andere Effekt und eliminiert in erster Linie das Springen/Ruckeln des Bildes, da die Hz und FPS synchronisiert werden. Das hat wie gesagt wenig mit der Smoothness aufgrund der Frameshöhe an sich zu tun. Schwer zu erklären, muss man einfach selbst erlebt haben.
 
Übertreib halt maßlos, Strom sind eher so 20€.
die stromkosten muss man nicht mit leeren zahlen um sich werfen. eine 3090 mit einer halbwegs aktuellen cpu zieht beim zocken als komplettrechner so 600 watt aus der dose. macht bei 30cent also 20cent pro stunde.
bei 100std zocken im monat (2-3std am abend) sinds also deine 20€.
hat man aber schon nen neuen teureren stromtarif mit 50cent, sind das bereits 50€. zockt man dann auch noch eher 5-6 std am tag, sind die 100€ im monat nur für den pc draufgegangen.

allerdings gibts auch einen netten nebeneffekt: man heizt dann ja auch mit 600watt die bude auf ^^
 
Ich frage für einen Freund. Der will eine 4090 mit einem i5 13600 paaren. Wäre das ein Bottleneck?
 
Sind die 600 Watt nicht mittlerweile nur für bestimmte Custom Karten möglich? Soweit ich weiß sind wir mit der höheren Effizienz doch nun bei 450? oO
Er bezog sich auf den kompletten PC. CPU + Co verbrauchen auch Strom.
 
Ich frage für einen Freund. Der will eine 4090 mit einem i5 13600 paaren. Wäre das ein Bottleneck?
Bitte einlesen. 🙂

Ja und nein

Abhängig von Spielen, settings.

Wenn die cpu deine gewünschte fps erreicht isses doch egal on sie limitiert.

Überschüssige gpu Leistung investiert du in höhere settings oder du genießt die Ruhe und den niedrigeren Strom Verbrauch.

Wenn der jetzige aber nur games zockt wo die gpu dauernd bei bei 50% load rumeiert, dann hat er ne zu dicke gpu gekauft für das Anwendungsgebiet.
 
Bitte einlesen. 🙂

Ja und nein

Abhängig von Spielen, settings.

Wenn die cpu deine gewünschte fps erreicht isses doch egal on sie limitiert.

Überschüssige gpu Leistung investiert du in höhere settings oder du genießt die Ruhe und den niedrigeren Strom Verbrauch.

Wenn der jetzige aber nur games zockt wo die gpu dauernd bei bei 50% load rumeiert, dann hat er ne zu dicke gpu gekauft für das Anwendungsgebiet.
Ich versuchs meinem Kumpel grad auszureden. Will 180€ für ein Case ausgeben aber bei der CPU sparen, dafür aber eine 4090. Hat aber nur einen 1440p Monitor.
Es ist ein trauer Spiel.
 
1440p wird eine 3080 aufwärts wahrscheinlich reichen. Aber sicher kann man auch einen 13600er mit einer 4090 paaren. Komplett falsch ist das nicht. Je nach anvisierten fps und Spieleart. Momentan ist eine 4090 einfach ziemlicher overkill für WQHD, aber komplett sinnlos auch nicht, muss jeder selber entscheiden.
 
Ich versuchs meinem Kumpel grad auszureden. Will 180€ für ein Case ausgeben aber bei der CPU sparen, dafür aber eine 4090. Hat aber nur einen 1440p Monitor.
Es ist ein trauer Spiel.
Die cpu ist doch gut?

Die 4090 wird auch in 1440p 144hz ackern ohne Ende

Kommt halt aufs game an. Gibt genug spiele die fordern genug sind in 1440p eine 3080ti unter 144fps zu drücken. Und raytracing kommt dann noch oben drauf
 
Ich versuchs meinem Kumpel grad auszureden. Will 180€ für ein Case ausgeben aber bei der CPU sparen, dafür aber eine 4090. Hat aber nur einen 1440p Monitor.
Es ist ein trauer Spiel.
er spart ja nur dann bei der cpu wenn diese nicht die nötigen fps für die gewünschten spiele bringen kann.
ansonsten passt es ja.
 
Weiß ja nicht, ich würde zu ihm sagen er sollte sie wenigstens mit einem Core i7 13700K paaren. Oder eventuell, wenn's auch AMD sein darf, ein 5800X3D. Dann könnte er eventuell den RAM behalten.
 
spart einfach arbeit so eine argumentation... aber kein geld...
 
Sind die 600 Watt nicht mittlerweile nur für bestimmte Custom Karten möglich? Soweit ich weiß sind wir mit der höheren Effizienz doch nun bei 450? oO
ich habs doch paar sätze weiter oben im gleichen posting geschrieben: gesamtsystem! also so mit cpu und monitor und co. die gesamte leistung ist am ende wärme und diese wird im raum abgegeben und steht somit zur erwärmung des raumes "zur verfügung". in einer neubaubude kann man damit locker schon räume richtig aufheizen. im alten büro kam ich so im winter locker auf 23-24°C trotz offener tür zum flur ohne aktiver heizung.

die gesamtaufnahme wird mit einer 4090 gegenüber einer 3090 sicherlich nochmal steigen...
 
Nein absolut nicht und ein Gaming Rig ohne G-Sync oder Freesync kommt für mich heutzutage nicht mehr in Frage! Das ist ein absolut krasses Feature aber hat einen andere Effekt und eliminiert in erster Linie das Springen/Ruckeln des Bildes, da die Hz und FPS synchronisiert werden. Das hat wie gesagt wenig mit der Smoothness aufgrund der Frameshöhe an sich zu tun. Schwer zu erklären, muss man einfach selbst erlebt haben.
Gsync hat mir damals echt geholfen als die Karten noch nicht wirklich ideal für 4K waren. Aber mit 45 - 60 FPS würde ich nicht mehr spielen wollen. 80-90 in RPG und 100+ in Shootern sind schon deutlich genussvoller. Die Sache ist aber auch, damals gab es nicht mal Monitore die mehr als 60 Hz schafften. Ich bin sehr früh auf 4K aufgesprungen. Jetzt ist es schon praktisch der sweet spot zumindest wenn man eine der dicksten Karten hat. Aber für was anderes sind die auch gar nicht gedacht. Wer kauft sich bitte eine 1000 € GPU für 1080p? Schon zu Zeiten der 2080 Ti war diese kaum schneller als die anderen Karten in 1080p, weil es nur noch CPU-limitiert ist. Andersherum ist der Vorsprung in 4K bei diesen dicken Karten am größten.

Kauft euch lieber eine zu dicke GPU als eine zu dicke CPU. Ich habe meine 6900 XT lange mit 60 Hz betrieben, dann CPU und Monitor. Was das betrifft kann ich jedem nur raten sich die LG OLED TVs anzuschauen. Ich würde nie wieder IPS "Gaming" für ~1 K kaufen. Ich denke es ist auch das "Gam0r"-Branding. Kein Wunder dass so viele jetzt einen TV als Monitor haben, Preis/Leistung ist deutlich besser als jeglicher "Gaming"-Monitor. Und null glow, bleeding oder Pixelfehler (was ja bei den ersten 4K100+ Standard zu sein schien). HDR (Dolby Vision) und VRR haben die auch.
Diverse Techniktests zu neuen Spielen zeigen oftmals, dass 4k Leistung ohne Ende benötigt um Richtung 100fps+ kommen zu können. Es ist einfach ein Unterschied ob man mit 50fps oder 100fps spielt. Die Smoothness sprich high fps ist m.E. nach wie vor größer als die Bildquali/Auflösung zu werten. Ein Beispiel Cyberpunk mit RT... läuft nicht mal mit DLSS smooth. Und da gibt es noch jede Menge andere Games...

Damals war die 3080 halt das nonplusultra und sicher kann man damit @4k spielen aber es gibt einfach nie genug Leistung um z.B. einen 4k Monitor mit 144Hz zu befeuern und die maximalen frames dazu rauszuholen.
Cyberpunk hat "psycho" Settings die jede GPU in die Knie bringen. So war es auch bei Witcher: Hairworks on macht optisch null Unterschied, zieht aber selbst auf einer 2080 Ti die FPS von 90 auf unter 60. Also mache ich es lieber aus, da es auch ohne gut aussieht und die flüssigen FPS am Ende besser sind. Cyberpunk lief auf einer 6900 XT mit einer Mischung aus Hoch und Ultra problemlos in 4K. 100+ FPS wird man hier auch auf einer 3090 Ti nicht in 4K sehen, erst recht nicht mit RT on. Das wird auch die 4090 nicht schaffen. Aber es muss auch nicht immer alles auf Anschlag stehen, gerade wenn es ein sehr gut aussehendes Spiel ist. Hoch und Ultra macht vielmals überhaupt keinen Unterschied in der Optik.
 
Bin ich gerade Blind oder sind die Asus Strix 4090er von NBB verschwunden?
Ja, schon vor ein Paar Stunden. Die standen sogar mit Status "lieferbar ab Lager" aber bestellen konnte man sie nicht. Dann plötzlich "Ups.....Artikel nicht mehr im Sortiment". Vermutlich haben Mitarbeiter zugeschlagen, haha.
 
Erst wollte sie keiner haben, jetzt wollen doch wieder alle 😅
 
Roman hat geliefert...


meine fresse, die haben maßlos übertrieben. fragt sich nur, wie man das mit einer wakü macht. es gibt keine kühler und weis auch nicht, welche karte jemals nen kühler bekommt. wartet man bis zum wasserkühler, ist die karte absolut ausverkauft. allerdings sind über 2k auch eine stolze summe...
 
Ja, schon vor ein Paar Stunden. Die standen sogar mit Status "lieferbar ab Lager" aber bestellen konnte man sie nicht. Dann plötzlich "Ups.....Artikel nicht mehr im Sortiment". Vermutlich haben Mitarbeiter zugeschlagen, haha.
Wird garantiert morgen rechtzeitig wieder auf der Seite erscheinen..
 
bei caseking sind 2 asus karten ab morgen lieferbar. das sollte wohl auch klappen für den interessierten käufer
 
bei caseking sind 2 asus karten ab morgen lieferbar. das sollte wohl auch klappen für den interessierten käufer
Ich hoffe Du meinst 2 Modelle von Asus mehrfach verfügbar. 😅
🙏
 
Roman hat geliefert...

meine fresse, die haben maßlos übertrieben. fragt sich nur, wie man das mit einer wakü macht. es gibt keine kühler und weis auch nicht, welche karte jemals nen kühler bekommt. wartet man bis zum wasserkühler, ist die karte absolut ausverkauft. allerdings sind über 2k auch eine stolze summe...

Ja, mit dem Diagramm hat er so viele Fragen geklärt und auch völlig richtig als Fazit gezogen das man die Karte am besten mit 70-80% Power Target betreibt. Top!

PowerTarget.jpg


Aus Wakü Sicht halt direkt die Inno3D Frostbite mit dem Alphacool Block. Alternativ wird es für Asus TUF und Strix auch Kühler geben. Kann aber noch etwas dauern.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh