[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

zumal das auch auf optimisierung beruht, was RDR2 nach dem was ich zum PC launch gesehen habe wohl nicht wirklich hat oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Jo da brauchst wohlmöglich ne RTX4090 für konstant über 60 FPS Maxout 4K bei RDR2.

Und genau da ist das Problem, denn es wird immer Spiele geben die auf dem aktuellen Topmodell nicht in maximalen Einstellungen laufen. Ich weiß noch wo ich die 1080 Ti gekauft hatte wurde sie von NVIDIA auf deren Seite als die "erste 60-FPS-4K-GPU" beworben. Das stimmte damals auch größtenteils. Ich denke aber, dass auch das kommende Flaggschiff nicht auf 60 FPS in Mass Effect Andromeda kommen wird. Die 2080 Ti hat da Min-FPS um die 20. Das liegt aber sicher nicht an der Grafikkarte, sondern an unfähigen Entwicklern.
 
Jup das stimmt bei RDR2 hab ich halt an Paar Reglern gestellt so das es super ausieht aber so gut wie immer in 60 FPS läuft @4K.
Viele Regler haben maximum kaum Einfluss auf die Optik bzw. muss man schon sehr genau hinschauen um einen Unterschied auszumachen kosten aber irre viel Performance .

 
Zuletzt bearbeitet:
RDR2 ist super mies optimiert. Das Game stürzt immer noch teilweise ab wenn man im Menü Settings verstellt, raustabben auf multimonitor setups killt das game des öfteren mal komplett, usw. Und das Anderthalb Jahre nach Release... Es sieht gut aus, aber die Performance steht in keinem Verhältnis zum gebotenen - für mich ist das Spiel ein ganz reudiger Konsolen Port.

Grade dennoch mal den Benchmark in 4k mit Settings auf Anschlag laufen lassen:

Min fps: 20,6
Avg fps: 38,35
Max fps: 60,1 (Vsync)

Das auf ner 2080TI mit moderatem OC. Also um das auf stabile 60fps zu bekommen, wird auch die nächste Generation nie und nimmer reichen. Das liegt aber imho eher an der miserablen Umsetzung.

Wenn man das OC noch mit paar prozent rausrechnet müsste man allein für die Avg FPS gute 60-70% Prozent Netto Mehrleistung aufbringen zur 2080TI und dann wirds immer noch drops geben.
 
Abstürze hab ich bei RDR2 keine gehabt auch mit leichten OC 2010/8000 nicht.
Und ja schrieb ja da wird man wohl min eine RTX 4090 brauchen .
 
ist mir auch so gut wie ne Abgestürzt auch mit OC nicht. 2 Abstürze in 50h
 
Zum Release war das Spiel eine Vollkatastrophe und selbst heute gibt es noch genügend Bugs... ja wenn man drin ist, läuft es - mittlerweile - relativ stabil. Aber von Optimierung zu reden, wäre wohl etwas viel des guten. Allein beim umstellen der Auflösung hängt sich gerne mal alles auf, erst heute wieder erlebt, weil das Game aus unerfindlichen Gründen auf nem anderen Monitor gestartet ist. Passiert auch nur bei RDR2, sind alles Features und ein Zeichen qualitativ hochwertiger Implementierung.

Der springende Punkt ist: Ich würde RDR2 nicht als Referenz/Maßstab für Leistungsbedarf nehmen, da es einfach per se schlecht umgesetzt ist auf dem PC.
 
Min fps: 20,6
Avg fps: 38,35
Max fps: 60,1 (Vsync)

Vielleicht solltest Du mal vsync ausschalten, dann hast Du auch bessere Ergebnisse. Benchen mit vsync ist ein Tabu und wenn die Grafikkarte nicht min. 60 fps schafft, sollte man es auch auslassen...
 
Vielleicht solltest Du mal vsync ausschalten, dann hast Du auch bessere Ergebnisse. Benchen mit vsync ist ein Tabu und wenn die Grafikkarte nicht min. 60 fps schafft, sollte man es auch auslassen...
Fair enough bezüglich Vsync und benchen - In dem Fall wars aber wirklich egal, da es kaum über 60fps kommt. Gerade nen Run ohne Vsync gemacht, Min und Avg sind fast unverändert. (Avg waren 38,39fps)
 
Dann hast Du Vsync mit Gsync oder Freesync an. Wenn Du nur Vsync ohne Gsync/Freesync verwendest und die 60 fps nicht erreicht werden, dann werden die FPS auf 30 fps synchronisiert, so dass kein Tearing entsteht. Dadurch werden beim Benchen die Werte drastisch verändert. Allgemein lässt man beim benchen aber alle Synchronisierungen ausgeschaltet.
 
Es war alles aus im zweiten run - der Max wert lag in dem Durchgang auch bei 122fps. Meine Aussage bezog sich eher darauf, dass es nur sehr punktuell in Form eines kurzen Peaks über 60fps geht und dadurch das Ergebnis kaum verändert hat. Ansonsten nutze ich vsync + gysnc, was im ersten run auch an war.
 
Mein erster Satz bezog sich natürlich auf deinen ersten Run, als Du vsync anhattest. Sonst hättest Du nicht beinahe identische Werte ohne vsync gehabt.
 
dann werden die FPS auf 30 fps synchronisiert, so dass kein Tearing entsteht
Ist das so? Wird zweimal das gleiche Bild angezeigt bei V-Sync? Ich kenne es nur, dass bei mehr als 60fps limitiert wird damit es nicht drüber geht.
 
Weitere Quelle spricht von Sampling ab Ende August und Release im September:
 
Die Specs beim Ram wären voll Käse 10 GB oder aber 24 nix dazwischen wäre voll murx.
 
Ich finde 12GB angebrachter.
 
Bei den specs blieben der 3080 eigentlich nur takt und ipc um überhaupt nennenswerte Vorsprünge zu einer 2080TI aufzubauen. Ich glaube die 3080 non TI wird am Ende unwesentlich schneller bzw gleichauf sein mit der OC'ed 2080ti was die rohleistung angeht.(wenn sie so kommt)

Könnte mir sehr gut Vorstellen, dass die wesentlichen Optimierungen im Bereich RTX liegen werden. Hier würde ich auch mit größeren Sprüngen rechnen, zumal über die tensor cores noch keiner was gesagt hat
 
As such, the die size will likely increase and the GPU’s will be less power efficient compared to existing Turing GPUs

Ernsthaft? Wenn das so kommen sollte, und AMD dieses Jahr (wie angekündigt) tatsächlich noch mal 50% mehr Effizienz rausholen könnte, dann müsste ich viele meiner getätigten Spekulationen revidieren o_O :unsure:

Das wäre alles irgendwo zu schön um wahr zu sein. Ich fände es zwar sehr bescheiden wenn Nvidia keinen Schritt nach vorn machen kann, aber wenn AMD diese Gelegenheit nutzt um auch im GPU Bereich auf-/überholen zu können, wäre das schon toll.
 
Ich glaub immer noch das die 3090 12GB bekommt und Titan 24.
Beitrag automatisch zusammengeführt:

Ernsthaft? Wenn das so kommen sollte, und AMD dieses Jahr (wie angekündigt) tatsächlich noch mal 50% mehr Effizienz rausholen könnte, dann müsste ich viele meiner getätigten Spekulationen revidieren o_O :unsure:

Das wäre alles irgendwo zu schön um wahr zu sein. Ich fände es zwar sehr bescheiden wenn Nvidia keinen Schritt nach vorn machen kann, aber wenn AMD diese Gelegenheit nutzt um auch im GPU Bereich auf-/überholen zu können, wäre das schon toll.
Sagen wir ja seit Tagen das es nach dfn Infos bisher klappen könnte ...aber ich versteh auch die Zurückhaltung da es lange Zeit nix Konkurrenzfähiges gab hoch oben im Regal.
Es wäre auf jeden Fall zu wünschen das es klappt.
 
Für ne 3090 wären 12GB schwach.
 
Da kommen die Konsolen halt wieder ins Spiel. Die werden beim nutzbaren vram auch irgendwo in dem Bereich liegen. Daher kann ich mir das durchaus vorstellen. Zumal es in absehbarer Zeit durch 12gb vram keine absehbaren Einschränkungen geben sollte.
 
Nicht umsonst, hat ja Nvidia vor Hopper schon früh nächstes Jahr zu bringen.
 
Da kommen die Konsolen halt wieder ins Spiel. Die werden beim nutzbaren vram auch irgendwo in dem Bereich liegen. Daher kann ich mir das durchaus vorstellen. Zumal es in absehbarer Zeit durch 12gb vram keine absehbaren Einschränkungen geben sollte.
Der Vergleich geht nur nicht auf da viele PC Games nur Konsolenpots sind und somit mehr Verbrauchen können als nötig.

Vorallem beim 4K.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh