Speicherhunger in Zukunft für Grafikkarten.

n3cron

Enthusiast
Thread Starter
Mitglied seit
13.05.2020
Beiträge
6.371
Ort
DE - BY - MILF
Hallo Zusammen,

ich hab was interessantes gefunden:

AC Valhalla zieht in FULL HD auf Ultra schon knapp 6 GB RAM.

Assassin's Creed Valhalla Screenshot 2020.12.08 - 17.48.25.03.png

Beitrag automatisch zusammengeführt:

Screenshot 2020-12-08 184115.png
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
sehr spannend, stimme ich zu!
 
Hallo Zusammen,

ich hab was interessantes gefunden:

AC Valhalla zieht in FULL HD auf Ultra schon knapp 6 GB RAM.
Hm, warum hast du Anti Aliasing auf hoch, das kannst mit 4K (2160p) ausschalten.
Bei der Auflösung 3840x2160 sind TreppenStufen Effekte komplett nicht Sichtbar, falls doch bist du so nahe am Bildschirm, dass du mal zum Optiker gehen solltest.

MfG

P.S. wie sieht es mit HDR aus 12Bit + Farbtiefe?
 
Gibt shon ein Grund warum ich eine mit 16GB will - wow, die 10 schon voll, ging schneller als ich selbst wahrhaben wollte.

Erinner mich gut an meine geforce 760 mit 2gb, die mit 4 hätte länger durchgehalten. Klar im Hier und jetzt sind 8 noch super, aber ja, siehe Screenshot, schon will man eine 16GB haben.
 
Speicherhunger gut und schön, aber du hast da 8k und AA hoch mit drinne. Dafür reicht auch die Rohleistung der 3090 nicht!
Hab bei AC:V bei 4k und AA mittel etwa 7GB.
 
Speicherhunger gut und schön, aber du hast da 8k und AA hoch mit drinne. Dafür reicht auch die Rohleistung der 3090 nicht!
Hab bei AC:V bei 4k und AA mittel etwa 7GB.
What, auch noch Downsampling?

Die wahre Dia-show...
 
Wenn du sau teuere Hardware kaufst und sie schon bei Kauf leicht zurück geblieben ist.

Ich meine früher hast du High-End gekauft und warst um längen voraus. Kein Game hatte die Hardware über seine Grenzen gebracht. (Crysis damals war eine Ausnahme)
 
Hm, warum hast du Anti Aliasing auf hoch, das kannst mit 4K (2160p) ausschalten.
Bei der Auflösung 3840x2160 sind TreppenStufen Effekte komplett nicht Sichtbar, falls doch bist du so nahe am Bildschirm, dass du mal zum Optiker gehen solltest.
Stimmt nicht, hängt von der Engine ab. Meistens kann man bei 4K aber eher darauf verzichten wenn die Leistung nicht reicht.
Gibt shon ein Grund warum ich eine mit 16GB will - wow, die 10 schon voll, ging schneller als ich selbst wahrhaben wollte.

Erinner mich gut an meine geforce 760 mit 2gb, die mit 4 hätte länger durchgehalten. Klar im Hier und jetzt sind 8 noch super, aber ja, siehe Screenshot, schon will man eine 16GB haben.
Das habe ich schon oft genug gepredigt, aber manche Leute verstehen es einfach nicht. 8 GB sind für die Mittelklasse (bis 300 €) noch verkraftbar (obwohl es die hier schon 2016 in der Preisklasse gab). Alles was darüber liegt ist die reinste Abzocke. Wenn ich mir jetzt eine neue Karte über 500 € kaufen würde würde ich die gerne schon 1 -2 Jahre nutzen können ohne dass der VRAM schon jetzt dauernd voll ist.

Übrigens zieht auch 1080p mittlerweile mehr, da die Texturen in den neuen Spielen schon besser sind. Und das wird auch anhalten, denn es bringt viel optischen Fortschritt ohne Leistung zu kosten, sofern die Karten den erforderlichen VRAM dafür haben.
Wenn du sau teuere Hardware kaufst und sie schon bei Kauf leicht zurück geblieben ist.

Ich meine früher hast du High-End gekauft und warst um längen voraus. Kein Game hatte die Hardware über seine Grenzen gebracht. (Crysis damals war eine Ausnahme)
Früher waren die Karten irgendwie langlebiger und darüber hinaus günstiger. Die guten Zeiten sind wohl nun vorbei. Die 6000er zum UVP erfüllen prinzipiell meine Erwartungen, billig sind die aber nicht.
 
Mein Fazit ist, die 3080 ist eher eine High-END WQHD Grafikkarte und schafft in machen Spielen mit Taschenspielertricks 4K, aber nur wenn das Spiel es darauf auslegen wird.
Cyberpunk @4K DLSS2.0 und RTX mit gerade mal nicht mal 60fps

1607458276446.png

1607458413200.png



Die Preview Benchmarks sprechen für sich, ja mag sein das durch weitere Optimierungne und Day-0 Treiber Patch noch ein bisschen drauf kommt an Leistung, aber rly?
Ich hab die Karte frisch gekauft und krieg nicht mal für das Game was quasi schon hätte gelauncht werden sollen 4k@60FPS.
 
Ich hab die Karte frisch gekauft und krieg nicht mal für das Game was quasi schon hätte gelauncht werden sollen 4k@60FPS.
Hat auch niemand behauptet, die 30xx sind was P/L angeht einfach mies, Verfügbarkeit mies und 4K mit entsprechend Details braucht eben Leistung, die momenten in dieser Form noch nicht immer entsprechend zur Verfügung gestellt werden kann.
 
What, auch noch Downsampling?
Ja, die Zahl hinter der Auflösung ist da ein Ingame-Multiplikator.





Und die Aussage, dass kein Game die aktuelle Luxushardware ausgenutzt hat, ist auch vollkommen Quatsch. Ja, die Spiele heute sind immer schlechter optimiert. Aber auch damals gab es schon Spiele, welche erst 1-2 GPU-Generationen später richtig ausgenutzt wurde. Da kommt es halt auf die Auflösung und sonstige Spielereien drauf an, da darf man die aktuellen Möglichkeiten auch nicht vergessen. Viele Sachen gab es damals einfach noch nicht und an 4k und noch mehr hat man eventuell gedacht, mehr aber auch nicht.
Aber hier im aktuellen Fall von "Speicherhunger" zu reden, bei 8k+ max AA und dann 10/10GB ist dann doch nicht hilfreich.
Das ist in etwa so, als hätte man Doom 3 in FHD +DS gebencht. Dazu gab es auch keine vernünftige Hardware :)
 
1607459688495.png


Wo sind sie denn die Blockbuster Games für 8k :P

Ich glaube Nvidia hat sich die Generation wieder selbst am Stuhlbein angesägt.

Wenn die 3090 schon der Einstieg in 8K ist, damit das High-End in 4K darstellt. Dann müsste die 3080 zumindest die Mittelklasse variante für 4K sein... die 3070 wäre dann 4k Einstiegsklasse.

Also ich bin nicht grundsätzlich von der Hardware Performance enttäuscht zumindest in FULL HD/WQHD, aber das Marketing im Zusammenspiel mit alten Titeln wo dann die Karte plötzlich doppelte oder annähernd doppelte FPS hat im vergleich zur Generation davor hat.... aber bei aktuellen/neuen Titeln scheint die Performance auf 2xxx Serie in ähnlichen Szenarien.

Was damals eine 2080 nur mit 60-70FPS in WQHD auf Ultra geschafft hatte, macht es heute bei modernen Titeln die 3080 in etwa.

Also Vorsprung durch Technik ist das nicht so ganz. Ich hoffe die Treiber werden noch besser....sonst krieg Nvidia ne Lederjacke ausgestopft mit Nerzfell 😅
Beitrag automatisch zusammengeführt:

Speicherhunger gut und schön, aber du hast da 8k und AA hoch mit drinne. Dafür reicht auch die Rohleistung der 3090 nicht!
Hab bei AC:V bei 4k und AA mittel etwa 7GB.
Rechne die FULL HD x2 (WQHD), schon wäre das Game Over für die Karte. Klar aktuell steigt das mit höheren Auflösungen nicht viel weiter nach oben aber in naher Zukunft nicht undenkbar.
 
Zuletzt bearbeitet:
Ich sehe hier einfach nur Weinerkommentare. Wenn dir deine RTX 3080 nicht gefällt verkauf sie einfach und kauf dir eine RTX 3090, es zwingt dich niemand zu der 3080 und du kannst sogar Scalper Preise erzielen mit der ungeliebten Karte, sodass du unterm Strich mit Gewinn raus gehst. In spielbaren Settings bringt der Speicher in 39 von 40 Games keinerlei Vorteil und in dem einen Game kann man mit einer 3080 die Texturdetails eine Stufe reduzieren. Der Screenshot mit 8K AA ist einfach nur lächerlich.

Die meisten Spieler im hier und jetzt haben einen FHD oder WQHD Monitor mit 144Hz und da steht die 3080 der 3090 nur um rund 10% nach. Ich würde z.B. liebend gern auf 4K 144Hz umsteigen, aber es gibt auch heute keine anständigen Monitore überhalb von 60Hz - nur irgendwelche Machbarkeitsstudien mit Lüftern, Chroma Subsampling und für 1000€+ das Stück sowie die LG OLED TVs mit Flackern wegen unvollständigem VRR und Einbrenngefahr bei Desktopnutzung. 4K ist selbst bei Enthusiasten noch eine Nische.
 
Zuletzt bearbeitet:
Ist der der nächste mimimi Thread?
Erst: mimimi nix ist kaufbar
Dann: mimimi alles zu teuer
Und nachdem ihr diese beiden Mimimis hinter euch habt kommt jetzt: Mimimi alles zu langsam?

Ist das euer Ernst? :eek:
 
und weil sie in full hd 6gb saugt sin das in 4k dann 20?

ich spiele in 3440x1440 und es sind weiterin nur 5-7 gb

ACValhalla_2020_12_06_14_24_38_814.jpg

und downsampling + AA nutzen.... was erwartest du? :d
 
Ist der der nächste mimimi Thread?
Erst: mimimi nix ist kaufbar
Dann: mimimi alles zu teuer
Und nachdem ihr diese beiden Mimimis hinter euch habt kommt jetzt: Mimimi alles zu langsam?

Ist das euer Ernst? :eek:

Nein nicht grundsätzlich mimi, die Karte hat doch solide Performance nur überschattet der Hype übers Marketing, nüchtern betrachtet für Last Gen Titel und current Gen, wird es wohl reichen. Wie sieht es in 2 Jahren aus? Nur ausgehend von WQHD resolution, dabei wollte ich nur zeigen das jetzt schon die Luft raus ist.
und weil sie in full hd 6gb saugt sin das in 4k dann 20?

ich spiele in 3440x1440 und es sind weiterin nur 5-7 gb
Wie sieht es in 2 Jahren aus? Nur ausgehend von WQHD resolution, dabei wollte ich nur zeigen das jetzt schon die Luft raus ist/ seien könnte.
 
wie viel haben die konsolen? mehr wirds nicht würd ich sagen

die karten können nicht mal 4k anständig wie man an cb jetzt sieht. 8k ist reines marketing geblubber von nvidia.
 
Wie sieht es in 2 Jahren aus? Nur ausgehend von WQHD resolution, dabei wollte ich nur zeigen das jetzt schon die Luft raus ist/ seien könnte.
Da steht dann die nächste Generation in den Startlöchern mit gerade so ausreichend RAM, aber wer weiß? Möglicherweise gibt es bis dahin tolle Techniken, die die absolute RAM-Menge eher vernachlässigbar macht, weil das Interface oder was auch immer so rasant ist? Hat mit HBM ja auch geklappt, da brauchte es garnicht die Masse an RAM.

Aber auch hier gilt: In zwei Jahren kann viel passieren. Und neue Hardware wird es sicherlich auch immer geben. Und für Spiele der nächsten Generation kann diese Generation an GPUs auch schon deutlich schlechter werden (auch hier das Stichwort neue Technologie wie z.B. RT oder was auch als nächtes kommt).


Nichts für ungut, ich bin auch der Meinung, dass der aktuelle NVdia-Ram knapp bei Kante genäht ist. Aber auf dem derzeitigen Stand funktioniert alles, wie es soll und die 10GB limitieren nicht in solchen künstlichen Situationen und auch das muss erstmal bewiesen werden. In deinem Szenario aus dem Startpost mangelt es nämlich in erster Linie an Rohleistung und nicht an Speicher.
Und wenn das wem wirklich extrem wichtig ist, den sollten die 500€ mehr für eine 3090 (oder auch gerne eine RX6000) auch nicht stören. Für FHD und WHD reichen die 10GB locker bei 95% aller derzeit verfügbaren Titel. Wenn du da aber eine sinnvolle Behauptung aufstellst, wo das nicht reicht, gerne her damit! Aber bitte realistisch bleiben.
 
Man muss das ein hardcore fanboy sein um in 8k zu benchen damit ja die 10gb vram nicht mehr reichen absolut lächerlich warum sowas offen gelassen wird ist mir schleierhaft.,
 
Nichts für ungut, ich bin auch der Meinung, dass der aktuelle NVdia-Ram knapp bei Kante genäht ist. Aber auf dem derzeitigen Stand funktioniert alles, wie es soll und die 10GB limitieren nicht in solchen künstlichen Situationen und auch das muss erstmal bewiesen werden
Ja Speicherhunger ist eine Sache, die Performance ist ne andere. Klar sind die Karten schneller als die Vorgänger zumindest in älteren Spielen die Performance ist schon echt Super. Aber bei den neuen bin ich etwas skeptisch. Die Performance im Cyberpunkpreview macht mich auch etwas stutzig und ja AC Valhalla läuft mit angepassten Einstellungen auch schon rund und sieht gut aus.

Auch die Leistung in in Watchdogs ist verhältnismäßig dünn. Bei vollen RTX kann ich das verstehen, aber die Leistung ohne DLSS ist schon echt mies und das auch schon in WQHD :
1607537895385.png

Quelle: tom's Hardware (Google suche)

Irgendwie sagt mir das wohl die Treiber doch noch nicht so rund laufen wie sie sollten.

Der Treiber ändert sich ja alle paar Wochen und es kommt noch Nachbesserung rein.

1607538117550.png

Quelle: https://www.neogamr.net/rtx-3080-vs-rtx-2080-ti/

Wenn ich daran denke wie knapp die 2080TI hinter der 3080 ist, obwohl die 3080 doppelte Cores hat und 10 Millionen mehr Transistoren hat.
Das sieht mit Sicherheit mit RTX und DLSS bei anderen spielen möglicherweise anders aus.

Dennoch sollte die Basis Leistung ohne Tensor Cores weit aus höher sein.
 
Wahnsinn, ganze 10 MILLIONEN :-O (ironic)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh