GeForce RTX 3080 mit 10 GB, GeForce RTX 3090 mit satten 24 GB GDDR6

Ich hab keinen Highend Rechner um auf nen winzigen Monitor zu spielen, sondern um meine 5120x1440 zu füttern.Wenn man das so haben will brauch man halt "Dampf" in der Hütte und Speicher sowie Vram.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Häh ? Du warst doch eben noch der 4K Vorkämpfer, was denn nun ?

War ich nirgends - aber Du kannst gerne alles möglich reininterpretieren. Ich habe lediglich widerlegt das mit einer 1070 kein 4k möglich wäre. Ich bin aber nicht gewillt die niedrigeren FPS in Kauf zu nehmen. Ruckeln muss man dennoch provozieren. Ich nutze 4k nur auf meinem TV der per HDMI ebenfalls am PC hängt um gelegentlich mal was auf dem TV abzuspielen und aus purem Interesse mal kurz zu gucken "was möglich wäre".
 
Ich verstehe es auch nicht, es hieß doch erst noch 6GB reichen locker für 4K Gaming :hmm:

Zumindest haben wir diese Auflösung als Grundlage genommen.
 
Ich hab keinen Highend Rechner um auf nen winzigen Monitor zu spielen, sondern um meine 5120x1440 zu füttern.Wenn man das so haben will brauch man halt "Dampf" in der Hütte und Speicher sowie Vram.

Das bleibt auch jedem natürlich überlassen. Ich empfinde 24,5" keinesfalls als winzig sondern als Sweetspot. Ich finde es nur schier unerträglich mit welcher Selbstverständlichkeit hier suggeriert wird das 8GByte neuerdings LowEnd seien.
 
Disskussion beendet, das ist nurnoch lächerlich..
Beitrag automatisch zusammengeführt:

Ich hab keinen Highend Rechner um auf nen winzigen Monitor zu spielen, sondern um meine 5120x1440 zu füttern.Wenn man das so haben will brauch man halt "Dampf" in der Hütte und Speicher sowie Vram.

Hab zwar nur WQHD aber der WEchsel von 24 auf 32 Zoll war die beste PC Investition der letzten 15 Jahre ! Einfach viel mehr Immersion.
 
Ich verstehe es auch nicht, es hieß doch erst noch 6GB reichen locker für 4K Gaming :hmm:

Zumindest haben wir diese Auflösung als Grundlage genommen.

1. Habe ich nirgends behauptet. Ich sagte - für Dich zum dritten Mal! - 6 GByte hat der Standard Käufer in einer MidRange Karte.

2. Genau "Ihr" habt das einfach mal vorrausgesetzt. Wo im Artikel und der Überschrift steht das es hier um 4k geht?
 
FullHD ist immer noch die gängige Auflösung. Wer schon meint er müsse bereits in den Kinderschuhen des 4k Gamings Geld in Hardware investieren die noch in den Kinderschuhen steckt - bitte. Kann man machen - dann darf man jedoch nicht rumjammern wenn man keine 120FPS erreicht.

Ich warte gerne noch 4 Jahre und investiere dann einen Bruchteil des Geldes in einen 4k Monitor der 240Hz schafft und einer MidRange Karte die mit einer heutigen 2080Ti den Boden aufwischt. Für die WQHD Zwischenlösung ist mir mein Geld zu schade.
Sorry ich wollte dich nicht doof anmachen oder so aber ok 1080P da sind 8Gb schon noch ok. :-)
aber 1080p ist schon echt fast ne gameboy Auflösung.... :fresse:
Ich habe 1440P schon vor knapp 10Jahren gehabt und 4K habe ich seit dem es den Philips Momentum gibt welcher echt günstig ist.
1440p würde ich schon als standart Auflösung ansehen und da kann es mit 8GB schon teilweise knapp werden.
man sollte das eher anders vorformulieren.
Für die 1070 sind 8GB mehr als ausreichend aber bei einer Karte die so viel Leistung wie einer RTX3080 oder RTX3090 hat braucht man auch viel mehr VRAM da die karten viel höhere Auflösungen berechnen können

Wie gesagt ich habe das auch eher auf 4K Auflösung bezogen deshalb entschuldige ich mich dafür 😉
 
Hab zwar nur WQHD aber der WEchsel von 24 auf 32 Zoll war die beste PC Investition der letzten 15 Jahre ! Einfach viel mehr Immersion.

Schön für Dich - gut das Geschmäcker verschieden sind. Freie Marktwirtschaft und so.
Beitrag automatisch zusammengeführt:

Sorry ich wollte dich nicht doof anmachen oder so aber ok 1080P da sind 8Gb schon noch ok.

1440p würde ich schon als standart Auflösung ansehen und da kann es mit 8GB schon teilweise knapp werden.

Für die 1070 sind 8GB mehr als ausreichend aber bei einer Karte die so viel Leistung wie einer RTX3080 oder RTX3090 hat braucht man auch viel mehr VRAM da die karten viel höhere Auflösungen berechnen können

1. Alles gut. :) Ich freue mich ja wenn jemand noch die Netiquette beherrscht.

2. Knapp aber halt auch nicht unmöglich.

3. Natürlich - aber ob nun 10,11 oder 12 macht nun wirklich diese allgemeine Hysterie dieser Tage nicht nachvollziehbar. Wer es braucht muss dann halt die 3090 nehmen. Aber - machen wir uns nix vor - das ist die absolute Luxusminderheit.
 
Ja aber was man im hinterkopf haben muss ist das immer wenn eine neue konsolengeneration kam der VRAM bedarf im PC explodiert ist.
PS5 & Xbox Series X stehen aktuell kurz vor dem Release 😉

EDIT: habe meine Posts mal gelöscht 😉
 
Viele die hier von Investition sprechen. Eine Grafikkarte kaufen kann vieles sein aber sicher keine Investition. Wird sie beruflich verwendet, dann kann man davon sprechen aber fürs Gaming ist das eine einfache Anschaffung und kein Invest.
 
Ja aber was man im hinterkopf haben muss ist das immer wenn eine neue konsolengeneration kam der VRAM bedarf im PC explodiert ist.

Ich sag mal so - ich werde noch 2020 auf ein Ryzen System umsteigen - ich warte noch das Jahresende ab was AMD noch bringt und ob Intel ggf. noch PCIe 4 im Desktop nachschiebt. Gleichzeitig warte ich BigNavi ab um endgültig zu entscheiden - ich denke aber das es auf eine 3070 hinausläuft - und dann kommt es für mich auf die allg. Performance an - und nicht darauf ob es dann 8 oder 10 GB VRAM sein werden.
 
Häh ? Du warst doch eben noch der 4K Vorkämpfer, was denn nun ?

Ich nutze die Auflösung bereits seit Mitte 2015 standardmäßig. Damals war das noch echte Pioniersache, kaum eine Anwendung skalierte ordentlich und seit Windows 10 geht es wesentlich angenehmer. Die Karten waren damals auch nicht so toll. Bei den Zoll gebe ich dir recht, 27" wären für mich auch schon ein Downgrade von den derzeit 32" am Desktop. Leider ist die Auswahl da noch begrenzt, aber derzeit juckt 4K mit 100+ Hz mangels passender Grafikkarte ohnehin nicht besonders.

Viele die hier von Investition sprechen. Eine Grafikkarte kaufen kann vieles sein aber sicher keine Investition. Wird sie beruflich verwendet, dann kann man davon sprechen aber fürs Gaming ist das eine einfache Anschaffung und kein Invest.

Weil es eine ist. Ich habe mein halbes Leben mit Schrottgrafikkarten verbracht, immer nur das unterste was an iGPUs und Officekarten gerade in den PCs verbaut war. Dann hatte ich eine Laptopphase, wo die Karten auch nie besonders gut waren, bis ich endlich auf Desktop-PCs gewechselt bin und seitdem nur noch High-End kaufe. Die paar tausend (oder zehntausend) Gaming- und Nutzungsstunden die (in meinem Fall) zwischen den Karten liegen machen so eine Investition erst sinnvoll. Allerdings besitze ich keine Gelddruckmaschine und sehe auch nicht ein NVIDIAs inzwischen völlig abgehobenen Preise zu zahlen. Die letzten Jahre waren dagegen ein Verwöhnprogramm, jedes mal gab es das Topmodell für unter 1000 € und man hatte drei Jahre komplett Ruhe. Für 600-800 (Euro Endpreis) würde ich nicht einmal über 12 GB bei der 3080 Ti jammern, hauptsache Mehrleistung und wenn der VRAM kleiner ist dann darf auch der Preis entsprechend kleiner sein.
 
Disskussion beendet, das ist nurnoch lächerlich..
Beitrag automatisch zusammengeführt:



Hab zwar nur WQHD aber der WEchsel von 24 auf 32 Zoll war die beste PC Investition der letzten 15 Jahre ! Einfach viel mehr Immersion.
Ich muss dazu sagen ich bin von damals 24" auf 30" WQHD, dann auf 32"WQHD.
Wo letztes Jahr der c49rg94ssu rausgekommen ist habe ich quasi erst auf 32:9 gewechselt und wollte dieses Format zuerst garnicht, aber bei den 21:9 war nix brauchbares für mich bei.

Man gewöhnt sich so schnell dran, ob nun zocken oder arbeiten, ich will es nicht mehr missen.

Nachteil es brauch halt massiv Graka Leistung, macht aber halt Mega Laune.
 
Die Radeon 7 hatte auch viel zu wenig Leistung irgendwo zwischen 2070 bis 2080 da helfen einem die 16GB auch nicht weiter!

Leute wie du verstehen nicht, dass scharfe Texturen nicht Rohleistung, sondern VRAM brauchen. Konkret: Texturen auf Ultra, alles andere auf Medium... Das geht und ist sinnvoll. Daher: man kann nie genug VRAM haben.
 
Sehr dünnes Eis
 
Bei VRAM zählt für mich.
Haben ist besser als Brauchen.
Texturen bringen bildlich einfach verdammt viel und kosten nahezu nichts nur VRAM
Sieht man sehr deutlich wenn man mal Spiele wie Skyrim,Fallout, Witcher 3, Crysis und co moddet.
Man hat quasi die gleichen FPS bei viel besserer Grafik dank hochaufgelöster Texturen
 
Leute wie du verstehen nicht, dass scharfe Texturen nicht Rohleistung, sondern VRAM brauchen. Konkret: Texturen auf Ultra, alles andere auf Medium... Das geht und ist sinnvoll. Daher: man kann nie genug VRAM haben.
Ich hab nirgends geschrieben das Texturen Leistung kosten sollen oder keine Kosten !
Was bringen mir die Tollsten Texturen wen ich den Rest komplett runter drehe in 4K .Schatten Spieglungen Rauch usw. gehören genauso zu einem tollen Atmosphäre dreht man das zu weit runter kann ich mich am Bild auch nicht erfreuen!
Ich bin auch ein Freund von Ultra Texturen ich passe auch Settings an aber ab einem gewissen Punkt ist das Ergebnis dann einfach unbefriedigend und es fehlt Leistung!
Wäre die Radeon 7 auf 2080Ti Level gewesen hätte ich sofort die 16GB von AMD in Anspruch genommen.
Der Abstand von den Karten ist bei manchen spielen aber eklatant!
 
Leute wie du verstehen nicht, dass scharfe Texturen nicht Rohleistung, sondern VRAM brauchen. Konkret: Texturen auf Ultra, alles andere auf Medium... Das geht und ist sinnvoll. Daher: man kann nie genug VRAM haben.

Das ist richtig oder eher so: Ist mehr VRAM der Standard, können Entwickler auch entsprechend knackschärfere Texturen einbringen. Die Texturen sind mit das Wichtigste ein möglichst photorealistisches Bild zu erzeugen, das Shading und Postprocessing was danach kommt ist da mehr wie das i-Tüpfelchen. Bis auf den Speicherverbrauch sind Texturen zudem sehr günstig zu berechnen, da sie praktisch keine Leistung kosten solange der Speicher nicht voll ist. Und in jenem Fall sinkt die Leistung dann auch nur, weil die Texturen nachgeladen werden müssen.

Bei der Radeon VII hat man sehr gut gesehen wie weit die alte Architektur am Ende war, 4096 Shader werden selbst von 2560 Shadern der eigenen neuen Architektur überrumpelt... Immerhin ist AMD auf einem guten Weg. Die Gewinne aus dem CPU-Sektor sollten auch ihren Teil dazu beitragen, gerade auch in Hinsicht auf kommende MCM-basierte Architekturen. Wenn AMD es richtig anstellt könnten sie in diesem Jahrzehnt wieder die Oberhand gewinnen.
 
Ich habe eigentlich auf eine 3080Ti spekuliert. Als 1080Ti Besitzer kommt eine 3080 non Ti mit 10GB Vram schon mal nicht in Frage, da ich auf Vram Seite keinen Bock auf ein Downgrade habe. Daher wird es eine 3090 werden. Ich finde es aber trotzdem komisch das Nvidia (vielleicht auch nur vorerst) diesen Weg beschreitet. Ich finde zwischen 10GB bei der 3080 und den 24GB bei einer 3090 klafft eine zu große Lücke. Das ist in meinen Augen schon ungewöhnlich.
 
Nun, im Endeffekt eine Konkretisierung der Ratespielchen, Spekulation oder Lügen bis jetzt.

Wenn die Ampere Karten keine Speicherkomprimierung/-dekomprimierung von wenigstens 40 % haben, sodass man aus den 10 GB der rtx 3080 14 GB macht, so kauft man hier für (vermutete) $ 800 UVP (900 € hierzulande), oder 700 € für die rtx 3070 8 GB ($ 600 msrp), am Release die Katze im Sack!

Anders als bei den Konsolen weiß ich nämlich nicht wann Microsoft mit Direct Storage im Desktop aufkreuzt, wie ernst es die Entwickler mit der Speicherkomprimierung-/dekomprimierung und dem Streaming der Daten von der SSD meinen (Direct Storage soll dies machen), ähnliche Velocity Architektur wie bei der xbox gibt es nicht, Beschleuniger/Techniken für Audio, Sampler Feedback Streaming, variable rate shading.
Auch weiß ich nicht wie stark Raytracing vertreten sein wird (beim Desktop mehr Raytracing?).

Alles wunderbare Techniken/Ansätze die für die Konsolen bestätigt sind, die Entwickler mit der Zeit immer mehr benutzen werden. Aber halt nicht für den Desktop (oder jedenfalls nicht in dieser Form, Menge).
Kann sein dass man nun ab 2021 für die neuesten Spiele (die grafisch fordernsten) 32 GB Ram braucht, oder wirklich gleich 16+ GB Vram für 4k uhd + raytracing.

Ich würde also selbst wenn ich x Gründe habe und mir nur Ampere Karten von Team Grün kaufen würde, jedenfalls bis zum Erscheinen von rdna2 die Füße still halten, oder bis zum Release der ersten next-gen Spiele für den PC.
Dann gibt es erste Test aus denen man Schlüsse ziehen kann wie zukunftsfähig in Szenario x y für Zeitraum z die 8 - 12 GB Vram sind.
Sonst bleiben nur die Verdoppelung auf 16, 20, 24 GB um auf der sicheren Seite zu sein.
Sehr teuer übrigens^^
 
auch wen ich von der neuen gen mehr erwarte, finde ich die aktuellen gerüchte irgendwie doch möglich.
die fette kühlung kommt ja evtl daher, dass sich der chip und somit die kühlfläche verkleinert, bzw. die ganzen rtx und sowieso cores wohl auch ordentlich wärme produzieren. zudem sind ja die vram auch noch näher an die gpu gerückt, was nochmal mehr kühlleistung auf kleinem raum verlangt.

das selbe beim verbrauch. die mehr als 300w dürften wohl auch dem riesigen speicher geschuldet sein. wieviel braucht eigentlich so ein 1gb-chip? weiss das jemand?
und dann kommen auch noch die oben erwähnten zusätze wie rtx und dlss hinzu. die wohl auch der mehrleistung gegenüber turing entsprechend saft brauchen werden.

wenn dann dabei die angeblichen 35-40% mehrleistung dazukommen, würde das doch für einen normalen generationssprung dem entsprechen, was man aufgrund der letzten jahre in etwa erwarten kann.

in sofern dürfte die 3080 wohl die vernünftige variante dieser gen sein, mit normalem verbrauch/leistungs-verhältnis...
 
Weil es eine ist.....
Die paar tausend (oder zehntausend) Gaming- und Nutzungsstunden die (in meinem Fall) zwischen den Karten liegen machen so eine Investition erst sinnvoll.
Du hast einfach nicht verstanden was Pargona meint.

Eine Investition ist entweder eine langfristige Kapitalanlage mit der Hoffnung auf eine Rendite oder die Nutzung von Ressourcen (Geld, Arbeitsleistung...) welche zukünftig einen besonderen Benefit gibt, wie zB Zeit oder Kostenersparnis.

Eine Grafikkarte zum Zocken ist einfach eine Anschaffung um in seinem Hobby Spaß zu haben, somit ist Investition der falsche Begriff. .
Wenn jemand zB eine GPU zum Minen kauft um damit Geld zu verdienen dann ist es eine Investition.
 
Weil ich das Thema hier nicht nochmal aufmachen will, aber gerne mal selber Recherchieren würde,...

Kann mir jemand paar Links empfehlen, die aufzeigen, was bei vollem VRAM einbricht? All die Ruckler und unspielbaren Games und so?
Ich habe über zehn Jahre mit viel zu wenig VRAM gezockt, der immer voll war... und nie sind mir Ruckler aufgefallen, mal von der fehlenden Rohleistung abgesehen.

Es fällt mir schwer zu verstehen, wieso GPUs die nicht das ganze Game in den VRAM packen können, angeblich nicht nutzbar sind. Dafür muss es ja irgendwo Belege geben, wenn so viele davon so fest überzeug sind.
Also, bin dankbar für Links, ansonsten mache ich mich auch selber mal auf die Suche (auf die Schnelle dazu aber nix Aussagekräftiges gefunden leider).
 
Ich hatte selbst bisher auf einer 2070, RX 5700 XT und auf einer 2080 Ti keine VRam Probleme, aber mehr VRam für den gleichen Preis nehme ich gerne. Gibt halt Spiele, die Belegen halt den VRam. Bei der Preisklasse könnte eine 3080 in meinen Augen min. 12GB haben bzw 16GB.
 
Zum gleichen Preis bin ich 100% bei Dir.
Das wäre aber so ziemlich niemals der Fall. ;-)
VRAM ist teuer und mehr wird sicher auch den Preis steigern. Selbst wenn ein Preis gut wirkt, oder "so teuer wie der Vorgänger mit halbem VRAM" wäre,... könnte der Preis halt dann geringer sein.

Die RTX GPUs wären auch billiger ohne RT und Tensor Kerne.
Features kosten.

Ich würde einfach gerne verstehen was ich für den Aufpreis bekomme durch VRAM, oder was passieren würde, wenn er mal "aus" geht.
Texturstreaming ist mittlerweile ja extrem schlau in den Engines eingebaut. Man hat alle Texturen, die man in den kommenden Spielsekunden brauchen könnte im VRAM, da muss nie irgendwas "nachgeladen werden und ruckelt dann", weil es nachgeladen wird, bevor es benötigt wird.

Relevant wäre das lediglich, wenn der VRAM so klein ist, dass EINE Spielszene mehr benötigt, als hereingeht. Oder, wenn kein Platz für vorgeladene Texturen da wäre.

Da seit Generationen der VRAM relativ gleich bleibt, gehe ich davon aus, dass die zwei Hersteller nicht absolut unfähig sind, sondern das durchaus bedacht haben und den aktuellen VRAM für die jeweiligen Leistungsklassen als angemessen ansehen.

Aber ich gehe schon wieder zu sehr ins Detail, sorry.... leider immer noch nichts Gutes zu dem Thema gefunden. Es wird entweder gesagt, dass das Streaming auch in 4k ausreicht, das eine 8 GB GPU nie nachladen muss (das ohne Beleg leider), oder es wird behauptet, dass eine GPU unter 16 GB unspielbar wäre (auch ohne Belege).
 
Leider sind eben diese RT-Cores für Gamer nahezu sinnlos. Die kommende Generation wird Turing in Sachen RT vermutlich völlig in den Schatten stellen.
 
wieviel braucht eigentlich so ein 1gb-chip? weiss das jemand?

Das müssten so um die 2,5 Watt pro Modul sein. Ich meine bei Igor's Lab gelesen zu haben das bei der RTX 3090 ca. 60Watt nur für die Vram Chips drauf gehen.
 
Weil ich das Thema hier nicht nochmal aufmachen will, aber gerne mal selber Recherchieren würde,...

Kann mir jemand paar Links empfehlen, die aufzeigen, was bei vollem VRAM einbricht? All die Ruckler und unspielbaren Games und so?
Ich habe über zehn Jahre mit viel zu wenig VRAM gezockt, der immer voll war... und nie sind mir Ruckler aufgefallen, mal von der fehlenden Rohleistung abgesehen.

Es fällt mir schwer zu verstehen, wieso GPUs die nicht das ganze Game in den VRAM packen können, angeblich nicht nutzbar sind. Dafür muss es ja irgendwo Belege geben, wenn so viele davon so fest überzeug sind.
Also, bin dankbar für Links, ansonsten mache ich mich auch selber mal auf die Suche (auf die Schnelle dazu aber nix Aussagekräftiges gefunden leider).
Das musst du selber testen, mit 2 Grafikkarten.Ist der VRam massiv zu wenig, droht es Richtung Standbilder, Final Fantasy XIV geht dafür sehr gut.

Bei Frametime Lags wird es schwerer die Aufzuzeigen.
Spätes Nachladen ist halt generell meist Mist, ob es nun wegen wenig RAM oder VRam ist, man hat dann ja nur noch ein Bruchteil der Bandbreite.
 
Zuletzt bearbeitet:
COD Ghost , COD Black OPS 4 Sind solche Kandidaten die bei 4K@ Maximal Settings ruckeln können wenn man den Multiplayer vs Bots spielt.
Bei Ghost Recon Wildlands hatte ich auch den VRAM gekillt aber glaube das war bei 5120x2160
Horizon Zero Dawn läuft bei meiner 2080Ti auch komplett voll. ich habe dann harte Ruckler bekommen und teilweise auch Fehlende Texturen gehabt.
@HisN hat extra einen Thread wo es nur um VRAM verbrauch der Spiele geht und da sieht man das Final Fantasy bei ihm deutlich über 20Gb VRAM nutzt bei absolut spielbaren 70FPS
https://www.hardwareluxx.de/community/threads/spiele-die-512mb-graka-ram-benutzen.239876/


Hier mal ne Aussage zu Horizon Zero Dawn von PCGH

Horizon Zero Dawn belegt bei entsprechender Ausstattung viel Grafikspeicher. Bereits in Full HD werden knapp 8 GiByte in Beschlag genommen. Der Speicher wird aber nicht nur großzügig belegt, tatsächlich benötigt das wunderschön gestaltete Action-Adventure auch verhältnismäßig viel von dem kostbaren Silizium. Bei 4 GiByte kommt es in Full HD stellenweise zu niedrig aufgelösten oder verspätet ladenden Texturen, mit 8 GiByte sind Sie in WQHD nicht vor kleineren Nachladerucklern gefeit und in Ultra HD werden selbst die 11 GiByte einer RTX 2080 Ti knapp - hier und dort muss ausgelagert werden, es kommt zu kleineren Rucklern.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh