GeForce RTX 3080 mit 10 GB, GeForce RTX 3090 mit satten 24 GB GDDR6

Du hast einfach nicht verstanden was Pargona meint.

Eine Investition ist entweder eine langfristige Kapitalanlage mit der Hoffnung auf eine Rendite oder die Nutzung von Ressourcen (Geld, Arbeitsleistung...) welche zukünftig einen besonderen Benefit gibt, wie zB Zeit oder Kostenersparnis.

Eine Grafikkarte zum Zocken ist einfach eine Anschaffung um in seinem Hobby Spaß zu haben, somit ist Investition der falsche Begriff. .
Wenn jemand zB eine GPU zum Minen kauft um damit Geld zu verdienen dann ist es eine Investition.

Mann kann das doch nennen wie man möchte, ne kleinkarierte Diskussion darum macht wenig Sinn..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ohne vom eigentlichen Thema ablenken zu wollen, bin ich übrigens auch der Meinung dass die 3090 die Titan ersetzen wird. Vielleicht wegen der etwas transparenteren Namensgebung.
 
Also irgendwie verstehe ich nicht warum hier manche so aus der Haut fahren wenn Leute sagen 8GB bzw. 10GB VRAM sind genug. Wenn ich für mich weiß ich spiele nur in FHD dann interessiert es mich schon mal nicht wie das in UHD ist. Ja 8GB hat man mit Rise of the Tomb Raider in Ultra voll bekommen. Aber jetzt mal realistisch gesehen, wer sieht optisch einen Unterschied auf dem FHD Monitor wenn er von Ultra auf Sehr hoch wechselt und dann nur noch rund 5-6GB belegt sind?

Das ist auch bei vielen aktuellen Spielen so möglich. Wenn man es darauf anlegt bekommt man mit dem ältesten Spiel jede Karte an ihre Grenze.

Und wie viele Spiele sind es im Jahr die wirklich mal schnelle Hardware in FHD fordern? Die einen dann aber auch interessieren?

Ist meine Meinung. Wenn mal etwas weg geht von "muss alles Ultra sein" zu "ich sehe da keinen Unterschied" dann kann man auch mal das Spiel genießen.

Bin mal gespannt ob wir es schaffen die Diskussion ohne ad hominem Argumenten weiter zu führen.

Und nochmal zur Sicherheit: Mich interessiert nur FHD und kein UHD, Mods, usw.




Gruß
 
Im Luxx gibt es sehr wenige die den Regler von Ultra auf sehr hoch stellen möchten, da wird vorher eher aufgerüstet ;)
 
bei texturen sieht man das instant weil selbst ultra in 95% der spiele nicht wirklich geil sind.

schau dir mal Diverse texturmods für skyrim hat. da sind teilweise welche dabei die weit besser sind als in aktuellen titeln und da ist es wurscht ob 1080p panel oder mehr.

eher stellt man andere settings runter wie AO (oftmals sehr schlecht implementiert > GTA 5 wäre ein paradebeispiel für schlechtes AO)

oder dinge wie shader, partikeleffekte, etc...

sobald man auf einen 120hz+ monitor gewechselt hat inkl adaptive sync wird man mehr kompromisse eingehen um die magischen 75-90 fps zu erreichen wo der effekt eintritt. sofern möglich natürlich.
 
Zuletzt bearbeitet:
Ja 8GB hat man mit Rise of the Tomb Raider in Ultra voll bekommen. Aber jetzt mal realistisch gesehen, wer sieht optisch einen Unterschied auf dem FHD Monitor wenn er von Ultra auf Sehr hoch wechselt und dann nur noch rund 5-6GB belegt sind?
Dann bleiben wir mal bei Tomb Raider.
Vergleiche mal RotTR mit SotTR. SotTR sieht deutlich schlechter aus. Ich warte immer noch auf ein Texturpack für SotTR.
 
Das kannste sicherlich vergessen mit dem Texturepack.
 
Machen wir uns nix vor. Das ist eben der gewollte Kreislauf. Die Spiele bringen einen IMMER an den Rand (und darüber hinaus) seiner Hardwareauslastung. Alles andere wäre sinnfrei.

Die Hardwarehersteller legen eine Schippe drauf und die Spiele-Entwickler legen die Latte höher damit die Schippe drunter bleibt.

Beide profitieren davon.
 
es wäre auch dumm für nvidia, würde die 3070 alle games easy peasy mit 120fps @ high-ultra packen. dann würde ja niemand die dicken karten kaufen.

leider... man rennt quasi immer hinterher :d

die einzige möglichkeit ist ein gap aufzubauen und erst 2-3 jahre später die titel zu spielen ^^
 
Hoffentlich bietet AMD wenigstens Konkurrenz bis oder knapp über 3080. Mir reicht es vollkommen, wenn die Grafikkarte in Games die P/L-Marke hält.
Wenn die Karte dann von den Specs her die 3090ti lite black edition of doom schlagen sollte aber nur auf dem Level der 3080 ist und auch im Stromverbrauch den Rahmen sprengt bin ich trotzdem dabei.
Die RTX2080 war meine erste GraKa von Nvidea aber der Markt braucht definitiv mehr Anbieter. Intel und AMD sollen mal aus den Puschen kommen und Nvidea den High-End/Enthusiast markt streitig machen.

Wie schön wäre es, wenn neben der RTX-Titan2 auch eine Intel-Irgendwas und RX6990XT stehen würden um sich einen Preiskampf zu liefern... ich träume wieder...
 
Ich denke dass bei manchen Games die die Hardwarehungrigkeit künstlich in die Höhe getrieben wird. Wie ihr schon sagtet. Es profitieren davon beide.
 
Aber jetzt mal realistisch gesehen, wer sieht optisch einen Unterschied auf dem FHD Monitor wenn er von Ultra auf Sehr hoch wechselt und dann nur noch rund 5-6GB belegt sind?
Der Argumentation kann ich folgen - wenn wir nicht von einer HighEnd-GPU mit vierstelligem Preis sprechen würden.
Wenn das also wirklich der Fall ist, bei Spielen die es bereits gibt, hat NV da meiner Ansicht nach am Markt vorbei entwickelt.
 
hm bei der news stelle ich mir die frage ob es sich noch lohnt eine 2080ti FE für 500 euro zu kaufen oder die 500 euro lieber aufheben ?
hat da jemand eine glaskugel zur hand :d

mfg
 
hm bei der news stelle ich mir die frage ob es sich noch lohnt eine 2080ti FE für 500 euro zu kaufen oder die 500 euro lieber aufheben ?
hat da jemand eine glaskugel zur hand :d

mfg
ich würd eher die drei-vier Monate auf die 3070/60 warten und ähnliche (+ bessere RT-) Performance zum gleichen Preis bekommen
 
500 EUR für eine 2080ti -> warum nicht......so viel Leistung für so wenig Geld

Wenn Du auch 1000EUR ausgeben würdest, dann spare die 500EUR für die jetzt kommenden Karten
 
Also ich bin von einer Titan X mit 12 GB auf eine 2080Ti mit 11 GB gegangen. Bisher habe ich das GB noch nie vermisst.... Ist oft auch eine Kopfsache... Zumal gerade hier viele ehe die nächste Generation (nehme mich da nicht raus :fresse: ) kaufen und somit gar nicht an den Punkt kommen werden ("aber wer weiß wie der RAM Verbrauch in den nächsten 27 Jahren steigt").
Na ja, ich bin jedenfalls Mal auf die 3090 gespannt. Alternativ später eine 3080Ti :)

P.s. 2080Ti für 500 Euro? Wo?
 
Im Endeffekt ganz einfach, entweder das nehmen was nv und die bosrdosrtner
hm bei der news stelle ich mir die frage ob es sich noch lohnt eine 2080ti FE für 500 euro zu kaufen oder die 500 euro lieber aufheben ?
hat da jemand eine glaskugel zur hand :d

mfg

Wo gibt es eine 2080ti fe für 500 Euro?
 
Vermutlich wird er ein Angebot für eine gebrauchte RTX2080Ti irgendwo gesehen haben oder darauf hoffen dass er jemanden runter handeln kann
 
es ist auch die irreführende Annahme, dass bei einer 3060/3070 mit ähnlicher Leistung für 500 msrp, eine gebrauchte 2080Ti auf einmal für 500 gebraucht übern Tisch geht...wenn das passieren sollte, dann dauert es eine ganze Weile bis nach Release einer analogen 3000 Karte
 
Vermutlich wird er ein Angebot für eine gebrauchte RTX2080Ti irgendwo gesehen haben oder darauf hoffen dass er jemanden runter handeln kann

ich habe die Möglichkeit beim Arbeitgeber ein solches (einmaliges) Angebot wahrzunehmen und bevor ich das blind mache dachte ich frage ich hier mal in die runde
ich muss also nix handeln oder vermuten ich weiss woher die karte kommt der preis ist fix und wenn dann nur für mich und einmalig ;)
will den Thread auch nicht zusehr weiter in OT bringen

mfg
 
Als FHD Zocker wäre das Upgrade von einer 1070 auf eine 2070 Super preismäßig doch eigentlich am sinnvollsten?

Außer man wartet auf die 3070/16 GB Variante?
 
die frage ist, wie viel leistung brauchst du? hast du ne wakü?
Beitrag automatisch zusammengeführt:

Als FHD Zocker wäre das Upgrade von einer 1070 auf eine 2070 Super preismäßig doch eigentlich am sinnvollsten?

Außer man wartet auf die 3070/16 GB Variante?
wie viel mehrleistung willst du denn? erfüllt die 2070S das bereits?

ich würde auf die 3070 warten.

man kann auch auf full hd so eine karte in die knie zwingen und das geht super easy. :)
 
Momentan reicht mir die 1070 für Games wie WOT, Battlefront, Battlefield und Co.

Die Karte wird von einem Accelero Mono Plus mit nem 140er Lüfter gekühlt. Läuft OC/UV leise und mit 55°.

Die 2070 Super wäre ja praktisch ~50% Mehrleistung unter FHD. Zusätzlich noch DLSS.
 
Danke für die Erklärungsversuche zum VRAM.
Ich habe über Nacht genau einen sinnvoll aufgebauten Test gefunden,... den hier von HardwareUnboxed --> GeForce RTX 2060 VRAM Usage, is 6 GB's Enough for 1440p?
Für Jemand, der sich mit dem Thema wirklich mal auseinandersetzen möchte, kann ich das ganze Video empfehlen. Hier kurz zusammengefasst die Eckpunkte.


Der Versuchsaufbau hat zuerst die VRAM BELEGUNG in 37 Games, bei 1440P getestet.
Sowohl mit einer 2060, einer 2070 (8 GB) und einer 1060 (6 GB).

Erstes Zwischenergebnisse:
1. Turing nutzt im Allgemeinen 200-300 MB weniger VRAM, als Pascal. Kompression ist also kein Mythos, aber auch kein heiliger Gral.
2. Nur 4 / 37 Games belegen (knapp) mehr als 6 GB mit der 2070.
3. Fast alle Spiele belegen bei der 2070 mehr, was darauf hindeutet, dass Engines einfach den Puffer prozentual setzen.


Dann wurde die FPS gemessen in 1440p,.... hochgestellt auf 4k und dann der relative Performanceverlust gemessen.
Hier wurde vor allem auf die 0,1 % Lows geschaut, weil das die dem VRAM nachgesagten "Ruckler" sind.

Ergebnisse:
Die 2060 hat in 4K relativ gesehen natürlich weniger Leistung als eine 2070, verliert aber nie mehr FPS, als sie auch weniger Shader hat.
Hier und da verliert sie 1-2% mehr als die 2070, solange sich das aber weiter im Rahmen der Shaderdifferenz bewegt, wird hier von anderen Gründen ausgegangen. Wenn man von 60 auf 35 FPS fällt z.B. ist da schnell mal nen Prozent oder zwei "verschluckt", nur weil man 35, statt 36 gemessen hat.
Die paar Sonderfälle bewegen sich also höchstens im Rahmen der Messtoleranz und sind weiterhin im Rahmen der Shaderdifferenz.

Das Fazit von HardwareUnboxed ist in dem Fall, dass 6 GB sogar für 4K ausreichend zu sein scheint und er vermutet, dass sich das frühestens in 5 Jahren ändern wird.
Das Video ist von 2019 und damit auch noch relativ aktuell.
Die "Nachweise", dass mehr VRAM besser ist kommen alle aus der Zeit als wir verdoppelten VRAM in praktisch jeder Generation hatten und von 1080 erstmals die neuen Auflösungen 1440p und 4K dazu kamen.

Ist es sehr vermessen zu denken, dass wir da evtl. nach Placebos suchen, solange wir nicht auf 8k Monitore umsteigen?
Klar, mehr ist mehr, gilt immer. Aber mehr kost auch mehr und ich würde ungern für Etwas zahlen, was dann idle rumsteht. 24 GB ist echt ne Hausnummer, die ich mir in keinem Szenario sinnvoll vorstellen kann (für Gaming zumindest... in Richtung Machine Learning kann man da schon Use-Cases finden!).
 
Als FHD Zocker wäre das Upgrade von einer 1070 auf eine 2070 Super preismäßig doch eigentlich am sinnvollsten?

Außer man wartet auf die 3070/16 GB Variante?

Abwarten ob die neue Generation eine Karte bringt die für einen ähnliche Preis deutlich mehr Leistung und/oder mehr vram bietet. Ansonsten hat die 2070s für 1080p ausreichend Leistung, da wäre der Schritt auf 1440p auch noch drin.
 
Mal entspannt auf Benchmarks der RTX 3000 warten und dann preislich abwägen.

Danke für die Tipps Scrush.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh