Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ich habe nie behauptet, dass die Spiele mit der 1080 besser laufen, ich habe nur angedeutet, dass die Details dieselben bleiben, weil der vram nicht größer ist. Daher kann man bessere Texturen, besseres msaa usw. vergessen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und wenn ich mir deine Liste anschaue, sind 90% von den Titeln Asbach-Uralt-Spiele, weil da bei aktuellerer Grafik die Rechenleistung eh nicht reicht.
Wo sollen bitte Details herkommen, wenn man die Grafik von Fallout 3 in 8K rendert?
Ich habe nie behauptet, dass die Spiele mit der 1080 besser laufen, ich habe nur angedeutet, dass die Details dieselben bleiben, weil der vram nicht größer ist. Daher kann man bessere Texturen, besseres msaa usw. vergessen.
Nicht direkt. Aber du wolltest eine 1080 mit einer 3070 aufrüsten, die dann aber nicht getaugt hat.
Auch wenn du aus technischer Sicht natürlich recht hast, sehe ich meine Vorahnung als bestätigt: Du hast unerfüllbare Erwartungen. Das was du gerne hättest, funktioniert mit KEINER aktuell erhältlichen Graka, nicht mit einer 6900xt und auch nicht mit einer 3090.
Und naja, für unrealistische Erwartungen ist es natürlich noch unrealistischer zu glauben, das man diese dann auch noch mit nur einer Mittelklasse-Graka erreichen könnte.
Ich versteh nicht ganz was das Problem hier ist tbh. Wer Enthusiasten-Schweinereien mit 8k-Texturen, 8xMSAA und co. "ausprobieren will" (denn sehen tut man davon am Ende ja nicht viel), der muss sich halt ne 3090 holen. Aber obs am Ende so viel bringt?
Die aktuellen Karten sind speichertechnisch "knapp", aber sicher nicht unterdimensioniert. Ich spiele auch in UWQHD und kein einziges Spiel braucht tatsächlich deutlich mehr als 8GB. Der reservierte Speicher in Forza der vollläuft sollte kein tatsächliches Performance-Problem darstellen, das Spiel reserviert auf der Auflösung ca. 9GB aber braucht nur 7.5-7.8.
Manche Spiele sind halt üppiger unterwegs was das Reservieren angeht, Horizon Zero Dawn reserviert bei mir auch 11GB aber braucht nur knapp unter 8 wiederum. Das Spiel lief auch auf einer 3070 >60fps und flüssig.
8xmsaa und extremes Downsampling erhöhen die visuelle Qualität deutlich. Das Thema gab's auch schon 2014, als es die ersten 4k Monitore gab. Die Enthusiasten Gemeinde war damals schon mit OGSSAA o.ä bei 5k + und der Mainstream meinte, dass das Blödsinn ist. Jetzt gibt's 8k Monitore, 4k ist fast standard und trotzdem verstehen das viele nicht.
Die Diskussion ist daher nicht zielführend. Es gibt eben manche die gerne mehr Qualität haben möchten. Diese kostet dementsprechend Leistung. Klar spiele ich auch teils ohne DSR o.ä aber wenn man über die Maximal Einstellungen hinausgeht, kann man noch einiges verbessern, wenn man möchte. Das ist dann jedem selbst überlassen. Das Thema kann man auch mit Karte xy angehen.
Find ich ja völlig legitim, aber wenn man Enthusiasten-Tasks mit Grafikkarten ausführen will gibt es dafür die entsprechenden Modelle. Die 3070 ist aktuell der Audi A4 der Ampere-Reihe und für Mittelklasse-Tasks designed. Dass der VRAM seitens Nvidia eher "genau ausreichend" ausgelegt wurde anstatt üppig ist ja bekannt, aber bis auf spezielle Games und weitergehende Anwendung können alle Ampere-Karten gut auf derjenigen Auflösung mit ihrem Speicher haushalten, für die sie designed sind. Die 3070 ist - bei vollen Grafikeinstellungen - eben keine 4k-Karte weil sie bei den aktuellsten Spielen schon keine 60fps mehr erreicht. Für WQHD ist die Karte mehr als fit, wer 4k spielen will greift eben eher zur 3080ti oder wenn man spezielle Settings vornehmen will hat man die 3090 mit Speicher der - gemessen an der Zukunftssicherheit des Chips - für Spiele wohl niemals am Anschlag sein wird.
Und was willst Du damit? Es reicht doch schon wenn man das heutige, im Spiel angebotene, nutzt.
Und da soll ich mir bei einer RTX 3070 Gedanken über den VRam machen?
Ich komm auf jedenfall in WQHD super mit der Karte zurecht.....max 4K überlasse ich den großen Karten.
Wie gesagt, ein Thema für eine andere Zielgruppe. Es gibt keine zukunftssichere Hardware. Wenn man möchte kann man viele Spiele derart stark modifizieren (mit visuellen Verbesserungen), dass man auch zukünftige GPUs unter 30 FPS drücken kann. Jeder wie er möchte.
Ich habe nur angemerkt, dass es bei vielen Spielen kein Grund gibt zu sagen: Das Spiel sieht ...aus, meine GPU hat nichts zu tun.
mal ne andere evtrl. dumme Frage. Die 3070er haben ja schon eine hohe TDP, wie ist es, wenn ich mir nun eine 3080 oder 3080TI holen würde, die TDP bzw. der leistungshunger ist hier ja um einigges höher. Das würde bedeutet, das ich in den Spielen die ich zocke auch viel mehr Stromverbrauch haben werde, der evtl. noch nicht notrwendig wäre? Oder habe ich da einen Denkfehler drin?
Mehr Grafikleistung erfordert halt auch mehr elektrische Leistung.
Du kannst natürlich bei der GPU auch die Powerlimits reduzieren dann verbraucht sie natürlich auch weniger Energie aber macht dann auch wieder weniger FPS.
Und ob es macht erst eine teure 'dicke' GPU zu kaufen um die dann reduzierten Powerlimits zu betreiben muß du selber überlegen.
Das würde bedeutet, das ich in den Spielen die ich zocke auch viel mehr Stromverbrauch haben werde, der evtl. noch nicht notrwendig wäre? Oder habe ich da einen Denkfehler drin?
Abgesehen davon das TDP nur die thermische Verlustleistung ist (das was du kühlen musst) und die tatsächliche Stromaufnahme sogar noch höher ist, bezieht sich das alles auf Volllast.
Also was genau vergleichst du?
Wenn ein Spiel mit exakt gleichen Einstellungen auf einer 3070 180W bei 80fps zieht und auf einer 3080ti mit 120fps 270W... dann braucht die 3080ti sogesehen natürlich mehr Strom, aber dafür hast du dann ja auch 40fps mehr.
Naja, wenn du die 40fps mehr für "nicht notwendig" hältst, gibts 2 Möglichkeiten.
1) Dann brauchst du ja auch keine 3080ti und kannst einfach deine 3070 behalten
2) Du machst auf der 3080 einen Framelimiter auf 80fps, dann läuft sie ja nichtmehr unter Volllast und wird dementsprechend auch nichtmehr 270W verbraten.
Die 3070 und 3080ti haben unterschiedliche Chips und unterschiedliche Bestückungen, das die von der Effizienz her unter wirklich gleicher Last exakt gleich viel verbrauchen werden ist eher unwahrscheinlich. Ob die 3080ti dann nicht doch ein paar W mehr braucht, kann ich nicht sagen. Es kann aber sogar sein, das per Framelimiter gedrosselt die 3080ti dann sogar weniger Strom braucht als die 3070. Das müsste man testen.
Ich benutze immer Framelimiter, weil ich einfach generell keinen Sinn drin sehe, das meine Graka Strom für 200fps verheizt, die ich eben gar nicht brauche. Laut Netzteilanzeige, braucht meine 6900xt da praktisch nie ihre Maximum an Strom. Je nach Spiel sogar eben nur 60-100W statt eben 280W.
Das ist genau das was ich immer predige wenn Leute meinen mit einer fetten GPU hätte man einen fetten Stromverbrauch. Den habe ich auch, aber nur wenn ich das Ding auf 100 % knalle. Mit Framelimiter sollte man sowieso spielen, es spart Strom, Hitze und damit sicher auch Lebensdauer - Gleichermaßen spart es bei Luftkühlung Gehörnerven. Bei zu vielen FPS fängt es auch an zu fiepen, das hatte ich bislang bei wirklich jeder Karte die ich hatte, egal ob NV oder AMD.
Mehr Shader im sweet spot sind zumeist sogar effizienter als weniger Shader die für die gleiche Leistung höher getaktet werden müssen. Am Ende werden die Karten entweder dasselbe oder die größere Karte gar etwas weniger verbrauchen.
Das ist genau das was ich immer predige wenn Leute meinen mit einer fetten GPU hätte man einen fetten Stromverbrauch. Den habe ich auch, aber nur wenn ich das Ding auf 100 % knalle. Mit Framelimiter sollte man sowieso spielen, es spart Strom, Hitze und damit sicher auch Lebensdauer -
Problem ist halt nur das die meisten User einfach default lassen und dann nutz die GPU bei WQHD/144Hz halt ihr Powerlimit auch aus.
Was ich halt heftig finde das der normale Nvidia nichtmal eine Einstellung für das Powerlimit hat (zumindest habe ich es gerade nicht gefunden).
Klar kann man Afterburner oder ähnliches nutzen aber dazu braucht man halt weitere Software.
Die machen das aber entweder absichtlich oder es interessiert sie schlicht und einfach nicht... also weder die FPS, noch der Stromverbrauch.
Wer sich um nix kümmern will, aber sowas trotzdem nicht haben will, dem kann man nur eine Konsole statt einem PC empfehlen.
Viel schlimmer finde ich, das viele Spiele immernoch keinen Framelimiter eingebaut haben und man sich dafür schon externen Tools bedienen muss. Manche reden sich damit raus, das sie ja VSync im Spiel hätten, aber VSync ist nunmal was anderes als einfach nur ein Framelimit. Merkt man schon daran, das man VSync nur ein- und ausschalten, aber nicht selbst eine Zahl festlegen kann.
Ich würde übrigens immer einen Framelimiter in einem Spiel bevorzugen, als generell das Powerlimit der Graka runterzusetzen. Ich zumindest spiele auch andere Titel, die die Graka dann doch wieder fordern und da will ich dann nicht das PowerLimit auf 150W gesetzt haben.
Ich würde übrigens immer einen Framelimiter in einem Spiel bevorzugen, als generell das Powerlimit der Graka runterzusetzen. Ich zumindest spiele auch andere Titel, die die Graka dann doch wieder fordern und da will ich dann nicht das PowerLimit auf 150W gesetzt haben.
Ich sehe das halt komplett andersrum weil gerade beim Framlimiter der halt eh oft ins leere läuft weil man ja eh in der Regel im GPU Limit hängt wenn man halt 'normale' Auflösungen hat und nicht.
Aber im grunde sollte man beides einstellen es macht halt keinen Sinn wenn man in ruhigen Szenen dann die GPU auf 100% rödelt weil Sie meint das jetzt 200+FPS sinnvoll wären.
Ich sehe das halt komplett andersrum weil gerade beim Framlimiter der halt eh oft ins leere läuft weil man ja eh in der Regel im GPU Limit hängt wenn man halt 'normale' Auflösungen hat und nicht.
Ähh, nein, die Aussage in der Form ist kompletter unsinn.
Wenn man nichts limitiert, hängt man meist im GPU-Limit. Bei sagen wir mal 118fps. Man will/braucht aber ja keine 118fps, also setzt man den Framelimiter halt auf 60fps. Dann ist man immernoch im GPU-Limit, weil eben die GPU auch mit der künstlichen Limitierung durch den Framelimiter, bzw. besonders WEGEN des Framelimiters, das langsamste Glied ist. Die Graka läuft dann aber auch nichtmehr unter Volllast und braucht somit weniger Strom. Genau das was man ja wollte.
Wenn die GPU unter Vollast schon eh nur 65fps schafft, bringt ein Framelimiter auf 100fps eingestellt natürlich nichts. Mit einem reduzierten Powertarget werdens dann aber halt nichtmal die 65fps. Wenn einem das reicht, braucht man trotzdem kein Powertarget einstellen, dann kann man genausogut den Framelimiter auf 50fps stellen.
Das Powerlimit ist dazu global. Das kann ich natürlich auf 100W stellen und das macht auch kein Problem, wenn ich Tetris spiele. Aber wenn ich dann mal Cyberpunk anwerfe, zuckelts halt mit 20fps rum, weil die Graka mit dem Powerlimit einfach nicht mehr schafft.
Mit einem Framelimiter ist das egal, der begrenzt sogar Tetris auf Xfps und wenn ich in Cyberpunk sowieso weniger als Xfps kriege, tut der Framelimiter halt nichts. Aber wenn ich dann so ein Kaliber spiele, WILL ich die Leistung der Graka ja trotzdem haben.
Wer eine 3080ti kauft und sie dann auf Powertarget 180W laufen lässt um Strom zu sparen, der hat schon grundsätzlich mal was falsch gemacht, denn der hätte sich mehr Geld gespart, wenn er sich für weniger Geld gleich nur eine 3070 gekauft hätte...
PowerTarget ist eher sinnvoll, wenn man ein Kühlungsproblem hat. Dann reduziere ich halt lieber das PowerTarget und damit die Spitzenleistung, als das die GPU dauernd Temp-drosselt oder sogar abstürzt.
Andersrum will ich ja nicht die Maximalleistung beschneiden, ich setze das PowerTarget also sogar eher HOCH (wenn die Kühlung das mitmacht). Das die GPU dann trotzdem nicht dauernd auf 100% rödelt, regle ich indem der GPU einfach durch das Spiel weniger abverlangt wird, z.B. durch einen Framelimiter.
Das ist genau das was ich immer predige wenn Leute meinen mit einer fetten GPU hätte man einen fetten Stromverbrauch. Den habe ich auch, aber nur wenn ich das Ding auf 100 % knalle. Mit Framelimiter sollte man sowieso spielen, es spart Strom, Hitze und damit sicher auch Lebensdauer - Gleichermaßen spart es bei Luftkühlung Gehörnerven. Bei zu vielen FPS fängt es auch an zu fiepen, das hatte ich bislang bei wirklich jeder Karte die ich hatte, egal ob NV oder AMD.
Mehr Shader im sweet spot sind zumeist sogar effizienter als weniger Shader die für die gleiche Leistung höher getaktet werden müssen. Am Ende werden die Karten entweder dasselbe oder die größere Karte gar etwas weniger verbrauchen.
Das gilt doch nur für ältere Spiele oder niedrige Auflösungen. In aktuellen AAA Titeln kann ich kein einziges Mal nen Frame Limiter setzen. Ich zocke auf 4K und maximalen oder wenigstens sehr hohen Details, da wird jedes Watt in notwendige FPS umgesetzt. Selbst das undervolting habe ich wieder rausgenommen. Bei Dirt Rally 2 liege ich so zwischen 80 und 110FPS, die möchte ich da auch haben. Bei FH5 sind es sogar nur so zwischen 60 und 80. RDR2 oder GR Breakpoint liegen die FPS so um die 70. Ohne DLSS.
In Games wie Civ oder so so verbraucht die Karte eh nix.
Also entweder habe ich mir die passende Karte für meine Bedürfnisse gekauft, oder ich hab zu viel Geld ausgegeben, wenn ich einen FPS Limiter setzen muss um Geld zu sparen.
Ich zocke ebenfalls in 4K und auch da gibt es Spiele und Menüs wo die FPS exorbitant hochgehen. Bei BF4 habe ich 140-190 FPS. In AAA-Titeln ist das was Anderes, dennoch würde ich ihn setzen da man ja sowieso nichts dadurch verliert.
Es wurde ja aus Energiespargründen bzw. Abwärmegründen empfohlen und da halte ich seinen Nutzen für sehr begrenzt. Auf 144FPS gesetzt um Spulenfiepen in Menüs zu vermeiden o.ä. ist das ja absolut legitim.
8xmsaa und extremes Downsampling erhöhen die visuelle Qualität deutlich. Das Thema gab's auch schon 2014, als es die ersten 4k Monitore gab. Die Enthusiasten Gemeinde war damals schon mit OGSSAA o.ä bei 5k + und der Mainstream meinte, dass das Blödsinn ist. Jetzt gibt's 8k Monitore, 4k ist fast standard und trotzdem verstehen das viele nicht.
Die Diskussion ist daher nicht zielführend. Es gibt eben manche die gerne mehr Qualität haben möchten. Diese kostet dementsprechend Leistung. Klar spiele ich auch teils ohne DSR o.ä aber wenn man über die Maximal Einstellungen hinausgeht, kann man noch einiges verbessern, wenn man möchte. Das ist dann jedem selbst überlassen. Das Thema kann man auch mit Karte xy angehen.
Weil es nunmal auch Quatsch ist, mit Downsampling und umso mehr davon, braucht es nämlich schlichtweg garkein Anti-aliasing mehr irgendwann.
Im übrigen richtiges Downsampling und nicht dieser DSR Quatsch, der Unterschied zwischen richtigem Downsampling und dem DSR Quatsch ist nämlich das du richtiges Downsampling auch aufm Desktop gebrauchen kannst und eben nicht die Schrift völlig "kaputt" wird dadurch.
Es kommt auch darauf an, ob man das im Gameplay überhaupt wahrnehmen kann, das zudem auch noch, wen interessieren im Alltag denn vielleicht Screenshot Vergleiche.
Wobei man sagen muss, selbst mit einer RTX 2060 biste verdammt gut mit dabei, da kann man teils schon Settings reindrehen die schon etwas übertrieben sind, kaum noch wahrnehmbar aber dennoch kann man ein SOTTR vernünftig Spielen obwohl noch was an Raytracing draufhaust.
Das mit dem, man braucht kein Anti-Aliasing mehr ist mit DLSS in der jüngsten Variante dann auch noch son Dingen, denn auch damit braucht man kein Anti-Aliasing mehr, nur das ist eben kein Downsampling, sondern Upsampling, nur eben Upsampling über die KI halt, das kostet keine Leistung sondern bringt sogar welche.
Einfach deshalb weil man halt die Tensor Cores benutzt die sonst ungenutz herumliegen würden, prinipizell wäre das also sogar für alle erdenklichen Titel die es noch nicht haben, wenn auch ältere genau eben die Lösung um das ganze effizienter zu machen zum einen, zum anderen siehts es aber dennoch super aus.
Das Blöde ist nur dabei, es ist afaik auf die DX12 API beschränkt, müsste man echt eigentlich besser lösen können, wäre ja nice wenn man das API unabhägig machen könnte, niedrigere Auflösung im Game wählen und vom Treiber eben entsprechend Skalieren lassen, UpSampling eben.
Im Prinzip was eh und je eh schon mit älteren Games gut machbar ist wenn es keine Widescreen-Patches etc. gibt, das funktioniert so an sich eh schon seit Jahren verdammt gut und mit richtig alten Schinken halt auch so das des Seitenverhältnis dabei passt, dein Monitor bekommt aber seine native Auflösung und das halt auch ohne das des nennenswert Leistung kosten würde.
Gruss Dennis
Beitrag automatisch zusammengeführt:
Achso.. @Holzmann meine RTX 2060 hat übrigens nur 6GB, "NUR"
DirectStorage wird interessant werden, wenn es denn endlich mal zum Einsatz kommt, sicherlich würden sie 6GB aber auch noch gut ausreichen selbst für 1440p, mit 1080p seh ich da jedenfalls mit 6GB so absolut garkein Problem.
Bei der aktuellen Preisgestaltung seh ich da sowieso garnichts, was das so aktuell kosten soll ist absolut abnormal, am Leben vorbei.
Als ich meine 2060er für 299€ gekauft hatte sowie die GTX 1060 davor, waren die Grafikkarten eigentlich schon frech überteuert was nur noch schlimmer wird, solange das so ist unabhängig von einer Verfügbarkeit, gibt es von mir da keinen Cent dazu.
Was glauben diese Unternehmungen denn was die da verkaufen, überlebenswichtig sind diese Komponenten jedenfalls nicht