GTX 1080 -> RTX 2080 -> RTX 3070

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Abgesehen davon, daß die GTX 1080 weder Raytracing noch DLSS kann.....was sind schon lächerliche ~80% mehr Performance die eine RTX 3070 mitbringt :haha:

Ende 2020 hatte ich ja selbst den Wechsel vollzogen...über den Umweg einer RTX 2070 super.

1080-3070.jpg


Das Rating passt ziemlich genau mit meinen Time Spy Ergebnissen zsammen

1080-3070+.jpg
 
Zuletzt bearbeitet:
Abgesehen davon, daß die GTX 1080 weder Raytracing noch DLSS kann.....was sind schon lächerliche ~80% mehr Performance die eine RTX 3070 mitbringt :haha:

Ende 2020 hatte ich ja selbst den Wechsel vollzogen...über den Umweg einer RTX 2070 super.

Anhang anzeigen 718548

Das Rating passt ziemlich genau mit meinen Time Spy Ergebnissen zsammen

Anhang anzeigen 718549
Die Performance nützt dir nix wenn der Vram zu wenig ist du Schlauberger
 
Die Performance nützt dir nix wenn der Vram zu wenig ist du Schlauberger
Der Kofferraum ist natürlich das wichtigste...der muß groß sein. Ob 100 oder 200 PS....egal.
Siehst Du das bei deiner RTX 3080Ti genauso? Der Kofferraum meiner RX 6800 ist ja auch größer als der deiner RTX 3080Ti....Schlauberger.
 
Vram ist durch nichts zu ersetzen ausser durch noch mehr Vram ;)
 
Der Kofferraum ist natürlich das wichtigste...der muß groß sein. Ob 100 oder 200 PS....egal.
Siehst Du das bei deiner RTX 3080Ti genauso? Der Kofferraum meiner RX 6800 ist ja auch größer als der deiner RTX 3080Ti....Schlauberger.
Dafür ist der x Speicher um einiges schneller und die 3080ti auch um einiges schneller als deine niedliche Rx 6800. Und wenn du von deinem Apfel Birnen Vergleich runtergekommen bist es geht um eine 3070 und uwqhd was fast 4k ist und dafür sind 8gb Speicher viel zu wenig du Möchtegern Besserwisser
Beitrag automatisch zusammengeführt:

Vram ist durch nichts zu ersetzen ausser durch noch mehr Vram ;)
Richtig :d
 
Die Performance nützt dir nix wenn der Vram zu wenig ist du Schlauberger
Wenn der VRAM voll ist nutzt die nicht viel, das stimmt, aber dagegen kann man einfach statt Ultra-Texturen "nur" die High-Texturen nehmen und dann passt das wieder. Dann kriegt die 3070 trotzdem Grafikdetails hin, von der die 1080 nur Träumen könnte.

Hab bei Forza übrigens keine Warnmeldung bekommen, aber ich habe ja auch 16GB. ;)
 
Wenn der VRAM voll ist nutzt die nicht viel, das stimmt, aber dagegen kann man einfach statt Ultra-Texturen "nur" die High-Texturen nehmen und dann passt das wieder. Dann kriegt die 3070 trotzdem Grafikdetails hin, von der die 1080 nur Träumen könnte.

Hab bei Forza übrigens keine Warnmeldung bekommen, aber ich habe ja auch 16GB. ;)
Ja weil du 16gb hast :d und ich kaufe mir keine High End Karte um die Texturen runter zu Stellen vlt mal in 3 oder 4 Jahren wenn die Games viel anspruchsvoller geworden sind. Und trotzdem find ich eine 3070 für 4k absolut unterdimensioniert. Und ich bin mir sicher das schon kommende Spiele diese Karte überfordern werden und es dann nicht reichen wird nur die Texturen runterzustellen. Aber redet sie euch nur schön die 3070 kann mir egal sein.
Beitrag automatisch zusammengeführt:

Wenn der VRAM voll ist nutzt die nicht viel, das stimmt, aber dagegen kann man einfach statt Ultra-Texturen "nur" die High-Texturen nehmen und dann passt das wieder. Dann kriegt die 3070 trotzdem Grafikdetails hin, von der die 1080 nur Träumen könnte.

Hab bei Forza übrigens keine Warnmeldung bekommen, aber ich habe ja auch 16GB. ;)
Abgesehen davon kam für mich keine Amd Karte in Frage da die in Rts total abkacken ... und ne 3090 ist zu teuer also ist die 3080ti der beste Mittelweg
 
Zuletzt bearbeitet:
ich kaufe mir keine High End Karte um die Texturen runter zu Stellen
Naja, Ansichtssache. Die 3070(ti) ist für mich obere Mittelklasse. Oberklasse ist 3080+.
Und auf der anderen Seite kann man eben die Texturauflösung reduzieren und muss am Rest nicht sparen. Die höchste Auflösungsstufe der Texturen ist dabei oft eh schon für UHD gedacht, wenn man also kein UHD hat, sieht man den Unterschied oft höchstens bei Standbildvergleichen.

vlt mal in 3 oder 4 Jahren wenn die Games viel anspruchsvoller geworden sind.
Die wenigsten hier behalten hier ihre Graka 3-4 Jahre. Daher ist die Aussage grenzwertig. Wenn die Spiele in 3-4 Jahren mehr brauchen, kauft man ja eh wieder eine neue.
Ich bin Wechselfaul und komme damit auf ca. 4 Jahre. Die 1070 wurde widerwillig sogar 5 Jahre alt, aber vor 1,5 Jahren wollte ich noch auf die 3000er warten und dann kam noch der Grafikkartenmarkt dazwischen.

Was auch noch relativ gesehen dazukommt ist, das die 10er überragend gut waren. Vorallem die 1080ti. Als Name wäre 1090 angemessener gewesen als 1080ti. Der Leistungsabstand zwischen der 1080ti und 1080 ist fast doppelt so groß wie der zwischen der 1070 und der 1080.
Die 7er oder 9er haben bei weitem nicht so lange "gehalten".

Und trotzdem find ich eine 3070 für 4k absolut unterdimensioniert.
Ich halte für UHD (ohne DLSS oder ähnliche "Schummeleien") jede aktuelle Graka für unterdimensioniert. Zumindest wenn man davon ausgeht, das man damit auch High-End-Spiele in Ultra laufen lassen kann und trotzdem noch mindestens 60fps hinkriegt. Wobei nach Definition manch anderer ja 60fps schon nahezu "unspielbar" sind.

Aber redet sie euch nur schön die 3070 kann mir egal sein.
Ich muss sie mir nicht schönreden, ich hab ja keine. :p
Den 10GB der 3080 stand ich auch schon immer skeptisch Gegenüber. Den 8GB der kleineren umsomehr. Unter anderem weil ich in Einzelfällen mit den 8GB meiner alten 1070 schon am Limit war. Das waren dann aber idR Beta-Titel und/oder mit Mods aufgepumpte Spiele.
Aber so wie du hier anderen "schönreden" unterstellst, kann man deine Beiträge durchaus als "pechschwarzmalen" verstehen. ;)

Und zu anderen Beiträgen hier noch:
Ich habe das Gefühl, UWQHD wird massig unterschätzt, da es anscheinend oft mit WQHD vergleichen wird (weil es auch 1440p Höhe hat?). UWQHD hat satte DREIUNDDREIßIG Prozent mehr Pixel als WQHD. Das braucht man entsprechend auch nahezu 1:1 mehr an Rechenleistung (aber nicht (unbedingt) an VRAM).
 
Die wenigsten hier behalten hier ihre Graka 3-4 Jahre. Daher ist die Aussage grenzwertig. Wenn die Spiele in 3-4 Jahren mehr brauchen, kauft man ja eh wieder eine neue.
Ich bin Wechselfaul und komme damit auf ca. 4 Jahre. Die 1070 wurde widerwillig sogar 5 Jahre alt, aber vor 1,5 Jahren wollte ich noch auf die 3000er warten und dann kam noch der Grafikkartenmarkt dazwischen.
Wir Sprechen uns ende dieses Jahr nochmal wenn wahrscheinlich schon dieses Jahr die ersten Spiele kommen die eine 3070 in eben diesen UWQHD und in 4k überfordern und es dann nicht reicht was runterzustellen. Zumal der Tread Ersteller eben das nicht will er will ja nicht auf mittleren Einstellungen rumhängen und er hat ja ein UWQHD Monitor. Aber macht nur mir persönlich ist das so egal :p
Beitrag automatisch zusammengeführt:

Ach und übrigens ich hab mir eine 3080ti für Wqhd gekauft und nicht für 4k :d
Beitrag automatisch zusammengeführt:

Naja, Ansichtssache. Die 3070(ti) ist für mich obere Mittelklasse. Oberklasse ist 3080+.
Und auf der anderen Seite kann man eben die Texturauflösung reduzieren und muss am Rest nicht sparen. Die höchste Auflösungsstufe der Texturen ist dabei oft eh schon für UHD gedacht, wenn man also kein UHD hat, sieht man den Unterschied oft höchstens bei Standbildvergleichen.


Die wenigsten hier behalten hier ihre Graka 3-4 Jahre. Daher ist die Aussage grenzwertig. Wenn die Spiele in 3-4 Jahren mehr brauchen, kauft man ja eh wieder eine neue.
Ich bin Wechselfaul und komme damit auf ca. 4 Jahre. Die 1070 wurde widerwillig sogar 5 Jahre alt, aber vor 1,5 Jahren wollte ich noch auf die 3000er warten und dann kam noch der Grafikkartenmarkt dazwischen.

Was auch noch relativ gesehen dazukommt ist, das die 10er überragend gut waren. Vorallem die 1080ti. Als Name wäre 1090 angemessener gewesen als 1080ti. Der Leistungsabstand zwischen der 1080ti und 1080 ist fast doppelt so groß wie der zwischen der 1070 und der 1080.
Die 7er oder 9er haben bei weitem nicht so lange "gehalten".


Ich halte für UHD (ohne DLSS oder ähnliche "Schummeleien") jede aktuelle Graka für unterdimensioniert. Zumindest wenn man davon ausgeht, das man damit auch High-End-Spiele in Ultra laufen lassen kann und trotzdem noch mindestens 60fps hinkriegt. Wobei nach Definition manch anderer ja 60fps schon nahezu "unspielbar" sind.


Ich muss sie mir nicht schönreden, ich hab ja keine. :p
Den 10GB der 3080 stand ich auch schon immer skeptisch Gegenüber. Den 8GB der kleineren umsomehr. Unter anderem weil ich in Einzelfällen mit den 8GB meiner alten 1070 schon am Limit war. Das waren dann aber idR Beta-Titel und/oder mit Mods aufgepumpte Spiele.
Aber so wie du hier anderen "schönreden" unterstellst, kann man deine Beiträge durchaus als "pechschwarzmalen" verstehen. ;)

Und zu anderen Beiträgen hier noch:
Ich habe das Gefühl, UWQHD wird massig unterschätzt, da es anscheinend oft mit WQHD vergleichen wird (weil es auch 1440p Höhe hat?). UWQHD hat satte DREIUNDDREIßIG Prozent mehr Pixel als WQHD. Das braucht man entsprechend auch nahezu 1:1 mehr an Rechenleistung (aber nicht (unbedingt) an VRAM).
Schalt doch mal bei dir Raytracing an und schau wie gut die 16gb performen :p
 
Solange die Games auf ner Konsole laufen packt eine 3070 die locker. Wieso sollten Games nicht gut laufen wenn man paar Details runterdreht?

Überlegt Mal mit was für Gurken an Grafikkarten der Großteil der Spieler unterwegs ist. Welcher Entwickler ist denn so bekloppt und schließt die alle aus? 😅
 
Solange die Games auf ner Konsole laufen packt eine 3070 die locker. Wieso sollten Games nicht gut laufen wenn man paar Details runterdreht?

Überlegt Mal mit was für Gurken an Grafikkarten der Großteil der Spieler unterwegs ist. Welcher Entwickler ist denn so bekloppt und schließt die alle aus? 😅
Konsole ist nur fake 4k ist hochgerechnet müsstest du eigentlich wissen
 
Konsole ist nur fake 4k ist hochgerechnet müsstest du eigentlich wissen
Und was macht DLSS? 😅
Wenn ich nicht unbedingt 4k, RTX, 144Hz "brauche" packt auch ne 3070 das super.

Ist ja nicht so dass der Bildschirm schwarz bleibt weil man sich keine 1600€ Karte kaufen kann/will. Und 60fps+ sollte mit den richtigen Settings locker drin sein.
 
Und was macht DLSS? 😅
Wenn ich nicht unbedingt 4k, RTX, 144Hz "brauche" packt auch ne 3070 das super.

Ist ja nicht so dass der Bildschirm schwarz bleibt weil man sich keine 1600€ Karte kaufen kann/will. Und 60fps+ sollte mit den richtigen Settings locker drin sein.
Der Treadstarter hat aber fast
4k wie oft eigentlich noch
 
Ach und übrigens ich hab mir eine 3080ti für Wqhd gekauft und nicht für 4k :d
Die hat auch "nur" 12GB, die 1080ti und 2080ti hatte schon 11GB... Kein alltzugroßer Fortschritt.
Und der VRAM hängt an den Texturen, nicht an der Monitorauflösung. Maximal indirekt dadurch das man für höhere Monitorauflösungen auch tendentiell höhere Texturauflösungen verwenden will.

Schalt doch mal bei dir Raytracing an und schau wie gut die 16gb performen :p
Ach, jetzt kommts doch wieder auf die Rechenleistung und nicht auf den VRAM an?
Du drehst dich auch wie ein Fähnchen im Wind.
Ich frage mich, ob du hier eigentlich nur ranten willst? Merkst du eigentlich, das ich dir im Grunde zustimme und die 8GB der 3070 als arg knapp bezeichne? Aber sie ist deswegen nicht gleich unbrauchbar.
(Mich wundert ja eher, das du noch nicht angemerkt hast, das der VRAM auf den 3000ern ja immerhin deutlich schneller ist als meine 16GB. :d)

Die Entscheidung für AMD, war für mich persönlich aber durchaus eine bewusste Abwägung (durchaus zwischen mehr VRAM und/oder Raytracing) und dann lief mir halt noch eine verhältnismäßig günstige über den Weg.
Ich halte Raytracing auch mit den 3000ern für genauso unpraktikabel wie UHD-Gaming. Viel zu hoher Leistungsverlust für minimalste Grafikverbesserungen, oder dann eben auch getrickst mit DLSS (wobei ich die Performance mit Raytracing und DLSS durchaus beachtlich finde, aber eben auch nicht wesentlich besser). Selbst direkte Screenshotvergleiche wirken auf mich eher wie "Finde die Unterschiede"-Bilder. Da muss schon noch ne ganze Ecke mehr kommen, bevor ich das haben "muss".

Aber zum TE, wobei ich dessen OP jetzt nichtmehr im Kopf habe: Für UWQHD ist die 3070 sicher keine Rundum-Sorglos-Alles-Auf-Ultra-Grafikkarte. Weder heute und schon gar nicht in 2-3 Jahren. Da sehe ich aber auch eine 3090 nicht wirklich. An VRAM mangelts der zwar sicher nicht, aber sooooviel mehr Rechenleistung hat die eigentlich auch nicht.
Je näher man heutzutage an das rundum-sorglos-Paket will, sofern es das überhaupt gibt, desto teurer wirds halt leider.
 
Dafür ist der x Speicher um einiges schneller und die 3080ti auch um einiges schneller als deine niedliche Rx 6800. Und wenn du von deinem Apfel Birnen Vergleich runtergekommen bist es geht um eine 3070 und uwqhd was fast 4k ist und dafür sind 8gb Speicher viel zu wenig du Möchtegern Besserwisser

Jo, die RX 6800/RTX 3070 sind niedlich, haben aber auch einen niedlichen Preis, im Gegensatz zu deinen ~1900€, gehabt. RTX 3070/639€ und die RX 6800/779€. Da fällt auch das runterstellen eine Reglers leichter als mit einer 2-3 x so teuren Karte, die von der kommenden billigeren Mittelklasse Karte wieder vernascht wird. Und sollte ich der Meinung sein es reicht nicht mehr...dann kommt halt was schnelleres her. Ich hab ja keinen Langzeitvertrag mit den Karten. Da hat jeder seinen eigenen Kaufintervall, wie auch jeder andere Ansprüche an seine Hardware hat


UWQHD ist fast 4K? Echt? Die ~67% zusätzlichen Pixel die in 4K mehr berechnet werden müssen?.......ein Klacks für jede Grafikkarte
 
UWQHD ist fast 4K? Echt? Die ~67% zusätzlichen Pixel die in 4K mehr berechnet werden müssen?.......ein Klacks für jede Grafikkarte
Ja, das die Pixelanzahl mit der Auflösung im Quadrat steigt, hat noch nicht jeder verstanden. ;) Wobei ich befürchte, das das Verständnisproblem weniger mit Auflösung und Pixelanzahl zu tun hat, sondern schon am verstehen einer Exponentialfunktion scheitert. :d
Deswegen auch meine Anmerkung oben das UWQHD zu WQHD schon dicke 33% mehr sind. :ROFLMAO:

Vielleicht nochmal deutlicher:
WQHD = 3.686.400 PIxel
UWQHD = 4.953.600 Pixel
UHD = 8.294.400 Pixel

Der Sprung von "fast UHD" (aka UWQHD) zu UHD ist GRÖßER (mehr als doppelt so groß!) als der von WQHD zu UWQHD.
 
Zuletzt bearbeitet:
Ja, das die Pixelanzahl mit der Auflösung im Quadrat steigt, hat noch nicht jeder verstanden. ;) Wobei ich befürchte, das das Verständnisproblem weniger mit Auflösung und Pixelanzahl zu tun hat, sondern schon am verstehen einer Exponentialfunktion scheitert. :d
Deswegen auch meine Anmerkung oben das UWQHD zu WQHD schon dicke 33% mehr sind. :ROFLMAO:

Vielleicht nochmal deutlicher:
WQHD = 3.686.400 PIxel
UWQHD = 4.953.600 Pixel
UHD = 8.294.400 Pixel

Der Sprung von "fast UHD" (aka UWQHD) zu UHD ist GRÖßER (mehr als doppelt so groß!) als der von WQHD zu UWQHD.
Extrem Interessant! Es soll aber auch Menschen geben die extrem unempathisch für das alles sind und sich einfach die aktuell stärkste Grafikkarte kaufen. Merkst du selber oder ? Geht ganz ohne Wissenschaft 8-)
 
Extrem Interessant! Es soll aber auch Menschen geben die extrem unempathisch für das alles sind und sich einfach die aktuell stärkste Grafikkarte kaufen. Merkst du selber oder ? Geht ganz ohne Wissenschaft 8-)
Ich frage mich, ob du hier eigentlich nur ranten willst? Merkst du eigentlich, das ich dir im Grunde zustimme und die 8GB der 3070 als arg knapp bezeichne? Aber sie ist deswegen nicht gleich unbrauchbar.
Hier war aber nicht die stärkste Graka gefragt, sondern eine 3070.
 
Jo, dir auch ein schönes Leben - Lass krachen Compadre!
 
Der Treadstarter hat aber fast
4k wie oft eigentlich noch
Wie die anderen schon sagten, ist das näher an 1440p als an 4k. Und da wird eine 3070 es schon richten. Wenn der TE Bedenken hat muss er eben nochmal 500€ drauflegen 🤷
 
@Topic.

Hab auch eine gtx 1080.
Hatte kurz leihweise eine 3070 da, aufgrund der vram Problematik ging die aber nach einem Tag weiter.

Dieses Jahr wurde es dann aufgrund von HDMI 2.1 die Rtx 3060 Mobile (die hat zwar noch weniger vram aber bei dem Laptop war mir das egal) und jetzt siehts fast nach einer 6900xt aus. Ende des Jahres wird die dann verkauft und dann mal sehen.
 
Hatte kurz leihweise eine 3070 da, aufgrund der vram Problematik ging die aber nach einem Tag weiter.
Theoretischer Problematik, oder wo/mit welchen Spielen hattest du konkret Probleme?
 
Theoretischer Problematik, oder wo/mit welchen Spielen hattest du konkret Probleme?
Assassin's Creed Unity mit Msaa in 4k, Shadow of war Ultra in 4k, Star wars battlefront 2017 mit Resolution Scale, Control usw.

Hört sich zwar nicht viel an aber ohne osd, fühlte es sich an, als wäre die 1080 mit ordentlich oc verbaut. Alles über 4k ist nicht spielbar.
 
was heist denn nicht spielbar? fps einbrüche oder einfach zu wenig fps? weil MSAA ist halt teuer
 
Hört sich zwar nicht viel an aber ohne osd, fühlte es sich an, als wäre die 1080 mit ordentlich oc verbaut. Alles über 4k ist nicht spielbar.
Versteh ich nicht ganz.

osd? OnScreenDisplay? Was hat das mit der Performance oder dem VRAM zu tun?
ÜBER 4K? Lässt du die Spiele in 8K rendern und dann auf UHD downscalen, oder wie?
Und die 1080 soll das aber hinkriegen? Mit ebenfalls nur 8GB, oder isses eine Ti mit 11GB? Oder reicht dir auf der 1080 WQHD, aber auf einer 3070 willst du dann auf einmal UHD, oder was ist da jetzt dein Vergleich?

Sicher das deine Probleme mit den "nur" 8GB einer 3070 zu tun haben, oder hast du die von der Rechenleistung her einfach nur gnadenlos überfordert (und springst jetzt ohne überhaupt mal geguckt zu haben worans hängt) auf den "die hat aber zu wenig VRAM"-Hypetrain auf?

Control ist das einzige Spiel aus deiner Liste was ich auch habe. Das hab ich mal auf einer geliehenen 2080ti laufen lassen. Die hat zwar 11GB und ich hatte zu dem Zeitpunkt nur FHD, ist also auch nicht unbedingt vergleichbar, aber das lief auf Ultra mit RTX nativ mit ~40fps und mit DLSS dann mit 70-80fps.
Man liest zwar, das es sich in 8K mit RTX um die 18GB VRAM genehmigen soll, aber mit 8K dürfte selbst die Performance einer 3090 unterirdisch sein, obwohl die genug VRAM hätte. Aber da bist du dann auch mit den 16GB einer RX6900xt schon drunter, und RTX dürfte damit eh nicht so wirklich drin sein.

Einige Spiele sind übrigens auch intelligent genug um zu gucken wieviel VRAM da ist und lassen dann automatisch z.B. Mipmapstufen weg um VRAM zu sparen, sollte dieser nicht reichen, auch wenn man Ultra eingestellt hat.
Beitrag automatisch zusammengeführt:

weil MSAA ist halt teuer
Ja, teuer für die Rechenleistung. Der Einfluss auf VRAM ist dagegen eher gering.
3840x2160x32 = 33.177.600Byte pro Frame. Also selbst mit TripleBuffering braucht das nur ~100MB VRAM. Mach noch HDR und evtl. zwei parallele Kopien davon nötig, sinds halt 250MB.
Falls 8K dann sinds eben ~500MB.

Schwierig wirds, wenn dabei dann auch automatisch 8K-Texturen verwendet werden. 8K-Texturen hat nichts mit der Monitorauflösung zu tun, sondern besagt das jede einzelne Textur statt 4096x4096 Pixel eben 8192x8192Pixel in der höchsten Stufe verwendet, zusätzlich zu den niedrigeren Mipmap-Stufen. Wobei der Vergleich da auch etwas hängt, weil die Texturen ja sowieso komprimiert werden, andernfalls könnte man selbst mit 16GB praktisch gar nichts mehr spielen.

1:1 Vergleich mit den AMD-Grakas mit 16GB passt auch nicht wirklich. Der VRAM der AMDs ist deutlich langsamer angebunden als bei den NVidias. Dafür haben die AMDs nochmal einen extra (schnelleren) Cache, aber wenn du die Texturen explodieren lässt, dann ist auch der Cache ratzfatz voll und die Performance bricht ein, obwohl 16GB da wären.
 
Zuletzt bearbeitet:
das krasseste in sachen MSAA anforderung hab ich in rdr2 gesehen.:fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh