Das ist die GeForce RTX 3080 in der Founders Edition

Ich bin richtig gespannt was die Tests zum Thema OC sagen.
Die Leaks reden von gerade mal 1,5-2% mehr Leisung bei 5-6% mehr Takt, aber ich nehme an, man kann da mit besser Kühlung/Undervolting/TDP Limit anheben was machen?

Ja man kann was machen, nämlich erst mal keine Leaks mehr lesen und abwarten bis die Karten draußen sind.

Bei manchen ist das wohl die einzige Möglichkeit ruhig zu bleiben bis die Fakten auf dem Tisch liegen. :rolleyes:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Von Nvidias Preisen mag man halten was man will, allerdings steigert Nvidia auch schon seit einigen Generationen die Leistung jeweils um ca. 50 %. Also "immerhin" tun die was für ihr Geld.
 
Von Nvidias Preisen mag man halten was man will, allerdings steigert Nvidia auch schon seit einigen Generationen die Leistung jeweils um ca. 50 %. Also "immerhin" tun die was für ihr Geld.
Komisch, welche Quelle / Statistik nutzt du für deine Angabe?
Stellen wir einfach mal so hin ohne Angabe einer Quelle oder belastbaren Fakten?

Nichts gegen dich persönlich, aber dann kann ich immer nur hoffen, dass entweder Jeder seine grüne oder rote Brille abnimmt in Threads wie "Welche Grafikkarte soll ich kaufen" oder sich einfach zurückhält mit Beratungen oder wie in diesem Fall mit einer Theorie, welche andere lesen werden und schlimmstenfalls sogar Glauben schenken...Meist auch noch wiederholen und weiter falsche Thesen streuen, bis hier in den Foren wieder die Diskussionsgrundlage stirbt, da keine Sachlichkeit mehr vorhanden ist.

Es gab einmalig eine Leistungserhöhung von über 50 %...in letzter Zeit... bei Betrachtung von Preis / Leistung!
Woher kommt deine Angabe von "seit einigen Generationen um ca. 50%"...
Das ist nicht nur faktisch falsch, sondern entspricht auch einfach nicht der Wahrheit.

Dann versuch ich es mal mit Quellenangabe und Fakten:
nvidia-geforce-pl-verhältnis-bildquelle-reddituhic-sunt-leones_6103844.jpg


Daher Zusammengefasst: Die 1000er Serie hatte die beste Performance / Preis Relation in letzter Zeit (vor allem, da Maxwell bereits eine verdammt gute Leistungssteigerung besaß!), die RTX 2000er Serie eine ziemlich schlechte.
Das beste P/L Verhältnis jemals besaß die 200er Serie...
Die Leistungssteigerung pro $ von der vorigen Generation zur nächsten, kann man wunderbar oben sehen...
Bei der RTX 3000 Serie werden wir das Verhältnis bald kennen, wenn der NDA Zeitpunkt nicht wegen Schmetterlingsschläge in China nach hinten verlegt wird... 😉

PS. Auch diese Statistik zeigt nur den Vergleich von einer Generation zur nächsten die Performance / Kosten in Verhältnis an.
Das bedeutet lange noch nicht, dass wenn eine Generation vorher sehr teuer war, die nächste weitaus günstiger ist (und trotzdem schneller), dass sich die neuen Preise zur Leistung in Relation dann lohnen... 😉

Auch sollte klar sein, dass gerade die alten Serien, gar nicht mehr mit aktuellen zu vergleichen sind (Auflösungen, VRam etc.), aber die Preise zur relativen Leistung, bleiben messbar.

Wenn man Glück hat, schafft Nvidia oder AMD eine Leistungssteigerung zwischen zwei Genarationen (ggfls. inkl. Fertigungsvorteil) von 18 % bis 35 % (sollte mittlerweile bekannt sein).
Alles andere, ist schon ernormes Glück oder eine einfach verdammt gute Leistung!


Überblick Leistung untereinander: (2080 TI = 100 %)

relative-performance_1920-1080.png

relative-performance_2560-1440.png

relative-performance_3840-2160.png


Sonst mal die reine Leistung betrachtet (Aussage sollten m.E. die 99 th Angabe besitzen):
uw7FfMyNtvNF9QhccoSkkX-1920-80.png

zuCuJHvDuevZmpfwsvGApX-1920-80.png

46fq6HSQHQ9LVgB4ay9GuX-1920-80.png


CardScoreGPUBase/BoostMemoryPowerBuy
Nvidia Titan RTX100.0%TU1021350/1770 MHz24GB GDDR6280WCHECK PRICE
Nvidia GeForce RTX 2080 Ti94.4%TU1021350/1635 MHz11GB GDDR6260WCHECK PRICE
Nvidia Titan V85.7%GV1001200/1455 MHz12GB HBM2250W
Nvidia GeForce RTX 2080 Super83.1%TU1041650/1815 MHz8GB GDDR6250WCHECK PRICE
Nvidia GeForce RTX 208078.1%TU1041515/1800 MHz8GB GDDR6225WCHECK PRICE
Nvidia Titan Xp76.3%GP1021405/1480 MHz12GB GDDR5X250WCHECK AMAZON
Nvidia GeForce RTX 2070 Super74.0%TU1041605/1770 MHz8GB GDDR6215WCHECK PRICE
AMD Radeon VII73.5%Vega 201400/1750 MHz16GB HBM2300WCHECK PRICE
Nvidia GeForce GTX 1080 Ti72.1%GP1021480/1582 MHz11GB GDDR5X250WCHECK PRICE
AMD Radeon RX 5700 XT70.3%Navi 101605/1905 MHz8GB GDDR6225WCHECK PRICE
Nvidia GeForce RTX 207066.2%TU1061410/1710 MHz8GB GDDR6185WCHECK PRICE
AMD Radeon RX 570063.7%Navi 101465/1725 MHz8GB GDDR6185WCHECK PRICE
Nvidia GeForce RTX 2060 Super62.9%TU1061470/1650 MHz8GB GDDR6175WCHECK PRICE
AMD Radeon RX Vega 6460.5%Vega 101274/1546 MHz8GB HBM2295WCHECK AMAZON
AMD Radeon RX 5600 XT57.7%Navi 10?/1615 MHz6GB GDDR6150WCHECK AMAZON
Nvidia GeForce GTX 108056.5%GP1041607/1733 MHz8GB GDDR5X180WCHECK PRICE
Nvidia GeForce RTX 206055.9%TU1061365/1680 MHz6GB GDDR6160WCHECK PRICE
AMD Radeon RX Vega 5653.3%Vega 101156/1471 MHz8GB HBM2210WCHECK PRICE
Nvidia GeForce GTX 1070 Ti52.5%GP1041607/1683 MHz8GB GDDR5180WCHECK PRICE
Nvidia GeForce GTX 1660 Ti47.2%TU1161365/1680 MHz6GB GDDR6120WCHECK PRICE
Nvidia GeForce GTX 1660 Super46.9%TU1161530/1785 MHz6GB GDDR6125WCHECK PRICE
Nvidia GeForce GTX 107045.9%GP1041506/1683 MHz8GB GDDR5150WCHECK PRICE
Nvidia GTX Titan X (Maxwell)44.0%GM2001000/1075 MHz12GB GDDR5250
Nvidia GeForce GTX 980 Ti41.1%GM2001000/1075 MHz6GB GDDR5250WCHECK AMAZON
Nvidia GeForce GTX 166041.0%TU1161530/1785 MHz6GB GDDR5120WCHECK PRICE
AMD Radeon R9 Fury X40.9%Fiji1050 MHz4GB HBM275WCHECK PRICE
AMD Radeon RX 59040.4%Polaris 301469/1545 MHz8GB GDDR5225WCHECK PRICE
AMD Radeon RX 5500 XT 8GB39.4%Navi 14?/1717 MHz8GB GDDR6130WCHECK PRICE
AMD Radeon RX 580 8GB38.6%Polaris 201257/1340 MHz8GB GDDR5185WCHECK PRICE
Nvidia GeForce GTX 1650 Super35.5%TU1161530/1725 MHz4GB GDDR6100WCHECK PRICE
AMD Radeon RX 5500 XT 4GB35.4%Navi 14?/1717 MHz4GB GDDR6130WCHECK PRICE
AMD Radeon R9 39033.9%Hawaii1000 MHz8GB GDDR5275WCHECK AMAZON
Nvidia GeForce GTX 1060 6GB33.0%GP1061506/1708 MHz6GB GDDR5120WCHECK PRICE
Nvidia GeForce GTX 98033.0%GM2041126/1216 MHz4GB GDDR5165WCHECK PRICE
AMD Radeon RX 570 4GB31.5%Polaris 201168/1244 MHz4GB GDDR5150WCHECK PRICE
Nvidia GTX 1650 GDDR629.8%TU1171410/1590 MHz4GB GDDR675WCHECK AMAZON
Nvidia GeForce GTX 1060 3GB27.8%GP1061506/1708 MHz3GB GDDR5120WCHECK PRICE
Nvidia GeForce GTX 97027.6%GM2041050/1178 MHz4GB GDDR5145WCHECK AMAZON
Nvidia GeForce GTX 165026.1%TU1171485/1665 MHz4GB GDDR575WCHECK PRICE
Nvidia GeForce GTX 1050 Ti20.1%GP1071290/1392 MHz4GB GDDR575WCHECK PRICE
AMD Radeon RX 560 4GB15.7%Polaris 211175/1275 MHz4GB GDDR580WCHECK PRICE
Nvidia GeForce GTX 105015.2%GP1071354/1455 MHz2GB GDDR575WCHECK PRICE
AMD Radeon RX 55010.0%Polaris 221100/1183 MHz4GB GDDR550WCHECK PRICE
Nvidia GeForce GT 10307.2%GP1081228/1468 MHz2GB GDDR530WCHECK PRICE
AMD Vega 11 (R5 3400G)6.8%Vega 111400 MHz2x8GB DDR4-3200N/A
AMD Vega 8 (R3 3200G)6.1%Vega 81250 MHz2x8GB DDR4-3200N/A
Intel Iris Plus (i7-1065G7)4.1%Gen11 ICL-U1100 MHz2x8GB LPDDR4X-3733N/A
Intel UHD Graphics 630 (i7-9700K)2.5%Gen9.5 CFL1200 MHz2x8GB DDR4-3200N/A
 

Anhänge

  • nvidia-geforce-pl-verhältnis-bildquelle-reddituhic-sunt-leones_6103844.jpg
    nvidia-geforce-pl-verhältnis-bildquelle-reddituhic-sunt-leones_6103844.jpg
    31,1 KB · Aufrufe: 113
Zuletzt bearbeitet:
Kommt drauf an. Pascal war völlig in Ordnung. Aber seit Turing hatte man diesen Ausreißer - Jetzt mit der 3090 wieder.
 
@Niftu Cal:
Mag ja sein, dass wir alle subjektiv gesehen, für eine Pascal 1080 TI (mit etwas über 30 % gesteigerten relativen Leistung zu Maxwells 980 TI) einen guten Deal gemacht haben, jedoch sehe ich hier in den TechPowerUp Vergleichen nicht eine Leistungssteigerung von über 50 % zwischen den aktuellen Generationen...Oder bin ich einfach blind?!
Jeder soll weiterhin entscheiden, was er kaufern mag, aber nicht mit Angaben zu Leistungssteigerungen, welche faktisch nicht existieren.

Und bei aller "Liebe zum Hobby", ich persönlich finde, dass Nvidia mit Ihrer 3080 / 10 GB VRAM absolut gezeigt hat was weiterhin Sache ist:
- Melkt die Kunden weiterhin, immerhin bekommt ihr mehr Leistung (ich schätze so um die 18 % - 25 % mehr als 2080 TI - ohne RTX / DLSS) als vorher zum "halben Preis".
Dass die VRAM Menge selbst die 1080 TI überbietet, scheint ja niemanden hier wirklich zu jucken! Sind ja erst über 4 Jahre vergangen zwischen 1080 TI & 3080! Da ist doch ein GB VRAM weniger angemessen, oder?!
- Das so fast jeder Preis unterhalb der 2080 TI (da höhere Leistung zu dieser= echt jetzt, nach zwei Jahren und diesen 2080 TI Fantasie Preis?!) einfach abgenickt wird, zeigt einfach, wie weit Nvidia immer noch gehen kann - ohne von uns Kunden abgestraft zu werden!
- Die Geschäftspraktiken regen mich einfach auf. Ein NDA an sich ist nicht verwerflich, aber Redaktionen im Detail vorzugeben, dass nur Spiele mit RTX / DLSS und nur mit Prozentangaben vor NDA Schluss zugelassen werden, zeigt deutlich, das da etwas "riecht". Das nennt man agressives Marketing in Asien. Hier sollte es unter ****** fallen & Mißbrauch von Marktbeherrschender Stellung!
- Ich würde es mal so runterbrechen: Ich bin mir sicher, dass Nvidia nach einem halben Jahr die 3080 S / 3080 TI mit mehr VRAM (12 GB - 16 GB) bringen wird für ca. 150 € - 200 € mehr.
- Natürlich wäre die 3090 für ca. 600 € / 800 € die Karte, welche persönlich ich mir gewünscht hätte! Das wäre einer High-End Karte inkl. Preisgestaltung halbwegs würdig!
- Wenn AMD von der Leistung auch nur in die Nähe der 3090 kommen würde, bin ich mir fast sicher, dass wir diesen Preis auch ähnlich angeboten bekommen...(vielleicht weiß ja jemand noch, das High-End GPUs mal bei ca. 400 € bis ca. 550 € lagen). Und dafür gibt es leider nur einen Grund: Gier! Immerhin ist man eine Aktiengesellschaft und die muss immer weiter wachsen, wie alles im Auge des Kapitalismus!
 
Zuletzt bearbeitet:
Mag ja sein, dass wir alle subjektiv gesehen, für eine Pascal 1080 TI (mit etwas über 30 % gesteigerten relativen Leistung zu Maxwells 980 TI) einen guten Deal gemacht haben, jedoch sehe ich hier in den TechPowerUp Vergleichen nicht eine Leistungssteigerung von über 50 % zwischen den aktuellen Generationen...Oder bin ich einfach blind?!
Laut deiner Quelle ist die 1080ti 74% schneller als die 980ti in 1440p...
 
Solange es gekauft wird alles richtig gemacht, und es wird gekauft. Jaja der böse Kapitalismus... einfach kaufen was im Budget liegt und fertig.
Weis man noch als Highend PCs 3000 - 5000DM gekostet haben...

system1ijje.jpg
 
Zuletzt bearbeitet:
Laut deiner Quelle ist die 1080ti 74% schneller als die 980ti in 1440p...
Falls damit der TechPowerUp Vergleich gemeint sein sollte, die 2080 TI stellt die 100 % da, alle anderen nur die relative Leistung zur diesen 100 % der 2080 TI. Habe ich jetzt nochmal ergänzt. Trotzdem sehe ich keine 74 % ... sondern weiterhin etwas mehr als 30 % ... Kläre mich aber bitte gerne auf.
Beitrag automatisch zusammengeführt:

Solange es gekauft wird alles richtig gemacht, und es wird gekauft. Jaja der böse Kapitalismus... einfach kaufen was im Budget liegt und fertig.
Weis man noch als Highend PCs 3000 - 5000DM gekostet haben...

system1ijje.jpg
Nur mir dem Unterschied, dass damals die Leistungssprünge viel schneller & höher waren zu heute, oder?
Und dass hier noch in DMark gerechnet wird, sollte uns beiden auch bewusst sein, gell?
Auch das hier ein vollständiges System (Monitor ausgenommen) mit einer diskreten GPU verglichen wird, erscheint mir kein besonders guter Vergleich zu sein.
Darüber hinaus, bis auf die ersten hyped GPUs (Voodo / 3DFX Zeiten), stimmt das auch nicht, dass High-End GPUs immer so teuer waren.
Ich konnte mir locker für ca. 400 € - 600 € 2x 7970 GHz Edition 6 GBs (Crossfire) in den Rechner "Kaufen" mit meinen Lehrlingsgehalt...!
Das waren für mich "tolle GPUs" mit ansprechender Preisgestaltung!
 
Zuletzt bearbeitet:
Was dir wie erscheint ist mir eig egal. Es ging um die Kosten. Und es war mal sau teuer. Und denn wieder günstiger.

Da die 3090 eine Titan weitestgehend ersetzt laut Jensen, ist sogar die erstmal billiger geworden. Dir wird in dem Budget eine 3070 oder etwas von AMD geboten (500Euro) verstehe das Gejammer nicht.
 
@DDbom:
Mein "Gejammer", wie du es nennst, beschränkt(e) sich eigentlich auf die vorige falsche Aussage von 50 % Leistungseigerungen zwischen fast jeder (Nvidia) Generation untereinander!


Aber schön und bezeichnend, das nur "der Teil" hängen geblieben ist!

Danach beschränkt sich mein Gejammer auf die Preispolitik seit dem Mining Boom, egal vom wem & das wir alle "abnicken" & kaufen.

Was dir wie erscheint ist mir eig egal. Es ging um die Kosten. Und es war mal sau teuer. Und denn wieder günstiger.

Da die 3090 eine Titan weitestgehend ersetzt laut Jensen, ist sogar die erstmal billiger geworden. Dir wird in dem Budget eine 3070 oder etwas von AMD geboten (500Euro) verstehe das Gejammer nicht.
Alles war mal "sau teuer". Willst du die ersten in Serie gefertigten Autos, Flugzeuge, oder demnächst "Tourismus im All" damit gleichsetzen? Schöne Grundlage für eine Diskussion!

Mein erster eigener PC war bei ca. 2000 DMark (333 MHz Intel schlag mich tot)... Na und, was heißt das jetzt in diesen Bezug?
Das dein Prospekt von Anno 1995 ein schlechtes Angebot hatte? Oder das PCs zu dieser Zeit einfach noch selten im Privatsektor waren und eigentlich nicht primär für das Spielen gedacht waren?!

Ich bin mir sehr sicher, dass du das Prospekt bei jeder Diskussion zu Preisen auf den Tisch legst.

Hier habe aber ich, den Preis für die geleakte Rohleistung in Verhältnis gesetzt! Darauf gehst du aber überhaupt nicht ein. Danke.
Mit einem Prospekt zu wedeln, geht wesentlich schneller & passt halt immer, anstatt in eine sachliche Diskussion zu gehen?

Achtung, die nachfolgenden Sätze können leichte Spuren von Sarkasmus / Ironie besitzen und sollten auch so verstanden werden...

Aber du hast Recht, für jeden wird wieder etwas geboten, egal in welchem Preisbereich!
Deswegen kam ich u.a. auf den VRAM der 3080 zu sprechen, aber auch das ist ja "OK", da ja für jeden Preisbereich etwas vorhanden ist... richtig! : )

Jeder der mag, kann sich ja vorerst die günstigste Titan aller Zeiten kaufen (deine Worte) = 3090 kaufen, wenn der VRAM von 10 GB in einem Jahr ausgehen sollte (was er bekanntermaßen jetzt schon tut bei 4K & vor allem großen Texturen).

Und um die early adopter wieder zu belohnen, wird 2021 eine 3080 Super mit ein wenig mehr VRAM nachgeschoben, natürlich auch mit einen sehr guten Preis / Leistungsverhältnis seit Maxwell / Pascal.

Das die erste und zweite Generation der wirklichen Titan auch mal wirklich Sinn ergab (Double Precision Performance), ist längst Geschichte! Seitdem werden höchstens Cuda Cores / RTX Tensor Cores als Kaufargument gerechtfertigt.
Und machen wir uns nichts vor, Nvidia hat noch die wirkliche Titan bereit, falls AMD wiedererwarten kontern könnte...Was sie nicht können werden.

Damit lass ich den ganzen Off Topic Quatsch, welcher immer Bezug auf die 3080 besaß.
Meine persönliche Meinung, meine sachliche Kritik mit Logik & Menschenverstand / Quellen zu versehen, scheint nicht angebracht zu sein.
 
Zuletzt bearbeitet:
Falls damit der TechPowerUp Vergleich gemeint sein sollte, die 2080 TI stellt die 100 % da, alle anderen nur die relative Leistung zur diesen 100 % der 2080 TI. Habe ich jetzt nochmal ergänzt. Trotzdem sehe ich keine 74 % ... sondern weiterhin etwas mehr als 30 % ... Kläre mich aber bitte gerne auf.

Wenn Du die GTX 1080Ti und die GTX 980Ti vergleichen willst ist doch der Wert von einer RTX 2080Ti irrelevant.
Je nachdem wo Du die 100% siehst, ist die GTX 1080Ti 79% schneller, oder die GTX 980Ti 44% langsamer.

So schauts über alle Auflösungen aus.
 

Anhänge

  • Screenshot (245).png
    Screenshot (245).png
    41,7 KB · Aufrufe: 67
  • Screenshot (246).png
    Screenshot (246).png
    31,7 KB · Aufrufe: 63
Zuletzt bearbeitet:
Mein Nachbar hat die Karte auch schon. Der Leistungszuwachs soll wohl gut sein. Aber nicht so, wie hier einige meinen.

Rt on/Off...
Ist Berni dein Nachbar?
Beitrag automatisch zusammengeführt:

Solange es gekauft wird alles richtig gemacht, und es wird gekauft. Jaja der böse Kapitalismus... einfach kaufen was im Budget liegt und fertig.
Weis man noch als Highend PCs 3000 - 5000DM gekostet haben...

system1ijje.jpg
Neuer 2K Aldi PC und man war der King mit der ersten 1,2GHz CPU (AMD) :P
 
Laut #303 ist die 2080Ti also gerade mal 35-40% schneller als die 1080?!
Never ever, die hat 75%-100 mehr Leistung. Da haut irgendwas nicht hin. Es sei denn man hat mit ner absoluten CPU Krücke gebencht...
 
Laut #303 ist die 2080Ti also gerade mal 35-40% schneller als die 1080?!
Never ever, die hat 75%-100 mehr Leistung. Da haut irgendwas nicht hin. Es sei denn man hat mit ner absoluten CPU Krücke gebencht...
Leute...

Dort steht ganz klar folgendes (2080Ti vs 1080 on Ti)
1080p: 49,3% schneller
1440p: 66,7% schneller
2160p: 85,2% schneller

Was ist an diesen Diagrammen so schwer??
 
Aber wie die neuen Grafikkarten im Laptop eine passable Kühlung erhalten sollen (der "Platz" im Laptop ist ja begrenzt), ist mir ein Rätsel.

wenn die endlich mal die Laptops mit solchen Karten dicker machen und eine dickere Kühlung verbauen, ist das kein Problem. Man nehme dickere Lüfter und statt 3, 6 oder mehr Heatpipes pro GPU und CPU und schon geht das.
 
Mehr Heatpipes bringen wenig wenn sie nicht mit größerer Oberfläche und stärkeren Lüftern gepaart werden, die Luft aus dem Gehäuse abführen.

Darunter leidet halt die Mobilität, ein Bekannter, der als Freelancer in der Werbung arbeitet, hat sich so einen Gaming-Klotz für 3500€ als Business-Laptop gekauft, mittlerweile bereut er es ein bisschen. :fresse2:

Ich habe ihm gleich gesagt er soll was schlankes nehmen und eine eGPU, aber wer nicht hören will muss fühlen.
 
Wenn Du die GTX 1080Ti und die GTX 980Ti vergleichen willst ist doch der Wert von einer RTX 2080Ti irrelevant.
Je nachdem wo Du die 100% siehst, ist die GTX 1080Ti 79% schneller, oder die GTX 980Ti 44% langsamer.

So schauts über alle Auflösungen aus.
Glaube die TechPowerUp Vergleiche sind da ein wenig "zu gemittelt" und haben u. U. nicht nur Spiele verglichen.
Andandtech hat dazu auch eine schöne Übersicht:
Screenshot_20200914-095346_Chrome.jpg

Screenshot_20200914-095402_Chrome.jpg

Screenshot_20200914-095418_Chrome.jpg


Es kommt also wie immer auf das Spiel / die Anwendung an.
Auch sind die max FPS keine gute Angabe, die 99th Percent Angabe ist da wesentlich praktikabler...
Je nach dem, können es bis zu 50 % sein.
Aber das jetzt auf jede Generation zu übertragen, wäre trotzdem falsch.
 
Zuletzt bearbeitet:
Jeder der mag, kann sich ja vorerst die günstigste Titan aller Zeiten kaufen (deine Worte) = 3090 kaufen,

Das waren aber nicht seine Worte. Das sind Worte, die du ihm in den Mund legst. Er hat einfach nur geschrieben, dass die vermeintliche Titan, wenn man die 3090 als Titan ansehen will, mit der aktuellen Generation wieder etwas günstiger geworden ist. Das bedeutet aber noch lange nicht, dass diese günstiger ist als alle Titans zuvor.


wenn der VRAM von 10 GB in einem Jahr ausgehen sollte (was er bekanntermaßen jetzt schon tut bei 4K & vor allem großen Texturen).

Bitte eine Quelle für diese Behauptung. Aber nicht nur von Szenarien, wo mal mehr als 10GB belegt wurden, da eh genug VRAM vorhanden war, sondern wo diese wirklich benötigt werden. Denn beim VRAM gilt immer noch belegt != benötigt.


Meine persönliche Meinung, meine sachliche Kritik mit Logik & Menschenverstand / Quellen zu versehen, scheint nicht angebracht zu sein.

Eigentlich versuchst du uns allen hier nur deine persönliche Meinung aufzudrücken und hast dir dazu alibimäßig paar Sachen zusammengesucht, wo du dir irgendetwas zusammen reimst und die gerade irgendwie passen könnten. Dabei verstehst du teils deine eigenen Quellen nicht bzw. fehlinterpretierst diese und belegst nicht einmal alle deiner Behauptungen, sondern nur vereinzelte...
 
Mein Bruder hat 8GB 5700xt und ich eine 1080ti 11GB.
Wir zocken CoD und haben gleich viel FPS. Bei mir sind die 11 GB fast voll und er hat nur 8GB. Wie gesagt, gleiche Performance
 
Mein Bruder hat 8GB 5700xt und ich eine 1080ti 11GB.
Wir zocken CoD und haben gleich viel FPS. Bei mir sind die 11 GB fast voll und er hat nur 8GB. Wie gesagt, gleiche Performance
Ich nutze aktuell noch die 1080ti (WQHD) und habe bis auf bei COD Warzone keine Probleme. Das Problem konnte ich aber auch beheben indem ich eine ini. angepasst habe damit das Game dem VRAM nicht wegfrisst. Die Games sind halt einfach zT absolut beschissen optimiert.
 
Ich nutze aktuell noch die 1080ti (WQHD) und habe bis auf bei COD Warzone keine Probleme. Das Problem konnte ich aber auch beheben indem ich eine ini. angepasst habe damit das Game dem VRAM nicht wegfrisst. Die Games sind halt einfach zT absolut beschissen optimiert.
Ich habe keine Probleme bei CoD. Mein Speicher ist voll, GPU 99% und spiele es zwischen 90-120 FPS. Deswegen mache ich mir jetzt über die 10GB bei der 3080 keine Sorgen.
 
Mein Bruder hat 8GB 5700xt und ich eine 1080ti 11GB.
Wir zocken CoD und haben gleich viel FPS. Bei mir sind die 11 GB fast voll und er hat nur 8GB. Wie gesagt, gleiche Performance

Games nehmen sich alles was da ist darauf braucht man nicht gehen. Nvidia sagt 10GB reichen und die rechnen bei der 3080 mit 4K. Glaube NVidia kennt sich aus mit diesem Grafikkartenzeug.
 
Was soll Nvidia sonst sagen wenn sie nur 10GB verbauen ? Es reicht nicht kauft die Karte nicht ? Sehr geile Aussage, wenn der Hersteller es sagt muss es ja stimmen :lol:
Beitrag automatisch zusammengeführt:

Ich nutze aktuell noch die 1080ti (WQHD) und habe bis auf bei COD Warzone keine Probleme. Das Problem konnte ich aber auch beheben indem ich eine ini. angepasst habe damit das Game dem VRAM nicht wegfrisst. Die Games sind halt einfach zT absolut beschissen optimiert.

Gibt noch andere Games wie Cod auf dieser Erde..
 
Zuletzt bearbeitet:
Nur mir dem Unterschied, dass damals die Leistungssprünge viel schneller & höher waren zu heute, oder?
Wobei das allerdings heisst, die Hardware war damals auch schneller veraltet.

Mein Bruder hat 8GB 5700xt und ich eine 1080ti 11GB.
Wir zocken CoD und haben gleich viel FPS. Bei mir sind die 11 GB fast voll und er hat nur 8GB. Wie gesagt, gleiche Performance
VRam ist nunmal ein Cache. Da wird selten was gelöscht, sondern wird für alle eventuitäten verfügbar gehalten bis was neues geladen werden muss.
Darum ist die Auslastungsangabe leider ziemlich nutzlos um die Notwendigkeit von Ram einzuschätzen.

Interessant wäre es wenn es eine Software gäbe mit der man vram einfach fix belegen könnte um zu testen ab wann es zu Leistungseinbrüchen kommt.
 
Games nehmen sich alles was da ist darauf braucht man nicht gehen. Nvidia sagt 10GB reichen und die rechnen bei der 3080 mit 4K. Glaube NVidia kennt sich aus mit diesem Grafikkartenzeug.

Und ich glaube, die wollen Dir 10GB verkaufen damit:
- Die Karte früher von Dir durch eine neue ausgetauscht wird
- Die Karte erstmal günstiger erscheint und Du glaubst NVidia hört auf die Gamer und verzichtet jetzt auf Gewinn.
- Der Gewinn bei NVidia höher ausfällt.

Es wurden hier in den letzten Wochen schon genug praktische Beispiele von Usern mit Bildschirmschüssen gebracht, in denen der Speicher voll war. Kann jeder selber suchen. In Tests ist zuletzt Horizon zero dawn mit VRam usage aufgefallen. Gute Engines streamen dann die Texturen in schlechterer Qualität und Du merkst halt gar nichts davon. Und man weis dann ja nicht, dass es besser aussehen könnte. Man kann auch einfach mal ein bisschen an den Reglern spielen (Kantenglättung und LoD siehe auch PCWelt). Ist doch auch OK. Es bleibt dabei, you get what you pay for.
 
Und ich glaube, die wollen Dir 10GB verkaufen damit:
- Die Karte früher von Dir durch eine neue ausgetauscht wird
- Die Karte erstmal günstiger erscheint und Du glaubst NVidia hört auf die Gamer und verzichtet jetzt auf Gewinn.
- Der Gewinn bei NVidia höher ausfällt.

Es wurden hier in den letzten Wochen schon genug praktische Beispiele von Usern mit Bildschirmschüssen gebracht, in denen der Speicher voll war. Kann jeder selber suchen. In Tests ist zuletzt Horizon zero dawn mit VRam usage aufgefallen. Gute Engines streamen dann die Texturen in schlechterer Qualität und Du merkst halt gar nichts davon. Und man weis dann ja nicht, dass es besser aussehen könnte. Man kann auch einfach mal ein bisschen an den Reglern spielen (Kantenglättung und LoD siehe auch PCWelt). Ist doch auch OK. Es bleibt dabei, you get what you pay for.
Gut gemeint THK aber bringt nix, die möchten keine Fakten sondern sich nur die 3080 schönreden.
Ich werd evtl bald ganz im 3090 Sammler verschwinden, braucht man sich nicht geben..
 
Interessant wäre es wenn es eine Software gäbe mit der man vram einfach fix belegen könnte um zu testen ab wann es zu Leistungseinbrüchen kommt.

Habe schon seit 20 Jahren keinen C Compiler mehr zu Hause und entwickle mehr in Hochsprachen. Hatte aber erst vor kurzem mal nachgefragt, ob nicht Jemand ein kleines Programm schreiben könnte mit dem man beliebigen V-Ram allokieren könnte. Danach dann einen Spielebenchmark starten und gucken, was passiert. :sneaky: Das wäre eigentlich was für Don.
 
Niemand redet die 3080 schön aber ich bin der Meinung, dass wir die Tests abwarten müssen, um letztlich zu sehen oder auch beurteilen zu können, ob die 10 GB nicht ausreichen.
So fair kann man doch sein, denn immerhin ist Nvidia der Ansicht, dass es sich um eine vollwertige 4K Karte handelt.
 
...sondern sich nur die 3080 schönreden.

....ist doch an sich aber eine ganz passable Karte...

hier sollte das nicht so schwarz / weiß gesehen werden

man stellt sich damit nur selber in eine Ecke, aus der man nicht so leicht herauskommt
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh