Alles zu Navi: Radeon RX 5700 XT ist RDNA mit GDDR6

um wirklich attraktiv zu sein müssten die karten um die 400€ kosten. derzeit sind wir wohl eher bei 500€ inkl steuern. Hinzu kommt dass dieses blower design auch noch mist ist...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
um wirklich attraktiv zu sein müssten die karten um die 400€ kosten. derzeit sind wir wohl eher bei 500€ inkl steuern. Hinzu kommt dass dieses blower design auch noch mist ist...
Am Ende wird NVidia das mit den neuen "Super"-Modellen vermutlich so hinbiegen, dass Preis-Performance in etwa vergleichbar mit AMD ist, so dass unter dem Strich wegen RTX und TDP die grüne Fraktion vorn liegt.
 
Anhang anzeigen 468359

Diese Größenreduzierungen finde ich beeindruckend. Platz für 2 Chiplets auf einer Karte ... :fresse2:
Was mir gerade aufgefallen ist, will uns AMD rollen mit den Folien? Ich mein entweder habe ich einen Denkfehler, aber der Navi (10) DIE ist ziemlich genau halb so groß wie ein Vega 64 DIE, richtig? 495mm² / 2 = 247,5mm² was ca. 251mm² entspricht.
Warum stellen die dann auf der Folie die beiden GPUs mit unterschiedlichen Maßstäben dar? Wenn ich die Navi GPU entsprechend vergrößere daß ca. 2 DIEs davon in dem Vega DIE Platz haben sieht das so aus:


@naennon Ich bezweifle, dass du die Karte kürzlich für 999 Euro gekauft hast. ... Und die frühen Vögel zahlten 1500 - 1800 Euro für eine Grafikkarte von NVidia. Bei der Radeon VII waren es 800 Euro. Darum meine Aussage bezüglich des doppelten Preises. Straßenpreise jetzt oder in drei Jahren ziehe ich für Vergleiche nur heran wenn sie gerade sehr stichhaltig in meine Argumentation passen ;)
Lol ... also die Preise kann man so überhaupt nicht ordentlich vergleichen. Wenn man jetzt damit argumentieren will kann man eigentlich nur den aktuellen Marktpreis nehmen. Die Releasepreise kann man auch nicht direkt vergleichen da Vega II erst einige Monate nach einer RTX 2080Ti released wurde.

Ich fand auch nur dieses übertrieben abfällige "sieh mich an ich hab mir das teuerst-mögliche Equip gekauft und es ist schneller als deins" so unnötig. Zumal ich so einen Kinderkram von dir, glaube ich, bisher noch nicht gesehen habe.
Eigentlich hat Pickebuh damit angefangen indem er einen Screenshot postete und schrieb daß die Hölle geht. Hätte ja auch gelangt zu schreiben daß sich die Karte üblicherweise sehr gut übertakten lässt.
Ich würde aber auch nicht wirklich von den OC Erfahrungen einer Vega (auch wenn in gleicher 7nm Fertigung) auf mögliche OC Ergebnisse einer Navi schließen. Ist zwar die gleiche Fertigung, aber eine ziemlich andere Architektur. Und mit den Boost (Gaming etc.) Taktraten ist AMD da eh schon einen Schritt weiter gegangen, wer weiß was da noch geht. Ich sag nur "Overclockers Dream" :fresse:

ABER: Sie gehen jetzt einen smarten Weg. Wenn der nur näherungsweise so verläuft wie ihre Aufholjagd im cpu Sektor dann stehen uns goldene Zeiten bevor. Vielleicht kann man dann mal einen zeitgemäßen Rechner zusammenbauen ohne für irgendeine Komponente Phantasiepreise zahlen zu müssen.
Ich sehe schon die Netzteile knapp werden!
Naja ... die Preise von den RX 5700er Karten hauen mich aber auch nicht von den Socken. Ne 5700 XT wird wohl um die 450 - 499 EUR in den Handel kommen schätze ich. Ne 5700 non XT um die 350-400 EUR. Wenn man bedenkt daß damals eine RX 480 8GB eine GTX 1060 6GB angegriffen hat und um etwa 269 EUR in den Handel kam sind die Preise ... naja schon etwas drüber. (Dank Mining Boom sind dann die Preise der RX 480 welche teils bei etwa 250 EUR waren extrem angestiegen. Ebenso die der RX 580)
Die RyZen CPUs sind preislich ganz gut, keine Frage, obwohl jetzt mit der 3000er Serie die Preise auch wieder etwas zugelegt haben (die Kerne und Leistung aber auch). Die X570 Boards dürften auch etwas teurer ausfallen.

Ich sage es weil ich es meine!
... Selbst ihre "Super" Karten werden nicht mehr Speicher haben. ...
...
Auch bei den "Super" wird ja scheinbar nur der Speicherdurchsatz erhöht. Wieder vorbei am Kundenwunsch.
Wenn es stimmt kommt aber eine RTX 2060 Super mit 8GB und stellt damit eine leicht abgespeckte 2070 dar ... also auch mit mehr Shader wie die anderen "Super" Modelle auch.
Aber mal sehen was da tatsächlich kommt.

Hat NV es jemals anders gemacht mit dem VRAM? Die haben den Vram doch immer an der Kotzgrenze gebracht und einzig die Titan hatte dann ordentlich VRAM.
NV hat doch eh von Generation zu Generation den Speicher immer wieder mal erhöht. Nicht immer bzw. nicht immer im gleichen Ausmaß, aber immerhin. Wollt Ihr bei jeder neuen Generation den doppelten Speicher wie es früher oft üblich war? Dann hätten die Karten jetzt wohl schon alle 32GB und mehr.
Riva 128 - 4/8MB
Riva TNT - 8/16MB
Riva TNT2 - 16/32MB
GeForce 256 - 32/64MB
GeForce 2 - 32/64MB
GeForce 3 - 64MB (mit den Ti auch 128MB)
GeForce 4 Ti - 64/128MB
GeForce FX - 128/256MB
GeForce 6 - 128/256MB (später auch 512MB)
GeForce 7 - 256/512MB
GeForce 8 - 320/640/768MB (später auch 512/1024MB)
GeForce 9 - 512/1024MB
GeForce 200 - 896/1024MB (später auch mehr)
GeForce 400 - 1024/1280/1536MB
GeForce 500 - 1280/1536MB und später die doppelte Menge
GeForce 600 - 2/4GB
GeForce 700 - 2/3/4GB sowie Titan mit 6GB
GeForce 900 - 3.5+0.5, 4, 6GB sowie Titan mit 12GB
GeForce 10 - 8, 11GB und Titan mit 12GB
GeForce 20 - 8, 11GB und Titan mit 24GB

Bis zur 7er Serie hat sich der Speicher regelmäßg verdoppelt. Dann waren die Sprünge unregelmäßig mit krummen Zahlen.

Die Sache die halt einige immer gerne vergessen, mehr VRAM bedeutet nicht mehr Leistung. Das einzige Problem falls der VRAM überläuft bzw. zu klein wird kommt/oder kann es zu ekeligen Rucklern /kommen (mal rein auf's Gaming bezogen). Zu den Zeiten wo die Karten auf den Markt kamen gab es auch immer wieder Tests wie sich die Modelle mit mehr VRAM in den Benchmarks schlagen. Und fast in allen Fällen gab es keinen nennenswerten Unterschied.
Die VRAM Nutzung ist ja auch erst in den letzten Jahren stärker nach oben gegangen, und selbst da nur in einigen Spielen.
AMD hat zwar öfters mehr Speicher geboten, aber in den seltensten Fällen war auch der dafür ausschlaggebend daß eine Karte vielleich mal besser war. Die R9 390er Serie war auch nicht wirklich viel besser als die 290er nur weil sie auf einmal alle 8GB hatten. War ja nur ein Rebrand mit eben mehr VRAM und erhöten Taktraten.

...
PS: Betriebswirtschaftlich müsste AMD die Desktop-Sparte komplett einstellen und sich nur noch auf die alternativen Platformen konzentrieren. Aber irgendwie haben die noch Mitleid mit uns PC-Deppen. Muss wohl irgendwas romantisches sein, jede andere Aktiengesellschaft hätte diese Sparte abgestoßen.
Naja erstens gäbe es dann aktuell keine Konkurrenz zu nV mehr (bis Intel doch mal kommt) und da würde wohl das Kartellamt Einwand erheben, und zweitens hätte dann AMD wohl keine Entwicklungsabteilung für Ihre anderen Grafikprodukte mehr denn die Architekturen werden ja auf/für den PC designed und im Hinterkopf die APUs, SoCs und Konsolen sowie den HPC Markt behalten um diese dann entsprechend anzupassen/abzuändern.
Fiele jetzt der Desktop Markt weg hätten sie nur noch SoCs/Konsolen und eventuell den HPC Markt. Ich weiß nicht ob dafür dann noch so viel R&D verfügbar wäre, und wie gesagt wenn man schon eine neue Architektur entwickelt, warum dann nicht für alle Märkte? Einziger Markt der sich wirklich absplitten könnte (zeichnet sich bei nV ja auch ab) wäre der HPC Markt da dort oft andere Anforderungen an die GPU gestellt werden.

Ich hoffe dieses Jahr kommen noch kleinere Brüder mit der neuen Architektur. Sprich so etwas wie RX 5600 mit weniger Units und unter 150W damit nur 1 x 6 Pin ausreicht.
Weiß da schon jemand etwas ?
Offiziell nicht, aber es wird gemunkelt daß auf jeden Fall eine 5600er und vermutlich auch 5500 kommt. Wäre fein wenn AMD es schafft eine RX 5600 sogar ohne zusätzlichen Stromanschluß zu schaffen. Aber da erwarten wir uns wohl zu sehr von 7nm. Und wenn dann wäre die von der Leistung wohl zu weit von einer RX 5700 entfernt, bzw. zu wenig weit von einer RX 560 weg.

Ja ich wundere mich auch das AMD die desktop Sparte noch weiter führt.
AMD müsste quasi ein chiplet Design bei den GPUs hinbekommen ...
Wird eh schon länger vermutet daß das in Zukunft passieren wird. Allerdings muß da halt alles passen daß das auch gut skaliert. Stichwort Speicheranbindung etc. Aber vielleicht gibt's dann auch eine I/O DIE an den Rechencluster angeschlossen werden die lediglich Shader und Caches enthalten.
 
Naja erstens gäbe es dann aktuell keine Konkurrenz zu nV mehr (bis Intel doch mal kommt) und da würde wohl das Kartellamt Einwand erheben, und zweitens hätte dann AMD wohl keine Entwicklungsabteilung für Ihre anderen Grafikprodukte mehr denn die Architekturen werden ja auf/für den PC designed und im Hinterkopf die APUs, SoCs und Konsolen sowie den HPC Markt behalten um diese dann entsprechend anzupassen/abzuändern.
Fiele jetzt der Desktop Markt weg hätten sie nur noch SoCs/Konsolen und eventuell den HPC Markt. Ich weiß nicht ob dafür dann noch so viel R&D verfügbar wäre, und wie gesagt wenn man schon eine neue Architektur entwickelt, warum dann nicht für alle Märkte? Einziger Markt der sich wirklich absplitten könnte (zeichnet sich bei nV ja auch ab) wäre der HPC Markt da dort oft andere Anforderungen an die GPU gestellt werden.

Welches Kartellamt? Das deutsche? Wollen die AMD jetzt dazu zwingen GPUs für den PC-Markt rauszubringen? Die können Nvidia auch nicht verbieten weiter überteuerte GPUs rauszubringen.
Aber mal abseits davon: Die XBox ist X86 und Sony benutzt custom-Chips. Für Mobilgeräte, Server und embedded ist der Markt groß genug, dann gibts noch HTPCs für die APUs und das ist genug um damit eine Entwicklungsabteilung zu finanzieren. Dort gehts dann über Masse.

Guck dir die Kommentare an: "Bevor ich AMD kaufe, müssen die 30% billiger als Nvidia bei gleicher Leistung sein." Ich dreh den Spieß um: Bevor AMD nicht das gleiche für die gleiche Leistung bekommt, brauchen sie nicht weiter in diesen Deppert-Markt zu investieren. Dann zahlt halt eure 1000€ für eure grüne midrange Karte der nächsten Generation. AMD sucht sich dann Märkte, die weniger vergiftet sind. Machen sie ja jetzt schon. Der Dektop-Markt ist für AMD ein reines Prestige-Objekt. Kostendeckend Mindshare aufrecht erhalten, damit die anderen Bereiche etwas mehr Rückenwind bekommen. Zu mehr taugts aber nicht mehr.
 
Die Leistung scheint ja den Erwartungen zu entsprechen, lediglich die Preise sind übertrieben. Jetzt wurde der Mainstream also von 200-250€ bei der letzen Gen (rx580/1060) auf circa 350€ bei dieser Gen (5700/2060) angehoben.

Die RX 580 hat am Anfang auch 270-300€ gekostet, zwischendrin eher so ~330€.
Die 1060 war da sogar im Durchschnitt teurer.

Immer dran denken, dass ist nur die UVP von AMD.
 
NV hat doch eh von Generation zu Generation den Speicher immer wieder mal erhöht. Nicht immer bzw. nicht immer im gleichen Ausmaß, aber immerhin. Wollt Ihr bei jeder neuen Generation den doppelten Speicher wie es früher oft üblich war? Dann hätten die Karten jetzt wohl schon alle 32GB und mehr.
Riva 128 - 4/8MB
Riva TNT - 8/16MB
Riva TNT2 - 16/32MB
GeForce 256 - 32/64MB
GeForce 2 - 32/64MB
GeForce 3 - 64MB (mit den Ti auch 128MB)
GeForce 4 Ti - 64/128MB
GeForce FX - 128/256MB
GeForce 6 - 128/256MB (später auch 512MB)
GeForce 7 - 256/512MB
GeForce 8 - 320/640/768MB (später auch 512/1024MB)
GeForce 9 - 512/1024MB
GeForce 200 - 896/1024MB (später auch mehr)
GeForce 400 - 1024/1280/1536MB
GeForce 500 - 1280/1536MB und später die doppelte Menge
GeForce 600 - 2/4GB
GeForce 700 - 2/3/4GB sowie Titan mit 6GB
GeForce 900 - 3.5+0.5, 4, 6GB sowie Titan mit 12GB
GeForce 10 - 8, 11GB und Titan mit 12GB
GeForce 20 - 8, 11GB und Titan mit 24GB

Bis zur 7er Serie hat sich der Speicher regelmäßg verdoppelt. Dann waren die Sprünge unregelmäßig mit krummen Zahlen.

Da muss ich mal zwischengrätschen: Bei NV waren innerhalb einer Generation oft nur einzelne Modelle mit doppeltem Speicher erhältlich, selten (wenn ohnehin Übergangszeit war) die ganze Reihe, und dann gab es immer nur von einzelnen Herstellern solche Modelle und mit hohem und von Hersteller zu Hersteller schwankendem Aufpreis, während bei ATI/AMD solche Modelle oft Standard waren und mit angemessenen Aufpreis.

Beispiele:
Geforce 2/3 Ti: Es gab nur die GeForce3 Ti 200 mit 128MB, keine Ti 500 und keine GeForce 2 Ti
Radeon 7500/8500/9100: Versionen mit 128MB und 64MB bei allen Varianten ungefähr gleich vertreten
GeForce 4: 460 nur 64MB, 4200 mit 128MB hatte langsameren RAM als mit 64MB, die 4400 und 4600 hatten immer 128MB, erst die 4200-8x gab es mit gleichschnellen 128MB
GeForce 5: die FX5900 Ultra und 5950 Ultra hatten immer 256MB, die normale 5900 gab es in beiden Versionen, aber seltener mit 256MB, die 5900XT und langsamere nur mit 128MB
Radeon 9600/9800: 9800 Pro 256MB reguläres Modell (mit DDR2), 256MB bei 9800XT Standard, bei 9600 Pro, XT, 9800 und 9800SE einigermaßen häufig
GeForce 6: 6600GT nur 128MB, 6800, 6800LE/XT eigentlich nur mit 128MB und DDR, Modelle mit 256MB oder GDDR3 sehr selten, noch seltener in Kombination, nur 6800GT und Ultra und später 6800GS mit 256MB, nur extrem wenige 6800 Ultra 512MB
Radeon X800/X850: 256MB bei allem ab X800Pro/X850Pro Standard, bei allen X800 genauso oft erhältlich wie 128MB, teils 128MB mit langsamerem DDR, X800XL mit 512MB reguläres Modell
GeForce 7: 512MB nur bei Topmodell 7800GTX 512/7900GTX 512, nur sehr selten bei 7900GS/GT, etwas häufiger bei Refresh-Refresh 7950GT
Radeon X1800/X1900/X1950: 512MB bei X1800XT(X), X1900XT(X) und X1950XT(X) Standard, erst später XT-Modelle mit 256MB, bei X1950GT/Pro etwa gleich verteilt
GeForce 8: Zunächst keine unterschiedlichen Speicherkonfigurationen, 8800GTS 384MB mit viel zu wenig Speicher zunächst als einzig sinnvolles günstigeres Modell, später das gleiche Spiel bei der 8800GT 256MB, 8800GS sogar fast nur mit 384MB. Nur 8800GT einigermaßen häufig mit 1GB
Radeon HD2900/HD3800: 512MB zunächst Standard, 256MB später, einige wenige HD3870 mit 1GB
GeForce 9: zunächst 512MB Standard, später 1GB häufige Alternative, bei 9600GS immernoch 384MB, aber 768MB häufiger
GeForce GTX200: zunächst fixe Speichergrößen, erst bei Refresh Modelle mit doppeltem Speicher, bei 260 sehr wenige
Radeon HD4800: 512MB Standard, etwas mehr HD4870 und zahlreiche HD4890 mit 1GB, wenige HD4850
GeForce GTX400: zunächst fixe Speichergrößen, GTX 460 wird durch Speichergröße und damit Speicherinterface in unterschiedliche Modelle differenziert
Radeon HD5800: 512MB Standard, nur sehr wenige HD5850 und HD5870 mit 2GB, bei letzterer einige Eyefinity
GeForce GTX500: hauptsächlich fixe Speichergrößen, GTX560(Ti) mit einigen wenigen 2GB-Modellen, GTX580 mit wenigen 3GB-Modellen und nur eine GTX570 mit 2.5GB
Radeon HD6800/6900: HD6870 1GB, HD6970 2GB Standard, HD6950 1GB und 2GB ungefähr gleich häufig.
GeForce GTX600: einige 4GB-Modelle von GTX680 und GTX670, auch im Referenzdesign, 3GB-Modell von GTX660(Ti) selten, GTX660Ti quasi 1.5GB/3GB-Version von GTX670
Radeon HD7800/7900: 2GB bzw. 3GB Standard, zwei HD7970 mit 6GB
GeForce GTX700: GTX760 und 770 recht oft mit 4GB, GTX780 recht oft mit 6GB, aber GTX780TI nur mit 3GB (wegen Titan)
Radeon R9 270/280/285/290: eine R9 280X mit 6GB, sonst 3GB, R9 290(x) immer 4GB, R9 270X 2GB oder oft 4GB, 285 dummerweise nur 2GB
Radeon R9 370/380/390: 370 immer 4GB, 380 2GB und 4GB gleichermaßen, 390 nurnoch 8GB
Radeon Fury: technisch bedingt nur 4GB
GeForce 900: 970/980 mit fixen 4GB (bzw. 3.5GB), 960 erst nur 2GB, später 4GB
Radeon 470/480/570/580/590: bei 480/580/590 8GB zuerst und überwiegend, bei 70ern 4GB überwiegend
GeForce 1000: fixe Speichergrößen, GTX 1060 mit lächerlichen 3GB ist abgespecktes Modell, 8GB erst ab GTX1070
Radeon Vega: technisch bedingt immer 8GB, Radeon VII mit 16GB
GeForce 1600/2000: fixe Speichergröße, 8GB erst ab GTX2070 für ~500€


Wenn man das so sieht, war eine großzügige Speicherausstattung eigentlich immer ein Merkmal von ATI/AMD mit wenigen Ausnahmen (R9 285, der Krüppel), während Nvidia sehr damit geizte und v.a. in letzter Zeit überhaupt kein Wahl bei der Speicherausstattung gab.
 
Zuletzt bearbeitet:
Zur Verteidigung muss man aber auch sagen, dass "die Wahl bei Speicherausstattung" niemand haben will, bis auf uns Nerds.
Die Presse meckert eh nur rum, dass die jeweils geringe Ausstattung eh zu wenig wäre, die andere zu teuer... und die Kunden sind verwirrt, wieso die gleiche GPU auf einmal 100 mehr kostet, nur weil 8 statt 4 drauf steht.

So wirklich gewinnen können die Hersteller da nicht. Es wird zerrissen, egal wie sie es machen. Also passen sie sich an den Massenmarkt an, nicht an die wenigen Leute mit Ahnung von den Unterschieden.
 
Gleichmal vorweg - sorry für den vielen Text.

@Tigerfox
Ich hatte ja schon geschrieben daß ATI/AMD gerne mal großzügiger im Speicherausbau war, aber nochmals, wo bzw. wann hat denn das Modell mit mehr Speicher tatsächlich auch einen Mehr Nutzen? Vor allem falls man sogar noch Aufpreis dafür zahlen musste?
Und nein - ein Vergleich wie z.B. bei der GTX 1060 mit 6 und 3GB zählt nicht da hier zusätzlich der Chip kastriert wurde.

Das einzige Beispiel was mir einfällt war die 8800 GTS mit 320MB, also die günstigste 8800er die man damals bekommen konnte. Durch einen Bug im Treiber (bzw. Chipdesign) lief der Speicher nach einer Weile voll und die FPS brachen dramatisch ein. Ein Neustart hat dann Abhilfe geschafft. Gerade durch diese Karte ist man auf den Bug gestossen und hat diesen im Treiber gefixed. Die Karten mit 640 und 768MB waren auch betroffen, allerdings trat dort das Problem (wenn überhaupt) erst viel später auf.

...
Beispiele:
Geforce 2/3 Ti: Es gab nur die GeForce3 Ti 200 mit 128MB, keine Ti 500 und keine GeForce 2 Ti
Die GF 3 Ti200 bot auch NULL Mehr-Leistung im Vergleich zu einer 64MB Version. Und die GF2 (GTS) Modelle gab es Anfangs erstmal als 32MB Version und erst später auch mit 64MB bzw. die Pro, Ultra und Ti hatten dann 64 als Standard. Von GF2 MX Karten welche es auch als 64MB Versionen gab möchte ich gar nicht erst reden.

...
Radeon 7500/8500/9100: Versionen mit 128MB und 64MB bei allen Varianten ungefähr gleich vertreten
Jaaa war auch ganz ganz wichtig 128MB zu haben. Brachte in Spielen nur leider nichts.

...
GeForce 4: 460 nur 64MB, 4200 mit 128MB hatte langsameren RAM als mit 64MB, die 4400 und 4600 hatten immer 128MB, erst die 4200-8x gab es mit gleichschnellen 128MB
Die GF4 MX 460 kannst gleich wieder wegpacken, war ja vom Featureset sogar unterhalb einer GF3 (nur wollte man anscheinend damals diese nicht GF3 MX nennen da dies ja suggestierte daß sie meilenweit hinter einer GF4 her war, was ja auch der Fall war). Somit waren hier 64MB schon Overkill.
Und bei den GF4 Ti Modellen haben die 128MB auch genau gar nichts gebracht, bzw. erst in Auflösungen mit FSAA wo die FPS dann eh schon so niedrig waren daß es niemand nutzte. Was glaubst Du weshalb die GF4 Ti 4200 mit 64MB so der Kassenschlager war? Den GPU und RAM Takt ein wenig hochgezogen und schwupps - schon hatte man die Leistung einer GF4 Ti 4600 die einiges mehr kostete (realistisch fast das Doppelte!).

...
GeForce 8: Zunächst keine unterschiedlichen Speicherkonfigurationen, 8800GTS 384MB mit viel zu wenig Speicher zunächst als einzig sinnvolles günstigeres Modell, später das gleiche Spiel bei der 8800GT 256MB, 8800GS sogar fast nur mit 384MB. Nur 8800GT einigermaßen häufig mit 1GB
Ich glaube Du verwechselst das Modell - das zunächst günstigste war die 8800 GTS mit 320MB. Viel zu wenig Speicher war das auch nicht unbedingt, lediglich mit dem Bug lief der Speicher voll. Erst in höheren Auflösungen und FSAA konnte sich die reguläre GTS mit 640MB ein paar % absetzen TEST
Die 8800GS kam erst etwas über ein Jahr später und war eigentlich nur noch für Leute interessant die nicht den kleinen Aufpreis zu einer 8800GT 512MB zahlen wollen, welche DIE Preis/Leistungskarte damals war. Eine 8800GT mit 256MB gab es übrigens nie. Dafür aber mit 1GB, welche aber, welche Wunder, so gut wie keinen Leistungsvorteil ggü. der 512MB Karte bot. TEST

...
GeForce GTX200: zunächst fixe Speichergrößen, erst bei Refresh Modelle mit doppeltem Speicher, bei 260 sehr wenige
Radeon HD4800: 512MB Standard, etwas mehr HD4870 und zahlreiche HD4890 mit 1GB, wenige HD4850
Da war AMD sogar etwas hinterher - mit eben 512MB auf der HD4850 und 4870 (hier dafür immerhin schon modernsten GDDR5) gegen immerhin 896MB bei der GTX260 sowie 1GB bei der GTX280 [technisch bedingt wg. Speicheranbindung]. Es gab natürlich auch einige 1GB Modelle der HD4870 Serie (und auch 4850) und die HD4890 machte es erst zum Standard. Bei der HD4870 haben 1GB zu 512MB immerhin ein paar einstellige % Mehr Leistung gebracht. Bei einer GTX 275 mit doppelten Speicher z.B. (also 1792MB zu 896MB) aber eher nicht. Die paar % beim TEST HIER kommen eher vom höheren Takt der Lightning Version.

...
GeForce GTX500: hauptsächlich fixe Speichergrößen, GTX560(Ti) mit einigen wenigen 2GB-Modellen, GTX580 mit wenigen 3GB-Modellen und nur eine GTX570 mit 2.5GB
Wiederrum, ganz wichtig bei den Midrange GTX 560er Karten so viel Speicher zu haben. Wenn schon eine GTX 580 mit 3GB KEINEN nennenswerten Vorteil ggü. einer 1,5GB GTX 580 bietet. TEST - auch hier wieder die paar % Mehr Leistung kommen wohl vom höheren Takt der Lightning Karte.

...
GeForce GTX600: einige 4GB-Modelle von GTX680 und GTX670, auch im Referenzdesign, 3GB-Modell von GTX660(Ti) selten, GTX660Ti quasi 1.5GB/3GB-Version von GTX670
Aber hier wird's wichtig daß ne GTX 660 wahnwitzige 3GB hat, oder doch nicht?
GTX 680 4GB TEST zeigt wie immer ein paar % Mehr Leistung, bedingt durch den höheren Boost Takt der Ultra Charged Karte im Vergleich zu einer (Referenz?) GTX 680 2GB.

Zugegeben, ab hier macht(e) es bedingt Sinn mehr VRAM zu haben da hier schön langsam einige Spiele tatsächlich das ein oder andere Mal über 2GB VRAM belegen konnten und wollten.
Und selbst heute ist eine GTX 680/770 bzw. HD7970/R9 280/X mit der Leistung in 1080p und niedrigen/mittleren Details noch verwendbar. Soll heißen 30+ FPS sind durchaus auch bei aktuellen Spielen noch drin. Ob man so natürlich ein BF V oder ähnliches spielen will ist halt fraglich.

...
Radeon R9 270/280/285/290: eine R9 280X mit 6GB, sonst 3GB, R9 290(x) immer 4GB, R9 270X 2GB oder oft 4GB, 285 dummerweise nur 2GB
Bei den 290/X er Karten gab es auch schon einige 8GB Versionen.
Die R9 380 war dann die R9 285 mit 4GB - hat sich AMD wohl für die 300er Serie aufgehoben. Allerdings sind auch hier die Unterschiede zur 2GB R9 285 minimal als diese released wurde und wohl wieder den leicht höheren Taktraten zuzuschreiben. Gibt sogar auf HWLuxx einen TEST

Ab dann ist wohl eher Stillstand bei AMD zu verzeichnen.
Einige R9 290er Karten gab es wie gesagt schon mit 8GB, die 390er hatten das serienmäßig. Trotzdem ist der Unterschied zu den 290er 4GB Karten meistens minimal und wieder einmal bei den Taktraten zu erklären.
Und dann? Rückschritt bei Fury auf 4GB, wegen HBM - okay.
...
Radeon 470/480/570/580/590: bei 480/580/590 8GB zuerst und überwiegend, bei 70ern 4GB überwiegend
RX 480? Auch "nur" 8GB ... und jede Menge 4GB Modelle. Zwar überwiegend 8GB aber wie gesagt jede Menge 4GB Versionen da eine Spur billiger auch ganz gerne vom Pfennigfuchser gekauft.
RX 580? Ach ja - Rebrand/Refresh - auch nur 8GB max. Und jede Menge 4GB Modelle.
RX 590? 8GB.
Vega 56/64? 8GB ... gut - technisch wegen HBM.
Vega II - 16GB - nett, aber auch etwas teuer.
RX 5700/XT??? 8GB ... kann man ja nicht schon seit Mitte 2014 (R9 290X 8GB Modelle) kaufen.

...
Wenn man das so sieht, war eine großzügige Speicherausstattung eigentlich immer ein Merkmal von ATI/AMD mit wenigen Ausnahmen (R9 285, der Krüppel), während Nvidia sehr damit geizte und v.a. in letzter Zeit überhaupt kein Wahl bei der Speicherausstattung gab.
WAR ein Merkmal - ja. Wie man in den letzten Jahren sieht aber eigentlich auch nicht mehr. Oder liegt es vielleicht daran daß 8GB in den meisten Fällen gerade für Performance Karten doch ausreicht?

Also mein Fazit der gesamten nV Grafikkarten Historie und auch großteils ATI bzw. AMD: Der VRAM der angebotenen Modelle hat immer ausgereicht. Seltenere teurere Modelle mit mehr/doppelten Speicher haben nie mehr als höchstens ein paar % Leistung gebracht. Nach Jahren wo sich der Mehr Speicher vielleicht bezahlt gemacht hätte waren die Karten sowieso schon zu schwach (bzw. boten damals keine aktuellen DX Featurelevels) wodurch der Speicher auch nicht "zukunftssicher" war.
Und ich sag das nicht weil ich es vermute oder wo gelesen habe, sondern weil ich selbst fast jede Generation von nV und auch vielen ATI/AMD Karten hatte bzw. testen konnte und unzähligen Leuten Systeme zusammengestellt, aufgerüstet und getestet habe. Mein erster eigener PC war ein 386SX 16 mit einer onboard 64kB VGA Karte. Danach kam eine Tseng ET4000 mit 1MB und einige 2D Karten (Matrox, ATI, Trident, Cirrus Logic etc.) sowie seit der Voodoo Graphics (1) jede Menge 3D Karten die ich habe/hatte/testen konnte/Erfahrungen gesammelt habe.

Ab der GTX 670/680/770 bzw. Radeon HD7950/7970/R9 280/X/285/380/X wage ich zu behaupten daß 4GB (oder 3GB) ggü. 2GB einen kleinen Vorteil haben da diese Karten auch heute noch für 1080p in niedrigen-mittleren Details brauchbar sind.
 
Zuletzt bearbeitet:
Da muss ich Dir widersprechen. Natürlich hat man zu Zeiten, in denen erste Modelle mit verdoppeltem Speicher erschienen, nie nennenswerte Vorteile messen können. Einmal ist das klar, weil Spiele noch garnicht auf diese Speichermenge ausgelegt sein konnten. Außerdem zeigen sich heute die Auswirkungen eher bei den Frametimes und die misst man eigentlich erst, seit die Mikroruckler-Problematik bei Multi-GPU bekannt ist und selbst dann bei Tests von Einzelkarten eher selten. Mand müsste also immer ein bis zwei Jahre später gucken, wie gut die alten Modelle mit mehr Speicher noch mitkommen.
Trotzdem stimme ich Dir bedingt zu, dass v.a. Karten, die erstmals eine gewisse Speichermenge boten, meist zu schnell zu wenig Rohleistung hatten, um den Speichervorteil noch ausspielen zu können. Das ist aber schon lange nicht mehr so krass. Aber allein schon dann, wenn in der nächsten Generation absehbar eine Speichermenge Standard wird, verlängert bei den Vorgängern die doppelte Speichermenge deren Leben.

Dass man hingegen bei der GTX1060, GTX2060 und GTX1660 schon bei der Veröffentlichung mehr als nur minimale Nachteile durch die Speichermenge messen kann (v.a. erhöhte Mikroruckler), ist ein Armutszeugnis, eben weil das früher eigentlich nie der Fall war, solange die Karte aktuell war.
Schön auch, wie Du haarklein auf viele Einzelfälle eingehst, um Nvidias Speicherangebote (oder deren Mangel) wegzureden und AMDs Angeboten den Nutzen abszusprechen.
Nochmal, bei AMD gab es, bis auf einige unrühmliche Ausnahmen, meistens standardmäßig für <50€ doppelten Speicher, bei Nvidia waren öfters schon Standardkarten Speicherkrüppel.
 
Da muss ich Dir widersprechen. Natürlich hat man zu Zeiten, in denen erste Modelle mit verdoppeltem Speicher erschienen, nie nennenswerte Vorteile messen können.
Bitte um Belege. Und wie gesagt wenn da wo ein Benchmark in sehr hoher Auflösung mit hohen AA Settings ein paar % Mehr Leistung bringt, das hatte ich bereits erwähnt, nur bringen die Karten in den Einstellungen meist eh nicht genug spielbare FPS zusammen als daß man es realistisch nutzen würde.
Und bitte auch keine exotischen Mod Einzel-Beispiele wo man künstlich extreme Situationen die in keinem Spiel (ohne Mod) so vorkommen.

Einmal ist das klar, weil Spiele noch garnicht auf diese Speichermenge ausgelegt sein konnten.
Wozu brauchte man es dann? "Zukunftssicher"? Waren die Karten mit mehr VRAM es denn?

Außerdem zeigen sich heute die Auswirkungen eher bei den Frametimes und die misst man eigentlich erst, seit die Mikroruckler-Problematik bei Multi-GPU bekannt ist und selbst dann bei Tests von Einzelkarten eher selten.
Bitte um Belege. Bei Einzelkarten wohlgemerkt - bei SLI und Crossfire ist mir die Thematik der Mikroruckler bekannt.
Und ja bei der GTX 1060 sind mir da ein paar Tests bekannt. Bitte um Belege davor.

Mand müsste also immer ein bis zwei Jahre später gucken, wie gut die alten Modelle mit mehr Speicher noch mitkommen.
Und wenn sich dann herausstellt daß die ein oder andere Karte mit mehr VRAM in dem ein oder anderen Spiel (mit der Auflösung XY und Settings XZ) ein paar % schneller ist freut man sich dann wenn man den Aufpreis den man gezahlt hat 1-2 Jahre nicht nutzen konnte? Und die paar % machen dann den Unterschied zwischen Spielbar und Unspielbar?

Trotzdem stimme ich Dir bedingt zu, dass v.a. Karten, die erstmals eine gewisse Speichermenge boten, meist zu schnell zu wenig Rohleistung hatten, um den Speichervorteil noch ausspielen zu können. Das ist aber schon lange nicht mehr so krass. Aber allein schon dann, wenn in der nächsten Generation absehbar eine Speichermenge Standard wird, verlängert bei den Vorgängern die doppelte Speichermenge deren Leben.
Deswegen ja auch mein Vermerk daß es eben seit der >= GTX 670 Leistungsklasse bei nV und >=HD7950/7970 Leistungsklasse bei AMD bedingt Sinn macht mehr als 2GB zu haben. Die Karten können alle DX12 (auch wenn nicht im höchsten "Tier" wie es so schön eingeteilt wurde) und die Leistung ist noch nutzbar. So wie Du sagst war das früher aber oft nicht der Fall da die alten Karten schneller in der Leistung aber vor allem in den DX Funktionen überholt wurden.

Dass man hingegen bei der GTX1060, GTX2060 und GTX1660 schon bei der Veröffentlichung mehr als nur minimale Nachteile durch die Speichermenge messen kann (v.a. erhöhte Mikroruckler), ist ein Armutszeugnis, eben weil das früher eigentlich nie der Fall war, solange die Karte aktuell war.
Bei der 1060 fand ich 6GB noch okay. Bei der 2060 und 1660/Ti schon etwas grenzwärtig. Somit stimme ich Dir hier zu, 8GB hätten denen besser gepasst. Allerdings wird ja bei nV genörgelt daß die 2070 und 2080 nur 8GB haben. Was sollen sie denn sonst haben? 16GB? Dann sind die Dinger ja noch teurer als sie ohnehin schon sind.
Abgesehen davon würde ich auch gerne mal Test sehen die belegen daß 8GB aktuell (für die Performance Klasse) zu wenig sind. Sollte es eine 16GB Version einer RTX 2080 geben wurd ich behaupten daß diese wie auch zuvor nur in wenigen Einzelfällen etwas schneller wäre, und vielleicht auch in diesen Fällen bessere/stabilere Frametimes hätte. Und wer weiß, vielleicht wäre die auch wirklich etwas zukunftssicherer da sie ja ordentlich Rohleistung hat. Irgendwie bezweifle ich aber daß der VRAM Bedarf in den nächsten Jahren so steigen wird wie in den letzten paar Jahren. Mal sehen wie lange man mit 8GB auskommt ohne daß es unspielbar wird.

Schön auch, wie Du haarklein auf viele Einzelfälle eingehst, um Nvidias Speicherangebote (oder deren Mangel) wegzureden und AMDs Angeboten den Nutzen abszusprechen.
Dann bitte um Belege bei welchen Modellen der Speicher tatsächlich ein grober Mangel war (Ausnahme eventuell die erwähnte 8800GTS mit 320MB, oder auch die spätere exotische 8800GS mit 384MB die man eh nur kaufte wenn man sich wirklich nicht ein paar EUR mehr für eine deutlich leistungsfähigere 8800GT 512MB leisten konnte).
Und ja - auch die GTX 1060 3GB ist ein Negativbeispiel weil zu wenig Speicher und gleichzeitig noch kastriert.
Bzw. auch gerne um Belege wo AMDs Mehr Speicher Angebote tatsächlich einen Nutzen brachte.

Nochmal, bei AMD gab es, bis auf einige unrühmliche Ausnahmen, meistens standardmäßig für <50€ doppelten Speicher, bei Nvidia waren öfters schon Standardkarten Speicherkrüppel.
Siehe Oben - bitte gerne um Belege.

Und ich bin kein nV Fanboy bzw. der Marke treu - und will sie mit meinen Beiträgen auch nicht verteidigen, allerdings (aus meinen Erfahrungen sowie Tests diverser namhafer Online Seiten) habe ich noch keine eindeutigen Belege gesehen daß zum Zeitpunkt des Releases einer Karte und oft sogar Jahre danach ein Mehr Speicher zum Standardmodell einen nennenswerten Vorteil bietet.
ATI/AMD hat und hatte einige verdammt gute Modelle die unabhängig von Ihrem Speicherausbau eine sehr gute Leistung bot, vor allem in Ihrer Leistungs(Einstufungs)klasse bzw. Preisklasse. Gute Beispiele sind hier eben die Radeon 9500 - 9800er Karten, die HD4850-4890 Karten, die HD5800er sowie HD7900er Karten sowie in meinen Augen auch die R9 290er Karten.
 
Zuletzt bearbeitet:
Puh, ich habe jetzt keine Zeit, auf alles genau zu antworten, deshalb gehe ich nur kurz auf ein paar Sachen ein:

Deine 1. Aussage verstehe ich nicht. Wie soll ich belegen, dass es bisher quasi nie vorkam, dass man schon zum erstmaligen Erscheinen einer neuen Speichergröße auf einer Grafikkarte Vorteile messen konnte? Soll ich Dir aus den letzten 20 Jahren Tests mit entsprechenden Karten verlinken, soweit die überhaupt online verfügbar sind, und zeigen, dass dort nichts feststellbar war?

Ein paar Belege für Karten mit doppeltem Speicher, bei denen man in angemessenem Zeitabstand danach nennenswerte Vorteile feststellen konnte:

GeForce4 Ti 4200 64MB vs. 128MB: Die 64MB-Version mit höherem Speichertakt ist in allen Spielen und allen Einstellungen schneller, nur in der Comache 4 Demo hat die 128MB-Version einen Vorteil von 4% bis 27% (in 1920x1440), mit Anhebung des Speichertaktes (es war der gleiche 4ns-Speicher verbaut) sogar 6% bis 39%.

Radeon 9800 Pro 256MB 16% Vorteil ggü. der 128MB-Version in UT2003 in 1280x960 mit 4xAA/8xAF.

Radeon X1800XT 256MB vs. 512MB, z.B. 16% Vorteil in BF2, 72% in CoD2, 18% in FEAR, 13% in HL2, 23% in Quake4, alles in in 1600x1200 mit 4xAA/8xAF, insgesamt 10% schneller

Weil CB bei der X1800XT vermutet, dass ATI bei der 256MB-Version an den Speichertimings gedreht hat, da die Karte auch schon bei 1280x960 ohne alles deutliche Nachteile hat, hier der gleiche Test mit der X1900XT 256MB: 13% in CoD2, 8% in Fear, 16% in Oblivion (mit Eyecandy bei keiner damaligen Karte mehr ansatzweise spielbar!), 20% in 1600x1200 ohne Eyecandy, 9% in Chronicles of Riddick, 75% in Serious Sam 2 (mit Eyecandy damals ebenfalls unspielbar), 39% ohne Eyecandy, gesamt 8% in 1600x1200 mit Eyecandy.

GeForce 8800GTS 320MB vs. 640MB: Die ansonsten absolut identische Karte ist nur aufgrund der Speichergröße in 1280x1024 mit 8xAA 16% schneller, in 1600x1200 mit 8xAA sogar 39%.

Dann hier ein toller Bericht, damals gab es sowohl Radeon HD3850, als auch GeForce 8800GT jeweils mit 256MB, 512MB und 1GB, wobei der Speicher der 8800GT 256MB (von wegen die gab es nicht, ich finde davon im Preisvergleich elf Modelle, sogar eine 9800GT 256MB) eigentlich deutlich langsamer lief, beim Testmodell von Asus aber wohl nicht, und es die HD3850 1GB nur zweimal von Sapphire gab.
Da ist es mir jetzt zu komplex, die Ergebnisse rausszusuchen. Tendenz ist, dass der Unterschied zwischen 256MB und 512MB je nach Spiel ohne AA und AF bis 1600x1200 kaum ins Gewicht fällt, 2560x1600 aber meist auch ohne Eyecandy für 256MB unspielbar ist bzw. garnicht möglich, mit Eyecandy aber auch für keine Karte spielbar ist. Meist brechen die Karten mit 256MB in 1600x1200 mit 8xAA brutal weg, teils schon mit 4xAA. Die GeForce ist meist wesentlich früher und heftiger betroffen als die Radeon, NVs Speichermanagement damals war einfach nicht so gut. Die Karten mit 1GB haben seltenst Vorteile, v.a. im spielbaren Bereich.
Gesamt hat die 8800GT 512MB schon ab 1280x1024 mit 8xAA einen vernichtenden Vorteil von 115% ggü. 256MB, die 1GB-Version ist nur 6% schneller, erst bei 1600x1200 und 8xAA oder 2560x1600 und 4xAA wächst das auf ca. 30%, im absolut unspielbaren Bereich. Drunter, also bei 1600x1200 ohne Eyecandy oder 1280x1024 mit 4xAA ist die mit 512MB auch ca. 30% schneller als die mit 256MB.
Bei der Radeon ist nur mit 8xAA ein deutlicher Vorteil für 512MB erkennbar, 43% in 1280x1024 und 73% in 1600x1200 (16% mit 4xAA), die 1GB-Version kann sich nie wirklich absetzen, selbst in 2560x1600 mit 4xAA nur 8%.

Ich weiß noch, dass ich damals zwischen HD3850 und 8800GT schwankte, mir dann aufgrund dieses Test klar geworden ist, dass es in beiden Fällen mindestens 512MB sein müssten und mir dann die 8800GT das bessere Angebot schien. Ich habe auch kurz über einen Aufstieg zu 8800GTS oder 8800GT 1GB nachgedacht, aber das Geld saß damals nicht so locker. Da ich im Nachhinein fast mein ganzes Studium bis zum ersten Gehalt, als von Frühjahr 2008 bis Ende 2013 auf der 8800GT rumgeseßen bin und z.B. noch Civ6 und Rome2 im Spätsommer und Herbst 2013 damit mehr schlecht als recht spielen musste, habe ich oft gedacht, dass ich von der 8800GT 1GB mehr gehabt hätte. Am Ende musste ich meine Zotac 8800GT 512MB Audio (mit 660MHz statt 600MHz) aber auch regelmäßig wegen kalter Lötstellen backen. Sie liegt immernoch im Schrank.

Alles in allem bestätigt dies meinen Standpunkt: Es gibt definitv Karten, die schon zum Erscheinen durch ihren Speicher eingeschränkt werden und solche, bei denen sich schon früh, wenn auch nicht bei Release ein verdoppelter Speicher bezahlt macht und die Lebensdauer erhöht. Dazu muss ich auch sagen, dass ich sehr viel seltener die Karte tausche als die meisten hier im Forum und dass auch eher schlimmer wird, weil ich nurnoch selten zum Zocken komme. Da ich aber einen Monitor mit 1920x1200 habe und demnächst eher auf 2560x1440 gehen werde, muss eine neue Karte da auch lange durchhalten.
Es kommt immer auch auf den Zeitpunkt an. Als die ersten Radeon HD7970 mit 6GB erschienen, konnte man sich denken, dass das zu deren Lebzeiten wenig bringen wird, da bei den Vorgängern und der Konkurrenz noch 1-2GB Standard waren, somit AMDs 3GB-Standard schon einen Vorteil boten und erst die GTX780 ebenfalls 6GB bot. Auch bei einer GTX670/680 hätte ich anfangs nicht gedacht, dass das sinnvoll ist, wenn nicht 1-2 Jahre später immernoch Refreshs der Karten aktuell gewesen wären und selbst bei den Nachfolgern noch nicht durchweg Standard. Eine GTX760 war teils schneller als der Nachfolger GTX 960, bei der man schon sehr deutlich feststellen konnte, das 2GB ein Nachteil sind. Eine GTX760 war aber nichts als eine GTX670 mit weniger Shadern, also sollten diese genauso von 4GB profitieren.

Wenn man alle zwei Jahre eine Graka für 200€ kauft, braucht einen das nicht zu kümmern. Wenn man ebenso oft ein Highend- oder Topmodell kauft, aber beim Erscheinen des Nachfolgers wieder verkauft, auch nicht. Wenn man lange was davon haben will, schon. Ich habe eigentlich immer nur 200-300€ für eine Graka ausgegeben und sehe angesichts der geringen Zeit, die ich zum Zocken habe, auch nicht ein, mehr auszugeben. Wenn NV jetzt meint, dass die Angebote, die sonst typischerweise in diese Preislage fielen, also die zweit bzw. seit Kepler drittkleinste GPU mit 192Bit-SI oder kleiner und entsprechend reduziertem Speicher, nun 100€ mehr kosten sollen, mache ich da einfach nicht mit und kaufe gebraucht oder bei AMD. Überhaupt hat es mir schon sauer aufgestoßen, was man seit Kepler in dieser Preislage von NV gekriegt hat, nämlich 192Bit oder gar 128Bit SI und reduzierten Speicher, kein Vergleich zur Ti4200, FX5900XT, 6800GS oder 7900GS/7900GT, 8800GT/9800GT, GTS250 oder GTX460/560(Ti) damals.
 
Zuletzt bearbeitet:
Der vram bedarf lässt sich anhand Grafik designet spiele für die Konsolen ableiten
daran hält sich jeder publisher
grob ist damit die textur Bit tiefe gemeint je Auflösung
die Anzahl der Texturen hängt vom Raster ab je höher die bit tiefe desto schärfer und genauer ist das Bild
grob sind Richtwerte je nach Auflösung Sinnvoll

damals zu ps1 Zeiten waren 32bit Texturen für max 400p bzw 576p Standard
Die PS1 hatte nicht nur wegen der arch den namen 32bit Konsole sondern auch wegen der texturauflösung.
Rechnung ist
400(576)*720*8/32=72000-103 683 Texturen die in einen Raster von 720-576 gepresst werden wo der Designer aber nur 180-144 bis 360*288 zeichnete
180*144*8/32=6768 Texturen
In vram Belegung bedeutet das 6768*32/1024/8=27mb bis 54mb
ps1 hatte 64mb vram
PS2
hier ist man auf 64bit gegangen Auflösung identisch
576*720*8/64=51840 Die designer sind von 360-288 auf 720-576 gewechselt
also defakto 108mb Die ps2 hatte 128mb

PS3, und Pc legendäre geforce 8800
256mb nochmal bit tiefe verdoppelt von 64 auf 128bit in 1280 720 intern in games aber zwischen 720-576-1024-600 mit 64bit
am pc sind bis zu 900mb vram nötig um damit diese 128bit tiefe zu genießen
Daher war man auf 1024-600 und teils deutlich auf 720-576 designet
in vram 600mb und 405mb
PS3 256mb vram und 256mb dram
256mb gpu waren am limit und oft Textur stufen mit max 64bit
das war 2007
empfohlen waren damals 512mb gpu
Innerhalb 2 Jahre ist man vom standard 64-128mb gpu was von 2001 bis 2007 ausreichte zu min 256mb empfohlen 512mb gpu
das ging bis 2013 gut
ab 2009 übernahm der PC die texturauflösung in design in games
Maßgeblich war crysis der Motor dafür mit den 256bit Texturen
darum war crysis auch ein Meilenstein was zu release kaum eine gpu mit max settings über 30fps kam
256*1280*720*8/1024=900mb in 1680-121050 dann 1,8gb
was es bis 2010 nicht gab
erste gpu mit mehr als 1gb vram gtx480 und HD5870 (2010-2009)
Die Konsolen beharrten auf 64-128bit in 720*576 - 1024-600
ab 2013 ps4 und xbone
Eine Versechszehnfachung des vram 512 vs 8gb
Design von 720-576 zu 1280-720 bis 1600-900 mit 256bit-512bit max 1,4gb und 2,8gb

ab 2013 waren 2gb Minimum
leider habe ich meine gtx760 einen Monat zuvor gekauft hätte ich das gewusst wären 30€ mehr für 4gb version das wert gewesen.
ab 2017 kam die ps4 pro
Gpu Leistung verdoppelt vram nicht geändert Standard jetzt 512bit auf 1080p =2,0gb
ab 2021 vram auf Konsole Gerüchten zufolge 16-24gb
Bit tiefe geht auf 1024 Auflösung auf 1440p skaliert auf 2160p
3,6gb für ein frame

Nu das passt doch in 8gb denkt ihr
falsch
denn es muss immer min ein frame im Speicher liegen und ein weiterer für vsync
also aus 3,6gb sind dann mal schnell 10,8gb ohne irgendwelche Effekte
am Pc reichen 9gb 2 frames + ein halber für Berechnung
ram wird das nötigste gespiegelt
texturkompression hilft etwas ist aber kein gamechanger, den ram wird nichts als durch mehr ram ersetzt.

Und genau hier failt amd mit rx5700
Es hätten min 12gb vram für den preis sein müssen
So aber ist diese gen die kürzeste amd gen bisher mit nur 1,5 Jahren Brauchbarkeit

2021 werden die ersten games kommen mit min 11gb vram bedarf auf low
8gb vram wird mit reduzierter Auflösung gehen (720p) aber das ist ungewiss. Ob die publisher dann reduzierte bittiefe anbieten 512 und 256bit um dann 1080p geht
Spiel designet Auflösungen sind relativ
Durch vrs wird zudem an dem vram menge die Auflösung simultan herunter geregelt, ich wette das darauf die Grafikeinstellung basiert
Also nix mit 512bit Textur sondern klarer Interpolation des Bildes runter bis auf 720p damit der vram passt.
1024bit mit weniger Texturen je Auflösung also das Gitter wird gröber und nicht genauer bei gleicher Texturauflösung
Bedenkt das die Bildschirmausgabe dann in 1080p kommt und der Pixelabstand dann größer wird
nativ 1080p 0,28mm
900p =0,33mm
720p=0,42mm
je pixel
Und das sieht man neben den Effekt das dann das design gröber wirkt
Bisher waren die Tapete also Texturen an Auflösungen gebunden jetzt werden die Details durch reduzieren der Texturen erwirkt
Vorteil klar da eine Interpolierung vermieden wird (Bildunschärfe) Nachteil klar die Details gehen verloren.
Es wird eckiger mit nachlade Effekte Aufploppende Texturen.
Diese Unart hatte EA eingeführt mit den ersten game mit vrs Technik was dem checkerboarding der Konsolen sehr nah kommt.
games wären mirrors edge catalyst bf1 bf5 me andromeda
activision und bethesda ubsoft capcom hat diese Technik auch schon im Gebrauch sowie auch square enix zum Glück abschaltbar.
native Auflösung ist immer zu bevorzugen.
angefangen hat das ab 2016 mit der ps4 pro
Wechsel von 256bit auf 512bit texturen

Wem es aufgefallen ist warum am Anfang des Textes keine 2,5fache vram Belegung angemerkt wurde
Das kam erst durch dx10 effektiv dx11 so und der Änderung am Windows display driver modell
Zuvor reichte eine einfache vram Belegung des Bildes weil dieser nicht entladen wird nach Ausgabe.
je nach engine ist das auch heute noch so, neue games werden tendenziell gestreamt vom hdd auf ram in vram
berechnet wird nur die Position daher muss ein frame 2 mal vorhanden sein
quasi als zwang eingeführt von ms
Zumal das die cpu schont weniger drawcalls
 
Offiziell nicht, aber es wird gemunkelt daß auf jeden Fall eine 5600er und vermutlich auch 5500 kommt. Wäre fein wenn AMD es schafft eine RX 5600 sogar ohne zusätzlichen Stromanschluß zu schaffen. Aber da erwarten wir uns wohl zu sehr von 7nm. Und wenn dann wäre die von der Leistung wohl zu weit von einer RX 5700 entfernt, bzw. zu wenig weit von einer RX 560 weg.

Die Radeon RX 5700 XT mit 2560 Shadern hat 225W.
Die Radeon RX 5700 mit 2304 Shadern hat 180W.
Wieso vermutest du bei einer RX 5600 unter 75W ?
Ich halte 2000 Shader und 150W für realistischer.
Wenn sie es mit dem Takt nicht übertreiben sogar unter 140W, wo dann ein 6 Pin ausreichen würde, und wir einen würdigen Nachfolger für eine Leise und Sparsame RX470 hätten.
Karten mit mehr als einem 6 Pin kommen mir nicht mehr ins Haus, da bin ich zu Silent verliebt geworden.
 
Zuletzt bearbeitet:
...
Deine 1. Aussage verstehe ich nicht. Wie soll ich belegen, dass es bisher quasi nie vorkam, dass man schon zum erstmaligen Erscheinen einer neuen Speichergröße auf einer Grafikkarte Vorteile messen konnte? Soll ich Dir aus den letzten 20 Jahren Tests mit entsprechenden Karten verlinken, soweit die überhaupt online verfügbar sind, und zeigen, dass dort nichts feststellbar war?
Hoppla da hab ich mich verlesen - nachdem Du geschrieben hast daß Du mir widersprechen musst, dann aber bestätigst daß man zum Release der Karten keine nennenswerte Vorteile messen konnte hatte ich es falsch gelesen daß man es konnte.
Sorry
Ach und ja klar - es gibt noch genug alte Tests online, viele Seiten von damals funktionieren auch noch, bei einigen gehen aber die Grafiken nicht mehr etc.

...
GeForce4 Ti 4200 64MB vs. 128MB: Die 64MB-Version mit höherem Speichertakt ist in allen Spielen und allen Einstellungen schneller, nur in der Comache 4 Demo hat die 128MB-Version einen Vorteil von 4% bis 27% (in 1920x1440), mit Anhebung des Speichertaktes (es war der gleiche 4ns-Speicher verbaut) sogar 6% bis 39%.
Das ist genau so ein Beispiel von dem ich gesprochen habe. In einem Spiel in unrealistisch hoher Auflösung ein Vorteil von mehr als nur ein paar %, aber mit FPS mit denen man eigentlich eh nicht flüssig spielen kann (< 30FPS).

...
Radeon 9800 Pro 256MB 16% Vorteil ggü. der 128MB-Version in UT2003 in 1280x960 mit 4xAA/8xAF.
Auch eher so ein Beispiel ... in einem Spiel in zugegeben moderater Auflösung mit hohen FSAA. Und dann auch eher schon wieder in Regionen wo es wenig FPS bringt. 36 vs. 42 FPS macht wohl nicht den unglaublichen Unterschied, auch wenn 16% wenigstens etwas sind.

...
Radeon X1800XT 256MB vs. 512MB, z.B. 16% Vorteil in BF2, 72% in CoD2, 18% in FEAR, 13% in HL2, 23% in Quake4, alles in in 1600x1200 mit 4xAA/8xAF, insgesamt 10% schneller
Gut, hier sieht man einige Unterschiede. Aber war z.B. eine X1800XT mit 512MB nicht die Standard Version? Und die mit 256MB waren die "Budget" Versionen dieser?
Bei der 7800GTX kann man es schwer vergleichen da die 512MB Version welche später kam auch einen deutlich höheren GPU sowie RAM Takt hatte.
Und die Frage ist halt auch wie viele Leute zu der Zeit mit 1600x1200 und 4xFSAA gespielt haben, mit teils wieder recht niedrigen FPS.

...
... X1900XT 256MB: ... gesamt 8% in 1600x1200 mit Eyecandy.
Hohe Auflösungen mit Eyecandy ... aber okay - 10% Gesamt bei der X1800XT und 8% Gesamt bei der X1900XT sind immerhin ein kleiner Unterschied und je nach Spiel sieht man sogar bei niedrigeren Auflösungen Unterschiede.

...
GeForce 8800GTS 320MB vs. 640MB: Die ansonsten absolut identische Karte ist nur aufgrund der Speichergröße in 1280x1024 mit 8xAA 16% schneller, in 1600x1200 mit 8xAA sogar 39%.
Gut wie ich schon schrieb ist das einer der wenigen echten Speicherkrüppel, aber immerhin konnte man je nach Budget auch die größere Version kaufen, also kein Angebotsmangel.

...
Dann hier ein toller Bericht, damals gab es sowohl Radeon HD3850, als auch GeForce 8800GT jeweils mit 256MB, 512MB und 1GB, wobei der Speicher der 8800GT 256MB (von wegen die gab es nicht, ich finde davon im Preisvergleich elf Modelle, sogar eine 9800GT 256MB) eigentlich deutlich langsamer lief ...
Holy Crap! Ich wusste tatsächlich nicht mehr daß es von einer 8800GT oder HD3850 auch Versionen mit 256MB gab. Gab es die auch schon zum Release?
Ich dachte die 512MB Version wären der Standard und die 1GB Version die "extra" Modelle mit viel VRAM. Aber immerhin sieht man bei diesem Test auch genau was ich schrieb, daß man zwischen den 512MB und 1GB Versionen (beider Hersteller) eigentlich keine nennenswerte Unterschiede sieht, erst wenn die Auflösungen dann schon hoch sind UND FSAA in höherer Einstellung genutzt wird.

...
Tendenz ist, dass der Unterschied zwischen 256MB und 512MB je nach Spiel ohne AA und AF bis 1600x1200 kaum ins Gewicht fällt, 2560x1600 aber meist auch ohne Eyecandy für 256MB unspielbar ist bzw. garnicht möglich, ...
Die 256MB Versionen sind hier aber in meinen Augen die Sondermodelle die man nicht kaufen wollte, die 512MB waren Standard und die 1GB Modelle eben die mit doppelten VRAM aber kaum Mehr Nutzen.

...
... die 1GB-Version kann sich nie wirklich absetzen, selbst in 2560x1600 mit 4xAA nur 8%.
Meine Rede.

...
Alles in allem bestätigt dies meinen Standpunkt: Es gibt definitv Karten, die schon zum Erscheinen durch ihren Speicher eingeschränkt werden und solche, bei denen sich schon früh, wenn auch nicht bei Release ein verdoppelter Speicher bezahlt macht und die Lebensdauer erhöht.
Ist halt jetzt die Frage auf was sich der verdoppelte Speicher bezieht. z.B. wie oben auf die 256MB Modelle? Dann ist das halt ein falscher Bezug wenn eigentlich die 512er der Standard war.
Im Beispiel der 8800GT z.B. hier zu sehen daß die mit 512MB released wurde und dann die 1GB und 256MB Modelle nachgeschoben wurden. Auch bei der HD3870 waren 512MB auf den Releasekarten zu finden siehe HIER.

Also ich bleibe da auch bei meinem Standpunkt, daß eben die Karten zum Release meist den passenden Speicher haben und dadurch eigentlich nicht eingeschränkt werden. Ausnahme die ein oder anderen Speicherkrüppelmodelle, wo es aber wenigstens die normalen Modelle ebenfalls gab, man also die Wahl hatte.
Und der doppelte Speicher (im Vergleich zu den Standard Versionen) brachte nur in den seltensten Fällen eine merkliche Leistungssteigerung, und wenn dann nur in hohen Auflösungen mit hohen FSAA Einstellungen die entweder kaum jemand nutzte oder die eh schon so niedrige FPS liefern daß der Unterschied das Kraut nicht fett macht.
Hier rede ich auch immer von den Performance oder Top/High End Modellen. Die Midrange Karten die auch gerne mal mit doppelten Speicher angeboten wurden oder (god behave) die Low Budget Karten mit viel (meist langsamen 64Bit angebundenen) Speicher zogen daraus gar keinen Nutzen da die Rohleistung fehlte.
Und selbst wenn nach ein paar Jahren die Modelle mit doppelten Standard RAM Ausbau vielleicht in den ein oder anderem Spiel eine bessere Leistung bot war diese sehr überschaubar und oft kein spielbar/unspielbar Unterschied.

...
Dazu muss ich auch sagen, dass ich sehr viel seltener die Karte tausche als die meisten hier im Forum und dass auch eher schlimmer wird, weil ich nurnoch selten zum Zocken komme. Da ich aber einen Monitor mit 1920x1200 habe und demnächst eher auf 2560x1440 gehen werde, muss eine neue Karte da auch lange durchhalten.
Ist bei mir eigentlich ähnlich. Ich habe meine GPUs oft recht lange und durchtauche da oft die ein oder andere Generation.
Habe z.B. mit meiner Ultra TNT2 32MB AGP durchgehalten bis zur GeForce 3 (original 64MB AGP), mit dieser dann wieder bis zu Radeon 9800 bzw. FX5900 ... mit diesen dann aber nicht so lange bis zur 6800GT 256MB AGP und dann auch noch ein eher baldiges Upgrade auf eine eher teure 7800GS 512MB AGP (7900GT Chip) welche damals die schnellste AGP Karte darstellte und ich mein altes Pentium-M System noch nicht gegen ein PCI-E tauschen wollte. Mit der habe ich wieder lange ausgehalten bis zur HD4850 bzw. GTX260-216 Shader Version. Mit dieser wieder ewig bis zur GTX 680 (2GB) und mit dieser auch wieder laaange bis zur GTX 1080 welche recht kurz danach gegen eine sehr günstig erstandene 1080Ti getauscht wurde.

...
... Ich habe eigentlich immer nur 200-300€ für eine Graka ausgegeben und sehe angesichts der geringen Zeit, die ich zum Zocken habe, auch nicht ein, mehr auszugeben.
War bei mir recht unterschiedlich ... "damals" hatte ich mal ne teure Matrox Millenium aber auch mal ne günstige Tseng ET6000 gekauft. Die Voodoo und Voodoo² waren dann wieder teurer ... auch meine TNT und UltraTNT2 waren etwas teurer. Die GF3 eine der teuersten Grafikkarten die ich gekauft habe (direkt zum Release), die Radeon 9800 bzw. FX 5900 waren hingegen wieder recht günstig da nicht die Top Modelle und auch nicht direkt zum Release. Die 6800GT war wieder etwas teurer und die 7800GS AGP sowieso. Die HD4850 und GTX260 waren zu den echt guten Zeiten wo die Hersteller im erbitterten Zweikampf waren. Die GTX260 hatte mich ca. 180 EUR gekostet, zwar nicht zum Release (eher kurz vor den Refresh Chips - der GTX 275) aber das war ein echt gutes Preis/Leistungsverhältnis und die Karte hatte ich auch sehr lange. Die GTX 680 war wieder einiges teurer und die GTX 1080 auch. Dafür war die 1080Ti wieder ein Schnäppchen zu jedoch doch hohen (Gebraucht-)Preis.

...
Wenn NV jetzt meint, dass die Angebote, die sonst typischerweise in diese Preislage fielen, also die zweit bzw. seit Kepler drittkleinste GPU mit 192Bit-SI oder kleiner und entsprechend reduziertem Speicher, nun 100€ mehr kosten sollen, mache ich da einfach nicht mit und kaufe gebraucht oder bei AMD. Überhaupt hat es mir schon sauer aufgestoßen, was man seit Kepler in dieser Preislage von NV gekriegt hat, nämlich 192Bit oder gar 128Bit SI und reduzierten Speicher, kein Vergleich zur Ti4200, FX5900XT, 6800GS oder 7900GS/7900GT, 8800GT/9800GT, GTS250 oder GTX460/560(Ti) damals.
Ja die Preise haben in den letzten Jahren wieder deutlich angezogen in den jeweiligen Modellklassen. Bei nV recht stark, aber auch AMD ist da teils mitgezogen. War aber eigentlich (wie bei den CPUs auch) schon immer so daß die Hersteller teils sehr teure Modelle angeboten haben, wenn sie es sich leisten konnten.

@angelsdecay
Du restest bei Bit für die Texturen aber hoffentlich nicht auf die Farbtiefe bezogen, oder?
 
Die Radeon RX 5700 XT mit 2560 Shadern hat 225W.
Die Radeon RX 5700 mit 2304 Shadern hat 180W.
Wieso vermutest du bei einer RX 5600 unter 75W ?
Ich halte 2000 Shader und 150W für realistischer.
Wenn sie es mit dem Takt nicht übertreiben sogar unter 140W, wo dann ein 6 Pin ausreichen würde, und wir einen würdigen Nachfolger für eine Leise und Sparsame RX470 hätten.
Karten mit mehr als einem 6 Pin kommen mir nicht mehr ins Haus, da bin ich zu Silent verliebt geworden.
Ich vermute nicht daß eine RX5600 <= 75W TDP hat, ich sagte es wäre fein wenn es so wäre.

Abgesehen davon sollte ja lt. Namensschema die Nachfolger so aussehen, oder?
RX460 -> RX560 -> RX5600
RX470 -> RX570 -> RX5700
???RX480 -> RX580 -> RX590 -> RX5700 XT???

Also keine Ahnung wie die XT da einzuordnen wäre, abe die 5600er sollte klar der Nachfolger der RX560 werden, oder?
Und eine RX460 sowie eine RX560 gab es ohne PCI-E Stromanschluß mit 75 bzw. 80W TDP.
Aber wer weiß was da für Modelle kommen, wenn AMD den XT Namenszusatz wirklich wieder einführt dann wäre auch eine RX5600 XT zusätzlich zu einer RX5600 denkbar.
Offensichtlich lassen sie sich auf jeden Fall die Modellnummern nach oben offen. Also eine RX5800 oder RX5900 wären da noch gut möglich. Also vielleicht kommt auch noch eine dicker ausgebaute Navi oder auch etwas anderes?
Lt. PCGamesHardware soll ein Navi 20 in Q1/Q2 2020 kommen, das würde dann für eine RX5800/5900 passen.
Ist zwar noch eine Weile hin und ich würde mich nicht wundern wenn die dann vielleicht sogar RX6800 heißen würde (wäre ja nicht das erste Mal daß man da wo was überspringt oder die High End Modelle ganz anders nennt), aber warten wir mal ab.
 
Das tolle wäre ja, mit der neuen Architektur und 7nm dürfte die karte so viel Schneller sein was Leistung Pro Watt angeht, das man die leistung einer RX470 & 570 (welche es mit 1x6pin gab) einfach steigern könnte ohne den Stromverbrauch zu erhöhen.
Sowas wäre genial.
Aber ich würde auch gerne eine Karte nehmen die so schnell wie meine RX470 ist, dabei noch 8GB Ram hat und unter 100W benötigt = noch Kühler.
 
Schade das keine custom Design Karte der Readon/Vega VII gibt.
So ein Nitro+ Kühler würde der bestimmt gut stehen. :)
Der Original Kühler soll ja nicht so der bringer sein.
 
hab es aber noch nicht geschaut.

Edit: hmmm der titel ist mal echt richtig scheiße... habe gedacht da kommt ne 5800xt :kotz:
 
Zuletzt bearbeitet:

Du redest von 2080ti, verlinkst aber auf ne 2070.
Und "davonrennen" würde ich 3 fps bei > 100fps Basis auch nicht unbedingt nennen. Die meisten Outlets werten 3% Margen als Messtoleranz.

Spannend wird es, aber bitte lasst uns doch ein wenig näher an den Fakten bleiben und nicht jetzt schon Behauptungen aufstellen, die im eigenen Link widerlegt werden. ;-)
 
Zuletzt bearbeitet:
Dann solltest du genauer lesen... Das ist ein vergleich unter dx 11 in world war z gewesen mit einem preislich identischen system. Unter vulkan ist schon jetzt die vega64 ca. 20 fps schneller als ne 2080ti. Und die 5700xt ist schneller als ne vega64.
 
@ Bucho
Schau mal die vermuten bei der 5600er 1408-1536 Stream-Prozessoren und 120w

AMD RDNA: Navi 10, 12, 14, 21 in Linux-Treibern aufgetaucht
Hmm das wäre dann aber keine besonders aufregende Effizienz, es sei denn sie knallen die Taktraten wieder so hoch wie möglich wodurch die Karten wieder ineffizienter werden.
Ich mein immerhin schafft ja schon eine Polaris 20 wie z.B. auf einer RX 570 genutzt mit 150W TDP auszukommen, und das bei 2048 Shadereinheiten. Wenn man die auf 1408-1536 Shader kastrieren, eben runter von den 32 CUs auf die geschätzen 22-24 dann wäre damit ja schon locker 120W TDP drin. Und das noch mit 14nm (14LPP) Fertigung. Da erhoffe ich mir von einer Navi in 7nm (7FF) etwas mehr.

Dann solltest du genauer lesen... Das ist ein vergleich unter dx 11 in world war z gewesen mit einem preislich identischen system. Unter vulkan ist schon jetzt die vega64 ca. 20 fps schneller als ne 2080ti. Und die 5700xt ist schneller als ne vega64.

Und wie viele Spiele nutzen Vulkan? Doom (Doom Eternal), Rage 2, ... umm ..., ach ja Wolfenstein II und X4. Sonst noch etwas Nennenswertes?

Ich bin kein Gegenredner von Vulkan, finde es eine verdammt gute API die mehr Support bekommen sollte, aber solange das nicht so ist nutzt es uns nichts.
Und nur weil eine Vega 64 da in einem Benchmark (hast Du da einen Link dazu?) vielleicht Ihre eigentlich beeindruckenden Daten endlich mal zeigen kann bedeutet das noch lange nicht daß die 5700XT da auch so gut oder besser ist. Hängt wohl alles extrem von Optimierungen und Treibersupport ab.
 
Unter vulkan ist schon jetzt die vega64 ca. 20 fps schneller als ne 2080ti. Und die 5700xt ist schneller als ne vega64.

Du beziehst dich mit der Aussage auf den veralteten Bench von GameGPU oder?
Da gilt die Aussage aber auch nur unter Full-HD und für die Vega64 LC, also nicht die normale Version der 64, denn diese ist nämlich nur 9 FPS schneller. Je höher die Auflösung gedreht wird, desto besser schneidet die 2080ti ab und schraubt sich bei 4k sogar vor eine VII.

World War Z те�т GPU/CPU | Action / FPS / TPS | Те�т GPU


Nvidia hatte auf die Probleme bei der Performanz unter Vulkan reagiert und die Leistung dort (teils deutlich) mit einem Treiberupdate verbessert: Geforce-Treiber für Rage 2 und World War Z: Nvidia will Vulkan-Performance verbessern
 
Dann solltest du genauer lesen... Das ist ein vergleich unter dx 11 in world war z gewesen mit einem preislich identischen system. Unter vulkan ist schon jetzt die vega64 ca. 20 fps schneller als ne 2080ti. Und die 5700xt ist schneller als ne vega64.

Und wie genau muss ich lesen, um zu verstehen, wie ein 2070 Benchmark mit <3% Vorteil für die AMD GPU... bedeutet, dass diese GPU einer 2080 TI "davon rennt"?
Wenn Du behaupten willst, dass das Ding schneller als ne 2080ti ist, dann verlink auch nen 2080ti Benchmark. Irgendwelche Hochrechnungen, gepaart mit Vermutungen und Bauchgefühl anhand eines 2070 Benchmarks sind nicht hilfreich um Deinen Punkt zu untermauern.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh