Der "512 MB reichen doch immer.. "-Gegenbeweisthread

Bei ATI vielleicht, bei nV und auch generell würde ich immer mindestens zu 512mb Karten greifen.


Bei Colin McRae DIRT ruckelt es mit einer 256MB 3850 stärker als bei einer 512MB Version bei der gleichen Auflösung. 256MB sind einfach zu wenig in diesen Tagen, auch bei 1280x1024.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@bawde: Nach 1min wohl nicht, aber nach >30min zocken schon eher. ^^
Wenn der Videospeiche auf 800MB gefüllt ist, dann brechen bei mir die FPS oftmals um die Hälfte ein. Bzw man sieht einen Verlauf der langsam gegen Null geht :fresse:
Dann Alt+Tab zweimal und die FPS sind wieder doppelt so hoch :d
 
Zuletzt bearbeitet von einem Moderator:
Das Hauptproblem ist eher der Intervall, in dem die Spiele ihr VRAM mal aufräumen. Bei Oblivion ist dieser Wert auch vom User per Konsole beeinflussbar, was sich bei häufigerem Aufräumen aber in ebenso häufigerem Nachladen von der HD bemerkbar macht. Ansonsten wird dort - wie schon oben gesagt - das verfügbare VRAM als eine Art Texturcache genutzt. Mit einer Karte mit mehr Speicher sollte man also diesen Flush-Wert auf einen langen Zeitraum einstellen, damit das Spiel überhaupt Zeit hat den Speicher der Karte zu füllen. Dafür wirds bei den meisten Übergängen in der Welt nur noch zu minimalen bis gar keinen Ladezeiten mehr kommen.

Da es aber auch andere Spiele gibt, die diesen Lademechanismus beinhalten, fältt es unter Umständen schwer, eine korrekte Aussage über deren VRAM-Bedarf zu treffen, da sie jede Karte, egal wie groß, theoretisch sofort maximal auslasten könnten. Weitere Spiele laden z.B. beim Levelstart alle Grafikdaten in "irgendein" Ram, da Swappen von Arbeitsspeicher in Grafikkartenram immernoch schneller geht als von der HD zur Grafikkarte. Wenn man es gut macht geht ersteres sogar ohne Ruckler und Performanceverlust, so dass es piepegal ist, das ein Spiel auf einer 512MB-Karte 800MB Videospeicher belegen will.

Was noch hinzukommt: Ja, höhere Auflösungen benötigen mehr Ram
Ist auch ganz einfach auszurechnen: Wir gehen mal von 32Bit Farbtiefe aus, das gibt uns 8Bit pro Farbkanal plus einen Kanal für Transparenzen.
Nun nehmen wir mal ne klassische Auflösung, 1024x768.
1024x768x32 = 25165824 Bit pro Bild, bzw. 3145728 Byte oder genau 3 Megabyte (2x durch 1024 teilen).
Ein Bild in dieser Auflösung braucht also glatte 3MB an Videospeicher, aaaaber wir berechnen ja immer mehrere Bilder im Voraus um einen glatten Bildübergang zu bekommen. Beim Triple Buffering wären das 3, also sinds dann schon 9MB, die für die Bildausgabe draufgehen.
Nächte Auflösung: 1680x1050 - beliebt bei 20-Zoll-Widescreens.
1680x1050x32 = 56448000 Bit oder 7056000 Byte bzw. rund 6,73 MB.
Das mal 3 sind dann schon rund 20,2 MB, die wir für die Bildausgabe vom Videospeicher abzwacken müssen.

Jetzt kommt aber hinzu, das für die Bildausgabe diverse Zusatzberechnungen notwendig sind. Beim Supersampling-AA wird das Bild z.B. in einer viel höheren Auflösung berechnet (was zusätzlichen Grafikspeicher benötigt...), und dann werden aus diesen Pixeln Mittelwerte gebildet, die die Farbe des Pixels im runtergeschrumpften Bild bieten. RGSSAA (Rotated Grid Supersampling Antialiasing) ist wohl das bekannteste tatsächlich benutzte Beispiel und liefert ne gute Qualität, aber wie wir gesehen haben kostet es Leistung, da für die interne Berechnung des Bildes in der höheren Auflösung mehr Arbeit notwendig ist (mehr Objektgeometrie muss beachtet werden, obwohl sie im finalen Bild evtl. nicht zu sehen ist, einfach mehr zu berechnende Bildpunkte inklsusive Effekten usw...).

Weitere Effekte wie HDR werden teilweise auch durch mehrere Renderdurchgänge desselben Bildes erreicht. Einige Spiele berechnen z.B. erst eine normale Szene, dann eine HDR-Ebene und legen diese dann wie eine transparente Ebene in einem Zeichenprogramm darüber. Auch EMBM und weitere Effekte werden (teilweise) auf diese Art berechnet, jedesmal ist für diesen Zwischenschritt der Speicherbedarf eines weiteren Bildes vorhanden (bei 1680x1050 könnte man also sagen: Pro Effekt, der auf diese Art arbeitet, gehen zusätzliche 6MB Videospeicher flöten).
 
@bawde: Nach 1min wohl nicht, aber nach >30min zocken schon eher. ^^
Wenn der Videospeiche auf 800MB gefüllt ist, dann brechen bei mir die FPS oftmals um die Hälfte ein. Bzw man sieht einen Verlauf der langsam gegen Null geht :fresse:
Dann Alt+Tab zweimal und die FPS sind wieder doppelt so hoch :d

Jetzt müßtes du noch eine GTS mit 1024mb da haben, wie es sich damit verhält ;)
 
Ist zwar nen schöner Test, jedoch sagt das nichts über das längere reale zocken aus. Wenn der VRam dann voll ist, dann ist ende im Gelände und die Balken werden immer kürzer^^
 
Aber in welchen Settings und Spiele kann man das denn (ausser Crysis)?In normalen Auflösungen natürlich.
In Oblivion mit Texturen-Mods und recht hoher Sichtweite kommt man sehr schnell auf 750 MB+ (die auch alle gebraucht werden). Da isset ganz egal, was für nen Chip man auf der Graka hat oder welche Auflösung man zockt... mit 512 MB ruckt es.

Aber da 512 momentan obere Grenze des Standards ist, gibt es noch nicht viele Spiele, die darüber hinausgehen. Mit der nächsten Generation sollte das dann aber kommen.
 
Zuletzt bearbeitet:
Wenn man nur das Benchmark von COH durchlaufen lässt, ist es kein Wunder das da kein Unterschied zwischen der 512 und der 1GB-Karte ist.. aber naja. Die Redakteure haben halt auch nicht die Zeit jedes Game mit jeder Karte erst mal ne Stunde zu zocken.
 
@vento
einen VRam-Bug hatte ich noch nie

mich würde interessieren wie sich die 1GB karte in G3 verhält.

mit einer 7900GT hatte ich sehr viele ruckler, kein spaß am spielen.
mit der 8800 GT 512MB gibt es wenige, kurze ruckler aber dafür hängt das komplette bild

wie wird das wohl mit der 1GB graka sein....
 
Zuletzt bearbeitet:
Ist zwar nen schöner Test, jedoch sagt das nichts über das längere reale zocken aus. Wenn der VRam dann voll ist, dann ist ende im Gelände und die Balken werden immer kürzer^^

Wenn der VRAM-Bug auch bei den 1GB Karten zuschlägt, wirst einfach nur etwas länger ruckelfrei zocken können. Ganz wird das Problem sicher nicht verschwinden. 1GB bzw. mehr Speicher ist da leider auch kein Allheilmittel.

Der Test gefällt mir insofern auch ganz gut, da man sieht welche Vorteile der größere Speicher hat BEVOR der VRAM-Bug auftritt! Denn darum geht es doch letztendlich. Und wie man sieht sind die Vorteile kaum der Rede wert. Denke frühestens nächstes Jahr, wenn der großteil der erhältlichen Grafikkarten mit 1GB ausgestattet ist, werden die Spieleentwickler auch damit anfangen den mehr an Speicher zu nutzen.
 
Naja wegen dem VRAM Bug, wäre aber Interessant zu sehen in wie fern sich das verbessert...wie lange usw ;)
 
Zuletzt bearbeitet:
Der Test bei CB sagt mal wieder garnix aus.Wo sind die Min.FPS auf die es ankommt.
Statt FPS hätte ich ganz gerne VRAM Balken gesehen, aber was solls die messen denn VRAM in Avg.FPS statt wie es sich gehört in Min.FPS.
Dazu kommt das sie nur einen Bench machen und Fertig daher hätten sie sich denn Test mal wieder Sparen können, denn entweder Teste ich das Ausgiebeig und richtig oder mache mal eben ein Paar Benches die überhaupt nicht aussagen.

Hauptsache man hat wieder ein Artikel denn 90% ihrer User für Glaubhaft und Richtig halten.
Bin gespannt wann sie sich mit THG zusammen tun wenn sie das nicht schon sind. ;)
 
Ist halt Wolfgang Andermahr, wie er leibt und lebt. Schon in der Einleitung mehr Falschaussagen als Sätze, und irgendwie alles Klopfer vom heftigsten:

"Mit der Produktvorstellung der GeForce 8800 GTX sowie der GeForce 8800 GTS hat es Nvidia geschafft, erste Grafikkarten standardmäßig mit einem größeren Speicher als den bis dato normalen 512 MB auszustatten. ATi bleibt dagegen bis heute etwas stur auf der 512-MB-Schiene, was in einigen Spielen mit hohen Qualitätseinstellungen durchaus ein Nachteil sein kann."

Hier die Produktvorstellung der FireGL V7350 mit 1GB vom 23. März 2006.

Hier ein Artikel vom 14.Juno 2007 zur Diamond 2900XT 1GB.

Hier ein Screenshot von zwei Läufen mit Two Worlds bei verschiedenen Qualitätseinstellungen, ein mal mit maximalem AA, AAA, AF, Mipmap Level, ein mal mit minimalen Einstellungen:

AFAA.gif

Wie man sieht, keinerlei Unterschied in der Speicherauslastung. In beiden Fällen wurde eine kleine Ansiedlung umrundet, bis die Speicherauslastung nicht mehr anstieg.

Wie man am Einleitungsabsatz sehen kann, geht es Andermahr mal wieder nur darum, seine gefakten Pro-Nvidia-Benches unters Volk zu bringen, und koste es, was es wolle, mit Unwahrheiten Stunk gegen ATI zu machen. Der ist schon so faktenresistent, daß es brummt.

Neulich wollte er lang und breit erzählen, daß er noch nie Gelegenheit hatte, RV670 mit GGDR3 gegen RV670 mit GDDR4 zu benchen, und verkündete ungeniert, GDDR3 sei wahrscheinlich doch schneller. Was soll man dazu noch sagen?
 
Zuletzt bearbeitet:
Jupp,
das beste ist :

Schade, dass zu den Tests keine Minimum-FPS mit angegeben wurden, auch wenn diese bei herkömmlicher Messung natürlich nicht so genau sind sieht man damit schon recht deutlich, dass eine Karte, die aufgrund des geringeren Speichers ~5% weniger FPS im Schnitt hat gerade einmal auf ein Fünftel der minimalen Framrate der Karte mit mehr VRAM kommt. Sind natürlich nur Beispielwerte, aber das unterschlagen die einfachen Messungen hier zum Teil. Trotzdem schöner Test, auch wenn die Ergebnisse im Grunde so ziemlich die selben wie schon im älteren Test bei expreview.com sind.
Das mit den Min-FPS kann man nicht so verallgemeinern, denn diese sind einfach verdammt tückisch. Ich behaupte jetzt mal, Min-FPS nutzen einem im Endeffekt absolut gar nichts. Denn was macht man mit Szenen, wo mal ein kurzer Haker drin ist? Als Min-FPS-Wert benutzen? Das wäre sicher mehr als nur falsch. Wenn man diese Schiene fahren möchte, bringt es nur ein Verlaufsdiagramm über einen gewissen Zeitabschnitt.

Auf der einen Seite wird im Artikel gesagt das OC nichts bringt beim VRAM vergleich und auf der anderen Seite sagt Wolfgang das es wohl an denn Timings der 1024MB karte liegt das sie langsamer ist.
:wall: Ja ist klar Herr Andermahr genau wie Min.FPS nicht zählen da sie ja das ergebniss verfälschen würden .

Darin liegt aber der sinn einer 1024MB Karte um diese kurzen Haker zu unterbinden bei denn Min.FPS.
Aber ist ja auch egal man muß nur mal die Kommentare zum Artikel Lesen, bin nur bis Seite 5 gekommen danach konnte ich nicht mehr vor Lachen.

Die Artikel und ihre Schreibweise kommen immer mehr an THG ran und lassen einem nur zum schluß kommen das es ein und die selbe Seite ist bzw Redakteure.
 
so schlimm ist das doch auch nicht, bald gibts neue grakas und die probleme sind vielleicht vorbei :)
 
Was ein G80 mit dem Speicher macht, und wofür er den braucht, stand vorgestern noch im Forum, fiel dann aber einer Putzaktion im Interesse eines stänkernden Proleten zum Opfer, weswegen ich erstmal davon absehe, dazu ein zweites Mal zu schreiben.

Ich sag mal, generell gibt es zwo Anwendungsbereiche (jenseits der etwas seltsamen Shaderentlastungs-Strategien gewisser Hersteller) für mehr als 512 Mb, nämlich Game-Modding mit hochauflösenden Texturen, und diverse 3D-Software, insbesonder CAD und dgl.

Entsprechende Benchmarks zeigen ja auch durchaus, wozu zwo Gigabyte Grafikspeicher gut sein können. Zum zocken weniger...
 
Der einzig staenkernde Prolet (nebenbei eine Beleidigung, aber was soll´s) bist Du - und ein narzisstischer, paranoider und arrogant-unangenehmer noch dazu. Wenn Du partout predigen willst: geh in die Kirche, nicht ins Netz.
 
Soviel zur Definition "stänkernder Prolet". Interessantes Outing, wenn auch etwas off topic.

EDIT: Dein Link unter "Du" funktioniert übrigens nicht. Mußte mal korrigieren.
 
Zuletzt bearbeitet:
warum nicht per pm regeln?

@topic

das war und wird immer so bleiben mit dem graka speicher.....alle leute haben sich damals ATI´s 9800pro mit 128mb gekauft und haben die leute ausgelacht, die die 256mb variante genommen haben.....naja nach nem halben jahr als neuere spiele kamen, hatten sie dann die arschkarte......nur mal so um ein beispiel zu nennen

ok, ich bin strikt gegen solche sachen wie 8400gs mit 1gb oder sonstige spielereien....aber wenn der chip selbst schnell genug ist um die große ram menge auch zu nutzen, warum nicht?
 
Das ist kein Link, nur eine Formatierung als Hilfe fuer kognitiv beschraenkte Leser. Soll´s ja geben.
 
Damit gibst Du der Frage aber eine neue Wendung, nämlich dahin, ob in naher Zukunft mehr und größere Texturen in ein und derselben Szene verwendet werden.

Das macht doch an sich nur Sinn, wenn man davon ausgeht, daß sich 24 Zoll und mehr als Standard durchsetzt, und dann frage ich mich, ob die GPU-Leistung reicht, wenn an allen Ecken größere Anforderungen gestellt werden.

Ich denke eher, die Karten mit 1024 MB und mehr zielen auf andere Kunden, nämlich Grafikdesigner. Dazu müßte sich mal jemand äussern, der den Unterschied in der Praxis beschreiben kann.

Mich stört, daß Tests entweder nur Spiele oder nur Anwendungsprogramme berücksichtigen, Workstation-Karten oder Gamer-Karten, Penismark-3D oder Designer-Benches. Wer das eine mit dem anderen kombinieren oder Vergleiche anstellen will, guckt in die Röhre.

Ich hab mal aus Neugier gegoogelt, wie die Quadro-FX oder FireGL beim Spielen laufen, aber da findet man gar nix. Genausowenig zur Eignung der billigeren Karten für Designer-Software. Ist doch 'ne alberne Trennung. Game-Designer fangen nämlich oft als Modder an und mit arg begrenztem Budget.

PS Z. B. gibt es die 2900XT ja auch als FireGL V8650 mit 2048 MB, anderem BIOS und anderen Treibern. Kostet bloß reichlich viel. Soweit ich weiß, kann man die hin und her modden, also FireGL zur normalen oder umgekehrt.
 
Zuletzt bearbeitet:
Grafik-Designer die nicht 3D Arbeiten ist der Speicher auf der Graka egal. Ein 30" Desktop braucht vielleicht 7MB Vram. Normale 2D-Software ist in der Regel nicht 3D-Beschleunigt.

Quadro-FX und FireGL liefen früher unter aller SAU, weil die Treiber nicht für Spiele ausgelegt sind sondern ein ganz anderes Ziel haben. Die konnte man zum zocken in die Tonne treten.

Ist allerdings schon eine Weile her das wird das auf den 3D-Rechnern probiert haben (CS 1.6-Zeiten^^).
 
Zuletzt bearbeitet:
Ich stell mir grad mal vor zwo Monitore an eine 1024Mb Diamond 2900XT zu hängen, auf einem Maya3D, auf dem anderen Oblivion, und per Alt-Tab wechselt man fast verzögerungsfrei hin und her.

Müßte doch gehen. Wäre ein günstiger Arbeitsplatz für Spieledesigner bei gutem Workflow. War ja nun auch Diamond, die als erste 1024MB eingesetzt haben. Haben die nicht auch die ersten FireGL für 3D-Arbeitsplätze entworfen? Knapp 1000,- pro Arbeitsplatz einzusparen, ist für 'ne kleinere Spieleschmiede 'ne Überlegung wert. Die müssen ja erstmal einige Jahre basteln, bevor der Erfolg kommen kann.

Möchte nicht wissen, wie viele eine FireGL kaufen, um erstmal den Support zu haben, und ansonsten gemoddete 2900er einsetzen. In Unternehmen gilt doch sowieso: Geiz ist geil...
 
das was die sparen hohlen sie an strom kosten eh wieder ein^^ wobei die fire gl karten da nicht besser sind
 
das war und wird immer so bleiben mit dem graka speicher.....alle leute haben sich damals ATI´s 9800pro mit 128mb gekauft und haben die leute ausgelacht, die die 256mb variante genommen haben,,,


das das ganze SI abhängig ist dir doch bewusst? oder? also wenn nv und co auf die idee kommen uns gddr5 mit 256 bittigem SI zu verkloppen, stehen wir genauso dumm da wie jetzt. sag da nur crysis und 8800 und 8900 gtx variante und mal unter r_texturestreaming geschaut...stimmt, steht beidesmal 2 da ;)


der vram bug ist wohl sone art bildzeitungs "sommerloch" hit, oder wie...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh