Der "512 MB reichen doch immer.. "-Gegenbeweisthread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das das ganze SI abhängig ist dir doch bewusst? oder?

es geht um den datendurchfluss......und der erhöht sich nun mal mit mehr speichertakt....d.h. man merkt kaum einen unterschied zwischen 256bit und 512(siehe 2900pro 256bit und 2900pro 512 bit....max 5% unterschied)......tatsache ist das sich 256bit billiger produzieren lässt und der endverbraucher somit auch nicht so tief in die tasche greifen muss, da nehm ich die paar prozente verlust gerne in kauf, oder nich?

E:

nie was davon gehört^^......

crysis ist ein sch**ss spiel.....bestimmt extra so programiert, das die leute gezwungen sind neue hardware zu kaufen um es ordentlich zokken zu können

ach ja zum NV speicher bug kann ich nur sagen: es ist kein bildzeitungs hit, sondern tatsache....schon mal benches von der 8800gt 256mb gesehen, wie die plötzlich einbricht? oder die 8800gts 320mb genau das selbe.....solange der ram leer bleibt ist gut, aber wenns mal an richtig voll wird ist sense

@ topic: meiner meinung sind die karten die referenz design haben die besten.....wenn ATI/NV der karte 512mb geben, dann werden die sich schon was dabei gedacht haben oder?
 
Zuletzt bearbeitet:
Ihr seid mal wieder total abgeschweift. Bis jetzt hab ich hier ziemlich viel Gelaber gesehen, aber ein Beweis dass 512MB nicht reichen wie der Titel lautet noch nicht...
 
das war und wird immer so bleiben mit dem graka speicher.....alle leute haben sich damals ATI´s 9800pro mit 128mb gekauft und haben die leute ausgelacht, die die 256mb variante genommen haben.....naja nach nem halben jahr als neuere spiele kamen, hatten sie dann die arschkarte......nur mal so um ein beispiel zu nennen

ok, ich bin strikt gegen solche sachen wie 8400gs mit 1gb oder sonstige spielereien....aber wenn der chip selbst schnell genug ist um die große ram menge auch zu nutzen, warum nicht?

das sind warscheinlich die besten 2 Absätze in diesem Thread, seh ich auch so.

Ich hatte übrigens ne 9600pro mit 256mb und alle haben gesagt "is doch schwachsinn"

ein halbes Jahr später schon war ich froh dass ich die hatte


Momentan nützen 1gb vram nix, nur wie siehts in nem Jahr weiter aus? weiß keiner...ich nehm einfach mal an dass die entwicklung weiter geht wie bisher, nämlich dass der vram und dessen Nutzung einfach immer größer wird.
 
ich hab damals auch bereut das ich mir ne 6800 le mit nur 128mb gekauft hab......aber naja wenigstens ging die ganz gut ab
 
Mal wieder ein paar Testläufe.

CMR DiRT mit maximalen Settings bei 1280*1024 auf einer Sapphire HD3870 @ 864/1251 MHz mit einem alten Intel D940 (Dual Core 3,2GHz), zwo GB DDR400 (3,3,3,8), Intel-Board D101GGC (Chipsatz ATI R400). Magneti Marelli Crossover komplett durchgefahren und mit Rivatuner aufgezeichnet.

Erster Lauf: Treiberseitig alle Optionen auf niedrigstmögliche Werte gestellt, Kantenglättung und Filter zusätzlich in den Spieloptionen ausgeschaltet.

LOW.gif

Zwoter Lauf: Treiberseitig alle Optionen auf höchstmögliche Werte gestellt, Kantenglättung und Filter zusätzlich in den Spieloptionen maximiert.

HIGH.gif

Das Spiel ist offenbar sorgfältig auf 256 MB Grafikspeicher abgestimmt. Die nötige Reserve von wenigen Megabyte für höhere Auflösungen ist gut zu erkennen. Es ist kein Unterschied in der Speicherbelastung durch AA, AAA, AF, und Mipmap Detail Level feststellbar.

Die Framerate schwankt zwischen 24 und 40 fps, wobei Crashes und Besonderheiten an der Strecke den niedrigeren Werten zugeordnet werden können. Mit schnellerem Prozessor und vor allem schnellerem RAM dürfte es durchgehend bei 35 fps oder darüber bleiben. Vsync war als einzige Option in beiden Läufen aktiviert. Ohne gewinnt man wenige Frames auf Kosten sichtbaren Tearings dazu.

EDIT: man erkennt den Zusammenhang zw. Framerate und GPU-Last in der Qualitätseinstellung ganz gut, der sichtbar macht, daß bei mir CPU und RAM etwa 20% limitieren. Zieht man die 10% Overclocking meiner Karte ab, und setzt ein schnelleres System voraus, kommt man rechnerisch auf durchgehende knapp 40 fps. Die Strecken mit mehreren Fahrzeugen sind übrigens einfacher gestaltet, weswegen das System in dieser Zusammenstellung auch mit zehn Fahrzeugen zugleich in der Kurve nicht nennenswert einbricht.

Es wäre also auf einer HD3850 mit 256 MB genauso gelaufen, wobei die Framerates des niedrigeren Speichertakts wegen etwa 20% niedriger ausfallen können, und muß auch mit der speicherintensiveren Kantenglättung und Filterung einer Nvidia-Karte bei 512 MB sicher zurechtkommen.

PS Falls es jemandem auffällt. 40 Grad unter Last sind bei einer Sapphire 11122-05 normal. Das ist der Serienkühler, keine Wasserkühlung. Kostet dafür ein paar Euro mehr als die anderen Modelle.
 
Zuletzt bearbeitet:
DIRT profitiert von einem Quad recht gut, besonders in den Rennen mit vielen Gegnern, man hat höhere min. FPS ;)
 
Mir ist auch schon aufgefallen, daß DiRT beide Cores meines D940 belastet. Den ersten immer zu 100%, den zwoten um 75% herum pendelnd.

Mein RAM macht laut Everest nur magere 3 GB/s. DDR2 mit 800MHz geht ja schon etwa auf 8 GB/s. Der D940 gilt nicht gerade als Gaming Performer, könnte aber durch seinen akzeptaben Cache bei DiRT mehr leisten als man ihm zutraut. Bei Oblivion bricht meine Kiste dennoch böse ein. Crysis werde ich nachreichen, sobald ichs endlich geliefert bekomme. Demo bringt ja nix.

Mich würde interessieren, was eine Aufzeichnung derselben Strecke bei gleichen Einstellungen mit einer GT/GTX/GTS* zeigt. Laut CB sollen die ja rund 100MB mehr brauchen. Wenns den ominösen VRAM-Bug wirklich gibt, müßte man ja auch sehen, ob die Speicherauslastung nur einfach höher ist, oder ob sie kontinuierlich weiter wächst. Letzteres bezweifle ich.

* Der allgemeinen Einschätzung nach sollte ja das halbe Forum schnellere Systeme haben als ich. Daran kanns also nicht liegen.
 
Ich finde man sollte bei dieser Problematik immer mit dazu sagen, wie sich die Ruckler welche durch zu wenig VRAM auftreten, auf dem Screen bemerkbar machen...
In 99% der "Tests" sieht man ja nur die avg. FPS Rate, welche bei Karten mit weniger Speicher ne ganze Ecke niedriger ist als bei dehnen mit mehr Speicher. Und genau dieser Punkt lässt ja die ganzen Leute darauf schließen das Game läuft um so und so viel FPS langsamer.

Das Problem ist aber eher das, auf längere Zeit gesehen hat man idR die gleiche Leistung, wird die Karte aber zum Nachladen/Auslagern gezwungen, weil der Speicher voll ist, bricht die FPS Rate kurz ein, wird dann aber idR wieder ansteigen auf das Niveau der großen Karte.
Es hängt jetzt wieder vom Game ab, wie sich dieser Effekt auf den Spielfluss auswirkt, bei G3 beispielsweise werden ja beim Teleportieren in eine andere Vegetationszone extrem viele neue Daten in den Speicher geladen, nur kann man sowieso wärend des Teleportvorgangs nix machen, sprich es fällt so sehr gar nicht auf. Bei anderen Games wiederum nervt es total wenn mittendrin die FPS Rate weg bricht. (Bei Rennspielen beispielsweise)

Mich würde interessieren, was eine Aufzeichnung derselben Strecke bei gleichen Einstellungen mit einer GT/GTX/GTS* zeigt. Laut CB sollen die ja rund 100MB mehr brauchen. Wenns den ominösen VRAM-Bug wirklich gibt, müßte man ja auch sehen, ob die Speicherauslastung nur einfach höher ist, oder ob sie kontinuierlich weiter wächst. Letzteres bezweifle ich.

Ich waage mal zu behaupten, das genau das eintreten wird, sprich die Auslastung wird immer weiter ansteigen bis halt der Speicher voll ist, oder aber alle benötigten Daten im Speicher drin sind.
 
es geht um den datendurchfluss......und der erhöht sich nun mal mit mehr speichertakt....d.h. man merkt kaum einen unterschied zwischen 256bit und 512(siehe 2900pro 256bit und 2900pro 512 bit....max 5% unterschied)......

Nur weil die 2900pro mit der höheren Speicherbandbreite nix anfangen kann, heißt das noch lange nicht, dass kaum ein Unterschied zwischen 256 und 512 Bit Speicherinterface besteht. So was ist grober Unfug.


pXe
 
ich hab damit eigentlich nur gemeint das man mit mehr SI+geringerem speichertakt genau so hinkommt, wie mit weniger SI aber höherem speichertakt....
 
yo ist eigentlich das gleiche

halber speichertakt und doppeltes si = doppelter speichertakt, halbes si

habs nur auch erst nicht verstanden was genau du damit meintest
 
Nvidia schiebt dem ganzen ja mit der 9er Generation einen guten Riegel vor.
Während ich mit einer 8800GTX in COH immer locker über 900MB Vram-Usage gekommen bin, sind es bei gleichen Settings und der 9800GX2 nur noch 610. Da macht dann der Treiber dicht... (muss trotzdem Details zurückstellen damit es nicht ständig einbricht).

Geschickt, Geschickt.
 
Nvidia schiebt dem ganzen ja mit der 9er Generation einen guten Riegel vor.
Während ich mit einer 8800GTX in COH immer locker über 900MB Vram-Usage gekommen bin, sind es bei gleichen Settings und der 9800GX2 nur noch 610. Da macht dann der Treiber dicht... (muss trotzdem Details zurückstellen damit es nicht ständig einbricht).

Geschickt, Geschickt.
kommt der überschuss in die ram?
 
Wer weiß, ich würde sagen "ja" aber nicht in den AGP-Gart (da waren sie ja bei der 88er mit drinne, das ist ja das was der Rivatuner anzeigt). Jedenfalls kann ich beim Springen über die Karte warten während das Bild steht und die Daten geswappt werden oder Details runterstellen.
 
es geht um den datendurchfluss......und der erhöht sich nun mal mit mehr speichertakt....d.h. man merkt kaum einen unterschied zwischen 256bit und 512(siehe 2900pro 256bit und 2900pro 512 bit....max 5% unterschied)......tatsache ist das sich 256bit billiger produzieren lässt und der endverbraucher somit auch nicht so tief in die tasche greifen muss, da nehm ich die paar prozente verlust gerne in kauf, oder nich?

8900gtx

nie was davon gehört^^......

crysis ist ein sch**ss spiel.....bestimmt extra so programiert, das die leute gezwungen sind neue hardware zu kaufen um es ordentlich zokken zu können

ach ja zum NV speicher bug kann ich nur sagen: es ist kein bildzeitungs hit, sondern tatsache....schon mal benches von der 8800gt 256mb gesehen, wie die plötzlich einbricht? oder die 8800gts 320mb genau das selbe.....solange der ram leer bleibt ist gut, aber wenns mal an richtig voll wird ist sense

@ topic: meiner meinung sind die karten die referenz design haben die besten.....wenn ATI/NV der karte 512mb geben, dann werden die sich schon was dabei gedacht haben oder?

das ati ihren ringbus ineffizient zur shader/tmu-leistung ungesetzt haben bedeutet lange noch nix und wer sich damals die 320mb version geholt hatte (das ist übrigends die abgeschlossene handlungs form; also das perfect past) war selber schuld...ansonsten lesen bildet ;)

Ihr seid mal wieder total abgeschweift. Bis jetzt hab ich hier ziemlich viel Gelaber gesehen, aber ein Beweis dass 512MB nicht reichen wie der Titel lautet noch nicht...

sag da nur crysis und 8800 und 8900 gtx variante und mal unter r_texturestreaming geschaut...stimmt, steht beidesmal 2 da ;)

Wer weiß, ich würde sagen "ja" aber nicht in den AGP-Gart (da waren sie ja bei der 88er mit drinne, das ist ja das was der Rivatuner anzeigt). Jedenfalls kann ich beim Springen über die Karte warten während das Bild steht und die Daten geswappt werden oder Details runterstellen.

:confused: nix versteh..dirt? :lol:
 
Zuletzt bearbeitet:
gart sagt mir schon was und das dma directmammoryacces beutedeut auch,,,nur dem inhalt geht so manchens potenzial verloren; was soll's, ist's eben hin!
 
Gestreut wurden die Gerüchte immer wieder dadurch, dass der G80 GTX/Ultra (384 Bit, 768 MiB) unter anspruchsvollen Settings eine bessere Figur machte als der G92. Jedoch scheint an dieser Stelle eher der 512 MiB große Texturspeicher zum Flaschenhals zu avancieren, wie die Kollegen von "ComputerBase" jüngst in einem ausführlichen Test feststellten. Dabei bestätigte sich auch, dass die AMD-Karten deutlich effizienter mit ihrem Speichervolumen umgehen.

http://www.hardware-infos.com/tests.php?test=40&seite=9
 
Benchmarks einer Diamond 3870 mit 1 GB RAM

Neuauflage eines Fakes von Nordichardware. Die Diamond 1 GB hat nur GDDR3 (Nordic dichtete ihr vor ein paar Wochen ein 512 Bit SI an), und kommt damit gerade mal auf die Leistung einer HD3850. Die Benches sind wie so oft frei erfunden.

Bei 256 Bit SI ist der Speichertakt das A & O, weswegen RV670 eins zu eins auf den Speichertakt skaliert. Keine Chance auf Wunderkarten mit GDDR3.

das ati ihren ringbus ineffizient zur shader/tmu-leistung ungesetzt haben

Das ist ja nun Unsinn. Die Shader des RV670 berechnen AA und AF in Echtzeit, wohingegen der G80 seiner weit schlechteren Shaderleistung wegen über Skalierungstabellen arbeitet, was den Speicher monströs belastet. Für Echtzeit-AF ist aber ein extrem effizienter Bus nötig. Leistung und Bildqualität zeigen das ja nun auch deutlich. Nvidia-AF wird nur für jeden dritten Frame berechnet, damit die Karten im Prerendering schnelle Zwischenframes erstellen können, weswegen sie ja auch gleicher Framerate subjektiv stärker ruckeln. Ohne diese Tricks käme eine Ultra nur mit Mühe hinter einer 3850 hinterher. Die meisten Hardware-Tester sind bloß blutige Laien, die zu wenig von der Technik verstehen, um adäquat zu testen. Denen genügt die Fraps-Anzeige, und dann schreiben sie drauflos, obwohl sie seit Jahren immer wieder darauf hingewiesen werden, daß Frametimes, und nicht Frames pro Sekunde zählen.

Faustformel:
"Ich komme mit 20-30 Frames gut aus, brauche nie mehr als 30-40" = ATI-Besitzer
"20-30 Frames ruckeln, ich sehe noch Unterschiede zwischen 60 und 90 Frames" = Nvidia-Besitzer

Mit Min-FPS kann man das Framestottern nicht sichtbar machen. Es bräuchte echt mal einen Sticky zum Thema: Wie testet man Grafikkarten, und wie beurteilt man Testergebnisse.

Und nun genug der "schmierigen Polemik" eines narzisstischen Proleten wie mir.
 
Zuletzt bearbeitet:
also die faustformel ist meiner meinung nach korrekt :) überlege mir die vilt in die sig zu stellen^^
 
Faustformeln hätt ich noch 'n paar...

Kommt 'ne Ultra bei CB auf 12k Punkte, limitiert ganz klar die CPU.
Kommt 'ne ATI auf 10K, limitiert die GPU, kommt sie auf 13k ist der 3dmark wg. fehlender game-engine unrealistisch.

Macht 'ne ATI 50 fps, ist das unspielbar, kommt 'ne Nvidia auf 30, ist es ne schlechte Konsolenportierung, oder liegt an der CPU.

naja... ich hab auch eine ganz persönliche: Wer ohne VSync spielt, schätzt seine fps aus dem Bauch (Nvidia-Bonusfaktor = 3fach) und hat noch nie im Leben gesehen, wie jenseits von 30 fps das Bild durch Tearing zerreißt. Auf 'ner x1800gto hatte ich das nie.

'ne mathematische Näherung für's Topic noch: Bandbreite großer Karten um 80GB/s, Bandbreite PCIe um 4GB/s, also 1/16 Sekunden, 256 MB zu übertragen, 1/8 Sekunden für 512 MB theoretisch bei PC6400, das doppelte bei PC3200 auf dem MB.

Kurzer, einmaliger Einbruch auf 2-4fps bei Pentium D oder ganz alten Athlon, auf 4-8 fps auf neueren, um volle 512 MB nachzuliefern, auf 4-8 respektive 8-16 fps, um 256 Mb nachzuladen.

Also nach meinen Beobachtungen dauert das sehr viel länger, wenn es durch volle Speicher passiert. Texturdekompression und dgl. über Treiber/DirectX dürfte der Flaschenhals sein.

Allerdings nur bei vollem Speicher. Oblivion zieht beim Ritt durch die Landschaft regelmäßig in ca. 0,1-0,2 Sekunden Daten nach, Two Worlds etwas schneller. Komplette Szenenwechsel dauern länger.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh