Der "512 MB reichen doch immer.. "-Gegenbeweisthread

Die 1950 XT ist vom Chip her viel schneller, das hat mit dem Speicher gar nichts zu tun. Der Chip ist entscheidend sonst nix...

nö, ne 8800gt bricht in geeigneten settings mal locker auf 50% der 1950 ein, mit gleicher vram bestückung von 256mb wohlgemerkt
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1920x1080, 4xAA, High/VeryHigh Tweaks, Shadow und PP Medium

Das ist doch mal ein erfreuliches Stück Wahrheit zur Crysis-Performance bei hohen Auflösungen. IMHO ist Nvidia bei der PCGH-Vorführung gescheitert, als sie mit drei Ultras aufgeschlagen sind, um Crysis in dieser Auflösung vorzuführen. Um die 17 Frames pro Karte, und man hat dem Bericht zufolge dann doch lieber auf 1280 mal 1024 heruntergeschaltet, um Crysis auch mal flüssig zeigen zu können (nachtrag, ich zitier hier nur die PCGH).

RAM-Bedarf kann übrigens auch dann sehr hoch sein, wenn das GraKa-RAM als FIFO-Buffer genutzt wird. Dann ist eine Karte immer dicht, ganz egal, wie viel RAM wirklich benötigt wird. Das bringt in der Praxis dann schnellere Szenenwechsel, wärend kleinere Karten eine kurze Denkpause zeigen.

Kann man beim Vergleich zwischen 256Mb und 512MB mit Oblivion nachweisen. Beide karten sind voll, die Große macht beim Wechseln aus dem Stadt-Worldspace in einen Laden eine kurze Denkpause, beim Wechsel zurück in den Stadt-Worldspace aber nicht. Die Kleine macht diese Denkpause auch beim Verlassen des Ladens.

Wer nach veränderten Framerates sucht (wie THG), hat irgendwie nicht so ganz verstanden, was RAM ist.
 
Zuletzt bearbeitet:
IMHO ist Nvidia bei der PCGH-Vorführung gescheitert, als sie mit drei Ultras aufgeschlagen sind, um Crysis in dieser Auflösung vorzuführen. Um die 17 Frames pro Karte, und man hat dem Bericht zufolge dann doch lieber auf 1280 mal 1024 heruntergeschaltet, um Crysis auch mal flüssig zeigen zu können (nachtrag, ich zitier hier nur die PCGH).

Das mag ja bei der Vorführung so gewesen sein, mittlerweile läuft Crysis aber mit Triple SLI (G80) relativ gut.
Hab schon mehrere Benchmarks gesehen, auch von einem deLuxx User mit Triple GTX OC, der lag bei 1680x1050 mit 16QxAA/16xAF alles auf Very High bei 39,6 FPS im FlyBy des ersten Levels und das ist schon ein paar Monate her und sollte eventuell noch etwas besser laufen mittlerweile.
Für solche Configs braucht man auch etwas Zeit, was die Treiber angeht, das ist ja bei CrossfireX nicht anders, eher schlechter.
Mittlerweile läuft Crysis auf einem Triple GTX/Ultra relativ gut, insbesondere mit AA Einstellungen um die 16Q skaliert es auch exzellent.

Kann dir den Bench, von dem deLuxx User gerne raussuchen, den hat er damals als Reaktion auf einen CF User gemacht, der behauptet hat sein 3870CF macht jedes SLI platt.
Darauf hin haben die beiden gebencht und der CF User wurde kleinlaut.;)
 
Zuletzt bearbeitet:
ja im ersten Level bei Crysis, das rennt auch flüssig mit 2x 3870 mit 4xAA 16xAF ohne Probleme, aber andere Levels :shot:
Da rennt auch das SLi ohne Probleme und gut, im EIS Level und Village >> good night.
 
Zuletzt bearbeitet:
Will mal nicht zu sehr off topic abschweifen, aber man muß einfach immer wieder darauf hinweisen, daß Benches mit Qualitätseinstellungen reine Augenwischerei sind, solange man nicht vorher ermittelt, wie man die Karten einstellen muß, um eine identische Glättung zu bekommen.

Dazu muß man Frame für Frame aufzeichnen, und ein Analyseprogramm laufen lassen, weil es mit bloßem Auge mit Screenshots kaum möglich ist, den unterschiedlichen Optimierungen auf die Schliche zu kommen.

Wenn man sich mal vor Augen hält, daß CB z. B. erst jetzt eingeräumt hat, nicht mal gemerkt zu haben, daß deren GT-Tests mit DX10-Spielen Placebo-AA gegen echtes AA gebencht haben...

Abgesehen davon können mich 40 fps in der Auflöung bei drei GTXen aber nicht wirklich beeindrucken. Das ist abzüglich des typischen SLI-Overheads pro Karte kaum mehr als die Größenordnung einer übertakteten 3870.

Nicht, daß die Karten schlecht wären, aber das steht einfach in keiner Relation zu dem Gerausche in Hardwareforen. Aber das überrascht ja auch keinen, der die Spieleforen beobachtet, wo dieselben Leute ganz arglos posten, was ihre Karten alles nicht können, die sonst im Hardwarethread ganz andere Töne spucken. Alles menschlich, man muß halt immer Abstriche machen. Sobald ich's denn endlich mal geliefert bekomme, werd ich mal benchen, wie es bei mir läuft, weil die Demo zu benchen, bringt ja nix, und bei der langweilt sich meine Karte etwas.

Ich find aber halt interessant, daß die gepostete Aufzeichnung bei der Auflösung noch gut spielbares Crysis auf einer Einzelkarte zeigt. Spielbar, soweit die Frametimes gleichmäßig sind. Die Legende sagt ja bekanntlich, das ginge mit Einzelkarten gar nicht. Ich mein, das ist doch für Kaufinteressierte eine echt interessante Info.
 
Zuletzt bearbeitet:
Hmm naja ging ja eigentlich um die Vramauslastung dabei, ich hab CRYSIS genommen weil das von meinen Games am meisten Vram verbraucht, ein COH OF oder DIRT könnte man auch nehmen.
Und FullHD mit 4xAA ist schon eine überdurchschnittliche belastung für den Vram, spielbar ist aber kaum (für mich).

Naja BTT
mich würden mal richtige Tests mit Vram verbrauch und FPS messungen (min. ,avg. ,max.) beim richtigen gamen über langere Zeit (keine Timedemos, Flyby, Savegames) interesieren mit dem G92 512mb vs. 1024mb :)
 
Kudd3l du meinst aber eine 8800GTX nech?

Klar doch, sicher nicht eine 9800GTX:lol:

Wollte damit auch nur sagen, das so Sprüche, wie Nvidia Leute mussten bei Crysis Triple SLI Vorführung die Auflösung auf 1280x1024 runternehmen, nichts aussagen.
Das war zur Erstvorführung von 3xGTX/Ultra vielleicht so.
Natürlich ist das keine perfekte Lösung, aber derzeit immer noch besser, als 2x9800GX2 oder 2x3870X2.
Am Vram liegt es bei den Triple GTX/Ultra nicht und man muss Crysis ja auch nicht mit 16QxAA zocken.
Hier im Thread geht es ja um Vram und was das angeht, sind die Triple GTX/Ultra Monsterlösungen immer noch ganz vorne, eventuell auch durch die Kombi Vram+SI.
Ich finde das sogar relativ beeindruckend, das die bei 16QxAA noch knappe 40FPS liefern, 2x9800GX2 liegen bei dem AA bei 0-5FPS und 2x3870X2 oder TripleCF schlagen sich zwar deutlich besser als G92, sind aber auch scheintot bei vergleichbaren Settings.
Jedenfalls gibt es derzeit nichts leistungsfähigeres bei "Krise", zumindest mit gepflegtem AA, als ein Triple GTX/Ultra.
Vermutlich wird es auch mit Triple SLI manchmal eng @very high und sehr hohen Auflösungen+ordentlich AA, aber das gilt auch für alle anderen Grafikkombinationen.
Wenn die abkacken, sind alle anderen Grafiklösungen am Markt schon längst an Herzversagen verstorben.

Und die knapp 40FPS waren mit 16QxAA@very High 1680x1050, also kannste sicher nicht sagen, das packt in der Relation auch eine Single 3870, das schaffste auch nicht mit 3x3870CF.
Natürlich sagt das nicht viel aus, aber man sollte eine 3870 oder auch zwei, oder auch 3 im CF, nicht mit einem Triple 8800GTX gleichsetzen, den Fehler hat damals schon Vivancis gemacht, als er meinte sein 3870CF macht jedes SLI platt.
 
Zuletzt bearbeitet:
Versteht mich nicht falsch. Ich leg mich da gar nicht fest.

Ich mein nur, es ist problematisch, AA und AF in Tests einzubeziehen, weil die Beschriftungen der Regler vergleichbare Einstellungen suggerieren, deren Übereinstimmung nicht gesichert ist.

Jetzt mal ganz unabhängig davon, was man persönlich favorisiert. Wir müssen uns doch alle durch einen Wust von Legenden und Ansichten wühlen, von denen die meisten offenbar kein Fünkchen Wahrheit enthalten, und Testberichte machen es nicht besser, sondern schlimmer, weil sie allzuoft Mumpitz verbreiten.

RAM-Auslastung ist da ein schönes Thema. Ich habe mehrere Spiele abwechselnd mit voll aufgedrehten Treiber-Optionen und weitestmöglicher Abschaltung aller Optionen angespielt, und dabei auf dem Zweitmonitor mit Rivatuner nach Unterschieden ausgespäht.

Man kann dabei in Echtzeit sehen, wie sich die Speicherauslastung verändert, wenn man im Spiel rumläuft, und sieht, wann das Maximum erreicht wird.

Ergebnis: keine Unterschiede bei verschiedenen Monitorauflösungen, keine Unterscheide bei verschiedenen AA und AF Modi. Null. Absolut kein Speicherbedarf für AA oder AF feststellbar. Auch nicht für höhere Auflösungen. Das hat mich von der technischen Seite her übrigens nicht überrascht.

Woher kommt die überall anzutreffende Annahme, daß man für höhere Auflösungen oder Qualitätseinstellungen mehr Speicher bräuchte?

THG hat m. W. mal soche Thesen aufgestellt, als man versuchte, verschiedene Speichergrößen im Vergleich zu benchen, was sinnfrei ist, denn es gibt ja nicht den geringsten Grund für die Annahme, daß größerer Speicher schneller sein könnte. Wenn der Speicher nicht reicht, kann es Unterbrechungen im Fluss geben, wann immer große Veränderungen im Spiel stattfinden. Unterbrechungen sind aber doch etwas völlig anderes als eine andere Framerate. Die bleibt immer gleich, wenn die Daten erst mal im Speicher sind. Genügt der Speicher dafür nicht, geht so gut wie gar nichts mehr.

Zurück zum AA und AF. Meine niedrigstmögliche Einstellung ist 2xAA, 2XAF. Darunter geht gar nichts. Das sollte genügen, ab 1280*1024 nahezu alle Treppen einigermaßen zu unterbinden. Spätestens ab 4xAA sind selbst unter denkwürdigsten Umständen keine mehr zu erkennen. Spätestens ab 4xAF sind nahezu alle Texturen im Blickfeld hochgradig scharfgezeichnet, bei 8xAF sind sie immer und überall perfekt.

Die Karte tut also von Haus aus etwas, und bei leicht angehobener Einstellung tut sie viel. Man müßte also erstmal ermitteln, bei welcher Einstellung eine andere Karte das gleiche tut. Dann erst kann man benchen, vorher nicht. Man kann zwei Läufern nicht Säcke unbekannten Gewichts aufladen, bevor man ein Wettrennen veranstaltet.

Obendrein muß man die Karten mit herstellerseitig freigegebenen Taktraten benchen. ATI-Karten messen sich nun mal individuell ein, und kommen mit ca. 10% Untertaktung ins Haus. Was nützen Benches, die den Einmessvorgang auslassen, um untertaktet gegen andere Karten anzutreten?

Jede ATI ist von Haus aus 10% schneller als in allen bekannten Tests angegeben. Zieht man beide Faktoren in Betracht, kommt man zu dem etwas unangenehmen Ergebnis, daß es an sinnvollen Standards ebenso fehlt, wie an einigermaßen gesicherten Kenntnissen über die Grundfunktionen der Karten.

Damit quälen wir uns dann, jeder für sich, und mit oft schlecht übertragbaren Ergebnissen herum. Ich weiß nicht, wie meine Karte Crysis bei maximalem AA und AF schultert, weil ich gar nicht auf die Idee käme, sie so einzustellen. Es läuft mit 4xAA butterweich, und ich kann weder Treppen, noch schwammige Texturen entdecken. Ich hab so schon das Gefühl, jedes Sandkorn per Handschlag begrüssen zu können.

Ich will es nicht behaupten, aber es liegt nahe, anzunehmen, daß andere Karten (will jetzt mal keine beim Namen nennen) mindestens 16xAA und 16AF brauchen, um die gleiche Qualität zu erreichen. Dann wäre aber nicht mehr beeindruckend, wenn sie damit so schnell laufen wie meine. Ich weiß es nicht. Jetzt warte ich erstmal auf die Lieferung meiner Vollversion, und dann werde ich es testen. Manche sagen, die liefe flüssiger als die Demo, nur eben im Eis nicht. Ohne Vergleichbarkeit...
 
Zuletzt bearbeitet:
gameswelt.de hat einen Artikel über 1024MB Speicher Grafikkarten(8800 GT):

Die Grafikspeicher-Lüge

http://www.gameswelt.de/articles/reviews/4784-Die_Grafikspeicher-Luege/index.html

hier schonmal das Fazit:
Zündet den Scheiterhaufen an, wir müssen ein paar Hexen in die Unterwelt schicken: Zumindest für Spiele zeigen sich zwischen der 512MB- und der 1.024MB-Variante der Nvidia GeForce 8800GT im Referenztakt kaum Unterschiede. Dies lässt sich auf den Punkt gebracht feststellen. Genauer gesagt lächelt die 8800GT mit 512 MB oft über ihren größeren Bruder und liegt bei vielen Spielen sogar weiter vorne. Lediglich bei 'Crysis', unserem liebsten Performance-Verschlinger aus Frankfurt, kann sich der 1.024MB-Bolide bei richtig hohen Auflösungen absetzen, wobei die Bildwiederholungsraten praktisch kein flüssiges Zocken zulassen. Als Spieler lohnt sich der höhere Aufpreis nicht.

Auf der anderen Seite fällt das 256MB-Modell der GeForce 8800GT etwas zurück, aber oft ist der Vorsprung der Karten mit mehr Speicher nur gering. Wer partout nicht mehr als 175 Euro ausgeben möchte, darf also ruhig auch zu einer 8800GT mit 256 MB greifen. Da die 512MB-Kandidaten meist nur wenige Euro mehr kosten, lohnt sich der geringe Aufpreis auf jeden Fall.

Zusammengefasst empfehlen wir euch grundsätzlich die 512MB-Variante. Eine 1.024MB-Grafikkarte mag vielleicht für gewisse Gruppen Vorteile haben, Spieler profitieren vom höheren Speicher im Moment aber ganz und gar nicht. Daher erhält sie nur ein befriedigendes Gesamturteil.
 
Traue nie Artikeln die Du nicht selbst geschrieben hast.
Die meisten Tester schaffen es ja nicht mal ein Setting zu bauen das wirklich mehr als 512MB Vram braucht. Wie sollen solche "Tests" also aussagekräftig sein?
 
Traue nie Artikeln die Du nicht selbst geschrieben hast.
Die meisten Tester schaffen es ja nicht mal ein Setting zu bauen das wirklich mehr als 512MB Vram braucht. Wie sollen solche "Tests" also aussagekräftig sein?

So schauts aus ;) da wird einmal über Island geflogen bei CRYSIS und das nennen die ein guten Test :haha:, deine Tests in deinem Thread sind deutlich besser, nur müßtes du mal öfter die Graka wechseln :bigok:
 
Aber in welchen Settings und Spiele kann man das denn (ausser Crysis)?In normalen Auflösungen natürlich.
 
Man bräuchte zweierlei:

Erstens einen funktionierenden Keylogger, mit dem man eine Sequenz aufzeichnen kann, um sie später auf verschiedener Hardware ablaufen zu lassen.

Zweitens ein Analyse-Tool, um Fraps-Frametime-Protokolle auszuwerten. Frameabstände in Punkte umrechen, und dabei vom Idealwert an abwärts logarythmisch steigend, aufwärts logarythmisch fallend bewerten. Damit lassen sich Ruckler um so wirksamer erfassen, je tiefer die Framerate geht, und Einflüsse überzähliger Frames, die nix bringen, minimieren. Ergebnis durch die Laufzeit geteilt entspräche ordentlich gemessen objektiv dem, was wir subjektiv wahrnehmen.

Speicherbelastung ist ja nicht problematisch. Das kann Rivatuner.
 
Zuletzt bearbeitet:
Bei Tests wie bei Gameswelt fehlt leider wie immer die Min.FPS.Was interessiert mich was die Karte Maximal an FPS hat wenn die Min.FPS bei einer 1024MB Karte Höher sind als bei einer 512MB Karte.

Genau wie bei CB oder PCGH immer nur Avarage oder Max. FPS, aber wo sind die Min. FPS die wirklich Interessant sind.
 
Hängt auch bei ATi vom Game ab. Oblivion z. B. ruckt mit 256MB alle Nase lang, mit 512Mb nicht. Das sehr ähnliche Two Worlds nutzt nur knapp 200MB, und ruckt daher vermutlich nur auf karten mit 128MB.

Ich check gleich mal DiRT.
 
Zuletzt bearbeitet:
Ich hätte zu der Aussage, dass ATI den Speicher angeblich effizienter nutzt gerne mal eine seriöse Quellenangabe. Gelesen hab' ich das hier öfters, aber ohne Beleg riecht das so nach Fanboy-Bias :hmm:

Keine Ahnung, obs schon beantwortet wurde, aber suche mal nach vergleichen 8800gt 256mb vs 3850 256mb bzw. vs die 512mb varianten. Da wirst du sehen, dass die 3850 weniger stark einbricht (Auch wenn beide in hoeheren Aufloesungen zu langsam sein werden), als die nvidia, was man ja auch bei vergleichen der gts320 und 640mb sehen kann:

512mb vs 1gb:
http://www.tomshardware.com/de/8800-GT-9600-GT-MSI-Grafikkarte,testberichte-239984.html

256mb vs 512mb (Nimm fuer die 256mb version die 320mb version von der 8800er).

http://www.tomshardware.com/de/HD3850-HD3870-Radeon-RV670,testberichte-239876.html
 
<-- kann euch sofort 3 Games sagen die in 640x480 bzw 800x600 locker über 500MB Texturen auf die Graka laden. Kommt echt nur drauf an wie man sie einstellt. Das an der Auflösung festzumachen halte ich für ...... fragwürdig. Auch wenn da vielleicht die Graka noch genügend Leistung hat um Texturswaps auszuführen ohne das man es groß in den avg. FPS merkt.
 
Zuletzt bearbeitet:
Normalerweise gibt es zwischen 512MB und 1024MB kaum ein Unterschied, nur wenn das nicht der VRam Bug der nVidia Karten wäre. Es geht einem voll aufn Keks, das Der immer voll ist. Ärgere mich selbst, das ich keine 1024er Karte gekauft hatte.
 
du solltest dich eher ärgern warum du eine verbuggte Karte kaufst.

Das mehr VRam nicht viel mehr bringt ist doch schon seit JAHREN bekannt.

ich erinnere nur mal zurück an die Geforce 4 Ti mit 64mb bzw. 128mb.

die 64er haben die 128er fast immer in die tasche gesteckt,weil sie bessere Timings hatten.
 
Mehr bringt vielleicht nicht mehr, aber es bringt deutlich mehr als wenn es zu wenig ist :-)
Ich hab z.b. gerade von einer 8800GTX mit 768MB auf eine 9800GX2 mit 512MB geweselt.

Ist in COH 2560x1600 deutlich zu merken, ich muss Details runterstellen im Gegensatz zu der 8800 da ich sonst bei jedem Sprung auf der Karte eine kleine Denkpause in kauf nehmen muss während die Texturenswaps ausgeführt werden, bzw ein Querflug über die ganze Karte ist absolut unmöglich.

Ach ja... von Buggy-Karte auf Buggy-Karte bringt natürlich keine Punkte wenn man Fairys Argumentation folgt.
 
Zuletzt bearbeitet:
Also müssen wir beide unsere Sprüche deutlich differenzierter aufsagen^^
 
Normalerweise gibt es zwischen 512MB und 1024MB kaum ein Unterschied, nur wenn das nicht der VRam Bug der nVidia Karten wäre. Es geht einem voll aufn Keks, das Der immer voll ist. Ärgere mich selbst, das ich keine 1024er Karte gekauft hatte.

Ich denke auch das dem G92 die 1024mb gut tun ;) auch wenn es auf den HW Seiten (Tests, Benchmarks) erstmal nicht so aussieht.

Deshalb sag ich das->
mich würden mal richtige Tests mit Vram verbrauch und FPS messungen (min. ,avg. ,max.) beim richtigen gamen über langere Zeit (keine Timedemos, Flyby, Savegames) interesieren mit dem G92 512mb vs. 1024mb

du solltest dich eher ärgern warum du eine verbuggte Karte kaufst.

Das mehr VRam nicht viel mehr bringt ist doch schon seit JAHREN bekannt.

ich erinnere nur mal zurück an die Geforce 4 Ti mit 64mb bzw. 128mb.

die 64er haben die 128er fast immer in die tasche gesteckt,weil sie bessere Timings hatten.

Du kannst doch keine alte Gen. mit der 88er Reihe vergleich, selbst beim G70/71 war das Speichermanagment besser als bei G80/92
 
schickt mir eine 8800GT mit 1GB speicher und ich sage euch ob sie besser ist als die mit 512mb
:xmas:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh