Wieviel Ram ist denn im Multi-Monitor-Betrieb sinnvoll? :hmm:

Earthling

Neuling
Thread Starter
Mitglied seit
11.08.2005
Beiträge
546
Ort
Cologne
Hallo Leute,

aktuelle Grafikkarten bieten ja die Möglichkeit bis zu 4 Monitore anzuschliessen. Wer weiß inwiefern mehr Ram auf der VGA da sinnvoll ist oder halt eben nicht? Geht mal von folgendem "Worst-Case" Szenario aus:

30" mit 2560x1600er Auflösung + 2 x 20" mit 1200x1600er Res. (gedreht, Pivot) links und rechts vom 30", und ich spiele nen Racing Game über alle 3 Schirme. Gleichzeitig gibt mein Windows 7 Media Center noch einen Film auf dem Full HD Flatscreen im Wohnzimmer wieder (1920x1080). Keine Ahnung inwiefern es da nen Unterschied machen würde ob HD oder SD Material, zb. bluray, DVD oder einfach nur TV per DVB.

Sollte man wenn man sowas ab und zu mal vorhat ne GTX 670/680 eher mit 4 GB holen oder ist das nur Augenwischerei?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hängt mehr von der Software als von der Auflösung ab.
Beispiel:
3GB in 1024 und 512MB in 3240x1920


Und ich glaube nicht dass Du gleichzeitig ein Racing-Game zockst und auf dem Flat im Wohnzimmer ein Filmchen dudeln lässt.
Das kostet nämlich Leistung beim Racing-Game, zwar nicht unglaublich viel, aber es könnte störend sein. Besonders dann wenn die Familie Dich bittet einen anderen Film zu starten, während Du in den letzten 5 Runden als 2. hinter dem Führenden Klebst.

Rennspiele (in meinen Augen) brauchen übrigens nicht soooo viel VRAM. Auch nicht in hohen Auflösungen. Dazu sind wohl zu wenig Textur-Details in den Games vorhanden. Beispiel (beliebig) NFS-TheRun in 3xFull-HD Maxed Out. 1GB VRAM.


Würdest Du konkreter sein mit Deinen Renngames, könnte man darauf noch genauer eingehen.
 
Zuletzt bearbeitet:
An Racern spiele ich eigentlich nur die sehr betagten simbim titel GTR2 und GT Legends, aber das war auch mehr als Beispiel gedacht HisN. Ich könnte auch EVE online mit 3 clients gleichzeitig laufen lassen. Will sagen: Die 3 screens bekomme ich zum gamen schon irgendwie genutzt ^^
 
Tja, und solange Du nicht konkret wirst, können wir Deine Frage ob 2 oder 4GB nicht beantworten. Es hängt nun mal von der Software/Settings ab.
 
Für solche auflsungen sollte man sowieso keine Nvidia kaufen die sind zu schwach dafür! Kauf dir eine HD7970 die hat 3GB und ist grade für hohe Auflösungen ausgelegt
 
Also für Multi Monitoring würd ich dir ja fast die 6 Gb Version von der 7970er empfehlen :dD

Da wirste dann denk ich KEINERLEI Probleme mehr mit VGA Speicher haben :P
 
Nur mit der GPU welche zu lahm ist um einen vorteil aus den 6GB zu erzielen...
 
@ HisN naja, es wird doch zumindest eine verallgemeinrung, tendenz oder zumindest empfehlung geben. Konkret ist bisher nunmal nicht mehr als das was ich dir geschrieben habe. Ich habe zur zeit nur den 30er und einen 20er, und würde mir halt eben ggf. noch nen 2ten 20" und dann halt eben ne Grafikkarte dazu holen. Aber primär weil ich dadurch mehr desktop zur verfügung habe und ich die 20er gebraucht recht günstig bekomme.

@Powerplay & Hardwareking

ich habe bei meinem vater 2 x ATI verbaut und bei meinem Bruder bisher 2x. Die Leistung war immer ok und das Preisleistungsverhältnis super. Aber ich hatte nur Probleme mit jeder einzelnen, Treiber- bzw. settingsseitig und/oder kompatibilät mit etlichen Features die mit Nvidia einfach liefen. Sorry, aber ATI tue ich mir nicht mehr an.
 
@Earthling
Nein leider nicht.
Meiner Meinung nach macht der Grundverbrauch an VRAM erst mal die Menge und die Auflösung der Texturen in einem Game aus.
Dann kommt auf diesen Grundverbrauch die Auflösung mit AA-Filtern oben drauf. Die Menge die die AA-Filter an VRAM brauchen skaliert nämlich direkt über die Auflösung.

Und da jedes Game eine andere Textur-Verwaltung, Textur-Menge, und Textur-Auflösung benutzt kann man keine wirklich Tendenz rauslesen. Siehe meine beiden Extrem-Beispiele.

Augenwischerei sind 4GB nicht, in dem Augenblick wo Dein Game mit 2GB nicht mehr auskommt. Populäres Beispiel z.b. BF3 (und wenn Du jetzt sagst: Das zock ich nicht, dann sind wir genau an dem Punkt, zu dem ich hinwill).

So siehts aus wenn man an einer Stelle ist wo 2GB ausreichen, und so sieht es aus, wenn Plötzlich ein paar Texturen mehr geladen werden müssen.




Ach so .. noch ein Hinweis: Zocken über 3 Bildschirme geht bei Nvidia natürlich nur wenn es exakt 3 gleiche Bildschirme sind. Ansonsten muss das Game ein Fenstermodus anbieten, der frei skaliert werden kann, ODER Du benutzt Dein Beispiel mit 3x MMO-Clients gleichzeitig. Einen großen gestreckten Bildschirm bekommste mit Nvidia nicht sobald verschiedene Monitore benutzt werden.
Der Desktop ist davon natürlich ausgenommen.
 
Zuletzt bearbeitet:
Ich würde ja sagen 3GB sind perfekt, aber dann muss man halt die AMD Karten benutzen und Crossfire verliert klar gegen SLI
 
Für solche auflsungen sollte man sowieso keine Nvidia kaufen die sind zu schwach dafür! Kauf dir eine HD7970 die hat 3GB und ist grade für hohe Auflösungen ausgelegt

Wenn er keine Aliasing Spielereien betreibt,oder mit Texturmods arbeitet,ist diese Aussage nicht haltbar für 2GB Karten

Schon gar nicht auf die Leistung bezogen

http://hothardware.com/Reviews/NVIDIA-GeForce-GTX-690-DualGK104-GPU-Review/?page=11

Es gibt neben Downsampling auch noch ne reale Welt,die keinen Nutzen aus nem aufgebohrten Vram zieht,bzw Optionen die einem Ingame viel eher ein intensives Mittendrin geben,wie dieses nachträgliche Texturgematsche
 
Zuletzt bearbeitet:
Es gibt neben Downsampling auch noch ne reale Welt,die keinen Nutzen aus nem aufgebohrten Vram zieht,bzw Optionen die einem Ingame viel eher ein intensives Mittendrin geben,wie dieses nachträgliche Texturgematsche

Wie kommst du auf Downsampling?
Nur mal gesetz dem Fall, es ist möglich 2x20" im Pivotmodus + 1x30" zusammen zu schalten, hast du ne Auflösung von 1200+2560+1200x1600. Das sind annähernd 8Mrd. Bildpunkte und fast viermal so viele wie FullHD als aktueller quasi Standard.
Nix Downsampling...

Um eine ähnliche Belastung via Downsampling zu erzeugen, wäre schon 2x2er DS auf FullHD Basis nötig. Nur packt das sogut wie keine Karte bei aktuellen Games.

Laut letztem CB Bench steigt der Leistungsvorsprung einer HD7970GHz Edition auf eine OCed GTX 680 zwischen 2560x1600 auf 5760x1600 von ~15% auf ~23%. So ganz falsch ist seine Aussage also nicht. Und da ist Null komma gar kein Downsampling im Spiel ;) Und es wird nix matsch, es gibt keine Mods. Und extra für dich. Es spricht niemand über den VRAM ;)

@HisN
lässt sich der Spaß im Surroundmodus ggf. irgendwie Softwareseitig erzwingen mit unterschiedlichen Monitoren?
Weil bei AMD scheint es keine derartige Beschränkung zu geben, oder?
Ggf. wäre SoftTH als Möglichkeit vorhanden, die zwei Pivot-TFTs und den 30er zusammen zu betreiben?
 
Mir würde auch nur Soft-TH einfallen. Damit müsste es gehen. Hat aber natürlich Performance-Nachteile gegenüber dem nativen Surround-Modus.
Und ich kann mich auch an Threads erinnern in denen das mit dem Pivot zum 30" mit AMD klappte, allerdings mit fehlendem Vsync auf den Seiten-Monitoren.
Die Frage ist nur .. war es Eyefinity, oder war es auch nur Soft-TH. Hab das damals ein bisschen verfolgt, weil ich die gleiche Idee hatte, diese dann aber aus z.b. vsync-Problemen verworfen.

Ansonsten kenne ich auch nur Threads wo Leute ihre Games im Fenster oder Borderless-Fenster-Modus zocken.
Wenn man GW2-Fan ist, sollte das keine Probleme bereiten, das lässt sich ziehen wie man lustig ist.
 
Wie kommst du auf Downsampling?
Nur mal gesetz dem Fall, es ist möglich 2x20" im Pivotmodus + 1x30" zusammen zu schalten, hast du ne Auflösung von 1200+2560+1200x1600. Das sind annähernd 8Mrd. Bildpunkte und fast viermal so viele wie FullHD als aktueller quasi Standard.
Nix Downsampling...

Die Karten brechen bei 6Milliarden nicht weg ebenso wenig wie bei 8Milliarden die "Probleme" fangen erst an wenn hier mit Filtern Texturmods oder Downsampling gezaubert wird also spar dir das verdrehen von Tatsachen
 
Zuletzt bearbeitet:
Die Karten brechen bei 6Milliarden nicht weg ebenso wenig wie bei 8Milliarden die "Probleme" fangen erst an wenn hier mit Filtern Texturmods oder Downsampling gezaubert wird also spar dir das verdrehen von Tatsachen

Dann scheint CB Fehler in ihrem aktuellen Test zu machen ;)
Aber nochmal die Frage, was willst du mit Downsampling? Ob du nun nativ über drei Schirme 8Mrd. Pixel ausgibst, oder diese auf einem Schirm via Downsampling erzeugst, ist sowas von total egal. Die Anzahl und nix anderes zählt an der Stelle. 8Mrd. Pixel sind 8Mrd. Pixel.
Blick doch einfach mal über den Tellerrand... Es gibt dort auch noch Sachen zu entdecken ;)

Ansonsten kenne ich auch nur Threads wo Leute ihre Games im Fenster oder Borderless-Fenster-Modus zocken.
Wenn man GW2-Fan ist, sollte das keine Probleme bereiten, das lässt sich ziehen wie man lustig ist.

Mhh OK, das wäre also ggf. für den TE nen Test wert. Je nachdem, wie hoch die Performancenachteile sind.

Wobei aber auch der Fenstermode gewisse Einschränkungen mitbringt. So lässt sich zum Beispiel wie mir aufgefallen ist, kein SGSSAA via Overwrite im Inspector erzwingen. Die Settings greifen schlicht nicht :fresse: Dürfte aber zumindest für eine GPU so oder so zu viel des guten sein.
 
Zuletzt bearbeitet:
Dann scheint CB Fehler in ihrem aktuellen Test zu machen ;)
Aber nochmal die Frage, was willst du mit Downsampling? Ob du nun nativ über drei Schirme 8Mrd. Pixel ausgibst, oder diese auf einem Schirm via Downsampling erzeugst, ist sowas von total egal. Die Anzahl und nix anderes zählt an der Stelle. 8Mrd. Pixel sind 8Mrd. Pixel.

Aber nicht wenn du dann noch Dowwnsamplen musst Texturmods oder Filter drüber ballerst das die Schwarte kracht.Das ist ein ganz anderes Szenario

Meinst du wir sind alle auf der Wurstsuppe daher geschwommen oder was?

Wir reden hier bereits von nem triple Monitor Setup,also sind Diskussionen unterhalb dieses Setups gar nicht von Belang!

Zum Tellerrand u so,wenn du jemanden begreiflich machen kannst,wozu man bei 8Milliarden Bildpunkten,noch essentielle Vramvernichter braucht,wie die oben aufgeführten,wird da vielleicht ein Schuh draus

Ich sagte es schonmal ich verwette meinen Hintern darauf,das 80% des Klientels den "brachialen" Qualitätsunterschied,zwischen Original und mit Filtern bzw Mods verhunzten Texturen,im bewegten Szenen ab einem gewissen Grad,gar nicht mehr für voll nehmen

Und Standbildfanatiker,die mit der Lupe die Bodentexturen durchpflügen,sind hier wohl die wenigsten
 
Zuletzt bearbeitet:
Aber nicht wenn du dann noch Dowwnsamplen musst Texturmods oder Filter drüber ballerst das die Schwarte kracht.

Ist dir deine Brille in der Sylvesternacht zerbrochen?
Lies doch bitte die Beiträge. ES SPRICHT WERDER JEMAND ÜBER DOWNSAMPLING, NOCH ÜBER TEXTURMODS, NOCH WAR DIE REDE VON IRGENDWELCHEN FILTERN!!!
 
ich hole mal popcorn :fresse:
 
Ist dir deine Brille in der Sylvesternacht zerbrochen?
Lies doch bitte die Beiträge. ES SPRICHT WERDER JEMAND ÜBER DOWNSAMPLING, NOCH ÜBER TEXTURMODS, NOCH WAR DIE REDE VON IRGENDWELCHEN FILTERN!!!

Dann verstehe ich nicht was dich an meiner ersten Aussage zum Thema stört?

Für solche auflsungen sollte man sowieso keine Nvidia kaufen die sind zu schwach dafür! Kauf dir eine HD7970 die hat 3GB und ist grade für hohe Auflösungen ausgelegt

Wenn er keine Aliasing Spielereien betreibt,oder mit Texturmods arbeitet,ist diese Aussage nicht haltbar für 2GB Karten

Schon gar nicht auf die Leistung bezogen

http://hothardware.com/Reviews/NVIDIA-GeForce-GTX-690-DualGK104-GPU-Review/?page=11

Oder was soll dein Geplänkel darauf bitte bedeuten?

Widerlegt hast du diese Aussage keinesfalls,nur wieder irgendwas in den Raum geworfen

Unter normalen Setups sind die Kepler Karten mit 2GB keinesfalls "zu langsam" für ein triple Monitor Setup dieser Größenordnung Punkt!
 
Zuletzt bearbeitet:


 
Zuletzt bearbeitet:
Und was sagt uns das Bild jetzt?


Avg 46 vs 49 dazu noch die Microruckler Thematik und die Radeon ist Out of Range zum Gamen

Ich sehe hier keinen Frameverlauf der einer der beiden Karten einen unterirdischen Min Frameverlauf attestiert,angesicht der average Framerate ist das auch nicht zu erwarten

PS:

Die anderen AA Spielerein kannst du gleich wieder einpacken
 
Zuletzt bearbeitet:
Unter normalen Setups sind die Kepler Karten mit 2GB keinesfalls "zu langsam" für ein triple Monitor Setup dieser Größenordnung Punkt!

Ich sagte, das Powerplay durchaus nicht ganz unrecht hat.
Diese Aussage basiert auf dem aktuellen Test von CB (aktuelle Treiber beiderseits) und bescheinigt einer HD7970GHz Edtion ~15% mehr Leistung als einer OCed GTX 680 im SingleScreen 30" Setup sowie schon 23% mehr Leistung bei einem TrippleScreen 30" Setup. Auch wenn letzteres vom TE nicht ganz ausgereizt wird. Eine Tendenz ist schlicht zu erkennen.

Es bestreitet niemand (ich zumindest nicht) das es nicht mit der NV Karte gehen würde. Sondern man fährt in diesen Relationen basierend auf dem Test von CB schlicht mit der HD7970GHz Edition eine Ecke besser.
Punkt! ;)

PS: ich meine diesen Test:
3x GTX 680 & 3x HD 7970 mit i7-3970X (Seite 5) - ComputerBase

Diesen ganzen Downsampling blablub Quatsch hast allein du ins Feld geführt... Niemand anderes.
 
Es bestreitet niemand (ich zumindest nicht) das es nicht mit der NV Karte gehen würde. Sondern man fährt in diesen Relationen basierend auf dem Test von CB schlicht mit der HD7970GHz Edition eine Ecke besser.
Punkt! ;)

Dann frag ich dich nochmals,warum du auf den Post anspringst wie ein Westmoped,obwohl er genau das aussagt!?

Entweder du findest dafür ne passende Erklärung oder lässt es bleiben

Ich bring dir nochmal die Kernaussage u jetzt wasch vielleicht du mal deine Brille bevor du das anderen unterstellst

Die Karten brechen bei 6Milliarden nicht weg ebenso wenig wie bei 8Milliarden die "Probleme" fangen erst an wenn hier mit Filtern Texturmods oder Downsampling gezaubert wird also spar dir das verdrehen von Tatsachen
 
Zuletzt bearbeitet:
Hallo,

lass dich von dieses aufgeplusterten möchtegern Hardwarepäpsten nicht den Brei verderben.
Ich kann dir soviel sagen, ich bespiele derzeit ein Multimonitor Setup aus 3x 27" mit 5760x1080. Dafür verwende ich 2 Zotac GTX 680. Die Ghz edition der Radeon 7970 war damals noch nicht raus sonst hätte ich erwogen diese zu kaufen. Nichtsdestotrotz bin ich mit meinem derzeitigen Setup auch sehr zufrieden. Bisher habe ich noch keine Probleme mit zuwenig Vram gehabt. Lediglich in Project Cars geht bei extremen Wettereinstellungen die Leistung in den Keller.

Black Ops 2 spiele ich in voller Auflösung mit 4x MSAA bei 120 FPS. WoW lief auch sehr sehr angenehm, es war sogar noch Leistung zum Downsamplen da.
BF3 geht mit den Karten auch ohne weiteres.

Ehrlich gesagt glaube ich, zwischen der 7970 und der Gtx 680 tut sich nicht viel, Mikroruckler kann man bei beiden mittlerweile ausschliessen (bei der 7970 per Tool).
Die 7970 bringt von Haus aus 1 Gigabyte Vram mehr mit, damit ist man auf der sicheren Seite. Insgesamt habe ich jedoch mit den Nvidia Karten immer die besseren Erfahrungen gemacht.
Hatte schon jede Menge Karten aus beiden Lagern.

Falls ich dir Konkret eine Frage beantworten soll, melde dich doch einfach per PN.

hopwest
 
Na ja zum Rating bei CB gibt es ja auch wohl nix mehr zu sagen bei der hohen Auflösung und 3 Karten.
NV hält da einfach nicht mehr mit.
 
Na ja zum Rating bei CB gibt es ja auch wohl nix mehr zu sagen bei der hohen Auflösung und 3 Karten.
NV hält da einfach nicht mehr mit.


Wenn scully das liest macht er wieder alarm :lol:

Das der Thread Ersteller allerdings keine AMD haben will und eher ne Nv karte bevorzugt sollte man beachten weil somit ist doch klar das man ihm nur noch beantworten soll ob 2 oder 4Gb und da würde ich klar 2Gb sagen weil eine karte eh nicht die leistung hat und die NV sowieso durch ihr bandbreitenlimit vorher dicht macht
 
Zuletzt bearbeitet:
Hallo,
.
Ich kann dir soviel sagen, ich bespiele derzeit ein Multimonitor Setup aus 3x 27" mit 5760x1080. Dafür verwende ich 2 Zotac GTX 680. Die Ghz edition.

hopwest

Ich habe z.Zt auch 3x27" Acer Displays im Simulatoreinsatz@3D Vision von daher weiß ich eben auch das es nicht so ist:)


Bin aber am Umbau auf Curved Screen mit 3 Projektoren,aber das ist ne andere Story

---------- Post added at 21:31 ---------- Previous post was at 21:28 ----------

Wenn scully das liest macht er wieder alarm :lol:

Ich mach nur Alarm wenn hier von "zu schwach" die Rede ist:)

Was nunmal ne Falschaussage ist u auch das CB Rating belegt das nicht
 
Zuletzt bearbeitet:
Ja ok zu schwach nicht aber grade bei Drei monitoren ist leistung gefragt und da hat die AMD halt die nase vorn ;)
 
Ich bin mit Scully jetzt einer Meinung über das Thema Ram wird man uns nicht mehr gemeinsam Diskutieren sehen habe keine böcke mich hier mit den netten Leuten da rüber zu Zoffen er hat seinen Standpunkt ich meinen zu dem Thema Ram.
MFG
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh