Wieviel VRAM für Multimonitor-Betrieb (ohne Gaming)?

Nemylus

Neuling
Thread Starter
Mitglied seit
02.07.2008
Beiträge
30
Hallo zusammen,

Wie wichtig ist ein hoher Grafikspeicher außerhalb von Games und Renderingaufgaben? Ich benötige eine neue Grafikkarte für mein Multimonitor-Setup und schwanke zwischen der 1050 (2GB) und der 1050 Ti (4GB). Einsatzbereich: Office, viele Browserfenster, Tradingcharts, Orderbücher, Youtube/Netflix auf einem Monitor nebenbei. Mein RAM ist meist gut ausgelastet, ich weiß aber leider nicht ob das an der iGPU liegt.
In den meisten Tests wird von 2GB VRAM abgeraten, gerade wenn höhere Auflösungen betrieben werden und die Karte länger Spaß machen soll. Allerdings beziehen sich solche Aussagen sehr stark auf Gaming-PC's.

Sofern relevant, Monitore bzw Auflösungen werden wie folgt sein:
1x 34" 3440x1440 60Hz
3x 25"/27" 2560x1440 60Hz
1x TV (wird an der iGPU angeschlossen)

Was würdet ihr mir raten? Gerne auch alternative Vorschläge, allerdings benötige ich sofern möglich 3x HDMI 2.0 (+1x DVI), um DP meiden zu können.

Vielen Dank
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die GT1030 reicht vollkommen. Alternativ auch die GTX 1050 wenn ab und an gezockt werden soll.
Ich habe für Notfälle noch eine GTX650 1GB für mein Multimonitor Setup. 3 x 1920x1080. Läuft ohne Probleme. Ich konnte sogar World of Warships bei 5760x1080 spielen. Allerdings auf Min-Einstellungen. Aber es lief.
Ohne Games dürfte sogar 512MB reichen.
 
Zuletzt bearbeitet:
Da es die GT 1030 leider nur mit maximal 2 digitalen Ausgängen gibt, kann ich sie für mein Multimonitor-Setup nicht verwenden. Dann ist die GTX1050 mit 2GB also perfekt für mein Einsatzgebiet, vielen Dank!
 
für das, was du da anschließen willst (TV hab ich jetzt einfach mal 4K angesetzt), würdest du rein vom Framebuffer her bei 32bit Farbtiefe, kämst du sogar mit 35,2 MB Vram hin :)

die Gigabyte GTX 1050 2GB OC Windforce sollte für dich gut passen, wenn du nicht mit Adaptern arbeiten willst. Kann leider nur 3 Monitore bedienen: GeForce GTX 1050 OC 2G(rev1.0/rev1.1) | Grafikkarten - GIGABYTE


Allerdings hattest du ja schon die Option in Betracht gezogen, einen Monitor von der IGP bespielen zu lassen
 
für das, was du da anschließen willst (TV hab ich jetzt einfach mal 4K angesetzt), würdest du rein vom Framebuffer her bei 32bit Farbtiefe, kämst du sogar mit 35,2 MB Vram hin :)

die Gigabyte GTX 1050 2GB OC Windforce sollte für dich gut passen, wenn du nicht mit Adaptern arbeiten willst. Kann leider nur 3 Monitore bedienen: GeForce GTX 1050 OC 2G(rev1.0/rev1.1) | Grafikkarten - GIGABYTE


Allerdings hattest du ja schon die Option in Betracht gezogen, einen Monitor von der IGP bespielen zu lassen

TV ist HD ready, ich traue mich fast nicht, das laut auszusprechen in der heutigen Zeit. Das wird sicherlich nicht ewig so bleiben, ich nutze den TV aber einfach kaum. Upgradefähig sollte das System jedenfalls sein, beispielsweise auf einen 4K TV.

Ich hatte zwar auch eine GTX 1050 2GB von Gigabyte im Auge, allerdings die mit 5 digitalen Ausgängen (Gigabyte GeForce GTX 1050 Windforce OC 2G). Diese sollte bis zu 4 Monitore gleichzeitig ansteuern können, sofern ich richtig informiert bin? Ansonsten kann ich, abgesehen von minimalen Unterschieden der Taktraten, keinen unterschied erkennen.

Damit können dann bis zu 4 Hauptmonitore an der Grafikkarte angeschlossen werden, während der TV an der iGPU hängt. So hätte ich mir das zumindest vorgestellt.
 
Wie gesagt, die 1050 kann nur maximal 3 monitore. Hab kürzlich erst nochmal mit Nvidia Kontakt gehabt um das abzuklären, da offiziell nur 'multi monitor: yes' die nicht sehr hilfreiche Angabe ist. Alternativ ginge auch eine kleine AMD, die können mehr, da müsstest du aber mit Adapter arbeiten.

Gesendet von meinem LG-D855 mit Tapatalk
 
Was würdet ihr mir raten? Gerne auch alternative Vorschläge, allerdings benötige ich sofern möglich 3x HDMI 2.0 (+1x DVI), um DP meiden zu können.
Kann das durchaus Nachvollziehen auf DP zu verzichten, kaum Monitor oder TV vorhanden die einen Eingang haben.
Dabei wären mit einem DP Ausgang bis zu 5 Monitore Möglich, leider lassen die Hubs auf sich warten.
Ein Leitung an das Display Array von der GPU und von dort kurze miniDP Leitungen zu der Wall/Wand. :cool:

Nein, lieber 5 Leitungen HDMI und DVI ?
 
Wie gesagt, die 1050 kann nur maximal 3 monitore. Hab kürzlich erst nochmal mit Nvidia Kontakt gehabt um das abzuklären, da offiziell nur 'multi monitor: yes' die nicht sehr hilfreiche Angabe ist. Alternativ ginge auch eine kleine AMD, die können mehr, da müsstest du aber mit Adapter arbeiten.

Gesendet von meinem LG-D855 mit Tapatalk
Das habe ich dann scheinbar falsch verstanden. Ich dachte du beziehst dich auf das konkrete Modell, da es nur 3 Ausgänge hat. Die Info ist mir völlig neu, mein letzter Wissensstand war der, dass neue nVidia Karten 4 Monitore ansteuern können, AMD bis zu 6(?). Ab welcher Karte werden 4 Monitore unterstützt? Leider findet man dazu kaum Informationen.

Kann das durchaus Nachvollziehen auf DP zu verzichten, kaum Monitor oder TV vorhanden die einen Eingang haben.
Dabei wären mit einem DP Ausgang bis zu 5 Monitore Möglich, leider lassen die Hubs auf sich warten.
Ein Leitung an das Display Array von der GPU und von dort kurze miniDP Leitungen zu der Wall/Wand. :cool:

Nein, lieber 5 Leitungen HDMI und DVI ?
Meine Monitore haben großteils DP-Eingänge und teilweise auch Ausgänge, das wäre nicht das Problem. Mein Dell U2715H hat einen DP-Ausgang, allerdings DP 1.2, was maximal 2 Monitore pro Grafikkarten-Ausgang ermöglicht (korrigiert mich, wenn ich falsch liege).

Warum ich DP meiden möchte, wird im Multimonitoring-Thread sowie in vielen anderen Foren schon jahrelang beschrieben: Wenn ein Monitor, der über DP verbunden ist, ausgeschaltet wird (oder in den Standby-Modus geht), wird er vom System als getrennt erkannt. Dadurch verschieben sich sämtliche Fenster, die sich auf dem Monitor befinden, auf einen anderen Monitor. Teilweise wird dabei auch die Fenstergröße von Windows verändert. Das Resultat wird insbesondere bei Multimonitor-Setups sichtbar, wenn jeden Tag mehrmals alle Fenster neu angeordnet und skaliert werden müssen. Auf Dauer ist das sehr störend..

Sollte das Problem gefixt werden, oder sollte jemand eine Lösung dafür kennen, wäre DP ganz klar meine erste Wahl. Ich selbst habe aber nach unzähligen Stunden auf Google irgendwann aufgegeben und beschlossen, HDMI 2.0b bzw DVI Dual-Link zu nutzen, solange das Problem besteht.
 
Meine Monitore haben großteils DP-Eingänge und teilweise auch Ausgänge, das wäre nicht das Problem. Mein Dell U2715H hat einen DP-Ausgang, allerdings DP 1.2, was maximal 2 Monitore pro Grafikkarten-Ausgang ermöglicht (korrigiert mich, wenn ich falsch liege).

Warum ich DP meiden möchte, wird im Multimonitoring-Thread sowie in vielen anderen Foren schon jahrelang beschrieben: Wenn ein Monitor, der über DP verbunden ist, ausgeschaltet wird (oder in den Standby-Modus geht), wird er vom System als getrennt erkannt. Dadurch verschieben sich sämtliche Fenster, die sich auf dem Monitor befinden, auf einen anderen Monitor. Teilweise wird dabei auch die Fenstergröße von Windows verändert. Das Resultat wird insbesondere bei Multimonitor-Setups sichtbar, wenn jeden Tag mehrmals alle Fenster neu angeordnet und skaliert werden müssen. Auf Dauer ist das sehr störend..

Sollte das Problem gefixt werden, oder sollte jemand eine Lösung dafür kennen, wäre DP ganz klar meine erste Wahl. Ich selbst habe aber nach unzähligen Stunden auf Google irgendwann aufgegeben und beschlossen, HDMI 2.0b bzw DVI Dual-Link zu nutzen, solange das Problem besteht.
Oha, danke für die Info!
Das ist natürlich ärgerlich, wenn das Multi Monitor Setup durch gewürfelt wird!
Bei HDMI auf Version 2.0 achten oder HDCP 2.2 für 4K@60Hz ;)
 
Oha, danke für die Info!
Das ist natürlich ärgerlich, wenn das Multi Monitor Setup durch gewürfelt wird!
Bei HDMI auf Version 2.0 achten oder HDCP 2.2 für 4K@60Hz ;)

Sehr gerne, freut mich, wenn ich auch ab und an was beitragen kann!

Woran erkenne ich ob ein Gerät über HDCP 2.2 verfügt? Auf den Herstellerhomepages konnte ich nichts dazu finden.

Eine kurze Google-Suche ergab, dass alle aktiven Monitore eines Setups über HDCP 2.2 verfügen müssen, damit 4k an einem der Monitore funktioniert. Mein Setup besteht aktuell aus einem LG 34UM88-P (34", 21:9, 3.440x1.440, 60Hz) und dem Dell U2715H (27", 2.560x1.440, 60 Hz). Können die HDCP 2.2?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh