[Sammelthread] Lastaufnahme von Grafikkarten im Multimonitor Betrieb

Inzwischen ist es gängig mehrere Monitore an einem PC zu betreiben.

Meist geschieht dies um einfach mehr Platz am Desktop zu haben (Office, mehrere Programme oder Dokumente gleichzeitig,.....) auch für mehr Übersicht beim Zocken (Shooter und Rennsimulator sind da die Klassiker)

Leider schweigen sich aber alle Hersteller aus was deren Karten ziehen wenn mehr als ein Monitor betrieben wird und Review Seiten testen es auch kaum bis gar nicht

Dabei wäre es auch dort sehr interessant zu erfahren was Karten IDL und im Betrieb ziehen wenn zb drei Monitore angeschlossen sind

Oder das Szenario von Office Betrieb auf drei Monitoren oder Firefox, Iexplorer,..... (speziell für ab und zu Zocker interessant wenn man ev für ab und zu eine richtig starke Karte verbauen möchte)

Last but not least natürlich Vollast...sprich zocken :)

Frames bei 3 Monitoren wären natürlich die Kür!

Was sind da eure Erfahrungen?

Bzw was denkt Ihr wäre zb das ideale Stromspar Produkt für zb 2 oder 3 Monitore

Bzw ev sogar 4 weil auch noch ein TV oder Beamer dran hängt
 
Zuletzt bearbeitet:
Ich vote mal nicht, weil nur einfache Auswahl möglich.

Bei mir schauts aktuell so aus:
- Workstation: 1x TV (FullHD - Hauptschirm) + 1x 22" TFT (1680er Auflösung - Zweitschirm)
Zocken idR nur auf TV
- Notebook Zuhause: 1x Schirm intern + ggf. Bedarfsweise zweit TFT (19", 1280x1024) extendet.
- Notebook Arbeit: 1x FullHD Schrim intern + links und rechts je einen FullHD 23" Schrim im erweiterten Modus.

Zum Verbrauch kann ich leider nicht viel sagen. Speziell bei den Notebooks ist es mehr oder weniger wurscht. Denn diese sind für die erweiterten Monitore eh in der Docking untergebracht, somit am Strom. Der Verbrauch dürfte aber nicht wirklich ansteigen bei den Intel IGPs.
Die Workstation hat dank mehrerer GPUs kein Problem mit dem Verbrauch. Bei aktuellen NV GPUs ist es sowieso auch so, das zwei Monitore mit idle Taktraten betrieben werden können. Erst bei drei geht die Karten in einen höheren Modus. -> was mehr Strom kostet.
Leistungstechnisch gibts nix, was einen hindert. Rein aufs Zocken runtergebrochen skaliert die Leistung idR im üblichen Verhältnis zum Pixelzahlanstieg. Das lässt sich mehr oder weniger Pauschal im Schnitt vorhersagen. Leistungseinbußen im Officebetrieb gibts absolut keine.

Was ich noch erwähnen kann. Bei USB Grafikkarten scheiden sich die Geister... Ich hab sowas für den dritten Schirm auf Arbeit am Notebook. Als USB 2.0 Version scheint das Teil häufig etwas überfordert zu sein. Man merkt halt, das teils stark komprimiert wird. Das Bild braucht teils sichtlich mehr Zeit bis es sauber dargestellt wird. In der USB 3.0 Version ist dies etwas besser... Hab ich aber nicht an der Docking :fresse:
Ansonsten geht die USB Grafik teils ordentlich auf die CPU. Dank nem schnellen Mobile i7 Quadcore mit recht hohem Turbo hab ich da aber weniger ein "Problem", sondern eher viel Reserven. Was man anhand erhöhter Auslastung bei Benutzung sieht. Definitiv kein Vergleich zu internen Grafikkarten, wo die CPU Last teils unbeeindruckt niedrig ist.
 
Habs heute mal getestet mit nem zweiten Moni, wollte mal schauen wie die verschieden Games so mit der CPU hausieren gehen. ^^
Na jadenfalls sehe ich das die 7970 in einen Zwischenmodus geht mit 500/1500 ( 1500OC Ram setting ).
Das wäre mir auf Dauer nicht so genehm. Aber ja, scheinbar gibt es dadurch Mehrverbauch.
 
Zuletzt bearbeitet:
Aktuell haben AMD GPUs wohl bei zwei Monitoren "schon" den nächst höheren Stromsparmodus anliegend. Bei NV (ab GK1xx GPUs) soweit ich weis erst ab drei Monitoren.
Dafür bietet AMD weitergehende Features um die Karten nahezu gänzlich schlafen zu legen, wenn das Bild aus ist (sprich Monitor aus) bzw. wenn man mehr wie eine GPU im CF betreibt. -> was dem idle Verbrauch natürlich zugute kommt.

Das letzte Wörtchen ist da aber wohl lange noch nicht gesprochen. Mit der nächsten AMD Generation wird man da ggf. weiter dran arbeiten.
 
Im Multimonitorbetrieb bei NV müssen beide Monitore auch gleich sein, damit die Karten in den Low-Idle gehen.
Zotac GeForce GTX 680 AMP! Edition : Stromverbrauch - Artikel Hartware.net
Wobei es allerdings etwas seltsam ist, dass ein Unterschied im Stromverbrauch bei verschiedenen Monitoren nur bei der GXT 680 im Referenzdesign auftritt und bei den Herstellermodellen sowie auch der GTX 670 nicht.

Irgendwo meine ich auch gelesen zu haben, dass ZeroCore bei mehreren angeschlossenen Monitoren nicht funktionieren soll.

Selber handhabe ich es so, dass ich im Idle den Takt bei der HD 6870 im Multimonitorbetrieb auf 300/300 MHz absenke. Läuft absolut problemlos, einzig beim Umschalten des Ramtaktes kommt es immer zu einem kurzen Flackern, was mich allerdings nicht stört.
 
genau dieses Flackern war seinerzeit auch immer das Problem, warum man die Taktraten nicht beliebig anpassen kann/will.
Denn das Flackern kommt beim Taktwechsel. Wechselt die Karte hin und her, was durchaus passieren kann, hast du alle Nase lang dieses Flackern :fresse: -> einmal OK, aber permanent nervt schon.
Und Flackern tun auch aktuelle GPUs leider noch.

Beispielsweise habe ich bei mir Zuhause in Indiegame ohne wirkliche Last dieses Flackern häufiger. Nämlich wenn die Karte aus irgend nem Grund mal aufgeweckt wird und sich dann danach wieder schlafen legt... -> nervt.
 
hab gestern nacht ne 7750er von xfx geordert
wenn mir wer nen strommesser borgt kann ich der testen um wie viel der verbrauch von 2 auf 3 bzw 4 steigt
 
Hab da meine Erfahrungen gemacht, die keineren AMD`s bis zur 7750 verbrauchen 8-10W mehr mit zweitem Monitor. Ist sogar bei den IGP`s so.
Die APU`s nehmen sich ca. 1W mehr. War für mich der Grund, als Nicht-Spieler u. Stromsparer, umzusatteln..
Kollege von mir wollte eigentlich ne 7850 mit zwei Monitoren, jetzt wirds höchstwarscheinlich ne GTX 660. Die scheinen das besser im Griff zu haben, der Unterschied ist enorm - ca. 23W..
Test: Nvidia GeForce GTX 660 (Seite 12) - ComputerBase
 
Zuletzt bearbeitet:
Meine 670GTX bleibt auch mit 2 Monitoren im niedrigen Lastmodus, auch mit verschiedenen, ich habe neben b´meinen Dell 2 17" im Hochformat,
ich habe den niedrigen Modus dann mit 3 Monitorren einfach per NVinspector erzwungen,

allerdings ist mir da was mit den Treibern aufgefallen ich benutze immer noch den 301.42, mit dem geht die Karte auf +500 zurück, ohne den NVinspector u. mit 3 Monitoren,
mit einen neueren Treiber wollte sie nur auf ~800 runter takten,
der Speicher bleibt bei den ganzen Modi außer dem niedrigsten immer auch max
gebracht hat das runtertakten mit dem NVinspector laut Strommessgerät ca. 20-25W
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh