Grafikkarte für neuen Monitor (Nec PA271Q)

n3

Enthusiast
Thread Starter
Mitglied seit
22.02.2010
Beiträge
538
Hallo Zusammen,

ich habe derzeit eine GeForce GTX 750 Ti und nutze diese lediglich für Lightroom und Photoshop. Aktuell hängen zwei Monitore über DVI an der Grafikkarte. Nun soll demnächst ein neuer NEC PA271Q als Hauptmonitor kommen. Laut angaben hat der Monitor eine hohe Farbpräzision durch 14-Bit-Look-Up-Table mit 16-bit Verarbeitung und bis zu 10-Bit-Farbwiedergabe.

Jetzt stellt sich mir die Frage, ob meine GTX 750 Ti ausreicht und ich den Monitor über den Mini HDMI Anschluss betreiben kann, oder ob ich hier besser auch eine neue Grafikkarte beschaffen sollte. Falls ja, zu welcher ratet ihr? Eine 10bit Wiedergabe muss nicht zwingend sein. Die Karte wird nicht zum Spielen etc. verwendet, daher wäre das günstigste Modell für den Monitor und Lr/Ps ausreichend.

so long...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für 2560 x 1440 @ 60Hz braucht man schon mindestens HDMI 1.4b und die Karte hat AFAIK 1.4a...

Palit GeForce GTX 1050 StormX, 3GB GDDR5 ab Preisvergleich Geizhals Deutschland

Palit GeForce GTX 1050 Ti KalmX ab Preisvergleich Geizhals Deutschland

würde Ich da kaufen.

Zotac GeForce GT 1030 Zone Edition ab Preisvergleich Geizhals Deutschland

wenns billig sein soll, da ist aber die Hardwarebeschleunigung definitiv viel kleiner!

Adobe Lightroom GPU – Häufig gestellte Fragen und Fehlerbehebung

Häufig gestellte Fragen zur Photoshop-Grafikprozessorkarte (GPU)

Die Hardwarebeschleunigung der GPU würde Ich da definitiv immer nutzen!
 
Danke für die schnellen und konkreten Empfehlungen.

Ich habe jetzt noch einmal nachgeschaut und ja, die Zotac hat nur HDMI 1.4a und somit zu wenig Auflösung. Hab dann gleich mal bei Wiki geschaut. Durch deinen Hinweis, habe ich aber gleich mal geschaut, was für DVI Anschlüsse verbaut sind. Dual-Link DVI-I und Dual-Link DVI-D. Laut Internet, sollte das für die Auflösung von 2560×1600 Pixel bei 60 Hz ausreichen. Somit müsste ich den Monitor ja über DVI ohne Probleme betreiben können, oder was wäre der Nachteil?
 
oder was wäre der Nachteil?
Der Nachteil ist zunächst mal, das dein neuer Monitor keine DVI-Anschlüsse mehr hat. Du bräuchtest also einen Adapter.
Ohne jetzt explizit nachgeguckt zu haben, könnte ich mir vorstellen, dass du mit DVI auch die 10Bit Farbauflösung nicht nutzen kannst. Aber das ist wie gesagt nur eine Vermutung.

Wenn man sich einen 1000€-Monitor kauft, sollte aber wohl ein HDMI-Kabel (oder vll. sogar besser noch ein DP-Kabel) auch noch drin sein, oder?

Die GT1030 kann ausserdem nur 2 Monitore. Du hast schon zwei und geschrieben, das der NEC als neuer "Hauptmonitor" betrieben werden soll. Also wenn du planst dann insgesamt 3 Monitore zu verwenden, dann ist die GT1030 wohl auch nicht das Richtige.
 
Zuletzt bearbeitet:
Das hab ich natürlich nicht überprüft... OK, also ich werde den Monitor erst nur mit einem Adapter betreiben können, bis die neue GraKa da ist. Die 1030 würde insofern in Frage kommen, da mein aktueller Zweit-Monitor die Grätsche gemacht hat. Wenn ich ihn einschalte, kommt kurz ein Bild und dann geht er in Stand-By. Daher wird aktuell mein Haupt-Monitor HP LP2475w zum Zweit-Monitor und der neue Nec zum Haupt. Ich werde dann wohl auf die 1050 wechseln müssen, aber da kann ich mir etwas Zeit lassen und muss nicht direkt mitbestellen.
 
Wenn dir 2 Monitore reichen und du nichts nutzt, was 3D-Leistung der GPU braucht (Photoshop, Videoschnitt, CAD, ... ?), dann wäre die 1030 wohl schon ausreichend.
 
Ne, ich nutze nur Office, Internet, Lightroom, Photoshop und ggf. bald Caputre One. Sonst fällt mir nicht ein, was die GPU benötigen würde.
 
Die 3D-Leistung der 1030 ist halt sehr sehr bescheiden. Die ist eigentlich als absolute Low-End-Graka für z.b. MediaCenter-PCs gedacht, die maximal eine 3D-Beschleunigte GUI darstellen und Videos decoden müssen.
Also wenn Lightroom und Capture One von 3D-Leistung der GPU profitieren, Photoshop tut das ja wohl, dann wäre wohl schon mindestens eine 1050 besser.
 
Alle Adapter liefern dir da AFAIK nur 2560 x 1440 @ 30Hz und das ist natürlich Müll!
 
schau doch mal nach, ob Lightroom und Photoshop GPU Beschleunigung nutzen können.
 
Ja, Lr und Ps bieten GPU Beschleunigung. Bereits meine 750 wird genutzt und macht gewisse Funktionen deutlich flüssiger. Oh man, wird doch ein teurer Spaß... Monitor+Graka+Colorimenter…

Aber Danke für die sehr schnelle Hilfe!!
 
Die GT1030 hat grob etwa 2/3 der 3D-Leistung deiner 750.
Eine GTX1050 (ohne Ti) hat etwa 50% mehr 3D-Leistung als deine 750.

;)
 
Im Groben sind da die GPU Beschleunigung und die 3D Leistung schon miteinander vergleichbar, wobei das natürlich 2 verschiedene Sachen sind.

Wenn man die bei der GTX 750 Ti schon genutzt hat, dann nimmt man ne GT 1030 wirklich niemals!
 
Zuletzt bearbeitet:
Ja, werde wohl zur 1050 greife. Die Ti ist Passivgekühlt, hat weniger Rechenleistung und ist teurer... Ich denke ich greife zur Palit GeForce GTX 1050 StormX, auch wenn sie nur 3GB Arbeitsspeicher hat. Aber das sollte ja ausreichen.
 
Beide beschleunigen Lightroom und Photoshop erheblich mehr als die GTX 750 Ti!
 
Hm, eben gelesen, dass ich keine 10bit Farbwiedergabe in PS mit der Karte nutzen kann. Die Karte kann das zwar, aber Ps aktiviert die 10bit erst, wenn die Quadro-Karten samt passenden Treiber installiert sind :-(

- - - Updated - - -

Wäre dann eine Alternative: PNY Quadro P400 ab Preisvergleich Geizhals Deutschland

Hm... von der Leistung ist sie schon Schwächer, da sie einen geringeren Takt hat, weniger Shader Einheiten und nur 2GB Speicher. Aber ich meine Lr und Ps braucht gar nicht so viel Leistung.
 
Hm... von der Leistung ist sie schon Schwächer, da sie einen geringeren Takt hat, weniger Shader Einheiten und nur 2GB Speicher. Aber ich meine Lr und Ps braucht gar nicht so viel Leistung.
Kommt drauf an, was du damit machst. "Brauchen" tun die nicht viel Leistung. Berechnen kann man das auch auf einem Taschenrechner, dauert dann halt nur minimal länger, so etwa 5 Jahre. ;)
 
Ja, die P620 ist auch noch preislich ok. Die 2GB sollten ja reichen, oder?
 
2x 2k, oder nur 1x 2k? Gibt es da irgendwo eine Übersicht, weil ich finde immer nur Angaben was man zum Spielen etc. braucht. Es würde reichen, wenn ich 2x 2k fahren kann. 2x 4k ist eher unwahrscheinlich. Weil dann wäre die P620 ja sehr gut.
 
2K == FullHD.

Nennt es endlich beim tatsächlichen Namen WQHD oder 1440p und wenn es schon die vermalledeiten xK-Begriffe sein müssen, die offensichtlich kaum jemand versteht, dann wenigstens RICHTIG und zwar 2,5K.
 
Ja, ich habe es mir etwas einfach gemacht, weil ich bei den WQHD etc. nicht ganz Durchblicke. Ich habe dann 2k der einfachhalthalber gesagt. Ich hätte hier präziser sein sollen. Sorry.

Das Thema Speicher ist noch so eine Sache. Wenn die 2GB für 2x WQHD ausreichen, passt es. Aber KI Funktionen erhalten immer mehr Einzug und wenn dann 4GB notwendig sind, um die Funktionen zu nutzen. Wäre es ärgerlich. Wenn wir unter den 200€ bleiben wollen, dann wäre das hier eine Alternative:
AMD Radeon Pro WX 3100, 4GB GDDR5 ab Preisvergleich Geizhals Deutschland

Zwar keine GeForce und etwas schwächer, aber auch 10bit und 4GB.
 
Um einfach nur einen Desktop auf 2x1440p darzustellen würden auch 0,5GB locker ausreichen.
Im 3D(oder Computing)-Betrieb, z.B. Lightroom oder Spielen braucht man den Speicher hauptsächlich für Texturen und deren Anzahl und Auflösung hat praktisch nichts mehr mit der Monitorauflösung zu tun.
Bei BigData, KI, etc hat der VRAM-Bedarf auch absolut nichts mehr mit der Monitorauflösung zu tun.

Es kommt also ganz darauf an, WAS du WIE nutzt. Da wird dir hier keiner sagen können, wieviel du für deine konkrete Nutzung brauchen wirst.

Schau dir doch einfach mal die VRAM-Nutzung auf deiner 750 an. Werden die 2GB schon voll genutzt? Bemerkst du Engpäße? Hast du in Zukunft vor noch komplexere Sachen zu machen? Dann solltest du vielleicht eine neue Grafikkarte mit mehr als 2GB nehmen.

Wenn dir der RAM so wichtig ist, kannst du dir auch eine RX570 mit 8GB nehmen. Die ist auch noch unter 200€, hat dann aber gleich 8GB. Ob du damit deine 10Bit Farben kriegst, weiß ich aber nicht.
(Oder geht das Adobe-Zeug nur mit NVidia-Grakas, weil CUDA?)
 
Zuletzt bearbeitet:
Danke für die Einschätzung. Bisher habe ich keine Engpässe bemerkt, aber ich hatte auch nie auf die Auslastung vom vram geachtet. Aktuell wir der vram kaum genutzt, aber ich kann aktuell nicht sagen, wie es aussieht, wenn ich normal mit Lr/Ps arbeite. Auf der Maschine wird definitiv kein Berechnungen im Bereich KI gemacht. Vielleicht hole ich mir die 2GB Version und wenn ich in 1-2 Jahren mehr brauche, wird vielleicht die 4GB Version dann unter 200€ kosten und ich mache keine großen finanziellen Verluste.

nvidia, aber auch AMD kastrieren Ihre Consumer Grafikkarten durch die Treiber. Hier wird alles was nach Business riecht deaktiviert und man braucht die Quadro, Tesla, Radeon Pro etc. Wir haben z.B. einen GPU Cluster in der Arbeit. Dort können wir die normalen 1080 Karten nicht verwenden, weil man diese nicht virtualisieren kann. Eine Tesla kannst du virtualisieren und zum Beispiel können dann mehrere VMs zeitgleich auf die GPU zugreifen. Mit einer 1080 geht das nicht. Für diese Features zahlt man dann ein x-faches des Preises.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh