Workstation-Karte sinnvoll als 2. Karte ?

JenK

Neuling
Thread Starter
Mitglied seit
10.05.2018
Beiträge
6
Hallo,

neben Gaming arbeite ich viel mit Photoshop, After Effects & Vegas.
Ich sehe häufig RIGs die eine Workstation GPU beinhalten die anscheinend die Arbeit deutlich beschleunigt.

Da ich mich etwas umgeschaut habe stoß ich auf mehrere nVidia Quadro / Tesla & Radeon PRO WX Karten die man für gutes Geld bei eBay bekommen kann.
Mir ist bewusst das ich gerade beim rendern mehr Threads & Arbeitsspeicher benötige. Doch will ich unbedingt bis zu 3. Gen von ZEN warten.

Außerdem bevor ich auf eine neue Plattform umsteige, scheint ein 60-150 Euro-Upgrade deutlich kostengünstiger zu sein?
Die Frage die ich mir stelle ist ob diese GPUs meine Arbeit deutlich erleichtert?
Zudem ob zusätzliche Grafiktreiber einen Konflikt mit dem Treiber meiner 1060 verursacht?
Grundidee: Gaming-GPU zum zocken und WK-Karte für Rendern & Arbeiten und das alles in einem System.
Wichtig ist das mein 2. PCIe-Slot nur mit 8 Lanes angebunden ist :/

Da dachte ich gleich an sowas: s-l1600.jpg

Mein Setup:
  • W10 Prof. 64 Bit
  • Intel I5 4690K 4x @4,6GHz
  • 2x 8GB DDR3 2400MHz
  • ASUS MAXIMUS GENE VI
  • GeForce 1060 3GB EVGA
  • 720W Corsair

Oft benutze ich auch meinen Gaming-Laptop zum Rendern da er mehr Threads hat (i7) & ich nebenbei meinen Rechner zum Zocken nutzen kann.


Vielleicht verstehe ich auch das komplett anders, hoffe mich klärt jemand auf :(
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Deine GTX 1060 3GB sollte eigentlich zum Beschleunigen von Photoshop, After Effects und Vegas völlig ausreichen.

Dafür brauchst du keine Teure Nvidia Quadro oder Radeon Pro Karte kaufen.

Funktionieren tut das über Nvidias CUDA Schnittstelle, die alle Nvidia Karten des letzten Jahrzehnts unterstützen.

Gruß ;)
 
Deine GTX 1060 3GB sollte eigentlich zum Beschleunigen von Photoshop, After Effects und Vegas völlig ausreichen. Dafür brauchst du keine Teure Nvidia Quadro oder Radeon Pro Karte kaufen

Ich klinke mich mal ein, wenn ich darf ;-) Habe das gleiche Vorhaben und stelle mir auch diese Frage. Ich gebe dir recht, Guru4GPU, dass man mit ner guten GeForce gescheit arbeiten kann und sie in vielen Fällen sogar eine Quadro übertrifft, Preis-/Leistungstechnisch auf jeden Fall. Das große Aber: Quadros können 10bit darstellen und GeForce nicht. Wenn der Monitor das auch unterstützt, ist das ne ganz feine Sache, habe ich mir sagen lassen. Gesehen habe ich es leider noch nicht mit eigenen Augen, aber ich habe schon gelesen, wie Profis auf diese Konstellation setzen.

Meine Frage wäre: Habe mir einen Eizo CS2420 gekauft, der 10bit unterstützt, was ich auch gerne ausreizen möchte. Bald soll ein neuer PC folgen auf Basis eines i7 8700K. Nutze Adobe Lightroom (kann kein 10bit...) und Photoshop (kann 10bit!). Welche GPU würdet ihr empfehlen? Bzw. ist eine GPU-Konstellation, wie sie JenK beschreibt sinnvoll?

Viele Grüße!
 
@Antony bzw. auch JenK
Wenn es "echte" WorkStation Karten sind, haben sie auch ECC VRAM.
Das ist in der Tat "schneller" als die Desktop Versionen ohne ECC Video Speicher.
Gerade bei CUDA oder openCL GPU Rendering wird das schnell Sichtbar, bei einem hohen I/O aufkommen (4K H265 Codec, Raytracing, HDR Video Bearbeitung, etc)

LuxMark Version 3.1 kann z.B. auch die Pixel "Fehler" erkennen, das wird im Ergebnis Fenster dargestellt.
http://www.abload.de/img/luxmark-3.1_hotel_alll5qn4.jpg
 
Zuletzt bearbeitet:
Wenn es "echte" WorkStation Karten sind, haben sie auch ECC VRAM.
[...]
Gerade bei CUDA oder openCL GPU Rendering wird das schnell Sichtbar, bei einem hohen I/O aufkommen (4K H265 Codec, Raytracing, HDR Video Bearbeitung, etc)

Was sind denn unechte WorkStation-Karten?

Habe an die P2000 gedacht, aber die scheint mir etwas überdimensioniert und teuer für 2D. Arbeite nicht mit CAD etc.
 
Was sind denn unechte WorkStation-Karten?

Habe an die P2000 gedacht, aber die scheint mir etwas überdimensioniert und teuer für 2D. Arbeite nicht mit CAD etc.
Naja, unecht nicht wirklich daher in " "
Jemand der viel Daten durch den VRAM in kurzer Zeit jagt, wird sicher nicht auf ECC Verzichten.

Leider kann ich keine Empfehlungen aussprechen, da hier weit mehr als 1500€ pro Stück verlangt werden und das sind die alten Gen ohne DX12 Vulkan oder Mantle. ;)
 
Ok krass! Ne, das ist dann wohl raus. Ich bin mittlerweile sowieso davon abgerückt eine P2000 zu kaufen. Bis auf die 10bit sehe ich keinen Vorteil, obwohl mich das schon freuen würde. Wird wohl eine Geforce 1050Ti oder 1060 werden. Mal sehen, was sich die nächsten Jahre tut, aufrüsten geht immer.
 
Ok krass! Ne, das ist dann wohl raus. Ich bin mittlerweile sowieso davon abgerückt eine P2000 zu kaufen. Bis auf die 10bit sehe ich keinen Vorteil, obwohl mich das schon freuen würde. Wird wohl eine Geforce 1050Ti oder 1060 werden. Mal sehen, was sich die nächsten Jahre tut, aufrüsten geht immer.
Wenn ich deine Software etwas genauer kenne bzw. das Aufgabengebiet könnte ich schon spezifisch helfen.
Am besten sind für Spiele immer die selben Karten mit der selben Menge an VRAM.
Ob klein oder großes Modell spielt vorerst mal keine Rolle, Hauptsache SLI oder Crossfire fähig.

RADEON hat z.B bei Doppelter Genauigkeit schon ein fettes + :coolblue:
 
Woher kommt eigentlich die Ansicht, dass die GTX keine 10 bit pro Farbkanal können? Habe sowohl eine P2000 als auch eine 1060 in (unterschiedlichen) Systemen (die Quadro eigentlich nur, um keine Probleme mit NVIDIA-Treibern in virtualisierten Testumgebungen zu bekommen) und die 1060 kann problemlos via DP 1.4 einen Dell UP2718Q (UHD-HDR-1000) mit 10 bit pro Farbkanal ansteuern. Hätte mir auch eine 1050 Ti geholt, aber ich wollte mehr DP-Anschlüsse haben, deshalb ist es eine 1060 geworden.

Wäre ja auch beknackt, nur 8 bit pro Farbkanal zuzulassen, da NVIDIA ja dieses UHD-HDR-Gaming-Gedöns pushen möchte und dass sich Spieler etwas à la Quadros GV/GP100 holen, dürfte eher selten der Fall sein ;)
 
Zuletzt bearbeitet:
Woher kommt eigentlich die Ansicht, dass die GTX keine 10 bit pro Farbkanal können?

Ich bin mir absolut sicher, dass es keine Geforce bis einschl. der 1080Ti in Photoshop leisten kann, da PS über OpenGL läuft. Lightroom unterstützt eh keine 10bit und bei Premiere weiß ich es nicht. Bitte keine Detailfragen, ich habe es selber auch nur gelesen und zwar mittlerweile schon mehrfach^^
 
@Antony
Also Adobe Software, sind die auf dem aktuellen Stand der Version, wird online Update aktiv genutzt?

@JohnnyBGoode
Immer wieder schön, wenn Mitleser dazu Stoßen. :)
 
Jap, ist alles up to date: CC 2018 bzw. bei LR CC Classic, auch mit dem neuesten Update aus diesem Monat. Seit es das Abo-Modell gibt, bekommt man automatisch Softwareupdates angeboten ;-)
 
Aber kommt es bei Photobearbeitung nicht auf schnelle CPU-Kerne und sau schnelle SSDs an ???
Ja, so ist es. Deswegen war ursprünglich die Idee eine "schwache" Quadro einzusetzen, die nicht wesentlich teurer ist als eine gute Geforce, um die 10bit zu erhalten. Aber die 10bit sind mir einfach keine 300 € zusätzlich wert, die ich für eine P2000 hinblättern müsste, als ich nochmal drüber nachdachte^^

Darum jetzt der Plan mit der 1060 oder 1050Ti.
 
Ja, so ist es. Deswegen war ursprünglich die Idee eine "schwache" Quadro einzusetzen, die nicht wesentlich teurer ist als eine gute Geforce, um die 10bit zu erhalten. Aber die 10bit sind mir einfach keine 300 € zusätzlich wert, die ich für eine P2000 hinblättern müsste, als ich nochmal drüber nachdachte^^

Darum jetzt der Plan mit der 1060 oder 1050Ti.
Die 1050 TI kann auch Vulkan.
Hilft zwar nicht direkt bei Adobe ist aber für Spiele kein falscher Weg.
Selbst mit Linux OS...
 
NVIDIA ist echt ein Armleuchter-Verein:

For Pascal, NVIDIA is opening things up a bit more, but they are still going to keep the most important aspect of that feature differentiation in place. 10bit color is being enabled for fullscreen exclusive OpenGL applications – so your typical OpenGL game would be able to tap into deeper colors and HDR – however 10bit OpenGL windowed support is still limited to the Quadro cards. So professional users will still need Quadro cards for 10bit support in their common applications."

Quelle nach Google-Suche

Bislang hatte ich Photoshop mit dem Dell UP2718Q tatsächlich nur an dem System mit der Quadro P2000, da bei dem System mit der 1060 der NVIDIA-Treiber den Bildschirm ebenfalls mit 10 bit ansteuert (da die Windows-Oberfläche ja nicht OpenGL, sondern DirectX nutzt), wäre ich gar nicht auf die Idee gekommen, dass das doch nicht gehen würde.

Danke für den berechtigten Widerspruch, wodurch etwas gelernt werden konnte!

Wenn ich jetzt die Wahl hätte, würde ich den Stinkefinger zeigen und was von AMD holen.

*Edit*: Schön, AMD blockt bei Fenster-OpenGL-10 bit genauso wie NVIDIA (nur Radeon Pro und Vega FE).

Man, man, ein Abend voller Desillusionierung...
 
Zuletzt bearbeitet:
Die Vega
AMD Radeon Vega Frontier Edition, 16GB HBM2, HDMI, 3x DP (100-506061)
ist ganz gut P/L
Wird zwar im CAD-Rechner mit Catia und NX benutzt aber für die gleiche Leistung leg ich bei NV schon 1600€ für ne P5000 hin
Aber kommt es bei Photobearbeitung nicht auf schnelle CPU-Kerne und sau schnelle SSDs an ???
Ja...
https://abload.de/img/aida64_vram_memoryhea3ds8x.jpg
Die Frontier läuft auch mit dem Crimson Treiber.
Das kann man in den RADEON Einstellungen "switchen"

NVIDIA ist echt ein Armleuchter-Verein:



Quelle nach Google-Suche

Bislang hatte ich Photoshop mit dem Dell UP2718Q tatsächlich nur an dem System mit der Quadro P2000, da bei dem System mit der 1060 der NVIDIA-Treiber den Bildschirm ebenfalls mit 10 bit ansteuert (da nicht OpenGL sondern DirectX), wäre ich gar nicht auf die Idee gekommen, dass das doch nicht gehen würde.

Danke für den berechtigten Widerspruch, wodurch etwas gelernt werden konnte!

Wenn man die Wahl hätte, würde ich mir jetzt wohl eine RX580 holen, da sollte es auf alle Fälle gehen und ECC-Karten sind ja sowohl bei AMD als auch NVIDIA sowieso in einer anderen Preisregion.
Naja, Nvidia ist ein CEO (Headquarter)
Gut möglich, dass ihm was entging.

Eine Vega Frontier Edition hat bis zu 16GByte VRAM.
 
Zuletzt bearbeitet:
@Phantomias88: Hatte meinen Beitrag noch editiert, bei der Photoshop 10 bit-Unterstützung sind sowohl NVIDIA als auch AMD gleichermaßen Armleuchter, da bei den Konsumeten-GPUs im Treiber OpenGL-10 bit für Fensteranwendungen generell blockiert wird.

Dafür sollte man bei AMD bei den Karten, die es tatsächlich können, ein etwas besseres Preis-/Leistungsverhältnis als bei den Quadros haben:

wx in PCIe Preisvergleich Geizhals Deutschland

Ansonsten wie oben schon genannt wurde gine auch noch die Vega FE, aber Adobe-Anwendungen sind ja so schon gammlig programmiert, so dass sie mit der Leistung der FE wenig anfangen können sollten.
 
Zuletzt bearbeitet:
Danke für den berechtigten Widerspruch, wodurch etwas gelernt werden konnte!

Wenn ich jetzt die Wahl hätte, würde ich den Stinkefinger zeigen und was von AMD holen.

*Edit*: Schön, AMD blockt bei Fenster-OpenGL-10 bit genauso wie NVIDIA (nur Radeon Pro und Vega FE).

Man, man, ein Abend voller Desillusionierung...

Ja keine Ursache, um dazuzulernen sind wir ja alle hier ;-) Sorry, dass ich dich desillusionieren musste^^

Ich bin jetzt auf jeden Fall von einer Workstation-Karte abgerückt und habe mir eine MSI GeForce GTX 1050 Ti Gaming X 4G zugelegt. Die sollte mehr als genügen. 10bit muss warten, ich habe aber Zeit.

Momentan diskutiere ich hier das Mainboard, wer möchte, darf sich gerne einbringen :)
 
Vorsicht: ECC RAM ist nicht schneller als non-ECC sondern im Gegenteil langsamer! Deshalb lässt sich bei den großen Quadros die ECC RAM haben die Fehlerkorrektur auch gezielt deaktivieren. Interessant ist ECC ohnehin vielmehr beim rechnen als in grafischen Anwendungen.
Im Übrigen sind auch die GPU- und Speichertaktraten bei den Quadros idr niedriger als bei den jeweiligen Geforce-Pendants. Die höhere Performance in bestimmten Anwendungen resultieren ausschließlich aus den Optimierungen der Treiber.
 
Vorsicht: ECC RAM ist nicht schneller als non-ECC sondern im Gegenteil langsamer! Deshalb lässt sich bei den großen Quadros die ECC RAM haben die Fehlerkorrektur auch gezielt deaktivieren. Interessant ist ECC ohnehin vielmehr beim rechnen als in grafischen Anwendungen.
Im Übrigen sind auch die GPU- und Speichertaktraten bei den Quadros idr niedriger als bei den jeweiligen Geforce-Pendants. Die höhere Performance in bestimmten Anwendungen resultieren ausschließlich aus den Optimierungen der Treiber.
Das ist Ansichts Sache, Fehler enstehen immer, ohne Korrektur ist da leider nichts zu machen, die meisten Fehler wirken sich nicht direkt aus.
Wenn ein Bild schneller gerendert wird, aber mehr Pixel-Fehler beinhaltet, kann das nicht "schneller" sein ;)

Langsamer mit GDDR5 war der ECC Mode, das stimmt!
Aber mit 16GByte HBM² ECC wird das kaum noch Messbar sein: AMD Radeon Pro WX 9100 ab Preisvergleich Geizhals Deutschland
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh