Wieviele monitore kan die GV-N960WF2-4GD ?

OwenBurnett

Enthusiast
Thread Starter
Mitglied seit
26.10.2007
Beiträge
883
Ort
Wien
Ich überlege mir gerade eine neue GraKa zu kaufen, und da ist mir diese hier ins Auge gesprungen: GIGABYTE - Grafikkarte - NVIDIA - PCI Express Solution - GeForce 900 Series - GV-N960WF2-4GD
Die hat ja sogar 6 Anschlüsse insgesamt, sehr gut.

Nur leider stehen auf der HP widersprüchliche Informationen: GIGABYTE - Unterstützung - FAQs
Der Text sagt max 4 schirme, das Bild zeigt aber auch eine config mit 5 an,
was davon stimmt nun?
Und gilt das nur für gaming oder auch für den normalen Desktop.
Also kann ich da wirklich nicht 6 schirme dran betreiben?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Maxwell-Chip
4 Displays gleichzeitig.
Völlig unabhängig davon was Du damit machen willst.



Das ist (soweit mir bekannt) bei allen Maxwell-Chips gleich.
 
Zuletzt bearbeitet:
Ok, i seee....
und was wäre den der nächst billigste Chip der mehr als 4 kann?
 
Sind es 6 Monitore mit DP-Anschluss?
Dann schau Dir die AMD Eyfinity 6 Grakas an.
Uralt, Stromfressend, aber die sollten 6 DP-Monitore gleichzeitig können.
Hast Du keine 6 Monitore mit DP-Anschlüssen kannste das auch gleich vergessen, dann kosten Dich die Adapter mehr als eine 2. Grafikkarte.
Sind es nämlich keine 6 DP-Moniore klemmste einfach eine 2. Graka dazu, die die restlichen zwei Monitore versorgt.

Es sei denn der (nichtgenannte Einsatzzweck/Rechner) verhindert den Einbau einer 2. Karte.
 
Zuletzt bearbeitet:
Was hast du überhaupt mit 6 Monitore vor?
Und auf welchem deiner Systeme soll das ganze eingesetzt werden?
 
Also mein momentanes setup sieht so aus, in dem system: "Meine Workstation"
1. graka, Ge 9400 GT daran hängt ein 24" Monitor über DVI und ein anderer 30" monitor der zwingend duallink DVI braucht
2. zweite Quatro NVS 450 mit 2 chips und 4 normal großen Displayport Ausgängen, daran hängen 4 alte Monitore, mit so kabel die aus DP gleich DVI machen (wohl rein elektrisch)

da werde ich wohl wieder 2 karten verbauen müssen,
dabei habe ich gehofft mir eine sparen zu können
 
Schön, und schön teuer auch :d

Ich frage mich gerade wie es sich auf die performance auswirkt die Quatro drin zu lassen und nur eine neue karte für die 2 gröseren TFT's zu verbauen?
Auf den schirmen von der quatro laufen idr keine sachen die irgendwie aufwändig wären.
 
Brauchst du überhaupt eine Quatro für irgentwelche Programme? Was wird auf der Workstation überhaupt gemacht?
 
> Brauchst du überhaupt eine Quatro für irgentwelche Programme?
Nein, eigentlich nicht, ich habe mir die damals geholt weil die second hand nur 100€ gekostet hat und ganze 4 Monitore unterstützt hat.

> Was wird auf der Workstation überhaupt gemacht?
Solidworks zeichnen,
und seid neuestem auch Videos mit DaVinci Resolve zureschtsnipselln, aber das sehr sehr amateurhaft.
Manchmal photoshope ich was kleines

Was ich auch oft benutze aber es wohl egal ist:
VisualStudio
MatLab
VmWare

Alles weitere ist denke ich nicht erwähnenswert.
 
Solidworks ist in der Tat ein Argument. Der Rest klingt nicht so, als würden 6 Monitore benötigt werden. Mhh preislich siehts wohl so aus, als müsstest du ei 2 Grakas bleiben. ;)
 
Naja, die frage ist ob das mit nur einer neuen karte und der alten quatro funtzt. Auf den 4 an die quatro angeschlossenen TFT's würde ich nichts graphikintensives legen.
 
schaue auf jeden Fall nach ob es eine Treiber gibt der dann die 2 Karten unterstützt, deine 9400 GT u. eine GTX6xx zusammen würde z.B. nicht laufen,
 
Das sind immerhin auch 400 €. Fehlen zu der Variante mit einem PCB "nur" 200 €. Ist das aktuelle Setting denn zu langsam?
 
Also solidworks funtzt ganz ok, aber wen ich z.b. vergleiche wen ich ein komplexes Assembler auf meinem PC drehe, dazu wie das aussieht auf einer workstation @ uni dan schin da bei mir schon wesentlich weniger Details beim drehen sichtbar.
Gut das ist eigentlich egal.

Was aber nicht so egal ist ist das ich in DaVinci Resolve mit dem ich mich gerade anzufreunden versuche nur bedingt das gerade editierte video mir anschauen kann. Beim Playback stottert es, erst nachdem ich alle programme bis auf das eine geschlossen habe und aero ausgemacht habe lief das einiger Massen flüssig.

Ich will aber keine programme schleisen müssen da ich normalerweise zig sachen paralell mache. Und vor allem so was wie Webbrowser will man ofen haben immer.

Daher Jou das Setup ist schon etwas lahm :(

Naja "nur" 200€ ist gut, 400 ist schon viel...
Auf das mobo was ich drin habe passen 2 Karten locker also, da passen auch 5, also eigentlich war es nur Sinn der Single board Lösung billiger zu sein.

Das andere Problem ist das ich für den 30"er ein duallink DVI port brauche, da geht eine quatro mit billigem Adapter nicht, das muss schon ein aktiver sein.

Außerdem wie ist den die Klickgeräusche von so einer dual maxwel quatro karte, da ist ja ein eher kleiner Lüfter drauf?

EDIT:
oder 2 aus der GTX 950 serie das ist dan 320€
 
Zuletzt bearbeitet:
Also solidworks funtzt ganz ok, aber wen ich z.b. vergleiche wen ich ein komplexes Assembler auf meinem PC drehe, dazu wie das aussieht auf einer workstation @ uni dan schin da bei mir schon wesentlich weniger Details beim drehen sichtbar.
Gut das ist eigentlich egal.

Neja, die Aussage ist etwas nichtssagend. Du müsstest schon mal nachsehen, was das Problem ist. Liegts am Prozessor? Möglicherweise Singlethreaded Leistungslimit? Liegts an der/den GPU(s)? Liegs am VRAM usw.?
So ins Blaue sind da keine Empfehlungen sinnvoll...

Was aber nicht so egal ist ist das ich in DaVinci Resolve mit dem ich mich gerade anzufreunden versuche nur bedingt das gerade editierte video mir anschauen kann. Beim Playback stottert es, erst nachdem ich alle programme bis auf das eine geschlossen habe und aero ausgemacht habe lief das einiger Massen flüssig.

Ich will aber keine programme schleisen müssen da ich normalerweise zig sachen paralell mache. Und vor allem so was wie Webbrowser will man ofen haben immer.

Was ich auf die Schnelle gesehen habe, so scheint mir das Tool durchaus massiven Gebrauch von der GPU machen zu können.
Deine 9400GT wie auch die 450er NVS sind effektiv hornalt und taugen da einfach nicht.
In den White Papern zur aktuellen Version lese ich was von VRAM Bedarf bei HD Videos mit ~3GB, UHD gern auch 6-8GB. Das liefert keine deiner Modelle.

Vorteil der Software, sie scheint mit auch mit Gamermodellen gut umgehen zu können. Sprich du kannst dir Geforce oder Radeon GPUs da reinstecken ohne wirkliche Nachteile?
Eine TitanX (via Cuda) mit 12GB VRAM wäre da sicher nicht schlecht als Worker Backend. Auch die Hawaii GPUs mit 8GB (bei AMD dann mit OpenCL) könnten interessant sein/werden... Fiji mit 4GB taugt wieder nicht bei UHD Videomaterial.

Was das Videoplayback angeht, könnte möglicherweise am Support für die Videobeschleunigung der GPUs liegen. Je nachdem, um was es sich dort genau handelt für Material, sollte die GPU in der Lage sein, dass in ihren Videoeinheiten abzufedern. Ist das nicht gegeben, so wird die CPU belastet -> was teils zu lahm ist.


Kurzum, du solltest hier lieber erstmal schauen, woran es bei dir genau klemmt... Anstatt einfach eine oder mehrere GPUs ins Auge zu fassen, die dann möglicherweie das Problem überhaupt nicht lösen.
Wenn ich das richtig sehe, so nutzt SolidWorks an der Stelle die aktive primäre GPU für das Rendering bzw. die Beschleunigung. Sprich dort wo dein Hauptmonitor dran klemmt, muss "Power" vorhanden sein. Bei der Video Software ist das anders... Da hast du das UI, was nur "billige" Grafik ist und wenig Leistung erfodert. Und das Renderbackend, was die Power liefert... Für die Videogeschichte wäre es folglich eher ratsam, dort viel GPU Power mit viel viel viel VRAM zu haben. Bei der Solidworks Geschichte muss das aber die Haupt-GPU liefern.


Wenn ich mal ins Blaue schießen soll, wäre es möglicherweise eine Alternative, sich nach günstigen Workstation Karten der Vergangenheit umzuschauen. So Quadro 6000 Modelle aus der Fermi Reihe, ggf. auch was von AMD könnten da schon helfen... Die sind zwar im Vergleich zu heute lahm. Aber die sind mit Speicher ausgestattet, die über die heutigen Gamermodelle hinweg reicht. Eine 6000er Quadro gabs damals schon mit 6GB. Die Frage ist, was sowas heute noch kostet?
Ich hab da wenig Erfahrung mit den gebrauchten Modellen. Allerdings ist Serverhardware aus dieser Zeit zum Teil spottbillig zu haben. Das könnte also auch auf die GPUs zutreffen, wenn man welche findet ;)
Ansonsten, wie oben erwähnt. Hawaii GPU aka Radeon 390/390X mit 8GB VRAM. GM200 TitanX mit 12GB VRAM wäre noch zu nennen. Zumindest für die Videogeschichte. Wie SolidWorks allerdings mit Gamer GPUs umgeht, keine Ahnung. Mit der alten Quadro kommst du da aber schonmal recht "weit". Zumeist wirst du da auch entsprechend Zertifizierte Treiber benötigen -> bzw. es ist sinnvoll diese zu nutzen!

Für das Problem mit der Displayanzahl einfach entsprechend mehrere dieser Modelle nutzen!

Solidworks ist in der Tat ein Argument. Der Rest klingt nicht so, als würden 6 Monitore benötigt werden. Mhh preislich siehts wohl so aus, als müsstest du ei 2 Grakas bleiben. ;)

Seit wann gibt die Software die Anzahl der Monitore vor??
Sorry... Aber das ist doch unsinn. Die Anzahl der Monitore bestimmt einzig und allein der Nutzer... Die Fläche wird erhöht und damit möglicherweise auch die Produktivität.
Ich für meinen Teil nutze, sofern möglich min. 3x FHD. Wünschenswert wären 6x FHD. Aber letzteres gibt idR das Befestigungsproblem der obereren dreier Reihe. Alternativ kann man 3x UHD nutzen. Nur ist dort zwar die Fläche vorhanden, dafür aber die Aufteilung ggf. bescheiden... Denn oftmals benötigt man nicht die Fläche am Stück, sondern die Trennung der "Displays" für verschiedene Aufgaben. Hat es nun höhere Auflösung am Monitor, dann muss man sich wieder Gedanken über die Trennung für verschiedene Fenster machen -> oder es umständlich hinschieben.
 
Seit wann gibt die Software die Anzahl der Monitore vor??
Sorry... Aber das ist doch unsinn. Die Anzahl der Monitore bestimmt einzig und allein der Nutzer... Die Fläche wird erhöht und damit möglicherweise auch die Produktivität.
Ich für meinen Teil nutze, sofern möglich min. 3x FHD. Wünschenswert wären 6x FHD. Aber letzteres gibt idR das Befestigungsproblem der obereren dreier Reihe. Alternativ kann man 3x UHD nutzen. Nur ist dort zwar die Fläche vorhanden, dafür aber die Aufteilung ggf. bescheiden... Denn oftmals benötigt man nicht die Fläche am Stück, sondern die Trennung der "Displays" für verschiedene Aufgaben. Hat es nun höhere Auflösung am Monitor, dann muss man sich wieder Gedanken über die Trennung für verschiedene Fenster machen -> oder es umständlich hinschieben.
Ich glaube du hast meinen Punkt nicht verstanden. Natürlich gibt der User den dies vor, ganz klar. Das Setup sollte sich natürlich dem Workflow anpassen. Angenommen jemand schreibt er nutzt nur Office und surft, dann würde ich jedoch den Workflow hinterfragen, wenn dafür 6 Monitore nötig sind. Ich nutze aktuell 2x1920x1080@23". Das ist für meine Bedürfnisse ausreichend. Ein 3. Monitor wäre manchmal noch nett, lässt sich aber super gut damit kompensieren, dass ich i3 benutze.
 
Also mein Heimrechner hat auf der CPU mehr wumps per thread als der an der uni und glibal in etwa das selbe, uni hat 8x3 und meiner hat 6x4, ram beide 64 GB
Nur das in der uni workstation eine halbwegs neue graka sitzt aus dem 100-200 € segment,
während mein Heimrechner noch meine alten grakas von 2010 oder so hat.

Laut eBay kosten die 6000er Quadro immer noch um die 400€

Das ich VRAM brauche ist ne wichtige info dann werden es eher GTX 960er und mit 4 GB pro Karte.
FullHD videos reichen mir UHD brauche nicht auf absehbare zeit nicht.

Wie ist das eigentlich wen ich 2 GTX 960er mit je 4 GB drin habe, kann dann dieses DaVinci tool beide nutzen?
 
Wie ist das eigentlich wen ich 2 GTX 960er mit je 4 GB drin habe, kann dann dieses DaVinci tool beide nutzen?
Kommt sicherlich auf die Anwendung an. Die Meisten können das m.E. jedoch nicht. Insofern stellt sich die Frage, ob eine performantere Karte nicht ausreichend wäre und der Rest via eine deiner alten Karten läuft.
 
Kommt sicherlich auf die Anwendung an. Die Meisten können das m.E. jedoch nicht. Insofern stellt sich die Frage, ob eine performantere Karte nicht ausreichend wäre und der Rest via eine deiner alten Karten läuft.

Geht das den? Also gibt es überhaupt ein ein NVIDIA Treiber der die sowohl die neuen als auch die ganz alten Karten unterstützt?
 
Probleme würde das nur bei Vista und Win10 machen (Stichwort WDDM2.0 bei Win10)
Was für ein Chip ist denn in den ganz alten Karten drinne? Bis runter zu Termi sehe ich da keine Probleme solange kein Win10 benutzt wird)
 
Angenommen jemand schreibt er nutzt nur Office und surft, dann würde ich jedoch den Workflow hinterfragen, wenn dafür 6 Monitore nötig sind.

Aber genau das war doch der Punkt. Wer definiert denn den Workflow, wenn nicht der Fragende?
Ich denke nicht, dass Jemand, der sechs Monitore betreibt, über den Sinn oder Unsinn dieses Setups diskutieren will ;)
Trotzdem kann ich dir sagen, dass gerade "Office" als weitreichendes Themengebiet, sehr hohen Bedarf an viel Arbeitsfläche notwendig macht/machen kann... Da reicht es eben schon aus, wenn du aktiv in einem Texteditor arbeitest, nebenbei noch einen zweiten Texteditor aufhast, weil du Daten überträgst oder weis der Teufel was, dann hast du vielleicht noch einen Mailclient offen, um die Mails zu checken (speziell im Businessumfeld), möglicherweise noch nen Browser, weil du aktiv nach "Lösungen" für konkrete Umsetzungen suchst usw.
Da kommen schnell mal 3-4 aktive Anwendungen zusammen... Jemand, der es gewohnt ist, Fenster zu schubsen, wird sich das nicht vorstellen können, wie es ist, dies nicht mehr machen zu müssen. Aber Jemand, der es eben gewohnt ist, Fenster nicht mehr schubsen zu müssen, KENNT! idR alle Nachteile.

Wenn es so ohne weiteres möglich wäre, sechs Monitore irgendwie anständig und halbwegs kostengünstig zu befestigen, hätte ich auf der Arbeit lange schon so ein Setup. Das Anschlussproblem ist dann auch nur noch nebensächlich... :wink:
Man muss aber sagen, irgendwann kommt dann der Punkt an dem der Spaß wieder ineffektiv wird, weil man die Fenster auf der Fläche sucht :fresse: Sechs Monitore finde ich aber noch OK...

Das ich VRAM brauche ist ne wichtige info dann werden es eher GTX 960er und mit 4 GB pro Karte.
FullHD videos reichen mir UHD brauche nicht auf absehbare zeit nicht.

Wie ist das eigentlich wen ich 2 GTX 960er mit je 4 GB drin habe, kann dann dieses DaVinci tool beide nutzen?

Mhh, soll es denn neu oder gebraucht sein?
Die 960er haben einen massiven Vorteil für die Zukunft, sie können HDMI 2.0 mit HDCP 2.2. Das gibts aktuell nur mit der GM206 GPU (960/950er Modelle)
Dennoch würde ich wohl versuchen, eher zu gebrauchten 290X 8GB oder 390/390X mit 8GB zu gehen... Man weis ja nicht, was in Zukunft noch kommt. Und wie angesprochen, der Part mit SolidWorks ist ebenso offen, sprich kann die Software mit Gamermodellen, ja oder nein?

Was die Videogeschichte angeht, angeblich, nach dem Whitepaper, was ich vorhin laß, sollen sich mehrere GPUs kombinieren lassen in der Software. Sprich die Arbeit wird verteilt. Was das am Ende genau bedeutet, weis ich aber nicht... Es wäre denkbar, dass verschiedene Aufgaben auf die GPUs verteilt werden. Es wäre aber auch denkbar, dass immer ein und die selbe Aufgabe verteilt ausgeführt wird.
Such einfach mal in google nach "GPU acceleration DaVinci"... Da findet sich ne Menge Lesestoff dazu.
Am Ende musst du es für dich entscheiden... Wie aber angesprochen halte ich es für rausgeschmissenes Geld, einfach GPUs in blaue zu erstehen, ohne dass du dir klar bist, was da genau passiert. Denn dir nutzt es ja nix, wenn der Speicher dann doch zu klein ist und es deswegen nicht geht. Oder die Software selbst aufgrund von Beschränkungen nicht mit dem Modell will oder oder oder...

Probleme würde das nur bei Vista und Win10 machen (Stichwort WDDM2.0 bei Win10)
Was für ein Chip ist denn in den ganz alten Karten drinne? Bis runter zu Termi sehe ich da keine Probleme solange kein Win10 benutzt wird)

Ist noch älter. Die 9400GT ist irgendwas G80 likes und die NVS 450er hat 16 Cuda Cores. Also auch horn halt. Könnte ebenso G80 like sein...
Fermi ist/war da noch ne ganze Weile von entfernt.

Die alten Modelle taugen hier nicht. Speziell nicht in seinem Workflow. SolidWorks setzt Renderpower an der Hauptkarte vorraus und scheint bestenfalls nur auf ein paar Sachen Cuda/OpenCL Support und damit potentiell MGPU tauglich zu sein. Die Videosoftware ist voll OpenCL/Cuda fähig und setzt ein Berechnungsbackend ein, was sich losgelöst der grafischen Oberfläche betreiben lässt. Das sind eigentlich zwei völlig verschiedene paar Schuhe.
Letzteres geht definitiv via MGPU zu erschlagen. Ersteres wohl eher nicht...
 
Zuletzt bearbeitet:
Probleme würde das nur bei Vista und Win10 machen (Stichwort WDDM2.0 bei Win10)
Was für ein Chip ist denn in den ganz alten Karten drinne? Bis runter zu Termi sehe ich da keine Probleme solange kein Win10 benutzt wird)

Die alte quatro hat 2x NVS 450, es ist diese hier: NVIDIA Quadro NVS 450 Professionelle Grafiklösung | NVIDIA

Win 10 werde ich meiden solange ich kann, also von daher solange es mit win 7 funtzt ist es prima.

EDIT: Ist die alte quatro karte jetzt also definitiv zu alt?


> Mhh, soll es denn neu oder gebraucht sein?
komplett egal

> Die 960er haben einen massiven Vorteil für die Zukunft, sie können HDMI 2.0 mit HDCP 2.2.
Ich schaue ausschließlich Privatkopieen, also von daher ist mir HDCP total egal. Die meisten meine TFT's können nicht mal HDCP 1.0

> Dennoch würde ich wohl versuchen, eher zu gebrauchten 290X 8GB oder 390/390X mit 8GB zu gehen...
Soweit ich das in ebay sehe kostet da ales wesentlich mer als die GTX 960er karten.

> Und wie angesprochen, der Part mit SolidWorks ist ebenso offen, sprich kann die Software mit Gamermodellen, ja oder nein?
Die graka in der uni workstation ist ne ganz gewöhnliche keine quatro oder so, also von daher anscheinend ja.


> Wie aber angesprochen halte ich es für rausgeschmissenes Geld, einfach GPUs in blaue zu erstehen, ohne dass du dir klar bist, was da genau passiert.
Naja mit der jetzigen uralt Karte die nur 512 MB hat geht es ja fast. Ich halte es daher für unwahrscheinlich das es mit irgendwas was 2GB oder gleich 4GB hat nicht gehen wird.
Ich brauche es auch nur um ein paar videos hobby mesig zusammen zu schnippseln. Das muss daher nicht super laufen sondern nur genügend gut.
 
Zuletzt bearbeitet:
Es geht deswegen, weil die GPU bei dir aktuell wohl nichts an Arbeit übernimmt...
Soll diese das tun, dann müssen die Gegebenheiten passen. Passen diese nicht -> dann schmeißt du hunderte Euros zum Fenster raus und hast effektiv nix gewonnen, weil es dann wieder "nur" die CPU macht und die GPU nichts weiter tut, als ein Bild auszuspucken. Das kann auch offenbar schon deine aktuelle Lösung. Nur ja anscheinend nicht zufriedenstellend...

Mir scheint, dass du da bisschen zu blauäugig an die Sache rangehst. ;)
Welches GPU Modell verwenden denn die Workstations in der Uni genau? Und was wird mit diesen Workstations an Software abgedeckt? Auch diese beiden, eigentlich völlig verschiedenen Paar Schuhe? (SolidWorks und DaVinci)

Das Thema GPU Beschleunigung ist halt nicht so einfach, wie im Gamingumfeld. Wo es effektiv nur drauf ankommt, wie schnell die GPU ist.
Bei derartiger Software ist es nunmal etwas anders. Da müssen die Modelle/Treiber passen, da müssen die Speichergrößen passen, die Software mit mit der GPU umgehen können usw. usf. Dann sollte man wissen, was man damit genau machen will. Wird das, was man vorhat überhaupt supportet von der GPU oder machts doch nur die CPU usw.

Mal ein kleiner Vergleich, ich nutze bei mir Zuhause auf der Workstation Blender als 3D Rendertool. Die beiden 3GB 780TIs haben ca. die 2-3x Leistung des 4,2GHz Oktacore Intels. Das Problem ist, diese Leistung ist beim Rendern vorhanden und auch spürbar. Nicht aber so sehr beim aktiven Arbeiten. Als Renderer muss man den passenden wählen, die Settings müssen passen, nicht alle Filter/Einstellungen/Modi werden supportet. Und was viel wichtiger ist, sind die gerenderten Szenen zu "fett", sprich reichen die 3GB nicht aus -> dann bricht die Leistung auf ein Bruchteil der CPU Performance zusammen.
Nur weis man das effektiv vorher? Ne... Weis man nicht. Man baut und schraubt solange an den Modellen, bis man "fertig" ist, dann kommt es zum finalen Rendering -> und idR wird genau das massivst Zeit fressen. Hier können die GPUs massiv Zeit sparen. Aber eben nur, wenn die Szenen nicht zu "fett" sind, sonst obliegt das doch wieder nur der CPU und selbst die theoretische Vollbestückung mit 14 GPUs würde genau NULL Performancevorteil bringen.
Und so nutze ich die GPUs idR für die Vorschau-Renderings. Das geht deutlich fixer als auf der CPU. (kannst du dir wohl ähnlich deinem SolidWorks Problem vorstellen -> die GPUs sind bedeutend schneller, dafür ist die Qualität möglicherweise geringer). Das bringt MIR dann Speed beim Arbeiten. -> um das finale Rendern kommt man ggf. aber nicht drum rum. Also muss dort wieder die CPU ran. Mit entsprechender Dauer.
MIR ist das allerdings bewusst, ich habe mich lang und breit mit diesem Problem beschäftigt... Die Frage ist, ob es DIR bewusst ist in deiner Software?
Im Moment hat es den Anschein, als suchst du etwas die Eierlegende Wollmilchsau. Ob das die 960er liefern können, ist halt "fraglich"... Wenn du es aber trotzdem "testen" willst. Dann nur zu :wink:
 
Zuletzt bearbeitet:
> Das kann auch offenbar schon deine aktuelle Lösung. Nur ja anscheinend nicht zufriedenstellend...
Genau und das soll jetzt auf zufriedenstellend Upgegraded werden.

> Welches GPU Modell verwenden denn die Workstations in der Uni genau?
In der uni Workstation ist eine GTX 750 drin, mit 1 GB RAM

> Und was wird mit diesen Workstations an Software abgedeckt?
Solidworks, Matlab, gausian, comsolid, matematika


> Wenn du es aber trotzdem "testen" willst. Dann nur zu
Wen es nur 200€ wäre häte ich das sofort getan, aber 400 ist schon naja, dsa doppelte.

Daher ne andere Überlegung, welche karte wäre mit einer 960er kombinierbar welche billig genug wäre?
 
Stand heute kannst du wenn ich das richtig sehe, mindestens alles ab Fermi mit der 960er kombinieren. Die Treiber sind identisch, sprich das gleiche Paket. Heist also alles ab der 400er Reihe bei NV.
Technisch gesehen kannst du aber auch fast jede erdenkliche Kombination fahren, sofern sich die Treiber nicht gegenseitig behindern. Also auch AMD und NV zusammen usw. Problematisch ist halt, wie HisN oben schon erwähnte, wenn es verschiedene Treiber sind, die gegenseitig nicht funktionieren. -> bei Win7 aber sollte das weniger direkt ein Problem darstellen. -> für die Zukunft, bei Win10 sollte man das aber möglichst vermeiden.
Für einen Test, ob es dir überhaupt was bringt, kannst du natürlich auch ne günstige gebrauchte 750(TI) besorgen. Ich denke aber, du wirst damit nicht sooo weit kommen. Mit der 960er ggf. aber eben auch nicht. Je nachdem, wie hoch die Anforderungen bei hinzuschalten der GPU Beschleunigung im Videotool nun am Ende wirklich sind. Das lässt sich von Außen halt nicht so richtig beurteilen.

Wie oben erwähnt, die Videosoftware nutzt Cuda/OpenCL für das Berechnen. Das ist halt nunmal was anderes als eine 3D Beschleunigung, wie es in SolidWorks der Fall ist.
 
Zuletzt bearbeitet:
> Stand heute kannst du wenn ich das richtig sehe, mindestens alles ab Fermi mit der 960er kombinieren. Die Treiber sind identisch, sprich das gleiche Paket. Heist also alles ab der 400er Reihe bei NV.

Also das wäre aber dann doch die alte quatro die ich habe: PNY NVS 450, 2x 256MB DDR3, 4x DisplayPort (VCQ450NVS-X16-PB/VCQ450NVS-X16-DVI-PB) Preisvergleich | geizhals.eu EU
Die ist ja 450

Kann ich das irgendwie testen, vor dem kauf? z.b. das neueste NVidia treiber packet auf mein PC rauf und wen es noch funtzt dan gehts auch mit einer ganz neuen karte oder?

Zu dem Davinci, laut dem Internet kann die gratis Version nur eine GPU nutzen.
Und das Internet meint auch das mit dem 960er chip 2GN für 1080p video auch locker reicht.

Ich habe zudem auch nicht vor irgendwelchen rechenintensiven filter drauf laufen zu lassen, ich nutze das nur zum schneiden, und evl mal Farbkorrektur.
 
Nein, die Quadro Nummern sind anders... Die 450er Quadro verwendet horn alte G9x Chips... Das ist Jahrgang 2008 oder 2009 oder sowas.
Die neuen Quadros haben aktuell 1000er Nummern, gepaart mit einem Buchstaben. "K" Steht für Kepler -> das ist die vorhergehende Generation zur aktuellen. "M" für Maxwell -> das ist die aktuelle. "P" für Pascal, das ist die kommende...
Dazu kommt, es sind möglicherweise andere Nummern zwischen den "normalen" Quadros und den "NVS" Quadros... Wenn ich das richtig sehe, gibts auch aktuell keine neueren NVS Quadros mehr.

Der Part mit den 400er Nummern bezog sich auf die Gamerkarten. Also alles was Geforce GT(X) 4xx im Namen trägt oder neuer. Also 5xx, 6xx, 7xx und 9xx...


Was deine Videosoftware angeht, das sollte nicht direkt das/ein Problem sein, wenn die Lizenz nur eine GPU ansprechen kann. Wenn ich das vorhin richtig gelesen habe, dann bleibt es weiterhin bei der Trennung zwischen Berechnungsbackend und FrontEnd für die UI. Du willst ja vorrangig die mehreren GPUs für die vielen Monitore. Kannst dich dann entscheiden, ob du entweder die dickere der GPUs für den Hauptmonitor nutzt und dann die Berechnung dort drauf laufen lässt (für SolidWorks und DaVinci) oder der Hauptmonitor an einer kleinen GPU klemmt und DaVinci die andere, dickere dann anspricht... Das sollte wohl denke wählbar sein irgendwo im Menü.
Aber wie gesagt, sei dir bewusst, das gerade so Features wie Farbkorrekturen, irgendwelche Effektfilter usw. "Vorteile" auf der GPU bringen und nach dem Whitepaper auch eben auf der GPU laufen würden... Der Bedarf an Speicher ist im Endeffekt immer vom Material und den Settings abhängig. Und natürlich vom Effekt... Pauschal kann man da nicht sagen, reicht oder reicht nicht.
Bei sechs Monitoren wird dir der DWM (Fenstermanager bei Windows) auch ne Menge VRAM wegfressen. -> bei mir sind das ca. 700-800MB bei drei Monitoren, wenn der Firefox als Browser läuft ;) Du kannst dann natürlich GPU Support im Browser und anderen Tools abschalten, das spart VRAM. -> nur sind wir dann wieder an dem Punkt, ob es nicht sinnvoller wäre, ein anderes GPU Modell zu nutzen, anstatt wieder Kompromisse einzugehen.
 
Für SolidWorks würde sich wohl eine FirePro bzw. Nvidia Quadro lohnen, denn die Software scheint stark von den profi Karten bzw. deren Treiber zu profitieren: https://www.youtube.com/watch?v=xeHei6qmzM0

Da gibt es aber auch nichts bezahlbares (<1k €) mit 6 Anschlüssen außer der AMD FirePro W600, 2GB GDDR5, 6x Mini DisplayPort (100-505746/100-505835/31004-29-40A/31004-29-40R) Preisvergleich | Geizhals Deutschland
Der verbaute Chip ist aber auch nur eine (Consumer) HD 7770, die aktuell gebraucht für 50€ gehandelt wird. Also eher fraglich dafür so viel Geld auszugeben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh