Xeon CPU bei Workstations

Die letzte Frage ging an den i7 mit integrierter GPU. Ob man diese dort deaktivieren kann wenn man eine GPU hinzufügt. Dementsprechend nicht? Und es werden mir dann 2 Grafikkarten angezeigt, die integrierte und die externe?

@Dragontear
Zum Thema Videobearbeitung, ich habe mich schon immer gefragt woran man sehen kann ob und wieviel Kerne ein Programm verwenden kann? Gehen wir als Bsp. mal von der Free Lösung Handbrake aus....
Die iGPU lässt sich in der Regel deaktivieren, ob sie komplett Stromlos ist kann ich nicht sagen, hab noch kein Röntgenscanner. :)
Handbrake ist wie fdsonne schon erwähnt hat eine GUI (GraphicsUserInterface). Der h264 (x264) codec in der neuesten Version, sollte gute Multi-core Unterstützung bieten.
Wie viele Kerne und % Auslastung ein Programm hat, wird meist nicht erwähnt und muss selbst erforscht werden.
Anm.: Auch EFI ist ein BIOS (Basic Input/Output System) ;). EFI ersetzt aber die klassischen BIOS-Kernels. So genug auf die Goldwaage gelegt :d.
Einverstanden. :bigok:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso kann man Xeons nicht übertakten?
Weil das keinerlei Sinn ergibt!
Xeons nutzt man, weil man ein stabiles System will. Übertakten widerspricht diesem Gedanken diametral. Man kann Xeons im Dauerturbomodus betreiben, sofern die Kühlung ausreichend dimensioniert ist.

Der Sockel 2011-3 ist dann der Broadwell und Skylake Sockel welcher ja auch wieder eine Zeit halten sollte?
Sockel 2011-3 wird momentan nur für Xeon E5v3 und die i7 aus der korrespondierenden Serie genutzt. Es wird aller Wahrscheinlichkeit nur noch Broadwell-EP dafür geben und Skylake-EP wird dann wieder einen neuen Sockel nutzen.

- - - Updated - - -

H
Kann mir jemand dazu etwas sagen, wann sich eine Xeon Cpu entsprechend rentieren würde?
Eine Xeon CPU (es gibt übrigens drei Xeon Familien E3, E5 und E7 und demnächst kommen noch die Atom basierten Xeons dazu) lohnt sich dann, wenn man die Features braucht oder in der Lage ist (das trifft in erster Linie auf die E5 und E7 Xeons zu) die CPUs auch auszulasten.

Momentan sind die Grenzen wie folgt:
Xeon E3v3: 4 Cores, HT, DDR3 32GB UDIMM ECC RAM, VT-x, VT-d; 1 Sockel
Xeon E5v2: 12 Cores, HT, DDR3 384GB (L)RDIMM ECC RAM pro Sockel, VT-x, VT-d, VT-c; 1, 2, 4 Sockel, RAS Features
Xeon E5v3: 18 Cores, HT, DDR4 384GB (L)RDIMM ECC RAM pro Sockel, VT-x, VT-d, VT-c; 1, 2 Sockel, RAS Features
Xeon E7v2: 15 Cores, HT, DDR3 1,5TB (L)RDIMM ECC RAM pro Sockel, VT-x, VT-d, VT-c; 2, 4, 8 Sockel, RAS Features

Die Xeon E5 und E7 können z.B. mit passender Firmware auch RAM Mirroring machen, das geht beim E3 grundsätzlich nicht.
 
Interessante Debatte zu den CPUs, ABER:

Videocodierung profitiert mittlerweile stark von Leistung der verwendeten Videokarte und jede Workstation wird diese Aufgaben schneller und besser erledigen, wenn da du da investierst. Das muss nicht die potenteste sein, obere Mittelklasse reicht und die Berechnung geht schneller und sieht (je nach Encoder, bei AME auch reproduzierbar) besser aus(!) als wenn es nur über die CPU gerechnet wird.
Mittlerweile wird nicht nur CUDA sondern auch das OpenCL der AMDs unterstützt und wenn es nur um solche Sachen geht toppen die AMDs nVidia klar im P/L-Verhältnis. Cuda ist z.B. in der aktuellsten Version auch noch nicht mit allen Adobe-Programmen kompatibel, bis diese gepatcht werden.

Die verwendete iGPU bringt dir in dem Sektor eigentlich keine Vorteile, weswegen die Tendenz zu den Xeons schon mal nicht verkehrt ist. Völlig unabhängig von allem, was RAM betrifft. Übertakten ist, wie schon erwähnt, bei einer WS auch nicht das Gelbe vom Ei. Also spar dir das Geld und nimm statt eines i7 den vergleichbaren Xeon. Das gesparte Geld kannst du (inkl. eines kleinen Zuschlags) noch in eine Grafikkarte investieren.

Ein Prozessor ohne HT ist für deine Zwecke quasi ungeeignet, grade die Encoder skalieren schon extrem gut - mit noch steigender Tendenz.
 
Interessante Debatte zu den CPUs, ABER:

Videocodierung profitiert mittlerweile stark von Leistung der verwendeten Videokarte und jede Workstation wird diese Aufgaben schneller und besser erledigen, wenn da du da investierst. Das muss nicht die potenteste sein, obere Mittelklasse reicht und die Berechnung geht schneller und sieht (je nach Encoder, bei AME auch reproduzierbar) besser aus(!) als wenn es nur über die CPU gerechnet wird.
Mittlerweile wird nicht nur CUDA sondern auch das OpenCL der AMDs unterstützt und wenn es nur um solche Sachen geht toppen die AMDs nVidia klar im P/L-Verhältnis. Cuda ist z.B. in der aktuellsten Version auch noch nicht mit allen Adobe-Programmen kompatibel, bis diese gepatcht werden.
Da sollte man aber ganz genau schauen obd as Programm das tatsächlich unterstützt. Die Regel ist es nicht unbedingt.

Die verwendete iGPU bringt dir in dem Sektor eigentlich keine Vorteile,
Gneau genommen bietet grade eine Intel IGP Quick Sync. Je nach Einsatzgebiet kann das ganz sinnvoll sein.
 
Das encodieren über CPU ist aber komischerweise qualitativ noch immer besser als über opencl/cuda. ;)
 
So heisst es zwar tendenziell, aber ich denke nicht dass das die Regel ist,. Kommt darauf an was für ein Programm man nutzt. Schließlich verrrechnen sich OpenCL bzw. Cuda ja nicht, oder?
 
Da hast du recht. Ich habe aber sehr viel zum encodieren und habe cuda sowie opencl durch mit diversen Programmen. Es kam mir jedes mal so vor als ob die mit CPU encodierten Videos etwas schärfer waren, bei gleichen settings. Schneller ging es per CPU auch.
 
Zumindest in der CS6 Version des AME ist das CPU-Rendering qualitativ schlechter. Reproduzierbar.
Kann man vmtl. auch nicht verallgemeinern auf alle NLEs.

Wenn es über dir GPU länger dauert, dann ist wohl etwas nicht richtig konfiguriert?
 
Denke ich nicht. Kommt drauf an welche CPUs zum Einsatz kommen. Mit einem großen multi CPU system kann auch eine Grafikkarte nicht mithalten. :o
 
Denke ich nicht. Kommt drauf an welche CPUs zum Einsatz kommen. Mit einem großen multi CPU system kann auch eine Grafikkarte nicht mithalten. :o

Naja, das muss schon im richtigen Verhältnis stehen. Dass eine 1000 Euro CPU (oder eine 20.000 Serverfarm) besser als eine 100 Euro GPU ist, ist schon verständlich.
GPUrendering hat aber definitiv seine Einsatzgebiete. Wenn du eine angemesene Graka drin hattest und sie trotzdem langsamer als die CPU brauchte, dann stimmt da doch irgendwas nicht...

Sicher dass die Qualitätsunterschiede beim Verwenden von Cuda/OpenCL auftraten? Und nicht eventuell beim Einsatz der Hardwareencoder/decoder? Diese haben sicher zahlreiche Optimierungen drin und sind nicht für perfekte Qualität ausgelegt, dafür sind sie nochmals viel schneller. Intel's Quicksync ist so ein Beispiel für Hardwareencoder und wenn ich das noch richtig im Kopf habe, kann ein Haswell i7 damit rund 4 mal schneller rendern als mit der CPU allein.
 
Zuletzt bearbeitet:
Naja, das muss schon im richtigen Verhältnis stehen. Dass eine 1000 Euro CPU (oder eine 20.000 Serverfarm) besser als eine 100 Euro GPU ist, ist schon verständlich.
GPUrendering hat aber definitiv seine Einsatzgebiete. Wenn du eine angemesene Graka drin hattest und sie trotzdem langsamer als die CPU brauchte, dann stimmt da doch irgendwas nicht...

Warum ist das verständlich?
Vergleicht man die Rohleistung der CPU und GPU, wäre es eben nicht verständlich ;)
Das Problem ist, die Rohleistung kannst du hier nicht ranziehen... Es ist eben nicht grundlos so, das GPUs nicht überall zur "Beschleunigung" taugen. Und da fallen zum Teil auch Video Encoder mit rein... Bzw. nicht der Encoder als solches, viel eher die Filter Settings und das notwendige Beiwerk.

Sicher dass die Qualitätsunterschiede beim Verwenden von Cuda/OpenCL auftraten? Und nicht eventuell beim Einsatz der Hardwareencoder/decoder? Diese haben sicher zahlreiche Optimierungen drin und sind nicht für perfekte Qualität ausgelegt, dafür sind sie nochmals viel schneller. Intel's Quicksync ist so ein Beispiel für Hardwareencoder und wenn ich das noch richtig im Kopf habe, kann ein Haswell i7 damit rund 4 mal schneller rendern als mit der CPU allein.

Ja ganz sicher ;)
Die Frage ist, was für BQ nimmst du als Basis... Man kann heute relativ entspannt auf der GPU oder auch auf mehreren GPUs via Software Videos umwandeln. Das geht sogar schon ne ganze Weile. Stichwort "Badaboom" beim NV.
Das Problem ist halt, du setzt idR beim Umwandeln der Videos gewisse BQ als Maßstab. Nimm dir ne FHD oder UHD Aufnahme, von mir aus selbst erstellt und gestochen scharf und wandelst das möglichst verlustfrei in ein gängiges Format (x264) auf der CPU um. Du wirst wohl bei entsprechend hohen BQ Settings keine 10 FPS mit ner OCed Quadcore CPU heute erreichen. Je nach Codec und Befehlserweiterung.
Die GPU wird dort häufiger bei gleicher BQ, sofern überhaupt anwendbar bei mangelnden/nicht verfügbaren Filtern, nicht schneller sein, einfach weil die ALUs der GPU einfach "dumm" sind. Es sind viele, aber sie verstehen halt ein SSE oder ähnliches. Es wird also entweder emuliert oder es wird sich mit Tricks geholfen das Programm auf der GPU lauffähig zu machen.

Es gibt stand heute wohl keinen wirklich taugendes Programm mit GPU Beschleunigung für x264. Bei anderen Codes könnte das anders ausschauen, aber will man sich womöglich Exoten antun?
Oben wurde bspw. Handbrake erwähnt. Handbrake baut bspw. auf ffmpeg auf, wenn ich das richtig sehe. Und ffmpeg ist atm nicht GPU beschleunigt. Es gibt ein paar Ansätze, aber die Zeit sinkt einfach nicht, dass es sich lohnt. Und einige der oben genannten Geschichten gehen einfach stand heute nicht mit der GPU. Heist, da muss wieder die CPU ran -> was die Zeit wieder runterzieht. Oder man lässt es weg -> dann besagte schlechtere BQ.

Anders schaut das aus, wenn es um 3D Rendering geht... Aber das scheint hier ja nicht Thema zu sein.
 
So heisst es zwar tendenziell, aber ich denke nicht dass das die Regel ist,. Kommt darauf an was für ein Programm man nutzt. Schließlich verrrechnen sich OpenCL bzw. Cuda ja nicht, oder?

OpenCL ist einmal in der Genauigkeit für Fließkommazahlen limitiert (nur aktuelle Grafikkarten unterstützten 64 bit, ältere nur 32 bit). Außerdem beträgt die Performance mit 64 bit nur ein Bruchteil der Performance mit 32 bit. Ich nehme an, dass die meisten Encoder derzeit noch mit 32 bit Genauigkeit arbeiten. Auch ist mit OpenCL programmiertechnisch einfach nicht alles möglich, was mit einer CPU möglich ist, keine Ahnung inwieweit sich das auf das Encodieren auswirkt.
 
So heisst es zwar tendenziell, aber ich denke nicht dass das die Regel ist,. Kommt darauf an was für ein Programm man nutzt. Schließlich verrrechnen sich OpenCL bzw. Cuda ja nicht, oder?
Musst mal mit dem neuen VLC Player ein Blue Ray Video (.ts) mit dem h264 Profil umwandeln, bei mir dauert das ~50% der Original Laufzeit @ CPU only.

Bei Workstations ist meist ECC Speicher verbaut der nicht nur Fehler erkennt sonder auch korrigiert. (MultiBit-ECC)
Die CPU Caches sind schon lange größtenteils mit ECC ausgestattet, bei der GPU kostet das gegenüber Desktop Spieler GPUs nochmal mehr Geld. (Tesla & FirePro).

Es gibt noch Double Precision, da wird jede Berechnung doppelt ausgeführt und aus dem Ergebnis eine Prüfsumme erstellt, diese wird dann Verglichen.
 
möchte mir Ende des Jahres wenn DDr4 günstiger am Markt zu haben ist einen neuen Rechner zulegen.
Wieso sollte Ende des Jahren DDR4 günstiger sein? So wie der Euro zum Dollar fällt, wird es eher viel teurer sein, da HW bekanntlich in USD gehandelt wird und es würde mich nicht wundern, wenn wir noch dieses Jahr die Parität des Euro zum Dollar sehen würden, was dann alleine eine 20% Preiserhöhung bedeuten würden.

wann bekanntlich DDR4 mit Broadwell einzug in den MAinstreambereich findet...
Broadwell behält den S. 1150 und die 90er Chipsätze (vermutlich läuft es dann mit BIOS Update auch mit den 80er Chipsätzen). DDR4 wird es im Mainstream frühestens mit Skylake geben, wobei Skylake dann beide Memorycontroller (also für DDR3 und DDR4) haben wird (wie auch die Heswell-E, nur ist dort der für DDR3 deaktiviert) und die Mainboard Hersteller kann dann vermutlich entscheiden ob es DDR3 oder DDR4 unterstützen wird. Wie die Entscheidungen ausfallen werden und wie hoch der Marktanteil von DDR4 zum Jahresende sein wird, kann man also schwer vorhersagen.
 
Wie ich gerade durch das Recherchieren entdeckt habe, kommt DDR4 Speicher zu vernünftigen Preisen wohl erst nächstes Jahr in frage. So lange möchte ich dann doch nicht warten. Was ich aber möchte ist den neuen Broadwell der ja bald kommen sollte.
Deswegen, dachte ich noch an DDR3 Ram zu nehmen. DDR4 ist wohl nicht viel schneller?
 
Deswegen, dachte ich noch an DDR3 Ram zu nehmen. DDR4 ist wohl nicht viel schneller?
Zur Zeit noch nicht.
Allerdings ist das so dass die Sockel 2011-3 Platform, quadchannel unterstützt während die Mainstream-Sockel (auch von Broadwell) nur Dualchannel unterstützen. D.h. die Bandbreite ist, wenn benötigt, bei der DDR4 Platform, deutlich höher.
Ob dir das tatsächlich was bringt, hängt wiederum wieder von den Anwedungen ab.
 
Wie ich gerade durch das Recherchieren entdeckt habe, kommt DDR4 Speicher zu vernünftigen Preisen wohl erst nächstes Jahr in frage. So lange möchte ich dann doch nicht warten.
Derzeit ist es doch gar keine Frage ob DDR3 oder DDR4, man muss sich zwischen dem S. 2011-3 oder dem S. 1150 entscheiden und bei dem Mehrpreis für Boards und CPUs für den S. 2011-3 kommt es auf die vielleicht 10% mehr für das RAM gar nicht wirklich an.

Wenn wir Servern reden, dann reden wir auch von ECC RAM und DDR4 ECC gibt es ab 10,91€/GB, lieferbares DDR3 ECC auch kaum weniger als 10€/GB.

Was mit Broadwell und Skylake genau kommt ist noch unklar und ebenso wann diese kommen. Klar ist nur, dass Broedwell weiter im S. 1150 mit den aktuellen Chipsätzen und daher auch DDR3 RAM kommen wird und wohl recht zeitnah auch Skylake kommt. Bei Skylake wird es wohl DDR3 und DDR4 geben, was konkret wird am Ende wohl der Boardhersteller entscheiden.
 
Also mein xeon und mein mobo unterstützten beide übertackten über multi, habe das jetzt mit 4 GHz laufen, normal wären 3.5
 
Dann hast du keinen Xeon! ;) xeons haben keinen offenen multi! ;)
 
Wieveil RAM würdet ihr empfehlen für ein Virtual Maschine?
Hintergrund ist folgender, das ich andere BS in der VM testen möchte. Was benötige ich dazu?
 
Dann hast du keinen Xeon! ;) xeons haben keinen offenen multi! ;)

Jein ;)
Die Xeons die sich den jeweiligen i7 Modellen gleichen, haben einen offenen Multi ;) Zumindest die 1600er Reihe. Bei den 2600ern glaube ich geht das allerdings nicht.

Der Vorteil daran ist/wäre, man hat ECC Unterstützung und den offenen Multi. Wenn es um ECC geht, wäre sowas ggf. eine Option.
Bin mir allerdings nicht ganz sicher, ob das auch für die v3 Modelle gilt. Bei den v2 und ich glaube auch v1 Versionen ging das wirklich ;)

Siehe dazu bspw. hier:
 
Also ich habe v2 Modelle ohne Ende hier gehabt. Nicht einer hatte offene multis. Wäre mir daher noch immer neu... und glaube ehrlich gesagt auch nicht ganz dran. Es Modelle gab es mit offenen multi. Aber die Verkaufsversion nicht.
 
Geht mir ähnlich o_O Sicher dass es OC über den Multi war?
Ich erinnere mich noch an ein spezielles EVGA board das den Baseclock der CPU von den Taktraten der anderen Komponenten aufgespalten hat - so dass man darüber die CPU übertakten konnte obwohl sie das eigentlich garnicht unterstützte.
 
Ja es ist/war OC über den Multi... Und bei den v2 Modellen muss es dann der E5-1650v2 sein -> siehe dazu den Screen. Das Ding läuft mit 47er Multi bei 4,7GHz.

Ob das allerdings bei allen Revisionen geht/ging, kann ich nicht sagen... Das es ging/geht, steht aber absolut außer Frage. Und es sind natürlich keine ES Modelle, sondern Retail Ware... ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh