Prof. Workstation für Testumgebung Softwaredeployment mit Desktopvirtualisierung

H_M_Murdock

Urgestein
Thread Starter
Mitglied seit
29.10.2007
Beiträge
8.759
Ort
München
Ich will großes schaffen und brauche dafür großes oder genauer gesagt passend dimensioniertes Arbeitsgerät.

Dabei stellte sich mir jetzt eigentlich konkret die Frage nach einem passenden Nachfolger für mein aktuelles Arbeitsgerät, letztendlich möchte ich hier aber nicht nur die passende SSD für meine VMs sondern in diesem Kreis wo ja einige erfahrene IT-Spezialisten unterwegs sind die teilweise sicherlich ähnliche Aufgabenstellungen zu bewältigen haben direkt mal meine komplette Arbeitsumgebung zur Diskussion stellen.
Achtung: Es geht um den Einsatz in einer professionellen Produktivumgebung und ich kann bei der Beschaffung nicht zwingend genau ein bestimmtes Produkt beschaffen sondern muss ggf. Eckdaten spezifizieren um zu bekommen was ich will. Darauf bitte Rücksicht nehmen.

Vorab eine Warnung: das wird etwas viel Text, ich werde mir Mühe geben ihn vernünftig lesbar zu strukturieren.

Aufgabenstellung
Ich habe die Aufgabe diverse CAD-Produkte der Firma Autodesk, stellvertretend sei hier AutoCAD Architecture genannt für das Roll-Out in einem großen Unternehmen vorzubereiten.
Dabei geht es nicht nur darum dem Installer die richtigen Parameter zu impfen sondern vor allem eben auch darum dass die Installation der Software in der Summe recht häufig abläuft bis das gewünschte Ergebnis erreicht ist. Außerdem sollen auf der Umgebung auch einfachere inhaltliche Tests im Programm vorgenommen werden können (3D Beschleunigung in einem gewissen Maß ist ihr Pflicht!).

Aktuelle Situation / Umgebung
VMware Workstation 6.5 auf Windows 7 x64 auf folgender Hardware:
Fujitsu Celsius R670
+ 2x Xeon W5580
+ 24 GB RAM
+ Nvidia Quadro FX 3800
+ 4x 300 GB 15k SAS HDD (Einzellaufwerke, 2 davon dienen als Arbeitsvolumes für die VMs)
+ 4x GBit LAN Anbindung

Die Testsysteme auf denen die eigentlichen Tests bzw. auch die Entwickung des Deployments letztendlich statt findet laufen virtuell. Alles Windows 7 x64 (= unsere Standardumgebung auf die das ganze dann auch ausgerollt wird), es sind je 4 GB RAM und 2 CPU Cores zugewiesen, pro VM werden ca. 50 GB Storage benötigt.
Es laufen auch mal mehrere Testsysteme zeitgleich (im Regelfall 2-4), diese sollen grundsätzlich auch anderen Kollegen Remote zur Verfügung stehen (geht in VMWare Workstation ja recht gut über VNC).

Problem in der aktuellen Situation
Den Platten geht einfach der Saft aus, außerdem läut die Maschine altersbedingt teilweise nicht mehr ganz rund, Garantie ist rum also > Neubeschaffung.

Wie geht's weiter?
Im "einfachsten" Fall bleibt die Arbeitsweise im Prinzip wie sie ist, ich besorg eine neue Workstation: Single Socket 2011 mit Hexacore + 32 GB RAM + 2-3 SSDs sollte reichen. An CPU-Leistung hat's nie gefehlt, an absoluter Power hat mein i7-3930k @home eh mehr Power als die beiden Xeons zusammen.
Also keine 2 Sockel mehr, ggf. dann evtl noch n einzelner 8-Core aber ich denke das ist eigentlich schon zu viel.
Storage auf jeden Fall SSD. Die Frage ist: SATA oder lohnt sich ggf. sogar schon PCIe? Jede gesparte Minute zählt.
32 GB RAM sind inzwischen günstig und definitiv genug, aufrüsten kann man allemal. Die 24 GB hab ich selten ausgeschöpft.
GPU wird für die Virtualisierung eher keine Rolle spielen (oder doch?), da aauf der phyischen Maschine gelegentlich mal ein CAD-Programm auf gehen wird wird's halt irgend ne Quadro werden.

Die Alternative wäre ggf. eine Lösung basierend auf VMWare ESXi o.ä., hier besteht aber das Problem dass die Grafikbeschleunigung in etwa bei 0 ist, was beim reinen Deployment kein Thema ist wird spätestens beim inhaltlichen Test zum dicken Problem. Unter VMWare Workstation hab ich das Problem weniger.
Was bei VMWare Workstation auch machbar wäre ist dass der Kollege über eine eigene lokale VMWare Workstation Instanz Zugriff auf die VM bekommt.

Was meint ihr?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich kann nur was zu den SSDs sagen, PCIexpress oder SATA. Der Unterschied könnte sich bei dir durchaus bemerktbar machen, ABER was bist du bereit auszugeben. PCIexpress SSDs in entsprechender Größe die auch wirklich Vorteile bringen sind mit unter sehr sehr teuer
 
Ich denke mal, der Speed der Disks ist lösbar, wenn du entweder SSDs (wobei ich das irgendwie nicht 100% empfehlen würde) nutzt, oder einfach die Anzahl erhöhst.

Mein Favorit wäre der ESXi. Mit dem 5.1er kannst du analog zur VMware Workstation ne 3D "Beschleunigung" für die VM aktivieren. Wobei ich mir gar nichtmal ganz sicher bin, wie das mit der 6.5er Version ausschaut. In der 8er gehts definitiv, die 9er habe ich bis dato noch nicht. -> kommt noch, denn 2012 Server läuft nicht in der 8er mit installierten VMware Tools.

Vorteil ist halt, du gehst vom etwas ressourcenfressenden Windows als Host OS weg und hast native den Speed in der VM durch den ESXi.
Ggf. wäre sogar die Option sinnvoller, wenn du anstatt direkt nur SSDs auf 15k Disks bleibst, sagen wir vier im Raid 10. Den ESXi auf ein USB Modul (läuft und ist empfehlenswert) und dazu einfach einen SSD Cache als Diskcache für die Platten mit einsteckst. (geht im ESXi)
Somit hast du bei Random Zugriffen deutlich gesteigerten Speed. Hast aber nicht die SSD Problematiken in Sachen Lebensdauer, Schreibzugriffe pro Zelle usw.
Speziell wenn es nicht Win/Linux OSen sind, ist nicht 100% geklärt, wie es in Sachen TRIM über die Laufzeit ausschaut. TRIM wird im ESXi nicht funken, meine ich... Somit werden die Speicherzellen ggf. ungünstig beschreiben und die Ausfallwarscheinlichkeit steigt. Dazu sind SSDs eben schweine teuer.
Speziell wenn du von 50GB pro VM ausgehst, bei 2-4 VMs die gleichzeitig laufen, heist das mindestens 200GB. Dazu noch Reserve für gerade nicht aktive VMs und ein paar ISOs bzw. sonstige Daten usw.
Da kommt denke ich schnell mal auf 500GB was zusammen.


PS: ggf. wäre auch eine Trennung denkbar.
Sprich diese Deploimentgeschichten getrennt vom Inhaltstest.
Denn für letzteres könnte man via 2008 R2 mit RemoteFX auch ne bessere GPU Beschleunigung erzeugen. (wird meine ich sogar von AutoDesk unterstützt zum Teil)
Erste VM Geschichte könnte dann via fixem ESXi fast Performanceverlustfrei auf eine andere Hardware.

Zugriff auf die VMs bekommst du ja im ESXi auch native über mehrere Clients.

Also ich kann nur was zu den SSDs sagen, PCIexpress oder SATA. Der Unterschied könnte sich bei dir durchaus bemerktbar machen, ABER was bist du bereit auszugeben. PCIexpress SSDs in entsprechender Größe die auch wirklich Vorteile bringen sind mit unter sehr sehr teuer

Dafür ist das idR aber auch Enterprise Equipment ;)
Es gibt auch günstigere Versionen. Die fast analog zu den SATA Desktop SSDs im Preis mit der Größe skalieren.

Ist halt eine Frage der Ansprüche. Ich persönlich würde im produktiven Livesystem aktuell wenn SSD nur Enterprise SSDs nutzen.
Und da kommen egal ob SATA/SAS oder PCIe Version schnell mal mehrere tausend Euros für nichtmal 1TB Kapazität zusammen. Und es ist ggf. nichtmal ne Redundanz mit bei ;)
 
Zuletzt bearbeitet:
Am Aufpreis für ne PCIe / Enterprise SSD solls nicht liegen, wenn die Maschine insgesamt ~6000-10.000 EUR kostet ist das durchaus im machbaren Bereich.
Da die VMs in dem Fall ja wirklich viel unter Schreiblast stehen halte ich die Verwendung von Enterprise SSDs auch durchaus für zu rechtfertigen.

Das Problem das ich bei PCIe SSDs sehe ist dass oft ein gewisser Airflow vorausgesetzt wird, FusionIO gibt idr. 300 LFM an, ich kann das nicht abschätzen. Die Fujitsu Workstations die wir über Rahmenverträge beziehen können haben aber idr. ne ganz gute Gehäusebelüftung.
Interessante Kandidaten wären grundsätzlich wohl das FusionIO Drive II oder die Intel 910.

Speicherplatzmäßig wäre ich auch so auf ~500 GB gekommen, für ISOs und so Kram tut's auch ne 2 TB 7.2k HDD das muss nicht zwingend auf die SSD(s) mit drauf.

Die angesprochenen PCIe SSDs lassen sich sowohl unter Windows als auch mit dem ESXi nutzen, insofern sehe ich die Lösung mal für beide Fälle (VMWare Workstation auf Windows oder ESXi) als interessant an.

Sicherlich kann man mit einer HDD-basierten Lösung leben aber im Prinzip geht's mir darum die Dauer der Installationen so weit wie möglich zu drücken.
Und da geht die Bandbreite für mich dann irgendwo von der Micron C400 (die verbaut Fujitsu oft in den Workstations) mit 512 GB bis zur genannten Intel oder FusionIO PCIe SSD.

Redundanz ist nicht das größte Problem, die hab ich jetzt auch nicht. Ich würde ins System halt noch ne Platte mit rein hängen auf die dann regelmäßig gesichert wird, ggf. das ganze auch über's zentrale Backup mit erschlagen.
Alles was an wichtigen Arbeitsständen dabei raus kommt kommt eh direkt auf unseren Fileserver der entsprechend gesichert wird, wenn die VMs mal weg sind hab ich die über die Softwareverteilung in 1-2h neu aufgesetzt.

Beim ESXi 5.1 scheitere ich halt IMHO an der Grafik. Ich hab hier ne kleine Maschine damit stehen an der ich das durchaus mal grundsätzlich evaluieren kann, aber meiner Erfahrung nach ist allein schon die Bedienung der VMs über den vSphere Client vergleichsweise zäh, ich werd mich aber direkt mal dran setzen und mit ner Win7 VM gegentesten was da machbar ist.

Normalerweise gehe ich wenns ums fernsteuern von VMs aufm ESXi geht den Weg über RDP, das geht auf der normalen Windows GUI ganz schön aber "GPU-Intensiv" halt gar nicht.

Prinzipiell wäre es denke ich schon sinnvoll fürs Deployment entwickeln und die inhaltlichen Tests das selbe System einzusetzen. Es geht beim inhaltlichen idr auch um einfachere Dinge und wenn das Deployment zu passen scheint wird's lokal bei den Kollegen installiert, aber eigentlich würde ich mir die Arbeit natürlich gern sparen und den Kollegen die VMs für ihre inhaltlichen Prüfungen zur Verfügung stellen damit ich mir das ständige heruminstalliere an den produktiv eingesetzten Arbeitsplätzen sparen kann.

Was natürlich richtig ist ist dass der ESXi gerade wenns um viele VMs geht die beste Performance liefert, da hält VMWare Workstation nicht mit. Wobei ich das auf meiner aktuellen Maschine bis zu ~6-8 VMs noch ganz gut handeln kann.
Ne aktuellere Version von VMWare Workstation lässt sich natürlich auch kaufen wenn's grundsätzlich dabei bleibt.
 
Also ich merke keinen Unterschied zwischen ner vSphere 5.1er Konsole bei ner Windows VM mit installierten Tools und der VMware Workstation VM und installierten Tools.

Wichtig ist, niedrige Latenz im LAN. Sprich 1Gbit LAN und <1ms...

PS: so ne PCIe SSD kost dich aber alleins schon gut und gerne mal 2-4k Euro :fresse:
Die Idee wäre halt auf HDDs mit 15k zu bleiben und nen fetten SSD Cache zu nutzen, der dir die Schreib/Lesezugriffe zwischenpuffert. Ist der groß genug, schaffst du halt sehr sehr viele sequenzielle Datenraten am Stück. Was eben den Vorteil hat, das die Performance der Disks massiv steigt. Auch subjektiv.
Diese SSD Cache Option ist aber nur was für den ESXi. Windows selbst kann das glaube ich nicht händeln. Bzw. es werden zwingend Chipsatzfeatures vorrausgesetzt. S1155 Z77 Chipsatz kann das glaube ich. Ob das die S2011er Workstation/Serverchipsätze auch können -> kein Plan. Auf den Desktop Brettern kann man idR mSATA SSDs als Cache nutzen.



EDIT: mal was ganz ausgefallenes...
Ggf. wäre auch ne fette RAM Disk interessant.
Beispielsweise ne 256-384GB Dual CPU Maschine (ist halbwegs bezahlbar der RAM). Dazu kleine Quadcore CPUs (dürften dicke langen) mit 16GB reg. ECC Riegeln.
Gerade bei dem Preisrahmen wäre das ne Option.

Da kannst du dann das Host OS auf ein Raid 1 von zwei Platten packen. Und den VM Storagepool komplett in den RAM. (4x50GB passen mit 256GB dicke. 200GB RAM Disk + Rest als RAM nutzbar)
Aber keine Ahnung, ob du da ne Celsius Workstation für nutzen kannst. Ggf. tuts aber auch ne RX200S7 ;) Da bekommst du 384GB mit 16GB Modulen rein.
Und gegen so ne RAM Disk kannst du jegliche SSDs gleich wieder in die Tonne treten -> das ist wirkliche! Performance.
 
Zuletzt bearbeitet:
Der ESXi kann auch kein SSD Caching, das was du meinst ist vermute ich mal der "Host-Cache", das ist nur Auslagerungsspeicher wenn der RAM ausgeht.

Die Preise für die PCIe SSDs sind mir bekannt, ich hab mich da gestern noch etwas umgeschaut.
Die FusionIO Modelle sind enorm schnell aber auch mit Abstand am teuersten. Fujitsu verkauft die teilweise selber als Zubehör zu den Servern, die Listenpreise liegen da bei um ~14k EUR. Nicht Fujitsu-gelabelt sind die Teile idr. etwas günstiger.
Die Intel 910 ist vergleichsweise günstig, unter 3500 EUR fürs 800 GB Modell.
Die Frage die ich mir stelle ist halt ob so ne PCIe SSD mit ~25 Watt in so ner Workstation nicht ggf. zu wenig Kühlung erfährt weil die ja idr. eher für den Serverbedarf ausgelegt sind. Von FusionIO gibt's auch eine mit Aktivkühlung (IOFX), aber nur mit 420 GB und ich bin nicht sicher ob die schon käuflich erhältlich ist. Müsste ich mal beim Händler fragen.

RAMDisk ist prinzipiell nicht die schlechteste Idee aber letztendlich doch mit relativ viel Aufwand verbunden. Die Daten müssen ja dann immer wieder komplett auf die Platte geschrieben bzw von Platte gelesen werden. Ich hätte eigentlich lieber die Möglichkeit nahtlos loszulegen. Außerdem muss ich wenn ich so viel RAM verbauen will dann schon die Celsius R920 nehmen, da hab ich dann 16 DIMM Steckplätze die wie du ja schon richtig gesagt hast nur mit 2 CPUs voll nutzbar sind.

Rein Listenpreistechnisch kostet mich dann die Celsius R920 mit 256 GB RAM ca das doppelte von der M720 mit 32 GB, beides ohne PCIe SSD.
Das sind ca. 5k EUR vs gut 11k EUR. Da ist die PCIe SSD für die kleinere Maschine dann doch noch drin.

Die Lösung mit dem ESXi wollte ich noch testen was die responsiveness angeht, ich hab hier ne entsprechende Maschine stehen wo ich das mal testen kann. Die ist nicht schnell aber um zu testen wie gut der Desktop beim ESXi 5.1 reagiert langt's ja.
Frage an der Stelle: die aktuellen Versionen von VMWare Workstation erlauben ja IMHO auch eine Einbindung von VMs die auf einer vSphere Umgebung laufen in die GUI von VMWare Workstation. Wie gut funktioniert das? Ist das toll wenn man ohnehin mit VMWare Workstation am schaffen ist oder eher doch nichts?

EDIT:
gerade die Responsiveness von AutoCad Architecture 2013 unter Win7 in ner VM am ESXi 5.1 getestet (VSphere Client, 3D Beschleunigung in der VM aktiv, VMWare Tools aktuell), Ergebnis: alles soweit gut solang's nicht in den Zeichenbereich geht, dann wird's unzumutbar.
 
Zuletzt bearbeitet:
Stimmt du hast recht, hab gerade nochmal in meinen Buch geguckt, das mit dem SSD Cache hab ich irgendwie verwechselt :fresse:

Thema RAM Drive. Also so ganz uninteressant ist das nicht.
50GB Daten schaufelst du bei realistischen 200MB/sec sequenziel in nichtmal 5min aus dem RAM Drive auf ne Disk.

Je nachdem, was du mit den Teilen vor hast, dürfte aber ne reine Zeiteinsparung von 10min (je für fürs rauf und runter kopieren) über die Laufzeit der VM aber durchaus rausholbar sein.
Und wenn du den Host nicht bootest, brauchst du ja auch kein rauf und runter kopieren, wärend das Ding rennt (und da du oder andere drauf arbeiten)

Denn wenn man so will hast du ja auch bei ner SSD oder HDD basierten Storagelösung das selbe Problem. Soll es ne neue VM werden, musst du genau so erst die Daten da rauf packen.


PS: wie wäre es mit ner RX200S7?
Da hast du 12 DIMM-Slots pro CPU. ;)
Wenn mich nicht alles täuscht, haben unsere beiden irgendwas im Bereich 6k rum gekostet (pro Stück, aber nur einen E5-2690 dafür aber 192GB)
Die Dinger sind sogar bedingt Bürotauglich. Zumindest kein Vergleich mehr zu S3/S4 RXen :fresse:
 
Der RX200S7 ist schon ne coole Kiste, sowas kann sein Potential in Verbindung mit dem ESXi aber denke ich am besten entfalten.
Ramdisk unter ESXi wird aber wohl nicht gehen nehm ich an?

Ich hab mir hier auf der Maschine mal VMWare Workstation 9 installiert.
Lokal ausgeführte Win7 VM vs Win 7 VM vom ESXi 5.1 der nebendran steht.
Im AutoCAD tatsächlich was zu machen ist bei beidem ein Graus. Heißt im Zweifelsfall dass die inhaltlichen Tests nicht auf der selben Maschine passieren werden.
Echte 3D Beschleunigung in der VM unter ESXi soll es nur zukünftig mal unter View geben und das werden wir uns sowieso nicht anschaffen.

Im Schnitt ist für mich das sinnvollste weil vielseitigste aber wohl doch die Workstationlösung, da kann ich mir ne dicke GPU für alles was nativ rennt rein packen und mit VMWare Workstation bin ich bisher sehr gut gefahren.
Dann muss ich mir nur noch überlegen was ich für ne SSD rein will. PCIe wäre fein, die normalen non-Enterprise SATA Lösungen sind den müden SAS HDDs allemal überlegen, da stellt sich halt die Frage wie zuverlässig das auf Dauer ist. Aber man hat ja Garantie auf den Kram (Vor-Ort!).

Hat hier jemand gezielt Erfahrung mit PCIe SSDs in Workstations?
 
Ob Serverblech oder Workstation Tower ist ja wurscht.
Die RX200 und 300 dürften sich preislich nicht so extrem unterscheiden. In beide bekommst auch auch ne GPU rein. Bei ersterer halt nur SingleSlot wegen 1HE.

Ich würde aber so ein Blech vorziehen, weil es irgendwie für mich den Eindruck macht, das das P/L rein auf die interne Hardware gesehen irgendwie besser ist.

Auf beiden läuft native natürlich auch ein Windows. Ob Server oder Client -> ebenso wurscht.
Somit wäre die Methode natürlich auf beide Versionen anwendbar.

RAM Disk unter ESXi geht meine ich nicht... Es sei denn, du bastelst dir da was. Mit Defaultmitteln aber wohl nicht machbar.
Wäre aber mal interessant ob da sich mal jemand dran gesetzt hat. RAM Disk Software, die vor dem OS Boot schon ne virtuelle RAM Disk anlegt, gibts ja. Das müsste man nur vor den ESXi Bootloader packen und das virtuelle Drive dann irgendwie mit nem virtuellen SATA/SAS Treiber dem ESXi melden.


PS:
muss es denn dediziert VMware sein?
Ich weis, blöde Frage :fresse: und ich würde es aus dem Bauch raus auch mit Ja beantworten. Aber Hyper-V V3 (2012 Server) ist gar nicht mal soooo schlecht.
Vorteil, du kannst mit ner Lizenz für den Host die Hyper-V Rolle betreiben (für die VMs) und kannst gleichzeitig wenn mich nicht alles täuscht RemoteFX bei ner gesteckten DX11 GPU aktivieren für eben jene Inhaltstests.

Wobei das ehrlich gesagt auch erst Schritt zwei ist. Im ersten Schritt muss die Hardwarebasis erstmal nen Rahmen bekommen. Erst dann die Software.
 
Problem am Server ist halt immer dass man keine anständige GPU rein bekommt.
Mangels PEG Slot.
Standardmäßig dürften nichtmal PCIe Stromversorgungen vorhanden sein.
Erst im RX350 werden auch die Tesla und Xeon Phi Beschleuniger angeboten, für die gibt's dann auch passende Kabelsätze zur Stromversorgung, allerdings weiß ich nicht wie viel Saft da die PCIe Slots hergeben.

Ne ordentliche GPU im Server ist also bestenfalls ne "Bastellösung".

Ich favorisiere klar die SSD Lösung in der Workstation, da hab ich mit der GPU am wenigsten Stress. Dann stellt sich mir dann nur noch die Frage nach der passenden SSD und der Softwareumgebung, wobei ich mit VMWare Workstation bisher wirklich nicht schlecht gefahren bin.

Hyper-V klingt prinzipiell interessant vom Ansatz her, wegen der GPU-Beschleunigung. Kann das auch so schön mit Snapshots umgehen wie VMWare? Da kann ich hier allerdings leicht Probleme mit der Softwarebeschaffung bekommen, das ist hier bei uns alles recht strikt und für jemanden aus meiner Position heraus sehr unschön zu handhaben / rechtfertigen geregelt.
 
An sowas hatte ich auch schonmal gedacht, gerade wenn der Preis eine größere Rolle spielt kann das durchaus interessant sein.
Hast du praktische Erfahrung mit sowas?

EDIT:
Wenn ich die Preise seh ist ne Intel 910 direkt interessant :d
 
Zuletzt bearbeitet:
Hyper-V klingt prinzipiell interessant vom Ansatz her, wegen der GPU-Beschleunigung. Kann das auch so schön mit Snapshots umgehen wie VMWare? Da kann ich hier allerdings leicht Probleme mit der Softwarebeschaffung bekommen, das ist hier bei uns alles recht strikt und für jemanden aus meiner Position heraus sehr unschön zu handhaben / rechtfertigen geregelt.

Snapshots gehen natürlich... Ist halt alles etwas anders aufgebaut. Ansich aber händelbar, wenn man es einmal gemacht hat.

Übrigens, wenn du VMware Workstation mit shared VMs im Einsatz hast, verlierst du ganz paar Features ;)
Zumindest schriebst du oben ja, das du ggf. diese Methode nutzen willst um anderen Zugriff auf die VM zu geben.
Auch benötigt jeder Client eine Workstation Lizenz.


PS: ja, das mit den GPUs ist so ne Sache. Die Große Preisfrage ist, brauchst du ne GPU mit xxx huntert Watt verbrauch?
Vor allem, wenn es nur um kurze Tests geht. Es gibt ja auch kleine Quadro/FirePro Karten, teils gar ohne dedizierte Stromversorung. Das geht dann schon...

Wichtig bei nem RX300, du musst die Ausführung mit FullHigh Slots nehmen (via Risercard). Die gibts noch als Ausführung mit halber Höhe.
Die RX200 hat sogar nen 16x PCIe Slot mit 16er Anbindung, wenn mich nicht alles täuscht.
Mit ner SingleSlot GPU geht das definitiv...

Ne Bastellösung ist es definitiv... Keine Frage. Aber wenn du da irgend ne selbstzusammen gefrickelte Storagelösung rein packst, hast du auch Bastel ;)
Willst du Prof. ohne Bastel, dann bieten sich nur die arsch teuren Fujitsu gelabelten SSDs an... Und da ist aktuell nicht wirklich was im Angebot.



PPS: ggf. wäre auch ein exteres Storage für dich interessant?
Externe SAS Storage Cases mit viel Speed... Hält den Server/die WKS schön klein, da die Platten ausgelagert sind. Und du bist flexibler im Sizing.
 
Ich hab die Diskussion hier mit Interesse verfolgt, was ich aber nicht ganz verstehe, warum es statt einer Workstation jetzt um Server geht, noch dazu wenn der TO sagt, dass es eine Single-CPU tun würde.

Wenn das Ding unbedingt ins Rack muss und nicht mehr am Schreibtisch stehen soll, kann man eine Celsius auch dort rein schrauben, entsprechende Umbausätze sind verfügbar. Komfortablerweise gibts bei den Celsius-Dingern auch gleich noch Geräte für den bequemen remote-Access vom Schreibtisch aus:
CELSIUS RemoteAccess - Fujitsu Deutschland

Damit hätte man das Szenario Rackeinbau+Grafikkarte erschlagen.

Backbone
 
Ich hab jetzt mal bei unserem Systemhaus angefragt dass die mit Fujitsu abklären ob die Celsius M720 mit der Intel SSD910 ausgestattet werden kann, gerade was die Kühlung im PCIe Slot (Luftstrom von mind. 200 LFM lt Intel-Datenblatt) betrifft.
Man hat grundsätzlich die Möglichkeit solche "Außerserienmäßigen" Einbauten dann auch direkt von Fuijtsu mit vornehmen zu lassen was dann auch von der Garantie abgedeckt wird.

Ich halte euch auf dem Laufenden.
 
Ich hab die Diskussion hier mit Interesse verfolgt, was ich aber nicht ganz verstehe, warum es statt einer Workstation jetzt um Server geht, noch dazu wenn der TO sagt, dass es eine Single-CPU tun würde.

Es war nur eine Idee, den Spaß nicht von vorn herrein auf die Workstation festzubrennen.
Einfach aus dem Grund, mit nem Pizzablecht bekommt man fürs selbe Geld ggf. etwas mehr Ausstattungsmöglichkeiten in Sachen RAM. Was durch den Gedanken der RAM Disk aufkam..
Denn es ging ja darum, möglichst das "beste" Storage in die neue Kiste zu packen, was geht. Und da liegt/lag potentiell ne RAM Disk nicht so extrem schlecht ;)

In welche Richtugn es geht, ist ja nichtmal raus, obwohl es eher in Richtugn SSDs ausschaut stand heute udn jetzt...
 
@Backbone
PCIe SSDs kriegst du bei Fujitsu im Serverbereich auch, Kostenpunkt Liste ab etwas über 10k EUR.
Dürften denk ich FusionIO SSDs sein

@fdsonne
Das mit der Ramdisk ist an sich auch keine doofe Idee aber da ich was das Hypervisor betrifft jetzt doch bei VMWare Workstation bleiben will wird's am ehesten ne Workstation mit möglichst schnellem SSD Speicher.
Jetzt muss ich mal abwarten was Fujitsu zur Intel 910 in ner Celsius sagt und dann seh ich weiter. Die Anfrage ist am Freitag raus, ich hoffe ich hör die Tage was.

Letztendlich mach ich mit der Kiste ja auch noch die Alltagsarbeit, deshalb kommt mir ein Desktopsystem einfach eher entgegen und billiger ist so ein Server auch nicht.
 
Billiger allein auf den RAM schon. Zumindest macht es den Eindruck.
Kommt aber sicher drauf an, was du für Konditionen bekommst.
Bei 10k Liste geht sicher mehr wie bei 5k Liste ;) Zumindest absolut gesehen.

Kannst ja mal ne Info geben, was Fujitsu dazu sagt. Tät mich mal interessieren. Könnte mir aber vorstellen, da steht ein klares Nein. Und der Verfall der Gerantieleistung.
 
Ja, das sind bei Fujitsu auch FusionIOs. Aber auch hier gibts die offiziell nur in Servern und zu prohibitiven Preisen. Mir ist bisher auch noch niemand unter gekommen, der gesagt hat, ihm wären die SSDs zu langsam und er braucht jetzt sowas.

Es gibt übrigens bei Fujitsu einen Standardprozess zum Einbau qualifizierter Fremdprodukte (gehört zu den made4you-Services). Allerdings wird das bei Einzelabnahmen eher schwierig.

Aber mal so gefragt, es gibt doch bei Fujitsu für die Celsius auch "high speed"-SSDs. Wäre es nicht einfacher herauszufinden wie schnell die sind, anstatt bei einem großen Hersteller zu versuchen Fremdkomponenten einbauen zu lassen?
 
Also die Auswahl an SSDs im Konfigurator ist wenn mich nicht alles täsucht sehr sehr begrenzt. Vor allem in Sachen Platz...
Willst du da 500GB Platz haben, gibt aber nur 100GB Modelle, zahlst dich dämlich ;)
 
Die "High-Speed" SSDs sind idr. Micron C400, wir haben schon einige Kisten damit hier rumstehen. Ist prinzipiell natürlich auch diskutabel für den Zweck sowas zu nehmen, ich halte es für durchaus realistisch dass sowas auch meinen Anforderungen was Schreibleistung angeht die jetzt so enorm auch nicht sind bis zum Ende des Lebenszyklus der Maschine stand hält, wenn nicht hat man ja Garantie.

Verfügbar sind in der Celsius M720 (Single Sockel 2011 System) SSDs mit 128, 256 und 512 GB.

Die Server SSDs von FusionIO (egal ob nun Fujitsu drauf steht oder nicht) sind für diesen Anwendungsfall mit Sicherheit überzogen, die IntelSSD 910 liegt preislich mit ca. 2.500 EUR halt noch im vergleichsweise "unauffälligen" Bereich.

Bei den Servern sieht das etwas anders aus, da haben die angebotenen SAS SSDs idr. geringere Kapazitäten und kosten rel. viel (ich sag mal Hausnummernmäßig 1000 EUR pro 100 GB) bzw. dann eben die PCIe SSDs mit 640 GB oder 1,2 TB mit Listenpreisen von ca. 10.000 bzw. ca. 15.000 EUR.

Meine Anfrage ist jetzt auch an den Produktmanager bei Fujitsu Deutschland gelandet, die Einschätzung lautet dass das mit den 25 Watt Verlustleistung im PCIe Slot schon gehen sollte aber unklar ist ob es zwecks Boot Device ggf. ein BIOS Update brauchen könnte. ATM wäre das ganze aber sowieso ohne Garantie.
 
Meine Anfrage ist jetzt auch an den Produktmanager bei Fujitsu Deutschland gelandet, die Einschätzung lautet dass das mit den 25 Watt Verlustleistung im PCIe Slot schon gehen sollte aber unklar ist ob es zwecks Boot Device ggf. ein BIOS Update brauchen könnte. ATM wäre das ganze aber sowieso ohne Garantie.
Ein PCIe Slot muß 75W zur Verfügung stellen, sonst entspricht er nicht der Spezifikation.

Was man allerdings alternativ machen kann, man steckt eine LSI RAID Controller Karte in den Server/Workstation und nutzt dann entweder CacheCade oder ein reines SSD RAID1. Auf normalen SSDs schafft ein LSI 2208 ca. 3,5GByte/s, mit RAID5 sind's immer noch knapp 2GByte/s.
 
Ein PCIe Slot muß 75W zur Verfügung stellen, sonst entspricht er nicht der Spezifikation.

Das ist nicht ganz richtig.
Ein "gewöhnlicher" PCIe Steckplatz muss Analog zu PCI 25 Watt bereitstellen können, ein LowProfile Steckplatz sogar nur 10 Watt.
Nur bei PEG Slots (= explizit für Grafikkarten gedacht) sind die 75 Watt vom Slot zu beziehen.

Quelle: PCI Express

Um die Versorgung mit Strom mache ich mir allerdings auch keine Sorgen (manche PCIe SSDs haben sogar Zusatzstromanschlüsse verbrauchen aber bei weitem keine 75 Watt) sondern die Kühlung durch den Luftstrom im Gehäuse. Ist bei RAID-Controllern ja hier im Forum ja auch schon manchen zum Verhängnis geworden.
 
Das ist nicht ganz richtig.
Ups, entschuldigung dafür
Um die Versorgung mit Strom mache ich mir allerdings auch keine Sorgen (manche PCIe SSDs haben sogar Zusatzstromanschlüsse verbrauchen aber bei weitem keine 75 Watt) sondern die Kühlung durch den Luftstrom im Gehäuse.
Bei einem Servergehäuse brauchst Du Dir üblicherweise darüber (Karte mit wenig Leistungsaufnahme) keine Gedanken zu machen, wenn es sich gar um ein GPGPU taugliches Gehäuse z.B. Supermicro | Products | SuperServers | 2U | 2027GR-TSF oder ASUS - - ASUS ESC4000 G2 handelt, dann fegt ein mittlerer Orkan durchs Gehäuse. Das ist auch der Grund, weshalb man von einem Servergehäuse am Arbeitsplatz abraten muß, die Dinger sind einfach viel zu laut.

SuperMicro und Intel liefern Workstation Barebones, die schlußendlich Servergehäuse für den Desktopeinsatz sind. Die Kühlung ist in diesen Gehäusen kein Problem, es werden maximal 4 GPGPU oder XeonPhis darin unterstützt. Supermicro | Products | SuperWorkstation bzw. Intel 4304.
 
Das Thema Durchlüftung von Servern ist mir geläufig, das ist ja auch der Grund warum ich die Frage mit dem für die Intel SSD 910 (und auch diverse FusionIO SSDs) geforderten Luftstrom von 200 LFM so ernst nehme.
Ein Server fürs Büro steht für mich auch kaum zur Debatte. Zwar sind aktuelle Rackserver im Idle oft wirklich kaum lauter als eine Workstation, unter Last drehen die aber dann schon ganz schön auf.

Fujitsu Workstations kenne ich aus Erfahrung, die sind im Regelfall recht ordentlich belüftet.

Ich hab die Tage auch mal ein wenig mit Ramdisks experimentiert und war letztendlich ziemlich ernüchtert. Die Performance in Benchmarks hinkt der von sehr schnellen SSDs oft hinterher.

Gestern bin ich noch auf ein interessantes Review der Intel SSD 910 gestoßen, scheint gerade für den Preis wirklich genial zu sein.
Massive Performance auch im vollgeschriebenen Zustand, die spezifizierte Write-Endurance ist sowieso deutlich höher als ich benötigen werde.

Wenn ich hier an eine kommen sollte werde ich mal vernünftige Benchmarks machen.

Aktuell warte ich drauf dass ich ein Angebot für eine Leihstellung o.ä. bekomme.
Die Workstation dazu ist soweit schon durchgeplant und auch angeboten worden aber noch nicht bestellt.
 
Ne Leihstellung für ein Stück?
Da bin ich echtmal gespannt ob das klappt. Fujitsu hat durchaus das eine oder andere Demogerät, allerdings muss man die so nehmen wie sie sind, Wunschausstattung gibts da freilich nicht. Und dann steht natürlich die Frage, dass so eine Teststellung einen Haufen Geld kostet, meist mehr als mit einer einzelnen WS zu verdienen ist.

Halt uns mal auf dem Laufenden wie s da weiter geht.
 
Die SSD will ich als Leihstellung, nicht die ganze Maschine.
Die Maschine dazu wird denk ich sowieso gekauft, egal was letztendlich genau rein kommt.

Ich halt euch auf dem laufenden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh