möglichst energieeffizienter All-In-One Server mit VT-d

QLink

Neuling
Thread Starter
Mitglied seit
23.05.2011
Beiträge
60
Hi Leute!

Ich bin gerade dabei meine beiden HP N40L Microserver zu ersetzen.
Mein neuer Server sollte folgendes können:

- möglichst energieeffizient(er wird die nächsten 5+ Jahre 24/7 laufen, da ist jedes Watt weniger viel Geld)
- trotzdem performant
- auf Virtualisierung aufgebaut/ausgelegt.

Hardwareseitig muss er folgendes erfüllen:

- mind. 2x PCI-e Slots(für 2x DVBSky S952 Sat Tuner Karten im Endausbau)
- mindestens 10 SATA Onboard Ports (2x SSD + 8x HDD im Endausbau)
- 2x GB Ethernet (für Teaming)
- USB 3.0
- VT-d support wegen den beiden SAT Tuner Karten
- Intel Quick Sync wäre nett, ist aber kein muss

Drauf laufen soll ein Exchange 2013, MySQL, Webserver, Openelec als VDR Server und ein Server 2012 Essentials, wegen der komfortablen Clientbackupfunktion.
Ob ich dabei auf ESXi als Hypervisor setzen soll oder Windows Server 2012 R2 mit Hyper-V ist mir noch nicht ganz klar.

Ein wirklich geniales Board mit dem neuen Atom wäre ja dieses hier: ASRock C2750D4I, C2750 (PC3L-12800E DDR3) Preisvergleich | Geizhals Deutschland (thx @Krautmaster für die Info)
Leider hat es nur 1x PCI-e und keinen VT-d Support, deswegen scheidet es wohl oder übel aus, es sei denn ich verwende anstatt der beiden DVB Sky S952 Karten, 4 Stück von
diesen DVB S2 USB Sticks Sundtek Shop | Sundtek SkyTV Ultimate (DVB-S/S2) | online kaufen .
Hier habe ich allerdings keine Ahnung wie sich die USB Sticks vom Stromverbrauch her im Vergleich zu den PCI-e Karten verhalten.
Vielleicht hat ja diesbezüglich jemand von euch schon Erfahrung damit. Wäre mir auf jeden Fall eine symphatische Lösung, sollte es keine großen Nachteile geben.

Da die eben genannte Lösung Fragezeichen beinhaltet habe ich mich auch anderweitig umgesehen und folgende Komponenten im Sinn:

- Board: (1x)
ASRock C226 WS (90-SXG160-A0UAYZ) Preisvergleich | Geizhals Deutschland
- CPU: (1x)
Intel Xeon E3-1230L v3, 4x 1.80GHz, Sockel-1150, tray (CM8064601467601) Preisvergleich | Geizhals Deutschland
oder
Intel Xeon E3-1265L v3, 4x 2.50GHz, Sockel-1150, tray (CM8064601467406) Preisvergleich | Geizhals Deutschland
- RAM: (4x)
Kingston ValueRAM DIMM 8GB, DDR3L-1600, CL11, ECC (KVR16LE11/8) Preisvergleich | Geizhals Deutschland
- Netzteil: (1x)
Mini-Box PicoPSU-160-XT + 192W Adapter Power Kit, 160W extern (passiv) Preisvergleich | Geizhals Deutschland
oder
Enermax Revolution X't 430W ATX 2.4 (ERX430AWT) Preisvergleich | Geizhals Deutschland
- SSD: (2x)
Samsung SSD 840 Pro Series 256GB, 2.5", SATA 6Gb/s, retail (MZ-7PD256BW) Preisvergleich | Geizhals Deutschland (die Pros wegen den 5 Jahren Garantie)
- HDD: (vorerst 4x) (im Endausbau 8x)
Western Digital Se 4TB, SATA 6Gb/s (WD4000F9YZ) Preisvergleich | Geizhals Deutschland
- SAT Tuner: (vorerst 1x) (im Endausbau 2x)
DVBSky S952 Preisvergleich | Geizhals Deutschland
oder (4x)
Sundtek Shop | Sundtek SkyTV Ultimate (DVB-S/S2) | online kaufen
- Gehäuse: (1x)
Nanoxia Deep Silence 5 schwarz, schallgedämmt Preisvergleich | Geizhals Deutschland

Zu den CPUs:

Der 1230L wäre vom Verbrauch her meine erste Wahl, hat aber leider keine iGPU und somit erstens kein Intel Quick Sync und zweitens würde ich eine separate Graka benötigen,
z.B. diese: PowerColor Radeon HD 5450 Go! Green low profile, 512MB DDR3, VGA, DVI, HDMI (AX5450 512MK3-SH/R81KL-PE3) Preisvergleich | Geizhals Deutschland .
Verbrauch lt. geizhals im idle 6,4W.
Der 1265L hätte eine iGPU hat aber um satte 20W TDP mehr.
Von der Rechenleistung her, denke ich sollten beide dicke reichen.
Was meint ihr ? Verbraucht der 1230L mit HD5450 Graka in der Praxis mehr oder weniger Strom als ein 1265L mit iGPU ?

Zu den Netzteilen:

Die 160W Pico PSU wäre auch hier vom Verbrauch her wieder meine erste Wahl. Die "vorerst" Konfiguration, also 2xSSD, 4xHDD, 1x S952 sollte sie eigentlich packen, oder ?
Ich habe die Hoffnung, dass der Server so gesamt bei etwa 50W herumdümpelt (idle) ?!?
Wie schätzt ihr den Verbrauch der Pico im Vergleich zu nem 430W 80Plus Gold NT ?
Später(in 3 Jahren etwa) bei zusätzlichen HDDs und der 2. S952 wird wohl sowieso das Enermax oder ein ähnliches fällig werden.

Also hier nochmal meine offenen Punkte:

das neue Atom Board mit 4x USB SAT Tuner oder doch die andere Konfig ?
Xeon 1230L mit HD5450 oder ähnlicher dedizierter Graka, oder doch Xeon 1265L mit iGPU ?
160W Pico PSU oder gleich Enermax 430W 80Plus Gold ?

Ich freue mich eure Meinungen dazu zu hören.

Beste Grüße
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
vergiss das Pico bei deiner Austattung. Bringt in dem Bereich +-0 und ist schon stark an der Grenze.
Bei Setups mit mehr als 1,2 HDDs sollte man zu einem normalen NT greifen.

Ich würde mal behaupten, im Idle nehmen sich 1230L und 1265L nichts bis sehr wenig.
Zu Xeons findet man ja nicht so viele Stromspartests, aber bei den SandyBridge-Desktop-CPUs waren i3, i3-t und i5 im Idle nahe zu gleich (siehe Link in meiner Sig), glaube nicht, dass sich das groß geändert hat. Von daher kannst du vielleicht auf das "L" verzichten - vlt. schaut ja noch jemand rein, der es schon getestet hat.
Würde wenn möglich auf eine extra GPU verzichten.

Was willst du mit QuickSync machen?
Meinst du, man kann das mit ESX nutzen?
 
ich denke das dein Vorhaben scheitern wird. ESXi ist und bleibt im Prof. Umfeld super. Aber mit Vt-d hat es so seine Probleme. Das wird auch im Prof Umfeld nicht benötigt. Würde mich zuerst erkundigen ob das mit VT-d klappt. ;-)
 
Hyper-V kann nur Festplatten durch reichen. Keine PCI-Komponenten. Selbst bei USB lese ich oft unterschiedliche Sachen.
 
Was willst du mit QuickSync machen?
Meinst du, man kann das mit ESX nutzen?

Damit hätte ich Filme auf dem Server gerendert und konvertiert, da ich hobbymäßig selbst filme und das Material dann weiter schneide und bearbeite.
K.A. ob das mit ESXi funktioniert..

ich denke das dein Vorhaben scheitern wird. ESXi ist und bleibt im Prof. Umfeld super. Aber mit Vt-d hat es so seine Probleme. Das wird auch im Prof Umfeld nicht benötigt. Würde mich zuerst erkundigen ob das mit VT-d klappt. ;-)

Also ich hab schon einige Threads im vdr-portal forum gelesen, die einen headless vdr server erfolgreich am Laufen haben mit ESXi 4

Hyper-V kann nur Festplatten durch reichen. Keine PCI-Komponenten. Selbst bei USB lese ich oft unterschiedliche Sachen.

Autsch, das war mir nicht klar. Somit scheidet Hyper-V dann schonmal fix aus :(
 
Zuletzt bearbeitet:
so kann es sein das eine PCIe Karte geht aber eine andere PCIe Karte mit einer anderen Firmware, Revision etc... nicht funktioniert. Speziel ESXi 5.5 hat Probleme
 
Ich würde an der Stelle zuerst einmal über das generelle Vorhaben nachdenken anstatt schon über die schlussendliche Komponentenwahl ;)
Sprich in erster Linie muss klar sein, das das was du vor hast, auch mit nem Hypervisor ala ESXi geht.

VT-d benötigst du genau dann, wenn du Gerätschaften direkt an eine VM reichen willst. Das Problem ist, das geht erstens nur mit ner kleinen Auswahl von Geräten. Und zweitens ist das im Prof. Umfeld eher im Bereich Storage oder Netzwerktechnik anzufinden. USB oder irgendwelche DVB irgendwas Karten reicht da imho quasi niemand durch. Auch dürfte das ganze bestenfalls dann Glück sein, ob das funkt oder nicht :wink: Die Software ist nicht für sodde Heimwerkspielereien geschaffen...
Gerade so TV Karten sind da wie man hier hin und wieder ließt sehr sehr izig. -> sprich es wird idR nicht funktionieren.


Aber mal was ganz anderes, weg vom Hypervisor.
Was man machen könnte -> schnapp dir ein Windows/Linux deiner Wahl und betreibe die TV Karten native auf der Installation. Für die Virtualisierung der anderen Geschichten kann man dann quasi bedenkenlos zu Produkten ala VMware Workstation (kostet Geld) bzw. dem Player greifen. Oder auch andere Software ala KVM oder Xen oder VirtualBox oder weis der Teufel wie die noch alle heißen.
Zumindest die Auflistung oben für deine weiteren Dienste, die du virtualisiert bereit stellen willst, scheinen aus meiner Sicht keine dedizierten Anforderungen an irgendwelche durchgereichten Hardwarecontroller zu haben.


Was aber auch noch zu klären wäre. Was willst du mit dem Storage machen? Bzw. wie soll das ganze aufgebaut werden?
Denn hier hängt es ebenso massiv davon ab, was du für Verfügbarkeiten einplanst. Sprich (Hardware)Raid? Oder irgendwas auf Softwarebasis?
Im übrigen, mit so ner Softwarevirtualisierungslösung kannst du dann auch auf VT-d verzichten ;) Weil wird sowieso nicht benötigt für das reine virtualisieren der Software -> nur VT-x sollte drin sein, aber das ist idR der Fall (außer vielleicht bei den kleinsten Celeron/Pentiums) -> und der Atom wäre wohl nichtmal aus dem Rennen ;)
 
Hmmm, ja schön langsam komme ich auch eher zu dem Fazit, dass ein AIO Server in der Praxis leider nur ein Wunschtraum bleibt.
Es steht oder besser gesagt fällt alles mit dem VDR Server.

Ich möchte als headless VDR Server Openelec verwenden. Da kann ich dann keine Virtualisierung nebenbei laufen lassen...
Vermutlich ist es wohl wirklich das beste, einen meiner HP N36L/N40L Microserver als reinen VDR Server laufen zu lassen und die Atom Version für den Rest herzunehmen...
Hab dann zwar wieder 2 getrennte Server laufen, aber zumindest sollten sie vom Energieverbrauch her zusammen auch nicht recht viel höher sein...(hoffe ich zumindest)

Beim Storage möchte ich rein auf Software Raid 1 (SSDs) und Software Raid 5 (HDDs) setzen.
 
OpenELEC ist doch so ein speziell zusammengebaute Linux Distri mit XMBC?
Eventuell lässt sich ja darauf verzichten, wenn du dir das ganze selbst zusammen schmiedest. Zumindest mit nem richtigen Linux/Windows drunter wärst du freilich deutlich flexibler...

Bei dem Raid kann ich aber nur empfehlen die Finger von der Microsoft Raidlösung zu lassen. Dann lieber das Raid über das Board und deren Chipsatz eindrehen.
Bei Linux kann man durchaus auf auf Softwareraid gehen... :wink:
 
Genau, OE ist hald ein reines HTPC Linux OS und dementsprechend schlank und ressourcenschonend.
Aber eine Möglichkeit wäre Mediaportal als VDR Server einzusetzen, das läuft auch auf Windows, hab mich nur noch nie damit befasst.(werd ich aber jetzt wohl tun ^^)

Wieso Finger weg von Microsoft Raidlösungen ? Hast du schlechte Erfahrungen damit gemacht ?
Hätte eigentlich gerne auf Storage Spaces gesetzt...
 
Von den Storage Spaces oder wie der Spaß ab Windows 2012 Server / Windows 8 heist, kann ich dir nix sagen. Ich meinte eher die klassische Softwareraid implementierung bei MS, die es quasi seit minimum Windows 2000 gibt -> und die halt so viel nicht taugt. Speziell bei Raidleveln mit Paritätsdatenberechnung ala Raid 5.
Es ist halt einfach sehr sehr anfällig das Zeugs... Da braucht nur was quer zu schießen, und dir zerreißt es das ganze Softwareraid.
 
Also praktische Erfahrung hab ich damit auch (noch) keine, aber ich habe bisher fast nur gutes über Storage Spaces gelesen und ich verfolge das Thema schon ein ganzes Weilchen.

z.B. ein Bericht eines Users:

"Die Speicherpools sind extrem robust, Negatives habe ich erst einmal in Verbindung mit einem verschlüsseltem Pool gehört. Allerdings kenne ich da die Umgebung nicht wirklich. Auch wird das Feature wohl von den wenigsten wirklich produktiv genutzt. Ist ja lausiges Software-RAID (Obwohl ich da mittlerweile anders denke). Die Performance ist so gut wie die Anzahl IOPS welche die Platten liefern. Der CPU ist dabei nicht wirklich der limitierende Faktor. Der ist eigentlich unglaublich langweilig, auch bei Rebuilds.

Ich selber habe die Funktionen auf Herz und Nieren getestet. Stromausfälle, Plötzliches entfernen von Kabeln, Ausstöpseln von Festplatten, einzelne Sektoren oder ganze Bereich von extern mit Werten überschrieben usw. Gibt hier irgendwo nen Thread dazu. Ich kann dazu nur sagen, ich hatte keine Chance das Filesystem aus der Ruhe zu bringen. Ist ihm schlicht total egal.
- Daten in einem fehlerhafter Datenset (MirrorPartner) der aber noch aktiv ist, wird einfach in neue Festplattenbereiche der selben Platte geschrieben.
- Daten die auf keinem Mirror-Partner mehr 'gut' sind, werden gelöscht und aus dem Filesystem geworfen
- Daten wo Festplatten eines Mirrorpartners ausgefallen sind, werden auf HotSpare-Platten geschrieben

Das alles geht vollautomatisch. Damit man es auch mitbekommt empfiehlt es sich einen Trigger für die Ereignisanzeige zu bauen, der einem zbsp. ne Mail schickt.

Die grössten Vorteile sehe ich eigentlich darin, dass man
- dafür eigentlich alles hernehmen kann was man will. Eine Lun auf einer SAN, eine lokale Platte usw. Man bekommt zbsp. mit zwei Luns auf zwei verschiedenen Einsteiger-SAN's völlig problemlos ein Cluster über mehre SAN's ohne eine extrem teure Storage. Auf der SAN könnte man zbsp. RAID-Sets vorhalten.
- Zusätzlich kann man für jedes Volume bestimmen, wie performant bzw. wieviele Columns sprich Anzahl Platten pro Datenset - genommen werden sollen. Hat man gscheite Hardware-Büchsen zbsp. per SAS angebunden, kann auch definiert werden, dass die Datasets auf verschiedenen Büchsen landen sollen.

Einziger Nachteil meint dieser User sind im Read/Write Cache...
 
Ich nutze die Storage Spaces, und bereue es im nachhinein.
Sie sind zwar wirklich stabil, etc. - jedoch ist die Performance miserabel. Da ist eine USB 2.0 Festplatte schneller beim schreiben.
Ich kann Storage Spaces nur Leuten empfehlen, welche ihre Festplatten als reines Datengrab ansehen, und insbesondere nicht mehrere Aufgaben gleichzeitig erledigen (z.B. Downloaden und Entpacken von zip-Files) ...

PS: Das C2750D4I ist auch mein Traum-Mainboard für ein Datacenter/NAS
Leider gibt es nur keine Mini-ITX-Gehäuse mit 12 Festplattenplätzen ^^
 
Zuletzt bearbeitet:
Na evtl sollte man mal die Storage Tiers probieren, wenn man mehr Performance braucht.
 
ja, vorallem mit den Storage Tiers gehts ziemlich ab mit der Performance, was ich so gelesen hab.
krautmaster im cb forum hat genau so ein Teil seit kurzem am Laufen und hat auch einiges Benches gepostet.
Also ich bin schwer beeindruckt. Keine Spur von USB 2.0 HDD ^^ aber guckt am besten selbst:

Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storage Spaces - ComputerBase Forum

und zum Thema Mini-ITX Gehäuse: stimmt für 12 HDDs wirds schwierig, aber immerhin für 11 HDDs gibts was ;)

http://geizhals.at/de/bitfenix-phenom-schwarz-bfc-phe-300-kkxkk-rp-a1007325.html
 
Zuletzt bearbeitet:
Ich bräuchte zumindest 10x 3.5". Das Phenom hat ja hauptsächlich 2.5-Slots ;)

Hmm, Storage Tiers klingen mal echt interessant. Habe mich mit Storage Spaces nur mit Windows 8 beschäftigt, da geht sowas leider nicht ^^
Bei 4x 4TB muss ich mal schauen wieviele (und wie große SSDs) ich für Storage Spaces mit Parität (RAID5) brauche um eine gute Performance zu erreichen.
Habe die Befürchtung dass durch die SSDs die Kosten schnell auf RAID-Kartenniveau steigen. Daneben verliert man mit jeder SSD einen SATA-Anschluss ;)
 
Ein typisches All-In-One System sieht doch folgendermaßen aus:

- ESXi als Basis (da laufen die meisten Systeme mit angepassten Treibern und es kann Hardware Pass-through)
- Eine ZFS Storage appliance (meist Solaris basiert mit einer Weboberfläche z.B. napp-it, NexentaStor)

Da ESXi sehr wählerisch ist, sollte man am besten ein Board mit Intel Serverchipsatz und Intel Nics nehmen. Idealerweise nimmt man ECC Speicher. Zusammen mit dem Wunsch nach pass-through (vt-d) bedeutet das dann automatisch eine Xeon CPU.

Damit der Storagepart sauber, schnell und sicher läuft, braucht die Storage VM direkten ZUgriff auf den Storage Controller und die Disks. Das bedeutet, man braucht einen zweiten Storage Controller der bei pass-through nicht zickt. Zusammen mit ZFS ist da immer ein LSI HBA Controller die erste (und m.E. die einzig sinnvolle) Wahl.

Meine Tip wäre folgendes (das ist wohl die üblichste aller Möglichkeiten für All-In-One)
- Ein SuperMicro Serverboard mit onboard LSI Controller z.B.
Supermicro | Products | Motherboards | Xeon® Boards | X10SL7-F oder ein anderes SuperMicro Serverboard optional mit Extra IBM 1015 Plattencontroller.

Dazu einen kleinen effizienten Xeon (ab 17 Watt max TDP) und 16-32GB RAM
ESXi: idelaerweise 5.1 (das neue 5.5 zickt noch ein wenig und ist nur bei mehr als 32 GB RAM nötig) und OmniOS als ZFS Storage VM (NAS/SAN und NFS Datastore für ESXi).
Eine vorkonfigurierte und freie "copy and use" ZFS Storage VM biete ich dazu auch zum Download an.

Was damit nicht läuft geht in anderer Konfiguration auch nicht.
Sowas ist tausendemal im Einsatz und bietet die beste Garantie für ein Funktionieren.
 
Zuletzt bearbeitet:
Du, sag mal gea, ist es dann auch möglich den ZFS Storage als Fileserver zu verwenden, oder sollte mann das von einander trennen? Ich meinte nicht die physikalischen Platten, sondern die ganze VM.
 
kannst du wohl machen...

Bedenke aber, das ganze Zeugs da mit ZFS und Storage VM ist für den der es kennt ne feine, saubere und vor allem fixe Sache mit vielen Features, die du so nicht hast/bekommst. ABER! Man muss sich damit eben auch ein Stück weit auskennen.
Das ist definitiv nicht wie Windows CD rein -> grünen Knopf drücken und rennt ohne Probleme. Nein da darf es dann auch gern mal die ein oder andere Stunde Zeit sein, die du nebenbei investierst. -> aber das muss jeder für sich selbst entscheiden.

PS: du wärst damit aber dann auch gleichsam wieder im Problem, das das durchreichen deiner TV Karten da wohl praktisch nicht geht. :wink: Bleibt die USB Version eventuell (wobei das ebenso etwas murksig ist)
Zumal USB im Grunde nicht für die 24/7 Dauereinsatz gemacht ist, wie ich leidlich hier und dort immer wieder feststelle...
 
Du, sag mal gea, ist es dann auch möglich den ZFS Storage als Fileserver zu verwenden, oder sollte mann das von einander trennen? Ich meinte nicht die physikalischen Platten, sondern die ganze VM.

Die Storage VM als Filesserver zu nutzen ist ja gerade der Sinn von All-In-One - neben dem Bereitstellen eines shared NFS oder iSCSI datastores für ESXi und andere.


@fdsonne
Umsonst ist der Tod und der kostet das Leben. Man braucht immer etwas Kenntnis über das verwendete Betriebssystem und etwaige Besonderheiten etwa zum Raid - egal ob Windows oder Unix. Bei All-In-One kommt dazu, dass man Basiskenntnisse von ESXi braucht. Ansonsten ist es eher schneller am Laufen als ein Windows Server und auch schneller wiederhergestellt - sofern man nichts machen möchte was nicht in der Webappliance dabei ist. Da bleiben aber bezüglich Storage eh kaum Wünsche offen.

Die Installation einer ZFS Storage VM appliance dauert tatsächlich Stunden. Das ist aber zu 95% die Wartezeit für den Download der Storage VM von napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris downloads (2 GB zip-File), dem anschließenden entzippen z.B. mit 7zip und dem Upload auf den lokalen ESXi datastore per ESXi Browser. Andere ZFS appliances (NexentaStor, FreNAS) brauchen kaum länger zum Installieren/Aufsetzen.

Dann Anmelden am Inventory per Rechtsklick auf die .vmx Datei im ESXi Browser und fertig. Per Browser an napp-it anmelden, einen ZFS Pool erstellen und loslegen.

Das ganze Storagemanagement geht per Webinterface. Im Crashfall einfach Storage VM neu aufsetzen und Pool importieren.
 
Zuletzt bearbeitet:
So, ich heute nun mal einige der Serverkomponenten in Betrieb genommen.

Vorerst ist es folgende Konfiguration geworden:

1x ASRock C226 WS
1x Intel Xeon E3-1225 v3, 4x 3.20GHz
4x Kingston ValueRAM DIMM 8GB, DDR3L-1600, CL11, ECC
1x Enermax Revolution X't 430W ATX 2.4
1x Samsung SSD 840 Pro Series 256GB, 2.5", SATA 6Gb/s
2x Western Digital Se 4TB, SATA 6Gb/s
1x Fractal Arc Midi R2

Es läuft soweit alles mal mit Server 2012 R2, was mich aber dann doch schockiert hat ist der Stromverbrauch.

Die o.g. Konfig verbraucht laut Messgerät beim booten 150W und dümpelt im idle so bei 120W herum!
Das kann ja wohl nicht sein oder ?
Hab ich wo was übersehen oder läuft hier der Xeon Amok und regelt der Verbrauch nicht runter ?

Hat jemand eine Idee woran dieser hohe Stromverbrauch liegen kann ?
 
LOL. Hab das Problem gefunden. Es lag an der alten Steckdosenverteilerleiste. Die hat das Messgerät scheinbar extrem verwirrt. Mit einer neuen Steckdosenverteilerleiste zeigt er jetzt max 50W Verbrauch an...
Hatte zwar ebenfalls gehofft darunter zu liegen, aber auf jeden Fall bin ich jetzt in einem annehmbaren Bereich.
Vielleicht kann ich ja mit undervolten noch etwas rausholen ohne die Stabilität zu gefährden ... mal sehen.
 
Kurzes Feedback von mir:

Mein größtes Sorgenkind der headless VDR Server läuft jetzt vom feinsten unter ESXi.
Hab eine VM mit dem Openelec 3.2.4 virtual image erstellt und die DVBSky S952 PCIe Karte per VT-d durchgereicht.
Bei OE dann noch das VNSI Server Plugin installiert und gestartet und schon hab ich im ganzen Haus auf sämtlichen Netzwerkgeräten (Handy,Tablet,Notebook,PCs,HTPC) Fernsehen in HD vom Feinsten :)

Beim Server 2012, Exchange usw. denke ich das es auch keine größeren Probleme geben sollte.

Was mir noch etwas Kopfzerbrechen bereitet ist, wie ich die Verfügbarkeit möglichst hoch halten kann, ohne dabei Raid einzusetzen.

Hätte da vielleicht jemand eine Idee oder einen Tipp dazu ?
 
Wie soll dass denn bitte gehen ohne Raid? Die konsequente Verwendung von Enterprise-Hardware wäre da die einzige Möglichkeit, aber selbst das ist allein Mäh. Es führt kein Weg an Raid vorbei zur Erhöhung der Verfügbarkeit. Okay, stell zwei Systeme hin, beide ohne Raid. Nur das ist auch Schwachsinnig. Besser zwei Systeme mit Raid, kostet nicht viel mehr. Ansonsten kannst du auch noch etwas wie Snapraid verwenden, aber das ist doch im Grunde das selbe nur mit anderen Vor- und Nachteilen.
 
Zuletzt bearbeitet:
Nunja, vielleicht kann man ja die hochverfügbaren VMs automatisiert, täglich auf eine 2. HDD klonen und beim Ausfall einer HDD wird dann einfach geswitcht... quasi ein Clustering auf dem selben Host nur auf unterschiedlichen HDDs

k.A ob das so möglich wäre oder ob es noch andere, bessere Lösungen gäbe...
 
Zuletzt bearbeitet:
@QLink: Kannst Du bitte mal dein Spromverbrauch im Idle und Load posten mit Sat-Tuner?
 
*Push* - Geht mir auch so (in der Hoffnung, dass der TE das hier noch liest). BIn am überlegen, ob es sich wirtschaftlich lohnt meinen FX-8350 AIO-Server gegen nen Xeon/Ix mit deinem Board zu tauschen. Bei den 50Watt, die schon vorher gemessen wurden, waren da die Platten schon im Sleepmodus?
 
http://www.hardwareluxx.de/community/f84/die-sparsamsten-systeme-30w-idle-1007101.html

bzw:

https://docs.google.com/spreadsheets/d/1LHvT2fRp7I6Hf18LcSzsNnjp10VI-odvwZpQZKv_NCI/edit#gid=0

da sind einige vt-d fähige dabei (z.B. 15, 22, 49 usw) und überall wo ne S1150 drin ist kann man meist auch nen i5 mit VT-D beim selben verbrauch nutzen (wenn das MB VT-D unterstützt) ... und nein es muss kein T oder S sein, die normalen sind gleich sparsam im idle

ich hab hier z.B. ein ASrock Z87ITX liegen (VT-D fähig) was selbst unter Linux nur an die 12W idle braucht (das Z97itx verbraucht 1-4W mehr mit i5-4690S)


auch euch geb ich folgendes mit auf den Weg:

10W mehr idle Verbrauch entspricht grob 20€ Stromkosten ohne Rabatte pro JAHR bei 24/7/365 Betrieb

es macht also KEINEN Sinn wegen 10 oder 20W idle ein neues System zu kaufen (natürlich ab 30-50W mehr) ... Anschaffungskosten sollten in maximal 2 Jahren (eher in einem) sich rechnen zum Strompreis

mein grenzwert (imho) liegt bei 20-25W idle bzw low usage, drüber kann man mal nachdenken (aber auch nur wenn 24/7/365 ohne WOL etc)

man spart mehr Strom mit Kühlschränken, led Birnen, Fernsehern ..... als bei PCs (krasses Beispiel: der LCD TV meiner (alten) Mutter brauchte 120W, meiner braucht 24W, beide 50" - von Röhren TVs red ich garnicht ^^)
hier lohnt ein Wechsel teils schon in 6-12 Monaten


wer nun ÖKo sagt: die produktion neuer Teile verschlingt mehr, als man spart und der Strom in DE wird mittlerweilen sehr breitbandig aus regenerativen Quellen erzeugt (und die Entsorgung alter Teile da mal ausgenommen)
solange man keinen Elektrolyse-Wasserstoff (>70% effizienz aus Solarpannels http://de.wikipedia.org/wiki/Power-to-Gas ) daheim nutzt (als Energielager neben der direkten verwendung) ist Strom die verträglichste Quelle für Leistung/Wärme ... danach kommt Erdgas ... was dann allerdings nicht regenerativ ist
einziger Negativpunkt ist die Gier der Energiekonzerne (wir haben in der EU einen massiven Überschuß an KW/h) und die Subventionshaltung der EU/BRD für Unternehmen (bekommen KW/h teils fast kostenfrei) .... hier MUSS auchmal der Privatverbraucher Anteil bekommen (es wäre locker machbar, dass wir nur 10-12cent pro KW/H zahlen wenn statt Unternehmen das Stromnetz ZWECKGEBUNGEN subventioniert würde) ... die Unternehmen geben diese Rabatte ebenso nicht weiter wie die Stromanbieter (beide erhöhen damit nur ihren Börsenwert) ... Beispiel: Braunkohle (der weltschlechteste und dreckigste Energielieferant ... selbst Restmüllverbrennung ist da besser)
 
Zuletzt bearbeitet:
Die Liste ist echt nett nur habe ich mit dem T20 bessere Werte als dort gelistet aber die 4W naja egal.
habe aber auch gute Erfahrungen mit einem Asus B85M-E gemacht mit G3220 12W wenn ich neu installiere geht er dann vielleicht auch mal in den C6 ;)

@Pumukel auch Erdgas läst sich durch Einspeisung aus Biogasanlagen mit entsprechender Aufbereitung oder nach ein paar Prozessen nach der Elektrolyse ersetzen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh