[Sammelthread] HP ProLiant N36L/N40L/N54L Microserver

Weiß einer zufällig wo man günstig Patchkabel (Cat6) kaufen kann? (geht halt auch um die Versandkosten)
Ich hab neben meiner Arbeitsstaette einen Atelco (Ffm) und hab die direkt im Laden mitgenommen (2m 3,49EUR - Preis weicht vom Webshop ab - gabs dafuer auch in rot/gruen/blau/gelb) - und ohne Porto und gleich in der Hand :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei den Preisen zählt aber nur der sofort in der Hand Vorteil.
Alleine bei den 3*3m Kabel hat man da ja schon den Versand fast drin (wenn ich mit deinem 2m Preis rechne)!
 
So, jetzt hab ich ein kleines Problem was den N36L anbelangt: ich weiß nicht, welches OS ich nehmen soll ;)

Aktuell hab ich mal den ESXi 5.0 auf einem USB-Stick installiert. Allerdings kann ich ja den HDD-Controller nicht direkt ans Gastsystem weiterreichen. Nachdem das doch hauptsächlich ein Fileserver werden soll ist das wohl nicht ideal.

  • ESXi + Raid-Controller - möchte ich wegen zusätzlichen kosten und Stromverbrauch eigentlich nicht
  • ESXi + drauf pfeifen
  • Debian (und auf ZFS pfeifen)
  • OpenIndiana + napp-it
  • FreeNAS

Tja, und dann halt per XEN oder KVM virtualisieren. Damit hab ich nur absolut keine Erfahrung.
Von der Konfiguration her hätte ich gerne ein SW-Raid5 (mit ZFS). Was würdet ihr mir empfehlen?
 
Aktuell hab ich mal den ESXi 5.0 auf einem USB-Stick installiert. Allerdings kann ich ja den HDD-Controller nicht direkt ans Gastsystem weiterreichen.

Den Controller nicht, Disks jedoch schon, sofern sie ausschliesslich für einen Gast verwendet werden. Ist ein bisschen Handarbeit, also nicht per GUI, aber möglich.

Tja, und dann halt per XEN oder KVM virtualisieren. Damit hab ich nur absolut keine Erfahrung.

Ich stand vor der ziemlich gleichen Entscheidung. Primär sollte es ein Fileserver sein, der ansprechende Datenraten liefert. Das funktioniert am besten, indem der Fileserver direkt auf der Hardware läuft. Einerseits, weil VMs mit batteriegepufferten RAIDs besser funktionieren als mit direktem SATA, andererseits weil sich wohl nur so die Platten bei Nichtbenutzung abschalten lassen.

Also habe ich mir mal KVM und VirtualBox angesehen. Funktioniert haben beide, wobei KVM anfangs ein bisschen Bastelei war und etwas undurchsichtig ist, insbesondere wenn ohne GUI. VirtualBox funktionierte sofort. Beide lassen sich "headless" betreiben, d.h. die VM kann ohne direkt irgendwo sichtbares Display arbeiten (Remote-Zugriff darauf geht trotzdem) und per Commandline gesteuert werden. Die I/O-Performance von solchen VMs fällt in dieser Konfiguration gegenüber ESXi deutlich ab, aber je nachdem was man damit vorhat (z.B. ein extern zugänglicher Webserver) kann man damit leben.

Der Vorteil von VirtualBox ist, dass die VMs zwischen den Plattformen portabel sind. Einzig der Name vom Ethernet-Adapter passte dem VBox-Linux bei der Verwendung einer in VBox-Windows ezeugten VM nicht.

Keine Bange. Virtualbox ist ziemlich umgänglich.


---------- Beitrag hinzugefügt um 17:43 ---------- Vorheriger Beitrag war um 17:38 ----------

Von der Konfiguration her hätte ich gerne ein SW-Raid5 (mit ZFS). Was würdet ihr mir empfehlen?

ZFS wäre mir auch recht gewesen, aber das wäre dann entweder BSD oder Solaris als Host, oder ZFS als Userspace Filesystem. BSD und Solaris sind nicht so mein Ding und ein Userspace-FS als Filer auch nicht.

Also wurde es ein Debian mit ext4 (der Ubuntu-Server zickte rum) und RAID-1 via mdadm, vielleicht mit Aussicht auf btrfs wenn das mal reif dafür ist.

PS: Es geistert auch ein etwas seltsames System rum, mit Ubuntu Überbau auf einem Solaris Kernel. Den Namen hab ich grad nicht parat, steht aber irgenwo hier im Thread.
 
Zuletzt bearbeitet:
So, jetzt hab ich ein kleines Problem was den N36L anbelangt: ich weiß nicht, welches OS ich nehmen soll ;)

Aktuell hab ich mal den ESXi 5.0 auf einem USB-Stick installiert. Allerdings kann ich ja den HDD-Controller nicht direkt ans Gastsystem weiterreichen. Nachdem das doch hauptsächlich ein Fileserver werden soll ist das wohl nicht ideal.

  • ESXi + Raid-Controller - möchte ich wegen zusätzlichen kosten und Stromverbrauch eigentlich nicht
  • ESXi + drauf pfeifen
  • Debian (und auf ZFS pfeifen)
  • OpenIndiana + napp-it
  • FreeNAS

Tja, und dann halt per XEN oder KVM virtualisieren. Damit hab ich nur absolut keine Erfahrung.
Von der Konfiguration her hätte ich gerne ein SW-Raid5 (mit ZFS). Was würdet ihr mir empfehlen?

Für Virtualisierung halte ich die CPU zu schwach. Man muss sich nur vorstellen das die CPU nicht viel schneller als ein Atom ist. Ein C2D oder gar ein i3 das ist eine ganz andere Liga.

Unter Open Indiana mit ZFS zu Windows 7 bekomme ich übrigens Kopierraten um die 70mb/s über CIFS hin und dabei begrenzt wahrscheinlich die Platte im Windows PC. Unter Linux habe ich nie solche Datenraten hinbekommen wie mit dem neueren SMB unter Solaris. Und zur einfachen Administration gibts eben Napp-it. Was unter Solaris halt nicht geht ist WOL.

FreeNAS könnte man probieren, kann mir aber vorstellen das es eher lahm ist.
 
Für Virtualisierung halte ich die CPU zu schwach. Man muss sich nur vorstellen das die CPU nicht viel schneller als ein Atom ist.

Kommt drauf an was man mit der VM anstellen will. Wenn man einen schnellen Fileserver haben will, dann sollte man den nicht in eine VM packen. Jedenfalls nicht auf einer solchen Plattform.

Anders kann das aussehen, wenn man beispielsweise ins Netz einen Webserver stellen will, der vom Rest der Welt aus sichtbar sein soll. Allein schon aufgrund der mageren DSL-Ausbeute auswärts wird der nicht sonderlich anspruchsvoll ausfallen. Für solche Anwendungen, die man der Sicherheit wegen lieber in eine VM packt als direkt auf den Fileserver, kann diese Plattform völlig ausreichend sein.

Apropos Atom: Auf dem eeePC (single core Atom) hatte ich für Wartungszwecke eines Drittsystems ein über den VMware Viewer virtualisiertes XP auf einer 4GB SD-Card. Weder mit dem Atom noch mit der SD-Card als Platte gewinnt man irgendwelche Wettrennen, aber das war wirklich benutzbar!
 
Zuletzt bearbeitet:
Debian (und auf ZFS pfeifen)
Nicht mit Debian/kFreeBSD: Debian mit FreeBSD Kernel. Gilt allerdings noch als Technology Preview, ist sicherlich auch noch nicht richtig stabil und empfehlenswert... Weiteres Problem duerfte sein, dass die Netzwerkkarte vermutlich nicht laufen wird, die lief bei mir erst mit FreeBSD 9.0 BETA 1.

prx schrieb:
PS: Es geistert auch ein etwas seltsames System rum, mit Ubuntu Überbau auf einem Solaris Kernel. Den Namen hab ich grad nicht parat, steht aber irgenwo hier im Thread.
Du meinst sicherlich Nexenta(Core).
 
Kommt drauf an was man mit der VM anstellen will. Wenn man einen schnellen Fileserver haben will, dann sollte man den nicht in eine VM packen. Jedenfalls nicht auf einer solchen Plattform.

Anders kann das aussehen, wenn man beispielsweise ins Netz einen Webserver stellen will, der vom Rest der Welt aus sichtbar sein soll. Allein schon aufgrund der mageren DSL-Ausbeute auswärts wird der nicht sonderlich anspruchsvoll ausfallen. Für solche Anwendungen, die man der Sicherheit wegen lieber in eine VM packt als direkt auf den Fileserver, kann diese Plattform völlig ausreichend sein.

Korrekt, aber welche Vorteile hätte die Virtualisierung. Da müsste man etwas weiter ausholen. Entweder man
1. muss unbedingt mehrere heterogene OS laufen lassen
2. will den Server einfach sichern können (vmdk file), was über imaging allerdings auch ginge
3. will im Falle eines Hardwareumzuges z.B. die Windows VMs problemlos umziehen, dass ginge aber auch mit Acronis und Plus Pack. Bei Linux/Solaris eh kein Thema.

Ansonsten wären auch die Nachteile:
1. höhere Komplexität
2. geringere Geschwindigkeit
3. höhere Ausfallquote da zusätzlicher Layer
4. Hardwareüberwachung schwerer

So richtig hat man erst Vorteile mit Clustering, wenn die VMs lücklos zwischen den Server verteilt werden und die Leistung vom Host auch optimal ausgenutzt wird.
 
So richtig hat man erst Vorteile mit Clustering, wenn die VMs lücklos zwischen den Server verteilt werden und die Leistung vom Host auch optimal ausgenutzt wird.

Zu Virtualisierung auf dem HP Microserver, als Homeserver:

Es gibt noch andere Kriterien als Leistung. Wobei ich Solaris mal draussen lasse, damit bin ich nicht vertraut.

Heterogene Dienste lassen sich mit Virtualisierung leichter abbilden. So kenne ich jemanden, der für sein iSonstwas gerne einen Pseudo-Mac im Heimnetz hätte. Nicht um damit zu arbeiten, sondern weil die Apple-Software für das iSonstwas auf Windows zum Abgewöhnen wäre und für Linux wohl nicht existiert.

Geringere Geschwindigkeit muss kein Kriterium sein, wenn der Dienst um den es geht keine Performance benötigt. Ein einfacher anspruchsloser Webserver beispielsweise, den man aber nicht direkt auf das Hostsystem packen will, weil anders als beim Hostsystem jeder an den rankommt.

Eine solche Konfiguration wäre beispielsweise der performancerelevante Fileserver auf der Hardware und der harmlose Webserver oder ebenso harmlose Pseudo-Mac in einer VM auf Basis von KVM oder VirtualBox oder ...

Zu Virtualisierung allgemein bzw. im kommerziellen Umfeld:

Eine auf ESXi basierende Lösung mag aufgrund des Layerings theoretisch komplexer sein als direkt auf der Hardware. In der Praxis ist es andersrum. Ein ESXi hat man in wenigen Minuten auf jeder dafür in Frage kommenden Hardware, und tiefere Kenntnisse sind dafür nicht erforderlich. Was auf der alten Plattform lief läuft dann auch auf der neuen, ohne jede Anpassung. Migration anderer Systeme ist demgegenüber deutlich komplexer und setzt mehr Knowhow voraus.

Ich weiss daher von Anbietern von Serverlösungen für Kleinunternehmen, die seit Jahren Server auch dann mit Virtualisierung ausstatten, wenn nur ein einziger Gast-Server läuft und der Kunde den VM-Host effektiv nicht wahrnimmt. Ersatz und Migration sind schlichtweg viel einfacher, die Gast-Server haben eine standardisierte hardwareunabhängige Konfiguration. Ja, sowas kann Performance fressen und man wird dafür vielleicht nicht den HP Microserver verwenden. Indes ist in einer solchen Umgebung Server-Performance oft kein wesentliches Kriterium,weil schneller als "schnell genug" nichts mehr bringt.

---------- Beitrag hinzugefügt um 16:17 ---------- Vorheriger Beitrag war um 15:44 ----------

Unter Open Indiana mit ZFS zu Windows 7 bekomme ich übrigens Kopierraten um die 70mb/s über CIFS hin und dabei begrenzt wahrscheinlich die Platte im Windows PC.

Wie sieht es bei Solaris bzw. Open Indiana eigentlich mit dem Stromverbrauch aus? In Linux lassen sich die Platten problemlos so einstellen, dass sie nach z.B. 30min Inaktivität runterfahren. Geht das da auch? Wären immerhin mindestens 20W Unterschied.
 
Zuletzt bearbeitet:
Nexenta & Derivatives

Du meinst sicherlich Nexenta(Core).

Nexenta (Nexenta Core Platform = NCP) ist unter
The Nexenta Project
NexentaCore Platform (Stable = v3.0.1)
- Based on OpenSolaris build 134+ backports/fixes from later releases.
- Based on Ubuntu 8.04 LTS (Hardy Heron) repository
- This includes latest dpkg/apt, gcc, binutils, coreutils, perl, python, ruby, Qt libs, GTK libs, etc
- 100% native Debian environment, easy to upgrade, easy to use
Nexenta Project - DownloadStable - The Nexenta Project

NexentaStor 3.1.1 Community Edition ist unter
NexentaStor Project - CommunityEdition - NexentaStor Project
- Fully functional, free version for upto 18TB of storage.

StormOS : A desktop with Xfce
DownloadStormOS is the first desktop distribution based on the Nexenta Core Platform ist unter
StormOS
StormOS is an effort to port Debian (Wheezy currently) to the Illumos kernel and userland to create a powerful desktop orientated operating system.
Combining Debian and Illumos gives us the following features:
- ZFS (Zetabyte File System) with snapshots, compression and deduplication.
- Fast and reliable packaging system (APT with ZFS and Zones support).
 
NexentaStore 3.1.0 habe ich nun ausprobiert. Die Features vom ZFS mögen ja nett sein, aber die SMB/CIFS Performance reisst mich noch nicht vom Hocker.

SMB lesen: 24MB/s.
SMB schreiben: 22MB/s.

FTP ist fixer. 70-75MB/s.

Der NFS Share liess sich nicht blicken, daher keine Daten.

Disk ist die HP 250er am normalen SATA. Spielt aber keine Rolle, denn aus dem Cache heraus ist es auch nicht schneller.

---------- Beitrag hinzugefügt um 22:00 ---------- Vorheriger Beitrag war um 20:34 ----------

Nun auch mal Open Indiana / Napp-IT:

SMB xcopy read: 26 MB/s (cached)
SMB xcopy write: 26 MB/s

FTP read: 28 MB/s
FTP write: 77 MB/s

NFS read: 110 MB/s (cached)
NFS write: 42 MB/s

Zum Vergleich: SMB read/write 35 MB/s bei debian/Samba.
 
Zuletzt bearbeitet:
Den Controller nicht, Disks jedoch schon, sofern sie ausschliesslich für einen Gast verwendet werden. Ist ein bisschen Handarbeit, also nicht per GUI, aber möglich.

Das würde für meinen Fall ja reichen. Muss ich mir mal genauer ansehen wie das funktionien würde.


Ich stand vor der ziemlich gleichen Entscheidung. Primär sollte es ein Fileserver sein, der ansprechende Datenraten liefert. Das funktioniert am besten, indem der Fileserver direkt auf der Hardware läuft. Einerseits, weil VMs mit batteriegepufferten RAIDs besser funktionieren als mit direktem SATA, andererseits weil sich wohl nur so die Platten bei Nichtbenutzung abschalten lassen.

Also habe ich mir mal KVM und VirtualBox angesehen. Funktioniert haben beide, wobei KVM anfangs ein bisschen Bastelei war und etwas undurchsichtig ist, insbesondere wenn ohne GUI. VirtualBox funktionierte sofort. Beide lassen sich "headless" betreiben, d.h. die VM kann ohne direkt irgendwo sichtbares Display arbeiten (Remote-Zugriff darauf geht trotzdem) und per Commandline gesteuert werden. Die I/O-Performance von solchen VMs fällt in dieser Konfiguration gegenüber ESXi deutlich ab, aber je nachdem was man damit vorhat (z.B. ein extern zugänglicher Webserver) kann man damit leben.

Der Vorteil von VirtualBox ist, dass die VMs zwischen den Plattformen portabel sind. Einzig der Name vom Ethernet-Adapter passte dem VBox-Linux bei der Verwendung einer in VBox-Windows ezeugten VM nicht.

Keine Bange. Virtualbox ist ziemlich umgänglich.


---------- Beitrag hinzugefügt um 17:43 ---------- Vorheriger Beitrag war um 17:38 ----------



ZFS wäre mir auch recht gewesen, aber das wäre dann entweder BSD oder Solaris als Host, oder ZFS als Userspace Filesystem. BSD und Solaris sind nicht so mein Ding und ein Userspace-FS als Filer auch nicht.

Also wurde es ein Debian mit ext4 (der Ubuntu-Server zickte rum) und RAID-1 via mdadm, vielleicht mit Aussicht auf btrfs wenn das mal reif dafür ist.

PS: Es geistert auch ein etwas seltsames System rum, mit Ubuntu Überbau auf einem Solaris Kernel. Den Namen hab ich grad nicht parat, steht aber irgenwo hier im Thread.

Im Endeffekt kann ich auf ZFS auch verzichten. Wichtig ist mir, dass ich eine gute Datenrate über SMB zustande komme und meine Daten nicht durch mögliche Softwarebugs verloren gehen. Wichtige Dinge sind zwar doppelt und dreifach gesichert, aber der Server soll, sobald er mal eingerichtet ist, keine/kaum Wartung benötigen.


Kommt drauf an was man mit der VM anstellen will. Wenn man einen schnellen Fileserver haben will, dann sollte man den nicht in eine VM packen. Jedenfalls nicht auf einer solchen Plattform.

Anders kann das aussehen, wenn man beispielsweise ins Netz einen Webserver stellen will, der vom Rest der Welt aus sichtbar sein soll. Allein schon aufgrund der mageren DSL-Ausbeute auswärts wird der nicht sonderlich anspruchsvoll ausfallen. Für solche Anwendungen, die man der Sicherheit wegen lieber in eine VM packt als direkt auf den Fileserver, kann diese Plattform völlig ausreichend sein.

Tja, was will ich im Endeffekt machen:

Fileserver - der hat absolute Priorität und soll auch entsprechende Datenraten liefern (sprich am besten lesend GBIT Ethernet (fast) ausnützen ;). Mit dem HW-Raid5 war das im alten Server absolut kein Problem, auch schreibend nicht - aber davon red ich jetzt mal nicht ;)).

Der Rest ist optional:
- Kleiner Testwebserver - wenn, dann nur für interne Zwecke. Kleine LAMP-Installation bzw. mal um verschiedene Dinge durchzuspielen bzw. auch um kleinere Projekte lokal zu testen - im Endeffekt hab ich aber dafür auch noch andere Möglichkeiten. Oder zb. nginx oder lighthttpd oder speziellere Serverkonfigurationen vorab zu testen. OS: Debian
- kleiner Downloadrechner: wenn mal ein größerer Download ansteht das ganze auf den Rechner auslagern. OS: Windows XP

Wie gesagt, großes hab ich damit nicht vor ;)
 
Zuletzt bearbeitet:
also esxi läuft bei mir in der VM 2008 r2 testversion mit vollem netzwerk speed mit HW raid 5 .... auch so hab ich eigentlich kein netzwerk platten probleme.....

vm1 firewall
vm2 win2008

nur die cpu ist etwas schwach wie ich finde wen sabnzb läuft hab ich 65-95% last und das bei 8mb/sek download
 
Haste der vm2 auch beide Cores zugewiesen?
Sabnzb frisst halt beim decoden und dann entpacken ziemlich viel CPU, obwohl meine Synology da auch mit 16mb/s keine grösseren Probleme hat! ;)
 
In der Praxis ist es andersrum. Ein ESXi hat man in wenigen Minuten auf jeder dafür in Frage kommenden Hardware, und tiefere Kenntnisse sind dafür nicht erforderlich.

Das sehe ich etwas anders.
Und die HW Performance beachten die Leute bei der Virtualisierung meist gar nicht, das fällt dann erst auf wenn die VM zu langsam ist.

Wie sieht es bei Solaris bzw. Open Indiana eigentlich mit dem Stromverbrauch aus? In Linux lassen sich die Platten problemlos so einstellen, dass sie nach z.B. 30min Inaktivität runterfahren. Geht das da auch? Wären immerhin mindestens 20W Unterschied.

HDD shutdown geht und CPU taktet runter, Standby oder Suspend geht aber nicht. Verbrauch um die 30W wenn Platten aus.

Bei SMB limitiert bei mir eben die Platte im Windows PC, ansonsten wären da sicher über 100MB/s möglich. Und zwar nicht irgendwelche Benchmarks sondern große Files kopieren.

Nur bei XP ist mir aufgefallen das er anfangs mit 30mb/s kopiert hat und dann langsam schneller wurde.
 
jo ich weis ein i5 760 hat mit sabnzb grad mal 20-30% last der kleine hier 70-100% je nach dem was grad ansteht, da sieht man mal wieviel leistung eigentlich welche cpu hat. win2008 hatte beide cores auf normal und die firewall hatte 1 core mit pio hoch ... das lief ganz ordentlich nur ebend 8tb in esxi zu intregrieren rendundant ist halt ne schwierige sache..... muste 3 x raid 5 anlegen und in vm win2008 wieder zu einer zusammen fügen.... was an der performenz etwas genagt hat. :rolleyes:

deswegen bin ich ganz wieder auf win2008 zurück. schade den die performenz im inet mit der hardware firewall war schon ne tolle sache :hail:

ich weis gehört hier nicht her was gibt es den für alternativen, mit web bassierender NZB client

Haste der vm2 auch beide Cores zugewiesen?
Sabnzb frisst halt beim decoden und dann entpacken ziemlich viel CPU, obwohl meine Synology da auch mit 16mb/s keine grösseren Probleme hat! ;)
 
Zuletzt bearbeitet:
1.1 Jedes Forenmitglied, das länger als 60 Tage registriert ist, darf im Marktplatz handeln.
 
Hallo, ich habe eine Frage an die N36L Profis.

Ich habe folgendes vor und bin mir unsicher, wie und ob es zu realisieren ist.

Eingebaut werden soll ein 3ware 9650SE-8LPML (8-port) Raid Controller.
An diesem angeschlossen 4 x 2 TB 3,5" HDDs (in den Einbauschächten des N36L), welche als Raid 5 als reine Datensicherungs-HDDs fungieren sollen.
Weiterhin angeschlossen werden sollen 4 x 1 TB 2,5" HDDs (in einem Sharkoon Rahmen) ebenfalls im RAID 5 als Datensicherungs-HDDs.

Dann sollten noch 2 weitere 2,5" HDDs hinein, diese angeschlossen an den Onboard Controller. Diese HDDs sollen als Betriebssystem (Boot) HDDs dienen, wovon die eine auf die andere HDD gespiegelt werden soll (Server-Backup).

Ist das alles so möglich? Und wenn ja, welches Kabel benötige ich zum Anschluss von 2 HDDs an den Onboard-Controller ?
Oder geht das alles so gar nicht, weil der Onboard Controller bei Einsatz des 3ware 9650-8LPML gar nicht mehr bootfähig ist ?

Vielen Dank !
 
Möglich schon, aber ist das sinnvoll? Warum so viele Platten?
Warum nicht 4 oder 5*3TB im RAID5, ergibt auch 9 oder 12TB Nutzdaten.
Was soll den fürn OS drauf?
 
OS soll Windows Home Server 2011.

3TB HDDs sind mit irgendwie zu teuer (Preis-Leistung). Und wenn mal eine defekt ist, dann ist es besser eine 2TB auszutauschen als eine 3TB (denke ich).
Wenn 4 x 3,5" HDDs und 6 x 2,5" HDDs nicht sinnvoll sind, dann belasse ich es vielleicht bei den 3,5" HDDs (4 Stück).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh