[Sammelthread] HP ProLiant G8 G1610T/G2020T/i3-3240/E3-1220Lv2 MicroServer

Tja - da dachte ich habe etwas Gutes?! gekauft ...
Bleibt wohl keine Wahl als das ich noch einmal nachlege mit einer M1015.
Danke für die Infos
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der p222 ist schon wirklich gut.
Ich würde den einem Software-Raid vorziehen.
Schön 2 SSDs und 2 HDDs jeweils im Raid1 und man kann glücklich sein.
Oder 2 SSDs im Raid1 an den Onboard Controller und 4 HDDs im Raid 5 an den P222.

ZFS mag vielleicht noch etwas besser sein, aber leider kostet dich das ne Menge RAM bei den begrenzten 16GB.
 
Cobgen8: wieso nimmst du nicht einfach den onboard controller und reichst den durch? Als Datastorage kannst du eine einfache SSD und einen billigen 10-15 € s-ata controller nehmen. Hab ich lange Zeit so genutzt und funktioniert super.
 
Zuletzt bearbeitet:
Bin gerade am überlegen auf ein ESXi umzusteigen und darauf mein Linux-Server, debian und einen Windows 10 zu virtualisieren.

Kann ich dafür einfach geschriebene dd-Backups bzw. .vdi_Files nehmen, damit ich mir das aufsetzen spare?

Und ist es trotzdem möglich dem Windows 10 eine/die dedizierte GPU durchzureichen?
 
ZFS mag vielleicht noch etwas besser sein, aber leider kostet dich das ne Menge RAM bei den begrenzten 16GB.
Und wieder mal "Märchenstunde"
Die Ausage das ZFS viel RAM braucht bezieht sich einzig darauf, wenn Deduplication auf einem Pool eingestellt ist, Hier muß man etwa 1G RAM Pro TB Poolkapazität rechnen.

Ansonsten läuft ZFS ab 2 GB RAM problemlos (Je nach OS auch mal etwas mehr). Mehr Speicher bedeutet halt mehr Cache für das Dateisystem, wobei Caching in vielen Anwendungsszenarien überbewertet wird.
Bei 16 GB RAM kann man 1 GB für ESXi rechnen. 4-8 GB für die Storage VM, Rest für die übrigen VMs.
 
Und wieder mal "Märchenstunde"
Die Ausage das ZFS viel RAM braucht bezieht sich einzig darauf, wenn Deduplication auf einem Pool eingestellt ist, Hier muß man etwa 1G RAM Pro TB Poolkapazität rechnen.

Ansonsten läuft ZFS ab 2 GB RAM problemlos (Je nach OS auch mal etwas mehr). Mehr Speicher bedeutet halt mehr Cache für das Dateisystem, wobei Caching in vielen Anwendungsszenarien überbewertet wird.
Bei 16 GB RAM kann man 1 GB für ESXi rechnen. 4-8 GB für die Storage VM, Rest für die übrigen VMs.


"viel" ist in diesem Fall auf die maximal möglichen 16 GB bezogen.

Da finde ich bereits 4-8 GB (25-50%) viel.
 
Gestern noch freenas 2x installiert. Und ja, das läuft auch mit weniger als 8GB. Und nein, freenas selber sagt "mindestens 8GB".

So viel zum Thema Märchenstunde. Gibt halt Leute, die sich an die Hersteller Empfehlung halten. Und das ist weder Märchen, noch Voodoo, noch iwas. Das ist arbeiten mit den Specs.

Gesendet von meinem XT1635-02 mit Tapatalk
 
"viel" ist in diesem Fall auf die maximal möglichen 16 GB bezogen.

Da finde ich bereits 4-8 GB (25-50%) viel.
Einer "Storage-VM" sollte man eine gewissen Menge RAM fest zuweisen, damit diese auch performant arbeiten kann. >> mehr RAM = mehr Filecache = besserer Performance!
Das gilt im übrigen für jegliches OS, welches als Hauptaufgabe "Fileservices" bereitstellen soll.

Ein HP MS G8 ist sicherlich nicht der ideale Hypervisor für viele und /oder große VMs - eben weil der nur 16 GB RAM kann. Kompromisse muß man da schon machen! (ein NAS4Free läuft auch mit 2 GB RAM noch - ohne weitere Services wie z.B. Plex)

- - - Updated - - -

Gestern noch freenas 2x installiert. Und ja, das läuft auch mit weniger als 8GB. Und nein, freenas selber sagt "mindestens 8GB".

So viel zum Thema Märchenstunde. Gibt halt Leute, die sich an die Hersteller Empfehlung halten. Und das ist weder Märchen, noch Voodoo, noch iwas. Das ist arbeiten mit den Specs.

Gesendet von meinem XT1635-02 mit Tapatalk

FreeNAS:
8 GB of RAM is the absolute minimum requirement. 1 GB per terabyte of storage is a standard starting point for calculating additional RAM needs, although actual needs vary. ECC RAM is strongly recommended.
Wie bereits oben geschrieben ist FreeNAS längst kein reines NAS-OS, sondern sowas wie eine eierlegende Wollmilchsau, die sich in ihren Features an den großen Herstellern von Consumer FertigNASen ausrichtet.
Die 8 GB RAM werden mit Sicherheit benötigt, wenn alle (oder zumindest ein Großteil) mitgelieferten Services aktiviert werden. Für weitere Zusätzlich nachrüstbare Dienste wird man dann auch weiteren Speicher benötigen (Diverse Addons/Plugins/Docker-VMs)
In Sofern muß man hier eigentlich die Angabe der Hardware-Mindestvoraussetzung loben - im ggs. zu dem was MS für seine Betriebssysteme angibt (wirklich arbeiten kann man damit kaum - installieren kann man) *fg*
Die 2. Aussage (1 GB per terabyte of storage) ist irreführend und daher falsch, da diese Berechnung einzig bei Deduplication auf einem Pool Anwendung findet und dann auch nur für den betreffenden Pool zu berücksichtigen ist.


FreeBSD (FreeNAS baut auf FreeBSD auf:
A FreeBSD installation requires a minimum of 96 MB of RAM and 1.5 GB of free hard drive space. However, such small amounts of memory and disk space are really only suitable for custom applications like embedded appliances. General-purpose desktop systems need more resources. 2-4 GB RAM and at least 8 GB hard drive space is a good starting point.


Solaris (ZFS):
The minimum amount of memory needed to install a Solaris system is 768 MB. However, for good ZFS performance, use at least one GB or more of memory.

P.S. NAS4Free empfiehlt auch 8 GB RAM


  • 2GB of RAM is the absolute minimum required for running swap less.
  • 512MB of free RAM is the minimum required for upgrading the Embedded platforms.
  • Using advanced features like software RAID 5 and enabling lots of functions may need more RAM (4GB or greater).
  • For using ZFS, we do recommend a absolute minimum of 8GB RAM.

P.P.S. mein unwichtiges "Kultur"-NAS arbeitet mit 4 GB RAM unter N4F problemlos - seit mehreren Jahren....
 
Zuletzt bearbeitet:
Cobgen8: wieso nimmst du nicht einfach den onboard controller und reichst den durch? Als Datastorage kannst du eine einfache SSD und einen billigen 10-15 € s-ata controller nehmen. Hab ich lange Zeit so genutzt und funktioniert super.
Das habe ich auch versucht - funktionierte nicht. Es steht auch überall das "Fake-Controller" nicht durchgereicht werden können.So habe ich es zumindest verstanden und habe es auch nicht hinbekommen. Deshalb habe ich den P222 erworben. Ich wollte halt ein SoftwareRaid haben wegen des besseren Zugriffs wenn die Platten mal rauusgenommen werden müssen z.B. Controller kaputt. So meine Vorstellung Ich bin ja auch noch Learner ;-)


Gesendet von meinem P1060X mit Tapatalk
 
Der p222 ist schon wirklich gut.
Ich würde den einem Software-Raid vorziehen.
Schön 2 SSDs und 2 HDDs jeweils im Raid1 und man kann glücklich sein.
Oder 2 SSDs im Raid1 an den Onboard Controller und 4 HDDs im Raid 5 an den P222.

ZFS mag vielleicht noch etwas besser sein, aber leider kostet dich das ne Menge RAM bei den begrenzten 16GB.
Den wirklichen Vorteil/Nachteil habe ich noch nicht erkannt zwischen SoftwareRaid (SR) und HardwareRAID (HR). Ich gehe davon aus , dass man besser auf die Hdds bei Problemen zugreifen kann als beim HR.
FreeNas ist jetzt nicht so mein Ding, stehe mehr auf Debian. Nutzte auch Privat Linux auf dem HomePC - ist mir also ein wenig bekannt .
Ich habe mir jetzt eine M1015 besorgt und flashe die um in ITMode und sehe dann weiter.

Ziel soll sein ein SR mit 2x8TB HDD für geschäfts/privat Daten im Raid 1 sowie 1 x 8TB als Cloudserver und 1x 8TB als Medienserver.
Irgendwie muss auch noch ein Backup dazwischen (evtl der Medienserver)

Gesendet von meinem P1060X mit Tapatalk
 
Wenn schon Software-Raid, dann ZFS.

Meine persönliche Meinung lautet:

Dateisystem-Raid (ZFS, BTRFS(Betastadium) > Hardware-Raid > Software Raid(MDADM, Windows) > Fake-Raid (Mainboardzeug)

Gea wird dir sicher gerne die Vorteile von ZFS aufzeigen und dir den Link zu seinem Napp-IT geben.


@gea

hau mal deinen ZFS-Vorteile Baustein rein.
 
Zuletzt bearbeitet:
Einen Baustein habe ich nicht, sehe das aber so

Bei einem herkömmlichen Raid (egal ob Hardware, Software, Fakeraid oder wie auch immer genannt) liegt unterhalb des Betriebssystems etwas das diesem ein Raidarray als eine einzelne Platte anbietet. Die Unterschiede liegen zunächst nur in der Performance, in Management Features und in der Stabilität. Ansonst ist das Jacke wie Hose.

Jedesmal hat man das gleiche Problem, genannt Write-Hole Problem,
"Write hole" phenomenon in RAID5, RAID6, RAID1, and other arrays.

Man kann sich z.B. bei einem Raid-1 so vorstellen.
Bei einem Schreibvorgang werden beide Mirrorhälften nacheinander aktualisiert. Stürzt dazwischen das System ab, so sind die beiden Mirrors unterschiedlich. Je nachdem welche Hälfte gelesen wird erhält das OS gute oder korrupte Daten. Das Raid selber kann das nicht erkennen, das OS auch nicht.

Bei Hardware-Raid kann man das Problem mit einem Cache + Batterie/ Flashbackup etwas reduzieren.

Lösen kann man das Problem nur, wenn das OS selber jede Platte einzeln anspricht und die Daten + Metadaten mit Prüfsummen versieht. Dann kann das OS korrupte Daten erkennen und vom anderen Mirror lesen und das Raid-1 automatisch reparieren. Man ahnt es, das ist der Grund warum Sun bei ZFS Prüfsummen auf Daten und Metadaten eingeführt hat und Raid bei ZFS mitlieferte. ZFS = CopyOnWrite Dateisystem + Raid mit Raidmanagement + Volumemanagement + Sharemanagement (Solarish only).


Daneben gibt es ein weiteres Problem das nicht mit Raid zusammenhängt aber auch darauf beruht, dass jeder Schreibvorgang zwei Aktionen benötigt, nähmlich Daten schreiben und anschliessend Metadaten aktualisieren. Ein Crash dazwischen führt zu einem korrupten Dateisystem an dieser Stelle. Man ahnt es, das ist der Grund warum Sun bei ZFS CopyOnWrite auf Dateisystemebene eingeführt hat. Damit werden entweder beide Aktionen ausgeführt oder keine. Ganz nebenbei erhält man damit Snaps auf Basis des vorherigen Dateninhalts.
 
Zuletzt bearbeitet:
Für mich ist ZFS einfach ein recht rundes Gesamtsystem aus Datensicherheit, Komfort, Flexibilität und Performance (wenn richtig genutzt und konfiguriert). Ich hab vor 2012 damit angefangen und seitdem keine einzige korrupte oder verlorengegangene Datei mehr. So nebenbei hab ich dabei doch einiges über Virtualisierung und OS'se abseits Windows gelernt.
Und dabei komm ich ursprünglich eher von der Windows-Fraktion und HW-Raid (hatte z.B. einen Areca ARC-1210 und wäre danach auf einen LSI 9260/65 gegangen) btw.
 
Zuletzt bearbeitet:
Ok danke . Werde mich mal weiter einlesen und versuchen. Hier erst einmal meinen Dank.

Gesendet von meinem P1060X mit Tapatalk
 
Dito. Hier auch primärer Microsoft Fenster-Schubser mit Minimal-Erfahrungen in der Linux-Welt und inzwischen überzeugter Solaris-Jünger für alles rund um fileserver.
 
Das sehe ich anders. In den Versionshinweisen zu 2.55(a) und 2.55(b) steht ganz eindeutig, dass diese im Rahmen einer Paketierungsänderung veröffentlicht wurden. Es würde mich sehr stark wundern, wenn Du irgendwann eine iLO Version 2.55(b) in Deinem Web Interface siehst. Seit gefühlten hundert Jahren (iLO1-iLO5) folgt HP dem gleichen Versionsschema. Meinst Du nicht, dass eine Änderung des Versionsschema auf plötzlich enthaltene Buchstaben signifikant größere Probleme bringen würde, als eine neue Version 2.56? Es ist auch durchaus möglich, dass ein Sicherheitsproblem in der scexe Paketierung zu einem neuen Release mit alter Firmware führte oder was auch immer.
Die Aussage eines Supportmitarbeiters ändert daran überhaupt nichts.
Ob ich eine Stunde im HPE Chat Support verbracht hätte, um auf ein Update zu bestehen, dessen Nutzen ich überhaupt nicht kenne, weiß ich jedoch nicht :)

Nichts destotrotz: ich weiß es nicht sicher und freue mich auf neue Nachrichten des HPE Supports und Deinen Screenshot mit 2.55(b) :)
Entschuldigung fur den Beitrag. Zumomdest wurde geklärt und andere werden meinen Fehler nicht wiederholen.


Sent from my iPhone using Tapatalk
 
Da gerade das Thema ZFS aktuell war ... ;)
Ich hab einen i3-3240 verbaut und 4x3 TB WD Red. Aus diesen hab ich mittels B120i ein Raid10 erstellt, was als Datastore für ESX herhellt. VMS liegen auf einer SSD. Auf dem Raid 10 werden 80 % für einen Platte belegt die dann von OMV für alles mögliche zur Verfügung gestellt wird. NFS, SMB Freigaben, Nextcloud blablabla.

Da ein andere Controller und ein anderer Prozessor nicht in Frage kommen hab ich nur 3 Szenarien die für mich in Frage kommen:
1. Raid 10 über B120i behalten
2. Alle 4 Platten per RDM an OMV weitergeben und ein Software Raid 5
3. Alle 4 Platten per RDM an OMV weitergeben und per ZFS weitermachen

Die OMV VM hat 4 GB RAM zur Verfügung. Höchstesn wären 5 möglich. Reicht das für ZFS ohne Dedup?
 
RDM und ZFS sollte vermieden werden. Da zerstört man sich auch die Vorteile, die ZFS gegenüber anderen Software-Raids hat auch direkt wieder.
Generell ist von RDM für Software-Raid abzuraten.

Option 1 ist das sauberste.
Die Nummer fortschrittlicher wäre ein Xeon mit PCIe Passthrough des Onboard-Controllers + Mini-Controller für die SSD
 
3. Alle 4 Platten per RDM an OMV weitergeben und per ZFS weitermachen
wäre mein favorit.
ich habe extra den raid-controller aus dem 2. würfel entsorgt damit ZFS direkt an die platten kommt, ich denke gelesen zu haben dass nur dann die automagische selbstheilung geht (ZFS kann mit SATA wohl recht gut umgehen)...

Die OMV VM hat 4 GB RAM zur Verfügung. Höchstesn wären 5 möglich. Reicht das für ZFS ohne Dedup?
"ohne Dedup" ist wohl die wichtige aussage, also: ja.
 
Ok. Da der PCIe Slot belegt ist und ein neuer Prozessor nicht im Budget liegt, bleibt im Prinzip nur Option 1? Kacke .. da gehen quasi 3 GB flöten :P
Wo genau liegt bei RDM das Problem?
 
Ich korrigiere mich, MicroCane ist der Schlauere von uns beiden, der hat da deutlich mehr Erfahrung ;-)

RDM und ZFS sollte vermieden werden. Da zerstört man sich auch die Vorteile, die ZFS gegenüber anderen Software-Raids hat auch direkt wieder.
Generell ist von RDM für Software-Raid abzuraten.

Ich dachte RDM bedeutet durchreichen der kompletten HD ?
Was wäre daran falsch ? Das ist dann doch wie direkter Zugriff ?!?
 
Genau, mittels RDM reicht man die Platte durch. Allerdings nicht so richtig zu 100%. SMART Abfragen z.B. sind nicht möglich.
 
Ok, ohne SMART ist das natürlich doof... Ich dachte das geht alles auch, also RDM äquivalent direkt...
Verstanden...
 
Es liegt auch quasi der VMware-Treiber dazwischen. Der kann durch Caching usw. das eigentlich behobene Write-Hole Problem wieder erzeugen.
Man könnte trotzdem das normale MDADM-Raid von OMV ausprobieren. Versuch macht klug.

Ein nennenswertes Budget brauchst du für einen Xeon nicht.
Ein 1225 v2 gibts meist günstig um die 30 Euro.

Edit: Preise sind ganz schön gestiegen. Hatte meinen für 35 gekauft. Aber für 50 dürfte der zu bekommen sein mit etwas Geduld.


@tcg:
Eigentlich ist RDM eher folgendes:
Blockiere den kompletten Speicherplatz der Festplatte
Reiche diesen an die VM durch.

Daher wird auch der VMware-Treiber genutzt.
 
Zuletzt bearbeitet:
Ich schau mich mal um ... einfach nur ausprobieren möchte ich nicht ohne weiteres, da das Raid 10 voll mit Daten ist und es einen nicht unerheblichen Aufwand erfordert alles zwischenzuspeichern etc und nachher möglichst fix wieder zum laufen zu bekommen.
Nextcloud etc wird hier täglich genutzt .

Hat jemand Erfahrung mit RDM und ZFS?
 
Die Ausfallzeit kannst du sogar auf auf null minimieren, indem du eine vCenter-Appliance (30 Tage Testzeit) aufsetzt und die VMs auf einen NFS Datastore (PC oder NAS mit ausreichend Festplattenkapazität). Danach die Platten an die VM reichen, alles einrichten, Datastore einbinden und alles wieder zurückschieben.

Edit: Google einfach nach RDM ZFS, dann kannst du dir selbst ein Bild machen
 
Zuletzt bearbeitet:
Die VMs sind nicht das Problem, sondern die Daten auf dem Raid 10. Das kopieren dauert allein nen halben Tag. Viel kleiner scheiß.

Gegoogelt hab ich. Finde aber wenig konkretes was ich für bare Münze nehmen würde.

Das SW Riad 5 ist natürlich auch eine Möglichkeit. Ich höre immer nur recht häufig, das im Falle eines Rebuilds meistens in solcehn Konstellationen die zweite Platte ausfällt. Da fahren ich mit dem Raid10 momentan besser.....oder auch nicht :P
 
Zuletzt bearbeitet:
Frage DOOF - BUMM - Gehirn auf Wand verteilt - bitte ignorieren...
Habe die Tage einen weiteren Gen8 in der Bucht geschossen - mein Erster ist irgendwie doch zu produktiv geworden, als dass ich damit ein wenig herumexperimentieren könnte.
Irgendwo las ich hier etwas von einer auf den Gen8 abgespeckten kompletten Update-ISO, welche ich mir wirklich gern mal ansehen würde. Vielen Dank vorab!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh