HomeServer/ Software NAS

tbchris112

Neuling
Thread Starter
Mitglied seit
10.03.2023
Beiträge
9
Hallo Zusammen
Ich bin seit kurzem dabei mir einen Homeserver selber zusammen zu stellen. Aktuell tauchen jetzt leider immer mehr fragen bei mir auf. Ich hoffe Ihr könnt mir hier helfen :)

Folgende Sachen soll der Server können bzw. sollen auf dem Server laufen:
1. VMWare oder Proxmos für die Virtualisierung
2. NAS als Backup für Handys / Computer / etc
3. WIN11 Maschine
4. Mehre Linux Maschinen bzw. Container die jeweils kleinere Funktionen übernehmen sollen
5. Weiteres um einfach ein wenig zu testen und sich mit Linux endlich mal mehr auseinandersetzen zu können


Folgende Hardware liegt bei mir schon zu Hause bereit:

Mainboard: SuperMicro X11SSL-CF
CPU: Intel XEON E3-1220V5
RAM : HMA82GU7CJR8N-VK 2666 Hynix DRR4 2Rx8 ECC UDIMM
HDD : 4x 4TB IronWolf
SSD: Muss ich noch gucken (Raid 1 für die einzelnen virtuellen Maschinen und eine für ESXI oder Proxmox war meine Idee)
Gehäuse : SilverCrest RM41-H08 + 3Bay Wechselrahmen 3,5 Zoll + 6x Wechselrahmen 2,5 Zoll
Grafikkarte : keine, da nicht benötigt
Netzteil : irgendeine Altes was ich noch habe, irgendwann mal dieses: beQuiet SFX Power 300W


Mit Windows kenn ich mich ziemlich gut aus, Linux lässt zu wünschen übrig...wird aber :)

Nun zu meinen Fragen:

Proxmox oder VMware als Virtualisierungshost?

Wie baue ich das NAS auf?? (Schwierigste Entscheidung für mich)
- Die Festplatten für das NAS möchte ich direkt an die VM durchreichen bzw direkt den ganzen Controller durchreichen (LSI3008 controller for 8 SAS3 (12 Gbps) ports; RAID 0,1,10)
- Möchte eigentlich ZFS Nutzen aufgrund der Datenintigrität und der vielen weiteren Vorteile, bin aber kein Freund von FreeBSD und TruenNAS finde ich ziemlich komplex und zu Overloaded. Hatte schön überlegt ZFS in Openmediavault zu installieren, schrecke aber davor ab da es ja nicht "Standard" ist und man hier am System rumfummeln muss.
- Oder nimmt man gleich die Raid Funktion des OnBoard Controllers?

- Was haltet ihr von XigmaNAS?

Fragen über Fragen....ich hoffe ich könnt mir weiterhelfen.

Vielen Dank schonmal im Voraus :)


Grüße
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ZFS wurde ursprünglich unter und für ein Solaris Unix entwickelt. Da ist ZFS das primäre Dateisystem und nicht wie anderswo das gefühlte 5. Rad am Wagen und benötigt nach wie vor die geringsten Resourcen (ab 4GB) was besonders wichtig ist wenn man eine Storage VM virtualisieren möchte und nicht dafür bereits 8-16GB haben sollte. Oracle Solaris ist kommerziell (frei für nichtkommerzielle Heimnutzung). Ich bevorzuge aber den OpenSource Solaris Fork OmniOS, https://omnios.org/

Für ESXi habe ich ein ZFS Storageserver Template mit Web-UI direkt zum Download und Bereitstellen.
Damit ist das in 5 Min betriebsfertig installierert, https://www.napp-it.org/downloads/napp-in-one.html

Manuals für All in One, siehe

Die Anleitungen gelten für andere VMs entsprechend z.B.
https://b3n.org/freenas-9-3-on-vmware-esxi-6-0-guide/
 
Zuletzt bearbeitet:
Proxmox ist im Unterbau Debian Linux und nutzt die KVM-Virtualisierung. Hat daher aber ZFS mit drin.
Man kann sogar einen ganz normalen Linux-Desktop oder andere Pakete nachinstallieren, die halt Debian kennt. Auch ein Samba-Server geht direkt z.B. . Ist nicht wirklich die reine Lehre sowas zu tun, geht technisch aber. Kann Vorteile so haben bzgl. I/O-Leistung, hebelt aber dann aber etwas das VM-Prinzip aus.

ESXI ist proprietär und unterstützt weniger Hardware, aber wurde direkt und nur für Virtualisierung geschaffen. ESXI hat z.B. auch weniger Powermanagement und ist nicht so auf Stromsparen jedes letzten Watt gedacht, weil halt für Datacenter-Betrieb konzipiert.
Proxmox ist daher typischerweise niedriger in der Leistungsaaufnahme als ESXI

Beide Systeme haben daher Vor- und Nachteile.

Xigmanas ist eine relativ schlanke NAS-Appliance, basierend auf FreeBSD. Vor einigen Jahren gab es ja FreeNas, das hat sich dann aufgespalten in der Weiterentwicklung.
Im Gegensatz zu TrueNas ist es puritanischer gestaltet, aber sparsamer im eigenen Verbrauch von CPU/Ram. Will sagen: es ist recht schlank und nicht so "fett" wie TrueNas.
Nutze ich seit 2013 als Storage-VM in ESXI.

Wenn man ZFS nutzen will: hands off von Hardware-Raid oder Controller mit Cache onboard. ZFS benötigt die Platten ohne weitere Hardwareschicht dazwischen.
Der LSI3008 ist perfekt für ZFS, dort für ZFS bitte daher als reinen Hostbusadapter (IT-Firmware) nutzen, kein Raid, kein im Controller eingerichtetes JBOD.

Ich hab als Zweitserver aber auch nen kleinen Proxmox-Qube hier.
Evtl. stell ich den ESXI um auf Proxmox, da drucks ich aber seit Monaten rum.
 
Zuletzt bearbeitet:
Der LSI3008 ist perfekt für ZFS, dort für ZFS bitte daher als reinen Hostbusadapter (IT-Firmware) nutzen, kein Raid, kein im Controller eingerichtetes JBOD.
Hier möchte ich anmerken, dass beim angemerkten TrueNAS auch ein 2008er Controller nutzbar wäre.
Die bekommt man für unter 40EUR (mit Glück sogar für 35EUR) auf ebay, auch aus Deutschland. (vereinzelt auch bei anderen Onlinehändlern)

Zu beachten ist bei dem, dass dieser von ESX nicht mehr unterstützt wird, was aber für das Durchreichen nicht von Belang ist.


habe ich ein paar mal da, kann man entweder so als RAID Controller belassen oder aber für ZFS eben relativ einfach in den IT-Mode versetzen.
Die 3000er fangen dann ja beim min. 3-fachen an. Die wären dann auch direkt durch den ESX nutzbar, falls man kein Durchreichen mehr machen will.
 
SAS2008 für HDDs unter BSD/Linux ja. Für SSD-Pools (hier wohl nicht relevant) oder wenn man z.B. nur einen PCIe gen3 x2 oder x4 slot hätte, würde ich davon eher absehen.
 
Naja, man muss sich der PCIe Bandbreite bewusst sein.
Der 2008 (bekanntlich PCIe 2.0) macht bei x4 noch ~2 GB/s, bei x2 noch 1GB/s.

Ich sehe da @home kein Problem. Bei x1 würde ich aber schon ins Grübeln kommen.
Es ist ja nun auch nicht so, dass die SSDs explodieren, wenn das Interface des Controllers deren Datenrate nicht schafft.
Was bringt einem die enorme Bandbreite, wenn es eigentlich eher auf die Latenz abkommt?
Klar kann man auch alles mit NVMe vollpflastern.

Sicherlich ist der 3000er zukunftsfähiger, das zahlt man aber auch. Und da die nächste oder übernächste Itteration an Server NVMe only sein wird, wachsen auch da die Controller raus. Schon heute gibt es ja die 3000er für gutes Geld und "morgen" dann noch besseres Geld.

Man kann, wenn man auf RAID steht, ja auch auf nen HP H240 einen Blick werfen. PCIe 3.0 x8 und 12G SAS.

Das sind aber eh theoretische Gedankenspiele, da das MB glaube ich eh nen 3000er onboard hat. Hier sollte man sich aber überlegen, ob man den wirklich in den IT-Mode umfläschen will. So von wegen der Rückbaubarkeit und so...
Da würde ich dann doch lieber nen Opfercontroller verwenden, da tuts dann meiner Meinung nach auch der 2000er.
 
Zuletzt bearbeitet:
Der 2008 (bekanntlich PCIe 2.0) macht bei x4 noch ~2 GB/s, bei x2 noch 1GB/s.

Ich sehe da @home kein Problem. Bei x1 würde ich aber schon ins Grübeln kommen.
Es ist ja nun auch nicht so, dass die SSDs explodieren, wenn das Interface des Controllers deren Datenrate nicht schafft.
Was bringt einem die enorme Bandbreite, wenn es eigentlich eher auf die Latenz abkommt?

Sehe ich auch so. (y)
 
<OT, da es nicht die Frage des TE war>
Nope, ich seh das leicht anders; wenn ich einen SSD-Pool aus Sas oder Sata baue, dann möchte ich auch den bestmöglichen Durchsatz und IOPS über einen HBA. Latenz ist extrem wichtig, jawohl, aber ich verlange dann auch den seq Durchsatz davon. Snapshot oder VM oder Videofiles kopieren, Scrub durchführen, etc.. Ob man das so haben muss, kann jeder nur für sich entscheiden.
Ferner: der Preisaufschlag des 3000er vs 2000er im Verhältnis zu den Preisen der SSDs spielt faktisch keine Rolle. Ob ich da noch nen 50er oder 100er Schein rausjuckel, macht da einfach nix mehr aus.
Dazu kommt: mit dem 3000er ist man flexibler, will man doch mal das Ding für ESXI-eigene lokale Datastores nutzen. Oder man will mal nen Expander dranhängen; dann ist man froh um die PCIe-Busbandbreite.
</OT>


Flashen des SAS auf den Supermicroboard war bei mir noch nie ein Problem; es gibt ja offiziell IT und IR Firmwares. Abgesehen davon, meine kamen immer im IT-Mode an.
 
Zuletzt bearbeitet:
Klar kann man auch den onboard flashen. Nur muss man das eben auch wollen. Die LSI sind ja schon etwas robuster was das zerflashen angeht. Dennoch bleibt eben ein Restrisiko.
Weiterhin ist nicht pauschal zu sagen, in welchem Modus die onboard LSI bei SM kommen.
Es gibt da sowohl als auch. Was hattest du denn für MBs?
Es gibt die Dinger mit
IT-Mode (z.B. 2116)
0815 RAID Mode (0,1,10) (z.B. 3008)
RAID Mode (0, 1, 5, 6, 10, 50, 60) (z.B. 3108) da dann idR mit optionaler BBU
Und SM nutzt halt das, was zum MB am besten passt.
Bei großen MBs eher den 3108 und bei einer kleineren Plattform eher den 3008.

Was die Verwendung angeht, kann man ja auch den onboard 3008 so lassen und als RAID1 fürs OS verwenden. Ein weiterer 2000er kann dann als durchgereichter Controller für das nested storage dienen.

Keiner sagt, dass der 2000er die gleiche Performance hat wie der 3000er. Nur die Frage ist doch, was habe ich damit vor?
Wenn man einen einfachen Storagepool will, ja, auch mit SSDs, dann ist der 2000er, meiner Meinung nach, eine solide Wahl. Besonders dann, wenn man den in einen >= x8 Slot betreiben kann. (z.B. der GPU Slot).
Dann ist man bei ~4GB/s und das sollte @home für alle Lebenslagen reichen. Und selbst wenn man ihn nur mit x4 betreiben kann, sind, meiner Meinung nach, die erreichbaren 2GB/s noch immer ausreichend für den homeuse.
Wer natürlich vollen Speed ohne Rücksicht auf Verluste will, der kann natürlich zum 3000er greifen. Wobei ich dann eher NVMe als das Maß der Dinge ansehe und da kommt auch nen 3000er nicht mehr weit.
Und 50 oder 100 haben oder nicht haben. Warum sollte man für etwas bezahlen, was man "eh" nicht braucht? Das Geld kann lieber in z.B. mehr RAM investieren oder in eine etwas stärkere CPU. Das bringt in aller Regel mehr als die Erhöhung der Busbandbreite von 2 oder 4 auf 4 oder 8 GB/s.

Wichtig ist am Ende, dass man sich der technischen Eigenschaften der Lösungen bewusst ist, wo sind ihre Grenzen und was bekommen ich für mein Geld, bzw. wie kann ich das eingesetze/gesparte Geld einsetzen.
 
Möchte man den 3000 voll ausnutzen mit SSD's im Netzwerk braucht man eh ne 100G Lan Karte, die haben aber wohl die wenigsten.
Das Gerät gegenüber braucht dann auch so schnellen Storage. 10G bekommst ja schon mit dem 2000 ausgelastet.
 
Warum ein SFX Netzteil, wenn ATX passt? In dem Gehäuse geht es doch nicht allzu eng zu.
Auch wieder richtig. ATX ist jetzt drin. Bleibt auch bei ATX :)
Hier möchte ich anmerken, dass beim angemerkten TrueNAS auch ein 2008er Controller nutzbar wäre.
Die bekommt man für unter 40EUR (mit Glück sogar für 35EUR) auf ebay, auch aus Deutschland. (vereinzelt auch bei anderen Onlinehändlern)

Zu beachten ist bei dem, dass dieser von ESX nicht mehr unterstützt wird, was aber für das Durchreichen nicht von Belang ist.


habe ich ein paar mal da, kann man entweder so als RAID Controller belassen oder aber für ZFS eben relativ einfach in den IT-Mode versetzen.
Die 3000er fangen dann ja beim min. 3-fachen an. Die wären dann auch direkt durch den ESX nutzbar, falls man kein Durchreichen mehr machen will.
Wieso sollte ich mir einen zusätzlichen Controller anschaffen wenn ich doch schon einen Onboard habe?? Erschliest sich mir nicht. Wenn ich den auf dem MB vorhandenen SAS Controller direkt an die NAS VM durchreiche, dann hat diese doch direkt Zugriff auf die Platten. Daher erschließt sich mir nicht die Thematik mit dem Flashen.



Ich würde gerne nochmal den Fokus auf meine Fragen lenken, da ich mir immer noch unsicher bin was ich am besten einsetzen soll ;)
 
Wieso sollte ich mir einen zusätzlichen Controller anschaffen wenn ich doch schon einen Onboard habe?? Erschliest sich mir nicht. Wenn ich den auf dem MB vorhandenen SAS Controller direkt an die NAS VM durchreiche, dann hat diese doch direkt Zugriff auf die Platten. Daher erschließt sich mir nicht die Thematik mit dem Flashen.
Weil du nicht möchtest, dass irgendeine Intelligenz eines Controllers sich zwischen dem Storagedevice (sprich HDD/SSD) und dem ZFS befindet.
Der angedachte 3008 beinhaltet genau eine solche Intelligenz, wenn er im Auslieferungszustand ist.
Daher ist es notwendig, ihm diese Intelligenz zu nehmen, sprich ihn zu einem HBA zu machen, das ist die besagte IT-Mode Firmware.

Daher hättest du jetzt keinen direkten Zugriff auf die Platten, auch wenn du den Controller durchreichst.

Die Zauberformel ist also: ZFS nur mit dummen Controllern, alles andere geht zu lasten von ZFS und damit der ganzen Zauberei, warum man ZFS einsetzen will

Wenn dir TrueNAS zu überladen ist, gibt es auch andere, ggf. sogar bessere, Optionen. Hier ist der ZFS Thread im Forum zu empfehlen. Da gibt es z.B. Solaris basierte Ansätze.
Einfach mal durchlesen den Thread, dazu ist der ja da.

Ansonsten kann man auch RAID nutzen, nur dürften die RAID1 Overheads nicht zu verachten sein und von den ZFS-Fähigkeiten kann man in dem Fall ja bekanntlich nur träumen.
 
Zuletzt bearbeitet:
Und ich hatte mir extra ein Board mit Onboard Controller gekauft... Dachte es wäre so einfach. Naja ;)
Bedeutet dann ich müsste den auf dem Board befindlichen 3008 Controller auch in den IT Mode flaschen.
Beitrag automatisch zusammengeführt:

Flashen des SAS auf den Supermicroboard war bei mir noch nie ein Problem; es gibt ja offiziell IT und IR Firmwares. Abgesehen davon, meine kamen immer im IT-Mode an.
Vielleicht eine Blöde Frage: Aber wie erkenne ich bei den SuperMicro Boards in welchem Mode der Controller ist?
 
Traditionell hatte man nur Sata als Schnittstelle, Das konnte man nicht generell einer Storage VM zur Verfügung stellen da man Sata zum Booten von ESXi und/oder lokalem Datastore für die Storage VM benötigt. Auch wird das Durchreichen einzelner Sata Platten von ESXi nicht direkt unterstützt und geht nur umständlich. Die ideale Lösung war daher bisher ein SAS Controller im passthrough Modus. Geht sehr problemfrei und kann zudem 2x12G mit SAS Platten statt nur 6G wie Sata.

Hat man einen SAS Controller so gäbe es auch die Möglichkeit einzelne Platten statt dem ganzen Controller durchzureichen. Ist aber eher interessant wenn man mehrere VMs direkten Plattenzugriff geben möchte. Interessanter bei aktuellen Boards ist der M.2 Slot oder NVMe per pci Adapter. Das kann man zum Booten und als lokalem Datastore nehmen und Sata durchreichen oder Sata zum Booten und NVMe durchreichen. SAS ist nach wie vor das Mittel der Wahl für viele Platten.

Es gibt zwar auch eine Raid-5 Firmware (Finger weg mit ZFS) für die LSI HBA Controller, in der Regel kommen die aber mit IT Firmware (kein Raid, ähnlich Sata/AHCI) oder IR (Raid 1/10). Beide sind für ZFS gut geeignet, IT kann vor allem bei vielen Platten + Expandern mehr Platten versorgen. Ein Umflashen IR/IT ist möglich aber nicht erforderlich.

Manche Boards mit > 6 Sata haben teils die Möglichkeit nur einen Teil der Sata durchzureichen da die als getrennte pci-e devices angebunden sind.
Beitrag automatisch zusammengeführt:

Vielleicht eine Blöde Frage: Aber wie erkenne ich bei den SuperMicro Boards in welchem Mode der Controller ist?

Nach dem Booten meldet sich die Controller Firmware und zeigt Modus, Firmware Version und angeschlossene Platten.
 
Zuletzt bearbeitet:
Und ich hatte mir extra ein Board mit Onboard Controller gekauft... Dachte es wäre so einfach. Naja ;)
Bedeutet dann ich müsste den auf dem Board befindlichen 3008 Controller auch in den IT Mode flaschen.
Die Idee ist ja an sich auch nicht verkehrt und der 3008 auch mitnichten ein schlechter Controller. Eher im Gegenteil, nativ unter ESX ist die Iteration mittlerweile notwendig, das VMware den Support für die 2000er mit 7.0 gecancelt hat.

Ggf. hätte man mit einem sehr fokussierten Usecase ein günstigeres MBs und dann einen (gebrauchten) 2000er Controller nehmen können.
Ein separater 3000er schlägt gebraucht mit rund 100 zu Buche, kann man ja mal vom MB-Preis anziehen und schauen was man dann bekommen hätte.

Auch wenn ich persönlich eher den IT statt dem IR Mode nehmen würde, ist der IR-Mode bei den 0815 RAIDs klar etwas weniger problematisch als bei einem fullstack RAID Mode, insbesondere mit dem dazu gebauten Flash. Gerade letzterer kann im Zweifel ZFS das Genick brechen. Aber auch der 0815 IR-Mode ist eben noch immer eine Intelligenz.

Und zum Testen, HDDs ran, in das Controller BIOS rein und schauen ob man ein RAID erstellen kann. Wenn ja, dann IR-Mode, wenn nicht, dann IT-Mode.
Wobei im Auslieferungszustand IR-Mode an sein dürfte, da man ja nicht einfach so aus dem Stand die Firmware umflasht (nicht updated).
Beitrag automatisch zusammengeführt:

Möchte man den 3000 voll ausnutzen mit SSD's im Netzwerk braucht man eh ne 100G Lan Karte, die haben aber wohl die wenigsten.
Das Gerät gegenüber braucht dann auch so schnellen Storage. 10G bekommst ja schon mit dem 2000 ausgelastet.
Man muss ja nicht immer alles auf ein LAN schieben. Es kommt eben stark auf den Usecase an. Für internes Storage ist das ja eine andere Diskussion. Wobei ich dann wohl eher auf NVMe gehen würde.
Es gibt bei der Nummer eben kein Schearz/Weiß. Es kommt auf den Usecase und so einiges mehr an. Man kann sich ggf. eben 50 oder 100EUR sparen, wenn man das geschickt designt.

EDIT:
Ich habe z.B. ein MB mit einem 16Port 2000er drauf. Dieser ist im IT Mode. Also optimal für z.B. TrueNAS oder sowas, aber total nutzlos, wenn man den irgendwie für ESX verwenden will.
Sprich mein MB ist "doof" für ESX und deines ist "doof" für TrueNAS (ZFS). Egal was du machst, machst du es falsch. Wichtig ist eben, dass man sich damit irgendwie arrangiert. Bei dir mit dem IT-Mode sicherlich einfach machbar. Wohingegen der ESX eher etwas störriger ist...
 
Zuletzt bearbeitet:
Ergänzung
IR Firmware heißt nicht dass man ein Controller Raid für ZFS nutzen muss oder sollte. Das auf keinen Fall. Die IR Firmware kann problemlos oder besondere Einstellungen die Platten einzeln an ZFS weiterreichen. Der Unterschied zur IT Firmware ist also lediglich dass damit ein Controller Raid möglich wäre z.B. als ESXi/Windows Bootdevice, Die IR Firmware ist auch nicht soviel größer als dass damit ein Performance oder Stabilitätsverlust entstehen würde.

Im normalen Gebrauch unter ZFS ist praktisch kein Unterschied. Bei manchen Firmwares war es allerdings so dass die Platten mit IR Firmware nicht über ihre weltweit eindeutige WWN (t5000CCA2732387E9) sondern über eine Controller ID wie c0t0d0 (erster Controller, erstes Kabel, erste Partition) erkannt wurde. Bei vielen Platten am Server war das unschön bis untauglich.

Ich würde bei Neukauf aber immer versuchen einen12G/3008 zu bekommen. 2008 ist halt schon arg alt, kann halt nur halbe Performance und soviel spart man auch wieder nicht bezogen auf die Gesamtkosten. Die SSD werden ja auch immer schneller und 2x12G SAS SSD sind oft nicht so viel teurer als single 6G Sata und man hat nicht die Probleme wie bei mehreren NVMe beim Passthrough.
 
Die SSD werden ja auch immer schneller und 2x12G SAS SSD sind oft nicht so viel teurer als single 6G Sata und man hat nicht die Probleme wie bei mehreren NVMe beim Passthrough.
Woran machst du das mit den Preisen fest?
vs.

Des Weiteren muss man aber auch erstmal eine Dual Port SAS SSD an den Controller angebunden bekommen.
Das bedeutet entweder spezielle Kabel oder aber eine spezielle Backplane (bzw. Expander Backplane)
Ansonsten ist man "nur" bei 12G SAS.
Davon ab gibt es ja auch 24G SAS, was dann ggf. die einfachere Wahl ist.
Dass SATA bereits heute die Speichertechnologie begrenzt hat ja auch keiner bestritten. Man darf aber auch nicht den Use Case vergessen.
Dieses ewige höher, schneller, weiter bei NVMe versaut die Norm. Gerade im einfachen Homeanwendungsbereich (und damit ist nicht explizit Storage) gemeint, merkt man den Unterschied zwischen PCIe 3.0, 4.0 und 5.0 nur unter ganz speziellen Gesichtspunkten und da dann schon fast homöopathisch.
IdR macht das aber keinen Unterschied.

Ansonsten hat SAS ja auch noch grundsätzliche Vorteile gegenüber SATA, ganz ohne auf das Speichermedium zu schauen.
Nur sind das alles Diskussionen für den Enterprisebereich. Und das ist eine ganz andere Baustelle als das Spiel hier, wo wir von Homestroage ohne besondere Anforderungen sprechen.

Wir haben heute einen 550TB SSD Storage aktive geschaltet, da wäre ich logischer Weise nicht auf die Idee gekommen das mit 2000er Controllern oder gar SATA SSDs zu machen. Hier ist es dann natürlich das Mittel der Wahl SAS mit einer tagesaktuellen Controllergeneration.
Für jedes Problem gibt es eben eine passende Lösung.
 
Zuletzt bearbeitet:
Ggf. hätte man mit einem sehr fokussierten Usecase ein günstigeres MBs und dann einen (gebrauchten) 2000er Controller nehmen können.
Ein separater 3000er schlägt gebraucht mit rund 100 zu Buche, kann man ja mal vom MB-Preis anziehen und schauen was man dann bekommen hätte.
Ich hab für das MB inklusive dem 16GB RAM Riegel 150 Euro bezahlt. Fand das ziemlich günstig.


@gea : Bedeutet also wenn ich die Platten, bzw. den Controller , über Passthrough an die NAS VM durchreiche ist es relativ egal ob ich den IT- oder den IR Mode habe? Hab ich das richtig so verstanden?
Als Hypervisor werde ich wahrscheinlich Proxmox nehmen.
 
SAS ist teurer, man bekommt aber immer wieder mal ein Schnäppchen wie die Samsung. Homeserver ist zwar nicht Enterprise, wenn ich aber sehe was viele hier für "Heimserver/ihr Hobby" haben, da sieht manche Firma alt gegen aus.

Multipath Kabel sind nicht so teuer, auch gibt es günstige SAS Multipath Wechselplatteneinschübe für 2,5" SSD.
Aber auch ohne Multipath ist 12G SAS doppelt so schnell wie 6G Sata und SSDs sind heute nunmal schneller als 6G.

24G SAS ist aber noch sehr teuer dagegen und günstig gebraucht gibt es das noch nicht. Das sehe ich noch nicht als Mainstream weder Home noch Firma.


@tbchris112: Ja, in der Regel ist das unerheblich für ZFS und Softwareraid
Ob man einzelne Platten problemlos wie bei ESXi durchreichen kann, kann ich nicht sagen. Einfach probieren, umflashen kann man immer noch.
 
Ich hab für das MB inklusive dem 16GB RAM Riegel 150 Euro bezahlt. Fand das ziemlich günstig.
Gut, für den Preis ist ja auch fast egal, da ist der Controller ja quasi ne kostenlose Beigabe.

@gea
Was man wohl grundsätzlich festhalten kann, dass man von dedizierten SATA-Controllern die Finger lassen sollte. (onboard mal außen vor)
Das ist wenn billigster Schund oder hat Controller, die keiner kennt, keiner braucht und keiner Treiber für hat. Also ein echter Krampf, außer evtl. für Windows.
Und da ja SAS Controller auch SATA unterstützen kann man als UseCase das anbinden, was einem am besten (auch preislich) ins Konzept passt.
 
Zuletzt bearbeitet:
Ich werde es mal ausprobieren. Mal gucken wie weit ich komme.

Eine weitere Frage: Macht es sinn die VM Disk von der Proxmox installation zu trennen? Hatte folgendes vor:
Proxmox auf zwei 128GB SSD Platten zu installieren - ZFS
VM Disk auf zwei 512GB SSD Platten zu installieren - zusätzlicher ZFS Pool
 
"Das kommt darauf an".
Und zwar auf 2 Dinge: Disaster Recovery und Backup.
Wenn du deine VMs sauber Backupst und deine Disaster Recovery gut getestet ist und es dir dabei nicht in die Quere kommt kannst du durchaus VMs auf den proxmox Mirror zusätzlich schieben. Wenn dir das nicht behagt (mir behagt es nicht) dann pack proxmox-OS und VMs getrennt...
 
Werde VM und Proxmox getrennt voneinander auf den SSD Platten laufen lassen. Hab gestern die Kiste endlich mal gestartet und natürlich nach dem LSI Controller geguckt.
20230314_235442.jpg
 
Hallo Zusammen,

wollte noch einmal nachfragen ob ich die Firmware des LSI umflaschen muss oder ich die so lassen kann für das NAS?

Besten Dank für eure Hilfe :)
 
Darauf gibt es zwei vage Antworten

1. Notwendigeit überhaupt auf IT zu flaschen: eher nein, IR Firmware ist auch für Softwareraid ok sofern man Controller Raid-1 nicht nutzt
2. Notwendigkeit eines Updates auf aktuellere Firmware v16: eher nein sofern es keine Probleme gibt.
- obwohl es grundsätzlich ratsam ist, Software aktuell zu halten, ohne immer der/die Erste zu sein.
 
Habe die Karte jetzt auf IT Firmware geflascht. Sicher ist sicher :)
Bin aber immer noch am überlegen welche NAS Lösung ich einsetzen will / muss. Hier komm ich leider nicht wirklich weiter...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh