LSI 9260-8i, 2x 2 verschiedene Platten an einem Kabel?

Zocker_Nr_1

Enthusiast
Thread Starter
Mitglied seit
08.03.2009
Beiträge
3.480
Ort
Westhofen (Rh.)/Mainz
Hallo alle miteinander,

nachdem mein HP Proliant Microserver Gen8 mit seinen 4x 4TB sowohl von der Kapazität als auch von der Leistung langsam an seine Grenzen stößt, baue ich zur Zeit ein Eigenbau-NAS, überwiegend aus Hardware die ich schon herumliegen hatte oder mir geschenkt wurde. Basis (und der einzige Neukauf) ist das Gigabyte MC12-LE0, da ich 55 € für AM4-Board mit IPMI einfach zu verlockend fand. Es nimmt einen Ryzen 5 3600 und 4x 8GB DDR4-2667 auf. Als Case kommt ein Fractal Design Define R4 zum Einsatz, da groß, gedämmt, frisst viele HDDs und war schon da.
Ein Bekannter hat mir eine Box mit 2x 8TB WD Red und sehr vielen 4TB-HDDs geschenkt, da er alles auf die "Cloud" seines Arbeitgebers packen kann. Teil des Pakets war auch eine Raid-Karte, LSI Megaraid 9260-8i. Natürlich will ich so viele HDDs wie möglich reinpacken. Ins Define R4 passen, mit Adapters für die 5,25-Schächte, 10 HDDs rein. Das MC12-LE0 hat aber nur 6 SATA. Und grundsätzlich würde ich gerne soviel HDDs wie möglich an der Raidkarte betreiben. Daher wäre die Frage, ob ich an einem Channel/Kabel der LSI Raidkarte auch 2x 2 unterschiedliche HDDs betreiben kann. Also jeweils 1 Raid 1 mit 2x 8TB und 2x 4TB. Werde aus der Dokumentation der 9260-8i nicht ganz schlau. Wahrscheinlich ein Definitiv an Wissen auf meiner Seite.

Aber wäre super, wenn mich da jemand aufklären könnte.

Als OS kommt indes Windows Server 2022 zum Einsatz, lebt auf einer Samsung PM981 256GB im einzigen M.2-Slot des Boards. Windows weil ich ein absoluter Linux-/Unix-/Free-BSD-Noob bin.


Ich danke vorab für eure Hilfe!


Liebe Grüße,

Zocker
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du willst das eh nicht im "Raid" betreiben sondern im IT-Mode bzw. JBOD Mode, weil du die ganze Raid-Sache eh per Software machen willst (Linux LVM, TrueNAS, Proxmox, Unraid, was auch immer... Windows Server kann das wohl auch irgendwie, bzw. läuft auch NappIt drauf afaik, für ZFS).
Insofern musst du den LSI Megaraid entsprechend flashen, wenn ers nicht schon ist.

Was willst machen?
Nur Fileserver/NAS?

Könntest dir ja mal OpenMediaVault runterladen und ausprobieren, oder TrueNAS Scale (die Zugriffsrechte etc. erfordern halt etwas Liebe) oder halt Unraid Testversion, ist halt nicht gratis.
 
Windows ist perfekt um mit Storage Spaces einen Pool aus Platten beliebiger Art oder Größe zu erstellen. Je Space kann man den Speicherort, die Redundanz (Anzahl Datenkopien) oder optional auto hot/cold Tiering festlegen. Müsste man dazu nicht Powershell können oder eine extra Web-gui nutzen, würde das sicher viel häufiger genutzt. Da Windows mit seinen ntfs ACL eh SAMBA und Linux um Welten voraus ist, SMB Direct funktioniert (Server Edition) und Hyper-V mit seinen Virtual Harddisks auch auf SMB arbeitet (Raid over LAN), hat man mit Windows ein mehr als konkurrenzfähiges NAS Produkt - zumal der ZFS Treiber für Windows nahezu fertig ist.

Bei Echtzeit Raid 1/5/6/Z müssen alle Platten im Array gleich groß sein oder die kleinste Platte bestimmt die Arraygröße.
 
Zuletzt bearbeitet:
Anschließen kannst du da erstmal alles und das kreuz die quer.
Kannst auch mit SAS Expander auf 100 Ports erweitern und jeder 100 Platten ist dann jeweils ne andere und hat ne andere Kapa.
Auch sind diese quad Kabel nur eine Art und Weise die Portdichte zu erhöhen. Man muss also nicht in einem Kabel bleiben. Das kann man alles kreuz die quer fahren.
Es gibt ja auch Kabel mit 8 Lanes pro Kabel.

Das Problem entsteht beim Verwenden, wenn man so will.
Klassische RAIDs erfordern im RAID Sets einheitliche Platten. Egal ob nun RAID1, 5 oder 6 usw.

@pwnbert
Warum will er den LSI nicht im RAID-Mode betreiben und warum will er das alles in Software machen?

Er hat doch schon geschrieben, dass er da Windows als Basis einsetzt bzw. will.

Grundsätzlich ist es noch immer so, dass das beste System das ist, was man bedienen kann.
Es bringt einem nichts, sich sonst was hinzubauen und am Ende, damit dann am Ende nicht klarzukommen.
Das war schon immer so und wird sich auch nicht ändern.
 
Er hat doch schon geschrieben, dass er da Windows als Basis einsetzt bzw. will.
Ist das unter Windows anders?
Grundsätzlich ist es noch immer so, dass das beste System das ist, was man bedienen kann.
Es bringt einem nichts, sich sonst was hinzubauen und am Ende, damit dann am Ende nicht klarzukommen.
Das war schon immer so und wird sich auch nicht ändern.
Damit hast du natürlich recht.
Hat für mich aber so geklungen, als könnte er es als HW-Raid nicht besser bedienen, sonst hätte sich die Frage wsl. ja nicht gestellt, oder?

Als OS kommt indes Windows Server 2022 zum Einsatz, lebt auf einer Samsung PM981 256GB im einzigen M.2-Slot des Boards. Windows weil ich ein absoluter Linux-/Unix-/Free-BSD-Noob bin.

Ich hab ja keine Ahnung wie die Windows Server lizensiert werden etc., aber mich beschleicht das Gefühl, dass die paar Klicks in OMV etc. vielleicht am Ende doch die einfachere Lösung wären - je nach Vorhaben.
Mag mich da ja nicht zu sehr einmischen, war ja nur ein gut gemeinter Tip, wie man die Sache umgehen könnte bzw. dass man nicht zwingend großartige Linux-Skills braucht für eine "NAS-Distri".


Bin ja nicht böse, wenns ignoriert wird, falls nicht zutreffend.
 
Ich hab ja keine Ahnung wie die Windows Server lizensiert werden
Für SoHo gibts sehr günstig Windows 2022 oder 2025 Essentials. Gibts einmal pro Erwerber als OEM für ein single CPU max 10 Core System und 25 User. Ist bis auf diese Lizenz Limits ein normaler Windows Server.

Für mehr User, mehrere Systeme oder mehrere CPU wirds teuerer und komplizierter da man CPU lizensieren muss und dann noch Cals (client access licenses) braucht. Will man Windows Server virtualisieren gibts noch Datacenter Edition für unlimited Windows Server VMs.
 
Hi alle miteinander!

Ich danke euch erst einmal ganz herzlich für die Infos.

Zum Thema OS: Ich bin ein großer Verehrer von Linux, kann es nur einfach nicht bedienen. Über meine Uni hatte ich bis vor kurzem via Microsoft Azure Dev Tools for Teaching noch Zugang zu kostenlosen Windows Server Lizenzschlüsseln. Und da ich leidenschaftlich gerne PCs zusammenschraube habe ich mich über die Jahre ein wenig in das Thema Netzwerk unter Windows eingearbeitet und vieles in Sachen Netzwerkfreigaben und Workgroups kann man recht einfach von Desktop-Windows auf Server-Windows übertragen. Daher bin ich bei Windows Server gelandet. Bis vor 5 Jahren hatte ich sogar noch einen HP Data Vault mit Windows HomeServer...
War also eine reine Vernunft-Entscheidung.

@pwnbert
Ich hatte mir mal ein paar YouTube-Videos von ServeTheHome und Level1Techs zum Thema StorageSpaces und ähnliches angesehen und gemerkt wie wenig Ahnung ich doch von dem Thema habe. Und aktuell habe ich beruflich und aufgrund eines Aufbaustudiums soviel zu tun, dass ich da auch nicht wirklich tief einsteigen will.

Ich hatte daher die Hoffnung, dass ich einfach über das Interface der LSI ein paar Hardware-Raids erstellen kann und mich in das Thema Software erstmal nicht mehr weiter einarbeiten muss. Das wäre dann ein Projekt für Q3 2025 gewesen wenn der ganze Kram mit meinem Studium sich (hoffentlich) wieder etwas beruhigt hat...
Hatte mich mal mit einem Write-Cache in meinem alten HP ProLiant Microsserver G8 versucht. Da sind, wie oben erwähnt, 4x 4TB drin und eine 1TB-Samsung 860 Evo, auf der aktuell nur das OS sitzt. DIe sollte eigentlich partitoniert und als Write-Cache für die HDDs dienen. Hatte dazu 2019 mal mit FreeNas und Proxmox experimentiert, bin aber grandios gescheitert. Mit Windows Server 2019 hatte ich dann wenigstens ein funktionales NAS...

@underclocker2k4
Danke für die Erläuterung zum Thema Hard- und Software. Das hat mich der Lösung auf jeden Fall näher gebracht! Ich gucke mir das Dashboard der LSI aber nochmal in Ruhe an, was man da noch rauskitzeln kann. Aktuell sind ja noch keine wichtigen Daten drauf, also nicht schlimm wenn ich da die Config zerschieße.

@gea
Ist eine Windows Server 2022 Standard Lizenz. Analog läuft mein HP Microserver mit Server 2019 Standard. Wie weiter oben erwähnt, damals legal und umsonst über die Uni bekommen. Was da sonst noch an Features dabei ist kann ich nicht sagen. Auf dem HP wurde mir kürzlich sogar via Windows Update ein Gratis Upgrade auf Server 2025 angeboten. Hab ich aber mal zurückgestellt, da die Maschine nur einen Celeron und 4GB RAM hat. Wird demnächst auch ein wenig aufgerüstet, aber da habe ich mich schon in einem anderen Thread schlau gemacht.

Zurück zu meiner ursprünglichen Frage (weil es da ja anscheinend einiges an Verwirrung gab):
Ich habe halt nur 2 8TB-Platten, aber 14 4TB. Und da die 2 8TB in jedem Fall in einem RAID 1 sollen, wollte ich halt nicht einen der Kanäle der LSI mit nur 2 Platten verschwenden. Insbesondere da das Mainboard nur 6 SATA hat und ich schon gerne 10 Platten in das Case gestopft hätte. Aber so wie ich das verstehe kann ich im RAID an einem der Kanäle nur gleiche Platten verwenden.

Aber so wie ich das sehe macht es mehr Sinn die RAID-Karte stattdessen als HBA zu betreiben und dann lieber meine RAIDs in Software zu kreieren. Wäre auch kein großer Verlust, die Karte war ja ein Geschenk.

HBAs habe ich indes auch schon im Einsatz, 2 meiner Desktops verwenden LSI 9200-8i, da mir da auch die SATA-Ports ausgegangen sind. Das schöne ist, dass die unter Windows einfach funktionieren. Brauchen theoretisch nicht einmal zusätzliche Treiber, werden nativ in Windows 10 und 11 erkannt.
 
Zuletzt bearbeitet:
Ist das unter Windows anders?
Grundsätzlich braucht man unter Windows nichts anderes als nen HW-RAID. Darauf kann man dann NTFS oder auch nen ReFS draufpacken.
Dafür braucht man dann logischer Weise auch einen RAID Controller bzw. eben keinen IT-Mode.

Das geht freilich auch unter Linux und Co. Aber wenn man schon das "Theater" mit z.B. TrueNAS oder sowas anfängt, dann will man auch die Sachen nutzen, die da im Bauche sind. Und das ist z.B. ZFS.
Da wäre dann jedwede Intelligenz im Controller nachteilig.
Nen RAID-Controller bietet im Normalbetrieb die Drives auch single drives an. Nur fummelt selbst in dem Mode der Controller zu viel rum. Daher eben auch der IT-Mode.

"Neuerdings" kann man unter Windows halt auch was anderes Machen als nen HW-RAID consumen.
Storage Spaces oder eben ZFS. Freilich wäre auch klassisches Windows SW-RAID denkbar. Letzteres ist aber fast schon das Dümmste, was man machen kann.

Grundsätzlich glaube ich, dass der TE mit dem HW-RAID schon gut beraten wäre. Auch wenn die Frage nach dem Mischen von Platten schon komisch wirkt. Das ist schon seit SCSI kein Problem, da waren bis zu 15 Platten an einem einzigen Kabel...

Windows lizensiert man mit einer Lizenz bzw. einem Key. Das ist, von Volumenverträgen mal ab, nichts anderes als bei Windows 10/11.
Ich habe über die Uni relativ einfach Zugriff solche Lizenzen, ganz legal. Zumindest ich damit keine Firma betreibe.
Ich geben dir aber auch recht, dass so nen TrueNAS jetzt keinen Dr. der Informatik bedarf. Es ist aber, gerade was Rechte angeht, eben doch was anderes.
Beitrag automatisch zusammengeführt:

Aber so wie ich das verstehe kann ich im RAID an einem der Kanäle nur gleiche Platten verwenden.
Das hast du absolut falsch verstanden.
Du musst das RAID an sich von dem Anschluss der Platten trennen.
Anschließen kannst du alles überall.
Es ist lediglich so, dass in einem RAID-Volume alle Platten gleich groß sein müssen.
Wenn man aus 2x 8TB und 2x 4TB ein RAID5 baut, dann hat man 4x 4TB im Verbund und eine Nutzkapa von 3x 4TB. (die restlichen 4TB der 8TB Platten sind ungenutzt, das hat @gea weiter oben schon geschrieben)
Beispiel:
SAS-Stecker 1
Kanal1 - 200GB
Kanal2 - 400GB
Kanal3 - 8TB
Kanal4 - 4TB
SAS-Stecker 2
Kanal5 - 8TB
Kanal6 - 400GB
Kanal7 - 4TB
Kanal8 - 400GB

Kannst du einfach so machen.
Volume A - 1x 200GB single drive
Volume B - 3x 400GB RAID 5
Volume C - 2x 8TB RAID1
Volume D - 2x 4TB RAID1

Dem Controller ist es egal, was du wo anschließt. Der Controller muss nur Zugriff darauf haben.
Wenn man noch SAS Expander dazu nimmt, kannst du da gleich nochmal > Faktor 10 an die Plattenanzahl dranschreiben.
Es gibt sogar Controller, die können RAID Sets controllerübergreifend bauen. Ob man das will, ist ne andere Frage, aber das geht.
 
Zuletzt bearbeitet:
Ich hatte daher die Hoffnung, dass ich einfach über das Interface der LSI ein paar Hardware-Raids erstellen kann und mich in das Thema Software erstmal nicht mehr weiter einarbeiten muss. Das wäre dann ein Projekt für Q3 2025 gewesen wenn der ganze Kram mit meinem Studium sich (hoffentlich) wieder etwas beruhigt hat...
Wenns dich interessiert:
Installier mal OpenMediaVault (hab ich schon über 1 Jahr nicht reingeschaut) und klick dir ein btrfs Raid 5 zusammen, dauert ja nicht lang.
Dafür muss man eigentlich gar nix können, wennst dir dafür 2-3 Stunden nimmst, bist gut dabei.
DIe sollte eigentlich partitoniert und als Write-Cache für die HDDs dienen. Hatte dazu 2019 mal mit FreeNas und Proxmox experimentiert, bin aber grandios gescheitert.
... weils da imho keinen richtigen "Write Cache" gibt, zumindest nicht so, wie man das von Unraid hört.
Ich habe halt nur 2 8TB-Platten, aber 14 4TB. Und da die 2 8TB in jedem Fall in einem RAID 1 sollen, wollte ich halt nicht einen der Kanäle der LSI mit nur 2 Karten verschwenden. Insbesondere da das Mainboard nur 6 SATA hat und ich schon gerne 10 Platten in das Case gestopft hätte. Aber so wie ich das verstehe kann ich im RAID an einem der Kanäle nur gleiche Platten verwenden.
Schreit doch nach HBA im IT-Mode, mit dem MB hast du dann 14 SATA Ports.
Somit kannst du 2x8 TB als Mirror/Raid 1 betreiben und 12x 4tb als Raid 6 oder Z2 (ergibt dann auch 40 tb... braucht halt Strom).


Ich mag da aber nicht weiter reinreden.
Wenn man das Windows hat und damit umgehen kann, passt das natürlich.
Könnte man ggf. ja mit Storage Spaces oder Nappit auch am Windows machen.


Aber wie gesagt, der underclocker macht das beruflich, ich nicht, also ist klar, wer da die Expertise hat.


Wundert mich nur etwas, weil seit Jahren eigentlich zu >95% vom HW-Raid abgeraten wird, egal wo und egal von wem (Pros wie Hobbyleute).
 
Ich bin mal echt begeistert wie viel Zeit und Mühe ihr euch mit mir hier gebt! Schön zu sehen, dass es noch Menschen gibt die anderen Menschen einfach nur helfen wollen!
Dafür in jedem Fall ganz vielen Dank an euch alle!!!!


@pwnbert Hätte ich die Raid-Karte nicht zum Preis NULL bekommen (okay musste ne neue Batterie in China für 10 Euro bestellen), dann hätte ich wahrscheinlich ne HBA wie die beiden anderen LSIs in meinem Desktop besorgt und mich in das Thema Software-Raid eingearbeitet. Aber die ist eben da und da ich, neben dem oben erwähnten Mainboard, keine anderen Ausgaben für Hardware hatte, wollte ich die einfach verwerten und bin so bei den Hardware-Raids gelandet. Mein HP-Server hat auch ein Hardware RAID 10 und das funktioniert einfach.
Software-RAID wird indes wahrscheinlich doch noch ein Thema, da ein Teil der 4TB-Platten an den SATA-Ports des Gigabyte-Boards betrieben werden. Da wäre früher oder später noch ein Thread aufgetaucht ob man da ein RAID im BIOS machen sollte oder das lieber via Software im OS.
Ich arbeite indes auch mit den Leuten vom Rechenzentrum der Uni zusammen und die HPC-Group verwaltet auch den lokalen Seafile-Pool. Die machen auch seit 10 Jahren keine Hardware-RAIDs mehr Hatte deren Infrastruktur-Menschen da mal gelöchert, der mir auch beim Server-Build geholfen hätte wenn er nicht gerade den Aufbau eines neuen Rechenzentrums leiten müsste...
Da stimme ich dir also zu 100% zu. Ich dachte nur, dass das für mich eine "Quick-and-Dirty"-Lösung ohne viel Konfigurieren auf der Software-Ebene ist. Bei dem anderen Server hat es damals geklappt und läuft seit 5 Jahren problemlos. Zudem hatte ich mal gehört, dass ein Software-Raid die Last auf CPU und RAM erhöht, was ja nicht unbedingt ein Problem ist wenn man ein Rechenzentrum mit JBODs und einem dedizierten Management-Server mit Dualsockel-Epics betreibt. Wenn man aber, bis auf weiteres, nur ein etwas schickeres NAS haben will und seinen Strom selbst bezahlt, guckt man schon auf die Auslastung der Hardware...

@underclocker2k4
Das hast du absolut falsch verstanden.
Du musst das RAID an sich von dem Anschluss der Platten trennen.
Anschließen kannst du alles überall.
Es ist lediglich so, dass in einem RAID-Volume alle Platten gleich groß sein müssen.
Wenn man aus 2x 8TB und 2x 4TB ein RAID5 baut, dann hat man 4x 4TB im Verbund und eine Nutzkapa von 3x 4TB. (die restlichen 4TB der 8TB Platten sind ungenutzt, das hat @gea weiter oben schon geschrieben)
Beispiel:
SAS-Stecker 1
Kanal1 - 200GB
Kanal2 - 400GB
Kanal3 - 8TB
Kanal4 - 4TB
SAS-Stecker 2
Kanal5 - 8TB
Kanal6 - 400GB
Kanal7 - 4TB
Kanal8 - 400GB

Kannst du einfach so machen.
Volume A - 1x 200GB single drive
Volume B - 3x 400GB RAID 5
Volume C - 2x 8TB RAID1
Volume D - 2x 4TB RAID1

Dem Controller ist es egal, was du wo anschließt. Der Controller muss nur Zugriff darauf haben.
Wenn man noch SAS Expander dazu nimmt, kannst du da gleich nochmal > Faktor 10 an die Plattenanzahl dranschreiben.
Es gibt sogar Controller, die können RAID Sets controllerübergreifend bauen. Ob man das will, ist ne andere Frage, aber das geht.

JETZT habe ich es verstanden! Danke, dass du dir die Mühe machst mir als PEPKAC das so ausführlich darzulegen!
 
Wundert mich nur etwas, weil seit Jahren eigentlich zu >95% vom HW-Raid abgeraten wird, egal wo und egal von wem (Pros wie Hobbyleute).
Weil die Leute keine Ahnung haben, um es mal pauschal zu sagen.
HW-RAID hat, genauso wie anderes, moderneres seine Berechtigung.
Hier mal die Ausführung dazu:
Insbesondere geht es um den 2. Teil.

Kurz, jemand, der vom HW-RAID (pauschal) abrät, hat einfach keine Ahnung. Und darf damit generell angezweifelt werden und ja, das schließt auch Pros ein und wenn es die Mutter vom ZFS-Erfinder ist, ganz egal.
Es gibt für alles und jede Technologie entsprechende Rahmenbedingen.
Ich würde beruflich ZFS nicht mal mit der Kneifzange anfassen.
Nicht weil ich ZFS für schlecht oder falsch halte, es gibt einfach Gründe dafür, die man hier nicht diskutieren braucht.
Wir verwenden 250TB Brutto in einem HW-RAID 6, mehrfach. (aber auch noch ganz andere Kaliber)
Ein @gea würde das für sich, seine "Welt", womöglich nicht mal im Entferntesten als eine Option ansehen.
Und man kann davon ausgehen, dass wir beide so halbwegs verstanden haben, wie die jeweiligen Lösungen funktionieren. Und dennoch kommen wir zu einem unterschiedlichen Ergebnis.
Würden wir "Frauentausch" machen, würde wir auf der jeweils anderen Seite vermutlich die getroffene Entscheiden an der Stelle genauso wieder treffen.
Warum ist das so?
Weil Entscheidungen für oder wider etwas immer im Kontext getroffen werden. Keine Entscheidung findet im kontextlosen Raum statt, zumindest sollte sie das nicht.
Und aus genau aus dem Grund, ist pauschales Abraten von HW-RAID ein Ausdruck für Inkompetenz. Genauso ist es auch für pauschales Raten zu oder von ZFS.

EDIT:
Um das klarzustellen. Ich würde an der ein oder anderen Stelle gerne ZFS einsetzen. Nur ist das im Kontext halt nicht machbar. Es gibt Rahmenbedingungen, die sowas eben unterbinden. D.h. aber nicht, dass ich HW-RAID als einzige Lösung ansehe, nicht im entferntesten. (ich wäre der erste, der die angesprochenen 250TB HW-RAIDs ablösen würde, aber das Leben ist kein Wunschkonzert)

EDIT:
@Zocker_Nr_1
Dennoch würde ich mir das Thema ZFS z.B. hier im Forum nochmal anschauen.
Grundsätzlich braucht SW-RAID CPU Ressourcen. Ich hatte das mal zum Spaß auf nem 1st gen Core2 Duo laufen. Das geht, bei 1GBE Bandbreiten ist zwar eine Auslastung erkennbar...
Heutige Systeme sind, bezogen auf Dual Core, um Größenordnungen schneller. Wenn du also nicht gerade 100GBE damit befeuern willst, würde ich mir bei der Last keine Gedanken machen. Zumal die Platten garnicht soviel wegschaufeln könnten, wie eine CPU bei mittlerer Belastung draufladen könnte.
Viel mehr ist es so, dass ZFS im speziellen einige Probleme adressiert, die andere Storagetechnologien so nicht ansprechen. Man kann auf diese Features verzichten, nur sollte das in einer Abwägung passieren.
Evtl. wäre jetzt der richtige Zeitpunkt, wenn man hier mit einem leeren System dasteht, ggf. doch mal z.B. TrueNAS oder OMV zu testen. Abreißen kann man das immer noch und nen W2k22 draufschnallen.
Man hat evtl. Zeit investiert und ggf. keinen produktiven Nutzen davon. Aber man hat sich mit neuer Technik beschäftigt und was gelernt und vor allem hat man eine qualifizierte Entscheidung getroffen.
Das ist auch der Grund, warum ich so einige Server und Storagekomponenten @home habe, um nämlich genau sowas mal zu verproben. Dümmer wirste dabei nicht, sagen mir 30 Jahre Erfahrung mit IT-Geraffel.
 
Zuletzt bearbeitet:
dass Software-Raid unnötig die Last auf CPU und RAM erhöht
Naja, die heutige Rechenleistung reicht dazu allemal aus... mitm 3600er und 32gb RAM flüppt das schon ordentlich, samt LZ4 inflight compression und so... mit quasi 0 Last, bei 2.5 Gbit seq. Zugriff kommst dann auf 1-3% Last oder so.
Weil die Leute keine Ahnung haben, um es mal pauschal zu sagen.
Ja, wie mich z.B.... aber dafür, dass ich nicht viel Ahnung hab, konnte ich mit relativ wenig Aufwand ein für mich ausreichend performatnes und zuverlässiges Ergebnis erreichen.

Insofern kann ich als Ahnungloser anderen Ahnungslosen erzählen, dass es trotz Ahnungslosigkeit soweit bedienbar ist. :d
 
Es gibt gute Gründe für Hardwareraid wie z.B. ein Bootmirror für Windows oder ESXi.
Es gibt gute Gründe für ZFS Softwareraid wie Daten Prüfsummen als bitrot Sicherung oder Copy on Write und damit Snaps und crashsiches Dateisystem und Raid.

Es gibt immer Anwendungsfälle wo etwas nicht geeignet ist oder überlegen.

Wobei ZFS gibts in verschiedenen Ausprägungen wie Solaris ZFS, Illumos ZFS, OpenZFS, Qnap ZFS je mit eigener Entwicklung oder NetApp. Das ist zwar kein ZFS folgt aber in vielem gleichen Prinzipien. Auch btrfs oder ReFS sind mit Prüfsummen und CopyonWrite von ZFS inspiriert.

Es geht also eher um Hardwarraid vs modernes Softwareraid.
 
Zuletzt bearbeitet:
Insofern kann ich als Ahnungloser anderen Ahnungslosen erzählen, dass es trotz Ahnungslosigkeit soweit bedienbar ist. :d
Das ist evtl. die wichtigste Aussage. Das, was man kennt, ist einem auch das nächste.
Wer seit 20 Jahren Windows macht, der würde reflexartig Windows machen. Ist bei Mac ja genauso oder Linux.
Sich aber, gerade wenn sich die Gelegenheit ergibt, mal was anderes anschauen, schadet eigentlich nicht.
 
Installier mal OpenMediaVault (hab ich schon über 1 Jahr nicht reingeschaut) und klick dir ein btrfs Raid 5 zusammen, dauert ja nicht lang.
Ich muss meine Aussage zurücknehmen.
Hab aus Neugier mal schnell ein OMV iso gezogen und in Proxmox mit ein paar virtuellen kleinen Drives installiert, das Ding kann ja gar nix in der GUI, Raid geht offenbar nur mit btrfs, und da nur dup, 0, 1 und 10... und selbst das dürfte broken sein. Als ichs vor 1,5 Jahren mal probiert hab, hats irgendwie noch funktioniert.

Ist zwar jetzt eher OT, gehört aber richtig gestellt.
 
@pwnbert
Ich hatte mal auf einem alten Optiplex den mein Arbeitgeber ausgemustert hatte ein wenig mit Proxmox und Docker-Containern rumgebastelt. Aber die Neugier hat sich nach einem Wochenende wieder verzogen. Danke für die Rückmeldung, dann lass ich von OMV dann doch lieber erstmal die Finger?

@gea
Du hast das am Ende so schön zusammengefasst!

@underclocker2k4
Danke nochmal für Erläuterungen im Detail. Du hast mich überzeugt, dass ich mich mal ein wenig in das Thema ZFS im Allgemeinen und TrueNAS im Speziellen ein wenig einlese.
Kann aber nicht versprechen, dass ich am Ende nicht doch wieder einen Rückzieher mache und mich auf Windows Server und ein Hardware-Raid zurückziehe. Bin auf jeden Fall schonmal froh, dass ich problemlos 8 HDDs an der LSI betreiben kann, egal ob ich sie jetzt am Ende im Hardware-Raid oder als HBA betreibe.

Wenn ihr Interesse habt, würde ich da ggfs. mal berichten was am Ende dabei rausgekommen ist.
 
Ich würde immer Software Raid machen (bis auf einen eventuellen Windows Boot-Mirror), egal ob man Storage Spaces macht oder ZFS unter Windows.
 
dann lass ich von OMV dann doch lieber erstmal die Finger?
Wenns eine Linux "NAS" Distri sein soll, dann imho TrueNAS Scale, wobei VMs dort drin sehr meh sind (gibt einen Thread von mir, die laufen zum Teil irgendwie nicht stabil, und ich bin mir nicht sicher woran es liegt... im vgl. zu Proxmox hat man einfach total wenig Einstellmöglichkeiten), Container bzw. die "Apps" in der GUI dürften okay sein. OMV ist echt nix (mehr?).

Wenn man einen ordentlichen VM-Host auch noch haben will, taugt TrueNAS nicht, dann ist wohl die gewöhnliche Praxis TrueNAS als VM auf Proxmox zu installieren (was imho nicht schwer ist, vor allem wenn man den ganzen HBA als PCI Passhtrough der VM gibt)... TrueNAS kann man sogar 1:1 von baremetal auf VM übersiedeln, bootet trotzdem und läuft unaufflllig. Zudem ist das mit "Konfig speicher" recht bequem...

Was wohl auch gut sein soll ist die Volumes und Freigaben direkt unter Proxmox einzurichten, was mir ohne "sicherer" GUI bisher allerdings zu viel war, seh ich mir irgendwann mal an. Vielleicht.
Da hätte ich das Gefühl, dass das auch dir erstmal too much wäre.
dass ich am Ende nicht doch wieder einen Rückzieher mache und mich auf Windows Server und ein Hardware-Raid zurückziehe
Aber warum muss denn Windows Server gleich Hardware Raid sein?
Schau mal in diese Threads:

Vielleicht eine Möglichkeit recht bequem mit wenig Aufwand ein gutes Software Raid unter Windows Server zu machen? Hab das noch nie probiert, mangels Motivation einen Windows Server zu kaufen :d...

Zum Thema ZFS musst du eigentlich gar nicht so viel wissen... Z1 ~= Raid 5, Z2 ~= Raid 6, Mirror ~= Raid 1...
Die ganzen Zusatzfeatures wie SLOG (Log Device fürs ZIL, fälschlich manchmal als Schreibcache bezeichnet), L2arc ("Lesecache") und imho auch das "special VDEV" (fälschlich vllt. mal "SSD Cache genannt", ist eigentlich dein dev für kleine Datenblöcke, also ideal fürn Hybridpool SSD/HDD) kannst du imho erstmal vergessen.


Die ZFS Sache funktioniert halt nicht schlecht.
Wenn du z.B. 6 Platten als Z2 am HBA hängen hast, und irgendwann umsteckst, so dass 4 am HBA hängen und 2 am Mainboard, so wird das idR. automatisch erkannt und funktioniert trotzdem. Sogar mit USB-Gehäusen läuft das (wie gut die Idee ist, oder ob man das will, ist ne andere Sache).
 
Vielleicht eine Möglichkeit recht bequem mit wenig Aufwand ein gutes Software Raid unter Windows Server zu machen? Hab das noch nie probiert, mangels Motivation einen Windows Server zu kaufen :d...
Windows 10/11 geht genausogut als ZFS NAS.
Windows Server hat mindestens folgende relevanten Vorteile

- SMB Direct
- AD als Nutzerdatenbank mit zentraler User/Client Policy
- mehr als 25 gleichzeitige Nutzer (dann halt nicht mehr mir der billigen Essentials)
 
Zuletzt bearbeitet:
OMV ist echt nix (mehr?).
Den Eindruck kann ich so nicht teilen oder aber man muss vielleicht einfach ein wenig einschränken. OMV bietet nach der Standard-Installation ziemlich wenige Optionen - oder ist halt schlank gehalten, je nach dem wie man es bewerten möchte. Der Variationsreichtum von ZFS über Mediafeatures und allem weiteren kommt erst durch Plugins ins System, die man sich halt erst aktivieren muss (im Sinne von: den jeweiligen Haken setzen). Das ist halt vom Ansatz her etwas verschieden zu TruNAS und den meisten anderen Plattformen, die ich kenne. Vielleicht täuscht es daher ein wenig.
 
Entschuldigen braucht man sich hier für nix. Am Ende ist es, wenn man so will, dein Problem.
Wir können nur etwas Licht links und rechts am Straßenrand machen, damit du den Weg besser findest. Was du daraus machst, ist dein Ding. Kann und sollte uns prinzipiell egal sein.

Grundlegend sollte man, gerade in der IT, immer links und rechts schauen. Dieses Spiel "haben wir schon immer so gemacht" mag für eine gewisse Zeit ganz lustig sein. Nur dreht sich der Planet weiter und damit werden gute Lösungen schlecht und schlechte Lösung gut und Manches bleibt.

Ich wurde den Controller erstmal so lassen und etwas mit TrueNAS z.B. rumspielen. Das sollte auch ohne IT-Mode erstmal klappen. Wenn das dann alles so sein soll, erst dann den Controller in IT-Mode schieben oder einen mit IT-Mode besorgen und dann nochmal from scratch anfangen und quasi durchstarten.
Schau dir aber unter TrueNAS das Thema Rollen/Rechte durchaus.
Aber wie gesagt, es gibt ZFS auch für Windows.
TrueNAS sollte meines Wissens auch nen ZFS Bootmirror bauen können, das der Vollständigkeit halber.
Zum Thema ZFS musst du eigentlich gar nicht so viel wissen... Z1 ~= Raid 5, Z2 ~= Raid 6, Mirror ~= Raid 1...
Hier ist noch Z3 = RAID 7 (oder so, es gibt da kein Pendant für) zu erwähnen.
Das lässt sich aber alles in Dokus nachlesen.
Evtl. gibt es ja auch ne Art ZFS-Tut auf YT, damit man sich mal nen schnellen Überblick verschaffen kann.
 
Den Eindruck kann ich so nicht teilen oder aber man muss vielleicht einfach ein wenig einschränken. OMV bietet nach der Standard-Installation ziemlich wenige Optionen - oder ist halt schlank gehalten, je nach dem wie man es bewerten möchte.
Das Fehlen jeder Art von "Raid 5" (muss kein ZFS sein) ist schon recht mager... vllt. hab ich auch nicht genau geschaut.
Und klar, per Konsole gehts bestimmt, aber das ist ja nicht der Sinn so einer NAS Distri.

Bin aber auch nur relativ schnell drüber, hätte aber keine Optionen gesehen, die mir einen Hinweis gegeben hätten.
 
RAID sollte kein Problem sein und Konsole ist sowieso nicht nötig - man kann die Plugins bequem aus der GUI heraus aktivieren und dann auch in den Menüs entsprechend konfigurieren. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh