[Kaufberatung] NAS für E-Mail- und Filearchiv

Toupman

Enthusiast
Thread Starter
Mitglied seit
10.01.2005
Beiträge
199
Ort
Arzfeld
Hallo,

da der Platz auf unserem voll redundanten SAN (HP Lefthand mit 6 Knoten im Network RAID 10) so langsam knapp wird, haben wir überlegt ein einfaches NAS System für weniger kritische Daten (Enterprise Vault Archiv und Read Only File Share) anzuschaffen.

Aktuell schwebt uns dabei folgende Konfiguration vor:

QNAP TS-873U-RP-8G mit 4x6TB WD Red Pro mit 5 Jahren Vorabtausch

Meint Ihr die Konfiguration und Performance passt?

Ein E-Mail Archiv existiert für ca. 170 Benutzer, wird aber auf allen Laptops (ca. 60% der User) auch bis 20GB gecacht.

Vielen Dank
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
kann man machen, aber

kein ECC RAM
kein modernes Dateisystem mit Features wie

Kein Schutz vor Datenverlust bei Crash während einer Schreibaktion wie bei neuen CoW Dateisystemen
Kein Schutz vor Bitrot/ Silent Data Errors wie bei neuen CoW Dateisystemen
Kein Schutz vor Datenveränderung/Ransomware durch readonly Versionierung wie bei neuen CoW Dateisystemen

Die Alternative wäre ein "echter" Server von SuperMicro (mein Tipp) oder Dell/HP/Lenovo, ausgelegt auf Softwareraid und darauf eine stabile Unix ZFS Storagedistribution mit mehr oder weniger Support (IX mit BSD oder NexentaStor, OmniOS, Oracle Solaris auf Solarish Basis) oder OpenSource, jeweils mit Web-Management.

mein Tipp
Supermicro | Products | SuperServers | 2U | 5029P-E1CTR12L
 
Hallo,

ich bekomme die oben genannte Konfiguration mit dem Vorabaustausch für Platten und Gerät selbst für ca. 3.700 €

Der Aufpreis für einen Server mit gleichen Garantiemodalitäten ist nicht so unerheblich.

Der Storage wird den Hosts per 10Gbit iSCSI zur Verfügung gestellt und diese füllen das dann mit dem eigenen Dateisystem.

Selbstbau sehe ich hier nicht so einfach umzusetzen....
 
QNAP waren doch auch die Dinger welche schonwieder verseucht sind?
Gea hat absolut recht mit seinen Einwaenden. Kein ECC und kein modernes Dateisystem sind absolute K.O. Kriterien!
Vor allem im Enterprise-Bereich. Das ding ist nichts weiter als Spielzeug.
 
Irgendwo muss der Preis herkommen. Das System an sich ist nicht Stand der Technik.
Jeder 500 Euro Einstiegsserver von HP oder Dell hat eine bessere Qualität (ohne 10G Adapter).

Man könnte zusammen mit zwei Platten der 10-12 TB Klasse im Mirror sogar ohne Backplane arbeiten und dafür zwei Systeme haben (Vorabtausch wirklich vorab :=) und hätte die Kapazität mit besserer Hardware und extra Reserve/Backupsystem.

Aber Voll-Service mit ZFS, SLA inkl. Hardware und Software geht mit einem reinen Hardwaresystem natürlich nicht, allenfalls bei Komplettsystemen von IX, Nexentastor oder Zstor z.B. Zstor GS-Cube8 Mini Cube Storage Server | Zstor Storage | Produkte-Zstor GmbH - Open Storage

Da kostet aber der Service natürlich ebenfalls.

ps
SuperMicro ist kein Selbstbau sondern Barebone oder build to order mit Service je nach Lieferant.
Die kommen betriebsbereit z.B. von Happyware oder Sona. Man muss lediglich ein Storage OS mit Web-UI aufspielen. Wer das mit Windows schafft, kann das auch mit einer ZFS storage appliance.

zu iSCSI
Auch wenn man iSCSI mit alten Dateisystemen zur Verfügung stellt, macht es einen Unterschied ob die Targets dann auf einem modernen System wie ZFS liegen. Die erben dann nämlich die Extra Sicherheit von ZFS. Für iSCSI ist zudem ein Solaris basiertes System bestens geeignet. Da gibts Enterprise class iSCSI vom feinsten - z.B. mit dem Opensource Solaris Fork OmniOS sogar umsonst. OmniOS ist ein europäisches Projekt (Entwicklung in der Schweiz und UK) mit Support und LTS Version. Das optionale Web-UI dazu stammt von mir.

Doku zu Comstar (iSCSI bei Solaris)
Configuring Storage Devices With COMSTAR - Oracle Solaris Administration: Devices and File Systems
 
Zuletzt bearbeitet:
Nur mal als Beispiel (hab mit denen persönlich nix zu tun, kenne die nur): BOSTON liefert Supermicro Hardware inkl. Support. Schwieriger wird’s dann mit dem Softwareteil - keine Ahnung wer wirklich Solarish-based „Fileserver Appliances“ mit Servicelevel supported...
 
Frag doch mal bei eurem Distri nach?
unserer hatte mir letze Woche erst nen Lenovo Storage-System angeboten... (Gut, ich kenn keinen der noch IBM kauft, aber die Ausstattung wäre durchaus ne Überlegung wert gewesen...)

Ansonsten gibts auch immer mal nette Angebote zu reinen StorageSystemen der großen Player - HP MSA (3PAR wird vermultich den Rahmen sprengen) - EMC, NetApp...

NetApp hatte um 2008 rum mal unschlagbare Angebote, als die neue Produktlinie kam.... 20TB Storagesys für ~6k inkl. 3 Jahre Wartung und fast vollem Featureset.
ne QNAP mit iSCSI wäre mir da ja schon eher zu SOHO... - aber 170 Clients mit mehr als 20GB Postfächern... (kann man auch machen...) - das klingt halt nimmer nach SOHO
 
Vielen Dank für die vielen Antworten.

Die Argumente mit dem ECC RAM und dem veralteten Dateisystem bzw. Bitrot sind nciht von der Hand zu weisen. Deshalb sind wir auch jetzt nicht mehr bei den QNAP Systemen mit unseren Überlegungen. Die TES-1885U ist einfach zu teuer im Grundpreis.

Die Überlegung bei mir geht jetzt eher Richtung Supermicro Server mit napp-it. Das muss ich jetzt nur noch meinen zwei Kollegen schmackhaft machen. Dann denke ich, dass wir unseren benötigtes Nettovolumen (ca. 10TB mit optionaler Erweiterung) sicher für unter 5.000€ abbilden können.

Meine Argumente für ein solches System sind:

  • Sicherung der Daten erfolgt weiterhin über Veeam über den Host
  • Nach erfolgreicher Einrichtung würde ich ein Image der Systemplatte machen
  • Bei irgendeinem Softwareproblem (Immer noch die Haupsorge meiner Kollegen) kann ich einfach das Image wieder aufspielen und die Daten bei Bedarf aus Veeam zurück spielen
  • Den Server möchte ich mit entsprechnedem NBD Service für die Hardware kaufen

Damit müsste ich es doch eigentlich immer hinkriegen innerhalb von 24 (max. 48) Stunden wieder online zu sein. Das würde uns nämlich bei den Daten absolut ausreichen.

Wie seht Ihr das?
 
So, ich habe jetzt ein Angebot für einen Server mit Festplatten und entsprechendem Support.

Ist diese Config so für napp-it geeignet?

Code:
Chassis: 19" Rackmount, 2U
Chassis Type/Systemname: CSE-825TQ-R740LPB
Color: black
Compute-Nodes per Chassis: 1
Rackmount Rails: Rackmount assembly kit w/ quick release sliding rails, variable length, screws
Dimensions (HxWxD): 89x437x648mm
Power Supply: redundant 740W AC w/ PFC, 80 PLUS Platinum Level Certified
DVD: LG DVD-RW, SATA, Slimline, black
Implementation: completely mounted and tested
engineering changes reserved
Node Configuration:
Motherboard: Single Socket R3 (LGA 2011) supports Intel® Xeon® processor E5-2600v3/v4 and
E5-1600v3/v4 family
Motherboard type: Supermicro X10SRM-TF
Chipset: Intel® C612
Processor: 1x Intel© Xeon E5-1620v4, 4-Core, 3.50GHz, HT, 10MB Cache, LGA2011-3, 140W
(Broadwell EP)
Memory: max. 128GB of DDR4, 2400MHz, ECC, registered (RDIMM) or 256GB with LRDIMM
Memory Sockets: 4
assembly with 2x 16GB (total 32GB) DDR4 RAM, 2666MHz, ECC, registered
Graphics: onboard Aspeed AST2400 BMC
LAN1: onboard Dual-Port 10GBase-T Networkadapter, based on Intel® X550-AM2, 2x RJ45
LAN2: onboard dedicated IPMI via ASPEED AST2400 BMC, 1x RJ45
LAN3: No (optional)
SATA: onboard 10x SATA 3.0 (6Gb/s) w/ RAID 0,1,5 and 10 support
SAS (HBA): 1x LSI SAS 9300-8i, 8-Port 12Gb/s SAS/SATA HBA, no RAID
Drive Bays: 8x 3.5" Hot-swap SAS/SATA drive bays
HDD: 4x Toshiba 4.0TB SATA 6Gb/s, 7.200rpm, 128MB Cache, 3,5", Nearline 512e, Enterprise
HDD
SSD: No (optional)
DOM: 2x 64GB MLC SATA 6Gb/s, read-intensive, Disk on Module
Expansion Slots (Low Profile):
- 1x PCI-E 3.0 x16
- 2x PCI-E 3.0 x8
Input / Output: onboard 2x 16550 serial port / COM (1x rear + 1x via header)
USB:
- 5x USB 3.0 ports (2x rear + 2x via header + 1x Type A)
- 6x USB 2.0 ports (2x rear + 4x via header)
TPM: 1x TPM 1.2 20pin header
RemoteManagement: onboard IPMI 2.0 + KVM with Virtual Media, dedicated LAN, SuperDoctor III
Operating System: No (optional)
 
Aus meiner Sicht spricht zwar nichts gegen Supermicro, aber günstiger kommt dir ein Dell T330 oder vergleichbares mit nur 8x 3,5" durchaus etwas günstiger. In einer simplen striped mirrored Konfiguration mit 4x12tb, kannst du um 5.000 Euro durchaus sogar ein zweites System mit 2x 12 Tb (mirror) bauen und entweder per zsync oder Veeam auf den zweiten Host sichern. In dem Fall wäre ein Ausfall kein Problem.

Ich würde zudem mal prüfen welche Last dein aktuelles Backup macht und ob eine längere Laufzeit ggf ein Problem wäre. EV Backup per Veeam macht viele kleine Zugriffe, ist mit ZFS nicht gerade ein Performance Wunder.
 
Next business day reaction bedeutet im Zweifel dass jemand zurückruft nicht unbedingt return to service innerhalb 48h. Das bedeutet nämlich dass ein Servicemensch quasi sofort losfahren kann und im Zweifel ein identisches Ersatzgerät dabei hat.

Bei einem Storagehersteller egal ob Qnap am unteren Ende oder insbesondere NetApp am oberen Ende mag das gehen. Die Produktpalette ist klein und der Serviceaufschlag heftig und das schon bei völlig überzogenen Grund-Hardwarekosten.

Das Konzept von SuperMicro als Systemhersteller mit hunderten von Komponenten und Variationen steht dem entgegen. Ein Systemhaus könnte diesen Servicelevel nur bieten, wenn es die Angebotspalette strikt klein hält und hätte dann das Problem, dass jeder den Serviceaufschlag sofort sehen würde da alle Einkaufspreise offen sind und die Hardware massiv im Online Preiswettbewerb ist.

Ein Wechsel von einem Komplettsystem Storagehersteller wie HP, Qnap, NetApp etc zu SuperMicro bringt einem völlige Flexibilität, super maßgeschneiderte Hardware zu einem Bruchteil der Kosten. Für einem üblichen Standardserver, egal ob ein Windows AD Server oder ein normales Storagesystem ist das bei Wahl einer für die Anwendung passenden Hardware (das was üblich ist, keine Experimente) unkritisch. Zudem kann man im Gegensatz zu HP oder Dell auch nach Jahren die Komponenten nachkaufen.

Ist 24/48h return to service ein kritischer Punkt, so geht man üblicherweise so damit um, dass man den Preisvorteil in ein Backup/ Failover System investiert und ansonsten auf die normale Garantie/ Gewährleistung bzw Ersatzbeschaffung setzt und bei einem Distributor mit guten SuperMicro Kontakten beschafft. Man könnte zwar die kritischen Bauteile Netzteil, Mainboard oder Ersatzplatte auf Lager legen, ein zweites Komplettsystem ist dann aber kaum teurer und ready to use und auch gut für allerlei Tests einer neuen System-Umgebung oder von Platten geeignet. Auch ist das sofort einsatzbereit wenn man beim ersten System Wartung ansteht

10TB Nutzkapazität ist ohnehin nichts. Ein Mirror von zwei 10TB Platten kann das. Es ist allerdings so, dass Daten wachsen, insbesondere wenn man mal Gefallen an ZFS Snaps gefunden hat, auch wenn deren Platzbedarf nur den geänderten Datenblöcken entspricht.

Software Disaster Recovery (Bootplatte defekt) ist ohnehin bei Solaris basieren Systemen völlig unktitisch wenn man sich an die Regel hält, keine extra Services auf dem Storagesystem (Webserver, Datenbanken etc) zu installieren. OS neu aufspielen und Targets aktivieren, das wars im Wesentlichen. Alles andere ist auf ZFS (wobei ich statt iSCSI auf NFS setze, das reduziert die Komplexität nochmal deutlich).

Mein Tipp bis 5000 Euro wären zwei identische SuperMicro 8bay Backplane Systeme, idealerweise das gleiche Mainboard aber einmal mit kleinster CPU und 8GB RAM und eventuell ohne redundantes Netzteil und dann das gleiche nochmal, optional mit mehr RAM (das wichtigste), eventuell besserer CPU und teurerem reduntantem Netzteil. In meiner eigenen Installation nutze ich immer zwei Backupsysteme gleichzeitig damit auch bei Wartungen immer eines aktiv bleibt (Wartung heißt ja auch System-Update mit Testphase).

Für ein Backup System reicht ein 1151 System X11SSH-CTF | Motherboards | Products - Super Micro Computer, Inc. einmal mit Xeon und ab 16GB RAM und einmal mit G44 Celeron ab 8GB. 10G und SAS HBA ist bereits dabei. Das Board ist grundsolide und bei sehr vielen ZFS Systemen im Einsatz und bereits in der kleinen Variante der vorherigen Qnap deutlich überlegen. Performance bei ZFS vor allem bei kleinen Blöcken ist vor allem RAM abhängig (mehr RAM=mehr Schreib/Lesecache). Brauchts sync-write (sicheres Schreiben) dann eine Intel Optane 800P/900P als Slog hinzufügen da die dann alle kleinen random write aufnimmt und selbst sync-write Raten für 10G Anbindung ermöglicht.

Dazu mindestens 3 x 10 TB Platten als 3way Mirror oder als Reserve (Meine bevorzugte wäre HGST Ultrastar HE als SAS, sind kaum teurer als Sata). Dank built to order kein Problem (betriebsfertig liefern lassen, mit Happyware habe ich da gute Erfahrung, eventuell Sona). Meine Empfehlung für Komponenten z.B. https://napp-it.org/doc/downloads/napp-it_build_examples.pdf

- - - Updated - - -

Aus meiner Sicht spricht zwar nichts gegen Supermicro, aber günstiger kommt dir ein Dell T330 oder vergleichbares mit nur 8x 3,5" durchaus etwas günstiger. In einer simplen striped mirrored Konfiguration mit 4x12tb, kannst du um 5.000 Euro durchaus sogar ein zweites System mit 2x 12 Tb (mirror) bauen und entweder per zsync oder Veeam auf den zweiten Host sichern. In dem Fall wäre ein Ausfall kein Problem.

Ich würde zudem mal prüfen welche Last dein aktuelles Backup macht und ob eine längere Laufzeit ggf ein Problem wäre. EV Backup per Veeam macht viele kleine Zugriffe, ist mit ZFS nicht gerade ein Performance Wunder.

Dell hat in Kooperation mit NexentaStor auch auf ZFS optimierte Systeme, ansonst ist Dell sehr Windows lastig. Die serienmäßigen Raidcontroller z.B. sind für ZFS untauglich. Mit entsprechender Ausstattung wird Dell aber auch schnell teuer, ohne die Flexibilität von SuperMicro und ohne deren Option der Hardwarenachrüstung/ Tausch auch nach vielen Jahren (sind da halt Standardkomponenten, nichts herstellerspezifisches).
 
Hallo,

die Laufzeit des Backups ist gar kein Problem. Das dürfte also so passen.

Der Anbieter verspricht:

Wir bieten:
- Next Business Day vor Ort Service für ganz Luxemburg
- Für 3 Jahre
- 5 Tage die Woche / 9 Stunden am Tag
- First Level Support von 08:00 Uhr bis 17:00 Uhr

Ablauf im Servicefall:
1. Systematische Erfassung und anschließender Versand des benötigten Ersatzteils an
unseren Servicetechniker
2. Austausch des Ersatzteils erfolgt am nächsten Tag vor Ort beim Kunden
3. Rückversand der defekten Komponente an uns durch den Servicetechniker

Von daher sehe ich das als unkritisch.

Aktuell gefällt mir die Konfig eigentlich sehr gut und der Preis ist richtig gut und günstiger als die im ersten Post angedachte QNAP Lösung.
 
So, ich habe jetzt ein Angebot für einen Server mit Festplatten und entsprechendem Support.

Ist diese Config so für napp-it geeignet?


Ja, sehr gut geeignet (wenn auch nicht die aktuelle X11 Mainboard Linie)
Nic und HBA sind perfekt.

Was ist als Bootplatte gedacht (DOM?)
würde ich nicht machen sondern eher eine kleine Intel DC 35xx nehmen (viel zuverlässiger).

Bei neueren Boards wäre eine Intel M.2 eine Option

Wie ist das Raid angedacht. 4 x 4TB als Z1?
Warum nicht 2 x 10TB als Mirror, gibt mehr Reserve für Erweiterungen und ist eher zuverlässiger.
 
Ich musste die Config noch leicht anpassen lassen, weil ich mit DAC Kabeln an den Switch gehen will.
Die Idee war aus beiden DOMs ein RAID 1 zu machen als Systemplatte.
Die 4x4TB sind Stand heute schon gut doppelt so viel wie wir wirklich brauchen.
Dazu habe ich ja dann noch 4 Slots frei. Das sollte also für die drei - fünf Jahre locker passen.

Passt das andere Board und die NIC:

Code:
Node Configuration:
Motherboard: Single Socket R3 (LGA 2011) supports Intel® Xeon® processor E5-2600v3/v4 and
E5-1600v3/v4 family
Motherboard type: Supermicro X10SRL-F
Chipset: Intel® C612
Processor: 1x Intel© Xeon E5-1620v4, 4-Core, 3.50GHz, HT, 10MB Cache, LGA2011-3, 140W
(Broadwell EP)
Memory: max. 1 TB of DDR4, 2400MHz, ECC, registered (RDIMM) or 512GB with LRDIMM
Memory Sockets: 8
assembly with 2x 16GB (total 32GB) DDR4 RAM, 2666MHz, ECC, registered
Graphics: onboard Aspeed AST2400 BMC
LAN1: onboard Dual-Port GbE LAN Networkadapter Intel® i210, 2x RJ45
LAN2: onboard dedicated IPMI via ASPEED AST2400 BMC, 1x RJ45
LAN3: Dual Port 10GbE Networkadapter, AOC-STGN-i2S based on Intel® 82599ES, 2x SFP+
SATA: onboard 10x SATA 3.0 (6Gb/s) w/ RAID 0,1,5 and 10 support
SAS (HBA): 1x LSI SAS 9300-8i, 8-Port 12Gb/s SAS/SATA HBA, no RAID
Drive Bays: 8x 3.5" Hot-swap SAS/SATA drive bays
HDD: 4x Toshiba 4.0TB SATA 6Gb/s, 7.200rpm, 128MB Cache, 3,5", Nearline 512e, Enterprise
HDD
SSD: No (optional)
DOM: 2x 64GB MLC SATA 6Gb/s, read-intensive, Disk on Module
Expansion Slots (Low Profile):
- 2x PCI-E 3.0 x8 (in x16) slots
- 2x PCI-E 3.0 x8 slots
- 2x PCI-E 3.0 x4 (in x8) slots Auto-switch to 1 x8 and 1 x0
- 1x PCI-E 2.0 x4 (in x8) slot
Input / Output: onboard 2x 16550 serial port / COM (1x rear + 1x via header)
USB:
- 4x USB 3.0 ports (2x rear + 1x via header + 1x Type A)
- 8x USB 2.0 ports (2x rear + 6x via header)
TPM: 1x TPM 1.2 20pin header
RemoteManagement: onboard IPMI 2.0 + KVM with Virtual Media, dedicated LAN, SuperDoctor III
Operating System: No (optional)
 
SuperMicro mit Intel Serverchipset, BroadCom 9300 und Intel Nics bis auf die jeweils allerneueste passt praktisch immer. Auch das Raid-1 aus den DOMs geht.

Wie gesagt, ich würde es nicht so machen. Selbst die SM DOMs sind viel unzuverlässiger als eine Intel DC S35x0 SSD zum gleichen Preis. Die hat zudem Powerloss Protection. Ich habe einige User die nachträglich die DOMs nach Problemen mit Intel DC SSDs ersetzt haben.

Wenn man bisher nur Backup ohne Versionierung hatte, so unterschätzt man oft den Datenzuwachs wenn man das nutzt. Ich würde daher nicht 50% der Bays mit kleinen alten Platten füllen sondern Reserven lassen und dafür die Bootplatten extern in die Wechselrahmen setzen (statt intern als DOM). Viele SuperMicro Cases haben auch hinten dazu zwei Extra Hotswap Bays für 2,5".

PS
Es gibt auch neuere Boards mit 10G SFP+ onboard. Die sind auch teilweise für NVMe vorbereitet so wie mein aktuelles Standardboard für Universalserver X11SPH-nCTPF (mit 10G SFP+, SAS HBA, neueste Xeons und max 10x NVMe) zu ähnlichem Preis.

Gibts auch als fertiges System von SuperMicro ab 1500 netto ohne CPU und RAM (jedoch mit 12er Backplane) als Supermicro | Products | SuperServers | 2U | 5029P-E1CTR12L . Kommt aber darauf für welche Modelle das Systemhaus den gewünschten Service bietet.
 
Abschweif wg. "jeweils allerneueste": Der 9400-16i (Chipsatz SAS3416, = Kombination SAS 12G Ports plus 2 NVME U.2) klingt interessant zum Ausreizen eines PCIE3x8 Slots, ohne das man sich mit Bifurcation oder extra Lösungen mit PLX-Chip rumschlagen muss. Hast Du damit schon Erfahrung, oder auch vom Hörensagen?
 
Zuletzt bearbeitet:
Der 9400 kann für ein iTX System mangels Slots sehr interessant sein, ansonst eher nicht.

Er wird noch nicht überall unterstützt (neuestes OmniOS ja, Solaris nein), Treiber sind noch sehr neu, Tools wie sasircu (zum Bestimmen des Slots in einer Backplane) unterstützen den (noch) nicht. Zudem kann man daran entweder Disks oder NVMe anschließen. Letzteres geht auch per onboard M.2 oder billigen PCI-e Adaptern (sofern freie Slots da sind).

Füe fast alle Anwendungsfälle ist der Tri-Mode 9400 daher eher ein "Marketing-Gag" denn das worauf die Welt gewartet hat.
 
Hallo,

ich habe den Server jetzt so wie oben geschrieben bestellt. Voraussichtlicher Liefertermin ist der 26.06.
Eine napp-it Lizenz ist auch schon bestellt.

Nur welches OS soll ich jetzt nehmen? Zu HAuse läuft die beta von Solaris. Ich denke das ist keine Option in der Firma.
Also lieber OmniOS, oder Solaris in der Kaufversion? Weiß jemand was das ca. kostet?

MfG
 
Oracle Solaris 11.4 mit Original ZFS is der schnellste ZFS Server mit einzigartigen Features wie ZFS Verschlüssellung je Dateisystem, schnelles sequentielles Resilvering, SMB 3.1, NFS 4.1 und vdev remove für alle vdev Arten um ein paar zu nennen.

Kaufen kann man das bei https://shop.oracle.com
Kostet ca 870 Euro pro Jahr je Server (abhängig von Anzahl Sockel, erfordert eigentlich zertifizierte Hardware)

Für einen einzelnen Server ist das eigentlich recht günstig.
Ich kenne jedoch viele die mit einem Server als Ergänzung für ein teures highend SAN angefangen haben und dieses dann durch mehrere kleinere ZFS Systeme abgelöst haben weil die nicht nur viel billiger sondern oft viel schneller sind. Bei mehreren Systemen wird der Service Level Aspekt zudem immer unerheblicher.


OmniOS ist OpenSource mit kommerzieller Supportoption, Commercial Support
Es hat mit Open-ZFS nicht ganz die Features wie Solaris bietet aber alle wichtigen Solaris Eigenschaften und man kann damit sehr günstig professionelle Storagesysteme aufbauen.

OmniOS Support kostet 500 Euro pro Server und gibt Zugriff auf die Entwickler der Distribution (man muss nicht für alle Server Support abschließen). Ich halte das bei kommerziellem Einsatz für sinnvoll. Auch sichert man damit die Weiterentwicklung der stable und LTS Versionen basierend auf Illumos, dem freien Solaris. Das ist ja der Mehrwert von OmniOS gegenüber z.B. OpenIndiana wo man Illumos pur nutzt, ohne Freeze auf stable und long term stable.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh