[Sammelthread] ZFS Stammtisch

Bei den Ultrastar ist der Preis das Problem. 40% Aufschlag für andere Platten sind nicht drin im Budget. Fallen die Deskstar denn so häufig aus?

Und warum ein Raidz3?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man muss sich halt dessem Bewusst sein, und dem Auftraggeber vorschlagen - entwerder das Geld wird ausgegeben oder nicht. Ich würde die Platten im Enterprise Bereich nicht verwenden.
 
Raidz3 ist von der Statistik so gut wie ohne Totalausfall. Da musst du dann nicht viele Mirrors unterhalb einem Raidz2 haben.
Vor allem benötigst du für den Anfang deutlich weniger Platten als bei deinem Raid61 und kannst später andere verbauen ohne gleich eine externe Erweiterung zu kaufen.

Für die Kapazität deiner 12 HDDs im Raid61 benötigst du nur 7 HDDs im Raidz3. Die anderen 8 Einschübe vom Gehäuse sind noch frei. Sofern Ihr die Kapazität eh schon so geplant habt, dass diese 3+ Jahre ausreichend ist, dürften bis dahin noch größere und etwas schnellere HDDs verfügbar sein. Mit diesen kann man dann einfach einen neuen Pool aufbauen und den alten Pool als zusätzliches Archiv behalten.
 
Zuletzt bearbeitet:
Die Mirrors haben nicht nur den Grund der Datensicherheit sondern auch die Verdopplung der IOs lesend. Dies ist wichtig für VMware Datarecovery, da dieses selbständig dedupliziert.

Außerdem habe ich bei 3 ausgefallenen Platten noch Redundanz, was bei Raidz3 nicht der Fall ist.

Und zur Not kann ich später wenn der Server evtl. mal zum Archiv wird die Mirrors durch Einzelplatten ersetzen.
 
Zuletzt bearbeitet:
Mal eine Frage an dich Gea und dein napp-it. Habe Solaris 11 und napp-it Version 0.8j

Nun wollte ich 2 neue 3,5" SATA HDDs (4K AF) zu meinem Pool hinzufügen über das Webinterface aber es klappt nicht, da ich natürlich auch ashift=12 haben möchte habe ich die Option

Code:
force 4k optimized vdev with modified zpool 	force ashift=12 - requires Pool ZFS V.28

angewählt. Es kommt immer:

Code:
oops...


pool storage does not exist!

Aber der Pool ist vorhanden und aktiv:

Code:
zpool status storage
  pool: storage
 state: ONLINE
  scan: scrub repaired 0 in 0h43m with 0 errors on Sat Sep  8 01:20:41 2012
config:

        NAME                         STATE     READ WRITE CKSUM
        storage                      ONLINE       0     0     0
          mirror-0                   ONLINE       0     0     0
            c0t50024E9204B4B298d0p0  ONLINE       0     0     0
            c0t50024E9204B4B29Ed0p0  ONLINE       0     0     0
          mirror-1                   ONLINE       0     0     0
            c0t50024E9204B4B2A9d0p0  ONLINE       0     0     0
            c0t50024E92061B25B8d0p0  ONLINE       0     0     0
        logs
          mirror-2                   ONLINE       0     0     0
            c0t5001517BB28D2ED6d0    ONLINE       0     0     0
            c0t5001517BB28D4489d0    ONLINE       0     0     0
        cache
          c0t5001517BB2997C68d0      ONLINE       0     0     0

errors: No known data errors

Liegt es am Solaris ZFS v33 das der Fehler kommt (nehme ich mal an)? Hab auch schon versucht die sd.conf anzpassen (ZFS and Advanced Format disks - illumos - illumos wiki) aber das klappt auch nicht, die neuen HDDs bleiben ashift=9 wenn ich manuell per CLI hinzufüge, hast du noch einen Tipp wie ich ashift=12 hinbekomme, ohne alles komplett neu anzulegen? Vielen Dank!
 
Bei einem Raidz2 über Mirrors? Da müssten afaik für einen Poolausfall 3 komplette Mirrors ausfallen um den Pool zu zerstören. Wenn ein Mirror degraded ist die Redundanz durch das Raidz2 doch noch gegeben.
 
Zuletzt bearbeitet:
Hallo,

ich bin gerade dabei einen Backup Server zusammenzustellen. Um es möglichst sicher zu machen soll ein RAIDZ2 aus Mirrors für die Daten gebildet werden (6 Mirrors + Hot Spare, Sistem einfacher Mirror). Die Daten liegen in 2 Rechenzentren gespiegelt vor. im 3. RZ wird der Backupserver aufgestellt. Maximale Datentransferrate sind 2 GBit.

Meine Hardwarezusammenstellung: Backup Server Preisvergleich | Geizhals EU

Sind da grobe schnitzer drin oder würdet ihr etwas wesentlich anders machen?

Da bei der Aufstellung kein Hardwareraid für die mirrors dabei sind, wird das so nicht funktionieren.
ZFS kann kein Raid-Z über mirrors legen (und die Variante mit Raid-Z über nicht ZFS mirror wäre ohnehin nicht gut.)

Folgende Pools gehen mit 12 x 4TB Platten:

1.) 6 x vdev als mirror, (werden gestriped) + hotfix

- beste I/O, Kapazität 24 TB
- wenn zwei Platten im gleichen vdev ausfallen ist der Pool verloren

Das würde ich als Backupsystem nicht machen.

2.) 12 Platten als Raid-Z3, Kapazität 36 TB
beste Kapazität, max 3 beliebige Platten dürfen ausfallen
schlechteste I/O

bestens für normalen Backupserver

3) 2 vdevs je Raid-Z2 und 6 Platten (Quasi Raid 60), Kapazität 32 TB
Pro vdev dürfen 2 Platten ausfallen

bester Kompromiss

---------- Post added at 14:42 ---------- Previous post was at 14:20 ----------

Mal eine Frage an dich Gea und dein napp-it. Habe Solaris 11 und napp-it Version 0.8j

Nun wollte ich 2 neue 3,5" SATA HDDs (4K AF) zu meinem Pool hinzufügen über das Webinterface aber es klappt nicht, da ich natürlich auch ashift=12 haben möchte habe ich die Option

Code:
force 4k optimized vdev with modified zpool 	force ashift=12 - requires Pool ZFS V.28

angewählt. Es kommt immer:

pool storage does not exist!


Liegt es am Solaris ZFS v33 das der Fehler kommt (nehme ich mal an)? Hab auch schon versucht die sd.conf anzpassen (ZFS and Advanced Format disks - illumos - illumos wiki) aber das klappt auch nicht, die neuen HDDs bleiben ashift=9 wenn ich manuell per CLI hinzufüge, hast du noch einen Tipp wie ich ashift=12 hinbekomme, ohne alles komplett neu anzulegen? Vielen Dank!

Das wird nicht gehen.

1. force ashift=12 nutzt ein modifiziertes zpool binary aus OpenIndiana 148
Neben der Unsicherheit wie stabil das ist, geht das auch nur mit Pools V.28 und nicht mit Pools > 28

2. sd.conf
Die Festlegen auf 4096 physikalische Sektoren für ältere Platten (WD Ears, Samsung F4 etc), die dieses nicht selbst kundtun,
ist eine Entwicklung von Illumos und daher in Solaris 11 nicht verfügbar.

(Es geht auch in OI nicht immer. Manchmal muss man nach dem Einstellen den Rechner herunterfahren und kurz auschalten)
 
Schade, dann werd ich wohl den Pool neu erstellen müssen, mit zfs send / receive gehts ja zum Glück sehr Flott beim zurückspielen vom Backup Pool.
 
Da bei der Aufstellung kein Hardwareraid für die mirrors dabei sind, wird das so nicht funktionieren.
ZFS kann kein Raid-Z über mirrors legen (und die Variante mit Raid-Z über nicht ZFS mirror wäre ohnehin nicht gut.)

Folgende Pools gehen mit 12 x 4TB Platten:

1.) 6 x vdev als mirror, (werden gestriped) + hotfix

- beste I/O, Kapazität 24 TB
- wenn zwei Platten im gleichen vdev ausfallen ist der Pool verloren

Das würde ich als Backupsystem nicht machen.

2.) 12 Platten als Raid-Z3, Kapazität 36 TB
beste Kapazität, max 3 beliebige Platten dürfen ausfallen
schlechteste I/O

bestens für normalen Backupserver

3) 2 vdevs je Raid-Z2 und 6 Platten (Quasi Raid 60), Kapazität 32 TB
Pro vdev dürfen 2 Platten ausfallen

bester Kompromiss



Leider hast du recht, was RaidZ2 over Mirror angeht. Das geht nur mit Sourcecodeanpassungen. (ich hatte das mal bei nem BSD Hack gesehen)

zu 1. Da würde das Problem doch mit 4 Mirror(3) devices am besten umschifft werden. währen zwar nur noch 16GB aber flott und recht sicher.

zu 2. Wäre das nicht mit 11 Platten (8+3) und 2 Hotspares bei max. 13 verfügbaren schneller und mit weniger Verschnitt?

zu 3. Hier ist mir leider die Ausfallssicherheit fast nicht hoch genug, da ein Resilver bei den 4 TB Devices doch recht langwierig sein kann.
 
Zuletzt bearbeitet:
Bei meiner Solaris 11 vm hat sich anscheinend ohne mein Zutun mein time-slider service verabschiedet. Es werden dementsprechend keine automatischen Snapshots mehr erstellt. Das alles hat Monate einwandfrei funktioniert, die Konfiguration habe ich seit der Installation nicht mehr verändert.

Mir ist es Anfang der Woche mehr oder weniger durch Zufall aufgefallen, dass alles auto-snaps weg sind.

andreas@linda:~$ svcs time-slider
svcs: Pattern 'time-slider' doesn't match any instances
STATE STIME FMRI

Einer 'ne Idee, was die Ursache sein könnte? Log sagt auch nichts aus.
Im Oracle-Forum habe ich bisher keine Antwort erhalten.
 
Zuletzt bearbeitet:
Nochmal eine 4K / AF Verständnisfrage, checke gerade alles einmal durch.

Code:
zdb -C | grep ashift

Code:
ashift: 9 (System OS SSD)
ashift: 12 (mirror von zwei Samsung F4)
ashift: 12 (mirror von zwei Samsung F4)
ashift: 9 (Zil mirror von 2 Intel 330 SSD)
* (L2arc von einer Intel 330 SSD wird nicht angezeigt)

Wenn ich mit format prüfe ist es doch ein 4K Alignment (256 * 512 / 4096 = 32) oder hab ich wa falsch verstanden?

Code:
format> verify

Volume name = <        >
ascii name  = <ATA-INTEL SSDSC2CT06-300i-55.90GB>
bytes/sector    =  512
sectors = 117231407
accessible sectors = 117231374
Part      Tag    Flag     First Sector         Size         Last Sector
  0        usr    wm               256       55.89GB          117214990
  1 unassigned    wm                 0           0               0
  2 unassigned    wm                 0           0               0
  3 unassigned    wm                 0           0               0
  4 unassigned    wm                 0           0               0
  5 unassigned    wm                 0           0               0
  6 unassigned    wm                 0           0               0
  8   reserved    wm         117214991        8.00MB          117231374

Wieso wird ashift=9 ausgegeben?
 
Leider hast du recht, was RaidZ2 over Mirror angeht. Das geht nur mit Sourcecodeanpassungen. (ich hatte das mal bei nem BSD Hack gesehen)

zu 1. Da würde das Problem doch mit 4 Mirror(3) devices am besten umschifft werden. währen zwar nur noch 16GB aber flott und recht sicher.

52 TB Kapazität und nur 16 TB nutzbar?
Das ist für ein Backup Overkill (zumal es ja trotzdem kaputtgehen kann - ich hatte mal ein Netzteil das mir ein ganzes Raid gebraten hat)


zu 2. Wäre das nicht mit 11 Platten (8+3) und 2 Hotspares bei max. 13 verfügbaren schneller und mit weniger Verschnitt?

Ein Raid Z3 mit 8 Datenplatten ist perfekt ausbalalanciert- Jeder Datenblock wird gleichmäßig über alle Platten geschrieben.
Doch was soll das bringen. Bei einer 9. oder 10 Platte wird der Pool dennoch schneller, auch wenn die Geschwindigkeitszunahme vielleicht
nicht ganz proportional verläuft.

Hier auch wieder
52 TB und nur 32 TB nutzbar
Der Sicherheitsgewinn von Raid Z3 mit zwei Hotspares im Vergleich zu einem Hotspare ist zu vernachlässigen


zu 3. Hier ist mir leider die Ausfallssicherheit fast nicht hoch genug, da ein Resilver bei den 4 TB Devices doch recht langwierig sein kann.

Ein Pool aus zwei Raid Z2 vdevs à 6 Platten hat ein etwas kürzeres Rebuild als ein Pool aus einem Raid-Z3 mit 12 Platten.
Die Wahrscheinlichkeit dass in den 3-6 Tagen, die für das Rebuild benötigt werden, drei aus 12 Platten ausfallen und diese dann auch noch im gleichen vdev liegen ist wohl ähnlich gering wie die Wahrscheinlichkeit dass 4 von den 12 Platten kaputtgehen.

Wenn die Datensicherheit so wichtig ist, dann würde ich eher (mache ich bei mir auch so) 2 oder gar 3 Backupsysteme aufbauen und diese dann vielleicht nicht ganz so extrem auslegen und an unterschiedlichen Orten aufbauen. Jeweils ein Pool aus einem Raid-Z3 ist vermutlich schnell genug.
 
Zuletzt bearbeitet:
So wie es momentan aussieht werd ich wohl einfach ein RaidZ3 machen und nur eine Hotspare verwenden. Dann bleibt der letzte Schacht erstmal leer. 2. System lohnt nicht da nur ein Serverraum dafür zur Verfügung steht. Der IBM SVC Cluster der darauf gesichert wird ist auf 2 andere Rechnezentren aufgeteilt.
 
Nochmal eine 4K / AF Verständnisfrage, checke gerade alles einmal durch.


Wieso wird ashift=9 ausgegeben?

Weil das vdev eben mit ashift=9 angelegt wurde -
wobei echte 512B Platten natürlich auch mit 4k Sektoren und ashift=12 arbeiten können.

Das wird ja teilweise ja auch gemacht damit diese Platten ohne Probleme später mit 4k Alternativen ausgetauscht werden können.

Ein googeln nach "4k misaligned" erklärt das Problem vertiefend z.B.
FAQ: Festplatten mit 4K-Sektoren | c't
 
Wenn die Sicherheit von Sync writes nötig ist, es aber die Geschwindigkeit von sync=disabled haben soll, dann muss ein ZIL mit geringer Latenz und guten Schreibwerten her, eines das diese Werte auch nach dem Warmlaufen noch hat.

Leider müssen da SSD praktisch alle passen (Obwohl sie schon etwas bringen ohne aber gut zu sein).
Richtig gut ist nur etwas RAM-basiertes wie (leider teuer) The SSD Company - STEC - ZeusRAM Solid State Drive, High Performance Enterprise Storage Solutions oder www.ddrdrive.com/zil_accelerator.pdf

OCZ RevoDrive 3 - based on OCZ's proprietary Virtualized Controller Architecture 2.0 (VCA) technology wird von Openindiana nicht unterstützt - oder - für Openindiana werden keine Treiber von OCZ für das RevoDrive 3 angeboten.

Bericht:
Das RevoDrive X2 - wird vom Bios als Raidcontroller erkannt Die Entstehung der OCZ RevoDrives : OCZ RevoDrive X2: Wenn schnell nicht schnell genug ist -Ich reiche die 4 SSD's an das OS durch.
Diese 4 SSD's als zil für "data-pool" (zpool add log 1 2 3 4) mit zfs set sync=standard data-pool verschlechterten die write-Performance um 50% - ATTO Disk Benchmark mit-sync.
Wie Du schon sagtest "Obwohl sie schon etwas bringen" "ohne aber gut zu sein" ;).

Die anderen Produkte - Zeus, ddrDrive spielen preislich in einer anderen Liga. Bevor ich das beschaffe würde ich gerne Eure Meinung zu folgender Alternative hören:

Interessant ist für mich - nach aussen - ist nur das Protokoll iscsi. Ich sehe quasi das gesamte System als SCSI - Controller für meine Klient-Rechner. Sicher ziemlich grob und oberflächlich betrachtet. Hinter der für alle Systeme vorhandenen USV würde für das "ZFS - System" eine weitere exclusive USV installieren. Im Falle eines Stromausfalls würde so das "ZFS - System" als letztes stromlos werden.
Ausgehend von der Annahme das die Daten, durch das "ZFS - System", spätestens nach 5 Minuten, auf den Platten persistiert sein sollten, würde eine Laufzeit von 10-15 Minuten reichen.

Auf folgende Frage konnte ich bisher keine Antwort finden:
Für das ZFS ist ja letzlich meine iscsi-lun eine einzige Datei. Definiere ich jetzt ein iscsi-lun von 1000 GByte Grösse sehe ich im Filesystem eine Datei von 1000 Gybte Grösse.
Inwiefern kann/wird die bereitgestellte Cache Strategie (ARC/L2ARC) auf Dateien angewendet werden, welche vollständig, aufgrund der Grösse, nicht im ARC oder im L2ARC vorgehalten werden können?
 
Interessant ist für mich - nach aussen - ist nur das Protokoll iscsi. Ich sehe quasi das gesamte System als SCSI - Controller für meine Klient-Rechner. Sicher ziemlich grob und oberflächlich betrachtet. Hinter der für alle Systeme vorhandenen USV würde für das "ZFS - System" eine weitere exclusive USV installieren. Im Falle eines Stromausfalls würde so das "ZFS - System" als letztes stromlos werden.
Ausgehend von der Annahme das die Daten, durch das "ZFS - System", spätestens nach 5 Minuten, auf den Platten persistiert sein sollten, würde eine Laufzeit von 10-15 Minuten reichen.

Zil protokolliert die letzten 5 Sekunden. Die Größe muß lediglich so groß sein wie die Datenmenge die in 10s anfallen.
Mehrere SSD als ZIL bringen übrigens gar nichts. Das Grundproblem des SSD wird hier gut beschrieben:
http://www.ddrdrive.com/zil_accelerator.pdf


Auf folgende Frage konnte ich bisher keine Antwort finden:
Für das ZFS ist ja letzlich meine iscsi-lun eine einzige Datei. Definiere ich jetzt ein iscsi-lun von 1000 GByte Grösse sehe ich im Filesystem eine Datei von 1000 Gybte Grösse.
Inwiefern kann/wird die bereitgestellte Cache Strategie (ARC/L2ARC) auf Dateien angewendet werden, welche vollständig, aufgrund der Grösse, nicht im ARC oder im L2ARC vorgehalten werden können?

zum ARC
Brendan's blog » Activity of the ZFS ARC
https://blogs.oracle.com/brendan/entry/test
AnandTech - ZFS - Building, Testing, and Benchmarking

vielleicht beantwortet das die Fragen.
 
hallo zusammen,

nachdem unser openindiana nas sehr zuverlässig, jedoch nicht allzu flink gelaufen ist, wollte ich einmal nach eurer meinung fragen, denn es gilt aufzurüsten oder gar neu zu kaufen. allerdings ist das budget wie immer recht klein, ich denke mal 250€.
mittlerweile sind ja sockel 1155 boards sehr günstig geworden und ram auch, bei der cpu bin ich mir nicht sicher was es denn für eine werden muss, der olle core2duo lief eigentlich garnicht soo schlecht. naja und ne ssd solls nun endlich auch werden. ist mittlerweile ja doch kein bastelprojekt mehr und steht auch bald nimmer im keller, wo man mal eben runtergehen kann..

hier unsere aktuelle (februar/2011) config:

Openindiana 148 mit Napp-it
MSI 7380 (nforce 750)
Intel C2D 6550@2,33ghz (Sockel 775)
8GB Ram
1x SAMSUNG HD160HJ, system
-----------------------------------
RAID 10
2x WDC WD5000AAKS, mirror
2x ST3500418AS, mirror
2x WDC WD3200AAKS, mirror
-----------------------------------
1x WDC WD5000AAKS, spare
1x WDC WD3200AAKS, log device
-----------------------------------
1x Intel GT Desktop, pci, nfs für esxi (core i7 920, 12gb ram, 6 clients)
1x Intel CT Desktop, pci-e, nfs für esxi (core i7 920, 24gb ram, 12 clients)
1x SuMi AOC-USAS-L8i SAS Controller


die config hab ich mir mal im geizhals zusammengemoused... geht das oder nicht oder was sollte man ändern ??

1 x Intel SSD 330 Series 60GB, 2.5", SATA 6Gb/s (SSDSC2CT060A3K5)
1 x Intel Core i3-2120, 2x 3.30GHz, boxed (BX80623I32120)
1 x Corsair ValueSelect DIMM Kit 16GB PC3-10667U CL9-9-9-24 (DDR3-1333) (CMV16GX3M2A1333C9)
1 x MSI B75MA-P45, B75 (dual PC3-12800U DDR3) (7798-010R)

vielen lieben dank schon einmal und eine gn8,
david
 
Denkst du nicht eher auch, dass die bescheidene Performance von deinem Raid10 über drei verschiedene HDD-Modelle her kommt?
Was das µATX Mainboard auf deiner Einkaufsliste mit nur einem x16 und einem x1 PCIe Slot soll frage ich mich auch.
Mir ist bewusst, dass du mit dem einen PCI-Slot auch noch deine zweite Gbit Intel NIC wieder weiterverwenden kannst. Aber sei doch mal ehrlich, soo langsam ist der C2D nicht, dass du diesen durch einen neuen Unterbau ersetzen solltest der danach wieder keinen PCIe Slot mehr frei hat!
Spar lieber noch etwas Geld zusammen und kauf dir 8 gleiche neue HDDs mit ~1-2TByte wenn es so weit ist.
 
Hallo Ihr,

es ist mir peinlich, aber ich muss eine dumme Frage stellen. Wie cacht den ZFS den Zugriff auf Dateien? Wird die ganze Datei in den Cache geladen oder nur der angeforderte Datenblock?
Hintergrund meiner Frage: bei mir legen sich die Platten des Storagepools nach einer gewissen Zeit schlafen. Wenn man sich per VLC einen Film streamt, befindert dieser sich dann nach Start der Wiedergabe im Cache des OI und die Platten würden sich wieder schlafen legen können oder wird alle paar Sekunden/Minuten auf die Platten zugegriffen?
 
ZFS wie auch so gut wie bei jedem anderen Betriebssystem mit seinem Dateisystem speichert einzelne Sektoren. Arbeitet also Blockweise und nicht Datei basiert.
Es wäre mehr als verantwortungslos eine Datei von der nur ein paar Mbyte bisher angefordert wurde komplett in den Cache zu kopieren, da der "freie" Speicherplatz dann für alle anderen Zugriffe entsprechend geringer ausfallen würde. Wenn du einen möglichst geringen Verbrauch haben willst, dann sollte dein anfordender Client genügend RAM haben oder eine schnelle SSD auf der der aktuelle Film zwischen gespeichert wird. Hier sollte dann das Netzwerk (sofern nicht schon 10Gbit Eth) und nicht das Zielsystem der limitierende Faktor sein.
 
Hallo bluesunset,

danke. War mir eigendlich schon fast klar, daher auch der Hinweis auf eine dumme Frage. Mir fiel nur auf, das ich beim Schauen des Filmes am Client, keine Plattenaktivität am Server erkennen kann - oder ich habe nicht lang genug gewartet..
 
Zil protokolliert die letzten 5 Sekunden. Die Größe muß lediglich so groß sein wie die Datenmenge die in 10s anfallen.
Mehrere SSD als ZIL bringen übrigens gar nichts. Das Grundproblem des SSD wird hier gut beschrieben:
http://www.ddrdrive.com/zil_accelerator.pdf

Hast Du das ddrDrive im Einsatz? Mein Problem ist:
In der Beschreibung ist explizit erwähnt das, bauart bedingt, die Spezifikation bezüglich Höhe nicht eingehalten wird. Der oberste DIMM Streifen ragt, wie auch auf den Abbildungen zu erkennen, ziemlich weit oben drüber. Ich habe aber nur ein Gehäuse was 3HE hoch ist. Zwischen Deckel und der ______| < hier sitzt die Schraube> sind nur 8mm Platz(gemessen neben dem Schraubenkopf :)).
Ich glaube das wird nicht passen...


bin für jede verifizierte Quelle dankbar.
 
Wenn die Daten nicht so wichtig sind, kann man auch ganz böse Tricks anwenden und eine RAM-Disk selbst erstellen. Ist bei aktuellen Systemen mit einem max. Speicherausbau von 512 bis 2048GByte ja kein Problem des Platzes mehr ;)
 
Wenn die Daten nicht so wichtig sind, kann man auch ganz böse Tricks anwenden und eine RAM-Disk selbst erstellen. Ist bei aktuellen Systemen mit einem max. Speicherausbau von 512 bis 2048GByte ja kein Problem des Platzes mehr ;)

Geht super.
Nach Reboot kann man dann vieleicht auch mal üben wie man den Pool aus Status: FAULTED wieder ONLINE bekommt.
ZFS-8000-K4

ps. noch besser ist wenn was steht von "corrupted data"...
 
Hallo,

statt DDRDrive kannst Du auch HyperDrive 5 BA verwenden, ist billiger aber hat 2 SATA-Anschlüsse, statt direkt auf PCIe aufzusetzen.
 
leider habe ich keinen 5.25" Format Schacht in dem Gehäuse. Die Entwicklung scheint auch schon etwas älter zu sein.

Na dann schau Dir mal an von wann das DDRDrive X1 stammt. Ansonsten ist es mir egal wie alt das Teil ist, wenn es mir hilft, dann können das auch Laufwerke aus Feuerstein sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh