[Sammelthread] ZFS Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nappit ist ne GUI. Die greift nur auf die Funktionen zu, die das OS bzw. ZFS mitbringt, und ist fokussiert auf die Solarish-Funktionen. Mehr als das OS mit der jeweiligen ZFS-„Version“ bietet, kann auch Nappit nicht liefern. Und da ist ZoL einfach hinten dran, da Nappit dank eingebauter ZFS-Features in der Solariswelt schon das ganze Rechtemanagement wie auch SMB/NFS/iSCSI Server als ZFS(!) Features mitbringt und dann eben per GUI steuerbar ist. Es geht im Prinzip auch alles irgendwie unter Linux. Nur halt: irgendwie.
 
Ne es geht alles auch mit ZoL, und nicht nur "irgendwie".
 
Was ist denn Dein Gegenvorschlag zu „irgendwie“? Das ist dann jedenfalls nicht ZoL sondern sind andere Dienste (Samba für SMB, wieder was anderes für iSCSI und was weiss ich). Ich hab das Ganze ja hinter mir mit Linux und ZoL (allerdings ca. 2 Jahre her) und es ist einfach was anderes als aus einem Guss wie bei Solarish - das meinte ich mit „irgendwie“. Und für mich als Laien ist Solarish da einfacher & komfortabler.

Will hier aber wirklich keinen Glaubenskrieg ausfechten! Mag gut sein, dass z.B. Proxmox da dann wieder vieles unter einem Dach vereint und möglich macht - das kann und will ich gar nicht beurteilen.
 
@ Daniel
Warum SAS HDDs?
so lange du bei 7200er HDDs bleibst, kannst du auch SATA HDDs nehmen, da bringen dir SAS-HDDs keinen Vorteil

SAS: Seagate Exos E 7E8 8TB, 512e, SAS 12Gb/s (ST8000NM0075) ab 224,99 (2018) | heise online Preisvergleich / Deutschland 225 €
SATA: Seagate Exos E 5E8 8TB, SATA 6Gb/s (ST8000AS0003) ab 209,84 (2018) | heise online Preisvergleich / Deutschland 210 €
SAS 12G vs SATA 6G bringt genau 1% Unterschied - eher weniger - in der Gesamtperformance, nämlich dann wenn Daten aus den 256 MB HDD Cache gelesen werden. Selbst SATA 3G ist für aktuelle HDDs schnell genug.
Spezielle SAS Features wie z.B Dual-PORT wirst du wohl eher nicht benötigen.

10.000er HDDs gibt es auch nur bis max. 2,4 TB und sind Teuer (da wird ein SSD Setup durchaus attraktiv, 2TB SSDs gibt's schon ab ca. 320 €)
Hard Disk Drives (HDD) mit Einzelkapazitt: 2.4TB, Umdrehungsgeschwindigkeit: 10000rpm heise online Preisvergleich / Deutschland
15.000er gibt's nur bis max. 900 GB
 
Bei direkt am Kontroller angeschlossenen Platte ja. Wenn ein Expander ins Spiel kommt sieht das schon anders aus. Stichwort Multipath und Dual Port Anbindung der SAS Platten.

und das soll bei HDDs genaus was bringen?
Ein SATA/SAS 3G Link bietet genug Bandbreite für alle aktuellen HDDs mit 7.200U/min - mit Ausnahme des Datentransfers vom/zum HDD Cache, der läuft mit jeweiliger Schnittstellengeschwindigkeit.
Daher ist die einzig sinnvolle Verwendung die Anbindung einer HDD an 2 Hosts.

Zu DOs/Win Zeiten hat man mit aufkommen von ATA2/3 Controllern dann ganz stolz seinen Coretest Screen gezeigt - die HDDS waren aber trotzdem genauso lahm wie an den älteren Controllern - oder anders ausgedrückt, die Controller konnten viel schneller auf die Daten von der HDD warten.
 
Zuletzt bearbeitet:
und das soll bei HDDs genaus was bringen?

Ich habe hier Backplanes in Servern, die erscheinen bei Bestückung mit SATA als zwei Gehäuse im in der Topologie im SAS BIOS, wenn SAS Platten drin sind erscheint nur ein Gehäuse mit allen Platten. Sprich, jede Platte kann mit jeden Kanal des Kontrollers angesprochen werden, was durchaus Geschwindigkeitsvorteile bringt da die Queue schneller abgearbeitet wird.
 
Anderes Thema zu ZFS: Hat jemand zufällig sein Arch auf ZFS installiert? Das würde ich bei Gelegenheit gerne mal austesten mit 2 zusätzlichen SSDs in meiner Ẃorkstation. Also ein RaidZ1 aus 3 NVMe SSD als System Platte, inkl. /home natürlich. Allerdings hab ich auf dem Board glaub ich nur 1 oder 2 M.2 Interfaces. Ist es dem ZFS egal wo die Drives angeschlossen sind, also wenn ich z.B. meine bisherige SSD am M.2 habe und die anderen beiden des Pools am SATA onboard, würde das problemlos laufen? Sonst wäre es vielleicht sinnvoller da auch einen LSI HBA reinzuhängen...
 
Bin mal wieder beindruckt. Neue FreeBSD-Distri von Xigmanas in ne frische VM amd ESXI installiert, Passthrough-Geräte drangehangen, Backupconfig eingespielt, ZPools importiert und 2 Mountpoints wieder eingerichtet. Fertisch. Alles wieder da.
ZFS => :bigok:
 
Zuletzt bearbeitet:
ZFS offsite Backup auf eine externe Festplatte

bin auf der Suche nach einer anwendbaren "vollautomatischen" Lösung, welches ich zu bei Synology angewendet hatte...

1. Es gibt ein Script welches erkennt das eine USB Platte angeschlossen wurde ( Zum An/ AUs Schalten wurde eine Zeitschaktuhr verwendet welche die USB Platte eingeschaltet hat)
2. Das Script sichert vordefinierte Datenverzeichnisse.... und meldet nach getaner Arbeit die USB Platte ab ( Nach definierten Zeitraum wird die Platte über die Zeitschaltuhr ausgeschaltet)

Für ZFS wäre das kopieren von Snapshots auf eine USB Platte nach obigen Verahren das non plus ultra...

es gibt zwar massig Ansätze hierzu wie z.B. https://esc-now.de/_/zfs-offsite-backup-auf-eine-externe-festplatte/?lang=en jedoch sind diese nicht "vollautomatisch".

Kennt jemand eine sinnvolles Prozedere um das zu realisieren ?
 
Mit nem Backup hat das aber nicht viel zu tun weil ja die Datenverbindung, zumindest physikalisch bestehen bleibt, trotz Zeitschaltuhr.
Man müsste zumindest ein optisches USB Kabel nehmen, damit die HDD dann wirklich getrennt ist vom Stromnetz
 
Zuletzt bearbeitet:
Doch natürlich, es besteht ja durchaus die Möglichkeit rollierend andere Platten anzustöpseln.
Ich mache das z.B. im Wöchentlichen Wechsel.
1 Platte angestöpselt
2 Platte außerhalb gelagert

Zurück zum eigentlichen Thema. Es gibt tatsächlich einen Lösungsansatz: Dieser ist hier https://serverfault.com/questions/750764/how-to-automatically-detect-inserted-sata-disk-in-solaris-if-cfgadm-status-is-di/751048#751048 (allerdings mit Sata Platten) realisiert worden.

Wäre echt toll wenn jemand das Thema aufgreifen könnte und mir bei der Umsetzung behilflich wäre. Ich bin einfach ein Windows Noob ...
 
Ich würde nicht die Platten auswerten sondern direkt das Vorhandensein des ZFS Pool den das ist es ja was man braucht. Auch ein exportierter oder gelöschter Pool meldet sich brav per zpool import. Prinzipiell bräuchte man für ein Backup auf zwei rollierende externe Wechselplatten (egal ob USB oder eSata/Sata/SAS mit hotplug).

- Auf jeder Platte einen Pool z.B. backup1 und backup2
- Je einen Replikationsjob der den Datenpool mit dem Backuppool per zfs send syncronisiert den man an und ausschalten kann.

Für den Plattenwechsel müsste man
- den zugehörigen Replikationsjob anhalten und den Pool exportieren (oder den Pool im status offline belassen mit Fehlermeldungen, alerts etc, bad use)
- die andere Platte einstecken. Dann man muss den Pool per zpool import importieren (oder den Fehler löschen wenn er nicht exportiert wurde)
- den zugehörigen Replikationjob starten.

Man könnte das sportlich als Programmieraufgabe sehen.
Da man zum An/Abstecken der Platte eh aktiv werden muss, würde ich das ganz einfach manuell machen:
pool export + zugehörigen job anhalten (in napp-it z.B. Replikationsjob auf manuell stellen), dann Platten wechseln
pool import + zugehörigen job starten (in napp-it z.B. Replikationsjob auf auto stellen oder manuell ausführen)
 
Hi,
was wäre besser für ein Home-Fileserver, der als zentrales Speicherstück im Netzwerk fungieren soll und somit fast 24/7 läuft:
Eine HDD mit einer non-recoverable Read Errors per bits Reads of 1 per 10E15 und einer Power-On Hours per year von 2400

oder

Eine HDD mit einer non-recoverable Read Errors per bits Reads of 1 per 10E14 und einer Power-On Hours per von of 8500?

Die HDDs sind:

Seagate SkyHawk 3TB (ST3000VX009)
Seagate IronWolf NAS 3TB (ST3000VN007)
WD Red 3TB

bzw

Seagate BarraCuda Compute 3TB (ST3000DM007)

Diese sollen in einem Striped mirror mit weiteren 3TB hdds laufen.

Grüße
 
Zuletzt bearbeitet:
Kann ich 4TB und 3TB HDDs in einem Striped-Mirror nutzen?
also 2*4TB + 2*3TB + 2*3TB

und hätte ich dann 10TB Netto?
 
Ich hab mit OmniOS (und napp-it) Probleme Dateien und Ordner zu löschen auf SMB Shares. Über Windows wurde mir zum Teil angezeigt, dass die Quellpfade zu lange sind und ich erst die Ordner verschieben soll. Zum anderen lösche ich manche Ordner und diese popen danach wieder auf? WTF. Auch mit MacOSX bekomme ich die Dateien & Ordner nicht gelöscht! An was liegt das?
 
Ne, ich habe nichts spezielles eingestellt. Zb habe ich hauf auf dem backup smb share auf hddpool mehrere ordner die ich lösche, danach aber wieder auftauchen.
Ordner:
Screenshot 2018-10-30 at 22.30.50.png


napp it Konfiguration
Screenshot 2018-10-30 at 22.30.23.jpg
 
Hi,

ich habe zwei neue WD Reds und die laufen im Striped Mirror mit zwei anderen HDDs.
Nun bekomme ich immer diesen Fehler, wenn ich etwas auf den Pool unter Openmediavault kopiere:

Code:
 pool: ServerTANK
 state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
        repaired.
  scan: resilvered 11,9G in 0h2m with 0 errors on Wed Oct 31 15:59:46 2018
config:

        NAME                                          STATE     READ WRITE CKSUM
        ServerTANK                                    DEGRADED     0     0     0
          mirror-0                                    DEGRADED     0     0     0
            ata-WDC_WD40EFRX-68N32N0_XXXXXXXXXXXXXXXX  FAULTED      0     0     0  too many errors
            ata-WDC_WD40EFRX-68N32N0_XXXXXXXXXXXXXXXX  ONLINE       0     0     0
          mirror-1                                    ONLINE       0     0     0
            ata-TOSHIBA_DT01ABA300_XXXXXXXXX          ONLINE       0     0     0
            ata-TOSHIBA_HDWD130_XXXXXXXXX             ONLINE       0     0     0

errors: No known data errors

woran liegt das? Smart-Werte deuten auf nichts auffälliges hin.

edit: Ich habe mal Testweise das Kabel getauscht. Bin gespannt.

edit 2: lag am Kabel
 
Zuletzt bearbeitet:
Ich würde gerne den ZFS-Speicher meine Fileservers per ISCSI an Proxmox anbinden. wie erstelle ich unter debian 9 ein iscsi-target auf dem ZFS-Pool?
 
Sind das zwei unterschiedliche physische Kisten?
 
Ich habe es versucht mit FreeNAS oder XigmaNAS, jedoch lief das auf meiner Hardware nicht? Kann ich die ZoL-Pools woanders importieren?

Mal was anderes:
Ich habe dummerweise zwei mirrored devices per sdb und sdh zu einem Pool hinzugefügt. Ich würde diese jedoch gerne nach device-id hinzufügen. Wie mache ich das ohne die Daten auf den anderen beiden mirrors zu korrumpieren?
 
Proxmox 5.1 oder höher kann gleich direkt mit Samba als Storage arbeiten. Wobei ich aktuell noch kein MP Setup versucht habe, für ZFS reichen 10Gbit idR völlig aus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh