[Sammelthread] ZFS Stammtisch

Ja, ich finde die manuelle Reservation-Einstellung auch gut. Aber wie gesagt die Grundreservierung sind bei mir 5%. In Windows habe ich 4x3TB einen NTFS-Volume mit 8,18TB und in ZFS 7,77TB.
---
Zu dem Robocopy-Problem: Ich habe mal in Robocopy /COPYALL eingestellt, sodass er über die SMB-Freigabe auch ACL- & Owner-Settings mitkopiert, jedoch habe ich dort dann nur Fehlermeldungen (FEHLER 1037). Ich vermute den Performance-Verlust bei den ACL-Informationen, da unter Nappit ja auch viel Einstellbar ist mit den ACL-Rechten und ich dort vielleicht irgendwas falsch habe. Bin mir aber nicht sicher da ich mich nicht so recht auskenne mit der Rechte-Verwaltung Windows zu Unix etc...

EDIT: Scheinbar ist das Problem gelöst wenn man bei Robocopy den Schalter /B ganz wegläst.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
/copyall geht nicht, da der owner nicht mitkopiert werden kann und
ohne /B wurden bei mir (als ich es vor länger Zeit probierte) nur leere Dateien angelegt.

Ps
Der Unterschied zwischen ZFS und NTFS Angaben hat sicher nichts mit Reservierung zu tun.
 
Zuletzt bearbeitet:
/copyall geht nicht, da der owner nicht mitkopiert werden kann und
ohne /B wurden bei mir (als ich es vor länger Zeit probierte) nur leere Dateien angelegt.

Also bei mir sieht es erstmal so aus als ob es ohne /B klappt. Werde das morgen noch genauer testen.
Gibts eine Alternative zu Robocopy, was aber reibungslos funktioniert und ähnlich schlank ist wie robocopy? (Windows zu ZFS via SMB)

Ps
Der Unterschied zwischen ZFS und NTFS Angaben hat sicher nichts mit Reservierung zu tun.
Mit der manuell-einstellbaren-Reservation hat das sicher nichts zu tun :) , aber wenn ich unter ntfs 8,18TB und unter einem frisch angelegten raidz ohne jegliche reservation 7,77TB frei habe, dann müssen ja die ca. 400GB irgendwo sein :). Laut deinem Post #3001 und dem dazugefügtem Link belegt ZFS eigentlich immer um die 1,5%, bei mir sind es aber an die 5%. Ich müsste ja theoretisch bei einer reservation=0G ca. 8TB zur freien Verfügung haben (die 1,5% Grundreservierung schon eingerechnet).
 
Zuletzt bearbeitet:
Gibts eine Alternative zu Robocopy, was aber reibungslos funktioniert und ähnlich schlank ist wie robocopy? (Windows zu ZFS via SMB)
rsync, das Standardwerkzeug. Ich denke nicht dass es irgendetwas vergleichbares besseres gibt. Auch für Windows, enthalten z.B. in cygwin und vielen anderen "Produkten". Wie es allerdings mit den Rechten/ACLs unter Windows ausschaut weiß ich nicht, das ist für meinen Anwendungszweck nicht relevant. Für "richtige" Backups nutze ich die eingebauten Sicherungsfunktionen von Windows oder DriveSnapshot.
Unter http://selicy.net/download/rsync_standalone_grafiktreiber.zip habe ich mal mein rsync Standalone hochgeladen welches ich öfter auf Windows Servern nutze.
Meine rsync.bat aus dem ZIP-Archiv als kleines Beispiel für rsync mit SSH:
Code:
@ECHO OFF
SETLOCAL
SET MAXSPEED=700
SET RSYNCHOME=%CD%
SET CYGWIN=nontsec
SET HOME=%HOMEDRIVE%%HOMEPATH%
SET CWOLDPATH=%PATH%
SET PATH=%RSYNCHOME%\BIN;%PATH%
:START
"%RSYNCHOME%\bin\rsync" -vr --log-file=rsync_log.txt --remove-source-files --bwlimit=%MAXSPEED% --partial --partial-dir=partialdir --stats --progress -e "ssh -c blowfish-cbc -p 44 -i /bin/meinkeyfile" user@server.de:/home/transfer/ladmich/ /download/
ECHO "Warte 240 Sekunden..."
ping localhost -w 1000 -n 120 > NUL
ping localhost -w 1000 -n 120 > NUL
ECHO "Beginne von vorn"
goto START

Für SMB müsstest du dann halt einfach ein Netzlaufwerk mappen und dann den Pfad in etwa so angeben:
Code:
rsync -vr --progress /cygdrive/C/MeinOrdneraufHDD/ /cygdrive/D/MeinSMBOrdner/
Für weitere Optionen bitte die Manpage von rsync konsultieren: http://linux.die.net/man/1/rsync , https://www.google.de/search?hl=de&q=man+rsync.
 
Zuletzt bearbeitet:
@GrafikTreiber:

Vielen Dank!, wenn ich mich richtig informiert habe, prüft rsync beim kopiervorgang die "Richtigkeit" der Daten anhang von MD5-Prüfnummen. Ein sehr gutes feature was Robocopy nicht kann. Zwar brauche ich kein SSH da ich nur lokal von PC zu Server kopiere, aber Danke für den Tipp/Upload. :)
 
Zuletzt bearbeitet:
Hy,

ich habe wiedermal eine Bitte. Diesesmal zum Thema iSCSI und napp-it.

Könnt ihr mir vielleicht eine kurze step by step Anleitung geben wie ich bei napp-it ein iSCSI Target Freigebe.

Ich habe bei Comstar Services den ISCSI Target Dienst zuerst eingeschaltet, danach im Comstarreiter eine LogicalUnit erstellt. Danach ein iSCSI Target, aber bei den ganzen Groups und Views kenne ich mich leider gar nicht aus.

Ich habe auch schon nach einer Anleitung gegoogelt oder bei Youtube gesucht, leider bin ich nicht fündig geworden.

Wäre über einen kurzen Guide sehr dankbar oder über einen Link der mir vielleicht mehr Verständniss zu diesem Thema bringt.

danke.
 
Hallo,

ich nutze diesen Robocopy Befehl um meine Eigenen Dateien auf mein FreeNas zu kopieren:
Code:
robocopy "D:\Eigene Dateien" \\FREENAS\data\Eigene_Dateien_Backup_HP_Laptop /S /MIR /COPY:DAT /FFT /Z /R:10 /W:5 /NP /TEE /LOG:D:\Eigene_Dateien_Backup.log
Ich musste den Schalter /FFT nutzen, da Robycopy sonst immer alle Dateien kopiert hat, da die Zeitstempel sonst nicht funktioniert haben. Das kann bei OI natürlich anders sein.
Ihr solltet auch die Schalter /R und /W verändern. Sollte Robocopy mal eine Datei nicht kopieren können, versucht es sehr sehr lange die Datei doch noch zu kopieren.
/R ist 100000 und /W sind 30 Sekunden!

@ SUNMorph,
zum Thema iSCSI:
Ich mache es immer so:
1. Erstelle ein ZFS Volume
2. Erstelle eine Volume LU aus dem oben erstellten ZFS Volume
3. Erstelle ein Target
4.
4.1 einfache Methode: Wenn du jetzt ein View aus den beiden oben erstellen Teilen erstellst, ist das Target schon freigegeben, aber es kann jeder PC auf alle so erstellten Targets zugreifen! -> fertig!
4.2 Ich erstelle deswegen Target- und Host-Groups!
In eine Target-Group kannst du mehrere Targets als Member hinzufügen. Ich erstelle immer eine TG pro Target. So gehe ich sicher, dass ich nicht mal ausversehen ein falsches Target einbinde! Das kann zu enormen Problemen führen!
In eine Host-Group gibst du als Member den iqn von deinem PC an.
Jetzt kannst du wieder einen View erstellen, kannst aber jetzt die erstellten Groups angeben, um den Zugriff zu beschränken.

Target-Portal-Group: Standard mäßig gibt Comstar die Targets über alle Interfaces aus. Mit einer TPG kannst du ein Target auf eine bestimmte IP beschränken, über die man auf das Target zugreifen kann.

LG Ghandalf
 
@ SUNMorph,
zum Thema iSCSI:
Ich mache es immer so:
1. Erstelle ein ZFS Volume
2. Erstelle eine Volume LU aus dem oben erstellten ZFS Volume
3. Erstelle ein Target
4.
4.1 einfache Methode: Wenn du jetzt ein View aus den beiden oben erstellen Teilen erstellst, ist das Target schon freigegeben, aber es kann jeder PC auf alle so erstellten Targets zugreifen! -> fertig!
4.2 Ich erstelle deswegen Target- und Host-Groups!
In eine Target-Group kannst du mehrere Targets als Member hinzufügen. Ich erstelle immer eine TG pro Target. So gehe ich sicher, dass ich nicht mal ausversehen ein falsches Target einbinde! Das kann zu enormen Problemen führen!
In eine Host-Group gibst du als Member den iqn von deinem PC an.
Jetzt kannst du wieder einen View erstellen, kannst aber jetzt die erstellten Groups angeben, um den Zugriff zu beschränken.

Target-Portal-Group: Standard mäßig gibt Comstar die Targets über alle Interfaces aus. Mit einer TPG kannst du ein Target auf eine bestimmte IP beschränken, über die man auf das Target zugreifen kann.

LG Ghandalf

Thx,

also ich habs genauso gemacht gestern, aber irgendwie hat mir der iSCSI Initiator bei meiner Workstation keine Disk hinzugefügt, heute ging's. Frag mich nicht warum und wasi ch da gestern für einen Blödsinn gemacht habe.

Vielen Dank für die Infos über die Gruppen, jetzt verstehe ich es.
 
Hallo,

ich nutze diesen Robocopy Befehl um meine Eigenen Dateien auf mein FreeNas zu kopieren:
Code:
robocopy "D:\Eigene Dateien" \\FREENAS\data\Eigene_Dateien_Backup_HP_Laptop /S /MIR /COPY:DAT /FFT /Z /R:10 /W:5 /NP /TEE /LOG:D:\Eigene_Dateien_Backup.log
Ich musste den Schalter /FFT nutzen, da Robycopy sonst immer alle Dateien kopiert hat, da die Zeitstempel sonst nicht funktioniert haben. Das kann bei OI natürlich anders sein.
Ihr solltet auch die Schalter /R und /W verändern. Sollte Robocopy mal eine Datei nicht kopieren können, versucht es sehr sehr lange die Datei doch noch zu kopieren.
/R ist 100000 und /W sind 30 Sekunden!

Ich benutze: /COPY: DAT /MIR /DCOPY:T /FFT /V /NP /R:3 /W:3 /TEE /LOG:robo.log

Wie gesagt bei mir Funktioniert es am besten wenn ich weder /B (Sicherungsmodus) noch /Z (Neustartmodus) benutze. Nur wenn ich beide Schalter weglasse kopiert er mit 100MB/s.
Frage: Welche Übertragungsgeschwindigkeiten hast du denn mit /Z ? und in welchem "Kopiermodus" kopiert Robocopy wenn ich weder /B , /Z benutze?.

-Bringen die Schalter /SECFIX und /TIMFIX irgendwelche Vorteile wenn ich von Windows zu OI kopiere?

PS: Was heisst bei Nappit unter den SmartInfos in der Spalte "error" folgendes: " S:9 H:0 T:0 ". Bei mir steht das bei jeder Platte die im raidz-pool ist.
 
Zuletzt bearbeitet:
PS: Was heisst bei Nappit unter den SmartInfos in der Spalte "error" folgendes: " S:9 H:0 T:0 ". Bei mir steht das bei jeder Platte die im raidz-pool ist.

Soft, Hard und Transfer- errors, wobei es sich noch nicht um wirkliche Fehler sondern um Meldungen des Programms iostat -En handelt. (bei "echten" Fehlern wirft ZFS die Platte aus dem Pool).

Wenn aber vor allem die Transfer und Harderrors plötzlich sehr stark zunehmen, so ist das schon ein Indiz für einen möglichen künftigen Plattenausfall, oft sogar noch früher als Smartfehler.
 
Ich benutze: /COPY: DAT /MIR /DCOPY:T /FFT /V /NP /R:3 /W:3 /TEE /LOG:robo.log

Wie gesagt bei mir Funktioniert es am besten wenn ich weder /B (Sicherungsmodus) noch /Z (Neustartmodus) benutze. Nur wenn ich beide Schalter weglasse kopiert er mit 100MB/s.
Frage: Welche Übertragungsgeschwindigkeiten hast du denn mit /Z ? und in welchem "Kopiermodus" kopiert Robocopy wenn ich weder /B , /Z benutze?.

-Bringen die Schalter /SECFIX und /TIMFIX irgendwelche Vorteile wenn ich von Windows zu OI kopiere?

Hi,

stimmt, ohne /Z kopieren geht wirklich schneller! Zu den anderen Fragen kann ich leider nichts beitragen, aber die Antworten würden mich auch sehr interessieren!

Grüße Ghandalf
 
hy ich schon wieder,

ich habe eine Grundsatzfrage bezüglich Iscsi oder ZFS Filesystem.

Zuesrt schildere ich kurz mein kleines Problem.
Ich nutze Nappit im Homeserverbereich zum ablegen von daten/music/videos (hier war geplant diese ueber ACL Shares freizugeben).
Desweiteren habe ich ein ISCSI Volume gemounted auf meinem GamingPc der nur eine kleine SDD als Startplatte habe.

Ich verwende seit geraumer Zeit livedrive.com um meine Daten online zu sichern.
Mit dem MSServer als Backend nutze ich direkt auf diesem das Backupprogramm und konnte direkt über deren Software die freigegebenen Ordner sichern.
Jetzt war geplant eine kleine BackupVM einzurichten die nur fürs Backup zuständig ist, leider kann ich nur lokale Ordner sichern.
Es gäbe zwar die Möglichkeit für 8€ im Monat ein NAS einzubinden, das möchte ich aber verhindern.

Jetzt stellt sich mir die Frage, warum nicht auch für daten/music/videos jeweils ein iSCSI Volume zu erzeugen und diese dann zu sichern (würde funktionieren).

Nun kommt meine Frage.

Hat es irgendwelche Nachteile, auf meinem Raid Z2 (10 3TB Platten) anstatt den ACL Shares einfach 4 Volumes zu erzeugen und die dann über iSCSI zu mounten?
Ich hätte vor diese Volumes thin provisioned zu erstellen.

Oder hat wer von euch eine Idee wie ich einem Windows Client ein Netzwerklaufwerk als "wirkliches" Laufwerk vortäuschen kann

Wie immer thx für eure Tipps
 
Zuletzt bearbeitet:
Naja, ich würde mich beim Storage-Design nicht für irgendwelchen propritären Mist verbiegen.
 
Hi,

wir nutzen bei uns in der Arbeit iSCSI und das funktioniert sehr gut! Wegen iSCSI sehe ich hier keine Probleme und ich denke das Windows auch damit gut zurecht kommt. Wir setzen nur Linux ein.
Ich meine aber wegen Backup Software würde ich evtl. was anderes nehmen, schließe mich da TCM an!
 
Wenn ich eine kostengünstige Alternative kennen würde, würde ich es auch nicht in Betracht ziehen. Aber für ca 30€ im Jahr all meine ganzen Daten zu sichern (momentan ca 15TB) ist finde ich sehr günstig.
 
Wie lange dauert der Upload und vor allem der spätere Download im Bedarfsfall noch einmal und welchen Vertrag hast du mit dem Anbieter dass du die Daten auch wirklich wieder bekommst und die nicht einfach verloren gehen (wie schon so oft bei Clouds geschehen)?
 
Ist das mit 30EUR/Jahr ein Bestandstarif? Auf der Homepage gehts nämlich erst ab 4EUR/Monat los.

Die Beschränkung auf einen Rechner heißt bestimmt u.a., dass man deren Tool nutzen muss. Verschlüsselst du die Daten vor dem Upload?

Achja, 15TB würden bei mir mit DSL16k mal so knappe 5 Jahre für einen Initialupload brauchen. :)
 
Ist das mit 30EUR/Jahr ein Bestandstarif? Auf der Homepage gehts nämlich erst ab 4EUR/Monat los.

Die Beschränkung auf einen Rechner heißt bestimmt u.a., dass man deren Tool nutzen muss. Verschlüsselst du die Daten vor dem Upload?

Achja, 15TB würden bei mir mit DSL16k mal so knappe 5 Jahre für einen Initialupload brauchen. :)

Hy,

wenn du die Verträge länger abschliesst, dann geht es bei einem 5 Jahres Vertrag auf 2,13€ im Monat runter.

Ich habe zum Glück hier in Österreich eine recht günstige 100/100 Down/Up Leitung, da geht das ganze recht flott, trotzdem möchte ich nicht alles auf einmal zurücksichern wollen. Aber ich finde es ist trotzdem eine günstige Backupmöglichkeit.

---------- Post added at 12:39 ---------- Previous post was at 12:36 ----------

Wie lange dauert der Upload und vor allem der spätere Download im Bedarfsfall noch einmal und welchen Vertrag hast du mit dem Anbieter dass du die Daten auch wirklich wieder bekommst und die nicht einfach verloren gehen (wie schon so oft bei Clouds geschehen)?

Wie meinst du das, dass ich die Daten wiederbekomme, oder sie einfach verloren gehen. Meinst du das die Firma pleite geht?

---------- Post added at 12:46 ---------- Previous post was at 12:39 ----------

Aber kurz nochmals zu meiner eigentlichen Frage zurück.

Wenn ich 4 Volumes auf dem RaidZ2 erstelle die alle Thin Provisioned erstelle und die langsam mit Daten gefüllt werden, wie sieht das ganze mit der Defragmentierung aus mit der Zeit?
 
Kurze Fragen in die ZFS-Runde:

Ich möchte mir einen kleinen Backup-Server basteln, denn ich nur zu bestimmten Zeiten anschalte, alle Backups laufen lasse (rsync) und danach wieder ausschalte. Da ganze soll als Low-Budget laufen. Ich habe mehr als genug alte Hardware dafür zur Verfügung, unter anderem auch einige Festplatten verschiedener Größen und Hersteller.
Jetzt kommen die Fragen:
1.) Kann ZFS diese ganzen Festplatten zu einem logischen Laufwerk zusammen fassen (sicherlich ja)
2.) Falls eine Platte aus dem Festplattenverbund den Geist aufgibt, ist dann
2a) das logische Laufwerk noch verfügbar
2b) sind die restlichen Daten auf den anderen Platten noch ohne Umwege lesbar
3.) Falls das Mainboard kaputt geht, kann ich das ZFS-Gebilde in einen anderen Rechner umbauen und dann weiter verwenden?
4.) Welche Software nehme ich am besten dafür? Cool wäre eine schlanke Installation auf Stick.

Danke + Gruß
 
Hy doc,

hier kurz eine Laienantwort, da ich mich erst selbst in die ZFS Welt einarbeite.

Pkt 4, Ich verwende napp-it (napp-it.org) gibt super guides dort von gea. Wegen USB Installation, sollte eigentlich möglich sein, aber es wird nicht geraten wegen Performancegründen (vielleicht ist dir das aber egal, da du ja "nur" dein backup raufspielst und ann wieder abschaltest.

Pkt 1-2b. Sollte ebenfalls möglich sein, mit den in napp-it neu integriertem Snapraid.
Pkt 3 . Sollte ebenfalls möglich sein. Ist ja einer der grossen Vorteile gegenüber Hardwareraid.

Du siehst sind viele sollte drinnen, also besser auf eine Antwort von den Profis warten :)

LG
 
So wiedermal eine Grundsatzfrage zu ZFS von mir.

kann ich das RaidZ2 eigentlich erweitern oder nicht?

wenn ich meinem RaidZ2 in der napp-it GUI über expand 2 Platten hinzufuege (basic), werden die nicht im RaidZ2Pools des Pools angezeigt sondern darunter etwas versetzt.

Heisst das, dass diese neuen Platten nicht direkt in das RaidZ2 eingebunden werden sondern einfach nur ohne RaidZ2 als "normaler" Speicher hinzugefügt worden sind?

Ich befürchte ja das dies nicht möglich ist, bin gerade am googeln und lese paar Beitraege die meisten zwar über FreeNAS, aber ich befürchte das ist ja egal ZFS ist ZFS. (wenns die gleiche Versionsnummer ist)

wie immer Thx
 
...das ist der Unterschied zwischen pool und vdev.
Dein RaidZ2 ist ein virtuelles device (vdev).
Du kannst mehr als ein vdev im Pool haben...Befehl: zfs add ... (z.B. ein zweites RaidZ2 oder ein hot-spare)
Du kannst auch vdev-Typen im Pool mischen..also zB zwei basic vdev(s) zum Raidz2 vdev hinzufügen...wie Du es gemacht hast.
Du kannst auch ein vdev erweitern...Befehl zfs attach ....aber nur ein basic vdev zu mirror oder ein 2-way-mirror zu 3-way mirror.
Ein RaidZ2 kannst Du auf diese Art leider nicht bei ZFS erweitern.
 
...das ist der Unterschied zwischen pool und vdev.
Dein RaidZ2 ist ein virtuelles device (vdev).
Du kannst mehr als ein vdev im Pool haben...Befehl: zfs add ... (z.B. ein zweites RaidZ2 oder ein hot-spare)
Du kannst auch vdev-Typen im Pool mischen..also zB zwei basic vdev(s) zum Raidz2 vdev hinzufügen...wie Du es gemacht hast.
Du kannst auch ein vdev erweitern...Befehl zfs attach ....aber nur ein basic vdev zu mirror oder ein 2-way-mirror zu 3-way mirror.
Ein RaidZ2 kannst Du auf diese Art leider nicht bei ZFS erweitern.

Das habe ich jetzt leider befürchtet, nach paar Stunden googeln im Netz :(
Ist da vielleicht etwas geplant um dieses Feature zu erweitern in ZFS?
 
Geplant ist das schon länger, Stichwort "Blockpointer Rewrite". Damit wäre scheinbar relativ einfach die Erweiterbarkeit von RAID-Sets, aber auch nachträgliche Kompression, Verschlüsselung und Dedup möglich. Aber erst muss der Rewrite fertig und freigegeben sein.
Allerdings ist das durch die Übernahme von Oracle nicht einfacher geworden. Ich bin nicht informiert obs in Solaris mittlerweile drin ist, aber selbst wenn, nützts der übrigen ZFS-Welt nichts. Und die bauen grade lieber auf ihre Featureliste mit optionalen Modulen um, anstatt dieses Kernthema in Angriff zu nehmen, oder?
 
Wohl kaum. Da man sich wie bei den ganzen Hardware Raidcontrollern dem Risiko aussetzt dass es beim Erweitern des Arrays einem eben dieses um die Ohren fliegt. Der unterstütze Anwendungsfall hingegen ist, dass du die HDDs eines Pools durch größere Modelle ersetzt und danach das Dateisystem vergrößerst wie bei jedem anderen Volumenmanager auch.

für den docsyncdor wäre eher Flexraid etwas. Nicht das du später über ZFS schimpfen solltest wenn dir die alten HDDs der Reihe nach abrauchen ;)
 
Seh ich nicht so eng. Der normale Controller weiß ja nix über die abgelegten Daten, und das normale Volume Management weiß nicht, auf welcher Platte welcher Dateifetzen rumgeistert. ZFS weiß beides. Momentan ists ja auch schon so, dass Dateien nicht zwingend über alle Disks eines vdevs verstreut werden, die minimale Anzahl gibt ja das RAIDZ-Level vor. Drüber behält sich ZFS vor, nicht alle Platten gleichermaßen zu füllen.
Und das isses eigentlich auch schon, denn wenn du noch ne Disk ins vdev aufnehmen könntest, wär die halt leer, aber sofern nicht gleichzeitig das RAIDZ-Level wächst (...das wärs! *g*), ist das an sich kein Problem. Die Daten sind halt performancetechnisch ungünstig verteilt, entspannt sich aber, wenn die Platten auch mal leerer und nicht immer nur voller werden. Weil man das aber nicht generell sicherstellen kann, kommt da das angedachte Rewrite der Blockpointer-Verwaltung ins Spiel. Denn munter reihum Datenblöcke neu anordnen geht natürlich nur, wenn das einerseits hinsichtlich der Transaktionen sicher abläuft, und andererseits, wenn dabei und danach jederzeit klar ist, wo das Paket liegt. Denn betroffen ist ja nicht nur der aktuelle Datenbestand, sondern auch alle Snapshots (die irgendein readonly-Problem haben sollen), Clones, und was es da noch hübsches gibt.
 
Geplant ist das schon länger, Stichwort "Blockpointer Rewrite". Damit wäre scheinbar relativ einfach die Erweiterbarkeit von RAID-Sets, aber auch nachträgliche Kompression, Verschlüsselung und Dedup möglich. Aber erst muss der Rewrite fertig und freigegeben sein.
Allerdings ist das durch die Übernahme von Oracle nicht einfacher geworden. Ich bin nicht informiert obs in Solaris mittlerweile drin ist, aber selbst wenn, nützts der übrigen ZFS-Welt nichts. Und die bauen grade lieber auf ihre Featureliste mit optionalen Modulen um, anstatt dieses Kernthema in Angriff zu nehmen, oder?

Ich würde nicht darauf wetten, das BP rewrite jemals kommt, so wies aussieht wird eine derartige Funktion möglicherweise Wochen pro TB brauchen und dabei die Platten durch massenhaft random I/O belasten. Bei SSDs könnte das noch klappen, aber hier wäre es wohl aus anderen Gründen nicht sinnvoll.
Ich erfreue mich in der Zwischenzeit an den neuen Features, die echt was bringen und funktionieren, wie z.B.LZ4 Compression - illumos - illumos wiki und L2ARC Compression - illumos - illumos wiki. Spannend wird auch Persistent L2ARC - illumos - illumos wiki und die implementierung von SCSI UNMAP (TRIM).

cu
 
Zuletzt bearbeitet:
Ich würde nicht darauf wetten, das BP rewrite jemals kommt, so wies aussieht wird eine derartige Funktion möglicherweise Wochen pro TB brauchen und dabei die Platten durch massenhaft random I/O belasten.

Du meinst eine gleichzeitige Defragmentierung bei Erweiterung eines vdevs? :asthanos: (ja, für Defrag ist das auch ne Voraussetzung...)
 
Zumindest um vdevs zu entfernen, wäre der Aufwand nur ein kleines Subset von BP rewrite. Und wenn einer Wochen warten will, warum nicht?
 
Hallo zusammen,

vielleicht hat jemand einen Tip bei folgendem Problem für mich: Ich habe zwei identisch ausgestattete Systeme, beide mit oi_151a5 und napp-it08l3. Auf einem der Systeme ist ein perl Prozess, der mir kontinuierlich den Speicher wegfrisst. Ich habe keine Idee was das verursachen könnte. Von euch vielleicht jemand?

Thx
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh