[Sammelthread] ZFS Stammtisch

Hi,

wie kann man eigentlich herausfinden, wie die Platten unter FreeBSD formatiert sind?

Hab dazu leider noch nichts gefunden.

Ghandalf
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi all,

ich glaube ich habe im napp-it einen Bug gefunden. Wo kann ich den denn loswerden? ;)
Folgendes Problem:

Ich habe mehrere ZFS-Folder in einem Pool, welche einen Underscore im Namen haben, also so
/bigvol
/bigvol/rechner1_freigabe1
/bigvol/rechner1_freigabe2
...
/bigvol/rechner1_freigabe9

Wenn man jetzt einen autosnap-job auf bigvol anlegt, dann sollten ja rekursiv alle darunter liegenden Shares einen Snap bekommen. In diesem Fall jedoch bekommt X_freigabe2 und alle weiteren nie einen Snap. Besser, er wird sofort wieder gelöscht.

Das Problem liegt in der Jobdatei.pl in /var/web-gui/data/napp-it/_log/jobs.
In Zeile 48 wird
Code:
$name=~s/\_.*//
ausgeführt und es wird erwartet, dass von Snapname die Erstellungszeit abgetrennt wird.
Das funktioniert natürlich mit obigen Sharename nicht. Es muss
Code:
$name=~s/\_[^\_]*$//
lauten.
Dann klappts auch mit den rekursiven Snaps.
 
Zuletzt bearbeitet:
Gibt es mit einem IBM ServeRAID M1015 Controller Probleme mit Solaris 11? Kann man ohne Probleme alle (SATA-3) HDDs/SSDs einzeln ansprechen um einen ZFS Pool anlegen zu können? Wenn nein gibt es passende IT Firmware? Danke :)

/Edit Mir ist noch was einfallen rennt die Karte auch in einem PCIe x4 Slot ohne Probleme? Oder würde auch der PCIe x16 (der eigentlich für eine Graka vorgesehene Slot) funktionieren und automatisch auf x8 angepasst werden? Mobo wäre ein Intel DB65ALB3.
 
Zuletzt bearbeitet:
...der standard M1015 Treiber ist für MegaRaid-SAS...die RAID Funktion des Controllers braucht man nicht. Wenn SO11 die Treiber hat, die Disks "unconfigured" lassen..werden dann einzeln als JBOD angezeigt.
Besser ist es, denn M1015 in einen 9211-8i (9210-8i) HBA umzuflashen.
Anleitungen gibt es genug, zB hier: LSI Controller FW updates IR/IT modes
Nach dem ersten umflashen ist es kein M1015 mehr, sondern ein 9211-8i...ab dann die normale Update Prozedur für neuere FW benutzen.

...er funzt in einem x4 Slot...aber nicht voll bestückt mit High-Speed Disks.
Ob er in einem x16er Slot läuft, hängt vom mobo ab...wenn es ein Gamer-Board ist, sind die Chancen schlecht...ansonsten ganz OK...ein Intel Board sollte IMHO immer nah an der Referenz
sein und auch die x16er abwärtskompatibel für x8er oder x4er Karten bauen.
 
Super danke für die ganzen Informationen :)
 
Hi all,

ich glaube ich habe im napp-it einen Bug gefunden. Wo kann ich den denn loswerden? ;)
Folgendes Problem:

Ich habe mehrere ZFS-Folder in einem Pool, welche einen Underscore im Namen haben, also so
/bigvol
/bigvol/rechner1_freigabe1
/bigvol/rechner1_freigabe2
...
/bigvol/rechner1_freigabe9

Wenn man jetzt einen autosnap-job auf bigvol anlegt, dann sollten ja rekursiv alle darunter liegenden Shares einen Snap bekommen. In diesem Fall jedoch bekommt X_freigabe2 und alle weiteren nie einen Snap. Besser, er wird sofort wieder gelöscht.

Das Problem liegt in der Jobdatei.pl in /var/web-gui/data/napp-it/_log/jobs.
In Zeile 48 wird
Code:
$name=~s/\_.*//
ausgeführt und es wird erwartet, dass von Snapname die Erstellungszeit abgetrennt wird.
Das funktioniert natürlich mit obigen Sharename nicht. Es muss
Code:
$name=~s/\_[^\_]*$//
lauten.
Dann klappts auch mit den rekursiven Snaps.

Danke für den Hinweis.
Ich werde das Script in der nächsten Version überarbeiten
 
Onboard Sata -> Backplane: geht mit speziellem reverse 8087 Kabel, nicht mit dem normalen Kabel
(beim Bestellen auf "reverse" achten)


Sodele, das reverse Kabel ist endlich gekommen. Wollte nur berichten, dass der Anschluss 4 weiterer HDs super funktioniert hat.

In ESXi einfach SATA-Controller per passthrough freigeben, ESXi neustarten und in der VM-OI als weiteres PCI-Gerät anmelden. Das was.
 
Momentan betreibe ich meinen Server nach @gea's "all-in-one-Prinzip" mit ESXi 4.x und Oi_148.
Außer OI laufen noch folgende VMs: WinXP, Win7, Debian, CentOS und Suse.

Bis jetzt habe ich noch nicht auf ESXi 5.x und OI_150a5 geupdatet - getreu nach dem Motto "never touch a running system".
Was mir bis heute leider nicht gelungen ist, dass der gesamte Server erst die VMs und dann ESXi runterfährt, um über Nacht Strom zu sparen.

Meine jetzige Überlegung ist, den Server nur mit OI_150a5 neu zu installieren und dann die Virtualisierung mit zones und kvm zu machen.
7. Virtualization - OpenIndiana - OpenIndiana Wiki
Meine Hardware müsste hierfür keine Probleme machen - SM_X8SIA, Xeon X3450, 16GB RAM, zusätzliche Intel 82576 4-Port Netzwerkkarte und 2 LSI-9211-8i

Hat jemand mit der OI Virtualisierung schon Erfahrungen gemacht? Vor allem mit zones und kvm.
Können auch Windows und Linux VMs realisiert werden oder nur weitere OIs?
Quellen, wo die vorgehensweise beschrieben ist, denn das wiki von OI ist schon sehr schmal.
 
Wäre dafür nicht SmartOS eine gute "out-of-the-box" Alternative?
 
Momentan betreibe ich meinen Server nach @gea's "all-in-one-Prinzip" mit ESXi 4.x und Oi_148.
Außer OI laufen noch folgende VMs: WinXP, Win7, Debian, CentOS und Suse.

[...]

Hat jemand mit der OI Virtualisierung schon Erfahrungen gemacht? Vor allem mit zones und kvm.
Können auch Windows und Linux VMs realisiert werden oder nur weitere OIs?
Quellen, wo die vorgehensweise beschrieben ist, denn das wiki von OI ist schon sehr schmal.

...das kvm unter OI, SmartOS, ... kan kein pcipassthrough.
Wenn Du mit den VMs nix besonders machst, sollte es gehen...wenn Du aber noch mehr willst, zB ne TV Karte für einen VDR durchreichen, geht das nicht,
 
Wäre dafür nicht SmartOS eine gute "out-of-the-box" Alternative?

Da dürfte napp-it aber nicht gehen.

...das kvm unter OI, SmartOS, ... kan kein pcipassthrough.
Wenn Du mit den VMs nix besonders machst, sollte es gehen...wenn Du aber noch mehr willst, zB ne TV Karte für einen VDR durchreichen, geht das nicht,

Dann brauch ich doch kein passthrough mehr. ??
Bei ESXi werden die LSI Karten per passthrough an OI weitergereicht, das brauch ich ja dann nicht mehr.
Auf Suse Basis läuft eine Firewall und da ist jetzt die 4-Port Netzwerkkarte auch nicht durchgereicht, sondern jeder Port hat seinen eigenen vSwitch.
Für eine TV Karte hab ich keinen Platz mehr auf dem Board. :-(
 
Dann brauch ich doch kein passthrough mehr. ??
Bei ESXi werden die LSI Karten per passthrough an OI weitergereicht, das brauch ich ja dann nicht mehr.
Auf Suse Basis läuft eine Firewall und da ist jetzt die 4-Port Netzwerkkarte auch nicht durchgereicht, sondern jeder Port hat seinen eigenen vSwitch.
Für eine TV Karte hab ich keinen Platz mehr auf dem Board. :-(

...ja, eben...wenn Du es nicht brauchst.
KVM unter OI ist aber auch noch ziemlich junfgfräulich...keine GUI/Tools zum Management...nur CLI.
Wenn Du ESXi loswerden willst...wie wäre es mit Proxmox-VE als hypervisor (Debian based KVM)?...alles geht remote, im Prinzip via Web.
..ein all-in-one sollte damit gehen (zumindest die CLI version von OI SO11 sollte stabil laufen)
 
Auf meinem Openindiana läuft Virtualbox mit phpVitrtualbox(Webmanagement). Ist zwar teilweise nicht das schnellste aber läuft 100%ig.
 
Hi,

ich habe da ein kleines Problem mit zfs send und receive.
Ich möchte einen User erstellen, mit dem ich zfs send und receive auf beiden Servern ausführen kann.

Einen User habe ich schon angelegt mit:
Code:
useradd -m -d /home/backup -s /bin/bash backup

Danach habe ich noch diese ZFS Rechte vergeben:
Code:
zfs allow backup create,snapshot,receive,send,destroy,mount tank

Mit passwd habe dem User ein Passwort vergeben.

Soweit so gut. Ich möchte mit zfs send und receive hauptsächlich COMSTAR iSCSI devices sichern und dafür muss ich sicherstellen dass die zfs properties mitkopiert werden.

Wenn ich jetzt den Befehl ausführe:
Code:
zfs send -R tank/raid1-0@20120831-2017 | ssh backup@192.168.10.201 "/usr/sbin/zfs receive -Fduv tank/backup_raid"
Wir der Snapshot problemlos gesendet, aber ich bekomme eine Fehlermeldung:
Code:
receiving full stream of tank/raid1-0@20120831-2017 into tank/backup_raid/raid1-0@20120831-2017
[B]cannot receive stmf_sbd_lu property on tank/backup_raidreceived 5.01GB stream in 209 seconds (24.5MB/sec)
: permission denied[/B]

So wie ich das sehe, hat der User backup alle Rechte, um ein Stream zu empfangen, aber nicht die Rechte, um die ZFS Properties zu setzen.

Könnt Ihr mir da weiterhelfen. Ich möchte eigentlich ungern für ein zfs receive root verwenden.

Grüße Ghandalf
 
Hallo Ihr,

kein spezielles ZFS-Problem, aber OI zickt aktuell bei mir auf bestimmter Hardware rum. Möchte einen zweiten Backupserver hochziehen mit OI 1.51a5 BareMetal auf einen ASUS P5Q. Problem bereitet das RUnterfahren des Rechners. Die letzen Meldungen vom OI besagen, das die Platten gesynct werden, anschließend schaltet der Rechner aber nicht ab. Gibt es besondere Anforderungen an APM und ACPI oder besondere EInstellungen im OI, die das Abschalten ermöglichen?

Gruß Millenniumpilot
 
Problem bereitet das RUnterfahren des Rechners. Die letzen Meldungen vom OI besagen, das die Platten gesynct werden, anschließend schaltet der Rechner aber nicht ab.

...würde mich auch interessietren.
Habe das gleiche Problem hier mit einem SuperMicro X7SPA-HF und Einsatz von OI 1.51a5 UND von SO11.
Damit die Intel NICs stabil liefen musste ich APM im BIOS deaktivieren..das Shutdown Problem hatte ich aber schon davor.
 
Moin,

hat schon jemand einen LSI SAS 3082E-R / BR10i mit ZFS ausprobiert?
Laufen die zuverlässig mit OI?

über die Suche habe ich nichts gefunden.

Gruß
 
Hi,

ich habe da ein kleines Problem mit zfs send und receive.
Ich möchte einen User erstellen, mit dem ich zfs send und receive auf beiden Servern ausführen kann.

Einen User habe ich schon angelegt mit:
Code:
useradd -m -d /home/backup -s /bin/bash backup

Danach habe ich noch diese ZFS Rechte vergeben:
Code:
zfs allow backup create,snapshot,receive,send,destroy,mount tank

Mit passwd habe dem User ein Passwort vergeben.

Soweit so gut. Ich möchte mit zfs send und receive hauptsächlich COMSTAR iSCSI devices sichern und dafür muss ich sicherstellen dass die zfs properties mitkopiert werden.

Wenn ich jetzt den Befehl ausführe:
Code:
zfs send -R tank/raid1-0@20120831-2017 | ssh backup@192.168.10.201 "/usr/sbin/zfs receive -Fduv tank/backup_raid"
Wir der Snapshot problemlos gesendet, aber ich bekomme eine Fehlermeldung:
Code:
receiving full stream of tank/raid1-0@20120831-2017 into tank/backup_raid/raid1-0@20120831-2017
[B]cannot receive stmf_sbd_lu property on tank/backup_raidreceived 5.01GB stream in 209 seconds (24.5MB/sec)
: permission denied[/B]

So wie ich das sehe, hat der User backup alle Rechte, um ein Stream zu empfangen, aber nicht die Rechte, um die ZFS Properties zu setzen.

Könnt Ihr mir da weiterhelfen. Ich möchte eigentlich ungern für ein zfs receive root verwenden.

Grüße Ghandalf

Hallo,

vieleicht hilft das weiter:

Ubiquitous Talk » Provisioning Disaster Recovery with ZFS, iSCSI and VMware

...
Note the parameter -P ‘ZFS File System Management’, This will grant the account an RBAC profile association to administratively manage our ZFS file system unlike root which is much too powerful and is all to often used by many of us.
...

und falls man es mal braucht, das Backup, vielleicht das im Hinterkopf behalten:

ZFS Volumes - Oracle Solaris ZFS Administration Guide
...
A ZFS volume as an iSCSI target is managed just like any other ZFS dataset except that you cannot rename the dataset, rollback a volume snapshot, or export the pool while the ZFS volumes are shared as iSCSI LUNs.
...

wenn es denn die richtige Dokumentation ist.
 

Ansonsten auch einfach mal im hardforum nachschauen/nachfragen - ist das einzige mir bekannte Board (neben dem Thread hier im Luxx) das sich eingehend mit ZFS beschäftigt. Sind auch einige Leute dabei die Ahnung haben - mein Eindruck ist sogar, mehr als hier ...
 
Hallo,

vieleicht hilft das weiter:

Ubiquitous Talk » Provisioning Disaster Recovery with ZFS, iSCSI and VMware

...
Note the parameter -P ‘ZFS File System Management’, This will grant the account an RBAC profile association to administratively manage our ZFS file system unlike root which is much too powerful and is all to often used by many of us.
...

Danke, das werd ich ausprobieren.

und falls man es mal braucht, das Backup, vielleicht das im Hinterkopf behalten:

ZFS Volumes - Oracle Solaris ZFS Administration Guide
...
A ZFS volume as an iSCSI target is managed just like any other ZFS dataset except that you cannot rename the dataset, rollback a volume snapshot, or export the pool while the ZFS volumes are shared as iSCSI LUNs.
...

wenn es denn die richtige Dokumentation ist.

Das mit dem Snapshot rollback verstehe ich nicht ganz. Heißt das, ich kann zwar Snapshots von dem iSCSI Device machen, aber es bringt mir nix, da ich ihn nicht wiederherstellen kann? Das wäre ja ganz schlecht!!

LG Ghandalf
 
Danke, das werd ich ausprobieren.



Das mit dem Snapshot rollback verstehe ich nicht ganz. Heißt das, ich kann zwar Snapshots von dem iSCSI Device machen, aber es bringt mir nix, da ich ihn nicht wiederherstellen kann? Das wäre ja ganz schlecht!!

LG Ghandalf

probier doch mal aus mit einem snapshot, local(ohne send/receive), das rollback:
* mit laufenden Comstar Dienst
* ohne laufenden Comstar Dienst

Deine Daten sind ja in dem Image(v2):
# zfs create -V 2g tank/volumes/v2
# sbdadm create-lu /dev/zvol/rdsk/tank/volumes/v2

Vielleicht reicht es den Dienst zu stoppen.

vielleicht muss man auch:

stmfadm(1M) (man pages section 1M: System Administration Commands)

# sbdadm offline-lu lu-name
oder sogar
# sbdadm delete-lu lu-name

Deletes an existing logical unit that was created using stmfadm create-lu. This effectively unloads the logical unit from the STMF framework. Any existing data on the logical unit remains intact.

und danach wieder:

# sbdadm import-lu lu-file

Imports and loads a logical unit into the STMF that was previously created using stmfadm create-lu and was then deleted from the STMF using stmfadm delete-lu. On success, the logical unit is again made available to the STMF. lu-file is the filename used in the stmfadm create-lu command. If this logical unit is using a separate metadata file, the filename in the meta property value that was used in the stmfadm create-lu command must be used here.

Irgendeine Möglichkeit geht ja immer... Würde mich aber als erstes interessieren ob ich den Snapshot auch verwenden kann.

Zusatz:

Ich muss das auch noch alles mal durchspielen(mir fehlt noch die Hardware). Allerdings gehe ich davon aus das auch ein erfolgreiches Rollback für den Klient nicht verwertbar ist.
Soll heissen:
* Solange der Klient das Filesystem offen hat(gemountet) ist es benutzt.
* Das ZFS auf dem Server bekommt davon nichts mit. Lediglich der Comstar Dienst könnte davon ausgehen: wenn keine Session zu der LU vorhanden ist -> Daten OK
* Du machts während des Schreibens einer grossen WICHTIGEN Datei ein Snapshot(die in dem Snapshot unbrauchbar ist)
* Tage später stellts Du mit einem Rollback den Snapshot zur Verfügung -> wegen einer ganz anderen UNWICHTIGEN Datei...
* Tage später stellst Du fest: Die grosse WICHTIGE Datei ist defekt... und viel schlimmer: es können noch mehr sein!
* Dann solltest Du ein Backup haben was Zustand vor dem Snapshot wieder herstellen kann.

Es muss eine Möglichkeit gefunden werden die UNWICHTIGE Datei aus dem Image zu extrahieren und dem Klient diese dann zukommen zu lassen.
 
Zuletzt bearbeitet:
Hallo zusammen,

ich habe eine kurze Frage an euch, da ich mir eben ein bisschen unsicher über die optimale Konfiguration bin. Ich habe eine Maschine mit X3430 Xeon und 24GB ECC Speicher aufgebaut. Als Speicher verfügt das Gerät über sechs 2TB Festplatten mit 5400rpm und drei SSDs mit je 60GB.
Genutzt wird der Storage für zwei ESXi-Server (wahlweise als iSCSI oder NFS) und für normale Shares im Netzwerk. Für die Netzwerk-Shares gibt es zwei NICs und für die ESXi-Hosts zwei weitere NICs.

Meine Frage ist nun, wie ich die Platten einteilen soll. 3 Mirros mit je zwei Disks oder zwei Raid-Z mit je drei Platten? Die Performance muss ausreichen um im Endeffekt zumindest 2x1GBit/s auslasten zu können - sprich ca. 200MB/s. Die SSDs können frei als Cache konfiguriert werden... Was würdest ihr empfehlen?
 
Mirror vdevs sind Raid-Z1 immer vorzuziehen, es sei denn, das EUR/GByte-Verhältnis ist ein wichtiger Entscheidungsfaktor.

Grüße
 
Die 6 HDDs kann man auch als zwei dreiwege Mirrors aufsetzten. Bedingt durch die geringe Umdrehungsgeschwindigkeit (und Laufwerksanzahl) solltest du von zufälligen Zugriffen bei mehreren VMs aber nicht all zu viel erwarten.
 
Danke für die Antworten. In wie weit könnten denn zwei 60GB SSDs den Zugriff beschleunigen? Evtl. macht das den Nachteil von zwei dreiwege Mirrors wieder wett...
 
Um die Leseperformance zu verbessern kannst du z.B. 2 60 GB SSDs als Cache einbinden, damit die oft genutzen Daten von den SSDs zugeriffen wird, aber die Daten trotzdem auf deinen HDDs liegen.
 
Um eine Datei aus einem LU wiederherzustellen würde ich niemals ein rollback machen sondern

- einen snap erstellen
- diesen clonen (clone ist rw)
- das LU aus dem Clone importieren und ein Target mit view daraus erstellen

http://docs.oracle.com/cd/E19253-01/819-5461/gbcxz/index.html

zfs auf openindiana

Ich habe das so schon mal probiert. Bei Xenserver tritt folgendes Problem auf:
Das vom ZFS Server per iscsi dem Xenserver Server bereitgestellte Blockdevice(LU) wird durch Xenserver [LVM] formatiert.
Der einzigen [LVM VG] wird das einzige [LVM PV] zugeordnet. In dieser [LVM VG] werden jetzt durch Xenserver für die VM's [LVM LV's] angelegt.

Versuche ich jetzt, bei Xenserver, zusätzlich zum bereits verwendeten Orginal-Blockdevice das "Clone-Blockdevice" zu verwenden ist das nicht möglich.
Da auch die [LVM Formatierung] mitgeclont wurde sagt Xenserver: ... ist schon vorhanden ...(genau weiß ich es jetzt nicht mehr).

Wenn ich die Bindung von "Orginal-Blockdevice" zu "Storage1" in Xenserver löse kann ich das "Clone-Blockdevice" an "Storage1" binden. Ich glaube aufgrund der auch geclonten [LVM Formatierung] kann Xenserver das Orginal vom Clone gar nicht unterscheiden.

[LVM] Logical Volume Manager (LVM) Howto - deutsche Version: Arbeiten mit LVM

head -n 1000 /data-pool/<LU-File mit LVM> |less zeigte mir die LVM Format Infos

Der Rollback Test mit von Xenserver verwendeten LU-File Blockdevice

snapshotXen VMAktion
1downkeine
2upkeine
3upwährend cp -a 3GB-file 3GB-file-neu
4upwährend cat 3GB-file > 3GB-file-neu
5upnach touch xx

Jeweils nach Erstellung der Snapshots wurde ein zfs diff snapshot filesystem ausgeführt. Zusätzlich ein zfs diff snapshot1 filesystem nach Hochfahren der VM.
Solange die VM down ist: keine Ausgabe. Alle anderen zfs diff Ausgaben: M /data-pool/lu-200GB.

VM hochgefahren:
zfs rollback data-pool@snapshot5 -> keine Fehlermeldung
zfs diff data-pool@snapshot5 data-pool -> Ausgabe: M /data-pool/lu-200GB

wahrscheinlich kein Rollback

Alle VM's welche /data-pool/lu-200GB benutzen down:
zfs rollback data-pool@snapshot5 -> keine Fehlermeldung
zfs diff data-pool@snapshot5 data-pool -> keine Ausgabe

erfolgreiches Rollback

Starten der VM's nach erfolgtem Rollback
Als wenn man während des Betriebes den Stecker gezogen hat. Windows Server 2008 R2 verhält sich hier robuster als Ubuntu 10.4 LTS.
Ubuntu konnte 2x (von ca. 10 Tests) das Filesystem nur read-only mounten und war 1x auch nicht mehr (von mir mit recovery-cd) zu reparieren.
Windows zeigte den schwarzen Bildschirm zählte runter und fuhr hoch.

Zustand der Daten
snapshot während copy and paste
Die Kopie von C:\Users\Administrator\Desktop\Microsoft.NET(762MB) ist C:\Users\Administrator\Desktop\Microsoft.NET - Copy(347MB)

Mein Fazit
Snapshot - feine Sache, wenn Platz vorhanden kann man den ja auch benutzen.
Keine Fehlermeldung bei Rollback von Filesystem mit benutzter LU - alle VM's runterfahren und die LU-Datei per cp -a vor dem Rollback sichern...kann nichts schaden
Rollback - insbesondere bei Mehrbenutzersystemen - wie ein Einspielen der DATENsicherung zu Betrachten - wenn das Filesystem mitspielt

Bei Xenserver setze ich alle VM's welche ihre Festplatte auf dem, mit der LU verbundenen, Storage haben bei einem Rollback auf den Snapshot-Zustand zurück.
Bei Xenserver durch das LVM umständlich zu handhaben.
 
Ein ZFS snapshot ist immer wie "Stand der Festplatte bei einem plötzlichen Stromausfall".
Manche VM's mögen das garnicht und auch offene Dateien können beschädigt sein.

Ich weiss nicht was Xenserver dazu anbieteten.
Bei ESXi mache ich bei kritischen Sachen immer erst einen ESXi Hotsnap und dann einen ZFS snap um anschließend den ESXi snap zu löschen (ESXi wird mit jedem Snap langsamer). Bei einem Zurückgehen auf den ZFS snap kann man anschließen den ESXi hotsnap incl. Speicherstatus wiederherstellen.

Alternativ müßten die VM's offline sein oder in einen Status gehen der Snapsicher ist.

ps
Ich benutze statt iSCSI nur noch NFS da ich hierbei einen Zugriff auf einzelne Dateien und deren snaps habe. Wenn man das Share nicht nur per NFS sondern noch per CIFS freigibt, hat man sogar Zugriff auf die Dateien und deren Vorversionen von Windows aus.

Die Geschwindigkeit von NFS und iSCSI ist ziemlich identisch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh