[Sammelthread] ZFS Stammtisch

Das Ding ist stromlos.
Ich laufe da noch richtig und zu Fuß in den nächsten Gebäudetrakt in den Technikraum und zieh den Stecker nach dem Backup. Lan kann bleiben da Glasfaser.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

ich ich bräuchte mal Hilfe. Ich möchte gerne eine VM umbennen. Ich habe die Prozedur (Volume umbennen und dann Config anpassen) bereits 1x bei einer Test-VM durchgeführt. Hier hat alles problemlos geklappt. Allerdings hat die VM, die ich umbennen möchte, noch 2 "Part-Disks" "vm-106-disk-0 vm-106-disk-0-part1 vm-106-disk-0-part2"

Klappt es, wenn ich alle 3 Dateien umbenne oder muss ich dabei irgendwas anderes noch beachten?

vielen Dank
 
Hi,

ich würde den Weg garnicht gehen sondern würde einfach ein StoragevMotion machen. Da bennenst nur die VM im vSphere Client um und startest das. Die Files passt er dann automatisch an. Je nach Lizenz muss dafür die Kiste an oder aus sein. Ansonsten neuen Datenträger anlegen mit dem gewünschten Namen und dann Daten per Robocopy/Diskclone umziehen. Manuelles umbennen würde ich nicht machen.

Gruß Niklas
 
Ich nutze Proxmox.

Zwischenzeitlich habe ich aber ein anderes Problem. Weiß aber nicht, ob es eher hier zum ZFS oder eher zum Proxmox Stammtisch gehört.

Ich habe folgende Änderungen gemacht:
/dev/zvol/storage/vm-106-disk-0 nach /dev/zvol/storage/vm-300-disk-0, /dev/storage/vm-106-disk-0 nach /dev/storage/vm-300-disk-0 umbenannt sowie /etc/pve/nodes/pve/qemu-server/106.conf nach 300.conf und in der conf dann auch und es wird mir danach auch im Interface dann auch als VM-300 angezeigt und bootet normal und tut.

Sobald ich einen Reboot mache, (ohne das ICH was anderes mache, als auf Reboot drücken) steht wieder /dev/zvol/storage/vm-106-disk-0 statt /dev/zvol/storage/vm-300-disk-0 und an der anderen Stelle auch.
 
Ich hätte da mal eine Frage zu napp-it in Verbindung mit Berechtigungen auf NFS bzw. CIFS Shares.
Ich habe heute Nextcloud auf einer Ubuntu VM installiert und wollte als Datenverzeichnis ein CIFS oder NFS Share von meinem napp-it Server verwenden.
Nextcloud akzeptiert aber nur ein Share welches die Berechtigungen 0770 als Stammverzeichnis hat und es muss vermutlich dann auch noch www-data:www-data gehören.
Ich habe überhaupt keinen Schimmer, wie ich solche Berechtigungen realisiere. Ist es eine Einstellung auf dem napp-it Server oder muss ich bestimmt mount-Optionen setzen.
Per Default gehört der Mountpoint natürlich immer root und auch alles was ich dort anlege gehört root und hat auch immer dieselben Dateiberechtigungen.

Geht das überhaupt was ich da machen möchte? Wenn ja, mit NFS oder CIFS? Und vor allem wie?

Ziel wäre: Ein Share vom napp-it Server zu mounten, welches lokal (nextcloud Server) dem User www-data:www-data gehört und alle erzeugten Daten die Berechtigung 770 haben und auch www-data gehören.

Danke im Voraus für eure Hilfe ...
 
Ich hätte da mal eine Frage zu napp-it in Verbindung mit Berechtigungen auf NFS bzw. CIFS Shares.
Ich habe heute Nextcloud auf einer Ubuntu VM installiert und wollte als Datenverzeichnis ein CIFS oder NFS Share von meinem napp-it Server verwenden.
Nextcloud akzeptiert aber nur ein Share welches die Berechtigungen 0770 als Stammverzeichnis hat und es muss vermutlich dann auch noch www-data:www-data gehören.
Ich habe überhaupt keinen Schimmer, wie ich solche Berechtigungen realisiere. Ist es eine Einstellung auf dem napp-it Server oder muss ich bestimmt mount-Optionen setzen.
Per Default gehört der Mountpoint natürlich immer root und auch alles was ich dort anlege gehört root und hat auch immer dieselben Dateiberechtigungen.

Geht das überhaupt was ich da machen möchte? Wenn ja, mit NFS oder CIFS? Und vor allem wie?

Ziel wäre: Ein Share vom napp-it Server zu mounten, welches lokal (nextcloud Server) dem User www-data:www-data gehört und alle erzeugten Daten die Berechtigung 770 haben und auch www-data gehören.

Danke im Voraus für eure Hilfe ...

Wenn ein Client wie hier Ubuntu auf den NFS3 Server zugreifen möchte, so muss er sich nicht anmelden. Der Zugriff erfolgt je nach Betriebssystemen als user nobody oder der uid des zugreifenden Dienstes/Benutzers. Am einfachsten setzt man da die Dateirechte des NFS share auf "jeder=ändern". In napp-it kann man das recursiv im Menu ZFS Dateisysteme > folder acl auf Dateien einstellen Man könnte noch die ZFS Eigenschaft aclmode auf restricted setzen. Das verhindert dass ein Dienst die Rechte z.B. per chmod ändern kann. Nutzt Ubuntu beim Zugriff www-data so müsste man diesen User alternativ genauso auf Solaris anlegen.

Wenn ein Client auf SMB zugreifen möchte so geht das ohne Anmeldung über den Gastzugriff. Auch da setzt man jeder auf ändern. Alternativ geht der Zugriff mit Anmeldung über Name + Passwort die man in napp-it anlegt und die Nextcloud dann benutzen müßte ode rmit denen Ubuntu sich vorab anmeldet um ein Share zu mounten.

Der Solaris SMB Server hat dann noch die Besonderheit dass er mit Windows ntfs artigen ACL arbeitet statt mit klassischen Unixrechten wie 755. Die arbeiten viel feiner, können mehrere User/ Gruppen und Gruppen in Gruppen sowie Vererbung. Für Windows User was ganz normales, für Unix/Linux User manchmal was Neues - insbesondere wegen der Vererbung. Sowas kennen die klassischen Unixrechte noch nicht. Auch hier gilt everyone@=modify mit Vererbung auf das Share (und aclmode=restricted) und jeder hat Zugriff. Alternative Zugriff als www-data. Dann müsste man diesen User alternativ genauso auf Solaris anlegen.
 
Zuletzt bearbeitet:
Super, danke für die Rückmeldung. Damit bin ich schon einen Schritt weiter. Ich versuche das ganze jetzt per NFS zu lösen:

Pool: DATA
Filesystem: nextcloud

Ich habe jetzt zunächst als root folgendes auf dem OmniOS gemacht:

Code:
groupadd -g 33 www-data
useradd  -u 33 -g www-data www-data
chown -R www-data:www-data /DATA/nextcloud/
chmod -R 0770 /DATA/nextcloud/

Der autofs Mount Eintrag auf meinem Ubuntu Server sieht wie folgt aus:

Code:
nextcloud               -fstype=nfs,nolock,rsize=8192,wsize=8192              napp-it.feld.home:/DATA/nextcloud

Damit funktioniert schon mal ...

Code:
root@test:/mnt/nappit# sudo -u www-data ls -la nextcloud/
total 10
drwxrwx---  4 www-data www-data  4 Jan 26 20:34  .
drwxr-xr-x 20 root     root      0 Jan 27 11:39  ..
drwxrwx---  2 www-data www-data 10 Jan 26 21:36  data
drwxrwx---  2 www-data www-data  3 Jan 26 20:07 '.$EXTEND'

Nur als root bekomme ich natürlich jetzt ein permission denied. Ich dachte ich könnte dies durch ein "no_root_squash" im obigen Mount-Eintrag beheben, aber das funktioniert leider nicht. Um als normaler User zugreifen zu können, reicht es den User auf der Ubuntu Maschine der Gruppe www-data hinzuzufügen, mit root geht auch das nicht.
Gibt es hier auch noch eine Lösung?

EDIT:
Habe nun festgestellt, dass no_root_squash ja einen Server Side Option ist. Macht ja auch Sinn. Und bei OmniOs wohl in der Form root=@192.168.0.250 angegeben wird. In meinem konkreten Fall also im napp-it Web UI:

Code:
root=@192.168.0.250 DATA/nextcloud

Leider bekomme ich danach als root auf dem Ubuntu Server (192.168.0.250) immer noch ein permission denied.
 
Zuletzt bearbeitet:
Dafür gibts die sharing options, also statt nfs=on z.B. sowas in der Art
nfs=root=@192.168.1.0/24 daten/fs


https://docs.oracle.com/cd/E36784_01/html/E36825/gntjt.html

root=access-list

The server gives root access to the hosts in the list. By default, the server does not give root access to any remote hosts. If the selected security mode is anything other than –sec=sys, you can only include client host names in the list. See Setting Access Lists With the share Command for more information.
 
root=@192.168.1.0/24 daten/fs

Das hatte ich schon versucht, allerdings ohne Erfolg. Evtl. lag es daran, das ich nur eine IP und keinen Bereich angegeben habe. Vielleicht hätte es root=@192.168.0.250/32 DATA/nextcloud sein müssen. Allerdings habe ich inzwischen einen andere Lösung gefunden: anon=33 Damit wird der anonymous Zugriff auf www-data gesetzt und somit auch der root Zugriff. So funktioniert es.
Danke für deine Hilfe!

- - - Updated - - -

example:
rw=@192.168.0.0/24,root=@192.168.0.0/24 DATA/nextcloud

Mein Fehler lag in der Interpretation der napp-it Hilfe (s.o.)
Ich hatte vermutet, dass ich am Ende des Eingabefeldes auch den Filesystemnamen (rot) angeben muss. Das war aber genau der Fehler.
Wenn ich nur

Code:
rw=@192.168.0.0/24,root=@192.168.0.0/24

eingebe, dann funktioniert es auch. @gea: Vielleicht kannst du die Hilfe entsprechend anpassen. Ich habe es nur über die command line herausbekommen. Das sah dann nämlich so aus:

Code:
root@napp-it:/DATA# share
backup@DATA/ba  /DATA/backup   sec=sys,rw=@192.168.0.0/24   ""  
edomi@DATA/edo  /DATA/edomi   sec=sys,rw=@192.168.0.0/24   ""  
-@DATA/esxi     /DATA/esxi   rw   ""  
musik@DATA/mus  /DATA/musik   sec=sys,rw=@192.168.0.0/24   ""  
-@DATA/nextclo  /DATA/nextcloud   sec=sys,rw=@192.168.0.0/24,root=@192.168.0.0/24[COLOR="#FF0000"]DATA/nextcloud[/COLOR]   ""  
-@ESXi/vm       /ESXi/vm   rw   ""

Nach der Korrektur siehts dann so aus:

Code:
root@napp-it:/DATA# share
backup@DATA/ba  /DATA/backup   sec=sys,rw=@192.168.0.0/24   ""  
edomi@DATA/edo  /DATA/edomi   sec=sys,rw=@192.168.0.0/24   ""  
-@DATA/esxi     /DATA/esxi   rw   ""  
musik@DATA/mus  /DATA/musik   sec=sys,rw=@192.168.0.0/24   ""  
-@DATA/nextclo  /DATA/nextcloud   sec=sys,[COLOR="#008000"][B]root=@192.168.0.250/32[/B][/COLOR]   ""  
-@ESXi/vm       /ESXi/vm   rw   ""

Nochmal Danke für den Support.
 
Ist in der Tat verwirrend.
Die Angabe des Dateisystems gehört zum Sharing Befehl auf CLI Ebene dazu. Deshalb steht das so in allen Manuals. Im napp-it Sharing Dialog wird aber das Dateisystem automatisch angefügt. Setzt man da das Dateisystem dahinter wird es doppelt gemoppelt und geht nicht.

Habe ich geändert, Danke.
 
Gibt es eigentlich Neuigkeiten zum Thema Encryption als Filesystemeigenschaft bei OmniosCE? Ich werde aus dem, was ich so finde, nicht schlau. Es sieht so aus, als ob das Thema zu keinem Ergebnis führt, eingeschlafen ist?
 
Danke. Darüber bin ich auch gestolpert. Ist halt arg ruhig in dem Thema :) ... Wäre schade, wenn die FreeBSD-Entscheidung (auf ZoL zu setzen) dem Ganzen nunmehr vielleicht den Gar ausmachen würde.
 
Ich möchte mal eine Sache anstoßen, die mich seit Jahren stört. Es ist der Begriff Copy On Write kurz COW, im Zusammenhang Netapp WAFL (Write Anywhere File Layout) und beides im Zusammenhang ZFS.
Ich habe mich in Wikipedia schon xfach herumgestritten, dass ZFS zwar die Idee von COW in nutzt, selbst aber keine 1:1 Implementierung von COW ist. Ich denke Microsoft NTFS kommt dem eigentlichen COW sehr Nahe.
ZFS ist eigentlich so etwas wie Redirect On Write kurz ROW. Selbst diese ROW Implementierung unterscheidet sich zwischen Netapp WAFL und ZFS. Es liegt daran, dass WAFL die alte Blockstruktur mit den neuen Daten
in eine andere Position schreibt und so ggf. zusätzlich den alten Block lesen muss (feste Blockgrößen). Netapp nennt es ja nicht umsonst Write Anywhere File Layout. Wenn damals Sun mit ZFS genau das Gleiche wie
Netapp und WAFL gemacht hätte, dann hätten wir heute wohl auch kein ZFS sondern WAFL, welches lizenziert werden müsste und somit nicht offen wäre.

Originalblock lesen und in einen Backupbereich schreiben, Originalblock mit neuen Daten ändern und diesen Block an die gleiche Stelle zurückschreiben (vereinfacht)
ist nicht
Originalblock nur lesen, Block verändern und in einen anderen freien Bereich schreiben

Im ersten Fall stehen die aktuellen Daten an der gleichen Stelle (vorteilhaft für Defragmentierung).
Im zweiten Fall stehen alten Daten (Snapshot) und neuen Daten an der gleichen Stelle (vorteilhaft für schelles Rollback)

Es kann also nicht das Gleiche sein!
 
Nabend,
ich hoffe ich darf hier fragen, wenn nicht einfach sagen wo ich richtig bin...

Ich nutze ZFS auf Linux (Debian);
Da ich verschlüsselung wollte habe ich die devices mit luks verschlüsselt.
Danach habe ich einfach die 6 8TB luks devices in den pool gehauen (zpool create pool2 raidz2 /dev/mapper/ld-ata-....) und ein zfs angelegt (zfs create pool2/home).

So weit so gut. Leider ich das ganze recht langsam.
Was ist die Silberkugel mit der man das Geschwindigkeitsproblem löst? geht das nachträglich?

Danke für Tipps, gerne auch Links zu relevanten Infos.


Falls es wichtig ist die Systeminfo:
CPU Intel Xeon E3-1240Lv5 4x 2.10GHz
MB Asus P10S-E/4L Intel C236 So.1151
32GB DDR4 ECC RAM
6* WD-RED 8T am Mainboard Controller.
OS auf ner 128GB Intel Pro 6000p M.2 2280 PCIe 3.0 x4
Es sollte noch ein M.2 frei sen.
 
Ich nutze ZFS auf Linux (Debian);
Da ich verschlüsselung wollte habe ich die devices mit luks verschlüsselt.
Danach habe ich einfach die 6 8TB luks devices in den pool gehauen (zpool create pool2 raidz2 /dev/mapper/ld-ata-....) und ein zfs angelegt (zfs create pool2/home).

So weit so gut. Leider ich das ganze recht langsam.
Was ist die Silberkugel mit der man das Geschwindigkeitsproblem löst? geht das nachträglich?

Ich würde erst einmal einen Test mit einem Linux Standard Dateisystem machen. Meist ist es so, dass Verschlüsselung je nach CPU nur ca. 20 - 70 MB/s zulässt je Datenträger zulässt, dabei ist es egal ob Festplatte oder SSD. Wenn du jeden Datenträger einzeln verschlüsselst kommt eine Menge an CPU Last zusammen.

ZFS läuft mittlerweile auf allen Systemen sehr gut, Fuse ist ja glücklicherweise für ZFS Geschichte.
 
Ich stelle mein fertiges rsync Script mal zur Verfügung - vielleicht hilft es jemand anders weiter.

Das Script nimmt jeweils in zwei Arrays Poolnamen (z.Zt. ist nur ein Pool vorgesehen) und die Namen aller zu sichernden Dateisysteme (die Eingabe von Subfoldern mit einer Hierarchieebene ist auch möglich) als Eingabe und prüft dann ob die Dateisysteme verfügbar (d.h. unlocked) sowie gemounted sind. Dateisysteme die verschlüsselt sind, werden übersprungen, Dateisysteme die nicht gemounted sind werden automatisch eingebunden bevor der Sicherungsvorgang startet.

Die angegebenen Dateisysteme werden dann der Reihe nach per SSH übertragen (im Beispiel zum Strato HiDrive). Dabei werden nicht mehr vorhandene sowie geänderte Dateien mit Suffix Datum+Uhrzeit bei jedem Durchlauf in ein Backup-Folder auf dem Server geschoben, welches das jeweilige Tagesdatum als Suffix enthält.

Das Script ist mit dem -n-Parameter voreingestellt - d.h. rsync macht standardmäßig nur einen dry run.

hallo zusammen,

ich suche im Prinip genau das o.g. Script. Antilope habe ich bereits angeschrieben, bisher gab es leider keine Reaktion.

Kann mir einer das Script vielleicht kurz erklären? Wie kann ich dieses am Besten auf meine Bedürfnisse einrichten? Basis ist ein OmniOS System mit installiertem Napp-it.

Dies ist das Script:


Code:
#!/bin/bash
#v0.4_2012-05-09
#antilope114 hwluxx

SUFFIX_DIR=$(date +%F)
SUFFIX_FILE=$(date +%Y-%m-%d_%H:%M:%S)

POOL=(spool)
FS=(fs1 fs2 fs3/somefolder fs4)

for (( i=0;i<${#POOL[@]};i++)); do
        for (( j=0;j<${#FS[@]};j++)); do
	
		if [[ "$(basename $(dirname ${FS[($j)]}))" == "." ]]
			
			then FS_ACTIVE=${FS[($j)]}
			
			else FS_ACTIVE=$(dirname ${FS[($j)]})
		fi

		if [[ `echo $(zfs get keystatus ${POOL[($i)]}/$FS_ACTIVE) | awk '{print $7}'` == "unavailable" ]]
			
			then echo "Skipping "${POOL[($i)]}/${FS_ACTIVE}". Filesystem is "`echo $(zfs get keystatus ${POOL[($i)]}/$FS_ACTIVE) | awk '{print $7}'`"!"
			
		else 
			if [[ `echo $(zfs get mounted ${POOL[($i)]}/$FS_ACTIVE) | awk '{print $7}'` == "no" ]]
			
				then echo "Attempting to mount "${POOL[($i)]}/${FS_ACTIVE}; zfs mount ${POOL[($i)]}/$FS_ACTIVE;
					if [[ `echo $(zfs get mounted ${POOL[($i)]}/$FS_ACTIVE) | awk '{print $7}'` == "yes" ]]
						then echo ${POOL[($i)]}/${FS_ACTIVE}" mounted successfully.";
					else
						echo "Skipping "${POOL[($i)]}/${FS_ACTIVE}". Filesystem could not be mounted.";
						break;
					fi
				
			fi
			
			echo "Checking "${POOL[($i)]}/${FS_ACTIVE}"...";
			rsync --delete --backup-dir=~rsync_hist/~$SUFFIX_DIR --exclude=~rsync_hist --suffix=_$SUFFIX_FILE -abnPltDvzre "ssh -i /root/.hidrive-strato-key" /${POOL[($i)]}/${FS[($j)]} account-XXXX@rsync.hidrive.strato.com:/users/account-XXXX/zfs_backup/${POOL[($i)]}/

		fi
	done
done
 
Ich würde erst einmal einen Test mit einem Linux Standard Dateisystem machen. Meist ist es so, dass Verschlüsselung je nach CPU nur ca. 20 - 70 MB/s zulässt je Datenträger zulässt, dabei ist es egal ob Festplatte oder SSD. Wenn du jeden Datenträger einzeln verschlüsselst kommt eine Menge an CPU Last zusammen.

ZFS läuft mittlerweile auf allen Systemen sehr gut, Fuse ist ja glücklicherweise für ZFS Geschichte.

Da geht schon mehr, je machdem ob das aesni-Kernelmodul geladen ist und die CPU die Instruktionen unterstützt. LUKS ist ja im Grunde auch nur ein Wrapperprogramm, das auf OpenSSL setzt. Ich würde es mal ohne Diskverschlüsselung testen und hier aussagekräftige Ergebnisse posten. „Leider ist das Ganze recht langsam“ ist nunmal keine objektive Einschätzung der Performance.
 
hallo zusammen,

ich suche im Prinip genau das o.g. Script. Antilope habe ich bereits angeschrieben, bisher gab es leider keine Reaktion.

Kann mir einer das Script vielleicht kurz erklären? Wie kann ich dieses am Besten auf meine Bedürfnisse einrichten? Basis ist ein OmniOS System mit installiertem Napp-it.

Ich würde nichts machen was ich nicht überschaue sondern

Auf der Console (Putty) den rsync Befehl alleine für ein Dateisystem/Ordner ausführen/ Testen

Dann eventuell ein Script erstellen in dem einfach mehrere rsync Befehle nacheiander ausgeführt werden

Ob man daraus dann ein Script macht das alle Dateisysteme einliest und die dann bearbeitet: kann man machen, muss nicht


Wenn der rsync Befehl oder das Script mit mehreren rsync Befehlen läuft, kann man einen other-Job anlegen, der das zeitgesteuert startet.
 
ich habe -o ashift=12 ausprobiert, damit komme ich auf gute Werte, sogar n peek von 9Gbit/s lesen (von Windows über Netzwerk)
unter linux: 533470.13 kB/sec lesen, 545150.84 kB/sec schreiben
(vorher war ich sowohl lesen als auch schreiben in 1Gbit/s Regionen unterwegs, auch bei nem Test ohne luks)

Jetzt das gleiche mit luks testen...
 
Ich muss jetzt dann doch mal das Original-ZFS in Form von 11.4 testen. Einmal direkt am Blech und dann via ESXI.

Edit: Ok, 11.4 installiert am Blech. Napp-It drauf. Pool eingerichtet. Soweit so gut.
Aber irgendwie bin ich für Solaris-SMB zu doof; die Kiste lässt mich weder per Gastzugriff auf ein ZFS SMB-Share noch per mapped User (Arbeitsgruppe, keine Domäne).
Sobald ich von Windows aus ein SMB-Share auf ein Netzwerklaufwerk mappen will oder ein Share (z.B. \\filer\test) aufrufen, will Windows einen User und Pw. Egal was ich dort eingeb: Zugriff is nich.

Bei Xigmanas/FreeBSD, also Samba, war dat nich.
 
Zuletzt bearbeitet:
Hi

Habe da grad ein gröberes Problem mit meinem ESXi mit napp-it all in one. Heute 32 GB Speicher eingebaut, und Server gestartet. Hat geklappt. Dann wollte ich alles herunter fahren, um napp-it mehr RAM und einen zweiten Core zuzuweisen.

IP wird bislang per DHCP und MAC Bindung in einem vLAN vergeben. Nun ist aber weder das Webinterface von napp-it noch der NFS Speicher am ESXi erreichbar. Bei der IP steht bei napp-it jetzt 127.0.0.1 mit ifconfig -a drin (siehe Screenshot).

Habe schon versucht die Firewall und Switch neu zu starten. Bei der Firewall stehen in der DHCP Table halt auch die eingetragenen MAC mit drin, kann irgendwie nicht nachschauen, ob die auch online sind im Moment.

Wie kriege ich da das Netzwerk von napp-it wieder auf DHCP, bzw. wie sehe ich, was napp-it gerade für eine IP hat aktuell?

Konsolenzugriff mit root habe ich.

ifconfig.PNG
 
Hmmm

Ich habe jetzt mal DHCP auf der Firewall geloggt. Da wird gar keine DHCP Anforderung von napp-it an die Firewall gesendet. K.A. wieso. Die MAC Adresse stimmt. Aber napp-it will offensichtlich keine Adresse von der Firewall.
 
Zuletzt bearbeitet:
Habs zum laufen gekriegt. War ein fieser Fehler: wenn ich napp-it 2 vCores zuweise, bezieht es keine IP mehr. Offensichtlich. Verstehe ich halt Null wieso, aber scheint so der Fall zu sein.
 
Mein Solaris 11.4 hat 4 vCPUs in ESXi, ging ohne Probleme. Evtl ein Problem in OmniOS ? Was sagen die Logs bzw. dmesg ?
 
Hmmm, merkwürdig. Das müsste wohl log0 sein? Dort sind bei mir die letzten Einträge vom 31. Januar. Kann es sein, dass nur ins log geschrieben wird, wenn das Netzwerk läuft? Ne, oder? Ich finde auf jeden Fall von Gestern keine log Einträge von log0 - log3...

Ist die Frage, ob ich überhaupt mehr als 1 vCore brauche bei einem Intel Sechskerner (E5-1650v4). Hängt nur eine Consumer SSD und eine 6 TB WD Gold dran.

Lustig, wenn ich von der SSD auf die Platte schreibe, komme ich auf gut 200 MB/s, umgekehrt gehts nur mit 50 MB/s. Waren allerdings über 10 VM's an (alle auf SSD). Aber die VM's laufen schön smooth, das ist jetzt gerade die Hauptsache.

Netzwerk Controller in napp-it ist im Moment der e1000. Weiss gerade nicht mehr, welcher Adaptertyp das Template ursprünglich eingestellt hatte.

Dann noch eine Frage zur SSD. Ist eine EVO 850 2TB. Entstehen mir Nachteile, weil das eine Consumer SSD ist?

Danke!
 
Ich muss jetzt dann doch mal das Original-ZFS in Form von 11.4 testen. Einmal direkt am Blech und dann via ESXI.

Edit: Ok, 11.4 installiert am Blech. Napp-It drauf. Pool eingerichtet. Soweit so gut.
Aber irgendwie bin ich für Solaris-SMB zu doof; die Kiste lässt mich weder per Gastzugriff auf ein ZFS SMB-Share noch per mapped User (Arbeitsgruppe, keine Domäne).
Sobald ich von Windows aus ein SMB-Share auf ein Netzwerklaufwerk mappen will oder ein Share (z.B. \\filer\test) aufrufen, will Windows einen User und Pw. Egal was ich dort eingeb: Zugriff is nich.

Bei Xigmanas/FreeBSD, also Samba, war dat nich.


Solaris 11.4 und Gastzugriff verhält sich leicht anders als OmniOS
Entscheidend bei Solaris 11.4 um ohne Passwort auf ein Share mit Gastzugriff zu kommen ist dass kein SMB Passwort für guest gesetzt ist. Ob der Unixuser guest eines hat ist egal. Wenn in der Datei /var/smb/passwd ein Eintrag für guest ist, den dann löschen.

Man kann also einen Unixuser guest haben (OmniOS braucxht den sogar) nur halt ohne SMB Passwort.
In den Solaris manuals wird dann noch angegeben dass man ein ID Mapping braucht:
idmap add winname:Guest unixuser:guest

Das mappt den Windows Guest (Gastzugriff) auf den Unixuser guest (Guest gibt es ja nicht).
Es sollte aber auch ohne das Mapping gehen. User-Mappings braucht man ansonst ausschließlich für AD-User > Unix User. (z.B. Windows: Domänenadmin=Unix: root).

Für den Userzugriff aus Windows muss man auf Solaris einen User anlegen mit dem man dann zugreift. Ist der User identisch (mit PW) wie der lokale Windows User muss man sich nicht extra anmelden.

Managing SMB Shares - Oracle Solaris Administration: SMB and Windows Interoperability

- - - Updated - - -

Hmmm, merkwürdig. Das müsste wohl log0 sein? Dort sind bei mir die letzten Einträge vom 31. Januar. Kann es sein, dass nur ins log geschrieben wird, wenn das Netzwerk läuft? Ne, oder? Ich finde auf jeden Fall von Gestern keine log Einträge von log0 - log3...

Log0..Logn sind ältere Logfiles.
Das aktuelle Logfile in napp-it ist im Menü System > Log.

System > Log > Log0 ist das vorherige log.

e1000 ist ein Standardadapter. Vmxnet3 (erfordert vmware tools) ist schneller

Consumer SSDs sind schneller als Platten. Sie haben aber keine Powerloss Protection und sind z.B. für ein Slog daher ungeeignet. Auch bricht die Schreibleistung im Vergleich zu Datacenter SSDs schnell ein.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh