[Sammelthread] ZFS Stammtisch

Hallo,
habe gerade meine Solaris VM (napp-it) gewechselt, also in der alten VM einen Pool Export in der neuen VM eine Import des Pools.
Den Smb User und Pw habe ich genau wie in der alten Vm angelegt.
Ich bekomme jedoch keinen Zugriff mehr auf die Smb Freigabe (falsches Pw).
Hat jemand eine Idee ?
Danke
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zusammen,

ich plane gerade die nächste Version meines Backup Servers. Der aktuelle ist mehr aus Restbeständen entstanden, verbraucht relativ viel Strom (Phenom 2) und die Platten werden bald an ihre Grenzen kommen.

Geplant ist ein Xeon System (möchte ECC) sowie 5 Platten im Raid-Z2 und eine System SSD (kommen noch ein paar KVM Maschinen drauf).
Das System ist hauptsächlich ein Backup Grab bei dem massiv Deduplication eingesetzt wird. Genug Leistung um ab und zu ein HD video zu steramen sollte auch vorhanden sein. Wie viel RAM benötige ich da bei einem RaidZ2 mit 5x 3TB Platten?
Ist das ganze überhaupt als ITX System in nem schönen kleinen Gehäuse (ala Fractal Design Node 304) realisierbar?

Vielen Dank.
 
Nimm lieber ein vernünftig großes schweres Gehäuse. Für ein komplettes Dedup waren es glaube ich 5GByte RAM je TByte Storage. Also bei deinen gewünschen netto 4x3TB sind dies 5GByte * 12 = 60GByte RAM, sprich 64GByte.
 
Nimm lieber ein vernünftig großes schweres Gehäuse. Für ein komplettes Dedup waren es glaube ich 5GByte RAM je TByte Storage. Also bei deinen gewünschen netto 4x3TB sind dies 5GByte * 12 = 60GByte RAM, sprich 64GByte.

Naja das Ding muss leider bei mir im Wohnzimmer stehen. Bei Raid Z2 wären es ja "nur" 3x3TB ... trotzdem 48GB RAM sind auch noch ne Menge.
Mit welchem Performance Einbruch muss man denn rechnen, wenn die Dedup Tabellen nicht in den Speicher passen?
 
Gute Frage, nächste Frage. Es wird halt dann wohl nicht der ganze HDD-Bereich überwacht werden können, sprich, du sparst halt nicht alles doppelte ein. Im schlimmsten Falle lässt sich dedup für einen pool gar nicht nutzen. Das dürfte dir hier aber gea oder andere berichten können. Ich habe es für mich ausgeschlossen. Da selbst eine SSD mir dafür zu schade wäre.
Ich lande mit meinen 44HDDs gerade mal bei 2TB netto.
 
Dedup läuft auch mit weniger Ram, es kommt halt auch stark auf die Dedupratio an, also wieviel tatsächlich gededupt wird. Die Performance kann dann aber schon wirklich stark in den Keller gehen. Die Frage wäre wozu du für das Backup überhaupt Dedup benötigst? Wenn du vernünftig mit Snapshots/Inkrementelles Backup/Rotation arbeitest ist so etwas überhaupt nicht notwendig. Ich habe auf einen Rootserver mit 32GB Ram und 2x2TB SAS HDDs im Mirror Dedup im Einsatz, tatsächlich darauf gespeichert sind durch Compression und Deduplication weit über 30TB, die Performance ist aber dafür auch wirklich unterirdisch wenn man mal irgendwas machen will. Das macht aber alles nichts, ist nur ein Backup vom Backup, von daher geht das schon in Ordnung. :)

http://hub.opensolaris.org/bin/view/Community+Group+zfs/dedup
 
Zuletzt bearbeitet:
Ein ITX Board mit max 2. Ram-Slots für so viel RAM und XEON gibts IMHO gar nicht.

Wenn ich mich aber richtig erinnere hatten wir dedup hier schon mal diskutiert. Dedup ist für Archive, Filme, Bilder, also alles was irgendwie gepackt ist, überhaupt nicht geeignet.
Im Gegenteil dedup bremst das System auch noch richtig aus, wenn zu wenig RAM zur Verfügung stehen.
 
Dedup läuft auch mit weniger Ram, es kommt halt auch stark auf die Dedupratio an, also wieviel tatsächlich gededupt wird. Die Performance kann dann aber schon wirklich stark in den Keller gehen. Die Frage wäre wozu du für das Backup überhaupt Dedup benötigst? Wenn du vernünftig mit Snapshots/Inkrementelles Backup/Rotation arbeitest ist so etwas überhaupt nicht notwendig. Ich habe auf einen Rootserver mit 32GB Ram und 2x2TB SAS HDDs im Mirror Dedup im Einsatz, tatsächlich darauf gespeichert sind durch Compression und Deduplication weit über 30TB, die Performance ist aber dafür auch wirklich unterirdisch wenn man mal irgendwas machen will. Das macht aber alles nichts, ist nur ein Backup vom Backup, von daher geht das schon in Ordnung. :)

ZFS Dedup FAQ (Community Group zfs.dedup) - XWiki

Der Inhalt wäre bei mir schon sehr gut packbar (log files z.B.) und ist auch öfters hundertfach vorhanden.

Aber gut lassen wir Dedup mal raus und gehen von 16 GB Ram aus. Gibt es da brauchbare Xeon ITX Boards?
 
Bei mir läuft ein all-in-one mit 16 GB RAM und für OI sind alleine 12GB RAM reserviert.
Einfach aus Neugierde hab ich mal, wegen des Themas dedup
Code:
# zdb -S pool-name
wie hier ZFS Dedup FAQ beschrieben laufen lassen um einmal zu simulieren, wie überhaupt meine dedup-Ratio wäre.
Dieser pool hat eine Kapazität von 14 TB und genutzt werden 9,4 TB.

Nach 2 1/2 Stunden bekam ich auf der Console die Meldung
File system full, swap space limit exeeded
System hab ich dann lieber neu gestartet, ohne eine Ratio überhaupt zu bekommen.
 
Abend,

habe heute mal aus Interesse (habe keinen Bedarf) meinen Dedup Faktor "berechnen" lassen:

Code:
zdb -S storage
Simulated DDT histogram:

bucket              allocated                       referenced
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1    6.36M    812G    803G    804G    6.36M    812G    803G    804G
     2    21.5K   2.52G   2.36G   2.37G    45.1K   5.21G   4.85G   4.87G
     4    1.22K    128M    110M    111M    6.04K    646M    554M    560M
     8      100   7.27M   4.14M   4.34M      922   67.1M   38.7M   40.6M
    16       22   2.25M    344K    400K      494   52.4M   6.30M   7.55M
    32      299   37.0M   7.32M   7.92M    13.0K   1.62G    324M    351M
    64        2    256K    135K    136K      187   23.4M   9.67M   9.78M
   128        2    256K    132K    136K      404   50.5M   26.9M   27.5M
    8K        1    128K    128K    128K    11.5K   1.44G   1.44G   1.44G
 Total    6.39M    815G    806G    806G    6.44M    821G    810G    811G

dedup = 1.01, compress = 1.01, copies = 1.00, dedup * compress / copies = 1.02

Ist aber ganz schön extrem Mager oder? Ich habe viele Voll Backup Images von meinen System (ist ja so gut wie 90% immer das gleiche) und da sollte doch ein wenig mehr drinn sein als 1.01x ? Oder ist da der Befehl zu ungenau? Würde mich interessieren, wie sich das ZFS Dedup bei klassischen Image Backups (unverschlüsselt) von z.B. Windows Systemen aussieht, hat da jemand Erfahrungen?
 
Hallo,

habe es mal gerade mit meinem VMWARE-Pool nachvollzogen, hier sind nur Windows2003 Maschinen drauf, Dedup sollte also eigendlich voll durchschlagen können. Dem ist aber leider nicht so.

Code:
fileserver:~# zdb -S vmwarepool
Simulated DDT histogram:

bucket              allocated                       referenced
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1     465K   58.0G   45.6G   45.6G     465K   58.0G   45.6G   45.6G
     2    5.62K    675M    501M    501M    12.7K   1.50G   1.12G   1.12G
     4    2.69K    260M    251M    251M    13.3K   1.25G   1.21G   1.21G
     8      210   20.3M   13.1M   13.1M    2.33K    237M    151M    151M
    16      151   18.7M   11.7M   11.7M    2.96K    375M    235M    235M
    32        4    512K     18K     18K      197   24.6M    886K    886K
    64        1    128K   7.50K   7.50K      123   15.4M    922K    922K
   256        1    128K   4.50K   4.50K      449   56.1M   1.97M   1.97M
 Total     473K   59.0G   46.4G   46.4G     497K   61.5G   48.3G   48.3G

dedup = 1.04, compress = 1.27, copies = 1.00, dedup * compress / copies = 1.33
 
Hallo,

auf meinem Backup-Server mit ca. 24 TB habe ich ein dedup ratio von 5,63. Dort liegen Vollbackups meiner prod. VMs und jede Menge verschiedene VM-Templates.
 
Hallo,

ich habe auf einem QC, 2,6GHz, 16GB RAM, ein openSUSE 12.1 mit fuse-zfs und einem Zpool 3x Mirror + slog- und Cache-SSDs sowie VMware Workstation mit 6 bis 10 VMs laufen, klappt sehr gut. Selbst Videos kann man sich in den VMs ansehen, allerdings nur wenn nicht mehr als 7 VMs laufen, da sonst die Prozessorlast zu groß wird. Wenn der Pool mit zusätzlichen vdevs ausgerüstet wird sollte das aber dann auch kein Problem sein.
 
Ja, aber für zfs-fuse gibt es keinen Grund mehr, wird auch quasi nicht mehr weiterentwickelt. Deren Entwickler sind mittlerweile auch auf ZFSonLinux umgestiegen. Funktioniert sehr gut, wesentlich performanter und aktueller als zfs-fuse.
 
Zuletzt bearbeitet:
Klingt gut, bin nämlich beim überlegen mir ein Fileserver zu bauen inklusive TV Karte und Soundkarte zum aufnehmen/streamen von Sendungen und streamen von audio auf diverse Geräte. Wäre mit FreeBSD/solaris und der Treiberunterstützung kompliziert geworden, außerdem ist mein *bsd Wissen ziemlich eingerostet.
 
"Falschen" Controller gekauft?

Supermicro Add-on Card AOC-SASLP-MV8

Moin
Habe ich mich verlesen?
Ich war der Meinung irgendwo gelesen zu haben, daß dieser Controller auch unter Openindiana läuft - ich finde zur Zeit aber nur Infos zu anderen SM Controllern, das diese laufen. Zu dem oben genannten Controllern finde ich nunmehr nur die Aussage "geht nicht"!
Auf der TreiberCD sind nur Treiber für Windows und Linux (Redhat, Suse)

gibt's da 'ne Chance?
ciao
Lothar
P.S. ("man ist das Wassr kalt")
 
Ja, aber für zfs-fuse gibt es keinen Grund mehr, wird auch quasi nicht mehr weiterentwickelt. Deren Entwickler sind mittlerweile auch auf ZFSonLinux umgestiegen. Funktioniert sehr gut, wesentlich performanter und aktueller als zfs-fuse.

... ist halt nur wegen der Lizenzfrage ein wenig frickelig das unter openSUSE zu installieren, unter einem Ubuntu würde das wahrscheinlich deutlich entspannter laufen.
 
Hi,

kennt Ihr das Programm zrep?
Das ist ein recht gut funktionierendes Backup und Failover Script für Solaris. Leider läuft es unter OpenIndiana nicht zufriedenstellend, da OI nicht die selben ZFS Features hat wie Solaris unterstützt, zudem kann das Script die Snapshots nicht mit "mbuffer" versenden.

Ich habe mir die Mühe gemacht und einen Patch geschrieben, welcher zrep OI kompatibel macht und "mbuffer" als Sendemöglichkeit hinzufügt.

Ich übernehme keine Verantwortung für etwaige Schäden, die durch den Patch aufgetreten. Ich habe ihn ausgiebig mit OI 151a7 getestet.

Wenn jemand Lust hat, kann er ihn gerne testen und falls es Probleme gibt, wäre ein Feedback schön!

Da dies mein erster veröffentlichter Quellcode ist, bitte ich um etwas Nachsicht, wenn es nicht sofort funktioniert.

Der Patch ist für die zrep Version 0.9

Code:
4c4
< ZREP_VERSION=0.9
---
> ZREP_VERSION="0.9 OpenIndiana version"
17a18,20
> # edit by ghandalf
> mbportnbr=10000		#Set the Port for mbuffer
> # end edit by ghandalf
74a78,89
> # edit by ghandalf
> if grep 'OpenIndiana' /etc/release >/dev/null ;then
> 	OI=1
> else
> 	OI=0
> fi
> 
> 
> # Variable for mbuffer
> MBUFFER=0
> 
> # end edit by ghandalf
650a666,674
> 	
> 	# edit by ghandalf
> 	if (( OI )) ; then
> 		SENDFLAG_OI="-vp"
> 		print "OpenIndiana detected; All features are available!"
> 	else
> 		SENDFLAG_OI=""
> 	fi
> 	# end edit by ghandalf
661,663c685,690
< 		if ((! Z_HAS_O )) ; then
< 			print "Sorry, your zfs is too old for zrep to handle volume initialization"
< 			zrep_errquit "Please initialize volume target by hand, if you won't upgrade"
---
> 		# edit by ghandalf
> 		if (( ! OI )) ; then
> 			if ((! Z_HAS_O )) ; then
> 				print "Sorry, your zfs is too old for zrep to handle volume initialization"
> 				zrep_errquit "Please initialize volume target by hand, if you won't upgrade"
> 			fi
664a692
> 		# end edit by ghandalf
678,680c706,720
< 		print Ancient local version of ZFS detected.
< 		print Creating destination filesystem as separate step
< 		zrep_ssh $desthost zfs create $ZREP_CREATE_FLAGS -o readonly=on $destfs || zrep_errquit "Cannot create $desthost:$destfs"
---
> 		
> 		# edit by ghandalf
> 		if (( OI )) ; then
> 			if (( ! vol )) ; then
> 				print ZFS Folder detected
> 				zrep_ssh $desthost zfs create $ZREP_CREATE_FLAGS -o readonly=on $destfs || zrep_errquit "Cannot create $desthost:$destfs"
> 			else
> 				print ZFS Volume detected, no filesystem created!
> 			fi
> 		else
> 			print Ancient local version of ZFS detected.
> 			print Creating destination filesystem as separate step
> 				zrep_ssh $desthost zfs create $ZREP_CREATE_FLAGS -o readonly=on $destfs || zrep_errquit "Cannot create $desthost:$destfs"
> 		fi
> 		# end edit by ghandalf
692,701c732,751
< 	if (( $Z_HAS_X )) ; then
< 		# This is the nice, clean, modern codepath, to send
< 		# zrep settings over automatically at first init
< 		#
< 		# But check to see if sending volume or filesystem first,
< 		# and act appropriately
< 		#
< 		typeset MOUNTFILTER
< 		if (( vol )) ; then
< 			MOUNTFILTER=""
---
> # edit by ghandalf
> 	if (( ! MBUFFER )) ; then
> 		if (( $Z_HAS_X )) ; then
> 			# This is the nice, clean, modern codepath, to send
> 			# zrep settings over automatically at first init
> 			#
> 
> 			# But check to see if sending volume or filesystem first,
> 			# and act appropriately
> 			#
> 
> 			typeset MOUNTFILTER
> 			if (( vol )) ; then
> 				MOUNTFILTER=""
> 			else
> 				MOUNTFILTER="-x mountpoint"
> 			fi
> 
> 			zfs send -p $snap |
> 			  zrep_ssh $desthost zfs recv $MOUNTFILTER $READONLYPROP -F $destfs
703,704c753,769
< 			MOUNTFILTER="-x mountpoint"
< 		fi
---
> 			## arg.. Patch your systems!!
> 			# Doesn't support "recv -x mountpoint", so cant use -p in send
> 			# This means we have to manually set props lower down as well.
> 			
> 			typeset FLAG
> 			if (( OI )) ; then
> 				if (( vol )) ; then
> 					FLAG="-uvF"
> 				else
> 					FLAG="-vF"
> 				fi
> 			else
> 				FLAG="-F"
> 			fi
> 			
> 			zfs send $SENDFLAG_OI $snap |
> 			  zrep_ssh $desthost zfs recv $READONLYPROP $FLAG $destfs
706,707c771
< 		zfs send -p $snap |
< 		  zrep_ssh $desthost zfs recv $MOUNTFILTER $READONLYPROP -F $destfs
---
> 		fi
709,713c773,818
< 		## arg.. Patch your systems!!
< 		# Doesn't support "recv -x mountpoint", so cant use -p in send
< 		# This means we have to manually set props lower down as well.
< 		zfs send $snap |
< 		  zrep_ssh $desthost zfs recv $READONLYPROP -F $destfs
---
> 		if (( $Z_HAS_X )) ; then
> 			# This is the nice, clean, modern codepath, to send
> 			# zrep settings over automatically at first init
> 			#
> 			#
> 			# But check to see if sending volume or filesystem first,
> 			# and act appropriately
> 			#
> 			typeset MOUNTFILTER
> 			if (( vol )) ; then
> 				MOUNTFILTER=""
> 			else
> 				MOUNTFILTER="-x mountpoint"
> 			fi
> 			
> 			print 'CAUTION! There is no encryption with mbuffer, use it only in a secure enviroment!'
> 			
> 			zrep_ssh $desthost "echo \"mbuffer -m 1G -s 128k -I $mbportnbr | zfs recv $MOUNTFILTER $READONLYPROP -F $destfs > /dev/null 2>&1\" | at now"
> 			sleep 3
> 			zfs send -p $snap | mbuffer -m 1G -s 128k -O $desthost:$mbportnbr
> 
> 
> 		else
> 			## arg.. Patch your systems!!
> 			# Doesn't support "recv -x mountpoint", so cant use -p in send
> 			# This means we have to manually set props lower down as well.
> 			
> 			typeset FLAG
> 			if (( OI )) ; then
> 				if (( vol )) ; then
> 					FLAG="-uvF"
> 				else
> 					FLAG="-vF"
> 				fi
> 			else
> 				FLAG="-F"
> 			fi
> 			
> 			print 'CAUTION! There is no encryption with mbuffer, use it only in a secure enviroment!'
> 			
> 			zrep_ssh $desthost "echo \"mbuffer -m 1G -s 128k -I $mbportnbr | zfs recv $MOUNTFILTER $READONLYPROP $FLAG $destfs > /dev/null 2>&1\" | at now"
> 			sleep 3
> 			zfs send $SENDFLAG_OI $snap | mbuffer -m 1G -s 128k -O $desthost:$mbportnbr
> 		fi
> 
> 
714a820
> # end edit by ghandalf
722c828,832
< 		print Debug: Because you have old zfs support, setting remote properties by hand
---
> 		if (( OI )) ; then
> 			print setting remote properties
> 		else
> 			print Debug: Because you have old zfs support, setting remote properties by hand
> 		fi
1397a1508,1511
> # edit by ghandalf
> 	print "OpenIndiana and mbuffer implementation by Ghandalf (http://hardforum.com), 2012"
> 	print "mbuffer implementation by Flintstone (http://hardforum.com), 2012"
> # end edit by ghandalf
1400a1515,1522
> # edit by ghandalf
> 	print '---'
> 	print 'zrep (initm|-im) ZFS/fs remotehost remoteZFSpool/fs  -- mbuffer used instead of ssh for speed'
> 	print 'mbuffer needs to be installed on both systems!'
> 	print 'mbuffer uses Port $mbportnbr and 1GB RAM for buffering'
> 	print 'CAUTION! There is no encryption with mbuffer, use it only in a secure enviroment!'
> 	print '---'
> # end edit by ghandalf
1438a1561,1567
> # edit by ghandalf
> 	initm|-im)
> 		shift
> 		MBUFFER=1
> 		zrep_init "$@"
> 		;;
> # end edit by ghandalf

Der Patch wird so eingespielt:
Code:
patch "zu patchende zrep Datei" "Patch"

Der Patch editiert nur die INIT-Funktion von zrep. Wird ein anderes System als OI verwendet, verhält sich das gepachte zrep wie das ungepatchte. Alle anderen Funktionen von zrep wurden nicht verändert!

Hinzugefügte Features:
- OpenIndiana kompatiblität
- alle zfs properties werden mitgesendet
- man kann auch zfs volumes initialisieren.
- Option für zfs send und receive über mbuffer (1GB Ram wird als Buffer verwendet)
- zfs send wird mit -v ausgeführt, so hat man eine Statusanzeige

Der Patch wurde unter Ubuntu erstellt. Das Patchen unter Ubuntu funtioniert problemlos. Mit anderen Systemen habe ich den Patch nicht getestet.

Wegen Copyright und Lizenz:
Man kann mit dem Patch machen was man will! Verbesserungen sind sehr willkommen!
Eine direkte Verbreitung von zrep schließt der Autor allerdings aus!

Grüße und viel Spaß mit dem Patch
Ghandalf
 
Zuletzt bearbeitet:
Moin,
ich scheitere scheinbar schon an OpneIndiana (oi-dev-151a5-live-x86.usb).
Ich boote den USB Stick erfolgrich, die erste Frage ist nach Benutzername/Passwort für den maintenance mode.
woher bekomme ich diese info? - jack/jack funzt jedenfalls nicht (Installing OpenIndiana - OpenIndiana - OpenIndiana Wiki).

IMG_5034.jpg

ciao
Lothar

Achja, folgende Systemconfig:

Asus M5A97 LE Rev 2.0
AMD FX-6300
64GB Samsung 830 Basic Series
SAPPHIRE HD5450
4 GByte Speicher (zur Zeit Non ECCC, da die 16 GB ECC noch nicht eingetrudelt sind(

weitere Festplatten sind noch nicht drin (Backplanes für 12 Platten - 4 davon gehen an den On-Board Controller, für die anderen 8 habe ich bereits einen M1015 geordert)
 
Zuletzt bearbeitet:
Falls irgendwo noch ein DVD Laufwerk herumliegt, würde ich das anschließen und die normale ISO zum Booten nehmen (151a.7). Zur Installation wird übrigens ein DHCP Server benötigt oder man muss nach der Installation die IP lokal manuell ändern.
 
@gea: Ich weiß nicht ob es schon mal gefragt wurde, aber hast du schon mal darüber nachgedacht napp-it für Linux anzupassen? ZoL schreitet immer weiter voran, ich habe schon von zwei unterschiedlichen Vorhaben gehört die etwas ala napp-it für Linux entwickeln wollen, beide kommerziell. Es ist durchaus möglich dass es aufgrund der besseren Hardwareunterstützung und weiteren Verbreitung bald mehr Systeme mit ZFS unter Linux als unter FreeBSD/OI geben wird.
 
Zuletzt bearbeitet:
@gea: Ich weiß nicht ob es schon mal gefragt wurde, aber hast du schon mal darüber nachgedacht napp-it für Linux anzupassen? ZoL schreitet immer weiter voran, ich habe schon von zwei unterschiedlichen Vorhaben gehört die etwas ala napp-it für Linux entwickeln wollen, beide kommerziell. Es ist durchaus möglich dass es aufgrund der besseren Hardwareunterstützung und weiteren Verbreitung bald mehr Systeme mit ZFS unter Linux als unter FreeBSD/OI geben wird.

Ich bin eigentlich recht froh, dass ZFS sich mehr und mehr zum universellen Dateisysten (bis auf Windows) entwickelt. Dennoch folgt die Entwicklung von napp-it primär meinen eigenen Anforderungen. Und da sehe ich im Moment keine Alternative zu einem Solaris basierten System. Es läuft einfach rund ohne wenn und aber (eben wie Windows oder OSX - alles aus einer Hand). Der Solaris CIFS Server ist der einzige, der Windows mit ACL Support, vorheriger Version und der Speicherung von Windows SIDs als ZFS Attribut fast vollständig ersetzen kann - ja sogar oft problemloser arbeitet als ein Windows Server (meine Erfahrung) - im Gegensatz zu SAMBA das lediglich UNIX/ Linux Resourcen und User als SID/UID zur Verfügung stellt, eben ohne Windows ACL, vorherige Version und Windows SIDs. Comstar, SMF und Crossbow sind weitere Sachen die es bei Linux so nicht gibt.

Die bessere Hardwareunterstützung ist mir dabei egal, es gibt ja bei Solaris alles, was ich auch bei Linux bevorzugt einsetzen würde - der Rest interessiert nicht wirklich. HA wäre da schon eher ein Thema. Insgesamt würde es aber auf eine vollständige Überarbeitung und Anpassung hinauslaufen - etwas was ich nicht leisten will. So bis auf weiteres: kein napp-it for Linux - zumindest nicht von mir (es gab aber schon Anfragen der Unterlizenzierung zur Anpassung).
 
Zuletzt bearbeitet:
Falls irgendwo noch ein DVD Laufwerk herumliegt, würde ich das anschließen und die normale ISO zum Booten nehmen (151a.7). Zur Installation wird übrigens ein DHCP Server benötigt oder man muss nach der Installation die IP lokal manuell ändern.

Danke Gea,
das sieht plötzlich gaaaaanz anders aus.


Meine ersten Tests an den Onbboard SATA Schnittstellen haben mich bislang nicht vom Hocker gerissen..... (NAS4free & OI/NappIT)

Ich komme nicht über ca. 30 MByte/s beim Schreiben auf ein ein Raidz1 via Netzwerk hinaus - bei Verwendung von iSCSI (bei SMB sind es keine 20 MByte/s)
Bei einem Mirror sind's dann etwa 35 MByte/s

Ich kopiere einfach eine grosse Datei und schaue mit dir Transferraten mit DU-Meter an, da komme ich zwischen meinen Rechnern mit Hardware-Raidcontrollern (Raid5) auf 60-70 MByte/s
Ich kann mich jetzt nicht entsinnen, ,daß die VDevs genauso initialisiert werden wie bei einem Hardware-Raidcontroller, was einen Performanceverlust zu Beginn erklären würde !!??

Verwenden tue ich die Onboard Realtek Netzwerkchips (auch auf meinen PCs).
Bei dem von mir verbauten Mainboard ist das scheinbar ein relativ neuer (Realtek 8111F), für den die Treiberunterstützung für OS/OI bzw. FreeBSD erst seit kurzem Verfügbar ist - könnte sich da in Zukunft nochwas ändern?
 
Bei aktuellen Intelchipsätzen weiß ich, dass Sie im AHCI Modus mit Server HBA Controllern mithalten können. Wie das mit dem Asus aussieht kann ich nicht sagen, auf jeden Fall auf AHCI schalten.

Ansonsten sind bei Solaris (fast generell) Realtek für günstige Preise nicht für Performance bekannt. Insbesondere Solaris ist eigentlich auf Intel Nics abonniert. Was auch gerne Probleme macht oder bremst sind Jumbo Frames, Kanalbündelung, Copytools ala Teracopy oder 4k Platten mit falschem ashift=9.

Insgesamt würde ich erstmal einen lokalen Pool Benchmark laufen lassen um zu sehen wie die interne Performance ist. Man kann dann eher abschätzen, wo das Problem liegt. ZFS muss übrigens ein vdev nicht initialisieren wie bei Hardware Raid. Es wird einfach angelegt und ist dann sofort nutzbar. Disk Fehler werden beim Lesen oder online Scrubbing sicher erkannt und repariert.
 
Zuletzt bearbeitet:
Ich darf wohl erstmal eine Backplane reklamieren ( Lian Li EX-H34B).
Habe bei Nas4Free auf allen 4 Schächten "CAM status: Uncorrectable parity/CRC error" wenn ich Daten schreibe... und zwar Haufenweise.
Das ganze so schlimm, daß teilweise das NAS abschmiert (bei Novell haben wir immer "guten Abend" dazu gesagt).

So kann das mit Performance nix werden :)

P.S. getestet mit Single Laufwerk im UFS Dateiformat, sohwohl mit Kabel direkt angeschlossen (=Fehlerfrei) als auch mit Backplane.

P.P.S. Der interne Benchmark von Napp-it hatte bei einem Raidz aus 3x Hitachi 5K3000 ca. 240 MB/s ausgespuckt, das sah mir nach einem zu erwartendem Wert aus (oder sind das MBit?)
 
Gea, gibts diesen von Digi-Quick angesprochenen Benchmark auch extra?
Backplane, hrm, ja. Von euch weiß nicht zufällig jemand wo man günstig 12 oder 24 Port SAS Backplanes beziehen kann für 3.5" Laufwerke? ;) Hätte 48 (44) HDDs zum anschließen.
 
Hallo Leute,

seit dieser Woche habe ich das Problem das System sehr träge und langsam ist. Auch von der Datenübertragung bin ich nur noch bei 25MB/s. Weit weg von den 90MB/s am Anfang.

Woran könnte das liegen?

Habe der VM 2Cores zugewiesen und 4GB RAM.


EDIT:

Jetzt habe ich ein dickes Problem. Beim starten der VM OI startet dieses nicht mehr.
Der StartBildschirm (roter Balken von links nach rechts) ist schon eine halbe Stunde zu sehen.

In der Ereignisanzeige des ESXi habe ich ein Fehler bei Zugriff auf die SSD gefunden (Datastorage der OI SSD).
"Wegen Konnektivitätsproblemen kann nicht mehr auf Volume "SSD" zugegriffen werden...

Wäre für jeden Tipp dankbar. :(
 

Anhänge

  • nappit.JPG
    nappit.JPG
    64,2 KB · Aufrufe: 134
  • nappit1.JPG
    nappit1.JPG
    45,5 KB · Aufrufe: 144
  • nappit2.JPG
    nappit2.JPG
    63,3 KB · Aufrufe: 130
  • SSD.JPG
    SSD.JPG
    30,9 KB · Aufrufe: 126
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh