[Sammelthread] ZFS Stammtisch

HP Proliant ML350 G5 mit HP Smart Array E200i Controller

Hallo zusammen,

ich habe ein kleines Problem, bei dem ihr mir eventl. helfen könnt?
Ich habe einen ZFS-Pool aus mehreren Mirror-vdev mittels eines mit übernommenen Controllers in o.g. HP-Server gehängt und wollte nun den Mirror-Pool mit dem E200i, der im HP verbaut ist, zu einem 3-way--mirror erweitern. Die im E200i-Controller hinzu gesteckten HDDs werden vom Openindiana (format-Befehl) auch erkannt, ein zpool attach führt aber nach mehrminütiger Reglosigkeit zu einem überraschenden Reboot. Der für den Controller angegebene Treiber (cpqary3) ist installiert. Hatte jemand schon Erfolg mit diesem Controller?
Vielen Dank
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
SnapRAID auf ZFS, welches nur aus einer Platte pro Pool besteht, sollte gehen und du hättest die Datensicherheit von ZFS mit der Redundanz von SnapRAID.
Ok, und wie bekomme ich mit wenn ein Fehler auf dem Dateisystem passiert? Meldet ZFS das irgendwie aktiv oder muss ich da einen fsck machen?
 

Soweit ich weiß benötigt Snapraid einzelne Festplatten/Partionen. Das heißt doch die Festplatten im Server laufen getrennt von einander. Hier kann ZFS dann allerdings nicht auf eine Kopie drauf zurückgreifen. Es kann dann maximal nen Fehler melden, aber beheben und scrubbing ist dann net wie bei RaidZ1 usw.

Also Bitrot wird erkannt mehr aber auch net. Dann müsste man halt über die Snapraid Platte reparieren.
 
Zuletzt bearbeitet:
Soweit ich weiß benötigt Snapraid einzelne Festplatten/Partionen. Das heißt doch die Festplatten im Server laufen getrennt von einander. Hier kann ZFS dann allerdings nicht auf eine Kopie drauf zurückgreifen. Es kann dann maximal nen Fehler melden, aber beheben und scrubbing ist dann net wie bei RaidZ1 usw.

Also Bitrot wird erkannt mehr aber auch net. Dann müsste man halt über die Snapraid Platte reparieren.

Genau so siehts aus. Was anderes habe ich auch nicht gesagt.
 
Wenn eine Checksumme nicht passt, müsste es einen I/O error geben. Probiers aus :)

Hm, ist jetzt die Frage wie gut ich das monitoren kann. Unterm Strich werde ich wohl bei snapraid+ext4 bleiben und gelegentlich ein "snapraid check" durchführen, da werden die Checksummen ja genauso überprüft. Die Daten sind sowieso relativ statisch und so muss ich keine neuen Dateisysteme erzeugen und die ganzen Daten umschaufeln.
 
Mit SnapRAID hast du aber nur eine Off-line-Prüfung. Wenn da Daten defekt sind, gehen die defekt an die Applikation und du merkst es u.U. gar nicht.
 
guten tag zusammen,

ich lese hier immer noch etwas mit und werde aus dem snapraid nicht so schlau. in einer vm hab ich mal eine datenplatte(2TB) und eine paritätsplatte(2TB) angelegt. dann eine linux iso reinkopiert und die paritätsplatte ist um die größe der iso voller geworden.
wenn ich jetzt also ein film archiv über 3x2 TB hätte, würde ich doch auch deutlich mehr als eine 2TB hdd für pariätsdaten brauchen oder nicht?

ich suche gerade nach einer kostenlosen variante mehrere platten zu einem großen pool zusammenzufassen und nur ordner wichtiger daten mit paritätsdaten zu versehen. also eigentlich snapraid, oder?
dazu würde ich gerne linux mit zfs benutzen um kann auch xbmc laufen zu lassen. leider habe ich mit zfs unter linux schlechtere r/w-performance und ich kann zfs nicht mal benutzen um den großen pool anzulegen.
auf der snapraid seite wird folgendes empfohlen : mhddfs (1) (2), Greyhole, Samba with symlinks. das mit dem samba hab ich nicht wirklich kapiert und bei den anderen beiden bin ich mir nicht sicher ob die auch wirklich zuverlässig sind.
vorschläge?
 
"napp-it to go"

Bisher galt ja die Regel, daß Solaris und USB nicht so gut passen (langsam)
Nachdem napp-it mit OmniOS und deaktiviertem atime aber prima von einem schnellen 16GB USB3 Stick läuft (auch ohne dass Omni USB3 bereits unterstützt), sehe ich die Zeit für einen ready to use Solaris ZFS Server vom USB Stick gekommen.

Die Idee ist ganz einfach.
- OmniOS auf USB installieren
- Netzwerk auf DHCP konfigurieren
- napp-it und weitere Tools wie netatalk, Xampp, mediatomb installieren
- optional noch ein root-pw setzen, damit SMB als root geht

Diesen USB Stick anschließend Klonen und fertig ist "napp-it to go" für diese Hardware
z.B. einen HP Microserver oder eine Linie von SuperMicro Mainboards.

Um einen neuen Server in Betrieb zu nehmen, einfach einen solcherart vorbereiteten Stick einstecken (Netz muss DHCP bieten), eventuell an der Konsole die IP ablesen und den Browser mit http://ip:81 (oder http://servername:81) verbinden. Unixkenntnisse sind nicht unbedingt erforderlich da das normale Management komplett über die Web-UI geht.

Bei größeren Änderungen am System: Stick klonen
Bei Problemen: Anderen Stick nehmen, Pool importieren. (Alle shares und ACL mit Windows SID sind ja bei Solaris im Pool gespeichert). Der komplette Napp-it Ordner mit jobs etc läßt sich auch per Menü auf einen Pool sichern. Bleibt allenfalls noch das Neu-Einrichten der Benutzer.


Die benötigten freien Tools und die Vorgehensweise:
napp-it.org
 
Zuletzt bearbeitet:
Ah das ist eine schöne Sache werde ich mir am Wochenende mal anschauen.

Auch wenn ich ZFS nicht produktiv bis jetzt einsetze muss ich mal ein Loob aussprechen für deine tolle Arbeit an Napp-it.


Zur Info

Link auf deiner Homepage unter Howto create napp-it to go auf OmiOS ist ein ) zuviel.

gruß

Frank
 
Festplatten schlafen legen

Hallo ich versuche gerade die Platten von meinem Medienpool schlafen zu legen.
Als Betriebssystem kommt OmniOS zum Einsatz.

/etc/power.conf:

device-dependency-property removable-media /dev/fb

autopm enable
autoS3 default

cpupm enable
cpu-threshold 1s

#rpool
device-thresholds /pci@0,0/pci15ad,1976@10/sd@0,0 always-on

#mediapool
device-thresholds /scsi_vhci/disk@g50014ee0ae2d7b0d 65m
device-thresholds /scsi_vhci/disk@g50014ee0ae282758 65m
device-thresholds /scsi_vhci/disk@g50014ee058d7e1c1 65m
device-thresholds /scsi_vhci/disk@g50014ee058d29090 65m
device-thresholds /scsi_vhci/disk@g50014ee058d29386 65m
device-thresholds /scsi_vhci/disk@g50014ee00382ab3f 65m

/usr/lib/fm/fmd/plugins/disk-transport.conf:

setprop interval 24h

In Nappit sind als Jobs nur ein täglicher Snapshot und ein wöchentlicher Scrub eingerichtet,
trotzdem legen sich die Platten nicht schlafen.

Machine wurde auch schon neu gestartet, hat noch jemand eine Idee, was den Spindown
der Disks verhindern könnte?

Auto Service in Nappit steht auf 15 Minuten, kann dies das Problem sein?

Grüße
 
Ich nutze bei mir kein Powermanagement da mir das Aufwachen zu lange dauert.
Ich fahre meinen Rechner zuhause lieber bei Nichtgebrauch bzw abends per
other-autojob mit init 5 herunter (Einschalten per ipmi)

An den Einstellungen sehe ich aber nichts falsches.

Neben der Möglichkeit eines mir nicht bekannten Problems bei OmniOS sind vor allem
Dienste wie ein napp-it Alert job (liest die Platte regelmäßig) oder der Solaris
Fault Management Dienst daran schuld, dass Powermanagement nicht geht.

Den kann man aber deaktivieren

# Stop and start fmd:
svcadm disable svc:/system/fmd:default
svcadm enable svc:/system/fmd:default

Der Auto-Service selber liest nur von der Systemplatte (cronjob)
 
Nochmal eine Frage an gea bezüglich Napp-it.
Teste es gerade in ESXi, habe mich für OmniOS entschieden.
Nun bin ich dabei, ein iSCSI Target zu erstellen.
Ich habe bereits eine "thin prov LU" erstellt, außerdem ein Target.
Weiterhin eine Target Group und ein View, welche in meiner Host und Targetgroup ist, es wird mir als Lun Nummer die "0" angezeigt und auch eine LU Nummer.
Ich kann mich zwar mit dem Initiator (Win 7) verbinden, allerdings werden mir keine Platten angezeigt.
Was habe ich falsch gemacht?
 
Nochmal eine Frage an gea bezüglich Napp-it.
Teste es gerade in ESXi, habe mich für OmniOS entschieden.
Nun bin ich dabei, ein iSCSI Target zu erstellen.
Ich habe bereits eine "thin prov LU" erstellt, außerdem ein Target.
Weiterhin eine Target Group und ein View, welche in meiner Host und Targetgroup ist, es wird mir als Lun Nummer die "0" angezeigt und auch eine LU Nummer.
Ich kann mich zwar mit dem Initiator (Win 7) verbinden, allerdings werden mir keine Platten angezeigt.
Was habe ich falsch gemacht?


eigentlich allses richtig:
1. LU anlegen
2. Target anlegen
3. Target Group anlegen UND Target der Gruppe hinzufügen (?)
4. Ein View setzen (Target group -> LU)


ansonsten:
napp-it 0.9a8 (25.2.) unterstützt jetzt Feature Flags (ZFS Pool 5000):
- Features aktivieren im Menu Pools - Features
- LZ4 compress (OmniOS bloody)

siehe
LZ4 Compression - illumos - illumos wiki
 
Ich fahre meinen Rechner zuhause lieber bei Nichtgebrauch bzw abends per
other-autojob mit init 5 herunter (Einschalten per ipmi)
Wie löst man das am besten?
Würde das ganze gern als alternative zu WOL.
 
Zuletzt bearbeitet:
Wie löst man das am besten?
Würde das ganze gern als alternative zu WOL.

Der Befehl "init 5" fährt den Rechner herunter bzw napp-it Menü System - shutdown
Das geht auch zeitgesteuert (cronjob oder napp-it other-job).

Zum Hochfahren/ Einschalten (wenn der Server im Keller steht) kann man IPMI nutzen
(sofern der Server eine Remote Management-Möglichkeit hat, z.B. HP Microserver mit KVM Board
oder SuperMicro Mainboards mit -F im Namen)

siehe Supermicro IPMIview Remote Monitoring Management KVM-over-IPServeTheHome – Server and Workstation Reviews
 
eigentlich allses richtig:
1. LU anlegen
2. Target anlegen
3. Target Group anlegen UND Target der Gruppe hinzufügen (?)
4. Ein View setzen (Target group -> LU)
Habe jetzt nochmal alles gelöscht und bin nach deiner Anleitung vorgegangen, hat alles geklappt, danke!
 
"napp-it to go"
Ready to Run ZFS Server aus der Solariswelt

Ich habe jetzt "napp-it to go" zum Testen für meine ZFS Lieblingshardware vorbereitet:

-> download Image
-> Image (komplette Distribution) mit beiliegender Software auf einen 16 GB USB Stick kopieren
-> Booten und gut - Management via Web-UI


Enthalten:
OmniOS neuestes ZFS mit LZ4 compress und ZFS Pool Version 5000
CIFS, NFS, AFP, iSCSI Comstar Server, Xampp und neuestes napp-it

- USB Image, ready to use, HP Microserver (small SoHo, Backup und Mediaserver)
- USB Image, ready to use, Supermicro X9SCL/1155 (max 32GB RAM, 2-4 Core, 17W Xeon, Medium size, All-In-One)
- USB Image, ready to use, Supermicro X9SRL/Single 2011 (max 256GB RAM, 2-6 Core, Premium Server, All-In-One)
- USB Image, ready to use, Supermicro X9DRL/Dual 2011 (max 256GB RAM, 4-12 Core, High End Server, All-In-One)


download: napp-it.org
Über Rückmeldungen, ob es läuft würde ich mich freuen.
 
Cool, plane gerade einen zusätzlichen HP N40L als Backupserver einzustellen und wollte das OS auf einen 16 GB SLC USB Stick packen, da wäre dein fertiges Image eine gute Zeitersparnis, muss ja nur DHCP aktiv sein :)
 
Cool, plane gerade einen zusätzlichen HP N40L als Backupserver einzustellen und wollte das OS auf einen 16 GB SLC USB Stick packen, da wäre dein fertiges Image eine gute Zeitersparnis, muss ja nur DHCP aktiv sein :)

SLC Sticks sind klasse aber teuer.
Mit ZFS Mirror, File-Backups und neueren MLC denke ich, es geht jetzt auch ohne -
vor allem wenn die Sticks etwas größer sind und ZFS mit Copy on Write benutzt wird.

Der ZFS Mirror wird aber das Entscheidende für die Uptime sein.
 
Gibt es schon für knapp 37,- für 16 GB mit SLC und USB 3.0. Wenn man z.B. von Winkom sich einen 16 GB USB 3.0 SLC USB Stick ansieht, sind es knapp 50,- aber das find ich nicht so schlimm, geb lieber ein paar Euro mehr aus. Immerhin ein SATA Port dafür mehr frei beim Microserver für eine Daten HDD und ich kann den internen USB Port der auf dem Board sitzt benutzen.
 
Und ein halb so teurer Sandisk Cruzer Extreme kommt nicht in Frage? Was für Werte legt das SLC-Dingens denn bei 4k vor?
 
Es geht mir nicht um Perfomance (ich hab den USB Stick ja noch garnicht, wie ich geschrieben habe will ich mir noch einen extra Backupserver zulegen), es geht mir nur um Langlebigkeit, that's all, kann man als übertrieben ansehen im privaten Bereich mit SLC, aber mir ist es das Wert.
 
Super Sache mit nappit to go.
Überlege es auch mal zu testen :)

Trotzdem noch ein paar Fragen.
Ein paar Posts weiter oben hat gea gesagt das nappit jetzt auch zfs feature flags (zfs 5000) kann. Als nächste Zeile steht dann lz4 kompression (ominos).
Zurzeit benutze ich OI, was ja schon lange nicht mehr weiter entwickelt wird. Bei OI kann ich aber auch zfs 5000 (feature flags) aktivieren. (sprich kein neues feature).Dies hat aber nichts mit der lz4 kompression zu tun oder? Sprich unter OI geht die lz4 kompression nicht, richtig?
2) Besteht allg. die Möglichkeit egal welche Kompression nun, diese nachtraeglich auf zfs zu aktivieren? und kann man ggf vorher sich angucken wieviel speicherplatz das sparen würde?
3) Ich könnte doch nappit to go installieren und mein zur Zeit v28 OI pool (nicht zfs 5000) importieren und dann auf zfs 5000 updaten (und ggf nachtraeglich lz4 akrivieren, sofern das geht.)
4) Ist Kompression irgendwie "gefährlicher" oder unsicherer in Bezug auf die Datensicherheit (z.B den Chrcksummen oder das man ein Bit umkippt...)?
5) Nur als verständnis: illumos ist eine distribution von der OI und Omnios gebildet wurde? Dabei wird OI nicht mehr weiter entwickelt, illumos und Ominos aber schon? Und von illumos gibt es selber kein fertiges OS zum installieren?
(Frage mich das gerade weil es so scheint das lz4 ein neues feature von illumos ist, was heisst das es ja noch stets weiter entwickelt wird).
 
Zuletzt bearbeitet:
1.
OI wird schon weiterentwickelt. Die 151a7 ist ja auch nicht soo alt und Feature Flags mit ZFS 5000 wurden da sehr zügig mit der 151a5 geliefert. Das Problem: OI ist einfach zu umfangreich um schnell weiterentwickelt zu werden. (Dazu arbeiten zu wenige Entwickler am Projekt und es gibt keine Firma die das hauptberuflich macht. Es ist ein reines Community Projekt.

Das Feature LZ4 wird aber noch nicht unterstützt. Man kann es in OI daher weder aktivieren noch einen Pool importieren, bei dem das Feature genutzt wird.

2.
Wird das Feature LZ4 (z.B. OmniOS) unterstützt, kann man es aktivieren. Es wirkt dann wie jeder andere Kompressor bei den folgenden Schreibvorgängen. Den Speichergewinn sieht man aber erst nach dem Schreiben. Der Vorteil von LZ4 ist aber weniger in der Kompressionsrate. Da ist es nur ein bisschen besser. Es ist einfach mehrfach schneller als jeder andere Kompressor.

3.
Ein OS muss das Feature LZ4 unterstützen oder der Pool kann nicht mehr importiert werden.
Das ist aber bei all den Systemene, deren ZFS oder OS auf Illumos basieren demnächst zu erwarten.
(Nexenta, OI) aber auch BSD und Linux, da die zumindest ZFS von Illumos beziehen.

4.
Nein. Genauso sicher, nur platzsparend und dennoch schnell

5.
Illumos ist momentan keine Distribution sondern die gemeinsame OS-Weiterentwicklung.
Das ist etwa so wie Linux. Das ist ja auch keine Distribution sondern die Basis auf der es Distributionen gibt.

Illumos ist dabei aber viel kompletter als Linux. Es ist nicht nur der reine OS Kernel wie bei Linux sondern fast schon ein komplettes OS bei dem alles Grundlegende enthalten ist. Es gibt ja auch Bestrebungen, eine Illumos Referenzdistribution herauszubringen. (Das ist alte Sun Tugend. OpenSolaris war ein eigenes Komplett-OS wie Windows oder OSX (wurde von Sun auch direkt als Konkurrenz zu Windows NT entwickelt) und eben nicht der wünsch dir was Linux Baukasten bereits in der Basis Distribution)

OpenIndiana muss daher "nur" das Gui, die Desktopapplikationen und alles was Sie zu Illumos hinzugefügt haben updaten. Das ist aber eben auch nicht so wenig. OmniOS hat es da einfacher. Es ist viel schlanker und es ist eine Firma, die damit ihr Geld verdient.

Insgesamt stehen hinter Illumos sehr potente Firmen (Delphix, Joyent, Nexenta - bei denen sind heute viele ehemalige Sun Entwickler, die nach dem Aufkauf von Sun durch Oracle weggegangen sind) aber auch die BSD und Linux Community, die zu einem freien ZFS beitragen.
 
Der ehemalige "Chef" von OpenIndiana sah das allerdings scheinbar anders.... und hat letzten Sommer hingeschmissen.
Er sieht OI mehr oder weniger am Ende. Sein Abschiedsposting liest sich ganz interessant: [oi-dev] Resignation as OI Lead

Zusammengefasst macht er u.a. gerade die kommerziellen Firmen dahinter für eine Menge Dinge verantwortlich. Die Entwicklung im Hintergrund läuft wohl immer langsamer ab, neue Hardware findet mangels Entwickler nur schwer Zugang, Ablehnung von vielen renomierten OS Projekten, .... und man bekommt kaum Unterstützung von Nexenta, Delphix und co..

OpenIndiana was my attempt at
competing with the Linux distros, but our lack of progress has torpedoed
it. Nobody in their right mind would use OI - it ships severely out of
date insecure software, lacks some of the most common 3rd party apps...
.
.
.
All of you, Joyent, Nexenta, Delphix, are complicit in the increasing
irrelevance of Illumos. OI, even in it's current current state, is by
far the most widely used Illumos distro, so by not supporting it beyond
contributing to the Illumos core, you've all shot yourselves in the
foot. With a fucking shotgun. What's sad is that you don't even see it.


Er sieht ZFS auf Linux, auch wenn es wohl noch viele Probleme hat, auf dem aufsteigenden Ast.

With the ZFSOnLinux port becoming increasingly popular (so many of the
Linux users I know are using it), and
brtfs/dtrace-on-linux/upstart/whatever else slowly brewing away, even
some of the core features of Illumos are becoming less and less
important. Yes, the Linux equivalents suck in one way or another, some
are completely and fundamentally broken by design, but it doesn't matter
- what matters is perception and the typical Linux user is happy with
"good enough". When I encourage my Linux-using friends to try OI they
laugh in my face. OI and Illumos to them is a dead platform. Add to that
our increasingly out of date and poor hardware support due to the march
of never ending new LAN/SATA/SAS/motherboard/GPU chipsets and you start
to get the picture.

Ich hatte mich ja gestern auch noch für OI interessiert, aber nun überlege ich nicht, ob ich nicht doch mal ZFS auf einem Ubuntu-Server testen sollte. Die sind wohl schon weiter als das ältere ZFSonLinux, sind versionstechnisch auf dem Stand der anderes Syteme und es wird sich sicher in den nächsten Jahren auf Linux durchsetzen - und dann gibts wirklich kaum mehr einen Grund auf ein freies Solaris zu setzen.
Und das "good enough" ist auch für mich wahrscheinlich gut genug, da ich das ja auf einem Heimserver betreiben möchte und nicht in meinem Unternehmen mit mehreren hundert Usern.


Naja, ich werds wahrscheinlich trotzdem mal alles durchtesten :d
 
Schau dir mal ZFSguru an. Ist zwar auch eine ganze Distribution, aber man kann auch nur das Webinterface runterladen.

Wäre schön, wenn's da eine brauchbare Installationsanleitung für den Apache Webserver geben würde, der ist nämlich schon als Bestandteil von iRedMail installiert.

Installiert ist PCBSD 9.1 auf ZFS, des weiteren iRedMail als "kompletter" mailserver (dovecot, Apache, PHP, Roundcube, Postfix, MySQL, Policyd, ClamAV, Amavisd-new, SpamAssassin, iRedAPD - Postfix Policy Daemon, iRedAdmin - official web-based admin panel, Awstats, phpMyAdmin) inkl. diverser weiterer Pakete und Abhängigkeiten (waren um die 100 Ports)
Es Funktionieren alle Webfrontends: iRedAdmin, phpMyAdmin, Roundcube (von der iRedMail installation via bash-script installiert) sowie Webmin (habe ich zusätzlichj installiert).

Ich habe ZFSGuru in das Verzeichnis "/usr/local/www/zfsguru/" statt "/usr/local/www/data" entpackt.

im Verzeichnis "/usr/local/etc/apache22/Includes/" habe ich dann noch eine Datei "zfsguru.conf" angelegt mit folgendem Inhalt (Analog zu den bereits vorhandenen Dateien für die anderen Instanzen)
"
Alias/zfsguru "/usr/local/www/zfsguru/"
<Directory /usr/local/www/zfsguru/>
Order allow,deny
Allow from all
</Directory>
"

Ich kann jetzt via http://IP-oder-Hostname/zfsguru/ das Frontend aufrufen, es wird der Welcome-Wizzard gestartet, es werden aber keine Festplatten gefunden, folglich kann auch kein ZFS-Pool gefunden werden.

Überspringe ich den Wizzard, kommen im nächsten Screen 2 Meldungen und der Wizzard wird restartet:
"
SUCCESS: created new configuration file containing default preferences

ERROR: Failed writing to /usr/local/www/apache22/data//config/config.bin - check permissions!
"

Bestimmt muss irgendwo die Configuration von ZFSGuru an die Gegebenheiten angepasst werden - nur wo?
oder aber die Rechte passen nicht? ( "/usr/local/www/zfsguru/config" hat 777, Owner ist toor/wheel)


Ich habe schon in diverse Datein reingeschaut und nichts verwertbares gefunden.. (vor allem irritiert mich der doppelte Slash im Pfad der Fehlermeldung)


Ich habe die Live-CD getestet, hier werden die Festplatten gefunden und der Pool ist auch importierbar, somit wäre die grundsätzliche Funktion geklärt.

Sorry, aber ich bin Absoluter FreeBSD Newbie, und viele der HowTo's und sogenannten Anleitungen wirken auf mich halbherzig und unvollständig. (zumal ich meist mehr Anleitungen unter Linux finde und diese für FreeBSD sozusagen interpolieren muss).
Vielleicht hat da jemand einen heissen Tip für mich!

OT:
Ich habe in den letzten Tagen haufenweise Howtos und Anleitungen zu Postfix in Bezug auf Mailrelay gelesen. Erst heute habe ich eine Anleitung gefunden, warum das nicht funktionierte.
Es reicht nicht aus ein Mailrelay und die dazugehörigen Logindaten einzutragen, sondern man muss explizit sagen, daß die Logindaten auch genutzt werden müssen, hätte ich als logische Schlussfolgerung angesehen.

ciao
Lothar

@Gea: ist denn mit einer Portierung von napp-it auf FreeBSD zu rechnen?
Irgendwie scheint das Projekt ZFS-Guru im Sande zu verlaufen (Version 0.1.9 von November 9th, 2011)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh