[Sammelthread] ZFS Stammtisch

Warum nicht einfach Proxmox und ZFSonLinux? Dann musst du den Fileserver-Teil nicht virtualisieren und hast alle Features von Promox. Mache ich auch so, alles verschlüsselt, auch die Bootpartition.
In dem VMs musst du auch kein Ext4 benutzen, kannst hier genauso ZFSonLinux verwenden.
https://www.google.de/search?hl=de&q=zfsonlinux+root
Die Bootpartition kann man auch mit ZFS machen, würde ich aber wegen des Aufwands und des äußerst geringem Nutzen unterlassen. Dort ist eh nur der Kernel drauf, der wird entweder vollständig geladen oder nicht. ;)

Und wenn du kein ZFSonLinux verwendest sehe ich für FreeBSD keinen wirklichen Vorteil, die Performance ist nicht besser, die Softwareauswahl geringer usw.
Dann verwende lieber gleich OmniOS, da hast du auch den Solaris SMB-Server der Samba überlegen ist.

Genau unter Proxmox brauche ich das, nur passt alles irgendwie nicht so recht zusammen wie ichs gerne hätte :)
ZFSonLINUX unter Proxmox wäre ja ok, wenns denn nur eine nette GUI dafür gäbe, so in der Art von Nas4Free für Linux, dass ich ZFS und die ganzen User + Freigaben für SMB/AFP/NFS/Time-Machine/etc. damit verwalten könnte, händisch über Konsole ist mir das echt alles zu aufwendig. Also war der Gedanke an eine All-in-One Lösung ala GEA nur eben auf Proxmox Basis, was ja auch soweit funktioniert. Nur hab ich da noch keine ideale Backup-Strategie dazu entwickeln können. Denn nehmen wir mal ich benutze All-in-One: Proxmox ist dann die Basis, die erste VM ist z.B. Nas4Free der ich den Controller samt Festpallten durchreiche, worauf ich einen Pool erstelle und darunter ein Dataset für restlichen Proxmox VM's, das ich dann per NFS zurück an Proxmox gebe. Somit liefen dann die weiteren Proxmox-VM's auf einem ZFS-Datastore, soweit so gut. Das Backup von Proxmox ist ja auch auch ganz easy realisierbar, z.B. mit zwei USB Platten, die eine in der einen Nacht, die andere in der anderen Nacht usw., einen Cronjob dazu und Proxmox macht den Rest. Doch hier hab ich dann zwei Probleme, denn erstens hab ich da ja dann in jeder Nacht riesige Datenmengen die gesichert werden, denn Proxmox kennt nur Voll-Backups und zweitens wären da ja noch die restlichen Daten, die in einem zweiten Dataset liegen würden und von denen Proxmox ja nix weiss, denn diese werden ja direkt von Nas4Free verwaltet und per SMB/AFP/NFS/Time-Machine/etc. freigegeben. Diese müsste ich dann in einem zweiten Backup Schritt irgendwo separat wegsichern. Idealerweise wäre natürlich auch noch, wenn man die Sanpshot Funktion von ZFS für ein paar Snapshots untertags Tag nützen könnte, dann könnte man auch die VM's mit Snapshotten. Doch dann muss die ganze Backup Sache über N4F laufen und da komm ich irgendwie auch nicht weiter zum Thema Backup. Irgendwie gibt es tausend Möglichkeiten aber bei jeder find ich einen anderen Haken :shake:

Nachtrag:
Deshalb war zwischendurch auch mal die Überlegung, dass auf dem eigentlichen Nas4Free (das die Platten direkt hat) dann nur ein Dataset existiert und zwar das, das die VM's an Proxmox beinhaltet und man noch einen zweiten virtuellen File-Server mit Nas4Free(zfs) oder eben mit Openmediavault(ext4) für die restlichen Daten benutzt, dessen virtuelle Platte ja dann auch auf dem Datastore liegen würde (deshalb die Frage: http://www.hardwareluxx.de/community/f101/zfs-stammtisch-570052-151.html#post20909310). Somit könnte man dann die komplette Backup Sache über Proxmox laufen lassen, nur eben mit dem Problem der langen Bakup-Laufzeiten in der Nacht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist man mit der ZFS-Scrub-"Selbstheilfunktion" zwingend auf ein lokales Backup/Raidz angewiesen, oder kann sich ZFS-Scrub die benötigten heilen Daten auch von einem (vordefinierten) anderen Server automatisch nachladen?

Mein Dank im Voraus. ;-)
 
Zuletzt bearbeitet:
Disclaimer vorweg: No harsh feelings. Verstehe das ganze nicht falsch, ich sage dir nur wie ich das sehe, ohne Höflichkeitsfilter und Umschreibungen, fühle dich bitte nicht persönlich angegriffen. Bitte keinen Flamewar, Danke.

Oder man könnte ganz einfach ZoL installieren und die VMs via Localstorage, NFS oder iSCSI direkt vom Host-System beliefern and be done with it.

Ernsthaft: Geh weg von den ganzen Webmenüs. Wenn irgendetwas Probleme machst musst du sowieso die Shell nutzen. Und Zeit sparen tust du kein bisschen. Du betreibst mehr Aufwand irgendwelche extra Betriebssysteme einzurichten als mal ein paar Minuten die Konsole zu benutzen. Vorteil dabei ist: Du lernst sogar was und bleibst nicht auf dem Dau-Level hängen. Denn genau dazu führen solche GUIs: Das du gar nicht weißt was dort überhaupt passiert, du wirst dumm gehalten und es wohl auch für immer bleiben.
Du hast doch auch angefangen dir irgendwann mal den Hintern nach dem Geschäft selbstständig abzuwischen, ohne das Mommy (Nas4free) oder Daddy (napp-it) zur Hilfe eilen.

Du willst einen viel komplizierteren, fehleranfälligen und inperformanteren Aufbau machen als eigentlich nötig.
Es ist ein Klacks ZoL unter Proxmox zu installieren, es gibt schließlich fertige Pakete. Das einzige was dich davon abhält ist Faulheit/mangeldes Wissen/Mut/Kompetenz/insert $reason...

Dieser ganze "Virtueller Storage-Server mit ZFS" nutzen die meisten Leute (nicht alle) hier doch nur weil sie sich auf VMWare eingeschossen haben anstatt mal etwas offener zu sein und SmartOS oder Proxmox zu nutzen und ESXi keinen vernünftigen Storage bereitstellen kann. Wenn man aber schon Proxmox nutzt, wozu dann so eine solche Verkomplizierung? Selbes würde für SmartOS gelten. Da würde für den doch auch kein Mensch auf die Idee kommen anstatt die Festplatten direkt lokal mit SmartOS anzusprechen dass noch mal in eine extra VM auszulagern. Okay, außer es handelt sich um irgendwelche HA-Szenarien, aber das ist hier nicht wirklich das Thema.

SmartOS hat allerdings auch kein Webinterface, alles rein Konsole. Es gibt ein kostenloses Webinterface in der Entwicklung, aber dass ist noch weit entfernt vom Wort "Enterprise ready" und noch viel weiter vom Funktionsumfang von Proxmox.
Project FiFo

Klar sind Webinterfaces Klasse, ich nutze auch gerne eine GUI wenn es dadurch bequemer geht ohne Arbeitsgeschwindigkeit zu verlieren. Aber erst mal sollte man Wissen was diese Software überhaupt für einen erledigt bevor man sie verwendet.

Ich habe es schon öfter mit erleben müssen dass so genannte "Profis" extra SFTP und einen Desktop-Editor aufmachen um einen Wert in einer Config zu ändern anstatt vi/nano/... zu nutzen. Oder eine neue MySQL-Datenbank anlegen wollen und dafür erst mal phpMyAdmin installieren müssen weil sie einfachste SQL-Befehle nicht beherrschen. Oder nicht dazu in der Lage sind einen Apache vhost anzulegen und dafür erst mal Webmin installieren. Einfach lächerlich.

Nicht umsonst müssen Schulanfänger Mathematik im Kopf mit Stift und Papier lernen und nicht mit einem Taschenrechner. Denk mal intensiv über diese Sache nach: Warum ist das so? Was würde passieren wenn Schulanfänger keine echte Mathematik mehr lernen würden weil sie ja einen Computer/Taschenrechner für so etwas verwenden könnten?

Train hard, go pro.
 
Zuletzt bearbeitet:
Nachtrag:
Deshalb war zwischendurch auch mal die Überlegung, dass auf dem eigentlichen Nas4Free (das die Platten direkt hat) dann nur ein Dataset existiert und zwar das, das die VM's an Proxmox beinhaltet und man noch einen zweiten virtuellen File-Server mit Nas4Free(zfs) oder eben mit Openmediavault(ext4) für die restlichen Daten benutzt, dessen virtuelle Platte ja dann auch auf dem Datastore liegen würde (deshalb die Frage: http://www.hardwareluxx.de/community/f101/zfs-stammtisch-570052-151.html#post20909310). Somit könnte man dann die komplette Backup Sache über Proxmox laufen lassen, nur eben mit dem Problem der langen Bakup-Laufzeiten in der Nacht.

Also Controller in eine VM, ein ZFS dataset auf die Platten, exportieren, da drauf noch eine VM, wieder exportieren und da dann die "Nutzdaten"? Was soll das bringen? Das einzige was du machst, ist Daten unnötig kapseln und den Zugriff noch verlangsamen. Ob die Daten in der ersten VM jetzt als Disk exportiert werden oder direkt per NFS/SMB, ist eigtl egal, aber ich hege den Grundsatz "unnötige Kapselung wenn möglich vermeiden", also würde ich z.B. nie Storage für Nutzdaten per iSCSI oder als komplette Disk exportieren, wenn NFS/SMB auch geht.

Wie schon gesagt wurde, ist der Sinn von NAS-VMs - zumindest bei mir - der, Storage ohne eine separate Kiste bereitzustellen, weil in meinem Fall ESXi selbst kein ZFS hat. Es ist ein Notbehelf, eine Krücke. Das will man doch nicht freiwillig noch eine Ebene weiter treiben.
 
Ist man mit der ZFS-Scrub-"Selbstheilfunktion" zwingend auf ein lokales Backup/Raidz angewiesen, oder kann sich ZFS-Scrub die benötigten heilen Daten auch von einem (vordefinierten) anderen Server automatisch nachladen?

Mein Dank im Voraus. ;-)

Scrub ist kein Dateiwiederherstellen aus einem Backup.
Scrub prüft im Hintergrund und online mit geringer Priorität die Prüfsummen der Datenblöcke aller Dateien im Pool. Wird ein Fehler entdeckt, so wird der Datenblock repariert, sofern der Pool Daten-Redundanz bietet (Copies=2, Mirror, Raid-Z), andernfalls gibt es eine Fehlermeldung (Datei xyz defekt, dann brauchts ein Backup).

Das passiert auch bei jedem Lesen (da verwendet man dann eher den Begriff selbstheilend)
Da niemand einen ZFS Pool ohne Redundanz betreiben sollte, ist das Restore aus Backup eher der seltene Disasterfall. Dann muss in der Regel alles aus einem Backup wiederhergestellt werden. Daher immer ausreichend Datenredundanz durch entsprechendes Pool-Layout bereitstellen.

Ein Hardware Raid bietet diese Selbstheilfunktion übrigens nicht. Da werden Püfsummenfehler zwar festgestellt, können aber nicht repariert werden.
 
Disclaimer vorweg: No harsh feelings. Verstehe das ganze nicht falsch, ich sage dir nur wie ich das sehe, ohne Höflichkeitsfilter und Umschreibungen, fühle dich bitte nicht persönlich angegriffen. Bitte keinen Flamewar, Danke.

Oder man könnte ganz einfach ZoL installieren.....



-> alles soweit bekannt, danke :).
Die Konole ist mir auch echt nicht fremd, ich nutze sie täglich. Ich wollte eben den Host so "clean" wie möglich halten, dass er im Bedarfsfall fix wieder neu aufgesetzt ist ohne große Konfig. Die ganzen Freigaben von Hand zu verwalten möchte ich sicherlich auch nicht, obwohl ich es tatsächlich könnte. Im übrigen weiss ich auch nicht, warum grundsätzlich immer davon ausgegangen wird, dass wenn einer eine GUI benutzen will, er von der Materie keine Ahnung hat oder keine Lust hat sich einzuarbeiten!? Ich spalte mein Ofenholz mit einem hydraulischen Holzspalter - Wieso? - Weils einfacher und schneller geht als von Hand, obwohl ich das auch könnte :p

Ok, zurück zum Thema. Ich bin eigentlich auch eher für die einfacheren Wege. Ich nutze Proxmox nun schon ein paar Jahre und finde es einfach genial. Bisher hatte ich auch noch keine Probleme mit meinen Daten unter Linux ext3/ext4, das habe ich schon jahrelang bei mir und bei Kunden im Einsatz, in der Regel im Raid-1 Verbund. Doch vor ein paar Monaten lief mir dann mal ZFS über den Weg und ich fands auf Anhieb genial, was da alles möglich ist und das auch noch mit einer extremen Sicherheit. Nun war eben die Überlegung, das ganze mit Proxmox zu verknüpfen und da teste ich eben seit ein paar Wochen alles Mögliche (sinnige und unsinnige inbegriffen) aus.

Wie ist denn das bei Proxmox eigentlich wenn beim Update ein neuer Kernel eingespielt wird, muss ich dann ZoL immer reinstallieren oder geht das auch wie hier beschrieben ZFS on Linux automatisch übers repository?


Thema Backup:
Wie macht Ihr denn das bei Euch? Sichert immer Ihr alles komplett weg oder arbeitet Ihr mit ZFS-Send/Receive (inkrementell)?
 
@ gea:
Vielen Dank für Deine ausführliche Erklärung. ;-)

Ich muß trotzdem noch einmal nachfragen:
Scrub kann also nur poolintern, und nicht poolübergreifend (anderer ZFS-Server per VPN), automatisch reparieren?

Hintergund:
Bei mehreren (angestrebten) synchronen Familienservern würde ich nach Möglichkeit jeweils nur ein Raid-Z1 laufen lassen, und auf einen expliziten Mirror zugunsten der Raid-Z1-Größe verzichten wollen. Nur soll meine Freizeit durch permanente manuelle Eingriffe meinerseits auch nicht leiden müssen. ;-)
Daher mein Interesse, ob Scrub (im Falle von zerstörten Dateiteilen auf 2hdds des Raid-Z1) diese automatisch von einem der anderen Server nachladen würde. Die anderen Server wären dann quasi der Mirror.
 
Zuletzt bearbeitet:
Ich hab mir einen kleinen encrypted Pool mit lofi gemacht.
Jetzt würde ich gerne routinemässig die Passphrase ändern - finde aber bei lofiadm keinen passenden Befehl dazu.

Ist Dies nicht möglich oder hab ich was übersehen?
 
Hi,

eventuell hat ja jemand ne idee, wie ich folgendes Problem lösen kann:

Ich habe unter nas4free - sprich FreeBSD einen zpool angelegt mit 4 Platten in einem Raid-z1. Jetzt bin ich auf Debian 7 umgestiegen und die Performance, die vorher locker das g/bit lan ausgelastet hat, ist total eingebrochen.

Ich habe Transferraten von 20-30mb/s und io wait von 60-70. Importiere ich nun den Pool wieder in FreeBSD habe ich sofort wieder die alte Performance. Ebenso wenn ich einen neuen Pool under Debian mit anderen Platten anlege ist die Performance top.

Jemand eine Idee was ich machen kann? Ich würde ungerne den Pool neu aufsetzen ...
 
Thema Backup:
Wie macht Ihr denn das bei Euch? Sichert immer Ihr alles komplett weg oder arbeitet Ihr mit ZFS-Send/Receive (inkrementell)?

Also generell wenn ich ZFS Pools migriere auf neue Systeme nehme ich ZFS send receive damit gibt es die volle Geschwindigkeit. Zum normalen Backup via eSATA und einen zweiten Storage im Netzwerk nutze ich rsync.

Code:
rsync -av --progress --protocol=29 --delete --human-readable /mnt/storage/backup/ /mnt/backup/backup

Damit z.B. sichere auf eine einzele HDD (Hotswap eSATA) von meinem ZFS Pool immer zu 100% synchron. Ansonsten ZFS snapshots und mit ZFS send receive inkrementell.
 
@ gea:
Vielen Dank für Deine ausführliche Erklärung. ;-)

Ich muß trotzdem noch einmal nachfragen:
Scrub kann also nur poolintern, und nicht poolübergreifend (anderer ZFS-Server per VPN), automatisch reparieren?

Nein, geht nicht. Scrub ist Poolintern.
"Die quasi Mirrors auf anderen Rechnern", das ist ein Backup

---------- Post added at 19:08 ---------- Previous post was at 19:06 ----------

Ich hab mir einen kleinen encrypted Pool mit lofi gemacht.
Jetzt würde ich gerne routinemässig die Passphrase ändern - finde aber bei lofiadm keinen passenden Befehl dazu.

Ist Dies nicht möglich oder hab ich was übersehen?

Ich denke, das geht nicht.
Die Passphrase ist ja kein Zugangskennwort sondern der Schlüssel mit dem alle Daten verschlüsselt sind. Den zu ändern bedeutet alle Daten neu verschlüsseln - also neuen, anders verschlüsselten Pool anlegen und umkopieren.
 
[...]
Dieser ganze "Virtueller Storage-Server mit ZFS" nutzen die meisten Leute (nicht alle) hier doch nur weil sie sich auf VMWare eingeschossen haben anstatt mal etwas offener zu sein und SmartOS oder Proxmox zu nutzen und ESXi keinen vernünftigen Storage bereitstellen kann. Wenn man aber schon Proxmox nutzt, wozu dann so eine solche Verkomplizierung? [...]


+1 ...mein "Virtueller Storage Server mit ZFS" auf ESXi Basis geht auch bald den Weg des Dodo. ESXi ist PITA..insbesondere wenn man ein Windoof braucht um es zu verwalten.
Proxmox an sich mit Web-UI ist schon ziemlich gut...pcipassthrough mit vt-d Hardware geht da übrigens auch (aber nicht per GUI ;)...also auch hier wäre so ein Konzept möglich)

..und seit knapp 12h gibt es für den remote UI-Tunnel zur VM nun auch SPICE support (im pvetest-repo): SPICE for Proxmox VE (pvetest)
 
+1 ...mein "Virtueller Storage Server mit ZFS" auf ESXi Basis geht auch bald den Weg des Dodo. ESXi ist PITA..insbesondere wenn man ein Windoof braucht um es zu verwalten.
Proxmox an sich mit Web-UI ist schon ziemlich gut...pcipassthrough mit vt-d Hardware geht da übrigens auch (aber nicht per GUI ;)...also auch hier wäre so ein Konzept möglich)

..und seit knapp 12h gibt es für den remote UI-Tunnel zur VM nun auch SPICE support (im pvetest-repo): SPICE for Proxmox VE (pvetest)

Du sagst, ESXi sei PITA und lieferst direkt im Anschluss 2 Argumente für ESXi. Basteln tu ich an den VMs, aber dafür brauche ich eine solide Basis, die einfach läuft und nicht noch mit Gefrickel nervt.
 
Das ist so nicht richtig. Der PCI-Passthrough von dem er spricht ist kein Gefrickel, sondern eine ganz normales Feature von KVM. Es ist einfach nicht im Webmenü von Proxmox enthalten, genau so wie etliche andere Features von KVM. Nur weil es nicht in der GUI ist, heißt es nicht dass es Gefrickel wäre oder sonst irgendetwas. Irgendwann wird es auch im Webmenü enthalten sein. Bis dahin muss man es ganz normal per Konsole machen, so würde man es ohne Proxmox auch machen.

Und eigentlich muss man dazu auch nur Konfigurations-Dateien um ein paar Zeilen erweitern bzw. anpassen, mehr ist das nicht. Für jeden der schon mal KVM ganz normal benutzt hat ist das nichts neues.

Man muss einmalig die Grub-Config anpassen, je nach Intel- oder AMD-System trägt man etwas anderes ein. Danach trägt man noch die PCI-Geräte-ID (lspci) der Karte die man durch reichen will in die Config des Nodes, fertig. Dauert zwei Minuten.

Der andere Punkt ist die Integration von SPICE. SPICE ist ein Technology-Preview für Proxmox 3.1, eine Testversion, aktuell ist Proxmox 3.0. Die offizielle Ankündigung kam erst vor 13 Stunden.
http://pve.proxmox.com/wiki/SPICE
SPICE (Simple Protocol for Independent Computing Environments) is an open remote computing solution built for virtual environments which allows users to view a computing "desktop" environment. The integrating of Spice into Proxmox VE provides a solution for interaction with virtualized desktop devices, like keyboard, mouse, audio and video. Interaction between front-end and back-end is done using Virtual Device Interfaces (VDI).

Spice achieves a user experience similar to an interaction with a local machine, while trying to offload most of the intensive CPU and GPU tasks to the client. Spice is suitable for both LAN and WAN usage, without compromising on the user experience.

Using Spice on Proxmox VE is easy and secure. It is integrated in the cluster environment, the user- and authentication system - and of cource, all traffic is fully encrypted.

Proxmox VE 3.1 will introduce Spice as a technology preview. For now, its available via our pvetest repository (Package_repositories).

Bald also auch VDI in Proxmox, VMWare zittert bestimmt schon! :fresse:

Wird auch von Red Hat in ihren Virtualisierungslösungen eingesetzt.
http://de.redhat.com/resourcelibrary/articles/rhev-desktops-spice

http://spice-space.org/
 
Zuletzt bearbeitet:
Scrub ist kein Dateiwiederherstellen aus einem Backup.
Scrub prüft im Hintergrund und online mit geringer Priorität die Prüfsummen der Datenblöcke aller Dateien im Pool. Wird ein Fehler entdeckt, so wird der Datenblock repariert, sofern der Pool Daten-Redundanz bietet (Copies=2, Mirror, Raid-Z), andernfalls gibt es eine Fehlermeldung (Datei xyz defekt, dann brauchts ein Backup).

Was passiert denn mit den so als defekt erkannten Dateien (wenn sie nicht repariert werden können)? Werden diese direkt gelöscht oder in ein besonderes Verzeichnis verschoben?
Ist das bei Multimedia Dateien nicht eher suboptimal, eine 40GB Datei zu löschen wegen einem fehlerhaften bit?

Stehe vor dem Problem dass ich gerne meine mp3 Sammlung auf dem Server haben will sowie auch owncloud, wegen Kalender, Kontakten etc.

Nur wäre es dumm dass deswegen direkt der ganze pool aus 3 3TB Platten hochgefahren wird, brauchen ja auch nicht grad wenig Strom. Daher meine Idee einfach einen zweiten RaidZ1/mirror Pool zu machen aus beispielsweise 2 oder 3 Usb Sticks. Ist das ganze emfehlenswert?

Grund ist primär das Stromsparen
 
Zuletzt bearbeitet:
Was passiert denn mit den so als defekt erkannten Dateien (wenn sie nicht repariert werden können)? Werden diese direkt gelöscht oder in ein besonderes Verzeichnis verschoben?
Ist das bei Multimedia Dateien nicht eher suboptimal, eine 40GB Datei zu löschen wegen einem fehlerhaften bit?

Du musst von der Idee weg, ZFS hätte primär was mit Dateien zu tun. ZFS kann auch zvol genannte Blockdevices bereitstellen für iSCSI. Bei allem, was ZFS macht (compression, checksum, dedup) geht es um _Blöcke_. Wenn ein Block kaputt ist, gibts einen Fehler ans OS. Andere Blöcke sind davon nicht betroffen, d.h. du könntest eine kaputte Datei mit dd if=alt of=neu conv=noerror umkopieren, wobei die defekten Blöcke mit NULL gefüllt würden. Beim direkten Zugriff übers Netz kommts halt drauf an, wie z.B. Samba mit Fehlern umgeht.
 
...danke an GrafikTreiber für die prompte Ergänzung und Unterstützung. ;)

Du sagst, ESXi sei PITA und lieferst direkt im Anschluss 2 Argumente für ESXi. Basteln tu ich an den VMs, aber dafür brauche ich eine solide Basis, die einfach läuft und nicht noch mit Gefrickel nervt.

...für mich ist es gefrickel, wenn ich erst ein Windoof booten (oder gar erstmal suchen) muss um irgendwas an der VM einzustellen. Nen Webbrowser oder ein ssh habe ich immer dabei.
Meinen KVM Host muss ich übrigens im Gegensatz zu ESXi auch nicht durchbooten wenn ich eine PCI Karte fürs passthrough vorbereiten will.

ESXi habe ich nur genutzt, weil ich bis dato keine Alternative hatte (passthrough für ein all-in-one und ZFS mit Encryption nur auf Solaris VM).
Nun ist KVM soweit und endlich ZoL auch....für mich und meine Anforderungen wird es einfacher und ich freue mich das offene Alternativen aufholen.

XenServer 6.2 ist nun auch offen...mal sehen ob das auch eine Alternative wird.
 
Naja, KVM hat meiner Meinung nach Xen bereits seit ein paar Jahren überholt, wenn wir jetzt nur mal die reinen Hypervisor vergleichen, ohne die Management-Lösungen (Proxmox, Red Hat EV, XenServer...) die nicht mal "so eben" miteinander vergleichen kann.

Das XenServer jetzt plötzlich offen ist hat einen Grund: Citrix laufen die Kunden weg. Denn Hyper-V hat mächtig aufgeholt und ist mittlerweile sogar quasi kostenlos, KVM hat Xen bei den Linux-Lösungen überholt, VMWare bleibt wohl noch der Branchen-Primus. Nicht zu vergessen der ganze "Cloud Kram" ala OpenStack, CloudStack, Eucalyptus... usw.
 
Zuletzt bearbeitet:
Mediatomb unter OI/OMNI, da sehe ich drei Möglichkeiten:

- warten bis Chris ein Update anbietet (auch ab und zu hier im Forum)
- selber das Installationsscript von Chris anpassen und bei Erfolg posten
- eine eigene Installation vornehmen

Ich würde gerne Updates für Mediatomb anbieten, doch leider entwickle ich den Mediaserver nicht selbst. Die neueste Version (0.12.1) ist vom 08.04.2010. Hier wird also so schnell nichts mehr passieren. Das Programm ist allerdings so flexibel, dass man sehr viele, auch neuere, Geräte zum Laufen bekommt. Das Install-Skript an sich hat verschiedene Versionen, da ich es angepasst und Bugs im Skript an sich behoben hatte.
Wenn hier jemand Hilfe braucht oder etwas nicht funktioniert einfach einen Post dazu machen oder mir eine PM schicken...
 
Zuletzt bearbeitet:
Gibt es für Mediatomb keinen adäquaten Ersatz? Ich denke nicht dass es sonderlich sinnvoll ist sich für eine Software die seit mehr als 3 Jahren kein Update mehr erhalten hat eine solche Mühe zu machen.

Große Neuigkeiten: Das beliebte Norcotek/Inter-Tech Gehäuse in einer verbesserten Variante von Ri-Vier, nun auch mit SGPIO!
Norco RPC-4224 (aka Inter-Tech IPC 4U-4324L) Post #315
 
Zuletzt bearbeitet:
Hi GrafikTreiber,

ich muss noch mal nachhaken:

Wie ist denn das bei Proxmox eigentlich wenn beim Update ein neuer Kernel eingespielt wird, muss ich dann ZoL immer reinstallieren oder geht das auch wie hier beschrieben ZFS on Linux automatisch übers repository?
 
Wenn du die offiziellen Packages von ZFS on Linux verwendest geht alles automatisch mittels DKMS, keine Handarbeit erforderlich.

Wikipedia.de -DKMS:
DKMS steht für Dynamic Kernel Module Support. Das 2003 von Dell entwickelte Framework für Linux überwacht, ob zusätzliche Kernelmodule manuell installiert wurden, und aktualisiert die Module immer dann, wenn ein neuer/aktualisierter Kernel installiert wird. So muss die Neuinstallation der Module nicht manuell durchgeführt werden, wenn der Kernel aktualisiert wurde.
 
Gibt es für Mediatomb keinen adäquaten Ersatz? Ich denke nicht dass es sonderlich sinnvoll ist sich für eine Software die seit mehr als 3 Jahren kein Update mehr erhalten hat eine solche Mühe zu machen.

Große Neuigkeiten: Das beliebte Norcotek/Inter-Tech Gehäuse in einer verbesserten Variante von Ri-Vier, nun auch mit SGPIO!
Norco RPC-4224 (aka Inter-Tech IPC 4U-4324L) Post #315

Ich habe lange nach einem geeigneten DLNA-Server gesucht, der unter Illumos lauffähig ist. Leider erfüllt lediglich Mediatomb meine Ansprüche. Hier ist besonders schön, dass die Datenbank komfortabel zu verwalten ist (Webseite) und man nicht an Medien-Formate gebunden ist (man kann jedes Format "mappen"). Außerdem gibt es eine gute Skripting-Engine zum Kategorisieren der Dateinen ind er Datenbank.
Ich kann nur sagen, dass der Server gut läuft und sich für mich keine Anlässe finden lassen, das Paket zu verändern. Klar kann man die Website "hübscher" machen... geht aber auch indem man die Web-Komponente manuell umstrickt...
 
Wenn du die offiziellen Packages von ZFS on Linux verwendest geht alles automatisch mittels DKMS, keine Handarbeit erforderlich.

ich habs gestern Abend mal probiert, man benötigt bei Proxmox noch die Kernel-Sourcen, weil das ja ein spezieller Kernel ist. Hab die Anleitung dazu im Proxmox-WIKI gefunden ZFS - Proxmox VE, da steht dann auch wie man bei einem Proxmox-Kernel-Update vorgehen muss (vor dem Reboot die neuen Kernel-Sourcen noch nachladen). Es hat soweit auch alles geklappt und ich konnte einen vorhandenen Pool ohne Probleme importieren. Was allerdings recht unschön ist: Um Virtuelle Maschinen von Proxmox direkt auf ZFS zu legen, muss man die Cache Einstellung der virtuellen Platte auf "Write Back" setzen, da sich die VM sonst nicht starten lässt (steht auch so im WIKI). Das ist doch aber dann recht unsicher, oder?
 
Bekomme ständig irgendwelche Fehler beim installieren und/oder starten von OmniOS. Kann das an dem USB Stick liegen wenn dieser zu langsam ist? Defekt ist er jedenfalls nicht und mit 16GB auch ausreichend groß
 
Um Virtuelle Maschinen von Proxmox direkt auf ZFS zu legen, muss man die Cache Einstellung der virtuellen Platte auf "Write Back" setzen, da sich die VM sonst nicht starten lässt (steht auch so im WIKI). Das ist doch aber dann recht unsicher, oder?
Naja.
ibm.com - Best practice: KVM guest caching modes
writeback

With caching set to writeback mode, both the host page cache and the disk write cache are enabled for the guest. Because of this, the I/O performance for applications running in the guest is good, but the data is not protected in a power failure. As a result, this caching mode is recommended only for temporary data where potential data loss is not a concern.
Überleg dir einfach mal ob du im Stromausfall lieber EXT oder ZFS hast.

Für den Produktiveinsatz sollte ein Server sowieso immer an eine USV hängen, unabhängig von Dateisystem.
Mein Fileserver zu Hause hängt auch an einer USV. Stromausfälle haben wir hier zwar vielleicht nur alle 2-3 Jahre mal, aber die USV als eine Art zusätzlichen Überspannungsschutz zu den Steckerleisten ist dann doch ganz praktisch, sollte doch mal ein Blitz in der Nähe einschlagen.
Wenn man keinen Diesel-Generator hat sollte man den Server so konfigurieren dass er umgehend herunter fährt sobald die USV meldet dass die Stromversorgung ausgefallen ist.
 
Zuletzt bearbeitet:
Bekomme ständig irgendwelche Fehler beim installieren und/oder starten von OmniOS. Kann das an dem USB Stick liegen wenn dieser zu langsam ist? Defekt ist er jedenfalls nicht und mit 16GB auch ausreichend groß

irgendwelche Fehler???
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh