Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Hi,
ich möchte einen Datenträger eines mirrored Root-Pool tauschen. Wie mache ich das? geht das mit zpool replace old new?
oder funktioniert das hier auch mit einem mirrored pool: ZFS: Tips and Tricks - Proxmox VE
?
Prinzipiell sind OmniOS und OpenIndiana Distributionen die auf einem aktuellen Illumos aufbauen.
Bis auf LX sind die Unterschiede gering, beide enthalten z.B. USB3 Unterstützung das erst gerade in Illumos erschienen ist.
zu OmniOS
Die 151022 LTS soll noch im Mai kommen.
Zur künftigen Entwickling ist noch einiges offen. OmniTi möchte sich aber weiter beteiligen und gibt den Namen OmniOS frei. Auch sollen die Repositories weiter bei OmniTi gehostet werden. Alternativ habe ich bereits einen Repository Mirror aufgesetzt.
Da OmniOS bei kommerziellen Nutzern neben NexentaStor verbreitet ist, gibt es auch bereits ein Funding Projekt um Geld für professionellen Support zu sammeln. Das ist ja das Besondere an OmniOS. Ich hoffe das diese professionelle Option mit festem Personal bleibt.
Wenn man keinen bezahlten Support braucht, kann man OmniOS problemfrei nutzen. Bugfixes wird es ziemlich sicher geben. Sterben wird es eher nicht. Große Eigenentwicklungen wie LX Container wird es wohl eher weniger geben. Für eine endgültige Entscheidung OI vs OmniOS hat man sicher noch ein Jahr Zeit. Im Moment is OmniOS als Produktions-Server die bessere Wahl.
Jede Distribution/ OS handhabt das eventuell anders.
Die sicherste Option wäre, die Mirrorplatte per zpool detach pool platte zu entfernen und die neue Platte als Bootmirror hinzuzufügen. Das aktualisiert auch eventuell nötige Anpassungen im Bootbereich.
Da OmniOS bei kommerziellen Nutzern neben NexentaStor verbreitet ist, gibt es auch bereits ein Funding Projekt um Geld für professionellen Support zu sammeln. Das ist ja das Besondere an OmniOS. Ich hoffe das diese professionelle Option mit festem Personal bleibt.
@gea, ich nehme an, dass du dich mit dem Funding auf die Anregung von Tobias Ötiker beziehst. Leider scheinen sich da aber nicht sehr Viele bis jetzt beteiligen zu wollen, denn bis jetzt kommen wir gerade mal auf $53420 im Jahr. Das wird nicht reichen - um Dan und Dale bezahlen zu können.
So wie ich das sehe, sind da eher massive Managementfehler gemacht worden und Robert hat als CEO offensichtlich viel zu spät reagiert. Jetzt ist das Geld ausgegangen und es ist zu spät noch was zu retten. Und was macht der Ami - einfach Laden dicht und weg.Für den Voll-Support gab es jedoch einfach zu wenige die das bezahlen wollten.
Wenn ich lese, dass die beiden zusammen so um die $500.000 bis $600.000 verdienen, da muss ich mich schon fragen -- gehts noch.Wie es genau mit Dan und Dale, den Support Software Ingenieuren für OmniOS bei OmniTi weitergeht ist ja auch noch offen. Wenn die ein entsprechendes Angebot für eine Festanstellung wo auch immer erhalten, sind die eh weg. Auch sind 50k USD/ Jahr Zusagen in einer internen schnellen Umfrage gar nicht so wenig. Das sind ja nur ganz wenige Nutzer und davon gibt es deutlich mehr. OmniOS ist letzlich die führende freie Solaris Distribution bei professionellen Nutzern. Das bisherige Preisgefüge stimmte aber auch nicht. Es muss billiger werden, dafür kann der Leistungsumfang geringer ausfallen. Der Pflegeaufwand für die stable Repositories selbst ist ja auch bei weitem nicht so hoch wie etwa bei OpenIndiana da die ja die gesamte Desktopsoftware mitpflegen. Die OS Entwicklung läuft ja ohnehin woanders (Illumos).
@ MrDeluxe
Napp-it gibt es in einer Basisversion für Debian. Die sollte auch unter Proxmox laufen.
Den Umfang der Solarisversion wird die Linuxversion aber wohl nie erhalten zumal ich selber ausschliesslich Solarish Storage-Installationen einsetze oder betreue.
@gea: Es ging vielmehr darum, OmniOS inkl. Napp-it als VM unter Proxmox einzurichten als Storage-VM, wie eben bei der ESXi-AiO Lösung.
Was mich interessiert: ich nutze aktuell proxmox mit zfs RAID 1 und ein RAIDz1. Würde napp it mir irgendwelche Vorteile bringen?
Bei Appliance Map kann doch in den Eigenschaften eine Info hinterlegt werden. Wie ist es möglich, dass diese Info in der Map auch angezeigt wird?
@gea, besteht noch die Möglichkeit, dass in dieser Map außer "sas_slot" auch noch "vdev" angezeigt wird? Bei einem Mirror-Pool ist diese ergänzende Info sehr hilfreich.
Die Frontansicht einer 2,5" Platte ist zu klein um alles immer anzuzeigen.
Wenn man allerdings mit der Maus über den Platten-Hersteller geht, wird alles eingeblendet.
Slots
Slot 01.00.02 c3t5d0 c3t5d0 WDC WD1500HLFS-0 WDWX61C80J7478 150 GB
ONLINE rpool mirror-0 S:0 H:41 T:0 139.7 GiB
Smart: 28 °C Smart health, selftest, type: PASSED without error sat,12
Slot 01.00.03 c3t4d0 c3t4d0 WDC WD1500HLFS-0 WDWXC0CA9P2111 150 GB
ONLINE rpool mirror-0 S:0 H:0 T:0 139.7 GiB
Smart: 29 °C Smart health, selftest, type: PASSED without error sat,12
Dies ist die Bootdisk
Slot 01.01.00 c1:e1:s4 c1t5000CCA249CAE42Ad0 HGST HDN724040AL PK2338P4GSYRVC 4 TB
AVAIL b2 spares S:0 H:0 T:0 3.6 TiB
Smart: 32 °C Smart health, selftest, type: PASSED -- sat,12
id part partcap diskcap identify stat state pool vdev error vendor product sn
c3t5000CCA23DCCC6BCd0 (!parted) 4 TB via dd ok ONLINE pool_aio mirror-0 S:0 H:0 T:5 ATA HGST HDS724040AL
c3t5000CCA23DCD21A4d0 (!parted) 4 TB via dd ok ONLINE pool_aio mirror-0 S:0 H:1 T:47 ATA HGST HDS724040AL
c3t5000CCA23DCD25A1d0 (!parted) 4 TB via dd ok ONLINE pool_aio mirror-0 S:0 H:0 T:0 ATA HGST HDS724040AL