[Sammelthread] ZFS Stammtisch

jetzt bitte nicht lachen:
wo bitte ist "top" (oder lieber noch "htop") bei nexentacore?

und gibt es eine möglichkeit eine usb usv zu konfigurieren?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jetzt bitte nicht lachen:
wo bitte ist "top" (oder lieber noch "htop") bei nexentacore?

eventuell:
prstat -a

wobei OpenIndiana top kennt


Info: NexentaCore 3 auf Basis von OpenSolaris 134 ist End of Live!
Illumos soll künftig eine gemeinsame OS-Basis für NexentaStor und OpenIndiana pflegen.
Nexenta liefert dann nur noch die NexentaStor - Distribution und OpenIndiana eine weitere.
Beide haben dann die gleiche Core-Basis. (-> Illumos Project iCore)

https://www.illumos.org/projects/icore
http://nexenta.org/projects/consolidation
 
Zuletzt bearbeitet:
momentan bin ich mit der NCP3 am anfreunden, weil mir auc die möglichkeit gefällt bei der installation gleich für den syspool ein mirror zu machen. hatte ich bei OI und SOL11 nicht gesehen als option.
gibt es denn eine möglichkeit die aktuellen paket als offline bundle runterzuladen, damit ich NCP3 auf 3.1 ohne internet upgraden kann? diese option würde ich auch gerne mit napp-it machen können, also ohne inet installieren können. gibt es da einen weg, alle benötigten pakete an einem stück zu bekommen?
 
...weil mir auc die möglichkeit gefällt bei der installation gleich für den syspool ein mirror zu machen. hatte ich bei OI und SOL11 nicht gesehen als option.
...diese option würde ich auch gerne mit napp-it machen können, also ohne inet installieren können. gibt es da einen weg, alle benötigten pakete an einem stück zu bekommen?


rpool mirror ist bei Sol11Exp während der Installation nicht möglich; danach sehr wohl:

Managing Your ZFS Root Pool - Oracle Solaris ZFS Administration Guide


Schau Dir das napp-it script an und lade alles hinter einem "wget http//..." auf einen lokalen webserver und ändere im script auf diese lokale URL.
 
rpool mirror ist bei Sol11Exp während der Installation nicht möglich; danach sehr wohl:

Managing Your ZFS Root Pool - Oracle Solaris ZFS Administration Guide


Schau Dir das napp-it script an und lade alles hinter einem "wget http//..." auf einen lokalen webserver und ändere im script auf diese lokale URL.

Offline Update ist nicht wirklich möglich.
napp-it selber ist zwar copy and run und kein Problem, alles andere
wird aber online geladen und teilweise erst compiliert.

Ich glaube auch nicht, dass es noch ein NexentaCore 3.1 als Installer
geben wird. Ich vermute, dass Nexenta alle zum Wechsel auf NexentaStor CE 3.1
bewegen will. Ich würde entweder auf NexentaStor oder OpenIndiana wechseln.

Oder aber warten bis NexentaStor 4 da ist (gleiche Basis wie OpenIndiana-> Illumos Core)
Jetzt noch Aufwand treiben wegen NexentaCore 3.1 lohnt eigentlich nicht.
 
Zuletzt bearbeitet:
das mit dem offline update vergesse ich mal wieder. ;)

ich wollte das mit dem rpool mirror erweitern in einer vm mal testen und bekomme aber nur einen i/o fehler.

liegt das an der vm?
 

Anhänge

  • rpoolattach.jpg
    rpoolattach.jpg
    106,1 KB · Aufrufe: 85
die "anleitung" auf der oracle seite ist leider nicht vollständig. um das zpool attach "rpool" erfolgreich durchzuführen musste bei mir die zielplatte vorher mit format richtig vorbereitet sein, sonst habe ich nur I/O Error beim aufruf bekommen. zusätzlich brauchte ich noch ein "-f" beim attach.

also ungefähr so:
1. mit format/fdisk auf der ziel platte eine partition erstellen
2. mit format/partition den slice0 erstellen und konfigurieren (SMI)



rpool mirror ist bei Sol11Exp während der Installation nicht möglich; danach sehr wohl:

Managing Your ZFS Root Pool - Oracle Solaris ZFS Administration Guide
 
die "anleitung" auf der oracle seite ist leider nicht vollständig. um das zpool attach "rpool" erfolgreich durchzuführen musste bei mir die zielplatte vorher mit format richtig vorbereitet sein, sonst habe ich nur I/O Error beim aufruf bekommen. zusätzlich brauchte ich noch ein "-f" beim attach.

also ungefähr so:
1. mit format/fdisk auf der ziel platte eine partition erstellen
2. mit format/partition den slice0 erstellen und konfigurieren (SMI)

Ich hatte das vor langer Zeit auch mal nach einer Anleitung gemacht, finde nur den Bookmark nicht mehr.
Erster Schritt war aber auch soweit ich mich erinnere, dass Partitionslayout der ersten Platte 1:1 auf die neue zu übertragen, so wie du es gemacht hast.
Nach dem Resilvering musste noch der Bootloader (grub) auf die Platte geschrieben werden, damit man bei Ausfall der ersten auch von der neuen booten kann.

Bookmark wiedergefunden: ZFS Root Pool Mirroring
 
Zuletzt bearbeitet:
man kann nur ZFS sync/async einstellen. NFS benutzt dann die gewählte Einstellung.

Es geht im Grunde um Sicherheit, dass etwas auf der Platte gespeichert
ist und nicht in irgendeinem RAM-Cache beim Stromausfall verlorengeht:

z.B. Eine Programm schreibt syncron mit sync=on, dass 1 Million Euro auf dein Konto
überwiesen wurde. Das OS bestätigt den Schreibvorgang und der Strom fällt aus:
-> Die Transaktion ist auf Platte gespeichert, du hast die Million.

Eine davon unabhängige Transaktion überweist daraufhin 800.000 Euro von deinem
Konto auf ein anderes Konto: du hast 200.000,-- Euro Gewinn aus diesem Geschäft.

Bei sync=disabled bestätigt das OS zwar die Schreibaktion, tatsächlich wird es aber
nur gesammelt und mit anderen Schreibaktionen unter Umständen erst 30s später
tatsächlich auf Platte geschrieben. Im Falle eines Stromausfalls meint das Programm
dass die Überweisung ausgeführt wurde (wg gewünschtem syncronen Schreiben),
dein Konto ist aber leer!

Die andere Transaktion überweist trotzdem die 800.000,-- Euro !!!

Dafür geht alles viel schneller, sofern nicht gerade im falschen Moment der Strom ausfällt.
(Bei all-in-one nicht ganz so dramatisch, da dann auch das schreibende Programm mit ausfällt)
Es kommt halt auf die Anwendung an ob schnell oder sicher gewünscht ist.

(Es geht beides bei ZFS mit genügend Geld, z.B. mit SSD oder einem Batterie gepuffertem RAM Schreib-Cache)

Hallo gea,

danke für die ausführliche Erklärung!

Grüße Ghandalf
 
Es geht um Geas "all-in-one" ZFS auf einem VMWare ESXi Server.

Ich würde gerne folgendes realisieren:

ESXi5 bei dem der SATA Controller per VMDirectpath an eine VM mit OI151A durchgereicht ist. Soweit ja ganz normal.

Die Besonderheit soll sein das die OI151A VM von einem anderen NFS Server gestartet werden soll.

Nun frage ich mich was passiert wenn dieser andere NFS Server ausfällt bzw. ob man diesen nur kurz für den Start des eigentlichen all-in-ons System laufen läßt. Geht dann die OI151A VM gleich hops oder kann die erstmal gestartet auch alleim im RAM überleben?

Wenn das noch nicht klappt wäre es dann möglich das OI151A so zu konfigurieren das es ähnliche die CD/DVD Linux Livesystem funktioniert und eben nichts auf den Startort zurückschreibt? Also am besten seine Einstellungen etc. auf einen USB Stick sichert?

EH! Meine Frage ist doch total spannend oder etwa nicht!?
 
Zuletzt bearbeitet:
Hallo Ihr,

ich habe 2 Fragen dazu, wie ZFS die Daten auf den einzelnen vdev verteilt.
Angenommen ich habe ein Pool aus einigen Mirrors zusammengesetzt und mehrere Clients schreiben auf den Pool. Werden die Daten weil es gerade passt auf ein vdev geschrieben oder splittet er die Datenströme auf verschiedene Mirrors, was natürlich dafür sorgen würde, das der eine den anderen nicht ausbremst.
Was passiert wenn ein vdev ausfällt, weil beide Platten defekt sind? Ist dann der gesamte Pool hinüber oder nur die Daten verloren, welches sich auf diesen Devices befanden?

Gruß Millenniumpilot
 
Die Daten werden immer gleichmäßig auf alle Mirrors verteilt, deshalb ergibt sich auch bei nachträglichem Einfügen eines Mirrors durch COW nach einiger Zeit eine gleichmäßige Verteilung aller Daten. Bei Ausfall eines kompletten Mirrors sind allerdings alle Daten futsch.

Gruß
Ronny
 
Hallo Ronny,

vielen Dank.
Und wie ist es beim gleichzeiten Schreiben zweier Datenströme? Verteilt er die Daten auf unterschiedliche vdev um ein Ausbremsen zu vermeiden? Eventuell habe ich da ja auch einen Denkfehler.

Gruß Millenniumpilot
 
Es werden alle Daten blockweise auf alle vdevs verteilt und nicht ein Datenstrom auf den einen und ein zweiter Datenstrom auf den anderen Mirror geschrieben. Es ist ja gerade der Vorteil vom ZFS, dass alle IOs auf die vdevs verteilt werden, so kann Performance und Speicherplatz, die von einem ZFS-Filesystem nicht genutzt werden, einem anderen zur Verfügung gestellt werden.
 
Nabend, ich les ja schon seit ner Weile auch hier mit und nachdem ich mir die Tage auch mal diesen Vortrag zum Thema ZFS angesehen habe plane ich nun meinen Backupserver mit ZFS zu nutzen.

Im Moment bereitet mir allerdings der SATA Controller Probleme. Ich habe zwar hier einen Beitrag gefunden, wie man den verbauten SIL 3114 so flashen kann, dass auch Solaris basierende Systeme damit klar kommen, aber leider scheint das mit den onboard Controllern nicht zu klappen sondern nur mit Steckkarten... sprich es muss ein neuer Controller her (müsste es eh, denn 4 Anschlüsse sind mir zu wenig)

Hab jetzt in der Bucht was günstiges gefunden *klick* allerdings weiß ich nicht wie es da mit Treiberunterstützung so aussieht. Gibts vielleicht sonst noch Empfehlungen von Controllern die unterstützt werden?

Hier noch ein paar Infos zum System: Verbaut ist im Moment ein Rioworks HDAMA mit zwei Dual-Core Opterons und 4GB RAM. 80er OS Platte mit OpenIndiana und 6x 2TB Datenplatten. Leider hat das Board nur PCI und PCI-X Slots und im Moment soll da auch erstmal nix neues rein.

Und bevor jemand fragt, ja ich weiß das die Kiste nicht unbedingt die schnellste und energieeffizienteste ist, aber für die tägliche Datensicherung des Racks reichts :fresse:
 
Nabend, ich les ja schon seit ner Weile auch hier mit und nachdem ich mir die Tage auch mal diesen Vortrag zum Thema ZFS angesehen habe plane ich nun meinen Backupserver mit ZFS zu nutzen.

Im Moment bereitet mir allerdings der SATA Controller Probleme. Ich habe zwar hier einen Beitrag gefunden, wie man den verbauten SIL 3114 so flashen kann, dass auch Solaris basierende Systeme damit klar kommen, aber leider scheint das mit den onboard Controllern nicht zu klappen sondern nur mit Steckkarten... sprich es muss ein neuer Controller her (müsste es eh, denn 4 Anschlüsse sind mir zu wenig)

Hab jetzt in der Bucht was günstiges gefunden *klick* allerdings weiß ich nicht wie es da mit Treiberunterstützung so aussieht. Gibts vielleicht sonst noch Empfehlungen von Controllern die unterstützt werden?

Hier noch ein paar Infos zum System: Verbaut ist im Moment ein Rioworks HDAMA mit zwei Dual-Core Opterons und 4GB RAM. 80er OS Platte mit OpenIndiana und 6x 2TB Datenplatten. Leider hat das Board nur PCI und PCI-X Slots und im Moment soll da auch erstmal nix neues rein.

Und bevor jemand fragt, ja ich weiß das die Kiste nicht unbedingt die schnellste und energieeffizienteste ist, aber für die tägliche Datensicherung des Racks reichts :fresse:

SuperMicro AOC-SAT2-MV8
wurde von Sun verbaut und läuft problemlos
- bis auf die fehlende hotplug Unterstützung und max 2 TB Platten.

dennoch: wenn PCI-X dann den oder keinen!
(und auf keinen Fall Hardware Raid-5 controller)



---------- Beitrag hinzugefügt um 22:26 ---------- Vorheriger Beitrag war um 22:23 ----------

Es geht um Geas "all-in-one" ZFS auf einem VMWare ESXi Server.

Ich würde gerne folgendes realisieren:

ESXi5 bei dem der SATA Controller per VMDirectpath an eine VM mit OI151A durchgereicht ist. Soweit ja ganz normal.

Die Besonderheit soll sein das die OI151A VM von einem anderen NFS Server gestartet werden soll.

Nun frage ich mich was passiert wenn dieser andere NFS Server ausfällt bzw. ob man diesen nur kurz für den Start des eigentlichen all-in-ons System laufen läßt. Geht dann die OI151A VM gleich hops oder kann die erstmal gestartet auch alleim im RAM überleben?

Wenn das noch nicht klappt wäre es dann möglich das OI151A so zu konfigurieren das es ähnliche die CD/DVD Linux Livesystem funktioniert und eben nichts auf den Startort zurückschreibt? Also am besten seine Einstellungen etc. auf einen USB Stick sichert?

EH! Meine Frage ist doch total spannend oder etwa nicht!?

ich hatte mal einen Ausfall der OI Platte.
OI lief noch eine Weile und hing dann.

Meine Meinung.
keep it simple, stupid
 
Zuletzt bearbeitet:
ich hatte mal einen Ausfall der OI Platte.
OI lief noch eine Weile und hing dann.

Meine Meinung.
keep it simple, stupid
Das würde ich gerne aber das würde bedeuten das ich mir doch einen extras 8x Sata Controller kaufen muß.

Mein ESXi 4.1 verliert alle paar Tage die Verbindung zum virtuellen NFS Server OI151A. Da dieses Verhalten leider auf einem zweiten identischen System ebenfalls auftritt ist es kein Zufall sondern bedeutet das entweder ein KOnfigurationsproblem vorliegt oder mein VMDirectPath des onBoard Sata Controllers nicht so richtig rund läuft. Oder im schlimmsten Fall das VMDirectPath mit dem Board gar nicht richtig läuft und ich die Idee ganz begraben kann. Was bitter wäre da ich bereits 4 Stück davon gekauft habe (für mich und andere).

Meine Hoffnung ist das es mit ESXi5 vielleicht besser läuft. Da es aber für den ESXi5 bisher keine zusätzlichen Treiber gibt habe ich das Problem das ich die OI 151A VM nicht starten kann wenn ich den onBoard Controller per VMDirectPath durchreiche. Daher die Idee mit einem externen NFS Server nur fürs starten der OI151A VM...

Die Alternative wäre also mit einen PCIe 8x Sata Controller zu kaufen. Das würde aber Kosten in Höhe von ca. 100 € (pro Board!!!!, also x 4) bedeuten die so nicht geplant waren.

Und im schlimmsten Fall kommt dann raus das auch mit dem zusätzlichen SATA Controller das VMDirectPath nicht rund läuft und die Probleme weiterhin auftreten.

Daher würde ich das ganze gerne erstmal mit dem ESXi 5 und dem onBoard SATA Controller weiterprobieren. Nur da besteht wie gesagt das Problem WIE die OI151A VM starten. Zusätzlicher 2x SATA Controller wird nur solange vom ESXi 5 erkannt wie der onBoard Controller NICHT auf VMDirectPath eingestellt wird. ALso irgendeine Abhängigkeit :grrr:
onBoard PATA Controller von dem die OI 151A beim ESXi 4.1 startet geht nicht weil es keine Treiber für den ESXi5 gibt. Starten vom USB Stick einer VM geht auch nicht.

ALso bleibt ja nur start von einem anderen NFS Server. Zumindest zum testen ob es mit dem ESXi5 besser läuft. Wenn ja dann muß ich weiterüberlegen.

Wenn nicht tja was dann? Dann habe ich 4 Systeme mit XX lokalen Platten die für ein All-In-One System geplant waren das so nicht funktioniert. Direkt unterm ESXi4 oder 5 kann ich die Platten nur einzeln nutzen was wenig sinnvoll und auch noch langsam ist.

Ich müßte dann wohl dieses RDM System nutzen bei dem die lokalen Platten ohne VMDirectPath an eine VM durchgereicht werden. Damit kenne ich mich aber auch nicht aus und weis nicht wie das gemacht wird und wie kompliziert das ist. Und wie viel schlechter/langsamer etc. das ist.
 
Zuletzt bearbeitet:
Hallo gea,

am 9.11.11 um 19:00 Uhr unserer Zeit wird in New York die finale Version von Oracle Solaris 11 vorgestellt. Ich war am Freitag auf einer DOAG Veranstaltung und dort hat der Produktmanager die neue Version vorgestellt. Oracle hat sich scheinbar vom Sys V Packaging verabschiedet und alles komplett umgebaut. Wirst Du in Zukunft napp-it auf dieser Platform unterstützen? Bei der Early Adaptor Version kann ich napp-it ja schon nicht mehr installieren. Mich interessiert das insbesondere, da ich beruflich einen kommerziellen Einsatz erwäge, natürlich mit entsprechender finanzieller Unterstützung Deines Projektes.


SuPeMoLe
 
Das würde ich gerne aber das würde bedeuten das ich mir doch einen extras 8x Sata Controller kaufen muß.

Mein ESXi 4.1 verliert alle paar Tage die Verbindung zum virtuellen NFS Server OI151A. Da dieses Verhalten leider auf einem zweiten identischen System ebenfalls auftritt ist es kein Zufall sondern bedeutet das entweder ein KOnfigurationsproblem vorliegt oder mein VMDirectPath des onBoard Sata Controllers nicht so richtig rund läuft. Oder im schlimmsten Fall das VMDirectPath mit dem Board gar nicht richtig läuft und ich die Idee ganz begraben kann. Was bitter wäre da ich bereits 4 Stück davon gekauft habe (für mich und andere).

Meine Hoffnung ist das es mit ESXi5 vielleicht besser läuft. Da es aber für den ESXi5 bisher keine zusätzlichen Treiber gibt habe ich das Problem das ich die OI 151A VM nicht starten kann wenn ich den onBoard Controller per VMDirectPath durchreiche. Daher die Idee mit einem externen NFS Server nur fürs starten der OI151A VM...

Die Alternative wäre also mit einen PCIe 8x Sata Controller zu kaufen. Das würde aber Kosten in Höhe von ca. 100 € (pro Board!!!!, also x 4) bedeuten die so nicht geplant waren.

Und im schlimmsten Fall kommt dann raus das auch mit dem zusätzlichen SATA Controller das VMDirectPath nicht rund läuft und die Probleme weiterhin auftreten.

Daher würde ich das ganze gerne erstmal mit dem ESXi 5 und dem onBoard SATA Controller weiterprobieren. Nur da besteht wie gesagt das Problem WIE die OI151A VM starten. Zusätzlicher 2x SATA Controller wird nur solange vom ESXi 5 erkannt wie der onBoard Controller NICHT auf VMDirectPath eingestellt wird. ALso irgendeine Abhängigkeit :grrr:
onBoard PATA Controller von dem die OI 151A beim ESXi 4.1 startet geht nicht weil es keine Treiber für den ESXi5 gibt. Starten vom USB Stick einer VM geht auch nicht.

ALso bleibt ja nur start von einem anderen NFS Server. Zumindest zum testen ob es mit dem ESXi5 besser läuft. Wenn ja dann muß ich weiterüberlegen.

Wenn nicht tja was dann? Dann habe ich 4 Systeme mit XX lokalen Platten die für ein All-In-One System geplant waren das so nicht funktioniert. Direkt unterm ESXi4 oder 5 kann ich die Platten nur einzeln nutzen was wenig sinnvoll und auch noch langsam ist.

Ich müßte dann wohl dieses RDM System nutzen bei dem die lokalen Platten ohne VMDirectPath an eine VM durchgereicht werden. Damit kenne ich mich aber auch nicht aus und weis nicht wie das gemacht wird und wie kompliziert das ist. Und wie viel schlechter/langsamer etc. das ist.


was ich probieren würde:
- nur eine vcpu für OpenIndiana
- falls vmxnet3 Treiber: stattdessen e1000 installieren
- ESXi 5 statt 4

Mainboard: Bios update

RDM gilt auf jeden Fall als problematisch
Ansosten ESXi und SAN ganz traditionell als zwei Maschinen-
man braucht halt zwei Server und verliert die ultraschnelle interne
Verbindung der beiden (bis zu 10 Gbit in Software).

---------- Beitrag hinzugefügt um 13:46 ---------- Vorheriger Beitrag war um 13:42 ----------

Hallo gea,

am 9.11.11 um 19:00 Uhr unserer Zeit wird in New York die finale Version von Oracle Solaris 11 vorgestellt. Ich war am Freitag auf einer DOAG Veranstaltung und dort hat der Produktmanager die neue Version vorgestellt. Oracle hat sich scheinbar vom Sys V Packaging verabschiedet und alles komplett umgebaut. Wirst Du in Zukunft napp-it auf dieser Platform unterstützen? Bei der Early Adaptor Version kann ich napp-it ja schon nicht mehr installieren. Mich interessiert das insbesondere, da ich beruflich einen kommerziellen Einsatz erwäge, natürlich mit entsprechender finanzieller Unterstützung Deines Projektes.


SuPeMoLe


Ich habe Solaris 11 EA auch kurz probiert. Ich warte aber zunächst auf die
finale Version. Die möchte ich dann schon unterstützen. Ich weiß aber noch nicht
welchen Aufwand es bedeuted (=bis wann).

napp-it selber dürfte kein Problem sein (braucht nur irgendeinen Webserver + perl).
Die sonstigen tools muss ich sehen.
 
Mein ESXi 4.1 verliert alle paar Tage die Verbindung zum virtuellen NFS Server OI151A.

hast du mal nen gegentest mit solaris express 11 und/oder nexentacore 3 gemacht, ob das dann auch auftritt?
bei mir hat sich oi151a auf esxi "etwas anders" verhalten, im gegensatz zu den beiden anderen.
speziell bei einer installation wollte der nfs server garnicht starten ... sehr seltsam, deswegen bin ich von oi151a erstmal weg.
 
was ich probieren würde:
- nur eine vcpu für OpenIndiana
- falls vmxnet3 Treiber: stattdessen e1000 installieren
Ich probiere nur mit dem e1000 aber das wars wohl nicht. Mit der einen vCPU werd ich auch mal ausprobieren.
Da bleibt die Frage wie ich die OI151A VM gestartet bekomme. Das Henne-Ei Problem.

Testweise habe ich in den ESXi5 jetzt mal den NFS Server eines zweiten all-in-ones der noch mit ESXi 4.1 läuft eingebunden. Nur um mal zu testen ob der ESXi 5 was psositives bringt.

Erste Erfahrungen: Am VMDirectPath scheint auf jeden Fall was verbessert worden zu sein. Ich kann das daher sehen das ein NEC/Renesas USB3 onBoard Controller der vorher unter ESXi4.1 per VMDirectPath in der VM gar nicht zu starten war nun immerhin keine Ausrufezeichen mehr im Gerätemanager hat. Funktionieren tut er aber immer noch nicht :) Eine USB HDD wird im Sekundentakt erkannt und wieder nicht erkannt. Schade aber das kommt ja hoffentlich mit ESXi5.1
Mainboard: Bios update
Das kann ich mal probieren. Wobei es auch immer sein kann das ein neues BIOS bei so einer speziellen Funktion schlechter sein kann als ein altes.
RDM gilt auf jeden Fall als problematisch
Ansosten ESXi und SAN ganz traditionell als zwei Maschinen-
man braucht halt zwei Server und verliert die ultraschnelle interne
Verbindung der beiden (bis zu 10 Gbit in Software)..

Tja das ist natürlich auch eine Möglichkeit die ich aber möglichst vermeiden möchte. Der Stromverbrauch einer Kiste ist ja im Mittel mit 120 Watt (gemessen) schon recht hoch. Im Winter habe ich immerhin den Trost das ich die Abwärme dank Lüftungsanlage mit WRG nutzen kann :)
 
...Oracle hat sich scheinbar vom Sys V Packaging verabschiedet und alles komplett umgebaut. Wirst Du in Zukunft napp-it auf dieser Platform unterstützen? Bei der Early Adaptor Version kann ich napp-it ja schon nicht mehr installieren...


Mit OpenSolaris und Solaris 11 Express ist IPS doch bereits eingesetz, natürlich im Gegensatz zu Solaris 10. Was scheiterte genau auf Solaris 11 EA?
 
hättet ihr vorschläge für einen "stresstest" für einen all-in-one-napp-it unter esxi 4.1?
simuliert werden sollten 5x vm:
2x fileserver (ca. 20 user, word/excel, kleinkram)
1x dbserver (mysql, 20 user)
1x mailserver (hmailserver, 20 user)
1x anwendungsserver (host zur aufbereitung&konvertierung gescanner dateien)
 
Irgendwie komme ich mit der SMB Userberechtigung absolut nicht klar. Ich habe bisher den OI in eine Domäne gehoben und dann hat auch alles geklappt. Es gibt nur einen gravierenden Mangel: Sobald die OI VM mal neustartet ist "natürlich" der Domänencontroller noch nicht da da dieser ja erst danach gestartet werden kann. Das hat den Effekt das die Authentifizierung solange nicht funktioniert bis ich per Napp-it den OI erst auf Workgroup umgestellt habe und dann wieder auf Domäne zurück. Ich kann aber kein System laufen lassen bei dem im Fehlerfall solange alles steht bis ich manuell eingegriffen habe.

Komisch das nur ich diesen, doch recht gravierenden Bug, bemerke. Aber die Kombination OpenIndiana - All-In-One - Windows-Domäne ist wohl doch zu selten.

Wie dem auch sei. Daher würde ich gerne die "primitive" normale SMB Berechtigung nutzen. Nur will das ums verrecken nicht funktionieren. Vielleicht stelle ich mich auch einfach nur blöd an?

Ich habe im Nappuit ein paar SMB user (identisch zu den Usern die in Windows existieren) erzeugt. Ich melde mich von einen Windows PC am OI SMB an mittels user root. Dann mache ich die Eigenschaften eines Ordners auf dem OI auf und gehe in die Rubrik "Sicherheit" und dann will ich die User die ich im Nappit angelegt habe berechtigen.

Nur werden diese immer nicht gefunden. Suchpfade steht auf dem namen des OI. Aber den kann man ja dort nicht umändern.

Ich glaub ich brauche eine Anleitung für ganz Doofe.

Am liebsten wäre mir natürlich der Fehler mit der Domänenanmeldung wäre behebbar...
 
Zuletzt bearbeitet:
Hallo Wirkopf,

über das Problem bin ich auch schon gestolpert, daher werde ich den DC als zweite Maschine neben dem OI auf dem local datatstore des ESXi legen. Was anderes fällt mir nicht ein. Gestartet wird dann halt erst der DC, dann der OI.

Gruß Millenniumpilot
 
Irgendwie komme ich mit der SMB Userberechtigung absolut nicht klar. Ich habe bisher den OI in eine Domäne gehoben und dann hat auch alles geklappt. Es gibt nur einen gravierenden Mangel: Sobald die OI VM mal neustartet ist "natürlich" der Domänencontroller noch nicht da da dieser ja erst danach gestartet werden kann. Das hat den Effekt das die Authentifizierung solange nicht funktioniert bis ich per Napp-it den OI erst auf Workgroup umgestellt habe und dann wieder auf Domäne zurück. Ich kann aber kein System laufen lassen bei dem im Fehlerfall solange alles steht bis ich manuell eingegriffen habe.

Komisch das nur ich diesen, doch recht gravierenden Bug, bemerke. Aber die Kombination OpenIndiana - All-In-One - Windows-Domäne ist wohl doch zu selten.

Das ist kein bug sondern ein Henne-Ei Problem.
Ich habe dazu den Anmelde-AD auf einem zweiten all-in-one.
Die Alternative ist den AD Server von einem lokalen datastore als erste VM zu starten.
Oder eben alles Hochfahren und auf OI den SMB Dienst neu starten falls die AD Anmeldung
nach einer Wartezeit immer noch nicht klappt.


Wie dem auch sei. Daher würde ich gerne die "primitive" normale SMB Berechtigung nutzen. Nur will das ums verrecken nicht funktionieren. Vielleicht stelle ich mich auch einfach nur blöd an?

Ich habe im Nappuit ein paar SMB user (identisch zu den Usern die in Windows existieren) erzeugt. Ich melde mich von einen Windows PC am OI SMB an mittels user root. Dann mache ich die Eigenschaften eines Ordners auf dem OI auf und gehe in die Rubrik "Sicherheit" und dann will ich die User die ich im Nappit angelegt habe berechtigen.

Nur werden diese immer nicht gefunden. Suchpfade steht auf dem namen des OI. Aber den kann man ja dort nicht umändern.

Das ist wirklich ein ärgerliches Problem mit diversen Windows Versionen und den nicht angezeigten Usern
und auch der Grund warum ich angefangen habe die acl-extension für Solaris zu schreiben.
(noch nicht ganz fertig, man kann aber bereits user-Rechte auf shares setzen, siehe menü extensions).

Lokale user accounts gehen (ich hatte da aber auch schon Probleme) zusätzlich zu Domänen-accounts
 
Das ist kein bug sondern ein Henne-Ei Problem.
Ich habe dazu den Anmelde-AD auf einem zweiten all-in-one.
"Keep it simple" ist das aber nicht... nicht simpler als z. B. die OI151A VM von dem zweiten All-in-One zu starten...

Diese Problematik sollte auf jeden Fall in Deiner Anleitung erwähnt werden.
Die Alternative ist den AD Server von einem lokalen datastore als erste VM zu starten.
An die diese Lösung habe ich auch schon gedacht aber schön ist daa nicht. Ausserdem habe ich bei meinem neusten Versuch mit dem ESXi5 gar keinen lokalen Speicher mehr. Die OI VM startet von einem zweiten NFS Server. Da möchte ich nur ungern auch noch den DC drauf legen.

Eine Idee ist auch einen zweiten DC von der lokalen Platte zu starten und den primären (soweit es das bei Server 2008 noch gibt) von OI SAN.
Oder eben alles Hochfahren und auf OI den SMB Dienst neu starten falls die AD Anmeldung nach einer Wartezeit immer noch nicht klappt.
Kann man das Automatisieren? Am besten wäre natürlich wenn das OI151A merken würde wenn der DC bereit ist.

Vielleicht wäre es möglich diesen Befehl direktt als Autostart Befehlt vom DC senden zu lassen? Mann kann ja den Service auch über die WebGui von Nappit-It neustarten. Also sollte das doch auch von Aussen per Webaufruf machbar sein...?

Ich versteh aber auch nicht so ganz warum nur beim Start des SMB Service das vorhandensein des DC abgefragt wird. Der ESXi z. B. fragt seine Speicher auch in regelmäßigen Intervallen ab und wenn da was nicht beim Start vorhanden ist aber später zur Verfügung steht bekommt der das nach einer kurzen Weile selber mit. Sowas hatte ich eigentlich auch von Solaris erwartet...
 
Zuletzt bearbeitet:
ich seh das postitiv

Mac, Linux, Windows, Solaris, egal
Computer sind dumm wie Brot und sichern meinen Arbeitsplatz

es kann nur besser werden,
leider wird es meist mit jedem Release nur anders :cool:
 
gea;17723592Mac schrieb:
Computer (und deren mehr oder weniger intelligente Benutzer) sichern auch meinen Arbeitsplatz.

Und wenn sich diese problemtik am Arbeitsplatz stellen würde dann wärs mir auch ziemlich egal :cool:

Aber leider gehts es um meinen Homekrempel und wenn da in meiner Abwesenheit die EDV streikt und die ArbeitsVM meiner Frau nicht mehr auf unsere Daten kommt dann bekommt ich immer unangenehmeren Ärger (Du hast doch wieder gebastelt, lass doch mal endlich alles heil usw :)) als bei meiner Arbeit.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh