Tipps zu Homeserver Virtualisierung / Strukturierung

@gea: Nach der Zeit, die ich jetzt schon damit verbraten habe, Napp-it von dem QVA Template erstellen zu wollen, wäre es doch vermutlich auch genauso aufwendig gewesen, Napp-it from the scratch aus dem normalen ISO zu installieren, oder ist die Installation / Einrichtung so aufwendig?

Manuelle Installation geht auch recht einfach, siehe 3.
unter napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana, Solaris and Linux : Manual

- OmniOS iso herunterladen und auf Datastore legen
- neue VM (Solaris 11, 30GB) erstellen und von iso booten
- napp-it per wget installer installieren
- vmware tools instalieren
- TLS installieren
- Midnight Commander installieren

Dann hat man so ziemlich das Template.

Das Template bereitstellen geht aber normalerweise völlig problemfrei.
Eventuell ist das .ova korrupt, nochmal downloaden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Okay, dann mache ich jetzt kurzen Prozess und installiere vom ISO. Das sollte kein Problem sein. Dass das OVA Template defekt sein soll, mag ich nicht so recht glauben, in VMware Fusion habe ich daraus ja eine VM zum Starten gebracht.

Frage zur Plattengröße (30GB): ist das mit viel Puffer gerechnet? Mehr als einstelliger GB Bereich dürfte die Installation ja eigentlich nicht werden. Nur Interesse halber und vermutlich ist das eh der Max.wert und nicht zwingend die tatsächliche Größe nach der Installation, richtig? 6 bis 8 GB RAM reichen vorerst (verfügbar sind 16GB, aber der Rest braucht ja auch noch was :) )? Ein oder zwei Kerne (verfügbar sind vier, Xeon E3 1225v6)?

Edit: Ach, ich lese erst nochmal Eure Guides, da steht ja einiges drin. :)
 
Zuletzt bearbeitet:
zur Plattengröße

Einstelliger GB Bereich geht nicht.
Solaris, selbst in der minimalistischen Variante OmniOS ohne grafische Oberfläche und auf Storageanwendung konzipiert, ist ein vollwertiges 64Bit Unix Betriebssystem für den allgemeinen Unternehmenseinsatz, keine abgespeckte Minimaldistribution.

Ca 12-15 GB würde ich da als Minimum ansetzen. Hinzu kommt der Plattenplatz für Swap (RAM auslagern wenns mal eng wird) und Dump (Crash Protokolldatei). Beides braucht ca 2/3 des Ram, Planning for Swap Space - Oracle Solaris Administration: Devices and File Systems

Damit liegt man bei ca 20GB minimum. Dazu kommt ein nettes Feature in ZFS namens Bootenvironment. Das bedeutet dass man einen Systemstand einfrieren kann und beim Booten damit auf einen früheren Stand (vor letztem oder früherem Update oder bevor man alles zerschossen hat) zurückgehen kann. Das braucht natürlich Platz. Genau wie bei einem größeren Systemupdate wo zuerst mal zusätzlich das neue OS gespeichert werden muss.

Aktuell ist 30GB schon ein sinnvoller Wert für ein kleineres System, deutlich mehr bei viel RAM.

zum RAM
Solaris hat mit den geringsten RAM Bedarf für ein ZFS System und läuft ab 2GB stabil, hat dann aber keinen RAM für Schreib-/Lesecache. ZFS kann dann ohne SSD Pools arg langsam werden. Mit 4-6GB ist man aber schon gut dabei. Für ein Produktivsystem würde ich eher 16-32 GB RAM vorsehen, in bestimmten Anwendungsfällen mehr. Es macht halt schon einen Unterschied ob 10% aller Lesevorgönge oder 90% aus dem RAM bedient werden oder ob man ausreichend RAM für Schreibcache hat um aus vielen kleinen langsamen random Writes ein großes schnelles sequentielles Write zu machen.

..wobei mich schon interessieren würde warum das Template nicht läuft. Ich hatte noch kein Problem und dies ist die einzige Problemmeldung die ich bis dato erhalten habe.
 
Zuletzt bearbeitet:
Okay, hast mich überzeugt mit dem Plattenplatz :)

Bzgl. des Templates: Falls Du magst und Zeit hast, können wir heute (weiß nicht, wann ich nach Hause komme) oder eher morgen Abend mal gemeinsam auf die Fehlersuche gehen. Vielleicht mache ich vorher auch noch einmal meine ESXi Installation komplett platt. Ich hatte die ursprünglich mal auf der 500GB Platte, die ich aber für den Storage frei machen wollte. Also habe ich auf den Stick neu installiert und die zuvor gesicherte Konfiguration von der Installation auf der 500GB Platte eingespielt. Danach hatte ich etwas Trouble, die Partitionstabelle von der Platte zu löschen, weil die Platte scheinbar noch in den Tiefen der ESXi Konfiguration verankert war. Mir schwant, dass das möglicherweise mit den Problemen zu tun haben könnte...
 
Ich bräuchte nochmal Unterstützung. Ich möchte den Onboard SATA Controller meines Supermicro X11SSH-LN4F Boards durchreichen an die Napp-It VM. Unter Host => Verwalten => Hardware => PCI Geräte erscheint der Controller als Intel Sunrise Point-H AHCI Controller und wird dort als nicht Passthrough fähig angezeigt?! An dem Controller hängt derzeit eine Platte, die unter ESXi aber nicht eingebunden ist (kein Volume angelegt, Platte ist ungenutzt). Im Moment bootet ESXi vom USB Stick, die Napp-It VM liegt auf einem eingebundenen NFS Share. Im BIOS habe ich noch eine Option gefunden, wo man zwischen AHCI und RAID Modus wechseln kann. Muss ich da auf RAID Modus wechseln? Oder noch an einer anderen Stelle im BIOS was ändern?

Dann eine zweite Frage: Wie schon geschrieben startet ESXi von einem USB Stick. Ich habe immer wieder eigenartige Vorkommnisse wie: Beim Anlegen einer VM meldet ESXi, dass kein Netzwerkadapter vorhanden wäre, ESXi bootet nach Neustart des Servers nicht (kein Default Kernel Image vorhanden - habe dann ESXi als Upgrade erneut auf dem Stick installiert) usw. Ich habe den Eindruck, dass der USB Stick ggf. einen Schuss weg haben könnte, bin aber nicht sicher. Als ich den Stick für ESXi leer geräumt habe, habe ich ich zuvor einmal formatiert (keine Schnellformatierung) und dabei sind keine Fehler aufgetaucht. Hat jemand eine Idee, wie ich den USB Stick überprüfen kann oder kennt jemand die o.g. Phänomene?
 
Du musst auf die Shell vom ESXI und den Intel Sata-Controller in einer Datei am ESXI eintragen:

editieren: /etc/vmware/passthru.map
2 Zeilen anfügen (als Editor ist VI in ESXI enthalten, oder halt per SSH-Verbindung und anderem Editor:
# INTEL Sunrise Point-H AHCI Controller
8086 a102 d3d0 false


Du kannst vorher sichergehen und schauen, wo die PCI-Adressen/wie die Klassennummern sind:
lspci eingeben, es sollte dann in der Ausgabe sowas wie 0000:00:17.0 Mass storage controller: Intel Corporation Sunrise Point-H AHCI Controller stehen.

Dann lspci -n eingeben und die Zeile suchen, wo "0000:00:17.0" (bzw. die Nummer aus dem vorherigen Befehl steht. Das sollte dann in etwas so 0000:00:17.0 Class 0106: 8086:a102 aussehen.
Dort siehst Du dann die Adressen/Klassen, die auch oben in der 2. Zeile steht. ("#" ist ja nur ein Kommentar).

Wenn Du alles richtig gemacht hast, kannst Du den Sata Controller nach einem Reboot dann in der GUI per vt-d zum Durchreichen markieren. Wenn er auf AHCI steht, hab ich es so gemacht. Mit Einstellung RAID könnten ggf. die Adressen/Klassen andere sein. Aber RAID willst Du für ZFS eh nicht.

Achtung aber. Damit hast Du den Sata-Controller dem ESXI für Datastores entzogen. Du brauchst aber irgendwo einen für ESXI zugänglichen Datastore für die Storage-VM. Ein solcher Datastore kann dann z.B. ein weiterer Controller oder auch eine PCIe-NVME-SSD sein (nur PCIe, >keine< M.2 Sata, wenn der Port am Intel Sata hängt!!! Auf den kann ESXI ja nicht mehr zugreifen wenn durchgereicht).

Bei meinem X11SSH hab ich den SAS- und auch Sata-Controller durchgereicht (damit alle 16 Onboard-Ports in der Storage-VM verfügbar), als ESXI-Datastore für die Storage-VM dient eine NVME-SSD (Intel 900p :fresse2:. Die Storage-VM braucht nur sehr wenig Platz davon, der große Rest der 900p dient als Slog+L2Arc)
 
Zuletzt bearbeitet:
Bei meinem X11SSH hab ich den SAS- und auch Sata-Controller durchgereicht (damit alle 16 Onboard-Ports in der Storage-VM verfügbar), als ESXI-Datastore für die Storage-VM dient eine NVME-SSD (Intel 900p :fresse2:. Die Storage-VM braucht nur sehr wenig Platz davon, der große Rest der 900p dient als Slog+L2Arc)

Nur rein aus Interesse: Wenn die 900p nativ unter dem ESXi läuft (also nicht durchgereicht an die Storage-VM), wie kannst du sie dann in der Storage-VM als Slog/L2Arc verwenden?

PS:
Das Durchreichen des Onboard-SATA-Controllers läuft bei mir ebenfalls seit Monaten vollkommen problemlos. Ich habe "nur" das X11SSH-TF (kein SAS), aber ansonsten spiegelbildlich zum Setup von Trambahner (Samsung 960Pro als NVMe anstelle 900p)...
 
".vmdk", nicht ".vhd". Schliesslich samma ja bei ESXI, nicht Hyper-V. :cool:

Yep, genau so. Und die 900p ist schnell genug, dass ZFS davon massiv profitieren kann. Je nach Verwendungszweck. gea hat dazu ja auch Benches vor einiger Zeit gemacht. NFS kann da nun ruhig mit sync-writes laufen, juckt mich nicht mehr. :bigok:
Dank der schnellen Reads und Writes bereits bei QD1, niedrigsten Latenzen und hoher Endurance ist die 900p richtig genial für ZFS-Ergänzung, sofern das Nutzungsprofil halt was mit L2arc und Slog anfangen kann. Intel weiss schon, warum sie die größere 900p nicht als U.2 anbieten...

Btw, bei 6.5U1 und BSD in der Storage-VM ist die 900p nicht vt-d fähig. 6.7 hab ich hier als ISO, aber noch nicht getestet.
 
Zuletzt bearbeitet:
Danke für den Hinweis zum Slog/L2arc.

6.7 hab ich hier als ISO, aber noch nicht getestet.

Habe heute das Update auf 6.7 gemacht.
Das Durchreichen des SATA-Controllers (auf dem X11 SSH "Sunrise Point-H AHCI Controller") scheint nicht mehr zu funktionieren. In der passthru.map steht weiterhin der Eintrag:

8086 a102 d3d0 false

Leider ist das Gerät bei mir aber trotzdem bzgl. Passthrough als "nicht fähig" deklariert. Diverse Anpassungen an der esx.conf brachten leider auch keinen Erfolg. Da ich im Moment keine große Lust auf Hardware-Bastelei und Einbau meines SAS-Controllers habe, bin ich erstmal zurück auf die 6.5.
Falls es bei jemandem hier funktionieren sollte, bitte kurze Rückmeldung. Danke.
 
Danke für den Tipp, @Trambahner! Ich habe das inzwischen auch ausprobiert, allerdings ohne Erfolg. Die Adressen aus Deinem Beispiel passen sogar bei mir und ich habe die beiden Zeilen so übernommen und neu gestartet. Trotzdem steht dort weiterhin, dass Passthrough nicht möglich sei... Das deckt sich dann auch mit den Erfahrungen von @negotiator... :(

Hier mal die Ausgaben von lspci, lspci -n und ausschnittsweise die passthru.map. Hat noch jemand sachdienliche Hinweise / Ideen?

Code:
[root@localhost:~] lspci
0000:00:00.0 Bridge:   
0000:00:02.0 Display controller: Intel Corporation HD Graphics P630 
0000:00:13.0 Unclassified device: Intel Corporation Sunrise Point-H Integrated Sensor Hub 
0000:00:14.0 Serial bus controller: Intel Corporation Sunrise Point-H USB 3.0 xHCI Controller [vmhba32]
0000:00:14.2 Signal processing controller: Intel Corporation Sunrise Point-H Thermal subsystem 
0000:00:16.0 Communication controller: Intel Corporation Sunrise Point-H CSME HECI #1 
0000:00:16.1 Communication controller: Intel Corporation Sunrise Point-H CSME HECI #2 
[COLOR="#FF0000"]0000:00:17.0 Mass storage controller: Intel Corporation Sunrise Point-H AHCI Controller [vmhba0][/COLOR]
0000:00:1c.0 Bridge: Intel Corporation Sunrise Point-H PCI Express Root Port #1 [PCIe RP[0000:00:1c.0]]
0000:00:1c.1 Bridge: Intel Corporation Sunrise Point-H PCI Express Root Port #2 [PCIe RP[0000:00:1c.1]]
0000:00:1c.2 Bridge: Intel Corporation Sunrise Point-H PCI Express Root Port #3 [PCIe RP[0000:00:1c.2]]
0000:00:1c.3 Bridge: Intel Corporation Sunrise Point-H PCI Express Root Port #4 [PCIe RP[0000:00:1c.3]]
0000:00:1c.6 Bridge: Intel Corporation Sunrise Point-H PCI Express Root Port #7 [PCIe RP[0000:00:1c.6]]
0000:00:1f.0 Bridge: Intel Corporation Sunrise Point-H LPC Controller 
0000:00:1f.2 Memory controller: Intel Corporation Sunrise Point-H PMC 
0000:00:1f.4 Serial bus controller: Intel Corporation Sunrise Point-H SMBus 
0000:01:00.0 Network controller: Intel Corporation I210 Gigabit Network Connection [vmnic0]
0000:02:00.0 Network controller: Intel Corporation I210 Gigabit Network Connection [vmnic1]
0000:03:00.0 Network controller: Intel Corporation I210 Gigabit Network Connection [vmnic2]
0000:04:00.0 Network controller: Intel Corporation I210 Gigabit Network Connection [vmnic3]
0000:05:00.0 Bridge: ASPEED Technology, Inc. AST1150 PCI-to-PCI Bridge 
0000:06:00.0 Display controller: ASPEED Technology, Inc. ASPEED Graphics Family 

[root@localhost:~] lspci -n
0000:00:00.0 Class 0600: 8086:5918 
0000:00:02.0 Class 0380: 8086:591d 
0000:00:13.0 Class 0000: 8086:a135 
0000:00:14.0 Class 0c03: 8086:a12f [vmhba32]
0000:00:14.2 Class 1180: 8086:a131 
0000:00:16.0 Class 0780: 8086:a13a 
0000:00:16.1 Class 0780: 8086:a13b 
[COLOR="#FF0000"]0000:00:17.0 Class 0106: 8086:a102 [vmhba0][/COLOR]
0000:00:1c.0 Class 0604: 8086:a110 [PCIe RP[0000:00:1c.0]]
0000:00:1c.1 Class 0604: 8086:a111 [PCIe RP[0000:00:1c.1]]
0000:00:1c.2 Class 0604: 8086:a112 [PCIe RP[0000:00:1c.2]]
0000:00:1c.3 Class 0604: 8086:a113 [PCIe RP[0000:00:1c.3]]
0000:00:1c.6 Class 0604: 8086:a116 [PCIe RP[0000:00:1c.6]]
0000:00:1f.0 Class 0601: 8086:a149 
0000:00:1f.2 Class 0580: 8086:a121 
0000:00:1f.4 Class 0c05: 8086:a123 
0000:01:00.0 Class 0200: 8086:1533 [vmnic0]
0000:02:00.0 Class 0200: 8086:1533 [vmnic1]
0000:03:00.0 Class 0200: 8086:1533 [vmnic2]
0000:04:00.0 Class 0200: 8086:1533 [vmnic3]
0000:05:00.0 Class 0604: 1a03:1150 
0000:06:00.0 Class 0300: 1a03:2000 

[root@localhost:~] cat /etc/vmware/passthru.map 
...
# Intel 82579LM Gig NIC can be reset with d3d0
8086  1502  d3d0     default
# Intel 82598 10Gig cards can be reset with d3d0
8086  10b6  d3d0     default
8086  10c6  d3d0     default
8086  10c7  d3d0     default
8086  10c8  d3d0     default
8086  10dd  d3d0     default
# Broadcom 57710/57711/57712 10Gig cards are not shareable
14e4  164e  default  false
14e4  164f  default  false
14e4  1650  default  false
14e4  1662  link     false
# Qlogic 8Gb FC card can not be shared
1077  2532  default  false
# LSILogic 1068 based SAS controllers
1000  0056  d3d0     default
1000  0058  d3d0     default
# NVIDIA
10de  ffff  bridge   false
[COLOR="#FF0000"]# INTEL Sunrise Point-H AHCI Controller
8086  a102  d3d0     false[/COLOR]
 
Das wär ein echter Show-Stopper für 6.7 bei mir, da ich mit den 8 Ports des SAS3008 nicht auskomme.

Btw, bzgl. 900p: Es kommt demnächst wohl die 905p mit 480 GB (U.2+AIC) und 960 GB (nur AIC), etwa 10% mehr I/O-Bandbreite.
 
ESXi 6.7. Downgrade steht für heute Abend an, wenn alles klappt.

Edit: Fragt sich allerdings, warum das mit 6.7 nicht mehr funktioniert. Fehler oder Absicht? Gibt es Erfahrungswerte, ob VMware auf entsprechende Hinweise reagiert?
 
Zuletzt bearbeitet:
Diverse Anpassungen an der esx.conf brachten leider auch keinen Erfolg.

Welche Anpassungen waren das genau? Bevor Du zurück gehst: Hast du schon einmal testweise in der esx.conf manuell den Eigentümer auf "passthru" gesetzt?

Müsste dann darin irgendwas von /device/000:17.0/owner = "vmkernel" geändert werden in /device/000:17.0/owner = "passthru"

Wenn Du eh neu installieren wirst, kann man sowas ja nochmal schnell vorher ausprobieren. ;)
 
Da gibt‘s für dieses Device gar keinen Owner Eintrag. Ich hab mal eine Zeile ergänzt, aber nach einem Neustart ist die wieder weg und in der Hardware Übersicht steht auch weiterhin "Nicht fähig".
 
Soweit ich das überblicken kann, sind die Devices in der esx.conf in Dezimal-Notation. Folglich müsste der Eintrag wie folgt lauten:
/device/000:23.0/owner = "passthru"

Ich hatte das allerdings gestern noch getestet und hatte damit ebenfalls keinen Erfolg... :wut:
 
Das hat bei mir leider auch nichts gebracht. Bei meiner Recherche bin ich noch auf diesen Thread gestoßen: How to disable VMDirectPath and remove controllers |VMware Communities

Dort will der Thread Ersteller zwar eigentlich genau das Gegenteil erreichen, aber es wird trotzdem eine gewisse Vorgehensweise offenbar - u.a. dass man die Änderungen in der esx.conf bottsafe machen muss (/sbin/auto-backup.sh) - war mir so nicht klar. Das hat scheinbar bei mir noch nicht geklappt, vielleicht mache ich das noch verkehrt oder unvollständig... (siehe Antwort 5 von Nutezr VTsukanov aus dem verlinkten Thread).

Mit 'esxcli -p 000:000:023.0' müsste man Passthrough eigentlich auch einstellen können und ich habe es sogar soweit hinbekommen, dass der Befehl ohne Fehlermeldung ausgeführt wird und über 'esxcli -v' angezeigt wird, dass Passthrough für den Controller eingeschaltet sein soll. Betonung liegt auf soll. In der Web GUI von ESXi spiegelt sich das nicht wieder und nach einem Reboot ist von der Änderung auch nichts zu erkennen.

Ich hatte auch mal versucht, das Modul vmk_ahci zu entladen (das ist scheinbar unter ESXi 6.7 der verwendete Treiber für den Controller), aber ESXi meldet zurück, dass der Treiber noch in Benutzung sei. Wofür weiß ich allerdings nicht (der USB-Stick wird über ein anderes Modul angesprochen).

Fazit: Läuft bei mir immer noch nicht. :( Das Downgrade auf 6.5 habe ich bisher noch nicht geschafft. Wenn es bei Dir unter 6.5 funktioniert, unter 6.7 aber nicht: Hast Du ggf. mal die Config Files von 6.5 und 6.7 systematisch verglichen? Vielleicht ergibt sich daraus noch ein Hinweis?!
 
So, habe heute Abend wieder ESXi 6.5 installiert und SATA Controller durchreichen ging dann wie oben beschrieben ganz easy. Musste zwar meine Napp-It VM neu aufsetzen, weil die wohl im 6.7er Format war (auf jeden Fall war die VM invalid) aber egal. Jetzt muss ich mich als nächstes etwas näher mit Napp-It beschäftigen... Dann ab morgen...
 
Ca 12-15 GB würde ich da als Minimum ansetzen. Hinzu kommt der Plattenplatz für Swap (RAM auslagern wenns mal eng wird) und Dump (Crash Protokolldatei). Beides braucht ca 2/3 des Ram, Planning for Swap Space - Oracle Solaris Administration: Devices and File Systems

Mal ne Frage dazu. Ich konnte ja nicht aus dem Template installieren und hab mir also das OmniOS ISO gezogen, Installation durchgeführt und danach Napp-It installiert. Die Installation ist größtenteils automatisch abgelaufen, Rückfragen nach der Aufteilung des Plattenplatzes kamen nicht. Also auch kein Swap. Hab ich da irgendwas verpasst?
 
Das geht automatisch, je nach RAM und Plattengröße

was zeigt denn
zfs list -t volume
 
Hier die Ausgabe von zfs list -t volume:
Code:
NAME         USED  AVAIL  REFER  MOUNTPOINT
rpool/dump  2.00G  23.9G  2.00G  -
rpool/swap  2.06G  25.9G  56.8M  -

Ich sag auch nicht, dass was verkehrt ist, ich hatte mich nur gewundert, dass ich da nix angeben musste und vermutlich blicke ich durch ZFS einfach noch nicht durch...
 
Man gibt die Größe der Systemplatte vor, der Rest geht automatisch.
Manuell eingreifen muss man allenfalls wenn der Platz eng wird und man
z.B. dump löschen möchte oder wenn man mehr RAM einbaut und beides vergrößern möchte.
 
Ich muss meinen Thread mal wieder hoch holen... Ich hatte zuletzt (ist schon etwas her) unter ESXi 6.5 Passthru für den SATA-Controller eingerichtet. Danach bin ich leider etwas von meinem Vorhaben hier abgelenkt worden. Nun soll's wieder weiter gehen. Gut, Passthru ist also eingerichtet. Am Controller hängen zwei baugleiche HDs von WD. Nun wollte ich mit denen einen neuen Pool unter napp-it einrichten. napp-it sagt mir allerings, dass keine freien Platten verfügbar seien. Wie kann ich prüfen, woran das liegt oder hat jemand (@gea ?! :) ) vielleicht sogar gleich den entscheidenden Hinweis, woran es liegt? Wie immer: Danke vorab!

Und dann noch eine zweite Frage: Ich hab nochmal ein paar Euros in die Hand genommen und mir eine Corsair MP500 NVMe SSD zugelegt, auf dem ESXi + die VMs liegen sollen. Es war scheinbar etwas naiv von mir zu glauben, dass mein X11SSH-LN4F Board es mir ermöglichen würde, von der NVMe SSD zu booten. Oder hat das jemand von Euch schon geschafft? Ich würde gerne des USB-Stick, auf dem ESXi zurzeit liegt, abstöpseln, weil mir der etwas buggy erscheint. Okay, ich kaufe auch nen neuen Stick, an den 10 Euro soll's jetzt auch nicht liegen, aber wenn man schon so ne schöne NVMe SSD hat, dann will man doch nicht vom Stick booten, oder?!
EDIT: Supportanfrage an Supermicro ist schon raus, aber ich dachte, ich frage hier auch mal :)
 
Von der NVMe booten sollte eigentlich kein Problem sein. Darauf achten, dass im BIOS zumindest auch UEFI als Boot-Modus eingestellt ist (ich würde im Zweifel auf UEFI only stellen).

Dann drauf installieren und ggf. im Anschluss die Boot-Reihenfolge im BIOS noch einmal anpassen, dass die NVMe an erster Stelle steht.

Zu den Platten: zfs/Solarish mag manchmal nicht, wenn schon Partitionen drauf sind. Die musst du dann vorher manuell löschen.
 
Danke, @besterino. Ich hatte bei meiner Installation von ESXi auf der NVMe die Kombi (UEFI und BIOS) eingestellt. Der Installer hat die NVMe SSD auch erkannt und die Insallation darauf angeboten, nur booten ging dann nicht. Ich werde nochmal installieren vorher auf UEFO only einstellen. Mal sehen, ob's was bringt. :)

Und ja, auf den Platten dürften noch Partitionen drauf sein. Da stellt sich zfs/Solarish aber ein bissel zickig an ;-) Wundert mich nur, dass die Platten nicht mal ansatzweise irgendwo als vorhanden aufgelistet werden. Kann man die Partitionstabellen direkt unter Solarish löschen oder muss ich die Platten in einen anderen Rechner stecken. Der format Befehl auf der SSH Shell zeigt mir nur die System-Disk (VMware Virtual Disk) an, aber keine der beiden SATA Platten. Kann ich noch irgendwie prüfen, ober der SATA Controller ordnungsgemäß eingebunden ist?
 
Normalerweise zeigt nappit die Disks zumindest unter dem entsprechenden Menü an, und sie sollten gelistet sein soll wenn man „format“ in der Konsole eingibt.

Wenn das nicht tut, gibt’s in der Tat ein grundlegenderes Problem.
 
Ja, ich weiß nicht, wie ich es sagen soll, vielleicht so: Ich hab's mir schon gedacht... Na gut, im Moment habe ich den Eindruck, dass es sinnvoll wäre, die napp-it VM nochmal neu aufzusetzen. Ist eh noch nicht produktiv im Einsatz und viel gemacht habe ich noch nicht. Erster Schritt wird aber sein, ESXi auf der NVMe neu zu installieren - ich will den USB-Stick loswerden. Dann kann die napp-it VM auch da mit drauf (war bisher auf einem NFS-Share ausgelagert - nicht schnell, aber für die ersten Tests ausreichend). Und dann klappt das hoffentlich auch mit dem Durchreichen des SATA Controllers.

Wenn trotzdem jemand noch einen Hinweis hat... vieles kann man ja remote machen :), ESXi und napp-it neu aufsetzen eher nicht, das muss bis heute Abend warten...
 
Schau nochmal in den Elnstellungen der vm, ob da der SATA-Controller richtig drin ist. Manchmal stellt sich da was um, je nachdem was man mit dem Host oder der VM gemacht hat.
 
Da steht PCI-Gerät 1: Sunrise Point-H AHCI Controller, was der SATA Controller wäre (vorhin stand da noch PCI-Gerät 0...). Ich habe jetzt mal noch den generischen SATA-Controller von VMware raus geschmissen (da hing ein virtuelles CD-Laufwerk mit nem ISO dran).

EDIT: Auch raus schmeißen und wieder hinzufügen ändert nichts. Passthru ist für den Controller eingeschaltet.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh