Verständnis Fragen ESXI / Proxmox / ZFS / NAS

Bitte nicht lachen, aber eine Verständnis-/Planungsfrage hätte ich da noch:
Angenommen ich habe nur einen PC/Server, der auch als Arbeitsplatz dienen soll (also keinen Laptop oder andere PCs). Kann ich ESXI darauf installieren, was als "Trägerplattform", Basis dient. Dann den PC hochfahren, ESXI bootet und ich melde mich daran an. Habe ich dann auf dem angeschlossenen Monitoren (ich habe 2-3 Stk.) das Interface von ESXi oder nur den Startscreen? Ich würde gerne ESXi als Basis verwenden, dann napp-it wegen ZFS zur Storageverwaltung. Daraufhin würde ich mein Windows 10 direkt an dieser Rechner starten wollen und direkt daran arbeiten. Nur mit denm Hintergrund, dass Windows 10 als VM läuft. WIchtig wäre eben, dass Windows 10 dann auf dem Dual/Triplescreen Bildschirm läuft. Die Grafikkarte (Nvidia K5000) würde ich gerne per PCI Passthrough durchreichen, um für Grafk/Videobearbeitung die notwendige Power zu haben. Geht das oder habe ich da Kopfkino?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Könnte funktionieren, insbesondere mit einer Quattro. Das setzt ESXi bei Nvidia voraus. Man braucht halt eine weitere Grafikkarte zum Booten und ESXi (ist bei Serverboards onboard). Der Vorteil ist dass man sogar für Windows selbst Snapshots und einfache Rücksetzmöglichkeiten hat und das Storage Trojaner/Ransomware sicher ist.

Hauptnachteil ist die Komplexität und die Abhängigkeiten. Wenn mal was nicht geht kann es sein dass gar nichts mehr geht. Mit ESXi ist aber ein Recovery selbst nach Totalcrash extrem einfach, auch ohne Backups von ESXi oder der napp-it VM.
 
Zuletzt bearbeitet:
Danke. Ja das board hat eine Onboard Grafik verbaut. Mir ist nur nicht ganz klar, ob ich in die Oberfläche des Esxi Hosts komme, um dort windows 10 zu starten. Weil das Windows wird ja üblicherweise über Remote Desktop ausgeführt, oder?
 
Die onboard Grafik zeigt die Bootphase und ist die Management Console für ESXi.
Virtuelle Maschinen haben keine lokale Grafikausgabe an einen Monitor - außer per pass-through einer weiteren Grafikkarte.
 
Geht.

Wenn du die Quadro an eine Windows-VM durchreichst, an die Quadro Deine Monitore hängst und die Windows-VM so konfigurierst, dass sie nach dem Booten des Hosts immer automatisch gestartet wird, begrüßt Dich eben nach dem Booten auf den Monitoren deine VM.

Brauchst noch USB Geräte wie Maus und Keyboard, fertig ist der „two-in-one“ Desktop bzw. inkl. Storage-VM der „three-in-one“. :)

Auf die Obefläche von ESXi kommst Du dann über das Webinterface oder IPMI mit dem Browser aus der Win-VM. Den Remote-Desktop o.ä. brauchst Du in diesem Szenario nicht.

Hab ich so im Server, siehe Signatur.

Für wirklich rechenintensive Geschichten würde ich aber vermutlich trotzdem physisch selbstständige Kisten nehmen.
 
Zuletzt bearbeitet:
hey cool. genau so habe ich mir das vorgestellt. habe auch ein Video gefunden, da werden auch Games so praktiziert. Virtual Gaming PC in VMware ESXi 6.5 - Franken PC May 2018 - YouTube

Werde ich versuchen. D.h. aber, die GPU ist nur für diese eine Windows Version zuständig. Wenn ich eine zweite VM starte, geht das nur, mit einer zweiten GPU, oder eben die sündteuren GRID Karten. Oder kann ich das Windows 10 runterfahren, und dafür ein anderes hochfahren und auch die Karte durchreichen? Also im Grunde, wie wenn ich die Karte aus einer phys. Kiste rausbaue und in die andere einbaue. (ohne dass ich dann in den Einstellungen jeweils die Karte aktivieren/deaktivieren muß)? Hintergrund: wenn ich z.B. mit Clonen arbeite um z.B. was neues zu testen.
 
Ohne Grid-Karte kann auf der per Passthrough durchgereichten GPU-Hardware immer nur eine VM laufen. Du kannst zwar die GPU mehrfach in VMs in den Einstellungen einrichten, aber die zweite VM dürfte sich nicht starten lassen.

Du musst dann also die eine VM runterfahren und dann die zweite starten. Aber in der Zwischenzeit hast Du halt keine VM laufen, um am Host die zweite VM hochzufahren, dafür brauchst du dann ein weiteres Gerät.

- - - Updated - - -

Nachtrag: Games hab ich ja auch mal ausprobiert, geht, aber naja..

Kannst ja auch mal in den in meiner Sig verlinkten Thread schauen.

- - - Updated - - -

Nochn Nachtrag: mit Tesla’s könnte das auch gehen.

Grid und Tesla bringen Dir aber an der Stelle nix, haben beide keinen Monitor-Ausgang. ;) Die gehen im der Tat davon aus, dass Du an einem dedizierten (thin)Client hockst und Dich eben per RDP o.ä. verbindest.
 
Ich habe da eine Verständnis Frage(n):
Ich habe nun das Setup ESXi - napp-it -ZFS verstanden und wenn ich es richtig sehe, dann macht man das, um ZFS (statt VMFS) zu erhalten und somit Raid, Parity und Management in einem zu haben.
Aber wenn es rein um ZFS "bekommen" geht, warum nimmt man dann nicht Proxmox? Das bringt doch von Haus aus ZFS mit sich. Nicht falsch verstehen, ich arbeite sehr gerne mit ESXi und bin es gewohnt. Aber
irgendwie kommt mir der ganze Aufwand mit Disk Controllern, Storage-VM etc. viel größer vor als einfach Proxmox (das auch offiziell Hardware unabhängiger ist) zu installieren.
 
Proxmox ist halt nicht wie ESXI wo man jeden scheiß zusammen klicken kann. Viele haben kein Plan wie man richtig mit der Konsole umgeht.
Sonst steht ja Promox in der neusten Version ESXI in nichts nach und finde gut das die jetzt ZFS so mitbringen.
ESXI ist meiner Meinung nach idiotensicher und so aufgebaut das es jeder der sich ein wenig mit IT beschäftigt mit umgehen kann.
 
Zuletzt bearbeitet:
Ich habe da eine Verständnis Frage(n):
Ich habe nun das Setup ESXi - napp-it -ZFS verstanden und wenn ich es richtig sehe, dann macht man das, um ZFS (statt VMFS) zu erhalten und somit Raid, Parity und Management in einem zu haben.
Aber wenn es rein um ZFS "bekommen" geht, warum nimmt man dann nicht Proxmox? Das bringt doch von Haus aus ZFS mit sich. Nicht falsch verstehen, ich arbeite sehr gerne mit ESXi und bin es gewohnt. Aber
irgendwie kommt mir der ganze Aufwand mit Disk Controllern, Storage-VM etc. viel größer vor als einfach Proxmox (das auch offiziell Hardware unabhängiger ist) zu installieren.

Weil man napp-it z.B. auch auf Solaris laufen lassen kann, damit hat man kein ZoL (mmN. immer noch nicht ganz stabil) und auch kein OpenZFS, sondern Oracle ZFS (als das "Richtige", inkl. Dataset Encryption etc.).
 
Bei einem Storageserver kommt es nicht nur auf das Dateisystem an sondern auch auf die Integration in das OS, Service Features (iSCSI, NFS, SMB) und das Management. Auch wenn man überall ZFS als Dateisystem nutzt (Solaris ZFS oder Open-ZFS) so sind die Unterschiede bei den anderen Faktoren riesig.

Insbesondere beim Management macht es schon einen Unterschied ob man ein komfortables webbasiertes Storagemanagement hat oder alles auf der Konsole zusammenklicken muss. Das Storagemanagement im Webinterface von Proxmox kann nicht mal ansatzweise das was z.B. bei FreeNAS oder napp-it drin ist - muss es ja auch nicht. Das ist eine Management Oberfläche für VMs ähnlich wie bei ESXi, das Web Management kann da auch nur VM Management und kaum Storage Management.

ESXi + Storage VM soll ja gerade das Beste beider Welten verbinden.
 
Danke für die Erklärung. Dann werde ich mir einmal bei napp-it oder FreeNAS anschauen wie so ein richtiges Storage Management ausschaut.
 
Ich habe da eine Verständnis Frage(n):
Ich habe nun das Setup ESXi - napp-it -ZFS verstanden und wenn ich es richtig sehe, dann macht man das, um ZFS (statt VMFS) zu erhalten und somit Raid, Parity und Management in einem zu haben.
Aber wenn es rein um ZFS "bekommen" geht, warum nimmt man dann nicht Proxmox? Das bringt doch von Haus aus ZFS mit sich. Nicht falsch verstehen, ich arbeite sehr gerne mit ESXi und bin es gewohnt. Aber
irgendwie kommt mir der ganze Aufwand mit Disk Controllern, Storage-VM etc. viel größer vor als einfach Proxmox (das auch offiziell Hardware unabhängiger ist) zu installieren.

Im Grunde ist Proxmox eine All-in-one Lösung, also eigentlich nichts anderes als ESXi in der "Vollversion". Der Aufwand mit einem "kostenlosen" ESXi ist nicht nur größer, sondern auch mit erheblichen Overhead verbunden. Das fängt beim Backup an und zieht sich über simple Basisdienste wie USV Shutdown oder beim Treibersupport. Man kann sich in der freien Version natürlich vieles selber Basteln, aber ich würde mir genau Überlegen ob du dir den Aufwand wirklich antun willst.

Im Gegensatz zu Freenas kann Proxmox bezüglich Storage doch deutlich mehr. Abgesehen von ZFS welches eher für kleine Setups gedacht ist, hat man hier u.a. Ceph/Sheepdog Support was in einer anderen Liga spielt.
 
Zuletzt bearbeitet:
Naja, die kleinen ZFS Setups gehen gerne mal in den Petabyte Bereich...

ZFS ist ein lokales Dateisystem mit Fokus auf Crashsicherheit und Versionierung (Snaps) und Sicherheit gegen Datenveränderungen (Prüfsummen), dazu Raid, Volume und integriertes Share/ACL Management (Solarish).

Ceph ist ein verteiltes Dateisystem. Damit werden die Daten auf mehreren Nodes verteilt/repliziert. Das verkraftet den Ausfall eines Nodes ohne Ausfall. Lokal kann das auch auf ZFS aufsetzen.

Für beides gibt es Anwendungsfälle und Fälle wo es nicht geeignet ist.
 
So, ESXi und napp-it free Appliance sind installiert. zuerst habe ich einen Pool erzeugt (7xSATA Platten) im Raidz2. Dann ZFS Filesystem für VM und Storage. Wo stelle ich nun die sLOG und L2ARC ein? Im ESXi habe ich auf der NvME (ASUS Hyper x8) einen Storage erzeugt und in den Einstellungen der napp-It VM zwei Disk erstellt (20GB f. SLOG, 120GB für L2ARC). Nur das WebUI der Napp-it ist noch gewöhnungsbedürftig ;-) Wo stellt man die beiden Sachen ein? Was wäre sonst noch an Tuning zu machen? ESXi sagt, dass neue VMWARE Tools verfügbar wären. Ach ja: Die IP holt sich nappit VM via DHCP? Kann ich das als static umstellen?
 
Um einem Pool ein Slog, L2Arc oder vdev hinzuzufügen:
Pools > Erweitern/ Extend

Bei OmniOS sind die neuesten Open-VMware Tools dabei.
Man könnte die Original VMware Tools von ESXi 6.7U1 nehmen, ich wüßte aber keinen Vorteil

Napp-it listet in seinen Menüs Eigenschaften.
Mit Klick auf eine Eigenschaft kann man die ändern

Menü System > Network Eth zeigt Netzwerk
da auf Dhcp klicken um auf Static umzustellen (ip bleibt gleich)
dann auf die ip klicken um die zu ändern.
 
danke. Check ich ab. Was ist deine bevorzugte Einstellung bzgl. HBA passthrough, L2ARC, Slog bezüglich Geschwindigkeit und Sicherheit? Sync always oder disable? wo sollte ich mit meinen SATA 7200rpm Platten, nappit VM auf SSD und Slog/L2ARC auf NVMe liegen? Die NVME ist eine Western Digital Black auf ASUS Hyper x16 Board.

- - - Updated - - -

noch eine Frage: IP habe ich nun geändert. In Windows kann ich im Netzwerk auf Napp-IT via IPv4 zugreifen. Nun kommt der Login. Normalerweise gebe ich dort root und mein Passwort ein. Oder? Geht nicht.
 
ZFS nutzt zum Lesen und Schreiben immer den RAM als Cache um scnell zu sein. Bei einem Absturz beim Schreiben ist der Inhalt des Schreibcaches verloren. Das bedeutet einen Datenverlust und bei VMs eventuell ein defektes Dateisystem. Um das zu verhindern kann man sync write aktivieren. Bei einem Plattenpool sinkt dann aber die Schreibperformance extrem.

Verringern kann man den Performanceeinbruch mit einem Slog. Selbst mit dem besten Slog der Welt ist Schreiben dann immer noch langsamer als ohne sync write, dafür aber sicher. Ein Slog macht aber nur wirklich Sinn wenn es Powerloss Protection besitzt, geringe Latenzen hat und dauerhaft hohe Schreib-iops bei kleinen Blöcken kann. Eine Desktop SSD/NVMe ist ungeeignet.

L2Arc erweitert den RAM als Lesecache. Da RAM viel schneller ist, macht man das nur wenn man mehr Lesecache möchte aber nicht mehr RAM bereitstellen kann. L2Arc macht man meist 5-10x RAM groß, nie mehr.

Ein typisches AiO ist
- SSD (ab 80GB) für ESXi und OmniOS/napp-it
- Plattenpool für Filer und Backup
- SSD/NVMe für VMs
- Slog und L2Arc bei Bedarf


Zugriff auf SMB als root sollte kein Problem sein (sofern man das Share nicht mit der Guest Option aktiviert).
Da die Passwortstruktur von Unix und Windows unterschiedlich ist, muss ein SMB Passwort zusätzlich zum Unix Passwort erzeugt werden. Nachdem der SMB Service installiert ist, passiert das automatisch, wenn man das Passwort per passwd root ändert.
 
Macht es eigentlich für den L2ARC eine Consumer SSD einzusetzen?
Im Moment liegt SLOG und L2ARC auf meiner 280GB Optane. Da ich aber 3 Pools habe, die SLOG und L2ARC konfiguriert haben, ist L2ARC natürlich kleiner als 5xRAM (80GB, da napp-it 16GB hat).

Woran kann ich eigentlich festmachen, ob L2ARC sinnvoll ist und überhaupt einen Effekt hat?
 
Arc und L2Arc cachen keine sequentiellen Daten sondern kleine random Zugriffe und Metadaten. Wenn man nicht ständig auf viele verschiedene kleine Daten zugreift bringt L2Arc nichts oder wenig. Manchmal sieht man einen Vorteil wenn man read ahead auf dem L2Arc aktiviert.

Man muss aber nicht spekulieren, sondern aktiviert L2Arc mit dem was man hat (kann auch weniger als 5x RAM sein) und schaut was arcstat während man damit arbeitet dazu meint.
 
Hi gea, noch eine Frage: Ich habe nun Slog und L2ARC mal eingeschalten, die sync auf disable gesetzt.
Ich habe aus versehen Delete ZFS buffer gedrückt. Jetzt ist im ZFS Fenster der rpool weg. Unter Pools ist diese 32GB Platte noch vorhanden. A) was macht die und B) kann ich diese wieder in ZFS einklinken? Ich habe auf einem anderen PC auch nappit installiert und da ist mir das aufgefallen.
 
Welche Intel Optane besitzt denn Powerloss Protection? Bei den Testberichten finde ich fast nur Vergleich zu normalen SSD und den Gebrauch als HDD Cache mit Intel-Software. Und welche Größe wäre empfehlenswert?
 
Hi gea, noch eine Frage: Ich habe nun Slog und L2ARC mal eingeschalten, die sync auf disable gesetzt.
Ich habe aus versehen Delete ZFS buffer gedrückt. Jetzt ist im ZFS Fenster der rpool weg. Unter Pools ist diese 32GB Platte noch vorhanden. A) was macht die und B) kann ich diese wieder in ZFS einklinken? Ich habe auf einem anderen PC auch nappit installiert und da ist mir das aufgefallen.

Im Menu Pools werden alle Pools, also rpool und Datenpools gezeigt. Im Menü ZFS Dateisysteme wird das Auflisten des rpools selber normalerweise unterdrückt. Üblicherweise gehören auf rpool auch keine eigenen Dateisysteme. Da soll nur das Betriebssystem und BEs/ bootfähige System-Clones drauf.

Da zumindest Illumos jetzt große Bootplatten und Raid-Z für rpool kann, könnte man auch auf rpool eigene Dateisysteme anlegen. Macht man das, werden die auch immer im Menü Dateisysteme angezeigt.

Normalerweise ruft napp-it den Befehl zfs list auf wenn man das Menü Dateisysteme öffnet. Mit sehr vielen Dateisystemen kann das recht lange dauern. Napp-it kann das daher per acceleration im Hintergrund einlesen um die Dateisysteme asyncron anzuzeigen. Delete Buffer löscht nun diese Hintergrundinformation. Im Hintergrund eingelesen, wird die Anzeige des rpool nicht unterdrückt. Insgesamt ist das bedeutungslos.

Wichtiger: Wenn man sync ausschaltet wird ein eventuell vorhandenes Slog gar nicht genutzt.

- - - Updated - - -

Welche Intel Optane besitzt denn Powerloss Protection? Bei den Testberichten finde ich fast nur Vergleich zu normalen SSD und den Gebrauch als HDD Cache mit Intel-Software. Und welche Größe wäre empfehlenswert?

Intel garantiert das für die 4800. Als die 900P auf den Markt kam, war das da auch noch in den technischen Daten, verschwand aber da nach kurzer Zeit. Kann man spekulieren ob das technische oder Marketinggründe hat.

Da die Optane aber keinen Dram Cache haben und es auch kein Hintergrund Garbage Collection gibt, ist aber davon auszugehen, dass die Optane ein recht unkritisches Verhalten haben und besser sind als manche SSDs mit "PLP". Für absolut kritische Anwendungen ist aber die 4800 Pflicht.
 
ZFS nutzt zum Lesen und Schreiben immer den RAM als Cache um scnell zu sein. Bei einem Absturz beim Schreiben ist der Inhalt des Schreibcaches verloren. Das bedeutet einen Datenverlust und bei VMs eventuell ein defektes Dateisystem.

Durch den breiteren Support/Preisverfall von NVDIMM´s - entschärft sich dieses Problem mMn auf lange Sicht.
 
Was verstehst Du denn unter "auf lange Sicht"?
 
Bei aktuellen "Mittelklasse" Servern (zb Dell r640) sind es ~1200 Euro Aufpreis bei 128Gb Ram. Für uns wird das auch abseits von "sehr kritischen" Servern interessant. Von daher hoffe ich auf weiter fallende Preise in den nächsten 1-2 Jahren.
 
Also ich wollte keinen neuen Thread aufmachen, deshalb "löchere" ich hier weiter. Als VM Beginner arbeite ich mich langsam in die Materie rein. Nun habe ich noch ein paar Fragen an die Profis:
- ZFS und L2ARC und slog: ich habe nun einen Pool mit 7 SATA Platten erstellt. Dann die NvME (2 vDisks aus ESXi) in den Pool hinzugefügt. Einmal write Log und einmal read Cache. Danach in ZFS unter Sync always eingestellt. Darauf dann unter System Tuning das Base Tuning ausgeführt. (zuvor den vSwitch auf MTU9000 gestellt). Heißt das nun, dass slog und L2ARC laufen? kann ich das irgendwo prüfen?
- ZFS und Snapshots: ich habe die Autosnap Funktion gefunden. Ich würde gerne von ddem ZFS_VM-pool snapshots automatisch erstellen lassen, da diese "besser sind, als die ESXi Snaps"? Oder ist es sinnvoll, Snaps aus ESXi zu erstellen? So richtig bin ich da noch nicht durchgestiegen. Es gibt auch ein Script, das irgendwas mit den ESXi Snaps und nappit-Snaps zu tun hat. (gibt es da ein passendes Manual/Tutorial mit Step by Step in Deutsch?)
- ESXi und Standby: gibt es eine Funktion, wie ich den Host in ESXi in den RUhezustand/Standby versetze? Ich möchte meine HomeNAS nicht die ganze Zeit durchlaufenlassen. Mittels WakeOnLan würde ich den Rechner wieder hochfahrenlassen. Geht das?
- ESXi und USB: ist es möglich, einen USB Stick, USB Platte oder andere USB Geräte wie z.B. ein Wacom Board an den ESXi Rechner anzuschließen und diese dann einer VM verfügbar zu machen? D.h. ich würde z.B. eine VM automatisch hochfahren lassen und über GPU passthrough direkt an dem Host arbeiten wollen. Ich benötige aber noch mein Wacom Board und plug´n´play USB Devices (USB Platte oder Sticks). Ich möchte gezielt nicht über RDP auf die VM zugreifen, sondern direkt daran arbeiten. D.h. es müsste ein USB passthrough möglich sein. Außerdem wäre es dann auf dem Server machbar, dass ich über das laufende Windows in der VM über SMB auf das nappit Storage zugreife und Backups oder large File copys auf nappit kopiere. Mein Host hat 4 USB ports frei. Und benötige ich zum direkten Arbeiten auf dem Host noch eine separate Tastatur/Maus?
 
- ZFS und Snapshots: ich habe die Autosnap Funktion gefunden. Ich würde gerne von ddem ZFS_VM-pool snapshots automatisch erstellen lassen, da diese "besser sind, als die ESXi Snaps"? Oder ist es sinnvoll, Snaps aus ESXi zu erstellen? So richtig bin ich da noch nicht durchgestiegen. Es gibt auch ein Script, das irgendwas mit den ESXi Snaps und nappit-Snaps zu tun hat. (gibt es da ein passendes Manual/Tutorial mit Step by Step in Deutsch?)
Nicht "besser" - anders trifft es eher. Das Script, wenn es das tut, was ich denke das es tut ergibt insofern Sinn, dass der Snapshot im ZFS Filesystem nicht in der Lage sein wird einen Anwendungskonsistenten Stand des Gastes zu erzeugen. Das Script wird wohl zuerst den Snapshot auf der Hypervisorseite machen -> und dann das drunter liegende Filesystem snapshoten. So ist sichergestellt, dass die VM (sofern eine Software/OS usw. usf. Application Consistent snapshotbar ist) eben konsistent bleibt.

Bspw. bringt dir der Snapshot auf der Storageseite nix, wenn Teile der Daten nicht auf der Disk sind (weil sie im RAM gehalten werden).

- ESXi und Standby: gibt es eine Funktion, wie ich den Host in ESXi in den RUhezustand/Standby versetze? Ich möchte meine HomeNAS nicht die ganze Zeit durchlaufenlassen. Mittels WakeOnLan würde ich den Rechner wieder hochfahrenlassen. Geht das?
Technisch möglicherweise - gemacht habe ich das noch nicht. Es gibt zumindest die Möglichkeit den Host in den Standby zu schicken. In größeren Umgebungen wird das gemacht um Strom zu sparen. Auch volldynamisch.
Bei nem Single Host sehe ich eher die Gefahr (und das Problem), dass du A) irgendwas brauchst, was die Aufweckpakete losschickt - ich denke nicht, dass dies händisch zu tun eine Daueroption ist. Und B) ich nicht 100% weis, ob man dem Host auch vom Standby kommend eine Autostart mitgeben kann.
Alternativ geht der saubere Shutdown aber definitiv. Du konfigurierst die VM Startreihenfolge - oder startest die VMs remote per Script/vSphere CLI/SSH.
Wenn das Gerät WoL per Bios/UEFI beherscht, lässt es sich auch 1a aufwecken. Wenn nicht - gibts ggf. noch die Option zu tricksen per Bios Option ala, wenn Strom wieder da, schalt ein -> und du schaltest per Script ne managbare Steckdose ein/aus.

- ESXi und USB: ist es möglich, einen USB Stick, USB Platte oder andere USB Geräte wie z.B. ein Wacom Board an den ESXi Rechner anzuschließen und diese dann einer VM verfügbar zu machen? D.h. ich würde z.B. eine VM automatisch hochfahren lassen und über GPU passthrough direkt an dem Host arbeiten wollen. Ich benötige aber noch mein Wacom Board und plug´n´play USB Devices (USB Platte oder Sticks). Ich möchte gezielt nicht über RDP auf die VM zugreifen, sondern direkt daran arbeiten. D.h. es müsste ein USB passthrough möglich sein. Außerdem wäre es dann auf dem Server machbar, dass ich über das laufende Windows in der VM über SMB auf das nappit Storage zugreife und Backups oder large File copys auf nappit kopiere. Mein Host hat 4 USB ports frei. Und benötige ich zum direkten Arbeiten auf dem Host noch eine separate Tastatur/Maus?

Auch das geht - potentiell zumindest. Consumer GPUs sind nicht selten eher zickig. Vor allem bei NV - AMD scheint bisschen weniger problematisch. Das wird also wahrscheinlich Gebastel.
Technisch funktioniert das aber. Wenn das 0815 USB Device Mapping nicht geht - wäre noch die Option per Passthrough den ganzen USB Controller in die VM zu reichen. Bedenke aber, du hast keine Möglichkeit mehr Snapshots zu machen, wenn du Passthrough nutzt! Das beißt sich mit der Frage oben zu den Snapshots.

Was die SMB Zugriffe angeht - sicher, auch das geht. Ist auch eher eine Frage deines Netzwerk Aufbaus und ggf. der Optionen deines Routers (bei Verwendung mehrerer Netze)


PS: mMn ist das Ganze - ich arbeit in einer VM mit durchgereichter GPU - Zeugs aber irgendwie kappes. All der Aufwand für (mMn) oft faule Kompromisse.
Ich würde eher auf die Lösung mit nem Hypervisor gehen, der als solches läuft wie im Prinzip gedacht - und ne Workstation zum Arbeiten. Da hast du mehr von - und weniger Probleme. Aber das muss jeder für sich selbst wissen...
 
danke. Also snapshots mit Passthrough Devices funktionieren, wenn die VM heruntergefahren ist. Im laufenden Betrieb geht´s nicht. Das habe ich nun rausgefunden. Hab´s mal mit der napp-it VM getestet. Dort habe ich den HBA SAS Adapter durchgereicht. Im laufenden Betrieb nicht möglich. Wenn ich diese runterfahre, konnte ich einen Snap erstellen.

thema Standby: wo kann ich den Host in den Standby stetzen? Ich kann ihn nur restarten und herrunterfahren. Dann ist der Rechner aber komplett aus.
Sauberer Shutdown? D.h. zuerst alle laufenden VM´s runterfahren und dann den Host runterfahren? Gibt´s da eine One-Button-Aktion? Nicht lachen, aber ich hab´s noch nicht gefunden.
 
Manage -> System -> Autostart

Napp-it an erster Stelle mit etwas Verzögerung (Einbindung NFS-Datastore) für weitere VMs. Beim Herunterfahren geht es genau andersrum, napp-it wird dann als letztes beendet.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh