[Sammelthread] Microsoft Hyper-V Stammtisch

„Supported“ ist da auch bei GPUs im Zweifel auch etwas euphemistisch... ;)

Anderen HBA/Port kann ich ggf mal probieren. Sitz grad nicht an der Kiste und bin auf IPMI/RDP beschränkt...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Muss mir auch mal wieder Hardware besorgen die das unterstützt, aber aktuell bin ich gerade dabei mit eine komplette Umgebung aufzubauen um Windows 10 Rollout + Softwareverteilung zu testen incl. Inplace Updates usw, brauche das für die Firma und zuhause habe ich da mehr Zeit zum Testen :)

Werde dazu mal wieder Hyper-V in Betrieb nehmen neben meinem ESXi.
 
Mit Windows 10 und SSCM kämpfen wir uns ganz schön ab - jedenfalls soweit ich das (hier nur als User) mitbekomme...
 
Zum Glück bin ich bei uns für ein anderes Softwareverteilungsprodukt zuständig :)
 
hat jemand DDA auf einem C602 Chipsatz schon erfolgreich laufen gehabt? (Xeon E5 v1/v2)
 
Hi,

ich habe vor einiger Zeit als Azubi ein Homelab mit Hyper-V aufgebaut. Dort habe einen DC, FileServer, Printserver, Emsisoft Enterprise Console, Radius und Ubiquiti Controller am laufen. Die VMs werden regelmäßig mit Veeam Backup & Replication Free und einem Powershell Script regelmäßig gesichert.

Da es damals nur zum testen war, hatte ich mir auch wenig Gedanken gemacht. Nun möchte ich es gerne richtig machen:d.

Zurzeit Sieht mein Storage so aus:

Samsung SSD 120 GB: C:\

2x Samsung SSD 256 GB: VMs
2x WD Red 4TB: Files

Die beiden SSD und Festplatten sind an einem Dell H310 im HBA Mode angeschlossen. Die beiden SSDs laufen als Standalone. Die beiden Festplatten sind am Storage Space angeschlossen. Darauf liegen 3 Volumes, die für den FileServer gedacht und direkt an die VM durchgereicht sind.

Würdet Ihr das so belassen? Die Volumes sind als NTFS Formatiert. Wäre ReFS eine Überlegung Wert.

Für ESXI hat sich Napp-IT etabliert. Lässt sich dieses Konzept in Hyper-V realisieren?

Ich würde gerne die SSDs auch gerne Ausfallsicherer machen. Was hält Ihr davon die SSDs in den Speicherpool als Raid 5 laufen zu lassen? Reich die Performance aus?


Vielen Dank und Gruß:)
 
Zuletzt bearbeitet:
Für ESXI hat sich Napp-IT etabliert. Lässt sich dieses Konzept in Hyper-V realisieren?

Ich sag mal: "kommt drauf an". Mal unterstellt, dass du napp-it nennst um eigentlich ZFS in seiner ganzen Pracht einzusetzen. ;)

Solarish (als pseudo-Oberbegriff für Solaris, Illumos, OmniOS & Co.) - als Haupteinsatzgebiet von napp-it zur Bereitstellung von ZFS-Funktionen - wird grundsätzlich von Hyper-V nicht als VM Gast-OS unterstützt bzw. auch Solaris bringt keine entsprechenden Treiber vor allem für die virtuellen Netzwerk-Karten unter Hyper-V mit, d.h. Du bist im Netz auf 100mbit beschränkt --> sinnlos.

Die besten Chancen hättest Du vermutlich mit einem FreeBSD-Derivat wie z.B. FreeNAS oder NAS4Free, da Hyper-V FreeBSD unterstützt. Allerdings bringen die beiden dann auch wieder eigene GUI-Oberflächen mit, so dass sich dann die Frage stellt, ob man napp-it eigentlich noch braucht...

Kurzfassung (meine Meinung): wenn solarish+napp-it idealerweise zusammen mit PCIe-Passthrough vom HBA --> ESXi. Hyper-V lohnt dann nicht wirklich.
 
Hi,

vielen Dank für deine Unterstützung. Un ja ich wollte alle Vorteile von ZFS nutzen:d. Ursprünglich wollte ich ja ESXI und Napp-IT umsetzten. VLANs gingen komischerweise aber nicht. Hingegen es bei der anderen Netzwerkkarte ohne Probleme funktionierte. Daher hatte ich es aufgegeben. Ein Vorteil von Hyper-V für mich ist, dass ich mit der Datacenter ohne Probleme Windows Server über avma aktivieren kann (Dreamspark).
 
Zuletzt bearbeitet:
Seit gestern muss ich mich hier auch mit dazuzählen.
Habe es schon länger vorgehabt und bin von Server 2016 + VM Workstation auf Hyper V gewechselt.

Server steht in der Signatur (Xeon D 1541 / 128GB Ram etc.)

Lief alles soweit gut, konvertiert wurde mit dem "StarWind V2V Image Converter" ohne Probleme. Das einzige was mir etwas Kopfzerbrechen bereitet hat war ein
anfangs nicht funktionierender Mirror Port meines Netgear Switches. Der HyperV Switch kann von Haus aus keinen Promiscuous Mode und muss per Powershell dafür konfiguriert werden.. bzw. auch in der Ziel VM muss bei Mirror im LAN Adapter auch "Ziel" konfiguriert werden.

Damit gibts die WAN Statistiken für PRTG und Grafana/Influxdb auch unter Hyper V :)

Musste neben meinen Debian 9 VMs auch einige Server 2016 als "Generation 1" VMs anlegen, sonst war kein Boot möglich. Scheinbar hat eine frühere VM Workstation Version diese mit "Bios" angelegt.
Die letzten 2016er liefen nach Konvertierung auch direkt als Generation 2.

Update von Gen1 und Gen2 ist nicht so einfach möglich oder?

RAM Verbrauch ist erstmal schön gesunken.. dank Dynamic Memory von belegt ~56GB auf ~37GB aktuell. Performance der Linux VMs ist soweit auch kein Unterschied bemerkbar.
LAN ist flotter, selbst unter Linux wenn ich über einen "Internen Hyper V Switch" Daten bewege. Da hatt ich mit VMware Workstation sogar auf vmxnet3 getrickst..

Umstieg hat sich bisher gelohnt, bin zufrieden :)
 
Zuletzt bearbeitet:
Guten Abend,

ich habe heute meine zwei Dell T20 in meine kleine Domäne aufgenommen.
Dann habe ich Hyper-V installiert und die Delegation für die Livemigration eingerichtet.
Per GUI kann ich von Dell1 die testVM zu Dell2 verschieben. Soweit so gut.
Nun kann ich mit der Powershell von Dell1 auch zu Dell2 die testVM verschieben.
Allerdings kann ich nicht von Dell1 eine VM von Dell2 holen per Powershell (GUI weiß ich garnicht wie das geht außer im Hyper-V Manager mit Dell2 verbinden"
Anbei den Befehl, den ich verwende
Move-VM -ComputerName "Dell2" -Name "testVM" -DestinationHost "Dell1" -IncludeStorage -DestinationStoragePath "x:\Livemigration"

Damit möchte ich die testVM von Dell2 auf Dell1 holen.
Anbei der Fehler der Powershell.


Move-VM : Fehler beim Migrationsvorgang für den virtuellen Computer an der Migrationsquelle.
Fehler beim Herstellen einer Verbindung mit dem Host "Dell1.xx.xxxx.xxx": Im Sicherheitspaket sind keine Anmeldeinformationen verfügbar. (0x8009030E).
Die Verbindung für die Migration eines virtuellen Computers konnte vom Verwaltungsdienst für virtuelle Computer auf dem Quellhost nicht authentifiziert werden: Es sind keine geeigneten Anmeldeinformationen
verfügbar. Stellen Sie sicher, dass der Vorgang auf dem Quellhost der Migration initiiert wird. Alternative: Stellen Sie sicher, dass der Quellhost zum Authentifizieren von Migrationsverbindungen mittels Kerberos
konfiguriert ist und in Active Directory die eingeschränkte Delegierung für den Host aktiviert ist.
Fehler beim Migrationsvorgang für den virtuellen Computer "testVM" an der Migrationsquelle "DELL2". (ID des virtuellen Computers: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx)
Fehler des Verwaltungsdiensts für virtuelle Computer beim Herstellen einer Verbindung für die Migration eines virtuellen Computers mit dem Host "DELL1.xx.xxxx.xxx": Im Sicherheitspaket sind keine
Anmeldeinformationen verfügbar. (0x8009030E).
Fehler beim Authentifizieren der Verbindung auf dem Quellhost: Es sind keine geeigneten Anmeldeinformationen verfügbar.
In Zeile:1 Zeichen:1
+ Move-VM -ComputerName "Dell2" -Name "testVM" -DestinationHost "Dell1" ...
+ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+ CategoryInfo : NotSpecified: :-)) [Move-VM], VirtualizationException
+ FullyQualifiedErrorId : OperationFailed,Microsoft.HyperV.PowerShell.Commands.MoveVM



Ich habe jetzt beide Server neugestartet. Verbindung zum DC haben auch beide.
Leider habe ich garnichts außer die Delegation die ich gemacht habe im Internet gefunden. Testweiße hatte ich auch mal den eigenen server in der Delegation weil er ja irgendwie keine Anmeldeinformationen für sich selbst hat?

Würde mich über Hilfe und Tipps freuen!
Schönen Abend zusammen
 
Ich vermute mal du hast CredSSP für LM aktiv. IN dem Fall musst du dich an Dell2 anmelden (zb per enter-pssession) damit die MIgration klappt, oder Kerberos verwenden.
 
CredSSP braucht er ja nur, wenn keine Domäne. Bei ihm sind ja beide in der Domäne.

In den Eigenschaften der beiden PCs im DC muss die Deligierung für alle Dienste erlaubt werden.

Ich hatte jetzt den einen Fall, dass ich bei der Deligierung explizit den Dienst mit der IP des jeweiligen anderen Servers machen musste....
 
Danke euch für die schnellen Antworten!
Ich habe Kerberos aktiviert,nicht CredSSP.

Was genau meinst du mit alle Dienste?
Ich habe cifs und Microsoft Virtual System Migration Service der Delegierung hinzugefügt, reicht das nicht aus?
Das heißt ich suche nicht nach dem Servernamen sondern Tippe die IP ein?
Der DC hat nämlich keine Schnitstelle zum 10 Gigabit Netzwerk worüber die Livemigration stattfindet.
In den Livemigrations Einstellungen habe ich auch das Netz angegeben mit Subnetzmaske.

Viele Grüße
 
Du kannst ja testweise auf alle Dienste umstellen. Direkt oberhalb von dem Feld für die Einzeldienste geht das.

Hast du nur einen DC oder 2? Bei zweien müsste erst die Replizierung laufen, damit du sicherstellt, dass beide DCs die Einstellungen gesetzt haben.
 
Habe nur einen DC aktuell.
Habe jetzt mal alle Dienste erlaubt und es ging, super vielen Dank!
Denk dann kann ich das bedenkenlos so einfach lassen!

Danke euch.
 
Moin,
auch hier gebe ich mal meinen Senf dazu. Ich bin gerade dabei unter Hyper-V (OmniOS + Napp-IT) zum fliegen zu bekommen. Schaut aktuell mit Directe Device Assignment ganz gut aus. Controller HP P410 sind in der VM habe leider keinen reinen HBA da zum testen daher muss erstmal der her halten. Scheinbar scheint es aber von Solaris/OmniOs keine Treiber für den Netzwerkadapter von Microsoft zugeben. Da er keine Netzwerkkonnektivität hat oder ich bin einfach zu blöd.

Wie kann ich in OmniOS prüfen ob ich eine Netzwerkkonnektivität habe? Die Befehle welche ich für Linux kenne funktionieren nicht. Wenn das Thema erledigt ist wie bekomme ich Napp-IT dort installiert und dann natürlich ZFS und daraus dann ein iSCSI LUN? Wenn ich es zum fliegen bekomme würde ich natürlich auch ein kleines Tutorial zur Verfügung stellen. Damit andere Leute nicht vor den gleichen Problemen stehen.

Gruß Niklas
 
Unter Solaris funzt nur der legacy netzwerk-Adapter —> 100mbit —> stinkt.

Also wenn würde ich es dazu auch mit DDA versuchen.
 
Klar mit DDA wäre es grundsätzlich schon möglich aber das bedeutet auch wieder mehr Stromverbrauch. Zum testen und spielen im R510 ausreichend. Werde mal schauen ob ich das auch irgendwie anders zum fliegen bekomme. Gibt ja für alles Mittel und Wege
 
Gerne Reise und Erfolg hier detailliert berichten. :d
 
Ich habe gerade nochmal mit Windows 10, Hyper-V und DDA herumgespielt, diesmal mit einer GPU (1080ti).

Klappt immer noch / auch nicht, immer noch mit der gleichen Fehlermeldung:

Error.jpg

Eingerichtet hatte ich das wie folgt:
Display.jpg

Die Fehlermeldungen kamen daher, dass die Option fürs Herunterfahren nicht richtig gesetzt und noch dynamischen RAM eingestellt hatte.

Das System sollte es eigentlich grds. können:
i3-7100 (kann vt-x und vt-d), Asrock mITX ac irgendwas (auch vt-d und vt-x im BIOS enabled).
 
Zuletzt bearbeitet:
Wenn du den meinst: bcdedit /set hypervisoriommupolicy enable

Hab ich gemacht. Ich vermute mal, dass da irgendwas anderes (BIOS?) hakt, ist halt ein Consumer Mainboard und Consumer CPU und Consumer OS und Consumer Graka. :)

Das Survey-ppa.ps1 Skript von Microsoft sagt auch, dass die 1080ti nicht laufen wird - bei anderen Geräten hingegen ist’s grün:

surver-ppa.jpg

Das muss zwar kein k.o.-Kriterium sein (Gerät lässt sich mit -force ja dismounten), aber so ohne Weiteres wollte es eben leider nicht.
 
Zuletzt bearbeitet:
Uh... da mITX-Board mit eh nur einem x16 Slot würde ich mal vermuten CPU. Muss ich mal das Manual konsultieren.
 
Die 1080Ti einfach mal über den GereäteManager auf dem Hypervisor deaktiviert?
Die Karte ist auch nicht an nen Monitor angeschlossen?

Runterfahren und DynRAMMin=StartRAM haste gesetzt nun, richtig?
 
Hallo an alle,
Bei mir läuft mittlerweile auf einem Hyper-V 2016 Datacenter with Gui der aktuelle OmniOs Stable + aktuelle Napp-IT Free Version.

Zur Vorgehensweise:

Hardware muss DDA unterstützen und es wird folgende Hardware an sie durchgereicht: Einmal der HBA bei mir war es zum testen ein P420 im RAID Mode (kein passender HBA im IT-Mode vorhanden gewesen) + 4 SSD als jeweils einzelne RAID0 welche ein RAIDZ (Raid5) bilden. Es ist kein L2arc oder Cache ala Optane eingebunden. Ein weitere HP Mellanox X2 als 10Gbit/s SFP+ Adpater only für die VM. Dementsprechend hat mein HOST aktuell 3X10Gbit/s. 2x für die VM/ Storage Kommunikation welche 2 vSwitches bilden + 1x 10Gbit/s only für die Napp-IT VM.

Ich werde mich im laufe der Woche mal an diverse Tests wagen und die Performance testen. Zum Stromverbrauch ist es aktuell so wenn ich den T440 (wie in der Signatur) unter Hyper-V fahre + P420 + Mellanox X2 im Idle bei 150Watt liege wenn ich die ganze Konfig unter Esxi 6.7 betreibe ohne zusätzliche Mellanox liege ich bei knapp 180Watt.

Daher ist es für mich so erstmal okay und wenn die Performance passt schreibe ich noch ein kleines Tutorial wie man das ganze händeln muss. Für Anregungen bin ich offen.

Gruß Niklas
 
Sorry, bin zu blöd: du hast die Mellanox x2 auch per DDA durchgereicht und die hat einen Port, korrekt?

Also die beiden anderen NIC-Ports (aufm Mainboard / andere NIC) stehen regulär den anderen VMs bzw. dem Host zur Verfügung?
 
Genau so schaut es aus. Aber der Server hat Onboard keine deshalb ist noch eine Dual Port Hp NC550 verbaut aber die ist rein nur für den Host und die anderen VMs
 
Hi zusammen,

ich habe ein Problem, mit meinem neu eingerichteten Teaming auf zwei Hyper-V Hosts, wo ich auf eure Expertise angewiesen bin. Folgendes Szenario:

ServerA (Quad Port NIC) --- > billiger Netgear Switch ----> ServerB (Dual Port NIC)

Auf ServerA hab ich aus den 4NICports ein Team gemacht, auf ServerB aus den zwei NICs (jeweils TeamingMode: SwitchIndependent, LoadBalancingAlgorithm: Dynamic)
Beide Server haben Windows Server 2016 installiert.
Da es 1Gbit NICs sind sollte also zwischen ServerA und B etwa 2GBit Durchsatz möglich sein, oder?

Kopiere ich von ServerA auf ServerB (jeweils SSD) ein 10GB File via SMB3, komme ich nicht über 100MB/Sek. Erwartet hätte ich mindestens 150+MB/Sek.
Hab ich irgendwo einen Denkfehler? Wird das Teaming nur genutzt wenn mehr als TCP Stream genutzt wird?

Danke Cx64
 
Hallo,

das Teaming bringt keinen höheren Durchsatz wenn nur 1 Cllient anfragt. DIese Durchsatzerhöhung kann man nur feststellen wenn mehrere Clients Daten anfrage/kopieren. Daher wenn du Performance brauchst zwischen den zwei Servern hole dir 2 günstige Mellanox X2-SFP+ mit DAC Cable da hast du dann zwischen 400-500 MB/sek.

Gruß Niklas
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh