[Sammelthread] Microsoft Hyper-V Stammtisch

...

Leider Leider, sind die Kingston SSDs mit TLC Speicher. Und der Cache der den diese SSD hat müsste bei 3-4 GB voll sein. Dann fängt der Kopiervorgang über Netzwerk auf 40MB/s ab und ab diesem Zeitpunkt wäre sogar ein schreiben auf das HDD Tier schneller, dieses schreibt durchgängig mit 100 MB/S...
Tja Lehrgeld bezahlt würde Ich sagen. Also 2 neue SSDs müssen her.. :d

Kannst Du diese Aussage bitte konkretisieren?
Denn so wie ich sie lese, ergibt sie keinen Sinn: 'Bei laengeren Schreibvorgaengen auf die SSD ist die Rate nur 40MB/s'.
Wenn das so waere, liegt es nicht an den SSDs.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kannst Du diese Aussage bitte konkretisieren?
Denn so wie ich sie lese, ergibt sie keinen Sinn: 'Bei laengeren Schreibvorgaengen auf die SSD ist die Rate nur 40MB/s'.
Wenn das so waere, liegt es nicht an den SSDs.

Wieso nicht an der SSD? Folgendes passiert:
Die Kingston SSDs haben einen Cache wo der Flash als SLC angesprochen wird. Dieser wird zuerst gefüllt.
Wenn Ich jetzt größere ISO Dateien rüberkopiere bricht die Schreibrate von 100 MB/s nach ungefähr 4GB ein und zwar auf ~40MB/s.
Das ist der Moment wo der Cache voll ist und der langsamere TLC Speicher angesprochen wird.
Dieses verhalten tritt eben auch auf wenn man eine einzelne SSD nimmt und auf diese Daten kopiert. Daher sehe Ich hier den Übeltäter in den SSDs.
 
Mir auch nicht, bis Ich eben diese Einbrüche hatte. Im Nachhinein wäre es durch simples Googlen vermeidbar gewesen.
 
Zuletzt bearbeitet:
Dieser Artikel erklaert nicht die abrupten einbrueche auf konstante 40MB/s beim sequentiellen Schreiben eines grossen files.
 
Hallo zusammen,

ich würde mir gerne eine Renderfarm zusammenbauen, bzw. habe ich schon ein Rendernode mit 8 Rechnern, jeweils mit 32GB RAM und 24 CPUs. Jetzt ist die Frage: Kann ich irgendwie mit Windows 10 und Hyper-V die 8 Rechner zu einem Zusammenschalten, also einen Rechner mit 192 CPUs schalten ? Gehts das, wenn ja wie ?

Hintergrund ist, das ich nur eine Kiste Verwalten möchte, da es immer Unmengen an Zeit in Anspruch nimmt, die ganzen Render Programme upzudaten und so weiter. Da wir immer gefühlt 20 verschiedene Plugins usw für die Renderprogramme brauchen und die immer jeden Monat geupdated werden müssen, wäre das Verwaltungstechnisch von sehr grossem Vorteil. (Lizenztechnisch sind wir voll ausgestattet, wir besitzen alles Original und wir haben für alle Maschinen eine Lizenz, Cinema4D, 3DsMax, V-ray und so weiter und so fort).

Freue mich über Vorschläge ;)
 
Ich glaube, was Du suchst geht eher so in Richtung "Beowulf Cluster" - habe mal google gequält, aber Microsoft scheint dafür nicht die erste Wahl zu sein.

Ich habe auf einigen Veranstaltungen mal virtualisierte Grafikanwendungen (Echtzeit-Rendering) über Cloud-Cluster gesehen, die liefen aber auf vmware-Basis.

Vielleicht hilft Dir ja das hier: ist zwar für Deep Learning gedacht, aber eventuell findest Du ja Anregungen: How to Build a GPU-Accelerated Research Cluster | NVIDIA Developer Blog
 
Zuletzt bearbeitet:
Guten Abend,

ich habe mal eine Frage an die Experten,
es dreht sich um Hyper-V und 10 Gigabit Netzwerkkarten. Und zwar bekomme ich in einer VM keine 10 Gigabit übers Netzwerk beim kopieren von Daten zwischen RAMDisks.
Zwischen den Hosts erreiche ich konstant 1 Gigabyte pro Sekunde. Wenn ich in einer VM eine RAMDisk mache sind es "nur" 650 Megabyte. Das ist zwar nicht Praxisrelevant da meine SSDs per SATA angeschlossen sind, dennoch würde mich interessieren warum das so ist, und ob das normal ist das es in der VM weniger Leistung ist, da über einen virtuellen Switch angeschlossen oder ob man dafür noch was optimieren müsste?

Zur Hardware:
zwei T20 Xeon mit Mellanox 10Gbit Netzwerkadaptern und 16Gigabyte RAM.
Den VMs waren 12 Gigabyte RAM sowie 4 CPU Kerne zugeordnet.

Auch von Host zu VM waren es nur 650 MB/S

freue mich über Antworten.

Ein schönes Wochenende zusammen.
 
HowTo 10: Brute-Force Server 2016 Installation mit UEFI-BIOS (oder: "bist Du nicht willig...")

Aus gegebenem Anlass: Falls jemand - so wie ich - versucht, einen Server 2016 mit einem reinen UEFI-Bios aufzusetzen und der Windows-Installer ums Verrecken nicht durchlaufen will...

In meinem Fall bricht er ab, nachdem man den Zieldatenträger ausgewählt hat. Immer. Egal was ich probiert habe und ging eben selbst dann nicht, nachdem ich der Disk bzw. dem Installer mit diversen manuellen Eingriffen auf die Sprünge helfen wollte. (USB-Boot-Stick mit Rufus probiert. Manueller bootstick (u.a. mit FAT32 und dism Split-Image) probiert. 3 verschiedene USB-Sticks ausprobiert. DVD-Installation probiert. Nix wollte.)

Ja, ich hätte auch einfach im Bios einfach den Legacy Modus aktivieren können. Wollte ich aber nicht (u.a. weil verschiedene andere OS auf anderen Datenträgern sitzen, prima nur mit UEFI zurecht kommen und ich da nichts verfummeln wollte...)

Ja, es geht bestimmt auch irgendwie eleganter. Mir ist aber der Geduldsfaden gerissen, hatte keinen Bock mehr auf irgendwelche HowTos und halbgare Ideen im Netz die dann doch nicht funktionieren und dann wollte ich's halt einfach wissen So geht's auf jeden Fall. Übrigens auch mit Windows 10 wenn das mal rumzickt.

Hier jetzt also der Brute-Force Ansatz:

(Im Prinzip sind das nur zwei simple Befehle - wenn man weiß wie. Ich hab die mal unten fett für hervorgehoben. Der Rest ist nur Dreingabe, um die richtigen Quellen und Ziele zu identifizieren.)

0. Ausgangsbasis: Ihr habt eine Server 2016 ISO. Ihr wolltet installieren aber nach der Auswahl des Installation-Ziels wirft der Installer eine Fehlermeldung (Datenträger nicht verfügbar, Error 0000000...irgendwas oder ähnliches). Wenn ihr danach diskpart aufruft oder wieder im Installer weiter geht, sind auf der Ziel-Disk dann 4 Partitionen (Recovery, System, Reserved, Primary) angelegt, aber nichts drin.

Vom Installer ab in die Kommandozeile mit Shift+F10 (und da bleiben wir auch):

1. diskpart
2. list disk / select disk # (# = Nummer Eurer Zieldisk)
3. list partition (dort nach der Partition mit dem Label "Primary" Ausschau halten, bei mir 4)
4. select partition # (Partition "Primary")
5. format fs=ntfs quick
6. assign letter=J
7. exit
8. Wechseln ins Stammverzeichnis des Installationsmediums (kann man identifizieren mit: wmic logicaldisk list brief --> SSS_X64FREE...DV9"), also z.B. "e:"
9. Gewünschtes Install-OS suchen: "dism /get-wiminfo /wimfile:e:\sources\install.wim"; Beispiel: DataCenter-Edition mit GUI ist Index Nr. 4
10. Kontrolle: dism /get-wiminfo /wimfile:e:\sources\install.wim /Index:4
01_CheckIndex.jpg
Sieht gut aus.
11. dism /Apply-Image /ImageFile:e:\sources\install.wim /Index:4 /ApplyDir:J:\

So, jetzt haben wir immerhin schon einmal die doofe Installation auf der Disk. Kommen wir zum Boot-Environment.

12. diskpart
13. select disk # (# = Nummer Eurer Zieldisk)
14. list partition (dort nach der Partition mit dem Label "System" ausschau halten, bei mir 2)
15. select partition # (# = System Partition)
16. format fs=fat32 quick
17. assign letter=K
18. bcdboot J:\windows /s K:
Wenn alles richtig funktioniert hat, sollte dann auf Laufwerk K sowas wie ein Verzeichnis /boot drin sein.
19. Reboot, Passwort setzen, Sprache, Keyboard-Layout usw. auswählen, fertig.
02_Done.jpg
So eine kleine dreckige Mistkiste.

EDIT: Howto im Startpost ergänzt.
 
Zuletzt bearbeitet:
Guten Abend,

ich habe mal eine Frage an die Experten,
es dreht sich um Hyper-V und 10 Gigabit Netzwerkkarten. Und zwar bekomme ich in einer VM keine 10 Gigabit übers Netzwerk beim kopieren von Daten zwischen RAMDisks.
Zwischen den Hosts erreiche ich konstant 1 Gigabyte pro Sekunde. Wenn ich in einer VM eine RAMDisk mache sind es "nur" 650 Megabyte. Das ist zwar nicht Praxisrelevant da meine SSDs per SATA angeschlossen sind, dennoch würde mich interessieren warum das so ist, und ob das normal ist das es in der VM weniger Leistung ist, da über einen virtuellen Switch angeschlossen oder ob man dafür noch was optimieren müsste?

Zur Hardware:
zwei T20 Xeon mit Mellanox 10Gbit Netzwerkadaptern und 16Gigabyte RAM.
Den VMs waren 12 Gigabyte RAM sowie 4 CPU Kerne zugeordnet.

Auch von Host zu VM waren es nur 650 MB/S

freue mich über Antworten.

Ein schönes Wochenende zusammen.

Hmm niemand eine Idee?
 
Schwer zu sagen. Welches OS in der VM bzw. den (baremetal) Hosts nutzt Du jeweils?
 
Get-NetAdapterAdvancedProperty => Einstellungen prüfen, Jumboframes sind je nach Treiber z.B. nicht per Default aktiv

Weiters würde ich die Auslastung deiner CPU am Host prüfen, je nach Treiber und VMQ Setting läuft die gesamte Last ggf auf einem einzelnen Core.
 
Jumboframe bei Host und Gast deaktiviert. Last verteilt sich auf alle 4 Kerne.
Allerdings von VM zu Client sinds 700MB/S umgekehrt nur 500MB/S Beidesmal auf RAM DISKs. CPU Kerne werden alle verwendet.
 
Hallo,
ich möchte eine VM (Windows 10 pro ) exportieren bekomme aber immer diese Fehlermeldung.

vm.PNG

Alle anderen VM´s lassen sich aber exportieren.
 
@DerErzherzog:

Also, ich hab das jetzt mal nachgestellt.
Client: Windows10-VM auf dem Mainserver meiner Signatur (ESXi-VM mit 24GB RAM)
Host: Server 2016 auf i3-7100 mit Windows10-VM (32GB RAM)
Netzwerk: jeweils Intel x540-T2 10Gbase-T mit D-Link DXS-1210-10TS dazwischen.

Ramdisk: rechts und links 22GB mit Softperfect RAMdisk

Keine besonderen Einstellungen, also keine Jumbos etc.

ESXi-VM liest von Hyper-V-VM
00_ReadFromVM.jpg

ESXi-VM schreibt auf Hyper-V-VM
01_WriteToVM.jpg
 
Danke dir für deine Mühe!
Hmmm ESXI lesen von Hyper-V habe ich mit Hyper-V ähnliche Werte. ESXI schreibend auf Hyper-V hast du deutlich bessere Werte. Wirklich interessant, dass es da so einen großen Unterschied gibt.
Komisch jedoch, dass 1 Gigabyte nicht erreicht werden...

In meinem Falle ist es irrelevant, da ich "nur" Sata SSD´s verwende, die das ganze dann ausbremsen. Aber wenn man das in großem Stile nutzt als Fileserver mit vielen Platten oder SSDs dann ist das doch relativ ernüchternd finde ich.

Schönen Sonntag zusammen.
 
N'Abend zusammen,

ich denke, hier bin ich mit meiner Frage richtig. :-)
Ich habe eine HP Microserver Gen8 momentan mit Windows Server 2016 und der Hyper-V Rolle und würde nun gerne auf den Hyper-V Server Core wechseln. Wie installiere ich den am besten? Mit dem Intelligent Provisioning? Als Storage habe ich 4x3TB an einem HP P212 formatiert als ReFS. Da liegen meine Freigaben und Hyper-V Maschinen drauf. Das würde ich auch gerne so weiternutzen. Klappt das?
Den Hyper-V-Server installiere ich auf 2x64GB SSDs im RAID 1 am B120i Controller.

VG
 
N'Abend zusammen,

ich denke, hier bin ich mit meiner Frage richtig. :-)
Ich habe eine HP Microserver Gen8 momentan mit Windows Server 2016 und der Hyper-V Rolle und würde nun gerne auf den Hyper-V Server Core wechseln. Wie installiere ich den am besten? Mit dem Intelligent Provisioning? Als Storage habe ich 4x3TB an einem HP P212 formatiert als ReFS. Da liegen meine Freigaben und Hyper-V Maschinen drauf. Das würde ich auch gerne so weiternutzen. Klappt das?
Den Hyper-V-Server installiere ich auf 2x64GB SSDs im RAID 1 am B120i Controller.

VG

ISO von HyperVServer16 per IP ist, denke ich, der beste Weg.
Aber warum nicht Server16 nonGUI?
 
Reine Lizenzfrage. Der hyper-v ist kostenlos und eigentlich habe ich das meiste als VMs. Da reicht der hypervisor ja aus.
 
Ah ok, als standalone Server ist es wahrscheinlich auch Wurst.

Der P212 sollte eigtl keine Probleme machen. Aber Backup ist trotzdem ratsam.
 
Das heißt, auch unter dem hyper-v Server kann ich Benutzer und Gruppen anlegen und entsprechend Freigaben machen, oder?
Als Backup wollte ich meine 6tb USB weiternutzen. Evtl mit veeam sichern?
 
Vergleiche von Rollen und Features der unterschiedlichen ServerVersionen gibt es ja genug.
HVServer beinhaltet zB keinen DC. Aber mit new–smbshare kann via powershell eine Freigabe erfolgen. Ob und wie umfassend das auch in BrowserGUI von Project Honolulu schon funktioniert? KA

Backupstrategie sollte vorher klar sein. Ich nutze kein veeam, sondern mehr Scripte. Sollte aber gehen, klar.
 
Nur ein kleiner Hinweis: Seit Ende März ist die Server 2019 Technical Preview bei Microsoft zum Download erhältlich.

Wen's interessiert:

Download-Links und Keys für die Datacenter wie Standard Edition von Windows Server 2019 gibt es hier.

Die "Windows Server Insider Community" tummelt sich wohl hier.

Das Technical Preview Forum im Technet ist hier (allerdings noch recht ruhig da).


Ich persönlich interessiere mich ja primär für Virtualisierung, in dem Bereich gibt's wohl auch einiges:

Cluster Sets (Gruppierung von Failover Clustern)
Shielded Virtual Machines
Encrypted Network Traffic

Offenbar auch dabei: In-place-Upgrades, also einfach einen 2016er ohne Re-Install auf 2019 bringen - gilt wohl auch schon für die Technical Previews. Das gab es seinerzeit bei den 2016ern nicht und der ewige Reinstall hat mich schon etwas genervt.

Leider noch keine Infos zu etwaigen neuen unterstützten Gast-OS (Solaris bitte bitte bitte... aber wohl extrem Unwahrscheinlich).

Also Jungs und Mädels, Zeit die Lab-Environments mal wieder hochzufahren... :d
 
Zuletzt bearbeitet:
danke für den 2019er Hinweise ..


... hat sich erledigt ...
der DHCP Server hatte keine freien Ips mehr (DAU hoch 2)


habe hier leider ein Crosstopic, aber der Xen-Stammtisch Thread ist etwas dünn ..

Ich muss das bare metal backup einer Windows 7 Maschine in eine XenServer 7.2 VM bringen und diese dann als Export an 3te übergeben. Andere Dinge scheiden von vornherein aus, da dort niemand vor Ort ist, der sich mit XenServer auskennt (da muss dann immer ein externer Dienstleister ran).

Mein Wissenstand ist der, dass ich bis gestern mal das Wort XenServer gehört habe, aber nicht mal wusste, das das Teil von Citrix ist. Um es auf drei Buchstaben zu bringen == DAU. Ich arbeite nur mit Hyper-V.

Mangels anderer Hardware habe ich mir eine nested vm unter Hyper-V erstellt und dort ein legacy NIC installiert. Mac Spoofing ist aktiv, MAC dynamisch.

Dort läuft nun XEN-Server.
Der NIC wird als DEC 21140 angezeigt mit 0 Mbit/speed und Half Duplex! Keine Ahnung, ob das so "Serie" ist!?

Auf dem XenServer habe ich eine leere Win7 64 VM mittels Template erstellt und in die RE Umgebung gebootet. Ziel war es, ein bare metal backup via SMB Share zu laden.

Das Problem ist, dass die Windows Maschine keine DHCP Adresse zugewiesen bekommt!
Der NIC liegt erhält 169.254.x.x.
Der DHCP-Server befindet sich als physische Maschine im selben Netz.

Ich habe dann einen weiteren legacy NIC in den "Host" eingefügt und per shell eingebunden und dann mal eine clean Win7 install durchgeführt. Dort erhalten die NICs auch wieder eine 169..
Selbiges passiert auch nach der Installation der XenTools auf der Win7 Client VM.

Weise ich eine statische IP zu, dann bekomme ich einen connect zum Netz.

Ich brauche aber eine DHCP IP in der VM.

Könnte mir evtl jemand sagen, was ich falsch konfiguriert habe?

Danke ..
 
Zuletzt bearbeitet:
Weiß man schon, ob Server 2019 bei Roaming Profiles die Version auf v6 wie bei Win 10 oder gar auf v7 erhöht?
 
Zuletzt bearbeitet:
Puh, bin in Sachen Hyper-V ein wenig eingerostet.

Habe jetzt mal Discrete Device Assignment unter Windows 10 und einem 9305-24i HBA probiert.

Bei der Gelegenheit ist mir aufgefallen, dass mein HowTo 9 dazu noch eine Information mehr enthalten dürfte, konkret wie man das Device dann elegant(er) für den Dismount über eine Variable $Locationpath anspricht (so auch in dem von mir verlinkten original-HowTo - hatte ich damals offenbar für die Screenshots manuell gemacht...keine Ahnung warum). Hab' das in einem neuen Schritt 5 im HowTo 9 ergänzt.

Außerdem habe ich eine neue Fehlermeldung bekommen, dass ein "Virtualisierungsfeature für den Benutzer nicht verfügbar" sei:

Fehler.jpg

Dagegen soll angeblich ein "bcdedit /set hypervisoriommupolicy enable" helfen - tut's bei mir aber nicht. In der 1709er Version war angeblich DDA kaputt, keine Ahnung ob das immer noch gilt...

Weiss da zufällig einer etwas zu? Bin mir noch nicht sicher, ob ich dem weiter auf den Grund gehen will. Kann ja ggf. an Windows 10 oder auch an der konkreten Hardware liegen... zumal ich das selbst gar nicht brauch... :d
 
Zuletzt bearbeitet:
Anderen Port oder Controller probieren, HBA´s sind diesbezüglich eine Bastelei.
 
Aktuell soll wohl unter Windows 10 Hyper-V mit DDA nur Grafikkarten Supported sein, mehr kann gehen muss aber wohl nicht :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh