[Sammelthread] Microsoft Hyper-V Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ok, ich verstehe die Vorgehenswseise - aber dann muss ich immer die Basis-VM vorhalten.

Geht es nicht auch einfach so, die VM zu kopieren und dann eine vollkommen von der Basis-VM unabhängige neue VM zu bekommen? Die auch ohne den Verweis auf die Basis-VM funktioniert?
 
Zur Lizenzfrage muss ich passen.

Zu Linux: Ubuntu lüppt das ganz normale ISO von der Homepage
 
Ja das geht auch. Du kannst die Basis-VM Syspreppen und dann von der Szsprep/Maschine die Kopien erstellen. So hat dann jede Kopie eine eigene SID. Wenn du simple Kopien erstellst kannst du, je nachdem was du vorhast, noch andere Probleme bekommen.
 
Und im dem Fall kann ich dann die Basis-VM auch löschen oder verändern und meine Kopien laufen trotzdem standalone weiter?


Muss ich das Sysprep Kommando innerhalb meiner Win10-VM ausführen oder auf meinem Win2012R2-HyperV-Server?
 
Zuletzt bearbeitet:

Genau...
Ich habe mir für meine Tests eine "Haupt-VM" erstellt, frisch installiert, mit einem passenden Namen versehen, Updates installiert und dann exportiert. Diese VM nutze ich nicht produktiv, sondern erstelle mir aus ihr die neuen "Test-VM's", die ich dann einfach importiere, so nutze und nach den Tests direkt wieder löschen kann.
Funktioniert prima.
Nur beim importieren eben drauf achten, dass man die passende(n) Checkbox(en) setzt.
 
Hi,

hat evtl. jemand von Euch ein S2D HCI (SAN&CLuster) mit der TP5 am laufen .
Ich habe bei mir je 3 nodes (i5, 16GB, 3 x 1GB NIC RSS) mit je 2 Kingston SSDs pro Knoten.
Das CSV ist ein 3 way mirror mit 2 columns.

Die Performance ist allerdings unterirdisch. D.h., auf das CSV kann ich lokal gerade mal mit 120MB/s kopieren, dann ist der Virtuelle Datenträger auf 100% sowohl bei IO, als auch bei der Übertragungsgeschwindigkeit.
Den SMB3 Share kann ich aus dem Netz lediglich mit 75MB/s schreiben und und mit gut 90MB/s lesen. Da die Mirrors gestriped sind, müsste die Lesegeschwindigkeit wesentl. höher sein. Die Nics auf den Nodes sind nur zu 30% ausgelastet.

PS: Ich verwende intel nucs, und habe daher keinen SLOT für 10GBit NICs, die eigentlich empfohlen sind. Aber die 300Mbit/s sind auch max. zu 50% ausgelastet.


Gruss Thomas
 
Zuletzt bearbeitet:
Wie sieht denn bei dir genau die Storage-Konfig aus? Dann könnte ich mal im Rahmen meiner bescheidenen Möglichkeiten @home versuchen, das möglichst nah nachzubauen.

Also: Storage mit Windows Storage Spaces gebaut, iSCSI LUNs oder wie genau? (Der Laie in mir schnallt vor allem nicht ganz, was der 3 way mirror mit 2 columns ist...) :)

Oder meinst Du damit einen CSV-Storage-Verbund über die jeweils 2xSSDs (im Raid1?) in allen drei Nodes?

Wenn letzteres, könnte es vielleicht sein, dass eben Dein Gbit-Netz limitiert: denn schiebst Du was "lokal" auf so ein CSV, muss das ja an alle drei Knoten und ich könnte mir vorstellen, dass der dann versucht, die Daten gleichzeitig in allen 3 Nodes abzuladen. Also er wird vielleicht eben NICHT ERST LOKAL schnell hinballern und DANN in die anderen Nodes (nachträglich) replizieren, sondern er sorgt für GLEICHZEITIGES Schreiben in allen 3 Nodes. Lahmt einer davon (oder eben zwei), leidet darunter auch die lokale schnelle SATA-Verbindung.

Aber nur eine Theorie, keine Ahnung wie die Storage Spaces genau funktionieren (falls Du die überhaupt hast).

Wenn Deine NUCS über Gbit verbunden sind, sind die 120MB/s aber eben ziemlich genau die Grenze der Gbit-Verbindung.
 
Zuletzt bearbeitet:
ok, verstanden. Storage Spaces wollte ich eh schon länger mal ausprobieren (brauch es halt nur nicht wirklich, ich nutz' ZFS-Storage als Unterbau für alles).

Muss nur mal schauen, ob ich das irgendwie in meiner Landschaft aufgesetzt bekomme. Vielleicht merkt so ein unter ESXi virtualisierter Hyper-V ja nicht, wenn seine "lokalen" Festplatten nur vmdk-Dateien sind... *hust* ... hab halt leider nicht mehr genug Kisten und die dann auch noch mit freien Platten zur Verfügung.

- - - Updated - - -

Höhö:

...The servers in a Storage Spaces Direct configuration are generally expected to be a dual-socket CPU configuration...

...The recommend minimum is 128GB [RAM!]...

...Storage Spaces Direct requires a minimum of one 10GbE network interface card (NIC) per server...

...
Code:
Get-PhysicalDisk | FT FriendlyName, Mediatype, BusType -autosize
The devices must show with bustype as either SAS (even for SATA devices) or NVMe (you can ignore your boot and system devices). If the devices show with bustype SATA, it means they are connected via a SATA controller which is not supported. If the devices show as bustype RAID, it means it is not a “simple” HBA, but a RAID controller which is not supported. In addition the devices must show with the accurate media type as either HDD or SSD...

Quelle mit weiteren Infos.

Und aus den Kommentaren:

... Storage Space Storage Bus Uses 10Gb of Memory per 1Tb of performance disk...
...damit meinen die SAS- und NVMe-SSDs. :d

Und was meine Theorie oben bestätigt:
You can create a Storage Space Direct Cluster using 1Gbe but performance is horrible with the way writes are confirmed.
 
Zuletzt bearbeitet:
Bei meinem alten Windows 7 hatte ich mit dem XP-Mode ein nettes Feature: Ich hatte Programme im XP-Mode installiert, konnte das Icon aber auf meinem normalen Win7-Desktop legen, so dass ich das Programm ganz normal starten konnte, wie wenn es lokal auf Win7 installiert wäre. Es lief jedoch in einer Sandbox im XP-Mode.

Funktioniert das mit Hyper-V auch? Oder gibt es sonst eine Möglichkeit, diese Funktion irgendwie nachzurüsten - evtl. auch mit anderen Virtualisierungslösungen?



Hintergrund: Ich habe im XP-Mode einen Browser am laufen gehabt, der komplett von meinem Produktivsystem abgekoppelt war und auch über eine eigene Netzwerkkarte (und auch separaten DSL-Zugang) ins Internet ging. Mit diesem konnte ich auch Viren bekommen, ohne das es etwas gemacht hätte - mein Produktivsystem blieb sauber. Und nach einem Neustart war der XP-Mode-Browser wieder "sauber" und alles war auf Standard.
 
dazu brauchst du einen Windows Terminal Server (RDP), den man auch auf Hyper-V installieren kann.
Das Feature nennt sich: Remote App. Geht dann auch via Webbrowser (IE) aus dem Internet heraus mit dem RD Client von MS auf dem Ipdad! Man benötigt dann aber einen DC und ein https-Zertifikat.

Es gibt aber auch eine direkte Lösung, die ich nie getestet habe:
http://www.andysblog.de/windows-ter...u-inkl-remoteapp-mit-windows-xp-und-windows-7
 
Das ist mir aber ehrlich gesagt etwas zuviel Aufwand, nur um einen unabhängigen Browser zu bekommen.

Einfacher gehts nicht? Win10 in VM installieren, Verknüpfung auf lokalen Desktop ziehen - fertig ---> so in der Art?


Ich hatte mal was gefunden, dass das auch mit Virtual-PC oder VM Workstation gehen solle? Also mit Hyper-V gehts jedenfalls definitiv nicht so einfach?
 
Sorry, aber für solche konkreten Zwecke gibt es browser in the box. Untergrund ist Virtualbox. Browser läuft auf einem gehärteten, abgespeckten Linux. Frei für Homeuse. Wahlweise mit Firefox oder Chrome.

Alternativ gab es früher auch mal für solche Zwecke sandboxie - das habe ich aber selbst nie benutzt und habe die Entwicklung auch nicht weiter verfolgt.

Mit Virtualbox kannst Du, glaube ich, auch allgemein Verknüpfungen zu VMs auf dem Desktop ablegen, die dann bei Doppelclick starten - bin ich mir aber nicht ganz sicher. Hatte Virtualbox 4.x.x selbst im Enterprise-Bereich über ein Jahr "produktiv als Feldtest" im Einsatz und war total glücklich damit bis auf einige wenige Zipperlein (die mit der aktuellen Version glaub auch erledigt sind).

Aber nur für einen Browser würde ich lieber das fertige Browser in the Box von Sirrix nehmen, das setzen auch staatliche Stellen und andere Unternehmen im professionellen Umfeld ein.
 
Zuletzt bearbeitet:
Wichtig ist mir eigentlich vor allem, dass nicht die LAN-Konfiguration von meinem Produktivsystem hergenommen wird, sondern ein über einen USB-LAN-Adapter zusätzlich angeschlossener DSL-Router mit direktem Internetzugang. Das Wirt-System soll geschützt bleiben so gut es geht und hängt hinter einer Firewall in einer Domäne.

Aber ich schau mir mal die Empfehlung von dir an.
 
Keine Ahnung was da in der freien Version geht. Im Enterprise kannst du den ganzen Verkehr z.B. über separate (v)Lans mit separatem Gateway schicken und die Clients auch über das Gateway konfigurieren.
 
Auch auf die Gefahr hin, das die Frage hier nicht zu 100% hinpasst:
Wenn ich einen Storagepool erstelle, kann ich diesen an einem adneren Server weiterverwenden?
Beispiel:
Win 2012 R2 mit Hyper-V Rolle. Storagepool über 2-3 Platten für die VMs.
Ende des Monats wird Win 2016 installiert. Kann ich ihier dann den Pool weiterverwenden?
 
Servus bin recht neu im Thema Hyper V, hab da aber gleich mal eine Frage!

Ist es möglich mein Vorhandes (installiertes) Win 10 Hauptsystem in ne VM umzuwandeln ?

Gruß
 
Auch auf die Gefahr hin, das die Frage hier nicht zu 100% hinpasst:
Wenn ich einen Storagepool erstelle, kann ich diesen an einem adneren Server weiterverwenden?
Beispiel:
Win 2012 R2 mit Hyper-V Rolle. Storagepool über 2-3 Platten für die VMs.
Ende des Monats wird Win 2016 installiert. Kann ich ihier dann den Pool weiterverwenden?

Ja.


Servus bin recht neu im Thema Hyper V, hab da aber gleich mal eine Frage!

Ist es möglich mein Vorhandes (installiertes) Win 10 Hauptsystem in ne VM umzuwandeln ?

Gruß

Ja, zb mit Disk2vhd => https://technet.microsoft.com/en-us/sysinternals/ee656415.aspx
 
Oder mit Vmconverter von VMware
 
oki das hat geklappt danke dafür mit dem Disk2vhd!!

ist es möglich ein System mit Hyper V einzurichten und dann auf meine System SSD zu spielen (clonen oder so) Sprich ich setzte mir in ruhe ein Windows 10 per Hyper V auf das ich dann als Hauptsystem nutzen möchte?

Gruß
 
Variante 1: Nicht ganz so einfach, aber geht (siehe insbesondere Step 4):

https://technet.microsoft.com/en-us/library/hh825691.aspx

Vorteil: das System bleibt in der VHD(x)

Variante 2: vhd2disk

http://forum.sysinternals.com/vhd2disk_topic27311.html (Siehe 2. Posting)

Oder auch eines meiner persönlich besten (bzw. wertvollsten HowTos) im Umgang mit Windows-Boot-Spielereien, zwar für einen ganz spezifischen Fall aber dafür mit allem zippundzapp:

Hyper-V Server 2012R2 von USB booten

Anmerkung: das USB-Booten geht nach meinem Kenntnisstand von Haus aus nur bei dem Hyper-V Server bzw. Windows PE, da (nur) diese die USB-Treiber RECHTZEITIG im Bootvorgang laden.
 
Zuletzt bearbeitet:
Kurze Frage: Ich habe ein Ubuntu-Gastsystem auf einem Windows 10 in Hyper-V installiert, switch ist "extern". Jetzt möchte ich gerne einen Shared-Folder über ein cifs-Freigabe des Host-Systems realisieren.

Die Windows-Firewall blockt allerdings jeden Zugriff vom Gastsystem, schalte ich die Firewall für Private Netzwerke ab, gehts. Allerdings wäre es schön, nur eine Regel zu haben die es ermöglicht, statt sie komplett abzuschalten. Kann mir jemand weiterhelfen?
 
Kurze Frage: Ich habe ein Ubuntu-Gastsystem auf einem Windows 10 in Hyper-V installiert, switch ist "extern". Jetzt möchte ich gerne einen Shared-Folder über ein cifs-Freigabe des Host-Systems realisieren.

Die Windows-Firewall blockt allerdings jeden Zugriff vom Gastsystem, schalte ich die Firewall für Private Netzwerke ab, gehts. Allerdings wäre es schön, nur eine Regel zu haben die es ermöglicht, statt sie komplett abzuschalten. Kann mir jemand weiterhelfen?

In der Windows Firewall die "Datei- und Druckerfreigabe" für das jeweilige Profil (Domäne, Privat, Öffentlich - bei dir wie geschrieben "Privat") aktivieren, schon sollte es gehen...

Und ein Tip: Wenn man mit PCs, Netzwerken, Hyper-V etc. mehr machen will, als nur ins Internet gehen, dann sollte man sich auch mal intensiver selbst damit beschäftigen und nicht nur fertige Lösungen suchen ;-)
 
In der Windows Firewall die "Datei- und Druckerfreigabe" für das jeweilige Profil (Domäne, Privat, Öffentlich - bei dir wie geschrieben "Privat") aktivieren, schon sollte es gehen...
Super :-) Vielen Dank...
 
Auch auf die Gefahr hin, das die Frage hier nicht zu 100% hinpasst:
Wenn ich einen Storagepool erstelle, kann ich diesen an einem adneren Server weiterverwenden?
Beispiel:
Win 2012 R2 mit Hyper-V Rolle. Storagepool über 2-3 Platten für die VMs.
Ende des Monats wird Win 2016 installiert. Kann ich ihier dann den Pool weiterverwenden?

ja, die Platten kann man in einen anderen Server stecken und muss den Pool dann importieren. Ich habe das einmal per GUI gemacht.

- - - Updated - - -

ok, verstanden. Storage Spaces wollte ich eh schon länger mal ausprobieren (brauch es halt nur nicht wirklich, ich nutz' ZFS-Storage als Unterbau für alles).

Muss nur mal schauen, ob ich das irgendwie in meiner Landschaft aufgesetzt bekomme. Vielleicht merkt so ein unter ESXi virtualisierter Hyper-V ja nicht, wenn seine "lokalen" Festplatten nur vmdk-Dateien sind... *hust* ... hab halt leider nicht mehr genug Kisten und die dann auch noch mit freien Platten zur Verfügung.

- - - Updated - - -

Höhö:









Quelle mit weiteren Infos.

Und aus den Kommentaren:

...damit meinen die SAS- und NVMe-SSDs. :d

Und was meine Theorie oben bestätigt:


Nun ja, man braucht natürlich noch NICs mit RDMA und 10GBit sind auch recht wenig, hier wird auch wesentlich mehr empfohlen, aber bei mir handelt es sich um eine SOHO Lösung.
Ich verfolge das Thema übrigens schon seit der TP2 und nehme dazu reale Maschinen, da eine Virtualisierung dieses Systems Schwachfug ist.

Des Rätsels Lösung ist, das das SMB Multichannel Scaling zwar zwischen den Servernodes funktioniert, aber nicht bis zum Client durchgereicht wird. Mit anderen Worten, wenn man im Client 4 NIC Ports hat, und baut eine SMB3.1x Verbindung vom Client zu einem S2D Share auf, wird zwar auf den Servern der Traffic zum Client auf alle NICs verteilt, nur leider wird von den 4 Client NIC Ports nur eines für den Traffic benutzt. Dieses Verhalten tritt auf 2 getesteten Clients auf. Deaktiviert man den NIC auf dem Client, über den der Traffic läuft, wird sofort ein automatisches Failover auf einen anderen NIC Port im Client durchgeführt. D.h., Teile vom SMB3 Multichannel funktionieren aber die Kanalbündelung klappt noch nicht in der TP5.

10 GBit NICs (für meine zwei Clients) befinden sich bei mir erst noch im Zulauf, dann habe ich aber noch das Problem, dass ich neben dem reinen 10 GBit Switch noch einen Switch 1/10GBit brauche, der wenigstens 1 x 10GBit Uplink zum 10GBit Switch hat, um die Server mit den diversen 1 GBit Ports (3 x 4) mit 10 GBit Switch zu verbinden, da der SMB3 Traffic, der gebündelt pro Server 3GBit/s für eine Verbindung betragen kann, irgendwie an die Clients mit den 10GBit NICs durchgereicht werden muss.
 
Naja, wenn man einen PCIe-HBA durchreicht, ist das vielleicht nicht vollkommener "Schwachfug". Mir ist SMB Multichannel auch noch zu fickelig bzw. zu wenig, um dafür auf die Vorzüge von ZFS und anderen Feinheiten eines Unix/Linux-Systems als Fileserver zu verzichten.

Hinzu kommt, dass ich seinerzeit mal einige Tests lokal auf den Storage Spaces (müsste TP3 gewesen sein) sowohl mit NTFS als auch mit ReFS gemacht hatte (Raid0, Raid1 und Raid5 pendants), und das gegen die entsprechenden Solaris bzw. Linux Konfigurationen schon lokal einfach deutlich langsamer war. Danach habe ich das Thema erst einmal für mich zu den Akten gelegt und warte primär darauf, dass SMB3 bei Solarish ankommt... ;)

Aber klar, auch alles nur Home use.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh