[Sammelthread] Microsoft Hyper-V Stammtisch

Sehe gerade dass Du Windows Server hast, da wäre die Hoffnung natürlich, da, dass es damit besser geht... hmm Oder doch ne kleine Quadro holen und Proxmox als Basis...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich sehe aber auch bei dir diesen relativ linearen Anstieg zu Beginn, mit Drop nach dem Plateau... das hab ich so auch öftes gesehen am WE ;-)
 
Anyway: Nun habe ich während ich W10 neu installiert habe, auch wieder etwas Speedtests gemacht, under wollte Partout nicht über 450 MB/s. Jumbo Frames etc. natürlich aktiviert. Also mal direktes Netzwerk aufgebaut, zack 1,15 Gb/s am Anschlag. Später dann aber auch nur noch 400 MB/s...

Läuft auf ner 950 PRO / 3 RAID0 aus 1TB SATA SSDs (sowohl Windows Stripset, wie auch Intel Rapid Storage getestet).
Dem ersten Teil entnehme ich, dass einfach dein Storage nicht schnell genug ist.
Weil "später dann aber auch nur noch 400MB/sec" bedeutet einfach nur, dass du stark vom RAM Caching profitierst, weil die Daten preloaded in den RAM gehen bei der Quelle und je nach Setting, im Ziel auch über den RAM erst auf das Storage geschrieben werden. Wenn der Cache aber voll ist bzw. das Storage einfach nicht mehr schneller kann, dann bricht die Datenrate logisch auch entsprechend zusammen...

Btw. ist es bei solchen Problemen generell sinnvoll anstatt mit Protokoll overhead und unbekannten Einflüssen der SSDs usw. usf. mal rein einen Netzwerkperformance Test durchzuführen um zu schauen ob die Physik überhaupt groß Leistung liefert.
Bei 10GBE kommen mir auch 800MB/sec wenig vor. Die 950er kann zumindest lesend für nen Single Filetransfer >10GBE abdecken. Und die drei SATA SSDs via Raid 0 sollten zumindest für eine gewisse Größe, wenns nicht wirklich absolute billig Modelle sind, entsprechend in Richtung des SATA Interface Speeds mal fast Faktor 3 agieren. Also auch >10GBE.

PS: lass dich aber nicht vom RAM Caching täuschen. Es reicht teils schon einfach eine Datei über Strg + C zum Kopieren zu markieren oder mit sowas wie aktiver Vorschau oder Fileinfo Helptexten dafür zu sorgen, dass das System schon anfängt das File in den RAM zu schreiben, sofern Cachebereiche verfügbar sind. Damit nimmst du dann nämlich schon eine der Seiten "raus" aus der Performanceanalyse die dir vllt bei anderen/weiteren Tests wieder auf die Füße fällt, weil eben keine Zeit zum Caching war oder sonstwas anderes. Immer das gleiche File kopieren kann auch ein Thema sein, wo Caching massiv greift.

Jumboframes wäre auch so ein Thema, das einfach irgendwo einseitig einzuknipsen ist Käse. Das sollte dann von Quelle bis Ziel überall und richtig supportet werden. Wenn da eine Kiste dazwischen ist, die da quer schießt, dann muss sich umständlich erst das große Paket von der Quelle zerhackstückelt werden um in der Mitte bei 1500er MTU durch zu passen. Kostet halt Zeit.


@*******
Kann es sein, dass du einfach nur in ein Fullduplex Problem rein läufst?
Weil je nachdem muss der Traffic einfach 2x durch die 10GBE Schnittstelle. Von der Strippe in den Host, dann über die Bride aus dem Host und in die VM. Kommt halt dann einfach drauf an, wie das bei MS gebaut ist. Bei bridged Networks könnte das genau das Thema sein. Die Hart angedeckelnden ~610MB/sec sind so ziemlich exakt 500MBit/sec, also halbes 10GBE. 640MB/sec wären theoretisch max.
 
Mhh das ist jetzt aber dann ein "anderes" Thema, weil es schwankt - da kommt was nicht hinterher. RAM Cache, Storage bei Quelle und/oder Ziel, CPU, Defender mit nem Scan oder sonstwas...
Der Linie zur Folge aber ist der erste Teil >600MB/sec. Im Vergleich zu deinem Screen weiter oben, der hart bei 610MB/sec andeckelt, wo offenbar einfach ein Interface Limit zu sehen ist. Vllt liegts auch an der Router VM - die Daten müssen ja dann sogar nochmal ne Runde drehen.
 
Ja natürlich - von nix, kommt nix. Nur ist der Einbruch ziemlich extrem. Das ist mir so nicht bekannt. Aber ich nutze auch kein Hyper-V :fresse:
Das kann halt leider alles und nix sein. Da der Start anfangs deutlich schneller war im Copy Fenster wäre auch das runterstufen der Belastung durch den Host bspw. nicht ausgeschlossen. Auch Powermanagement Themen usw. Von außen quasi gar nicht zu untersuchen. Aber darum gings ja auch gar nicht. Ich wollte nur drauf hinweisen, dass dein ~610MB/sec Limit nicht auf langsam weil VM hindeutet, sondern auf ein Limit aufgrund doppeltem Weg durch das Interface.
 
Wie ich bereits sagte, ich habe keine Ahnung wie Microsoft das mappt. Es wäre nichtmal ausgeschlossen, dass die virtuelle NIC gar kein Fullduplex kann. Auch privater vSwitch heist links rein und rechts raus. Damit es DURCH die Router VM geht, muss es auch irgendo am anderen Ende wieder rauskommen. Auch da wäre ein möglicher Punkt, wo es deckeln könnte. Wie gesagt, kein Plan wie Hyper-V das handhabt, ob das alles seperate Prozesse sind, ob das vllt alles irgendwo auf physische Interfaces gemappt wird oder oder oder. Auf nem vSphere vSwitch kann man bspw. rein virtuell so schnell wie die Hardware zulässt kopieren. Kommt aber eine der VMs mit dem Treiber nicht klar und deckelt auf 10GBE bei vmnet3, dann kannste intern SPeed haben wie du willst. Es wird nicht schneller...

Fullduplex ist btw. auch nicht zwingend immer in jedem Treiber gegeben. Offenbar ist dort ein Limit zu sehen, was du auf dem anderen Screen nicht hast, weil dort ist es schneller (zumindest am Anfang) und bricht dann folgend weg aufgrund von anderen Limitationen - diese sind aber schwanktend. Was "normal" ist, wenn irgendwo nicht eine Sache etwas klar eindeckelt... Limitation wo du quasi Strich einen Speed siehst wie die ~610MB/sec bei dir oben, deuten halt auf sowas hin. 🤷‍♂️ Aber vielleicht ist es auch rein zufällig so ziemlich exakt 500MBit/sec.
 
???
Kann doch nix für, das du es nicht verstehst? Ich hab helfen wollen, weil deine Aussage da oben schlicht falsch ist. Scheinbar bist du wieder mal nicht an Lösungen interessiert. Lass mal gut sein, dann glaub halt weiter dran, dass das an der VM liegt. Mir solls egal sein :wink:
 
Hab leider gerade keinen nativen Hyper-V Host zum gegentesten. :(

@******* kann evtl. sein, dass bei den Tests doch noch das Storage limitiert? Je nachdem wie viele Tests du so gemacht hast, braucht die SSD ja vielleicht etwas Pause für Garbage Collection, trim & Co.? Bei mir schwankt die Performance auf einem SSD-Pool bisweilen auch stark und wird bei mehreren Benches / Copyjobs hintereinander teils übel schlechter. Vielleicht mal ne Nacht warten?

Ist allerdings auch nur Stochern im Dunkeln. Konsistent hohe Performance ohne Einbruch bringen ja leider echt nur die Optanes...
 
Nein, ich hab aber auch kein schnelles Storage im Server (ZFS is verhältnismäßig laaaaahm). Ich dümpelte da teilweise bei nur ~300-400MB/s rum mit nem Raidz aus 4x SATA-SSD (860 EVOs).

Max linespeed bekomm ich immer nur mit Ramdisks raus. Aber kommt Zeit kommt Speed. Datenträger für Spielereien sind im Zulauf und ggf. diese Woche da... (nein, keine Optanes - leider).

@DFFVB Hast du mal probiert, wie es ohne den Asus-Switch funktioniert? Einfach mal die NICs direkt verkabeln, feste IPs und ab dafür?
Beitrag automatisch zusammengeführt:

P.S. Diskmark taugt m.e. nichtmal als Schätzeisen... :d
 
Wieso, wen bräuchten wir denn?
 
Einfach mal via jperf/iperf oder ähnlichem den Netzwerkdurchsatz testen, aber da müsste der Herr Fuchs ja Hilfe annehmen von Leuten die keine Ahnung haben... ;)
SMB Filetransfer ist halt nur so semi gut geeignet...

@besterino
du meinst 300-400MB/sec schreibend? Die Evos sollten doch lesend spielend das Interface zu machen? Oder ist das so ein Samba Problem auf Linux/Unix mit eher mauer SMB Performance?
 
@fdsonne jo, schreibend. Solaris hat kein
SAMBA, muss die Tage nochmal genauer testen.
 
Dem ersten Teil entnehme ich, dass einfach dein Storage nicht schnell genug ist.

Erstmal Danke für die ausführliche Antwort.

Gute Frage mit dem Storage, ich würde meinen schon. Habe mit 20GB, 80GB Files getestet. Zumal ich 800 MB/s bei TrueNAS nicht so langsam finde, ZFS ist ja eh keine Rakete, und Compression war auch an. Ganz im Gegneteil, ich hatte unter Windows auch noch mit Primo Cache getestest, es wurde nicht besser. Habe 32 GB RAM. Und freilich lesend nach Neustart, oder andere Datei... Andererseits hab ich auch gestern auf meiner 1TB 970 EVO mal nen 300 GB Backup rumgeschubst, was dann irgendwie auch die ganze Zeit recht lahm war... (600 MB/s) durchgängig, und wenn man liest dass Besterino auch solche eine Einrbüche hat...

2021-04-30 211643.jpg


Das hier ist die HIBP Passwort Datei, entpackt ca 25 GB... lief über den Switch. Bin verwirrt.

Weil "später dann aber auch nur noch 400MB/sec"

Das war der Unterschied. Ohne Switch direkt und straight 1,15 und mit Switch dieses langsame aufbauen...


Hast du mal probiert, wie es ohne den Asus-Switch funktioniert?

Nochmal lesen ;-) Ja hatte ich, da lief es erst mit 1,15 GB/s, später dann 400 MB/s. das waren aber auch 706 GB, und der Airflow für die X550 ist eher so semi...
 
Zuletzt bearbeitet:
Hmmm... irgendwie funzt das mit einer Hyper-V Installation in VHDX AUF einem USB-Drive (nicht zu verwechseln mit VON einem USB-Drive!) mit Server 2019 anscheinend nicht mehr? Probiert sowohl mit USB-Stick (da zickt aber z.B. auch schon Diskpart bei manchen Befehlen) und mit einer SATA-SSD in USB-Gehäuse (da lief bisher quasi alles mit). Hab sowohl EFI als auch Legacy BIOS ausprobiert.

Windows 10 komplett (bootmanager + VHDX) auf USB: geht.

Server 2019 nur Bootmanager auf USB mit VHDX auf „echter“ Disk: geht.

Gleiche VHDX auf USB: geht nicht.

Weiss da jemand zufällig was zu? Google ist etwas mühsam, man muss sich durch die ganzen Treffer zu „installieren VON USB“ quälen...
 
So. Hyper-V läuft mal testweise direkt auf Metall. Windows Admin Center ist ja ganz nett, aber für das Verwalten von VMs braucht man m.E. aber doch immer noch den Hyper-V Manager. Um den ohne Domäne ans Laufen zu bekommen, muss man auch immer noch beim Server und Client manuell mit Powershell und gpedit (client only) Hand anlegen.

Jetzt probier ich mal, ob man mit DDA nach der Ankündigung von Nvidia auch eine Consumer-GPU unter Hyper-V zum Laufen bekommt... :d

...höhö:

RTX3090Virtuell.jpg


Bild hab ich auch tatsächlich. Aber ohne Eingabegeräte noch irgendwie witzlos... mal schauen, was sich da noch machen lässt...

... und den ASmedia-USB-Controller von meinem Mainboard hab ich jetzt auch schon erfolgreich an die VM durchgereicht. Problem: der liefert nur einen USB Typ-C Port und dafür hab ich mal grad überhaupt kein Gerät/Kabel/Adapter da. :( Muss also etwas warten.
 
Zuletzt bearbeitet:
Hab Mal eine Frage an die Experten :).

Ich arbeite mit 2012r2 und 2016 Hyper-V und hatte eigentlich keine probleme.

Jetzt mit Server 2019 Hyper-V Core (in einer Domain) habe ich ein sehr komisches verhalten.

Beim Hyper-V Manager kann ich ein ISO Mounten von C: D: E: aber von G: nicht.(VM CD Laufwerk)

Dort heißt es immer Applikation failed to Open Remote File Browser

Die Berechtigungen auf allen Laufwerken sind gleich.

Die Firewall ist testweise auf beiden Systemen deaktiviert.

Ein G$ Share kann ohne Probleme verbunden werden.

Die VMs auf dem Pool G: funktionieren auch.

Im Internet finde ich diesen Fall nicht wirklich.

Habt ihr eine Idee?

Kann es an der Größe von 30TB liegen?

Beim Hyper-V Manager kommt die gleiche Meldung wenn die virtuelle Festplatte im 2. Oder 3. Unterordner ausgewählt wird.

Aber G: kann ausgewählt werden und in der ersten Ebene gesucht werden.
 
Zuletzt bearbeitet:
Sorry, da bin ich leider überfragt. Das kann im Prinzip an allem möglichen liegen, mit Domain-Joined Gedöns kenn' ich mich aber noch weniger aus als so schon. ;)

Was ganz anderes, das ich heute gelernt habe: die FOD-Features sind ja mal der Hammer für Doofies wie mich mit einer Core-Installation.

Code:
PS C:\> Add-WindowsCapability -Online -Name ServerCore.AppCompatibility~~~~0.0.1.0

Damit bekommt man einige GUI-Features (explorer.exe!), die für den Gelegenheits-Hobby-Admin durchaus sehr hilfreich sein können, wenn man ansonsten quasi jeden Befehl für die Powershell / CMD ergooglen muss:
  • Microsoft Management Console (mmc.exe)
  • Ereignisanzeige (Eventvwr.msc)
  • Systemmonitor (PerfMon.exe)
  • Ressourcenmonitor (Resmon.exe)
  • Geräte-Manager (Devmgmt.msc)
  • Datei-Explorer (Explorer.exe)
  • Windows PowerShell (Powershell_ISE.exe)
  • Datenträgerverwaltung (Diskmgmt.msc)
  • Failovercluster-Manager (CluAdmin.msc (Erfordert zunächst das Hinzufügen des Windows Server-Features Failoverclusterunterstützung.)
Einziger Haken: der Hyper-V Manager läuft auf der 2019 Hyper-V Core (noch) nicht, da der offernbar leider noch auf einer Vorversion herumkrebst, wo die folgenden beiden Features natürlich NOCH NICHT DABEI sind. *kotz*
  • Hyper-V Manager (virtmgmt.msc)
  • Aufgabenplanung (taskschd.msc)
Naja, was noch nicht ist, kann ja noch werden. Dass virtmgmt bei dem Hyper-V Core nicht dabei ist, zeigt jedenfalls eindrucksvoll, dass die Freunde bei Microsoft wohl einfach keine Standalone-Kisten haben. :d


@******* Ich bekomm beim Kopieren von/zu einer Hyper-V VM auf so >1GB/s raus, wenn ich von der VM-VHDX auf einen Server kopiere - allerdings pulsierend, weil mein Storage auf'm Server nicht hinterherkommt. In die andere Richtung, also schreibend in die VHDX, ist's schlechter, da ist so bei 700MB/s Schluss und auch schwankend.

Kopiere ich auf mein ZFS-Storage, bin ich bei meinen üblichen ~350MB/s (konstant), in die andere Richtung (schreibend in die VHDX) bei ~450MB/s (ebenfalls konstant).

Wobei ich seh grad, ich hab der VM nur einen virtuellen Prozessorkern zugewiesen... BRB

So, jetzt mal 8 Kerne zugewiesen.

CDM (8.0.1) spuckt lesend wie schreibend >1GB/s aus, ausgeführt in Hyper-V VM (Win10) auf Netzwerk-Share (Storage Spaces). Auf meinem ZFS-Share >1GB/s lesend, ca. 420MB/s schreibend.

File-Copy ist auch besser: lesend vom Windows-Server, schreibend in VM-VHDX jetzt konstant bei 1,4GB/s (da scheint über smb-multichannel mehr als 10gbit rausgeholt zu werden).

Kann ich mal gar nicht meckern.

Morgen geht's hoffentlich dann wieder weiter mit Passthrough-Spielereien... :d
 
Zuletzt bearbeitet:
Nein, bei den Tests nicht. Frische VM ohne Sonderlocken, kein Passhrough, kein SR-IOV.

Genaueres Setup:

„Server“
ESXi 6.7 Host, physisch angebunden mit 2x10Gbase-T, 1x10GBE(SFP+), 1x100GBE

u.a. folgenden Server-VMs:
1. Solaris 11.3 (VMXNET3 only), nur RDM-SSDs
2. Hyper-V 2019 Core (als Fileserver ohne nested VMs) mit 2x SATA SSDs ebenfalls im RDM-„passthrough“

„Client“
Hyper-V 2019 Core Host, physisch angebunden mit 1x10GBE(SFP+) und 1x100GBE

Client-VMs
Win10Pro

Ich werde die Tage auf dem Server-Gegenstück mal eine NMVE in den Windows-Server per passthrough durchreichen (der ist ja auf ESXi virtualisiert). Auf der Server-Seite limitiert halt ggf. Storage („nur“ 2x SATA SSD per RDM). Im der Windows-Server-VM hab ich eine vNIC per VMXNET3 (an nem vswitch mit physischem 10Gbit Port) und eine mit SR-IOV (vSwitch mit physischem 100Gbit Port).

Werde dann bei Gelegenheit mal SR-IOV in der Windows-Client-VM gegentesten. Also zumindest wenn es denn läuft, die Mellanox zickt auf dem Brett bisweilen bei im BIOS aktiviertem SR-IOV (zumindest unter Windows). Die VHDX der Client-VM liegt auf einer 1TB 980 Pro - CDM zeigt da immer noch über 6000MB/s lesend und 4900MB/s schreibend (PCIe 4 FTW). Für 10gbit und konstante 1GB/a sollte das theoretisch ja auch reichen, aber die CDM-Ergebnisse sagen nach meiner Erfahrung halt wenig über die Leistung in der Praxis aus. Da hat so ein Copy-Job von einer 10/60/400GB-Datei doch mehr Aussagekraft (IMHO).

Spannend wird dann, ob sich in einem ersten Schritt zumindest ~3GB/s übers Netz herausholen lassen, viel mehr geht ja mit einer PCIe 3.0 x4 nicht so richtig. Wenn das klappt, müsste ich mal schauen, ob ich weiter teste - hab halt aktuell nur einen Rechner mit PCIe4 und genug PCIe-Slots/-Lanes, mit dem sowas Spaß macht...

Je nachdem müsste ich dann insgesamt über Ersatz für meine geliebte Xeon SP Plattform nachdenken... :(

Nachtrag zu WAC: das blöde ist, dass der WAC zu den VMs per RDP verbindet und nicht so „nativ“ wie der Hyper-V Manager. Heißt: Windows frisch in VM installieren ist nicht - die VM muss installiert sein und RDP aktiv sein. Damit also auch für andere Gast-OS keine Lösung/Ersatz. Verstehe einfach nicht, warum virtmgmt.msc noch nicht per FOD mitgeliefert wird, das wäre die Lösung für Vieles. Ein Workaround könnte noch sein, den Failover-Service zu aktivieren und dann das Ganze mit dem entsprechenden Cluster-Manager administrieren. Hab ich aber noch nicht ausprobiert. Wer weiß, ob da nicht dann auch wieder was fehlt/hakt.
 
Zuletzt bearbeitet:
Möööönsch, so schwer ist das doch gar nicht. :d

Host=„Unterstes OS“
Server: ESXi
Client: Hyper-V

VM OS:
Server: Solaris 11.3 / Windows Server 2019
Client: Win10 Pro

Und Hinterherkommen kann man nicht wirklich: schließlich boote ich nach Lust und Laune was anderes, je nachdem was ich gerade testen will. :d Naja, wobei der Server mit ESXi eher nicht angetastet wird, produktiv (sofern man das im Homelab so nennen kann) und so...
 
Sorry, so ein Blödsinn, zeigt nur eindrucksvoll, dass Du nicht einmal vernünftig liest. 1. ist das nicht „mein“ Thread und 2. solltest Du vielleicht einfach mal sauber artikulieren, welche Infos Du suchst? Brauchst Dich jedenfalls meinetwegen in keinster Weise zurückzuhalten. Einfach mal Butter bei die Fische statt ein :fresse: ist da allemal zielführender.

Zuletzt hast Du nur was von "realen Clients" zu einer Hyper-V VM gefaselt. Was auch immer reale Clients sein sollen - reale Clients sind wohl seltenst mit mehr als 1Gbit angebunden... und welche VM mit welchen Diensten bleibt auch völlig offen...

Die eine Seite ist in meinem letzten Test-Setup außerdem komplett Microsoft. Das reicht eigentlich um festzustellen, ob es bei Hyper-V fundamentale Engpässe gibt. Ja, nicht domain-joined, das wird von mir aber auch in nicht kommen. Und nur für Dich wird auch wohl kaum jemand an seiner Arbeitsstätte das Umfeld für irgendwelche Benchmarks missbrauchen, die die Infrastruktur an die Belastungsgrenze treiben... vor allem nicht, wenn da eine 10Gbit-Infrastruktur steht, die dürfte dann aus gutem Grund vorhanden sein und nicht mal eben für Jux und Dollerei missbraucht werden dürfen. Ich würd jedenfalls dem Admin dann nen fetten Vogel zeigen.

Nebenbei: Wenn Du was suchst, was auch nur ANSATZWEISE auf eine Enterprise Umgebung übertragbar ist, bist Du m.E. hier sowieso VÖLLIG FALSCH. Da läuft Storage in der Regel über'ne SAN - in dedizierten Netzen. Vielleicht hat's noch ein paar Storage Spaces für'n Cluster (wenn die nicht eh auch über die SAN laufen), aber sowas ist dann nach Spec gebaut und die Specs erfüllst Du zu Hause never ever.

Und ja, ich will "WinServer für umme". ohne entsprechende Lizenzen vom Arbeitgeber bzw. Spark-Programm bzw. Uni für Server PLUS CLIENTS wird das legal für Privatgebrauch einfach so absurd teuer, dass ich das nicht einsehe. Finde ich übrigens auch nicht verwerflich, sondern für Home (guckst Du Forum-Titel) geradezu den einzig richtigen/gangbaren Ansatz.

Oder wie wär‘s: selbst ist der Mann/die Frau? Hyper-V ist doch ratzfatz aufgesetzt, mit GUI sowieso.

Sprich, was irgendeinen Mehrwert zu Hyper-V angeht sind Deine Postings jetzt keine Hilfe / Erkenntnisgewinn. Eigentlich forderst Du nur abstrakt irgendwas von anderen und weißt vermutlich selbst nichtmal genau, was. Wäre das hier mein Thread, dann :fresse:
 
So, mal wieder konstruktiver weiter hier: Erste Gehversuche mit einer Gaming-VM unter Hyper-V.

Ersteindruck: ganz passabel, aber der NVIDIA-Treiber hängt sich ab und an auf. Bin aber auch noch ganz am Anfang (schreibe das hier gerade in der VM).

00_Gerätemanager.jpg


3DMark läuft immerhin schonmal durch: https://www.3dmark.com/3dm/62237044? Lustigerweise denkt 3Dmark in den Results, ich wäre mit 'ner VIA-Grafikeinheit unterwegs. Da wird sich VIA aber über die guten Ergebnisse freuen... (beim Bench selber wird richtig die 3090 angezeigt).

Irgendwas läuft aber bei USB noch nicht rund: Wenn ich die 2. Maus am nicht per DDA durchgereichten USB-Controller/-Port bewege, gibt's lustige Schlieren in der VM. Das darf ja eigentlich nicht sein.
 
Zuletzt bearbeitet:
Hallo zusammen,

habe den "Server" neu aufgesetzt, und lesend sind 1 GB/s kein Problem nur schreibend zickt er. Könnte durchaus an dem Windows Stripset Volume liegen... wobei CrystalDiskMark da auch 1500 MB/s anzeigt...
 
Jo, hab auch noch kein Gefühl dafür, wie Windows „Software RAID“ mit etwaigen Hardware-Features bei SSDs wie DRAM- oder SLC-Cache, Garbage Collection usw. harmoniert und/oder auch Write-caches (de)aktiviert sind... von der Optimierung von Block-Sizes mal ganz zu schweigen. Gibt da ja zig Schrauben, an denen man drehen kann...
 
Hast Du da ein paar Anhaltspunkte welche Schrauben unter Windows? Intel Rapid Storage war auch nicht viel besser
 
Nee, leider nicht wirklich. Habe nur in Erinnerung, dass das mal wieder sehr in die Details geht, siehe z.B.:


Älter aber zeigt, wie vielschichtig das sein kann:

Sind aber auch nur die ersten Google-Treffer für "storage spaces performance tuning"... ;)
 
Apropos Windows Server 2022 - wie kommt ihr da ran? Kaufen? Arbeit? 3 Jahre Evaluierungslizenz und dann neu aufsetzen?
 
Tach alle ;),
habe da mal ne Frage, habe im Netz leider sehr viele widersprüchliche Aussagen gelesen, deshalb jetzt mal hier. Ich stehe ganz am Anfang mit Hyper-V. Deshalb bitte ein wenig Nachsicht für meine "dumme" Frage.
Ist es möglich z.B. eine Space Navigator (3D-Maus, USB) in die VM (Windows 10 64bit, läuft auf einem Windows 10 64bit) zu bringen? Lese oft "nicht möglich" und "nur mit Zusatzhardware" bis "sollte funktionieren".
Vieleicht nur einfach ein Link wo ich valide Informationen bekommen kann.
Vielen Dank dafür.
 
Zuletzt bearbeitet:
@Termi,

USB mit Hyper-V in dem Sinn, ein am Virtualisierungshost angesteckten Gerät funktioniert nicht. Über Remote-FX würde es unter Hyper-V funktionieren, dafür wäre allerdings ein Serverbetriebsystem mit zusätzlicher Remote Desktop Virtualisierungshost Rolle auf Host Seite notwendig. Als Gast muss dann eine Enterprise Variante von Windows verwendet werden. In dem Fall gibt es in der RDP Verbindung auf den Gast wie von Zauberhand plötzlich einen virtuellen USB Kanal.
 
Macht es dann vieleicht Sinn, hier auf Virtualbox zu wechseln? Was ich gelesen habe, kann das USB durchreichen.
Oder gibt es hier wieder andere gravierende Nachteile?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh