[Kaufberatung] AMD und Virtualisierung

Saine

Enthusiast
Thread Starter
Mitglied seit
25.08.2011
Beiträge
412
Ort
Duisburg
Ich schiele ja schon länger auf Zen. Und da jetzt Zen2 angekündigt ist will ich mich doch langsam mal entscheiden.
Budget: grob 700-1000?

Hauptsächlich wird das immer noch meine Gaming Maschine und dabei so ziemlich alles. Besonders hervorheben möchte ich aber ArmA, DCS, Post Scriptum und ähnliches. Die haben gerne mal ziemlich niedrige FPS. Selbst auf Full HD.

Richtig super wäre allerdings noch Virtualisierung bzw. Nested virtualization. Leider scheint das ein schwieriges Thema für AMD zu sein und ich finde sogar widersprüchliche Aussagen. Es wäre schön wenn mich das Forum soweit erleuchten könnte.
Hauptsächlich gehts mir dabei um Hyper-V.
Windows Sandbox und WSL 2 wäre dabei auch noch interessant, aber afaik sind die relativ unabhängig.

Eigtl. würde ich noch nach Linux Virtualisierung fragen, aber auch hier habe ich keine Ahnung ob das nach WSL2 noch ein Thema sein wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn es hauptsächlich diese Games sind die du in bester Performance spielen willst dann solltest du bei Intel bleiben oder erstmal die IPC von Zen2 abwarten, mehr muss man da grad wirklich ned sagen ^^
Ryzen 2xxx mit den Games würd ich mir ned antun.
 
Immer noch so schlimm? Das erschreckt mich ein wenig. Ich sehe ja ein, dass besonders ArmA kaum Multicore Support bietet, aber das sich nach all den Jahren auf der CPU Leistungs Seite so wenig geändert hat finde ich schon bemerkenswert.
 
Wieso erschrecken? AMD hat nie behauptet das sind IPC Monster und das beste was man für Games bekommen kann.
Simulationen, auch Games, wie Arma und co laufen auf Intel halt einfach besser.

Ryzen 3xxx ausgenommen, wenn die IPC Behauptungen stimmen könnte das was anderes sein.
 
Nicht IPC Monster. Aber das sich auf der IPC Seite anscheinend so wenig tut. Mein Xeon W3520 ist von 2009.

Nach heute Nacht bin ich mir aber ziemlich sicher einen RyZen 3bla zu holen. Was damit an Virtualisierung möglich ist wäre aber dennoch interessant. Kann man da bezüglich Zen2 überhaupt schon Aussagen treffen?
 
Mal die Frage vorweg, auf welchem Takt rennt der Xeon W3520?
Wenn der auf 2,66GHz plus Turbo rennt, ist die Bremse klar
 
aber das sich nach all den Jahren auf der CPU Leistungs Seite so wenig geändert hat finde ich schon bemerkenswert.
An SingleCore-Leistung wird sich nichtmehr allzuviel ändern, auch nicht bei Intel. Da sind wir praktisch am physikalischen Limit, noch höhere Taktfrequenzen gehen nicht und das ist das was IPC maßgeblich treiben würde. Es gibt da ggf. noch ein paar Optimierungsmöglichkeiten, z.B. das man sämtliche Sicherheitsmechanismen bei Sprungvorhersagen einfach mal so weglässt und natürlich kann man noch Hardwarebeschleunigungen für spezielle funktionen hinzufügen wie MMX, SSE, AVX, ... aber dann wars das auch, was mit unserer momentanen CPU-Technik an SingleCore-Leistung möglich ist.
Der Schritt zu Multicore wurde nicht gemacht, weil das irgendjemand cool fand, sondern weil man anderweitig keine allzugroßen Leistungssprünge mehr machen konnte.

Was hast du für bedenken oder widersprüchliches gelesen was Virtualisierung betrifft? Im Gegensatz zu Intel, wo man mindestens einen i7 (oder Xeon) braucht (oder zumindest bis zur 7ten Gen brauchte?) haben ALLE Ryzens sämtliche Virtualisierungsfunktionen direkt an Board. Ich hab jetzt auf meinem Ryzen nicht wirklich virtualisiert, aber ein Kumpel von mir hat ein komplett virtualsiertes System mit Linux-KVM-Host auf einem Ryzen 1700 laufen. Dabei auch ein Windows 7 Guest an dem per PCI-Passthrough eine 1080 hängt, was praktisch sein Spielerechner, oder bessergesagt seine Spiele-VM ist.
Es hängt auch davon ab, was du durch die Virtualisierung erreichen willst. Wenn du z.B. Netzwerke testen willst, wo du viele virtuelle Maschinen brauchst, wird die WSL(2) nicht wirklich helfen, denn das ist nur ein einziges Linuxsystem unter Windows. Wenn es nur darum geht, dass du Windows und Linux parallel benutzen können willst, dann ist WSL(2) wwahrscheinlich völlig ausreichend.
 
Zuletzt bearbeitet:
physikalisches Limit kenne ich nur bezüglich Miniaturisierung. Hast du Links oder Stichwörter dazu? Sowas ist immer interessant.

Ich glaube es war kurz vor Zen als ich nach Virtualisierung geschaut habe. Leider habe ich das nicht mehr so im Kopf. Ich bin recht sicher mich an Probleme mit Nested Virtualization zu erinnern. Ich habe inzwischen nochmal gegoogled aber tatsächlich nicht viel gefunden.
GPU Passthrough hatte ich auch schon mal vor, aber da hatte ich andere Probleme.
Was ich damit vorhabe kann ich noch nicht präzise sagen. Ich will halt eine Plattform mit der ich testen lernen und Probieren kann. Für normale Netzwerkversuche würde ich mich erstmal an anderen Sachen orientieren (Packet Tracer, GNS, Mira irgendwas) Da ist zwar auch virtualisierung bei, aber das sollte ich mit meiner Mühle noch hinbekommen. Bei 3 Win Servern macht die aber schon kaum noch Spaß
 
physikalisches Limit kenne ich nur bezüglich Miniaturisierung. Hast du Links oder Stichwörter dazu? Sowas ist immer interessant.
Direkte Quellen habe ich nicht, da dürfte sich aber leicht einiges finden lassen. Die Miniaturisierung kommt demnächst auch noch an Grenzen, weil die Strukturbreite sich langsam der Breite einzelner Siliziumatome annähert. Und eine Leiterbahn die kleiner als ein Atom ist, wird dann schwierig.
Nicht verwechseln mit alten Limits, die sich dann doch noch als überwindbar herausgestellt haben. 1GHz galt auch mal als technisch nicht machbar. In der Strukturbreite sind wir auch schon weit unter dem, was irgendwann mal als nicht machbar galt, weil man nicht wusste wie man Strukturen belichten können soll, die kleiner sind als die Wellenlänge des Lichts mit dem man belichtet.
Das aktuelle Problem warum keine höheren Taktraten gehen, sind afaik die Leckströme, die vorallem auch bei immer kleineren Strukturen immer heftiger werden. Der Stromverbrauch steigt, aber die Fläche wird immer kleiner -> das ist einfach nicht mehr kühlbar. Selbstverständlich, wenn man z.B. mit Flüssigstickstoff kühlt, kommt man auch über die 5-6 Ghz.
Aber die Atomgröße werden wir wohl nicht umschiffen können ohne einen gravierenden Technikwechsel, also Quantencomputer, oder man kann CPUs aus anderen Materialien als aus Silizium herstellen oder irgendsowas.
7nm sind schon nur noch knapp 70 Siliziumatome. Wobei die Nanometer"namen" afaik aktuell auch nicht mehr unbedingt was mit der tatsächlichen Strukturbreite zu tun haben.

Was ich damit vorhabe kann ich noch nicht präzise sagen. Ich will halt eine Plattform mit der ich testen lernen und Probieren kann. Für normale Netzwerkversuche würde ich mich erstmal an anderen Sachen orientieren (Packet Tracer, GNS, Mira irgendwas) Da ist zwar auch virtualisierung bei, aber das sollte ich mit meiner Mühle noch hinbekommen. Bei 3 Win Servern macht die aber schon kaum noch Spaß
Dann würde ich eher wirklich ein KVM/HyperV-Setup vorziehen, bei dem man das Hostsystem praktisch nur die Virtualisierung machen lässt, es sonst aber nicht aktiv benutzt. Bei einem WSL hast du halt das Problem, wenn du beim "ausprobieren" dein Windows zerschießt, ist auch das WSL-Linux weg. Mit einem Hypervisor sind die VMs halt komplett getrennt und am Hypervisor selbst spielt man halt einfach nicht rum. Wenn du Virtualisierung ansich testen willst, also auch am Hypervisor rumspielen willst, dann würde ich ein Dualboot mit einem z.B. "Produktiv-Windows" und einem Hypervisor machen.
 

Ähnliche Themen

D
Antworten
35
Aufrufe
2K
DTX xxx
D
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh