ESX / ESXi - Hilfethread

LZ4 Komprimierung wird gemeinhin als no-brainer angesehen - es kann quasi nicht schaden, da die Komprimierung ggfs schnell abgebrochen wird, wenn die ersten Blöcke/Bytes nicht gut komprimierbar waren. (Ich habe aber keine Vergleichstests gemacht)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
LZ4 hab ich grundsätzlichen auf allen Datasets+Volumes an, Ausnahme nur auf dem wo nur Videofiles abgelegt werden.
Gerade was Datasets und Volumes für VMs betrifft: grundsätzlich anschalten. Kann massiv Platz sparen und die Komprimierung/Dekomprimierung auch schneller sein als die SSDs schreiben/lesen. Ausserdem schonst Du die SSDs durch weniger geschriebene Blöcke.
Eine W10 System-Vmdk braucht bei mir als frische Installation keine 10GB damit.

Warum soll ich meinen teuren SSD-Poolplatz mit leeren Blöcken vollmüllen und blockieren, die vmtl. zu einem guten Teil nie benötigt werden. Daheim im Homelab hab ich ja einigermaßen nen Überblick, was ich Kapazität habe und welche VMs da sind und potentiell was belegen. Im Enterprisebereich mit dicken Servern und vielen Usern ist das evtl anders; da weiss ich ja nicht wieviel der User die VDisks vollstopfen und wer nicht.

Ausnahme könnten große SQL-Datenbanken mit viel kleinem Random IO sein, um Latenzzeiten zu kürzen. Für Datawarehouse-Tablespaces dagegen einschalten.
 
Zuletzt bearbeitet:
Warum soll ich meinen teuren SSD-Poolplatz mit leeren Blöcken vollmüllen und blockieren, die vmtl. zu einem guten Teil nie benötigt werden.
Also würdest du im privaten Bereich immer zu "Thin Provisioned" anstatt "Thick Provisioned" raten?
Wenn ich aber ein "Thick Provisioned, eagerly zeroed" nutze, dann müsste doch LZ4 wieder viel Speicherplatz einsparen können an den Stellen wo die "Nullen" stehen, oder?
 
Bei meinem per NFS3 eingebundenen Speicher in ESXi 7u3 kann ich nur "thin provisioned" auswählen, alle anderen Optionen gehen nicht. - ist das bei Euch anders?

Relevanz hat das neben Komprimierung ja auch für die Möglichkeit, in der VM per TRIM/Unmap freien speicher "durchzumelden" (was bei mir nicht - mehr - geht).
 
Laut vmware Homepage geht aktuell die Kombination aus VHV (Nested virtualization) und PCI-Passthrough nicht.
Ging diese Kombination schon in älteren ESXi Versionen und wird in der Version 7 wieder kommen oder ist das eine Kombination die aus technischer Sicht überhaupt nicht funktionieren kann?

Ich habe jetzt die entsprechende .vmx Datei mit folgenden ergänzt:
vhv.enable = "TRUE"
vhv.allowPassthru = "TRUE"

Jetzt läuft VHV mit Passthrough.
Muss ich hier jetzt mit Unannehmlichkeiten rechnen, da es sich hierbei scheinbar um einen experimentellen Stand handelt oder ist das eher unkritisch aus euerer Sicht?

 
Zuletzt bearbeitet:
Was funzt, funzt. Ob's wirklich funzt, findet man abseits offiziell unterstützter, "stable" Features & Hardware nur durch selbst ausprobieren heraus. :d

Was dann bei zukünfigen Updates passiert, weiss leider kein Mensch. ;)

Bei ESXi bin ich daher auch eher konservativ bei Updates - soll heißen, ich update ein laufendes System "eher nie". :) Da meine Kisten nicht im Internet verfügbar sind, darauf auch keiner außer mir Zugriff hat (einzige Ausnahme: dediziert im Netz für Windows-Clients freigegebenes Storage, was aber durch offline-Backups halbwegs gesichert ist) ist das eine ganz persönliche Risiko-Abwägung. Updates gibt's daher nur, wenn ich einen Host erstmalig oder zwischendurch komplett neu aufsetze. Dann beginnt das Spiel: Aufsetzen-Testen-Liegenlassen aufs Neue...
 
Was funzt, funzt. Ob's wirklich funzt, findet man abseits offiziell unterstützter, "stable" Features & Hardware nur durch selbst ausprobieren heraus. :d
Ja, ganz so stabil ist es bei mir wohl scheinbar nicht.
Wenn man z.B. die Windows interne Sandbox in den Features aktiviert, dann ist beim nächsten Start Bluescreen angesagt.
Aber darf man nicht meckern, weil von vmware leider noch oder HOFFENTLICH nur noch nicht unterstützt.
 
Guten Morgen,

kleine Info:
Ich habe die Woche rausgefunden warum ESXi booten von Stick ab 7.x nicht mehr seitens VMware supportet wird.
Ein zwites Testsystem mit USB Sticks als Bootmedium (neue 64GB SanDisk Sticks) ist auch nicht mehr hochgekommen, der Stick ist so richtig tod.
Das "die I/O auf den Bootmedien hat sich drastisch erhöt", scheint nicht ohne Grund dick markiert in den Sales Präsis, als die 7 released wurde.
 
Hallo zusammen

Ich habe gerade wenig erfolg mit meinem Microserver Gen 10+ und einer zusätzlichen QM2 …. Weiter ist eigentlich eine ablöse meines ML110 G9 geplant alles in allem bin ich mir am überlegen folgender Eigenbau an zu schaffen:

CPU: CPU Ryzen 9 5900X 3.7 GHz
Board: Mainboard ProArt X570-CREATOR WIFI*
RAM: DDR4-RAM FURY Beast 3600 MHz 4x 32 GB
PSU: Netzteil Pure Power 11 FM 650 W ( oder 550 was ja eigentlich reichen sollte)
Storage: Nur SSD‘s geplant 2.5“ und NVME
GPU: Office karte für die Konfiguration. evtl als Projekt einmal eine NVIDIA Grid die ich noch rum liegen habe zum testen.

* zum Board
Die verbauten nic‘s:
1 x Marvell® AQtion AQC113CS 10Gb Ethernet wenn ich richtig recherchiert habe laufen diese auch OTA?
1 x Intel® I225-V 2.5Gb Ethernet swoeit mir bekannt ist intel kein Problem.

Was meint ihr werde ich damit erfolg haben oder ist diese Konfiguration ein Rohrkrepierer ?
Besten dank für jeglichen input.
 
Warum nimmst du Spielzeug-OC-RAM für nen Server?
Wäre ECC nicht besser geeignet?
Wozu WLAN in nem Server?

Da wir hier im ESXi-Thread sind, gehe ich mal von aus, dass du ESXi als Hypervisor laufen lässt?
Da sind die AQCs dann eher meh, weil auch wieder nur für Spielzeug-Rechner gedacht.
(Auf die Schnelle hab ich auch keinen Treiber für ESXi gefunden.)
Die Intel sollte laufen, wenn die Gegenstelle es auch kann, welchen Switch / welches Modul willst du da nutzen?

Das Pure Power hat doch nur wenige SATA-Stecker?

Rest ist gut. =)
 
Lass' mich raten, wieso es das Mainboard werden soll: wegen des integrierten 10 Gbit/s-Anschlusses, richtig? Da würde ich bei einem Eigenbau eher ein (deutlich) günstigeres Board und z.B. eine Intel X540 PCIe-Karte verwenden, die Karten gibt's bei ebay für unter 100 Euro. Da hast Du die Gewissheit, dass der Chipsatz unterstützt wird. ECC-RAM sollte es auch sein, wie @Weltherrscher schon geschrieben hat.
 
Warum nimmst du Spielzeug-OC-RAM für nen Server?
War oder ist der einzige 4x 32 GB der lieferbar ist zu Zeit…

Wäre ECC nicht besser geeignet?
Ist dies wirklich ein muss der G10 Microserver hat auch kein ECC ram.
Wozu WLAN in nem Server?
Tja ist halt auf dem Board brauchen werde ich es nicht.
Das Pure Power hat doch nur wenige SATA-Stecker?
Nja Mehr als 4 SSd‘s im 2.5“ format haben kein platz im Gehäuse
Lass' mich raten, wieso es das Mainboard werden soll: wegen des integrierten 10 Gbit/s-Anschlusses, richtig?
Jein ein Kumpel hat Empfohlen 10 GB will ich habe aber noch eine intel SFP+ Karte und auch eine 10GB Karte von intel ist also kein KO kriterium für ein anderes board wen es den nicht hat, da er ja auch evtl. nicht funktionieren könnte.
Da würde ich bei einem Eigenbau eher ein (deutlich) günstigeres Board und z.B.
Hast du da gerade eine Empfehlung AM4+ also die CPU möchte ich eigentlich.
2x NVME m.2 wäre auch praktisch aber ich suche da nochmals.

ECC-RAM sollte es auch sein, wie @Weltherrscher schon geschrieben hat.
Da frage ich mich immer noch Warum? Was kann da im schlimmsten fall passieren.
aber wird dieser von Desktop Boards unterstüzt
 
Die i225-V dürften typische Server-Betriebssysteme nicht erkennen, ebenso die Marvell/Aquantia. Wenn Kupfer-10G, dann ist Intel X540/X550 die NIC der Wahl. Kennt jedes OS und auch ESXI out-of-the-box.
Wenn AM4-Vollbestückung mit 4x32 Dualrank-Modulen, dann ists mit 3600 Mhz schnell dahin.

=> Stabilen, ordentlichen 2666/2933/3200er nehmen. Idealerweise ECC, wenn Storage auf der Kiste laufen soll. Nur weil Du das bisher nicht hattest heisst das nicht, dass es nicht sinnvoll ist. Der Microserver G10 kann übrigens ECC. Hatte früher schon defekte Dateien wg. Ram-Fehlern auf Raids. Ram bei mir daher in Storage nie wieder ohne ECC.

Als Board, wenn Serverzwecke: Warum nicht das X570D4U (hat 2 Intel 1GHbit i210+ IPMI-Lan) X570D4U-2L2T (2x10GB Intel X550 + 2x1GB Intel Server i210 + IPMI-Lan)? Nicht mehr zu dem Preis wie ich es bekommen habm, aber bei Sona.de bestellbar. Das ProArt ist ja auch nicht billig, nur beim X570D4U-2L2T haste gleich ordentliches Lan, IPMI Remotecontrol mit Einfachgrafik dabei.

Klar, das ProArt hat die bessere VRM für OC und das X570D4U limitiert auf 1.2V Ram.


Hab ja ein X570D4U-2L2T mit 5600X und ESXI 7 als Server laufen. Bei den aktuellen Preisen schiele ich aktuell ja auf einen 5950X. VRM müsste 6x90A sein, was ich so gelesen hab. Nix großartiges für OC, aber sollte aber trotzdem reichen für den 16Kerner.
 
Zuletzt bearbeitet:
Ich habe da mal alternatieven gesucht und gefunden:
Ram:
Kingston Server-Branded Memory KSM32RD4/32MEI
1 x 32GB, DDR4-3200, DIMM 288 pin
Oder:
Kingston 32GB DDR4-3200MHZ REG ECC
1 x 32GB, DDR4-3200, DIMM 288 pin

Board:
Mainboard PRIME X570-PRO
Onboard: Intel® I211-AT also sollte der erkant werden und zur konfig reicht es ja auch und auch gut.
wenn Storage auf der Kiste laufen soll
Nja die VM‘s halt auf den SSD‘s
Das Pure Power hat doch nur wenige SATA-Stecker?
Reicht habe nur platz für maximal 4. aber danke für die info.
 
Möööp, Registered ECC läuft nicht auf AM4 (genausowenig wie auf den kleinen Intel-Sockeln ) . Du brauchst unregistered.
 
nope, der ist "Registered ECC".

Du brauchst KSM32ED8/32ME. Sind übrigens Micron E-Dies.

Auch gut nutzbar sind Samsung ECC-Module . 3200er oder 2666 @3200 bei 1.37V (dieser aber nicht am X570D4U , das erlaubt keine Spannungen > 1,2V ! )
 
Zuletzt bearbeitet:
Mei, ist halt ein etwas älteres (was nicht gleich schlecht heissen muss) Desktop Einstieger-Board. Erfahrung hab ich damit keine, HWL hat ein Review.
Die "Prime"-Boards sind halt typischerweise die Einstiegsboards, die VRM ist halt 4 Phasen mit Dopplern.

Sagen wir so: wäre aber nicht meine Wahl für Server, weil ich bei Servern IPMI möchte.

Dir muss auch klar sein, dass X570 und eine X-CPU heisst: keine niedrigen Idle Leistungsaufnahmen weil bereits relativ hohe Grundlast durch Chipsatz und I/O-Die der CPU. Da gehen schon 15-20W dafür drauf.
Und gerade ESXI ist kein Stromsparer.
 
Zuletzt bearbeitet:
Asrock Rack X570D4U -(2L2T) :-) Ich hatt die 2L2T-Version noch für 450 Euro inkl. MwSt. bekommen.

Oder ne Nummer kleiner deren B550D4-4L .
 
Würde ich nicht mehr kaufen; gibt ja auch einen Erfahrungsthread hier im Forum dazu wo die Berichte recht durchwachsen waren.
Das X470D4U war Asrock Racks erster Versuch auf der AM4 Plattform als Server , das X570 ist die ausgereiftere Version mit deutlich besserer Ausnutzung der I/O was AM4 betrifft.
Du verlierst die PCIe gen 4 Anbindung der CPU an den Chipsatz beim 470er und vieles ist noch PCIe gen 2.0 oder limitiert an Lanes. > nope, IMO nobuy.
 
OK dan bleibe ich bei diesem den Asrock rack ist so gut wie nicht zu bekommen in der Schweiz :rolleyes2:
Das einzige welches ich bestellen könnte ist das ASRock-Mainboard-B550-ATX-Sockel-AM4-B550D4-4L::238231.html
oder über die Bucht..
Beitrag automatisch zusammengeführt:

Also ich habe da nochmals nach einem "besseren" Board gesucht, server Boards ASROCK Rack nicht zu bekommen..
ein etwas Hochwertigeres board mit dem B550 Chipsatz:
Gigabyte MB B550 VISION D-P B550,AM4AMD
Das gute stück bietet 1x Intel i225 LAN und einmal Realtek LAN
Was meint ihr dazu?

Besten dank noch an alle die mir geholfen haben unter anderem @Trambahner
 
Zuletzt bearbeitet:
@Toby-ch: mein Kumpel stand auch vor der Wahl. Wir hatten auch mit dem X470 geliebäugelt. Es wurde dann aber ein Epyc. Da Du eh eine recht dicke CPU und 128GB RAM einplanst, würde ich mir die Plattform zumindest mal ansehen. Wir hatten vor allem wegen den wenigen Lanes vom AsRock Rack 470 abgesehen. Beim Epyc hast Du auch RDIMM, die dürften etwas günstiger sein. Ausserdem bietet die Plattform 8 RAM Channel.

Das ist dann daraus geworden:


Bestellt haben wir bei Digitec und Brack. War aber auch ein Krampf, bis wir alles zusammen hatten. Auf das Gehäuse haben wir gar vergeblich gewartet.
 
Zuletzt bearbeitet:
@AliManali
Das Board habe ich bereits bestellt. Da ich aber irgend wann auch einen Zweiten Server brauche, werde ich dies einmal berücksichtigen Asrock Rack sieht sehr gut aus jedoch einfach schlicht nicht zu bekommen… aber dieses Projekt hat nich zeit 😎
 
ECC ist tatsächlich für ESXi nur dann ein Muss, wenn auch der Storage drauf laufen soll.
Bei so einer großen Investition sollte man aber vorausschauend planen, mal schnell 128 GB tauscht man ja ned alle Tage, wenn man seine Meinung ändert.
Wenn du die CPU noch nicht hast, schau dich doch mal auf den EPYC-Seiten um, da gibts ja auch günstige CPUs und die Boards haben dann alles, was du brauchst.

//Edith:
Ok, dann ist der Drops eh gelutscht. =)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh