[ESXI 6] RDM aufgrund Fehlermeldung nicht möglich?

ByteJunkie

Neuling
Thread Starter
Mitglied seit
27.12.2016
Beiträge
83
Ort
Deutschland, Thüringen
Hallo,

ich habe einen HP Microserver mit einem Intel Celeron und 16 GB RAM. Ich habe maximal 4 Gastsysteme gleichzeitig laufen (alle Linux-Distributionen). Allerdings möchte ich auch diesen Server als NAS verwenden. Dazu möchte ich mir einen RAID 1 aus zwei 4 TB Festplatten bauen. Eine 4 TB Festplatte habe ich schon eingebaut und wollte das ganze mal testen. Enttäuschenderweise musste ich feststellen, dass NAS4Free nicht optimal läuft. Nach ein bisschen googlen bin ich auf das Thema RDM gestoßen. Dazu habe ich mir dieses Tutorial angeschaut: https://kb.vmware.com/selfservice/m...nguage=en_US&cmd=displayKC&externalId=1017530
Ich habe es ausprobiert, allerdings bekomme ich diese Fehlermeldung: Inkompatibles Backing für Gerät '0'.

Habt ihr Ideen, an was es liegen könnte?

Vielen Dank im Voraus! :)
ByteJunkie
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Gen8 Sammelthread wurde das Thema ein paar Seiten vorher mal angesprochen. Da hatte ich einen Artikel verlinkt wie es bei mir funktioniert hatte.
 
Ich habs seinerzeit auch nicht gescheit hinbekommen, aber mich dann lange nicht so tief in das "Warum" eingegraben wie du. Hab mich dann für PCIE passthrough entschieden, ist zwar auch aus VMware-Sicht suboptimal aber quasi immer noch "sauberer" als RDM.
 
Jupp. Das geht aber halt mit dem Onboard-Ding nur, wenn OS (und etwaiger Speicherplatz für z.B. die Storage-VM) woanders - regelm. auf USB Storage - liegen. Oder eben der "Königsweg" mit separatem PCIE Controller/HBA. Wenn du den Slot nicht für etwas anderes brauchst, wohl die Stress freieste Variante.
 
Jupp. Das geht aber halt mit dem Onboard-Ding nur, wenn OS (und etwaiger Speicherplatz für z.B. die Storage-VM) woanders - regelm. auf USB Storage - liegen. Oder eben der "Königsweg" mit separatem PCIE Controller/HBA. Wenn du den Slot nicht für etwas anderes brauchst, wohl die Stress freieste Variante.

Also ich habe zur Zeit eine SSD im Laufwerksschacht und 3 3,5" Festplatten. 3 von 4 VMs sind auf der SSD installiert und eine VM ist direkt auf einer Festplatte installiert. Welchen Controller empfiehlst du?
 
Für eine belastbare Empfehlung habe ich von sowas zu wenig und von NAS4Free schlicht NULL Ahnung. Ich greife persönlich zu älteren LSI (jetzt Avago) Dingern bzw. Marken mit deren Chipsätzen. Habe nur einen original LSI (4i4e) und der Rest sind Dell H200 bzw. H310 (8i).

Aber du könntest auch z.B. eine externe SSD im USB-Gehäuse (oder einen guten USB Stick) an den internen USB Port klemmen, da drauf ESXi installieren sowie die NAS4free-VM abspeichern. Dann reichst Du den onboard Controller mitsamt den restlichen SSDs/HDDs mit den anderen VMs drauf per Passthrough an NAS4Free durch und von dort quasi wieder an ESXi per NFS zurück und testest das mal ein wenig auf Zuverlässigkeit. Wenns geht, kannst Du den Controller sparen.
 
Zuletzt bearbeitet:
Ja das wäre wohl die beste Lösung wenn RDM nicht geht, achja nur so zur Info LSI (ehemals Avago) gehört jetzt Broadcom :)
 
Okay danke für die Tipps :) Ich hab dazu noch ein paar Fragen:
1. Wenn ich ESXi auf einem schnellen USB-Stick installiere, ist dann meine SSD im Prinzip überflüssig oder?
2. Die VMs kann ich ohne Probleme dann wieder einspielen (nach OVF-Vorlage exportieren)?
 
Nur beim starten schneller,ESXI läuft nach dem starten im RAM

2. sollte gehen ja
Gesendet von iPhone mit Tapatalk Pro
 
Also muss ich sozusagen die Schritte befolgen:
1. OVF-Vorlage von allen VMs exportieren und Snapshots löschen
2. SSD abziehen (SATA-Kabel und Stromversorgung)
3. ESXi 6 (evtl 6.5 ?) auf den USB-Stick installieren und booten
4. HDDs hinzufügen
5. VMs importieren (über den Dateibrowser hochladen und zur Bestandsliste hinzufügen)
6. Probieren, ob alles geht

Und dadurch, dass ich den USB-Stick am I/O-Shield angesteckt habe, erreiche ich den Onboard-Controller. Richtig?
Und wenn ich die SSD an einem Windows-Rechner formatiere (extFat) und diese dann dafür verwende, die 3 anderen VM dort zu installieren, sollte das auch klappen?

Note:
------
nochmal ein überblick zu meinen VMs:
1. NAS4Free -> installiert auf dem USB-Stick -> zusätzliche Festplatten: 4 TB RAID1 (vom Onboard-Controller)
2. Ubuntu Server -> installiert auf der SSD -> zusätzliche Festplatten: 3 TB
3. Ubuntu Server -> installiert auf der SSD -> zusätzliche Festplatten: 1 TB
4. Ubuntu Mate -> installiert auf der SSD -> zusätzliche Festplatten: -

Danke für eure Hilfe :d
 
Also ESXI an sich profitiert von einem schnellen USB Stick meiner Meinung nach nur beim booten...danach läuft es im RAM.Meine samsung ssd habe ich als Host-Cache unter ESXI eingesetzt,bzw kannst du die VMs auf die ssd packen,laufen dann wesentlich schneller als auf einer HDD...es kann auch sein,da bin ich mir gerade nicht so ganz sicher,dass log-Dateien auf den USB Stick geschrieben werden...könnte,falls viel in Ereignisprotokoll auftaucht die Performance der Logs einbrechen bei einem langsamen USB Stick...
Die SSD würde ich aber nicht exfat formatieren,sondern von ESXI formatieren lassen(vmfs3 zB)


Gesendet von iPhone mit Tapatalk Pro
 
Königsweg ist wie oben beschrieben LSI-HBA mit IT-Mode Firmware, durchgereicht an die entsprechende VM. Das klappt dann mit BSD-Varianten (also auch Nas4free) und auch mit Solarish. Karten mit LSI SAS2008 (z.B. LSI9211-8I) oder SAS2308 Chip (e.g. LSI9207-8i) sollten relativ stressfrei sein. Längere Zeit günstig waren IBM M1015 erhältlich, die man auf den meisten Rechnern auf LSI9211 umflashen kann. Manchmal sind da moderne Mainboards etwas zickig für die Flashtools. Mit den 12G-Varianten (LSI3008) hab ich noch keine Erfahrung, ob die schmerzfrei und zuverlässig laufen. 2008 und 2208 tun es.

Sehr interessant und preiswert (nicht billig!) sind da die Supermicro-Mainboards für die kleinen E3-Xeon/I3/Celerons , da es da welche mit LSI-Controller und bei der aktuellen Serie teilw. auch mit 10Gbit Lan gibt. Die LSI- und/oder Intel-Lan-Controller sind da für deutlich weniger Geld drauf als entsprechende PCIe-Karten kosten.

Mein Setup: ESXI auf Usb-Stick, dazu eine Sata-SSD mit MLC-Flash bewährter Modellreihen am integrierten Controller. Also nix billiges, sondern eher 840pro/850pro/MX100. Eine 850Evo könnte man evtl. auch noch in Betracht ziehen. Auf der Sata-SSD liegt dann die Nas4free-VM, an die der LSI HBA per Passthrough durchrereicht ist. Nur an den LSI kommen die ZFS-Platten oder ZFS-SSDs.
Auf der Sata-SSD können dann evtl. noch unkritische VMs drauf oder Betriebssystem-Images für schnellen Zugriff.
Die Nas4free-VM bietet die ZFS-Storage dann via SMB an (z.B. für Windows-Clients) und auch NFS-Share an. Diese NFS-Shares werden dann im ESXI als Datastore wieder angebunden, so dass dieser dann VMs auf ZFS-Storage anlegen kann.

Mit Freenas hab ich am Anfang probiert und bin damit nicht happy geworden und bin dann relativ schnell zu Nas4free gekommen. Dieses hab ich seit Version 9 im Einsatz, nun im vierten Jahr mit Version 11. Die Schallmauer scheint da bei so 1,1 GB/s Durchsatz zu sein . Schneller hab ich Nas4free mit NVMe-SSDs (Intel 750) nicht bekommen, mit Sata/SAS-SSDs konnte ich es mangels verfügbarer Stückzahl nicht testen ob das nur ein NVMe-Problem ist oder generell. Mehr als diese 1,1GB/s hab ich dann nur mit Solaris (OmniOS hab ich nicht getestet) bekommen; Solaris 11.3 hat problemlos 2,2-2,3GB/s von der i750 unter ZFS gelesen.

Sowohl ESXI, Nas4free als auch Solarish kommen ferner, nach etwas Tuning an den richtigen Parametern, auch prima mit 10Gbit-Lan zurecht.

Zum Durchreichen brauchst aber einen Rechner, dessen Bios und Prozessur vt-d kann! D.h. beim HP Gen8 geht das nur mit Xeon, nicht mit Celeron/Pentium.

Edit: LSI2208 durch LSI2308 ersetzt. (2208 ist der Raid, 2308 der HBA-Controller).
 
Zuletzt bearbeitet:
Tausend Dank für die ganzen Infos!

@Trambahner
Deinen Text musste ich zwar mehrmals durchlesen, aber ich denke ich habe es verstanden. Meine SSD basiert auch auf TLC-Flash.
Zum Thema Passthrough: Meinst du mit deiner letzen Zeile, dass ich doch auf einen Xeon umsteigen muss?

@Tchacker
Ich würde einen 32 GB USB 3.1 Stick anstecken. Denke eigentlich nicht, dass es da zu Geschwindigkeits-Engpässen kommt.
 
Yep, in der CPU/Chipsatz-Generation des Microserver läuft vt-d (und damit Passthrough in ESXI) nur mit Xeons. Bei der Generation Skylake und Kaby Lake gibt es auch kleine Prozessoren mit vt-d.

TLC als solches muss nicht ein Fehler sein, wenn es eine ordentliche und stabile TLC-SSD (850 Evo) ist und nur wenig drauf geschrieben wird. Eine 840/840Evo solltest dafür eher vergessen... Ich persönlich möchte aber nicht dauernd über Ausdauer von SSDs, und schon gar nicht in einem Server, nachdenken. Insofern kommen da bei mir nur MLC rein (für SSD-only ZPools eher Enterprise-MLC).

Auf den ersten Blick mag dieses Konzept "VM spendiert dem eigenen Server ein Datastore via NFS-Protokoll" ungewöhnlich und aussehen, ist aber extrem praktisch. Denn damit hat man ZFS-Funktionalität, -Sicherheit und -Performance für die VMs, die man drauf legt. Sprich kann wunderbar einfach backuppen, ZFS-Snapshots und LZ4-Komprimierung nutzen. Und: innerhalb dieses Servers bremst keine Lan-Leitung, sondern die VMs haben volle Pool-Performance abzüglich etwas Protokoll-Overhead zur Verfügung.

Wichtig: Für NFS-Protokoll nutzt ZFS den sog. Sync-Mode, sprich eine genutzte Anwendung bekommt das "ok" von der Storage erst, wenn ZFS die Daten sicher auf Medium weggeschrieben hat. Das geht, wenn man nichts tut, auf die Performance. Sync-Access kann man abschalten (dann wirds aber ohne Vorkehrung (z.B. eine USV) schnell gefährlich für die Daten) oder man packt zum Pool sogenannte SLOG-Devices (ZIL). Für letzteres brauchst Du SSDs mit ausdauerfähigem Enterprise-Flash, sonst schreibt Dir ZFS die Slog-SSD in kurzer Zeit kaputt.

Ich weiss, alles viel Informationen auf einmal. :) Da musste aber früher oder später durch, wenn Du ESXI, BSD oder Solarish mit ZFS nutzen willst.
 
Zuletzt bearbeitet:
Ja das stimmt, das sind viele Infos auf einmal :) Aber lieber einmal richtig :d
Ich (persönlich) habe irgendwie immer den Ansporn alles möglichst perfekt zu machen, von daher werde ich es wohl so machen ^^ Zum Thema Xeon: Reicht da noch der Passivkühler, oder brauche ich da einen Kühler mit Lüftung? Ich werde in der nächsten Woche nochmal genauer planen, wie genau und in welcher Reihenfolge ich das machen werde, damit ich am WE dann alles durchziehen kann. Das einzige Problem ist im Moment, dass der Tag nicht 36 Stunden hat :| Aber das kann man ja nicht ändern.
Wenn es Fragen/Probleme gibt, dann melde ich mich einfach nochmal.

PS: Guten Start in die nächste Woche :d
 
Da ist bei normalen Gehäusen nix mehr mit Passivkühler; ausser in 19"-Gehäusen mit entsprechend Luftzug.
Im Microserver kann ichs nicht beurteilen, da kenn ich mich mit der Kiste nicht aus. Musst Du am besten im entsprechenden Thread hier mal durchlesen. In dem kleinen Gehäuse dürfte es thermisch insgesamt sehr schwierig werden.

Und auch die LSI-Chips werden heiss bis sehr heiss.
 
Zuletzt bearbeitet:
Was mir gerade auffällt: Ich brauche doch einen Xeon mit integrierter Grafikeinheit, oder? Ich meine, wenn iLO mal versagt, dann bekomme ich kein Bild mehr aus dem Kollegen raus, oder?

EDIT:
Hat sich erledigt, hab in einem Post gelesen, dass immer ein Bild herauskommt, da es fest mit dem iLO/Mainboard verbaut ist ;)

Ich würde dann den Xeon E3-1220L v2 und diese Kühlung verwenden: https://www.amazon.de/Noctua-NH-L9i...Noctua+NH-L9i+CPU-Kühler+für+Sockel+1155/1156 und habe hier schon ein Tutorial gefunden: http://www.hardwareluxx.de/communit...0lv2-microserver-963207-144.html#post23635397

Würde das so funktionieren?
 
Zuletzt bearbeitet:
...

Mit Freenas hab ich am Anfang probiert und bin damit nicht happy geworden und bin dann relativ schnell zu Nas4free gekommen. Dieses hab ich seit Version 9 im Einsatz, nun im vierten Jahr mit Version 11. Die Schallmauer scheint da bei so 1,1 GB/s Durchsatz zu sein . Schneller hab ich Nas4free mit NVMe-SSDs (Intel 750) nicht bekommen, mit Sata/SAS-SSDs konnte ich es mangels verfügbarer Stückzahl nicht testen ob das nur ein NVMe-Problem ist oder generell. Mehr als diese 1,1GB/s hab ich dann nur mit Solaris (OmniOS hab ich nicht getestet) bekommen; Solaris 11.3 hat problemlos 2,2-2,3GB/s von der i750 unter ZFS gelesen.

Sowohl ESXI, Nas4free als auch Solarish kommen ferner, nach etwas Tuning an den richtigen Parametern, auch prima mit 10Gbit-Lan zurecht.


Mit welcher Konfig genau hast du die 2,2 GB/s erreicht? Stripe oder Mirror wievieler SSDs?

Wie groß war der RAM und wie groß die Testdatei/-Blöcke?
 
T20 mit Xeon bzw. einem Intel Q77-Board mit i7 3770. Jeweils 16GB Ram. Solaris 11..3 direkt am Blech installiert auf einer Sata-SSD.
Die 2,2GB/s wurden dann auf einer einzigen SSD lesend erreicht: einer einzigen Intel 750 als Basis-Vdev. Da brauchts kein Stripe für diesen sequentiellen Durchsatz. :d

ZFS-Blockgröße war default, also 128K. Bei DD hab ich glaub ich BS=256K oder 512K vorgegeben gehabt.
Testdateigröße 40GB, =>also definitiv nicht die Cache-Geschwindigkeit des ARC gemessen. Die Intel 750 hat während der Testerei dabei nur müde gelächelt.

Ich warte nur drauf, mal eine Samsung 960 Pro (mit Kühlkörper) in die Hände zu bekommen. :fresse2:

Sequentieller DD-Test ist natürlich nur ein extrem vereinfachter Test, aber vielfacher paralleler Randomzugriff würde die 750 mit ihrer Enterprise-Abstammung auch nicht sehr krumm nehmen und 2. fasst ZFS eh so gut es geht Random-Schreibzugriffe zu sequentiellen zusammen.
 
Zuletzt bearbeitet:
Wichtig: Für NFS-Protokoll nutzt ZFS den sog. Sync-Mode, sprich eine genutzte Anwendung bekommt das "ok" von der Storage erst, wenn ZFS die Daten sicher auf Medium weggeschrieben hat. Das geht, wenn man nichts tut, auf die Performance.
In Zahlen:
SSD Mirror aus 2x Samsung 850 Pro 512 GB:
Sequentielle Transferrate bei aktiven Sync Write: rund 6 MB/s (!), Da schafft jeder billige USB 2 Stick mehr.
Zum Vergleich: ein Raid 5 aus 5x 2TB HDDs mit abgeschaltetem HDD Cache und Write Through Controllercache (mit BBU) am Dell Perc5i schafft immerhin noch rund 35 MB/s)

Sync-Access kann man abschalten (dann wirds aber ohne Vorkehrung (z.B. eine USV) schnell gefährlich für die Daten
In Zahlen:
SSD Mirror aus 2x Samsung 850 Pro 512 GB:
Sequentielle Transferrate bei deaktiviertem Sync Write: rund 400 MB/s

oder man packt zum Pool sogenannte SLOG-Devices (ZIL). Für letzteres brauchst Du SSDs mit ausdauerfähigem Enterprise-Flash, sonst schreibt Dir ZFS die Slog-SSD in kurzer Zeit kaputt.
Wie soll eine SSD eine SSD beschleunigen bzw. ein SSD Mirror einen SSD-Mirror? (Bei HDD sicherlich keine Frage.)
 
T20 mit Xeon bzw. einem Intel Q77-Board mit i7 3770. Jeweils 16GB Ram. Solaris 11..3 direkt am Blech installiert auf einer Sata-SSD.
Die 2,2GB/s wurden dann auf einer einzigen SSD lesend erreicht: einer einzigen Intel 750 als Basis-Vdev. Da brauchts kein Stripe für diesen sequentiellen Durchsatz. :d

ZFS-Blockgröße war default, also 128K. Bei DD hab ich glaub ich BS=256K oder 512K vorgegeben gehabt.
Testdateigröße 40GB, =>also definitiv nicht die Cache-Geschwindigkeit des ARC gemessen. Die Intel 750 hat während der Testerei dabei nur müde gelächelt.

Ich warte nur drauf, mal eine Samsung 960 Pro (mit Kühlkörper) in die Hände zu bekommen. :fresse2:

Sequentieller DD-Test ist natürlich nur ein extrem vereinfachter Test, aber vielfacher paralleler Randomzugriff würde die 750 mit ihrer Enterprise-Abstammung auch nicht sehr krumm nehmen und 2. fasst ZFS eh so gut es geht Random-Schreibzugriffe zu sequentiellen zusammen.



Hab erst jetzt mal auf die Specs der Intel 750 geschaut. Bin bisher von SATA-SSDs ausgegangen.

Dann muss ich aber ehrlich sagen dass das Ergebnis nicht "beeindruckt". Die Hardware erreicht genau die Leistung die der Hersteller angibt. Und das sieht unter anderem OS/FS sicherlich ähnlich aus.
Ein Vorteil aus meiner Sicht wäre zB wenn ein SSD-Mirror lesend auch praktisch die doppelte Leseleistung erreicht oder ein Z1/Z2/Z3 auch bei kleinen Random-Zugriffen "schnell" ist.
Die native Leistung einer SSD verlustarm umzusetzten ist aus meiner Sicht kein Aushängeschild - eher selbstverständliche Pflicht.
 
Solaris tut das, bei FreeBSD komm ich mit NVME wie gesagt lesend nicht über die 1,1GB/s hinaus (egal ob am Blech oder virtualisiert durchgereicht) .Sata-SSD-Stripe an LSI 2008/2308 konnte ich mangels solcher Anzahl an SSDs noch nicht prüfen. K.a. ob das ein allg. Limit oder ein NVME-Thema ist.

Einen Sata-SSD-Mirror hab ich als "fast pool" im Einsatz; Die Lesegeschwindigkeit schwankt dabei zwischen 1facher und 2facher SSD-Lesegeschwindigkeit; je nach Zugriffsmuster.
 
Zusätzliche Slog bei SSD only Pool

Wie soll eine SSD eine SSD beschleunigen bzw. ein SSD Mirror einen SSD-Mirror? (Bei HDD sicherlich keine Frage.)

Ein zusätzliches Slog bei einem SSD Pool macht keinen Sinn, wenn die SSDs im Pool richtig gut sind oder die gleiche SSD Qualität als Slog genutzt würde.

Man muss aber sehen, dass eine gute SSD wie z.B. eine Intel S37x0 ca 80k iops unter Dauerlast kann während eine Desktop SSD auf 5-10k iops unter Dauerlast einbricht. Auch haben billigere SSDs keine oder keine gute Powerloss Protektion. Man kann sich auf das Zil darauf also nur bedingt verlassen. Da kann es dann eventuell schon wegen der Sicherheit Sinn machen eine weitere SSD als Slog zu nehmen. Wenn die Slog SSD viel schneller ist, profitiert auch die SSD Pool Performance davon. Bei NVMe als Slog im SSD Pool macht das sogar richtig Sinn.

Unter https://forums.servethehome.com/index.php?threads/zfs-advice-for-new-setup.12625/page-7#post-122644
gibts auch Benchmarks u.A. ein SSD Pools mit zusätzlichem Intel S3700 als Slog. Performancezuwachs ist zwar nicht so extrem wie bei normalen Disks aber da.
 
Performancezuwachs ist zwar nicht so extrem wie bei normalen Disks aber da.
Genau das ist das hüpfende i oder der springende Punkt!
Die Samsung 850 Pro gilt im allgemeinen nicht gerade als langsam.
Ein Mirror unter NFS mit sync-Write liefert eine sequentielle Schreibrate von 6MB/s, mit deaktiviertem sync-Write schafft der selbe Pool satte 300 MB/s.
Bei den 4K Schreibzugriffen verhält sich das ganze dann ähnlich, die Unterschiede fallen hier aber nicht ganz so krass auf.
Ich hab das ganze mehrfach gemessen mit CrystalDiskMark.
Bei sequentiellen Schreibzugriff sind IOPs eher nachrangig / kommen nicht ganz so sehr zum Tragen.

Es mag daran leigen, daß ich Nas4Free als Storage-VM nutze. Andererseits sollte NFS auch bei FreeBSD ausgereift sein.
(Es könnte natürlich auch am LSI 3008 liegen, daß hier die Treiber noch nicht ausgereift genug sind!)


Wenn also ein SSD-Mirror mit aktiviertem Sync-Write unterirdische sequetielle Schreibraten liefert, wie soll dann ein SSD-Mirror aus 2 SSDs für das Slog das ganze beschleunigen?
Ich gehe davon aus, daß auch der S-log mit sync-Write arbeitet.
Der "normale" NFS Pool arbeiten dann zwar mit deaktiviertem Sync Write, aber die Schreiboperation kann doch trotzdem erst committed werden, wenn die Operation zumindest vollständig im SLOG steht.

Man könnte natürlich argumentieren, daß man für's Slog schnellere SSDs nimmt, die könnte man aber dann genausogut für den NFS-Pool nehmen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh