ESX / ESXi - Hilfethread

Also LevelOne sagt mir die Hilfe bei Trunk:
This page allows you to create a maximum of eight trunks of up to eight ports each. The Membership Table has one row for each port and ten columns. Each row contains nine radio buttons which are used to indicate which trunk (if any) the port belongs to. Each radio button is in a column of its own. The columns are:

Port - The front-panel port-number of the port.
Not a Trunk Member - If the radio button in this column is selected, the port is not a member of any trunks. This is the default state.
Columns Trunk T1 through Trunk T8 - These columns correspond to the eight trunks that are supported by the Switch. Clicking on the radio button in any one of these columns causes the port to become a member of the corresponding trunk.

When a trunk is first created it is given the following, default configuration:

Speed/Duplex is set to Auto Speed (see TRUNKS > Settings)
Flow Control is turned off (see TRUNKS > Settings)
Rate Limiting is turned off (see TRUNKS > Rate Limiting)
The trunk is a member of VLAN 1 with a PVID of 1. The trunk will accept both tagged and untagged packets (see VLANS > VLAN Settings)

Ports that are removed from the trunk, retain the configuration that they had when members of the trunk. Ports that are added to the trunk after its creation, inherit the current configuration of the trunk.

There are three main buttons associated with this page:

HELP - Displays this window.
APPLY - Updates the Switch configuration. No changes are made to the configuration until this button is pressed.
CANCEL - All changes made to the page are discarded and the Switch configuration remains unchanged.
und bei LACP:
This page enables you to setup the configuration of LACP on all or some ports. LACP (IEEE 802.3ad Link Aggregation Protocol) provides a way to set up aggregation automatically between switches. The LACP Setup table has one row for each port and three columns. The columns are:

Port - The front-panel port-number of the port. This cannot be changed.
Enabled - Enable LACP on the associated port.
Key Value - Setup key value for each port.


There are three main buttons associated with this page:

HELP - Displays this window.
Apply - Updates the configuration. No changes are made to the configuration until this button is pressed.
Refresh - Refreshes the page with the current configurations.

LACP Introduction
LACP (IEEE 802.3ad Link Aggregation Protocol) provides a way to set up aggregation automatically between switches. LACP configured ports can automatically negotiate a trunked link with LACP-configured ports on another device. You can configure any number of ports on the switch as LACP, as long as they are not already configured as part of a static trunk. If ports on another device are also configured as LACP, the switch and the other device will negotiate a trunk link between them. On the other hand, static trunks have to be manually configured at both ends of the link.
Enabled

To avoid creating a loop in the network, be sure you enable LACP before connecting the ports, and also disconnect the ports before disabling LACP.
If the target switch has also enabled LACP on the connected ports, the trunk will be activated automatically.
All ports on both ends of an LACP trunk must be configured for full duplex, either by forced mode or auto-negotiation.
Trunks dynamically established through LACP will also be shown in the LACP Status.

Key Value

Key value must be between 1 - 255. Auto means autogenerated key.
The LACP key must be set to the same value for ports that belong to the same LACP group.

Ich hab jetzt mal spaßeshalber Port 6+7 (meinPC) und Port 10+11 (Server) aktiviert bei Key-Value nichts eingetragen, am ESXi nichts verändert. Dann bricht die Durchsatzrate beim Kopieren zusammen.
Wenn ich am ESXi umstelle auf "Anhand des ip-Hashes routen", dann pendelt er sich zusammen gerechnet auf etwas mehr wie 100 Mib/s ein.
Ohne LACP Änderung komm ich aber zusammen schon auf ca. 120 MiB/s.

Ich weis jetzt nicht was besser ist.

---------- Post added at 19:02 ---------- Previous post was at 18:52 ----------

Das stimmt so ohne weiteres aber nicht für das was er eigentlich vorhatte: Teaming/Bonding/Trunking - ich hatte auf meiner alten Workstation ne Intel Dualport geteamt und von einem Server (ebenfalls geteamt) auf ein RAID10 (mit schnellen SAS HDDs, später ein RAID1 mit SSDs) regelmäßig recht große Daten gezogen. Da war deutlich mehr als die ~125MB drin die theoretisch möglich wären über 1Gbit - es waren halt 2 gebündelte Gbit Kanäle. Das braucht also bei entsprechendem Client nicht zwangsweise auch 2 Verbindungen. Und die hätte er ja auch wenn er seinen PC mit 2 NICs ebenfalls Teamen kann. Das seine HDD limitiert ist ja was anderes ;)

Ich hab ja auch in meinem PC eine Dualport Nic drinne und die ist inzwischen ja auch geteamt und jetzt will ich vnic4 und vnic5 am ESXi auch teamen.
Was meinst du jetzt mit "entsprechendem Client"?
Mein PC ist halt Win7Pro, Server ESXi 5.1 und VM ist Openindiana.

Die Kopieraktion habe ich mit zwei mal gestartetem SpeedCommander durchgeführt. Ob das jetzt eine Verbindung ist oder zwei - keine Ahnung.

Was bremst ist mein PC da sicherlich die HD, IMHO nicht Openindiana, da der Pool aus 5 Mirrors besteht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es ging darum, dass fdsonne sagte, dass man 2 Verbindungen braucht um über die 1Gbit Grenze zu kommen. Und das stimmt so nicht, zumindest im nicht-ESXi Umfeld ;)

Imho darf man auf den Ports auf denen der ESXi hängt nichts ändern am Switch. Aber garantieren kann ich es auch nicht ;) Teaming geht so defintiv nicht wie du es vorhast, da hat fdsonne schon recht.
 
Es ging darum, dass fdsonne sagte, dass man 2 Verbindungen braucht um über die 1Gbit Grenze zu kommen. Und das stimmt so nicht, zumindest im nicht-ESXi Umfeld ;)

Imho darf man auf den Ports auf denen der ESXi hängt nichts ändern am Switch. Aber garantieren kann ich es auch nicht ;)

Es geht ja nicht nur darum, dass ich mit meinem PC über die 1Gbit kommen wollte, sondern auch wenn ich Dateien von meinem PC auf den Server hoch schiebe, dann sollen andere Rechner noch auf den Server zugreifen können und aber auch Daten geliefert bekommen und zwar so, dass es an diesen Rechnern nicht nur ruckelt.

Egal ob ich am Switch die Serverports ändere zu Trunking oder LACP bricht entweder die Verbindung zum Server ab oder die Verbindung bricht zusammen also sinkt die Durchsatzrate.

Teaming geht so defintiv nicht wie du es vorhast, da hat fdsonne schon recht.
Wenn ich so richtig verstanden habe, kann ich das Teaming, warum auch immer, vergessen.
Da stells mir schon die Haare, wenn ich dran denke, dass 11 TB auf den Backupserver gesichert werden sollen. Das wird dauern und dauern. :sleep:
 
Zuletzt bearbeitet:
Jemand hier der unter ESXi 5.1.0 nen LSI 8344ELP laufen hat?
Ich bekomm entweder direkt beim installieren schon nen schönen lila Bildschirm(PCIe Slot 2) oder er erkennt den Controller und das Array aber ich kann nix drauf schreiben und er schmeißt mir den kompletten Datastore bei 75% wieder raus(PCIe Slot 1). IOErrNo6

-------------
Edit:
Okay, scheint am eingeschaltetem VT-d vom Board gelegen zu haben. Ohne VT-d läufts nun.
 
Zuletzt bearbeitet:
Es ging darum, dass fdsonne sagte, dass man 2 Verbindungen braucht um über die 1Gbit Grenze zu kommen. Und das stimmt so nicht, zumindest im nicht-ESXi Umfeld ;)

Imho darf man auf den Ports auf denen der ESXi hängt nichts ändern am Switch. Aber garantieren kann ich es auch nicht ;) Teaming geht so defintiv nicht wie du es vorhast, da hat fdsonne schon recht.

Was hat der ESXi mit den Standards in Sachen Link-Bündlung zu tun?
Was natürlich sein kann, das beispielsweise Intel NICs propritäre Lösungsansatze fahren. Aber das ist ja nicht Sinn der Sache... Denn man hat A) am ESX nicht die Möglichkeiten wie man sie auf nem Windows/Linux zum Einstellen hat und B) verteilt der ESXi noch dazu nach VMs, die am vSwitch hängen.

Ließ dich mal ein zum Thema LACP bzw. Link Aggregation. Das ganze läuft idR nach MAC Adressen, wenn man es so will. Da benötigt man nunmal schlicht zwei Transfers, sonst wird das nix. Wie gesagt, propritäre Lösungsansätze verschiedener Hersteller, die bestenfalls dann untereinander auch laufen, sind dabei aber absolut nicht Thema...


Was aber für den TE ggf. noch viel einfacher zu machen ist. Warum nicht einfach der VM, die ja scheinbar das Ziel eines Copy/Backup Jobs ist, wenn ich layerbreak richtig verstehe, ne zweite virtuelle NIC mit ner seperaten IP geben? Ggf. noch nen seperaten DNS Namen im DNS registrieren um die Sache noch zu vereinfachen.
Somit könnte alle Clients (wenn es heist, es ruckelt, gehe ich von irgendwelchen Videostreams oder ähnliches aus) direkt über den primären Adapter laufen, wärend das Backup über den sekundären Adapter läuft. Somit hat er zwar jeweils auch nur 1GBit/s, aber absolut keine Behinderung der anderen Clients, wärend ein Backup die Daten da drauf schiebt.
Der ESXi verteilt dann die Last ohne dedizierte Switchkonfig auch über beide physische NICs am selben vSwitch und es entsteht dazu keine Behinderung.

LACP in einer Workstation halte ich persönlich für quatsch. Einfach weil es eben nix bringt. Es macht dort Sinn, wo viele viele einzelne Connections aktiv sind (zwischen zwei Switches zum Beispiel) oder wo ein einziges System ansprechbar für viele andere Clients sein soll (einem Fileserver zum Beispiel)
 
Was hat der ESXi mit den Standards in Sachen Link-Bündlung zu tun?
Was natürlich sein kann, das beispielsweise Intel NICs propritäre Lösungsansatze fahren. Aber das ist ja nicht Sinn der Sache... Denn man hat A) am ESX nicht die Möglichkeiten wie man sie auf nem Windows/Linux zum Einstellen hat und B) verteilt der ESXi noch dazu nach VMs, die am vSwitch hängen.

Ließ dich mal ein zum Thema LACP bzw. Link Aggregation. Das ganze läuft idR nach MAC Adressen, wenn man es so will. Da benötigt man nunmal schlicht zwei Transfers, sonst wird das nix. Wie gesagt, propritäre Lösungsansätze verschiedener Hersteller, die bestenfalls dann untereinander auch laufen, sind dabei aber absolut nicht Thema...

Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.
 
Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.

Auch dann hättest du nur bei mehr als einem Tranfer 2GBit.
 
Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.

Das was das OS dort anzeigt, entspricht aber nicht unbedingt der Wahrheit... Es ist bekannt, das ein Team aus zwei NICs über eine Software eine Art virtuellen Adapter im OS einklingt, welcher sich mit 2GBit/s meldet. Heist aber nicht, das auch 2GBit/s da durch laufen. Und schon gar nicht, wenn nur ein Transfer.
Meinst du ich sauge mir das aus dem Fingern? ;)

Mess einfach mal mit NetIO die Bandbreite zwischen Server (2NICs) und Client (2NICs)... Bei genau einem einzigen Datenstream!


PS: Trunk ist auch nicht gleich Trunk!
Da jeder Hersteller dort sein eigenes Süppchen kocht. Dafür gibt es definierte Standard. Und genau danach geh ich hier ;)
 
Das ganze läuft idR nach MAC Adressen, wenn man es so will. Da benötigt man nunmal schlicht zwei Transfers, sonst wird das nix. Wie gesagt, propritäre Lösungsansätze verschiedener Hersteller, die bestenfalls dann untereinander auch laufen, sind dabei aber absolut nicht Thema...
Dann müsste ich bei Lastausgleich "Anhand des Quell-Mac-Hashes routen" einstellen?

Was aber für den TE ggf. noch viel einfacher zu machen ist. Warum nicht einfach der VM, die ja scheinbar das Ziel eines Copy/Backup Jobs ist, wenn ich layerbreak richtig verstehe, ne zweite virtuelle NIC mit ner seperaten IP geben? Ggf. noch nen seperaten DNS Namen im DNS registrieren um die Sache noch zu vereinfachen.
Somit könnte alle Clients (wenn es heist, es ruckelt, gehe ich von irgendwelchen Videostreams oder ähnliches aus) direkt über den primären Adapter laufen, wärend das Backup über den sekundären Adapter läuft. Somit hat er zwar jeweils auch nur 1GBit/s, aber absolut keine Behinderung der anderen Clients, wärend ein Backup die Daten da drauf schiebt.
Der ESXi verteilt dann die Last ohne dedizierte Switchkonfig auch über beide physische NICs am selben vSwitch und es entsteht dazu keine Behinderung.
Bei OI_148 hatte ich 2 vnics eingerichtet. Das Problem war dann aber, dass das Eine oder Andere Mal die Clients keine Verbindung mehr hatten, da OI die Daten auf der zweiten IP gesendet hat. So meine Vermutung.
@gea, schreibt ja auch, dass eine zweite vnic bei OI eher zu Problemen neigt, deshalb hab ich es bei der Neuinstallation schlicht weg gelassen. Als Laie denke ich, dass ich in OI "crossbow" oder link-aggregation dazu benutzen muss, dann hab ich aber immer noch die Eigenheiten von ESXi, die da dann eventl. nicht mitspielen.

LACP in einer Workstation halte ich persönlich für quatsch. Einfach weil es eben nix bringt. Es macht dort Sinn, wo viele viele einzelne Connections aktiv sind (zwischen zwei Switches zum Beispiel) oder wo ein einziges System ansprechbar für viele andere Clients sein soll (einem Fileserver zum Beispiel)

Da ist nichts properitär (in dem Sinne, dass es nur unter Intel funktioniert) - ich Teame z.B. 2 Intel NICs unter Windows und richte die Ports auf dem HP Switch als Trunk ein - und schon habe ich eine 2Gbit Netzwerkverbindung unter Windows die mit einem einzelnen Transfer 2Gbit ausnuzten kann. Hätte ich jetzt noch eine 10Gbit Karte und passenden Switch könnte ich auch ohne Bündelung auf der anderen Seite 2Gbit nutzen (getestet bzw. gemacht, also keine Vermutung). Trunk ist nunmal Trunk. In der Form ist das auf dem ESX nicht zu machen, der kann es nur mit mehr als 1 Verbindung.

Das was das OS dort anzeigt, entspricht aber nicht unbedingt der Wahrheit... Es ist bekannt, das ein Team aus zwei NICs über eine Software eine Art virtuellen Adapter im OS einklingt, welcher sich mit 2GBit/s meldet. Heist aber nicht, das auch 2GBit/s da durch laufen. Und schon gar nicht, wenn nur ein Transfer.
Meinst du ich sauge mir das aus dem Fingern? ;)

Mess einfach mal mit NetIO die Bandbreite zwischen Server (2NICs) und Client (2NICs)... Bei genau einem einzigen Datenstream!


PS: Trunk ist auch nicht gleich Trunk!
Da jeder Hersteller dort sein eigenes Süppchen kocht. Dafür gibt es definierte Standard. Und genau danach geh ich hier ;)
Was mir jetzt klar geworden ist, ist dass bei einem normalen Win PC das Teaming unnötig ist, weil nicht das Netz der Flaschenhals ist, sondern die HDDs.
Die Consumer HDD ist nicht schnell genug um mehr wie eine Verbindung auszulasten, außer man nutzt SASs oder SSDs mit entsprechendem Raid-Level.
 
Aktuellstes BIOS drauf? Hab mit USB Boot auf 2 Kisten im Büro kein Problem...

Das mit der 2. NIC (die auch für rKVM benutzt wird) hab ich ja vermutet, den Treiber kann man aber afair nachrüsten oder vorher ins ISO basteln glaub ich

ja, aktuelles Bios seit heute drauf. Aber keine Besserung.
Ist das einzige wählbare Bootmedium im Bios, bootet aber trotzdem nicht. Drück ich F10 und wähle den Stick ausm Bootmenü gehts.
Werde später mal einen anderen Stick probieren.

Jap, mittlerweile sollte die Karte gehen - hab ich zumindest gelesen. Werds demnächst testen.
 
Hast du den Stick denn als Boot Priority oben? Gibt afair auch ne Option Boot USB Devices First (oder ähnlich)
 
Jop, gibt ja auch nur das eine Laufwerk.
Bei den "einfachen" Booteinstellungen im Bios taucht er als einziges Harddisk-Drive auf und die Reihenfolge steht auch auf HDD.
UEFI ist aus, Boot USB first ist an. Removable und Optical ist aus. Spielt aber auch keine Rolle ob an oder aus. SecureBoot ist auch aus.
Legacy Boot an.

E: ach.. der Stick hat so eine "CD-ROM" Partition mit irgendwelcher Murkssoftware. Daran wirds wohl liegen. Hatte ich nciht gewusst, weil ich den nie an einem Windows-PC hatte...
 
Zuletzt bearbeitet:
Richtig genau der :)


So...der neue Controller ist drin...

Welche Einstellung empfiehlt sich nun für ESXi als Default Write? Write Through, Always Write Back oder write Back with BBU?

Und welche Stripe Size sollte man wählen beim Erstellen des RAIDs als ESXi Datastore?


Grüße
 

Anhänge

  • IMAG0218.jpg
    IMAG0218.jpg
    117,1 KB · Aufrufe: 78
Wenn du auf einen evtl. Datenverlust (der Daten im Cache) gefasst bist (und damit die maximale Performance willst) dann ist Always Write Back die Wahl, hast du eine BBU dann wäre es Write Back with BBU
 
Okay, danke. Und bei I/O? Direct oder Cached?

Und Stripe Size ist wohl eher zu vernachlässigen, oder!?

Grüße
 
Tausen Dank für die Links.
Den THG Artikel kenn ich schon :) ..den anderen nicht! Hilft auf jeden Fall sehr weiter.

VG
 
So, CDFS Partition ist weg, aber immer noch kein automatisches Booten von dem Stick. Werd mal einen anderen testen.

Hab aber mal diesen Treiber mit dem ESXi-Customizer zum 5.1 hinzugefügt - und schon im Settings-Menü sehe ich jetzt 2 Karten... einzig das Booten dauert jetzt wesentlich länger als vorher (alles gleich, bis auf das angepasste Image - läd ewig bei "loading esxfw" - aber das stört mich jetzt erstmal weniger)

auch hier schauts gut aus:
6E6FljF.png


E: nu bootet er... UEFI Boot auf "enabled" und dann gings... warum auch immer. Übers Bootmenü zeigt er mir ja auch kein UEFI-fähiges LW an, sondern nur "USB:" - und bootet trotzdem. Aber mir solls recht sein ;)
 
Zuletzt bearbeitet:
Habe gerade mal RDM getestet, das ist ja extrem cool :d
Ich kann meine Festplatte ausreizen, (140MB/s) es ist einfach einzurichten und man spart sich einen extra Controller für Passthrough.

Sobald ich aber Hotplug nutzen will, komm ich nicht um einen extra durchgereichten Controller/HBA herum, oder?
 
Stripe-Size: RAID-Analyse: Welche Blockgröße ist ideal? : Vergleich: Stripe-Größen bei RAID 0, 5 und 6

I/O musst du selber entscheiden, hier nochmal der Link auf dem auch der Unterschied zwischen Cached und Direct angezeigt wird (auch wenn da m.M. nach ein Dreher drin ist!):
direct IO or cache IO?

Ich habs bei mir auf Cached stehen weil ich es damals so eingerichtet hab...

Hi nochmal.
Also mein ESXi flutscht jetzt mal richtig gut...habe nun aus den 3x300GB SAS 15K @ RAID5 ein 4x300GB SAS 15K @ RAID10 gemacht (Always Write Back, Cache aktiviert & 128K Blockgröße) und man erkennt das System nicht wieder. Jetzt ist es Blitzschnell. Top!

Jetzt habe ich noch eine eine Exchange-Baustelle (ist aber ein anderer Thread).


Danke auf jeden Fall für die Hilfe :)


EDIT:
@all
Ich habe jetzt einen ESXi auf einem 32GB USB3.0 Stick installiert, weil ich keinen anderen zur Hand hatte. Nun habe ich mir einen kleinen besorgt, extra für den Zweck.

Kann ich nun einfach den ESXi auf den neuen USB Stick installieren und die VMs ganz normal wieder nutzen oder muss man da was beachten?
 
Zuletzt bearbeitet:
das geht live... da die VMs ja auf nem Storage liegen. Normal sieht der ESXi installiert auf dem neuen Stick wärend des Bootens die Datastores. Einzig, du musst wohl die VMs alle wieder ins Inventory einhängen. Das ist ja aber absolut kein Problem ;)

Die Frage ob du kopiert oder verschoben hast, solltest du aber definitiv mit "gemoved" beantworten.
 
Hy,

ich habe ein Problem mit dem passtrough meines Adaptec 71605 Raid Kontrollers.

Folgendes System,

Supermicro | Products | Motherboards | Xeon® Boards | X9SCM-IIF

Xenon E3 1245v2
Adaptec 71605

Kann beim ESXI (Build 914609) zwar den Adaptec durchreichen zum Windows Server, ich sehe auch im Gerätemanager den raidcontroller mit gelbem Ausrufzeichen, sobald ich aber den Treiber installieren will crasht mir das Gastsystem.

Habt Ihr vielleicht einen Tipp für mich?

Thx
 
hm - da kann ich leider nix zu sagen.

Ich habe aber selbst noch ein anderes Problem...

Mein Homeserver hat ein Gigabyte Board, bei welchem der LAN Chipsatz nicht vom ESXI unterstützt wird.
Ich habe jetzt eine Anleitung gefunden, den Treiber hinzuzufügen ...
Aber wie bekomme ich überhautp den esxi vorher installiert?
Die Installation bricht mir ja ab, dass keine Netzwerkkarte gefunden wurde.

Leider hat das Board auch keine "alten" PCI Steckplätze mehr.

Muss ich mir jetzt wirklich eine pci-e Netzwerkkarte für den ersten Installationsschritt
besorgen?!

besten dank

viele Grüße
 
probier mal den customizer:

Hab aber mal diesen Treiber mit dem ESXi-Customizer zum 5.1 hinzugefügt - und schon im Settings-Menü sehe ich jetzt 2 Karten... einzig das Booten dauert jetzt wesentlich länger als vorher (alles gleich, bis auf das angepasste Image - läd ewig bei "loading esxfw" - aber das stört mich jetzt erstmal weniger)
 
das geht live... da die VMs ja auf nem Storage liegen. Normal sieht der ESXi installiert auf dem neuen Stick wärend des Bootens die Datastores. Einzig, du musst wohl die VMs alle wieder ins Inventory einhängen. Das ist ja aber absolut kein Problem ;)

Die Frage ob du kopiert oder verschoben hast, solltest du aber definitiv mit "gemoved" beantworten.

Danke, werde es gleich ausprobieren.

VG
 
Kann ich per RDM gemappte Disks auf ein NFS migrieren?

-rw------- 1 root root 1500301910016 Nov 9 23:20 RAID0-rdmp.vmdk
-rw------- 1 root root 496 Jan 24 15:34 RAID0.vmdk

Sobald ich anfange, die große Datei zu kopieren, liest er die Platte. Wenn ich nur die kleine kopiere, kann ich die Disk nicht in eine VM binden.

Ich will quasi nur die Beschreibung der Platte aufs NFS schieben, die Platte bleibt lokal angeschlossen und soll auch wie bisher genutzt werden.

Edit: Eigtl ist es ja schon pervers, dass die "Datei" kein spezielles Device ist und gegen ordentliche UNIX-Semantik verstößt.
 
Zuletzt bearbeitet:
Ich würde das mapping einfach neu einrichten im entsprechenden ordner - wobei ich nicht weiß ob das auf einem NFS überhaupt geht
 
Mal ne Frage in die Runde:

Gibt es eine Möglichkeit im ESXi die Performance eines RAIDs zu testen?
Ich sehe zwar so einiges bei Leistung (z.b. Lese und SChreibgeschwindigkeiten), aber so einen richtigen Test ob das RAID irgendwo falsch konfiguriert ist oder optimaler eingestellt werden kann fehlt mri etwas. Was würde es bringen, wenn ich es in einer VM teste, weil da greifen dann ja noch andere auf die gleiche Platte vermutlich zu, ganz zu schweigen dass ich kein Windows am laufen habe sondern nur Debian System installiert sind.
 
Gibt es eine Möglichkeit im ESXi die Performance eines RAIDs zu testen?

Also auf dem ESXi selber währe mir jetzt nix bekannt.

Was würde es bringen, wenn ich es in einer VM teste

Durch die Sache mit dem VMDK File dazwischen würde das Ergebniss wohl nicht 100%ig genau, aber wenn du da wirklich was messen willst, dann solltest du schon dafür sorgen, dass keine anderen VMs in der Zeit auf dem Array rum rödeln ;)

ganz zu schweigen dass ich kein Windows am laufen habe sondern nur Debian System installiert sind.

Na und, auch unter Linux gibts mehr als genug Benchmarktools z.B bonnie++

Wichtig beim ESXi ist halt, dass du eine gute I/O Leistung hast, die sequenzielle Transferrate ist da nicht ganz so wichtig, da meist viele kleine Zugriffe erfolgen, als wenige große Files gelesen werden. Am besten währe dafür z.B ein RAID 10, sonst geht deinem Storage früher oder später die Puste aus :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh