ESX / ESXi - Hilfethread

PERC5i 4x 2TB auf Raid5 / Stripe Size 128kb

Im ESXi5.0 sehe ich auch eine LUN mit ca. 5.456GB an Speicherplatz. Kann allerdings nur max. 2TB große VMDK Festplatte erstellen. Ich dachte diese Begrenzung wurde auch aufgehoben!?!? :(
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für die Aufklärung. Raw-Device kommt leider nicht in Frage, da die VMs auch auf dem Raidverbund liegen.
 
Die VMDKs sind selbst unter VMFS5 diesbezüglich leider immernoch beschränkt --> VMware KB: vSphere 5 FAQ: VMFS-5

Jupp so schauts aus. Das was vorher beschissen war, das man nämlich keine LUNs größer 2TB anlegen konnte/nutzen konnte ist aber behoben.
Gerade aus dem Gewichtspunkt, das der ESX ja eigentlich dafür da ist, die Ressourcen intelligent zu sharen, ist diese Begrenzung zwar etwas ungünstig aber immernoch verschmerzbar. Denn wer braucht Volumes am Stück größer 2TB?
IdR niemand ;) außer der Heimuser, der nen Fileserver virtualisieren will. Aber hier könnte man sich helfen indem man ein JBOD logisches Volume in der VM selbst nutzt um mehrere dieser 2TB vmdks zusammenzuschalten. Das geht sogar unter Windows halbwegs brauchbar :fresse: Speedtechnisch auch kein Nachteil weil ja die Sachen nur zusammen gekettet werden. Und Ausfalltechnisch auch kein Problem, weil alles auf dem selben Quell LUN liegt.
 
Das was vorher beschissen war, das man nämlich keine LUNs größer 2TB anlegen konnte/nutzen konnte ist aber behoben.

Naja störend ist das vor allem für unsere Heimuser, die sich massig Platten in den ESXi schieben und die iSCSI SANs. Über NFS ließ sich das ganze aber recht einfach umgehen, da hier die Grenze der LUNs wegfällt.

Denn wer braucht Volumes am Stück größer 2TB?
IdR niemand ;) außer der Heimuser, der nen Fileserver virtualisieren will.

Nicht unbedingt nur Heimuser. Ich habs auch schon bei den ein oder anderen Firmen beobachtet, dass die auch ihre Fileserver in ne VM packen. Da läuft das ganze aber zum Glück über durchgereichte Controller^^
 
Wir haben auf der (noch-)Arbeit auch alle Fileserver in VMs geparkt mittlerweile weil der umzug auf eine andere Maschine dann leichter war... Leider ohne durchgereichten Controller. Ist also auch durchaus bei "größeren" Firmen der Fall (~1000 MA) - wenns die Hardware halt nicht hergibt...
 
Es ist leider echt zum kotzen die Konstellation ESXi zu PERC5/i. Ein weiteres Problem... http://www.hardwareluxx.de/communit...sas-sata-pcie-5-a-793769-53.html#post18288000

Sobald ich im Bios meines Supermicros die Funktion VT-d einschalte, bricht der Perc zusammen und liefert E/A-Fehler. Bei deaktivierter VT-d läuft alles wie geschmiert, nur auf die Passthrough Funktion muss ich verzichten, weshalb ich eigentlich das Serverboard gekauft habe.
 
Zuletzt bearbeitet:
Ich hatte mit dem gleichen SM Board auch ordentlich Probleme mit nem LSI/Intel Controller... 1068 basierende wollten mal GARNICHT auf dem Board, ein M1015 funktioniert(e) - allerdings nur in einem der PCIe Slots, ansonsten gabs entweder keine Install mit ESXi oder kein booten...

Wäre ich nicht auf die PCI Slots angewiesen hätte ich das Teil direkt wieder zum Distri zurückgegeben...
 
Ist also auch durchaus bei "größeren" Firmen der Fall (~1000 MA) - wenns die Hardware halt nicht hergibt...

Das muss nicht unbedingt an der Hardware liegen. Du sparst dir so halt mindestens einen weiteren physikalischen Server, dessen Energie, Kühlung und Service.
Dafür kannst einen vorhandenen Server meist etwas besser nutzen. In größeren Umgebungen haben die einzelnen Host meist eh keine oder vielleicht zwei Platten für den ESXi (meist bootet der aber von nem intenen Flash oder nem Stick) und alle Datastores liegen irgendwo im SAN. In dem Fall kannst du (wenns der Platz zulässt) auch einfach den Controller + Platten des Hosts durchreichen.

Im Produktivbetrieb würd ich aber auch das aufs SAN auslagern, da hast du mehr Redundanz und bist nicht auf die Funktion des Hosts und dessen Hardware angewiesen. Zur Not wird der Fileserver dann halt auf nen anderen Host geschoben und die SANs sind in größeren Umgebungen eh redundant ausgelegt.

@mosjka: Das der PERC manchmal etwas "zickig" ist, ist nichts neues für mich. Hab diesbezüglich selber schonmal meine Späße mit dem Teil gehabt (Kein Zugriff mehr aufs BIOS, solange der PERC steckt) aber zu dem Problem mit den E/A Fehlern ist mir bis jetzt nichts bekannt....
 
Kein SAN vorhanden, lokales Storage - und mit hergeben meinte ich VT/D ;)
Ansonsten hätte ich noch nen Controller reingesteckt und die Backplanes da raufgepackt, aber sind halt S5000 Boards...
 
Genau der Schmarn mit VT-d/Perc und 2TB-Limit hat mich zu nem eigenständigen NAS getrieben... jetz besteht mein ESXi nur noch aus nem Mainboard, Intel Q6600, 8GB RAM und nem 2GB USB-Stick... iSCSI is was feines :)
 
Genau der Schmarn mit VT-d/Perc und 2TB-Limit hat mich zu nem eigenständigen NAS getrieben... jetz besteht mein ESXi nur noch aus nem Mainboard, Intel Q6600, 8GB RAM und nem 2GB USB-Stick... iSCSI is was feines :)

Leider im Vergleich sehr lahm :fresse:
Wäre der Speednachteil zu internem Storage oder FC Storage nicht, wäre ich wohl auch schon bei iSCSI oder NFS angekommen. Aber in Sachen Random Access auf das Storage, was bei viel Betrieb in Sachen RAM (Auslagerungsfile) sehr wichtig wird, bricht jegliches Storage über LAN irgendwie stark ein, laut meinen Tests.
 
Also diese Probleme kann ich ja nicht bestätigen, über ein externes System mit entsprechenden IOPs kann man auch gut NFS fahren - ziehe ich übrigens dem iSCSI deutlich vor, weil doch nochmal großer Performance Unterschied... - aber es liegt halt am externen Storage - das LAN an sich ist da nicht so das schlimme.

Was für Netzwerkauslastung hast Du denn an Deinem Stroage gehabt fdsonne?
 
Was mich an iSCSI/NFS stört ist das nicht vorhandene Loadbalancing. Wenn man nicht gerade 10Gb-Karten zur Hand hat dann ist jedes Target mit nur 1Gb angebunden; Etherchannel/Portchannel/etc bringen auch nichts da Quelle und Ziel ja immer gleich sind. Und das Basteln mit mehren VMKernel-Ports und Targets find ich auch unschön da ist mir eine FC-SAN schon lieber, wenn auch teurer :)

Btw. schon jemand das VCP5-Examen gemacht? Hab vorhin grad erfahren, dass ich doch bitte für 29.2. die Prüfung machen soll, da man danach den ICM-Kurs als Voraussetzung braucht.
 
Ich hab grad mal kurz gebencht und so extrem ist zumindest der Unterschied zwischen intern und NFS nicht, wenn man mit einberechnet, dass die NFS Platten nicht ganz so schnell rotieren wie die internen. (hab hier vor Ort leider grade nix anderes)

Intern liefen hierbei zwei 3,5" 15K SAS Platten im Raid 1
Über NFS liefen zwei 2,5" 10K SAS Platten im Raid 1

Die Internen Platten sind links und die über NFS angebundenen rechts.

IOPS.PNG

@xri12: Da muss ich dir leider zustimmen. Die 1GBit bremsen da schon gut, wenn du viele Zugriffe bzw hohe Übertragungsraten hast. Da währen 10Gbit oder FC schon besser
 
Was für Netzwerkauslastung hast Du denn an Deinem Stroage gehabt fdsonne?

Die reine Netzauslastung war nicht das Problem... Es ist viel eher die deutlich gestiegene Latenz das Problem. bzw. damals bei mir die deutlich gesunkene Latenz zwischen iSCSI und FC.
Mein Test damals war ne MSA 2312fc und ne MSA2012i jeweils als DualPort FC/iSCSI Controller mit zwei Ports pro Controller.
Bei uns waren es 4GBit/s GBICs in den FC Switches und beim iSCSI ein Stack aus Nortel ERS-5510/5520 24-48 Port Switches. (Backplanespeed auf dem Stack von ~96GBit/s)

Server seitig waren es drei HP DL 380 Server (ein G5, zwei G6) mit ordentlich RAM und ordentlich CPU und mini internem Storage für die ESX 4 Install.

Da ein paar der Platten aus dem iSCSI MSA Gerät ins FC Gerät gewandert sind, war ein 1:1 Vergleich möglich. Die Maschinen sind dann ebenso mit umgezogen auf das FC Storage. Und der Speedunterschied war gefühlt gewaltig.

Was mich an iSCSI/NFS stört ist das nicht vorhandene Loadbalancing. Wenn man nicht gerade 10Gb-Karten zur Hand hat dann ist jedes Target mit nur 1Gb angebunden; Etherchannel/Portchannel/etc bringen auch nichts da Quelle und Ziel ja immer gleich sind. Und das Basteln mit mehren VMKernel-Ports und Targets find ich auch unschön da ist mir eine FC-SAN schon lieber, wenn auch teurer :)

Was fehlt da?
Mit zwei LAN Ports+ lässt sich auf dem ESX selbst Loadbalancing fahren. Das gleiche geht bei einem ordentlichen iSCSI Device ebenso. Der Switch sollte idR halt genügend Bandbreite liefern.
Und um so mehr Hosts auf das Storage zurück greifen, desto besser funktioniert die Aufteilung selbst. Das geht sogar soweit runter, das es MAC basiert abläuft. Und man die LUNs einzeln über verschiedene Pfade des iSCSI LANs schicken kann.

Wie das bei NFS ausschaut weis ich nicht ganz, aber da dürfte das ähnlich laufen.
 
Moin, ich hab mein root passoword vergessen ;) . Kein Kommentar !

Wie löse ich da am einfachsten? Soll ich esxi einfach neu installieren ? Habe halt 80GB ESX Partition und der Rest ist eine Datenpartition, kann ich die später ohne Datenverlust importieren?
 
Zuletzt bearbeitet:
Moin, ich hab mein root passiert vergessen ;) . Kein Kommentar !

Sorry, aber: das "passiert" doch nicht so leicht ;) :Fresse:

Ich meine der 5er killt die vmfs Partition nicht, aber gabs nicht auch mal nen anderen weg über eine livecd... Ich meine schon... Hab aber auch gerade nix zur Hand, frag mal das G zum Thema ESXi livecd Passwort - da sollte wenn das dabei sein das ich meine
 
Moin, ich hab mein root passoword vergessen ;) . Kein Kommentar !

Wie löse ich da am einfachsten? Soll ich esxi einfach neu installieren ? Habe halt 80GB ESX Partition und der Rest ist eine Datenpartition, kann ich die später ohne Datenverlust importieren?
Normalerweise wirst du bei einer Neuinstallation gefragt ob du die bestehenden Datastores behalten oder neu anlegen willst.
Die offizielle Aussage von VMware beim ESXi ist auch, dass man ihn neu installieren muss um das PW zurückzusetzen^^
VMware KB: Changing a forgotten root password on an ESX/ESXi host
Gibt aber über Google auch einige Anleitungen wie es gehen soll.

Was fehlt da?
Mit zwei LAN Ports+ lässt sich auf dem ESX selbst Loadbalancing fahren. Das gleiche geht bei einem ordentlichen iSCSI Device ebenso. Der Switch sollte idR halt genügend Bandbreite liefern.
Und um so mehr Hosts auf das Storage zurück greifen, desto besser funktioniert die Aufteilung selbst. Das geht sogar soweit runter, das es MAC basiert abläuft. Und man die LUNs einzeln über verschiedene Pfade des iSCSI LANs schicken kann.
EDIT: Ich schreib da morgen was dazu, bin zu müde um noch was verständliches zu posten ;)
Soa guten Morgen! :)
Was mir bei deinem Loadbalancing nicht gefällt, man muss vieles manuell zusammenbasteln. Ich muss die verschiedenen LUNs bei iSCSI über verschiedene IP-Adressen oder Interfaces veröffentlichen. Und dementsprechend muss auf dem Host die jeweilige LUN über die andere IP eingebunden werden. Die Ziel-MAC ist dann bei jeder LUN eine andere und damit funktioniert z.B. auch Etherchannel. Aber man muss sich vorher genau überlegen welche VMs I/O-lastig sind und diese dann auf unterschiedliche LUNs packen. Und wenn man später merkt, dass 2 LUNs die über dasselbe Interface rausgehen zu stark ausgelastet sind muss man entweder VMs umziehen oder die LUN über ein anderes Interface freigeben; und das ist dann ein ständiger manueller Prozess.
Bei NFS ist das ganze ja noch anstrengender weil es keine LUNs sondern nur Exports gibt, was damit endet, dass man dasselbe NAS und den selben Export mehrmals über verschiedene IPs einbinden darf und dann die VMs verteilen darf.
Eigentlich ist es bei FC ja auch nicht viel anders wie bei iSCSI. Der Unterschied ist halt nur, dass man eine höhere Grundbandbreite hat und übers Zoning jedem FC-Port mehrere LUNs zuweisen und über 2 Klicks den Pfad anpassen kann.

Ich sollte mir mal Storage DRS anschauen; evtl. löst das ja die Problematik.
 
Zuletzt bearbeitet:
Hallo zusammen,

ich würde gerne für ein sehr kleines Unternehmen einen ESXi Server verwenden. Ich hätte zwar gerne sowas wie Data Recovery, werde hier aber auf Grund des Preises das Backup über Scripte regeln.
Es scheint mir ja so, als das ich mindestens 1000euro für die Standard Edition hinlegen muss für Data Recovery etc. richtig? Wenn dem so ist würde ich einfach den blanken ESXi verwenden. Das Essentials
Kit für ~500euro hat das Data Recovery ja leider auch nicht mit drin :/

Gibt es eine Möglichkeit die Problematik mit dem Softwareraid zu umgehen? Ich würde den ESX auf einem Hetznerserver betreiben, bei dem ich aber schon 30euro/Monat für ein Hardwareraid hinlegen
muss. Wenn möglich würde ich das Geld natürlich irgendwie sparen wollen.

Eine weitere Frage wäre die IP-Adressierung. Brauche ich für jedes Netz, dass ich auf dem ESX anlege eine eigene NIC? Der Gedanke würde dahin gehen, dass ich den VMs die öffentlich nach
aussen sind das öffentliche Netz zuweise. Das wären dann die IP-Adressen, die ich von Hetzner bekomme. Und zusätzlich die Dienste, die nicht öffentlich sein müssen (z.B. eine Datenbank-VM die mit einer
Webserver-VM kommunizieren möchte) private Adressen verwende? Das sollte doch fuktionieren oder?

Vielen Dank für eure Hilfe,
sil
 
Hallo zusammen,

ich würde gerne für ein sehr kleines Unternehmen einen ESXi Server verwenden. Ich hätte zwar gerne sowas wie Data Recovery, werde hier aber auf Grund des Preises das Backup über Scripte regeln.
Es scheint mir ja so, als das ich mindestens 1000euro für die Standard Edition hinlegen muss für Data Recovery etc. richtig? Wenn dem so ist würde ich einfach den blanken ESXi verwenden. Das Essentials
Kit für ~500euro hat das Data Recovery ja leider auch nicht mit drin :/

Gibt es eine Möglichkeit die Problematik mit dem Softwareraid zu umgehen? Ich würde den ESX auf einem Hetznerserver betreiben, bei dem ich aber schon 30euro/Monat für ein Hardwareraid hinlegen
muss. Wenn möglich würde ich das Geld natürlich irgendwie sparen wollen.

Eine weitere Frage wäre die IP-Adressierung. Brauche ich für jedes Netz, dass ich auf dem ESX anlege eine eigene NIC? Der Gedanke würde dahin gehen, dass ich den VMs die öffentlich nach
aussen sind das öffentliche Netz zuweise. Das wären dann die IP-Adressen, die ich von Hetzner bekomme. Und zusätzlich die Dienste, die nicht öffentlich sein müssen (z.B. eine Datenbank-VM die mit einer
Webserver-VM kommunizieren möchte) private Adressen verwende? Das sollte doch fuktionieren oder?

Vielen Dank für eure Hilfe,
sil
Ich würde eher auf ein Third Party Tool setzen als Data Recovery zu nutzen. Die restlichen Features von vSphere Standard bringen euch bei einem Server eh nichts. Holt euch halt das Essentials Bundle und sichert die VMs mit z.B. Veeam Backup. Und wenn ihr wirklich mal mehr Hosts braucht habt ihr im Essentials Bundle noch weitere CPU-Lizenzen und vCenter Server dabei; und notfalls holt ihr euch ein Upgrade.
Wo willst du das Backup eigentlich speichern? Hoffentlich nicht auf dem selben Server... :)

Zum Softwareraid kann ich dir nichts sagen.

Du brauchst nicht für jedes Netz eine eigene Netzwerkkarte. Du kannst auch mehrere VLANs auf einen Uplink legen, sofern man bei Hetzner VLANs bekommt.
Bei dir sollte das aber auch ohne VLANs funktionieren. Da du nur einen Host hast legst du für das interne Netz eine Portgruppe ohne Uplink an; die Kommunikation sollte dann nur auf dem ESXi ablaufen.
Wie willst du die VMs eigentlich ins Firmennetz bekommen? Wird jede VM eine öffentliche IP bekommen oder bekommt ihr eine Firewall mit einer IP gestellt und könnt dann eine VPN-Verbindung aufbauen?
 
Hey,
schonmal danke für deine Hilfe. Mit essentials Bundle meinst du das kit? Das kostet ja so um die 500euro und wäre auf jedenfall im Budget drin. Bringt mir das denn überhaupt Vorteile gegenüber der kostenlosversion?
Es geht halt um meinen Bruder der sich gerade selbstständig macht und eigentlich mehr als einen Server braucht. Da habe ich ihn zu einem ESX beraten, da wir den auch bei uns in den Unilaboren einsetzen und mit
der dicken Essentials Plus Version super zufrieden sind. Da habe ich halt den Vorteil das ich wirklich alles nutzen kann und nicht mekkern kann. Hier muss ich halt genau schauen was ich für das Geld bekomme.
Ich habe mich beispielsweise die Tage mal mit den Backupmöglichkeiten für den ESXi beschäftigt. Dabei kam natürlich Veeam an die Reihe. Soweit ich das gelesen habe soll das doch schweineteuer sein. Das bietet für
mich einfach viel zu viel Funktionalität. Ich brauche nur ein vernünftiges Backup für einen Host, später vielleicht 2-3 (maximal in ein paar Jahren), bei dem ich die Backups auf den FTP schieben kann und im Notfall dann
recovern kann. Sowas gibt es halt nicht komerziell für einen niedrigen Preis. Aber wie gesagt komme ich da auch mit Scripten parat.
Das mit den Netzen habe ich mir eigentlich gedacht. Also das ich intern doch durch ein Portgruppe so kommunizieren kann. Aber durch meinen Text oben beantwortet sich ja schon deine Frage unten. Es gibt kein Firmennetz.
Es handel sich um eine Internetfirma die lediglich Webseiten betreibt, die ich gerne auf verschiedene VMs auf Grund von Skalierung aufteilen möchte.

VMware Data Recovery ist halt ein feines Tool, das aber nicht für sehr kleine Unternehmen konzipiert ist. Hast du oder jemand noch andere Ratschläge wie man am besten vorgeht?

Danke.
 
Genau ich meine das Kit. Da ist halt der Vorteil, dass du einen vCenter Server(Management) und mehrere CPU-Lizenzen(6Stk) für die Zukunft dabei hast. Beim freien Hypervisor sind die APIs nicht verfügbar weshalb man z.B. auch keine Backupsoftware mit ihm nutzen kann; mit Skripten scheint es aber zu gehen und wenn du dich damit auskennst kannst du es ja auch so lösen. Man kann ja auch später nachlizenzieren wenn wirklich mehr Hosts dazu kommen sollten.
Wenn es aber momentan nur Webserver sind ist halt die Frage ob du nicht gleich nur die Daten sichern willst und im Notfall eben schnell ein paar Webserver aufsetzt und da zurücksicherst.
Als Betriebssystem für die Webserver werdet ihr wahrscheinlich ein Linux einsetzen,oder?

Von Data Recovery bin ich einfach nicht wirklich überzeugt. Mir kommts immer wie eine Betasoftware vor, die zwar teilweise recht gut funktioniert, teilweise aber einfach nur nervt.
Veeam funktioniert einfach wie es soll; schnell, stabil und einfach. Und das Wiederherstellen läuft auch problemlos ab; man kann einzelne Dateien aus dem Backup ziehen oder auch die VM als Clone einbinden, dabei mountet Veeam das Backup als NFS-Store und man hat innerhalb kürzester Zeit wieder eine laufende Maschine.
Aktuelle Preise habe ich leider nicht, aber es waren glaube ich mal 600$ pro Host-CPU.
 
Ich versuche natürlich am Anfang die Kosten möglichst gering zu halten. Das Geld wäre für das Kit zwar da, aber vielleicht macht es mehr Sinn, wenn ich erstmal den Hypervisor nutze und dann später auf das Kit upgrade falls nötig.

Backupscript wäre das ghettoVCB (VMware Communities: ghettoVCB.sh - Free alternative for backing up VM's for ESX(i) 3.5, 4.x+ & 5.x). Das erstellt mir ja Snapshots und sichert diese weg. Dafür bräuchte ich keine APIs oder? Mit API meinst du das Colloborative Backup, richtig?
Veeam macht natürlich für hohe Verfügbarkeit sinn. Das könnte gut eine Anschaffung in der Zukunft sein. Aber zuerst muss man ja schon wie das Projekt eigentlich läuft und ob es sich dann lohnt.

Und ja, jeder Webserver läuft bei mir unter Linux. Das ist ein Prinzip ;) Bisher betreibe ich halt den Rootserver ohne Virtualisierung und backuppe nur Dateien die ich dann nach der Neuinstallation zurücksichern kann. Das macht zum einen ja Sinn, ist aber auf der anderen Seite ein Megaaufwand wenn mal was passiert. Es dauert halt ewig alles neu zu installieren. Virtualisierung hat mir auf der Arbeit gezeigt wie einfach es sein kann ein Server zu recovern.

Ach und bezüglich vCenter Server. Solange ich doch nur ein Host habe und kein Backup über z.B. Data Recovery betreibe möchte brauch ich den ja nicht unbedingt. Ich hab mich zwar an den Server gewöhnt, aber wenn ich ehrlich bin bringt er mir nur was wenn ich mehrere Server habe. Und er kostet mich eine IP-Adresse ;) Die kosten mich ja heutzutage auch genug Kohle :/
 
Zuletzt bearbeitet:
Jup stimmt schon bei einem Host braucht es kein vCenter. Mir gings nur um die Zukunftsicherheit, wobei man dann immer noch das Bundle kaufen kann wenns benötigt wird.
Mit GhettoVCB habe ich mich noch nie wirklich beschäftigt, scheint aber mit dem freien Hypervisor zu funktionieren, also warum nicht ;)
Es sichert übrigens nicht die Snapshots sondern die VMDKs. Der Snapshot wird nur während dem Backup erstellt und danach wieder gelöscht.
 
Japp ok. Hab mich falsch ausgedrückt ;) Der Schritt ist halt auch ernom von essentials kit zu essentials plus kit. In dem wäre nämlich viel mehr brauchbares. Aber ein Schritt von 500euro zu 4000 ist schon happig :) Aber so sollte es ja jetzt klappen.
Das einfach erweitern mit den Lizenzen hat mir auf der Arbeit schon gefallen. Was nutzt du?
 
Wir nutzen bei den meisten unserer Kunden auch das Essentials- oder Essentials Plus-Kit (je nachdem ob die einen oder mehrere Hosts haben), das reicht für kleine Umgebungen mit bis zu drei Hosts und zentraler Storage vollkommen aus. Das Essentials Plus-Kit bietet eben noch High Availability und vMotion, was nur bei mehr als einem Host Sinn ergibt (dann muss allerdings auch eine zentrale Storage vorhanden sein, alternativ die vSphere Storage Appliance, die aber auch schweineteuer ist, da kann man sich gleich eine kleine zentrale Storage kaufen).
 
Bei Kunden setzen wir auch auf die Essentials Kits, da wir bisher nur kleinere Umgebungen ohne Shared Storage hatten.
In der Produktivumgebung von unserer Firma laufen 4 Hosts mit vSphere Enterprise Plus mit einer Netapp FAS2040 dahinter.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh