ESX / ESXi - Hilfethread

Bzgl. USB hab ich bei meinen 7.0-Versuchen alles bei default gelassen, auch den Usbarbitrator musste ich nicht deaktivieren, um auf einer USB-Boot-SSD eine VMFS Partition anzulegen.
Nach Manipulation der VMFSL-Partition via Kommandozeile kann man dort eine Datastore-Partition erzeugen und mit VMFS formatieren. Lief auch schon bei 6.7U1/2/3 bei mir so.

Man muss bei 7 bzgl. USB-Datastore i.W. auf das geänderte Partitionlayout aufpassen; drum sind meine ersten nichtahnenden Versuche in die Hose gegangen.
Bei meinem letzten Versuch (VMFSL-partition verkleinern, VMFS neu anlegen) auf einer 500er USB-SSD klappt das und die wird auch gemountet.

Bzgl. GPU-Passthrough: sämtliche Varianten der bekannten Konfigurationen erzeugen mit ESXI7 auf dem P300 (=Haswell Xeon) und Win10/2004 als VM den gehassten Error 43 bei meiner P400... Egal welche Parameter eingetragen werden, egal ob die VM als EFI oder BIOS läuft. Mrtlbrnft. ##!@$$&#!!!!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zusammen,

ich bin mir nicht sicher ob ich hier richtig bin, falls nicht bitte verschieben.
Ich habe auf einem Dell T20 ESXi 6.7.0 Update 3 am laufen. Hier laufen neben Napp-IT 3 Win 10 VM´s und auch stabel. Soweit so gut,
Gehe ich jedoch über eine Remotedesktop-Verbindung auf eine Win10 VM friert diese nach unterschiedlicher Zeit immer wieder ein. Die VM läufte jedoch weiter. Ich muss dann immer wieder die Verbindung schließen und neu aufbauen. Das ist doch sehr nervig. Hat jemand eine Idee?
Vielen Dank im voraus
 
ESXI 7
- Passthrough auf dem Haswell Lenovo (=C226) sowohl mit Nvidia P400 als auch AMD FirePro 2270: Error 43 mit allen denkbaren Konfigurationsvarianten und manuellen Einträgen, die mir einfallen. Für die interne GPU des 1275v3 war es nicht möglich, diese durchzureichen. Ich dachte, AMD-Karten sind da handsamer? :unsure:

- Sobald ich Karten ziehe, die aber noch als Passthrough markiert sind, mountet die Kiste den USB-Datastore nicht mehr. Karte wieder rein, reboot, USB-Datastore wieder da. Passthrough aus, Karte raus, USB-Datastore bleibt da. So ein Mimoserl.
 
Fals jemand mit dem Gedanken spielt, sich eine vmug eval Lizenz für vsphere zu kaufen, gibt hier aktuell die Möglichkeit einen Gruppenrabatt zu bekomen - dank William Lam. Aktuell wohl bei 15 %

Seit neuerem ist auch VMware Cloud Foundation 4.0 dabei.

With the GA of vSphere 7.0, vSAN 7.0 and NSX-T 3.0, there is no better time to consider VMUG Advantage to get access to the latest releases. If that was not enough, I should also mention that VMUG Advantage will also include the upcoming VMware Cloud Foundation 4.0 release, which will allow folks to also try out the new vSphere with Kubernetes capabilities, which is currently only available as part of the VMware Cloud Foundation SKU.


Und für diejenigen die bereits aktulisiert haben bzw neu gekauft sollte das wohl auch gehen - nach ablauf.

I just heard back from the VMUG folks, here’s their response:
> We will give them the discount code that will be good for a limited time and in that time if they use it to renew their account, the new membership will automatically kick in once their current one expires.

So go ahead and sign up if you’re still interested
 
Zuletzt bearbeitet:
Hallo zusammen,

ich bin mir nicht sicher ob ich hier richtig bin, falls nicht bitte verschieben.
Ich habe auf einem Dell T20 ESXi 6.7.0 Update 3 am laufen. Hier laufen neben Napp-IT 3 Win 10 VM´s und auch stabel. Soweit so gut,
Gehe ich jedoch über eine Remotedesktop-Verbindung auf eine Win10 VM friert diese nach unterschiedlicher Zeit immer wieder ein. Die VM läufte jedoch weiter. Ich muss dann immer wieder die Verbindung schließen und neu aufbauen. Das ist doch sehr nervig. Hat jemand eine Idee?
Vielen Dank im voraus

Niemad der eine Idee hat woran das liegen kann??
 
Kann/wird ein Problem zwischen Windows 10 und ESXI Vmware + RDP Protokoll sein. Ich hatte diese Probleme auch schon (Version 1903 und höher) irgendwann wurde das gefixt und seither läuft es Problemlos.
 
Dann hast du Glück, bei mir läuft Win10 Vers 1909 und habe immer noch diese Probleme
 
Doch, warum nicht? Wenn das Problem dort nicht auftritt. Muss ich zwar immer den umweg über den Konsolen-Link gehen, oder?
 
Ich nutz halt Workstation Pro, und habe immer jene Tabs offen. Meist so >10, laufen lokal auf dem Desktop und zwei Server. VMRC öffnet man über den Link im Hostclient, ja. Musst Du halt erst installieren auf dem Client. Nie Probleme mit den Konsolen selbst gehabt.
 
Gucke mir gerade das ASUS Pro WS X570-Ace mit ESXi 7.0 an, mit dem Hintergedanken, alle 34 PCIe-Lanes, die es bereitstellen kann, zu nutzen.

Bin gerade bei 33 angelangt und eigentlich funktioniert alles einwandfrei, nur die Sonnet Allegro Pro USB 3.0-Karte, die über den CPU-M.2-Slot mit 4 Lanes versorgt wird, zickt rum:

Schaltet man den Host ein und startet VMs zum ersten Mal, machen die 4 unabhängigen USB-Controller auf der Karte keine Probleme und funktionieren auch in den VMs wie gewünscht.

Sobald jedoch VMs neugestartet werden, bricht ESXi den Startvorgang mit der Fehlermeldung "Failed - Module 'DevicePowerOn' power on failed" ab.
esxi70_asus_pro_ws_x570-ace_USB3-Fresco_Logic_DevicePowerOn_failed.png


Hat jemand eine Idee wie man das lösen könnte? Wenn eine VM neugestartet werden muss, deswegen allle anderen VMs herunterzufahren und den Host neuzustarten ist etwas unpraktisch...

Entferne ich das PCI Device der USB3-Karte von der VM funktioniert diese auch ohne Host-Neustart wieder einwandfrei, auch mit anderern durchgereichten Karten.
 
In der passthru.map mit den reset-Modi spielen, also einen Eintrag für die Karte anlegen und d3d0, link und bridge Ausprobieren. Am Ende auch „false“ setzen, d.h. das Device ist exklusiv in der VM.

Interesting read (auch wenn schon älter): https://www.vmware.com/content/dam/...er/vsp-4-vmdirectpath-host-technical-note.pdf

Wenn das nix bringt, Eintrag wieder löschen und in den erweiterten VM-Settings herumpfuschen.

Wenn das auch nix bringt: die verschiedenen Reset-Modi mit verschiedenen erweiterten VM-Einstellungen ausprobieren. :d

Ich weiß allerdings nicht, was sich mit der Version 7 geändert hat.
 
Danke für den Tipp, da bin ich als Normie etwas geflasht und muss mich erst einlesen, wo man anfängt.

Wenn man ESXi 7.0 rein als lokalen Hypervisor verwendet, sieht es eigentlich genauso aus wie 6.7 U3 - nur mit weniger Support für ältere Hardware. Hatte ja gehofft, dass AMD-Systeme runder laufen (Passthrough von onboard SATA oder USB3, das mag er aber nach wie vor nicht). Habe meinen Kampf hier aufgegeben und habe einen zweiten HBA reingehaun, die arme GPU läuft dafür nur auf PCIe 3.0 x1, wenn ich noch irgendwo einen zweiten Riser von M.2 zu PCIe-Slot finde (wie unterscheidet man China-Schrott von China-Qualität?), werden es immerhin PCIe 3.0 x2. Ist aber nicht so schlimm, da sie nur für 2D und Audio/Video verwendet wird und da gab es bislang null Probleme im Vergleich zu x8.
 
Zuletzt bearbeitet:
Moin,
mein Transcend USB Stick mit der Hypervisor Installation (6.7.0) hat sich gerade verabschiedet. Nun wollte ich den ganzen Zirkus mit meinem Backup wieder herstellen, jedoch muss m.W.n. die Version des Backups genau gleich mit der installierten Hypervisor Version sein.

Aber ESXI bekomme ich in der Version 6.7.0 nicht mehr heruntergeladen, sondern nur zu sehen:
"Sie sind nicht berechtigt oder haben keine Erlaubnis, dieses Produkt herunterzuladen.
Wenden Sie sich an Ihren My VMware-Superuser, -Beschaffungskontakt oder -Administrator.

Wenn Sie dieses Produkt kürzlich im VMware Store oder über einen Drittanbieter gekauft haben, versuchen Sie den Download später erneut."

Hat jemand noch Ideen, wie ich rankomme? In meinem Kundenbereich ist alles ausgegraut bzgl. der alten Downloads, wo ich die sonst immer bekam. Die einzige Option ist die neue 7.0 herunterzuladen, aber dann ist damit auch das Backup futsch.

Mein gott, war das eine Geburt. Hier der Link für alle anderen geschädigten (AdBlock deaktivieren, sonst funktionieren die Button auf der Seite auch nicht):
 
Zuletzt bearbeitet:
Nein. Ebenfalls "You either are not entitled or do not have permissions to download this product.
Check with your My VMware Super User, Procurement Contact or Administrator.

If you recently purchased this product through VMware Store or through a third-party, try downloading later.".

Über obigen Link funktionierte es nun endlich. Deren Seite ist ja genau so grausam, wie die Seite von HP bzgl. Downloads. Absolut unübersichtlich und verschachtelt, so toll das Endprodukt auch ist.
 
Ja ... die Seite von VMware ist miserabel ... hatte das auch des öfteren. Ich wollte mir die VSCA ISO runterladen und konnte mich nicht mal mehr für eine Testlizenz anmelden.

Hatte dann den Support kontaktiert und es hat ca. 2 Tage gedauert bis ich das wieder "durfte".

Beim DL gab's dann auch noch das Problem das die Seite das capcha nicht akzeptierte. Das denen am Telefon zu erklären war ein schweres unterfangen und hat noch einmal ca. 2 Tage gedauert....

Mal ne Frage....

Wenn man Disks als RDM durchreicht und wieder entfernt, wie bekommt man die denn wieder als normale Disk konfiguriert. Ich habs nicht hinbekommen und musste die ausbauen und extern formatieren....

Wie kann man über die UI Disks die einen Anschluss gewechselt haben (M1015 zu onboard SATA) wieder "einbinden"?
 
Jungs ich muss ein SAN einbinden und hab dabei folgende Probleme:
- vSphere sagt die Partion wird dabei gelöscht (erst mal keine Option)
- NFS Share geht wohl nicht da ReFS Partion
- Shrink und zweite Partion geht wohl nicht da ReFS Partion.

bleibt mir noch ne Option ? Möchte ungern nochmals formatieren.
 
Ein Storageserver (hier wohl Windows) hat ein lokales Dateisystem wie ReFS. Extern stellt er diesen Speicher über NFS/SMB oder FC/ iSCSI zu Verfügung. Für NFS müsste man in Windows die NFS Server Funktionalität aktivieren. Das Dateisystem lokal bleibt dabei ReFS. ESXi legt über NFS darauf einfach Ordner und Dateien ab - genau wie bei SMB auch. Man kann dann auch wahlweise beide nutzen um auf die Dateien/VMs zu kommen (VM move/copy/backup)

Wenn man iSCSI benutzt, so wird ein Blockdevice auf dem Storageserver erzeugt (ist wie eine Festplatte organisiert) das über das Netz an ESXi weitergereicht wird. ESXi legt darauf dann ein VMS Dateisystem an. Das Ursprungsdateisystem auf Windows bleibt Refs. Das iSCSI Target wird quasi auf einer Datei auf ReFS erzeugt.
 
Nach meinen Recherchen wird ReFS aber nicht von NFS unterstützt ? Außer das hat sich von 2016 auf 2019 geändert ?
"Ist das Dateisystem ReFS, dann erhält man erst eine Fehlermeldung, wenn man den gesamten Wizard durchlaufen hat. "

. Rauch August 11, 2019 at 11:22 am
Guter Artikel, aber es wäre vielleicht noch lohnenswert zu erwähnen dass zum aktuellen Zeitpunkt keine Freigabe von ReFS-Dateisystemen mit dem Microsoft Windows Server for NFS möglich ist. Falls also zwingend NFS benötigt wird und man ungern auf veraltete und/oder kostenpflichtige Produkte von Drittherstellern zurückgreifen möchte, die z.B. auch keine aktuellen NFS-Features unterstützen, ReFS keine Option darstellt.



  1. Reply
    200b7a4bbfbdaab0266866304182708f
    Iperius Team September 9, 2019 at 11:18 am
    Hi,
    We didn’t mention the case of Microsoft Windows Server for NFS, since it’s a very particular case. However thank you for your suggestion.
    For any other technical support, please open a ticket on

"über NFS/SMB" <- geht nicht || "oder FC/ iSCSI" VMware möchte die SAN neu Partitionieren <- geht auch nicht
 
Zuletzt bearbeitet:
Generell ist von ReFS mMn eher abzuraten - die Idee ist Cool, dass sowas auf Windows geht, aber die Umsetzung ist halt einfach mal in Teilen ziemlich broken...
ReFS auf 2019 bspw. ist der Graus, weil der ReFS Provider einfach fehlerhaft ist und damit die Vorteile bei Nutzung der ReFS integration schlicht nicht nutzbar sind ab einer gewissen Filesystemgröße...
ReFS auf 2016 geht mal, mal wieder nicht, je nach Patchstand, wird halt immer mal dran rumgedoktert
ReFS auf 2019-1903 (1903 = Core only!) funktioniert erstaunlich gut, aber nur kurzer Support Zeitraum, produktiv nur dort zu empfehlen, wo gewusst wird, was getan wird
ReFS auf 2019-1909 -> nicht probiert muss ich zugeben...

Ich brauch bei mir bspw. die ReFS Integration von Veeam für die Backup Storages. Einfach weil das extremst viel Platz in der Lage ist zu sparen, was natürlich Kosten spart und (auf dem Papier) ganz gut funktioniert. Dummerweise aber eben ab gewissen Filesystem Größen Probleme macht.

Das schaut dann in etwa so aus:
1587475797722.png
1587475810577.png


Ich habe also knapp 50TB Space auf einem ReFS Volume - davon sind aktuell real ca. 25TB in use. Und dieser 25TB Datenbestand beinhaltet praktisch 66TB Daten.
Der Vorteil ist, dass die ReFS Integration von Veeam in der Lage ist, riesige Backups einfach durch das Setzen von simplen Verweisen auf die verwendeten Blöcke zu händeln. So lassen sich bspw. Copy Jobs für langzeit (Archiv-Like) Backups nutzen um mit quasi Fingerschnipp bspw. Wochen, Monats oder Jahresstände zu erstellen. Die Daten sind ja schon da...
Das können andere Filesysteme sicher auch - aber soweit ich weiß gibts nur eine ReFS Integration in Veeam. ZFS bspw. ist raus.


Das Problem, was daraus entsteht ist, dass wenn Daten gelöscht werden müssen, das OS im Hintergrund die deduplizierten Blöcke irgendwie zusammen finden muss und das auf einem 2016 (je nach Version) und 2019 Server mit LongTerm Support schlicht nicht funktioniert, da der Server einfach "stehen" bleibt mit 100% Disk activity und dann nicht fertig wird. Nach dem lesen diversester Problem Threads im Veeam und MS Forum dazu kommt man zu dem Ergebnis, dass die ReFS Integration in 2016 und 2019 broken ist ;)
Erst mit 1903 wurde das seitens Microsoft "gefixt" - wobei ich nicht weiß ob 1909 wieder broken ist oder auch läuft... Das Update habe ich bis dato nicht durchgeführt...



Das ist zwar ein seeehr spezieller Anwendungsfall - aber die grundlegende Thematik bleibt ja bestehen - da das Filesystem entsprechend hantiert... ICH würde mir das 2x überlegen, das zu nutzen, wenn es nicht zwingend irgendwie notwendig sein sollte!
 
Es war so gewünscht, und ja laufen Veeam Jobs drauf (43TB SAN). Ich wollte halt die SAN dazu benutzen um dort Replica vmdk abzulegen...

ReFS auf 2019-1903 (1903 = Core only!) ernsthaft ?... Dann sollte ich das Thema nochmal ansprechen da ich noch auf 1809 bin...

Hab die letzten zwei Tage glaub alles zu dem Thema im Veeam Forum gelesen^^
 
Zuletzt bearbeitet:
2016 Server = 1607
2019 Server = 1809
-> die 1903, 1909 und kommende 2004 sind halt keine LTS Versionen und nur als Core only verfügbar.
Mittlerweile gibts es aber eine Extension um wenigstens den Explorer und ein paar Basis Tools (Eventviewer bspw.) zurück zu bringen... Der Desktop fehlt halt trotzdem. Die Veeam Konsole startet man dann über die CLI -> und die ist ganz regulär nutzbar per Maus/Tastatur oder halt via Remote.


Wenn das bei dir aber auch um Veeam geht - an welcher Stelle brauchst du denn da jetzt aber NFS oder iSCSI? Und vor allem, wozu das Volume am ESXi Host mounten??
Die Backups sind doch lokal -> Veeam Backup & Replication wird hart auf den Windows Server mit ReFS Volume installiert - oder du nutzt den Server mit dem Repository Agent. Das funktioniert auch mit ReFS, da die Kommunikation zwischen Backup & Replication "Server" Dienst und dem Repo Dienst über irgend so ein proprietäres Veeam Protokoll läuft. Irgend ein 5000er Port oder sowas ist das...


Bzw. die Instant Recovery Funktion über den NFS Service von Veeam oder wie sich das Teil schimpft (das mit dem Mount des Backup Files am ESXi Host) funktionert btw. auch auf ReFS!


Ach und noch ein Hinweis, vergiss nicht entsprechend RAM nachzuschieben... Bei mir stecken in der Kiste 64GB und er macht gut und gerne 30-40GB davon "voll" während die Jobs laufen...
Vor der ganzen ReFS Geschichte war das bei mir ein normales NTFS Volume -> da war der RAM Verbrauch effektiv nicht vorhanden...
"Man" sagt aktuell. ca. 1GB pro 1TB Real Daten... So als grober Richtwert. Wenn lokal noch die Software + SQL + halt der ganze Background Mist läuft, kommst da schon bei 32GB+ raus...

EDIT:
Und noch ne Info, die 1903 und Co. gibts nur mit aktiver Software Assurance! Einfach ne gängige SB 2019 oder 2016 Server Box kaufen funktioniert nicht. Die Keys kommen aus dem VLSC und die hat man nur mit aktiver SA für eine gültige Server Lizenz.
 
Zuletzt bearbeitet:
Ich bräuchte die LUN für zwei Replicas. Die laufen aktuell auf eine andere LUN. Da stören sie zwar nicht, wäre aber nett gewesen. Hinterher ist man immer schlauer ;)

Brauch keinen RAM "nachschieben" ;)
 
Zuletzt bearbeitet:
Wäre nicht VEEAM -> S3 Storage (Amazon oder inhouse unter ZFS) eine Option?

Veeam sollte sich unter Amazon S3 simple storage wohlfühlen, mit ZFS und einem S3 kompatiblen Service wie minIO als Basis ist das Inhouse und wahnsinnig schnell. ZFS steuert dann Prüfsummen, Verschlüssellung und Snaps bei. Man kommt auch per SMB und previous Version an Vor-Versionen der Daten (kein Problem mit Hunderten oder Tausenden readonly Snaps). Mit aktuellem ZFS und einem special vdev Mirror aus Optane für dedup (eine Intel Entwicklung) kann man auch ZFS Echtzeit Dedup mit einem großen Filer handhaben ohne dass der RAM Bedarf Richtung unendlich geht.

Arraygröße ist kein Problem. ZFS und mehr noch S3 ist auf riesige Speicher ausgelegt.

Beitrag zu VEEAM
 
Zuletzt bearbeitet:
Snaps brauchst du dort nicht - die bringen dich dort nicht weiter, weil nicht native integrierbar, bestenfalls einen Single Snap nach dem Backup für etwaigen Kryptotronajer per SMB Befall.
Verschlüsslung wäre sicher nicht schlecht - auch wenn das Veeam (in Software) auch schon kann, die Prüfsummen sind zumindest dann ein Vorteil, wenn die Daten korrupt sind und man das Backup braucht... -> Allerdings bekommt die Software selbst korrupte Daten raus. Im Zweifel ist der Backup Stand dann weg.

Ich frag mich allerdings an welcher Stelle ZFS hier abseits der möglichen Checksummen einen echten Vorteil bieten wird?
Die ReFS Integration funktioniert halt, wenn das OS passt. Ein Backup Copy Job auf Fingerschnipp von TB Weise Daten funktioniert mit ZFS dann wenn ich das richtig sehe nicht - egal ob Amazon S3 oder per S3 like lokal auf ZFS, für den Server ist das "nur" Storage. Er versteht, anders als bei ReFS nicht, wie das Storage funktioniert.
Man würde wahrscheinlich dann die Compression und Dedup raus nehmen, sodass möglichst gut deduplizierbare Blöcke raus kommen. (das macht man dann über ZFS) Man müsste auf incr. forever, damit möglichst viel an reinen Blockänderungen nur übertragen wird. Während bei incr. + zyklisch Full oder gar SyntheticFull eine sehr hohe Änderungsrate bei rum kommen wird. Das also ein wenig gegen Dedup auf dem Storage spricht (bspw. eher dessen Wirksamkeit). Prakisch ist gerade SyntheticFull auf ReFS gar kein Thema, weil er einfach die eh schon vorhandenen Blöcke nutzt und nur die Verweise umorganisiert.

Das SyntheticFull erzeugt dann eine Art Fullbackup aus den vorhandenen Daten zzgl. der Blockänderungen von der zu sichernden VM und fasst das alles in einem Stand zusammen. -> was sehr schnell geht mit ReFS. Bei ZFS oder sonstweden anderen Storage Unterbauten aber massivst Random IO bedeutet, weil er nicht weiß welche Blöcke wo liegen - er geht die Stände durch und organisiert den Spaß einfach Block für Block hart auf der/den Disks. Viiiiieeeeellll Disk Cache hilft hier bzw. ein schneller und vor allem großer Flash Pool oder ähnliches um die Random IO abzufangen oder massivst einzudämmen. Je nach Größe der Backups kann das schnell mal mehrere TB Daten bedeuten, die da rumgeschubst werden.


Was ICH mir als sinnig vorstellen kann wäre eher so eine Kiste mit ZFS als Archiv zu nutzen - nebst dem regulären Backup lokal auf ReFS (mit allen Vorteilen + ggf. Nachteilen) -> und dann zyklisch Wochen/Monats usw. Stände wegzuschieben... Zumindest wenn das eh "außerhalb" des Backup Storage gelagert wird. Außerhalb meint, wenn das nicht ne LUN oder so ist, die am Server klemmt. Hier könnte man dann über ZFS nachdenken - oder halt wieder ne ReFS Büchse hinstellen für diesen Task -> und die Features dann dort auch wieder nutzen...

Ich hab schon Installationen gesehen, die Jahre am Stück daily ihre hunderte GB Daten geschrieben haben ohne auch nur einen Backup Stand dazwischen rauszuputzen - nicht unbedingt gewollt, aber im Resultat der broken ReFS Integration in Windows Server -> weil das löschen/aufräumen zu einem Problem wird beim falschen Versionsstand der ReFS Integration. Immer nur rein geht hingegen normalerweise :d
 
ZFS Snaps
Ein normaler Client sieht natürlich nur den aktuellen Storage, nicht die Snap-Versionen von ZFS - bis auf Windows das per "vorherige Version" die ZFS Snaps sieht. Braucht man einen ZFS Snap kann man einen Clone daraus erstellen. Das ist ein normales beschreibbares Dateisystem das aus dem Snap erzeugt wird oder man macht ein Rollback (zfs rollback oder Windows, vorherige Version wiederherstellen). Dann sieht ein Client z.B. Veeam halt diese Vor-Version seines Backups. Dauert Sekunden, egal wieviel Tera/Petabyte. Da Snaps immer readonly sind, kann man (Ransomware, Windows Admin) die Snaps nicht verändern oder löschen.

Im Gegensatz zu anderen Systemen machen 10000 Snaps einem ZFS Filer fast nichts aus. Der Platzbedarf von Snaps ist unabhängig von dedup immer nur die Menge der geänderten Datenblöcke zur Vorversion wegen Copy on Write. Daher werden ZFS Snaps ohne Zeitverzug angelegt und 1000 Snaps ohne Änderung der Daten belegen keinen Platz. Man muss daher bei ZFS Snaps nichts aufräumen. Immer nur auf den gleichen Storage gehen und Daten überschreiben und davor einen Snap anlegen. Den Rest macht ZFS mit Copy on Write.

ZFS Verschlüssellung
Das arbeitet mit einem eigenen Schlüssel per Dateisystem. Die Schlüssel kann man zentral auf einen Keyserver auslagern. Ein verschlüsseltes Dateisystem läßt sich in verschlüsseltem Zustand über das Netz replizieren und auf den Ziel/Backsystem nur mit dem Originalschlüssel öffnen.


Und natürlich: ZFS hat kein Problem mit Petabyte Storage. Ein Backup per Replikation kann zwei Server/Dateisysteme in sync halten, mit offenen Dateien und unter Hochlast mit 1 Min Delay, neben den 1000 Nettigkeiten die Windows ReFS nicht hat, angefangen von der Uptime (sag da nur Patch Day), sicheres und dennoch schnelles sync Schreiben oder kein Write Hole Problem im Raid. Auf die Idee Prüfsummen für Daten als Default zu deaktivieren käme unter ZFS niemand.

Und natürlich die Option, ein ZFS Dateisystem mit NFS/SMB lokal freizugeben und das gleiche Dateisystem per S3 optional ins (Inter)net zu stellen.
 
Zuletzt bearbeitet:
Du zählst aber auch nur die Vorteile von ZFS auf - das interessiert Veeam aber nicht, weil es davon nichts versteht. Die Snapshots auf dem Storage bringen dir abseits vom "haben" absolut keine Punkte, denn das was du dort an Daten drin hast, ist nicht in der Software nutzbar - und kommt dort auch nicht so ohne weiteres wieder rein. Man könnte sich dann was hinbasteln, via Script oder ähnliche, was den Snapshot holt bzw. das Backup File und zurück in Veeam importiert, damit ein Restore geht -> aber das ist eben nicht Sinn der Übung. Zumindest nicht wenn das in größeren Umgebungen einfach nur funktionieren soll. Auf Basteln hat dort idR Keiner Lust ;)
ZFS ist in der Form ohne Integration nicht wirklich von Vorteil - und um die ZFS eigenen Vorteile nutzen zu können muss man anfangen umständlich fehleranfälliges Zeugs hinzubasteln.


Und versteh mich da mal nicht falsch - das ist kein ZFS vs. ReFS Thema, es ging lediglich um den sinnvollsten Unterbau unter Veeam, was für die Integration nur ReFS versteht. Mit NTFS gehts imho auch nicht, mit anderen, externen Medien via NFS, SMB oder sonstwie angebunden auch nicht. Und wenn ZFS noch so viele Vorteile mitbringt, du kannst den Spaß in Veeam so nicht nutzen, solange du dir da nicht was zurecht bastelst. Funktioniert vllt im Heimbetrieb, wird im Business aber schon schwieriger...
 
Aber ESXI bekomme ich in der Version 6.7.0 nicht mehr heruntergeladen, sondern nur zu sehen:
"Sie sind nicht berechtigt oder haben keine Erlaubnis, dieses Produkt herunterzuladen.
Wenden Sie sich an Ihren My VMware-Superuser, -Beschaffungskontakt oder -Administrator.

Wenn Sie dieses Produkt kürzlich im VMware Store oder über einen Drittanbieter gekauft haben, versuchen Sie den Download später erneut."

Hat jemand noch Ideen, wie ich rankomme? In meinem Kundenbereich ist alles ausgegraut bzgl. der alten Downloads, wo ich die sonst immer bekam. Die einzige Option ist die neue 7.0 herunterzuladen, aber dann ist damit auch das Backup futsch.


Moin,

vielleicht ist es für manche eine Lösung mithilfe der Powershell unter Windows und dem ESXi-Customizer Skript seine jeweilige ISO einfach herunterzuladen. Da brauchts kein Login etc. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh