ESX / ESXi - Hilfethread

@ dogma2k

Ich hab jetzt im Moment die Onboard Karte am Laufen, aber leider bekomme ich am Monitor kein Bild, was hast du noch konfiguriert?

Ich weiß nicht mehr so genau ich glaube du musst Anzeige des Monitors dort wo du die Bildschirmauflöung einstellen kannst ändern. Glaube nähmlich das du jetzt ja 2. Grafikkarten hat einmal die virtuelle der VM und einmal die Intel die du durchgereicht hast.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat jemand von euch schon mal erfolgreich die Intel Grafikkarte einer CPU an eine VM durchgereicht? Im Internet finde ich dazu leider relativ wenig - und wenn dann meist auf XEN-Servern.

mir wäre nicht bekannt (und bei mir auch noch nie funktioniert), das auch nur ein Hypervisor den passthrough einer IGP unterstützt , wirst immer ne dez. Karte dazu brauchen und grad unter ESXi entweder ne AMD oder ne Quadro/Grid
beim neuesten KVM gehen auch normale NVidias mit rummurksen
... ich nehme an du meinst die IGP und keine Intel PHi ^^


hier mal 2 Konfigs von Multigamingstations ... einmal ESXi einmal KVM unter Linux:

KVM: http://www.pugetsystems.com/labs/articles/Multiheaded-NVIDIA-Gaming-using-Ubuntu-14-04-KVM-585/
ESXi: http://www.pugetsystems.com/labs/articles/Multi-headed-VMWare-Gaming-Setup-564/
 
Zuletzt bearbeitet:
Nettes teil die ESXi Kiste :) dachte immer man kann max 8x passthought machen. Dachte immer das eine Grafikkarte immer 2x passthrought belegt wegen Audio und Video
 
ich hab nun schon recht viel versucht um eine ideale Lösung zu finden und suche seit mehr als 3 jahren alle Threads im Internet zu passthrough ab

es wird wohl noch 1-2 Jahre dauern (wegen der geldgier von NVidia) bis mein idealer PC Wirklichkeit wird

AMD macht es vor, jedoch kranken sie an dem Verbrauch :(

das neueste KVM macht einen Super Schritt (da es die VM vor dem treiber verbergen kann), jedoch sind noch viel zu viele Anpassungen nötig, welche z.B. wegfallen wenn man eine Stock NVidia durch SMD Resistor change in ne Grid/quadro verwandelt (einfach arm, da es ne Treiber/Bios Limitierung ist)

z.B. GTX 680 in ne Tesla K10 /k5000

http://www.eevblog.com/forum/chat/hacking-nvidia-cards-into-their-professional-counterparts/1185/


wer daran interessiert ist sollten hier bei Archlinux mal lesen (192 Seiten) https://bbs.archlinux.org/viewtopic.php?id=162768&p=192
VFIO schafft, was bisher keiner richtig schaffte (leider auch in Kinderschuhen)

Proxmox adaptiert das https://pve.proxmox.com/wiki/Pci_passthrough (am ende der Seite - aber nicht nativ)

.... ESXi wird das denke ich nie einbinden
 
Zuletzt bearbeitet:
Ich glaube, dass GPU-Virtualisierung derzeit auch nicht die Zielgruppe von VMware ist. Wird sich vielleicht ändern, wenn GPU-beschleunigte Anwendungen sich auch im KMU-Umfeld finden lassen, aber für die wenigen Anwendungen ist es derzeit doch ehet uninteressant.
 
GPU Virtualisierung (im Sinne von mehrere Clients auf einer GPU) ist durchaus Zielgruppe von VMWare, allerdings im Rahmen von Horizon View + ESXi und mit den Nvidia Grid Karten.
Alles andere bleibt halt leider ein Behelf.
 
Gibt es im zusammenhang mit dem Esxi 6.0 HP Image und dem B120i Controller im AHCI Mode Probleme ???...Nach einer sauberen Installation macht der Controller dauerhaft zicken und bringt den Server zum Absturz. Bei der 5.5 hatte ich solche Probleme nicht. Die eingesetzte Hardware ist eine Samsung SD-Card fürs OS, sowie eine Samsung Evo für die VMs.

MfG
 
Ähm, möchte nur Bescheid geben, wer mit Veeam 8.0 seine VMs sichert, es funktioniert jetzt mit dem Patch 2 vom 28.04.2015.

Endlich ist es soweit.................!!

Einige haben sicherlich noch gewartet, bevor VMware 6.0 aufgespielt wird.

Gruß Rudi
 
Und der Veeam B&R Server kann als Ziel für Veeam Endpoint Backup verwendet werden :-)
 
Hat jemand schon sein VCenter 6 in einem Microsoft Failover Cluster am laufen? Das ist ja jetzt wieder supported. Leider finde ich keine einzige Anleitung dazu. Meist uralte Selbstbau-Bastel-Guides aus VCenter 2 oder 2.5 Zeiten. Der Logik nach müsste das VCenter dann ja auf einer gemeinsamen SAN-Datenplatte installiert werden. Oder installiert man das jeweils auf beiden Nodes auf C: und haut nur die Services in den Cluster?
 
Kann ich im Fat Client (oder auch im Flash Client) das Verhältnis Lesen / Schreiben auf einzelnen Datastores sichtbar machen? Alternativ ginge auch total bytes written / read - soweit ich das gesehen habe bekomme ich für den definierten Zeitraum die Übertragungsrate/s angezeigt aber kann diesen Wert nicht weiter unterbrechen. Ideen?
 
Ich möchte mich auch mal an ESXi versuchen. Wieveil Ram wird für sagen wir max. 3 VMs benötigt?
Bei der CPU Limitierung der Kostenlosen Version ist man ja auf 2 physische CPUs begrenzt. D.h. habe ich einen Quadcore hätte ich noch eine Lizenz frei bzw. Hätte ich ein Dual Board könnte ich dort noch eine weitere Quadcore CPU verbauen und hätte dann das Limit rreicht?
 
Wieveil Ram wird für sagen wir max. 3 VMs benötigt?
Zwischen 2 GB und 2 TB, je nachdem wie viel RAM die VMs benötigen...

Exchange- oder SQL-Server brauchen je nach Datenbankgröße viel RAM, Linux-VMs, die nur einen kleinen Webserver hosten, brauchen so gut wie nichts.

Bei der CPU Limitierung der Kostenlosen Version ist man ja auf 2 physische CPUs begrenzt. D.h. habe ich einen Quadcore hätte ich noch eine Lizenz frei bzw. Hätte ich ein Dual Board könnte ich dort noch eine weitere Quadcore CPU verbauen und hätte dann das Limit rreicht?
Das Limit für diesen Host, ja. Es spricht technisch nichts dagegen, mehrere Dual-CPU-Hosts mit kostenloser Lizenz auszustatten, die können dann aber natürlich nicht über einen vCenter Server gemeinsam verwaltet werden.
 
Ich meinte mit der RAM Bestückung was hier als Erfahrungswert genommen weren kann für 1. VM Win10 2. VM Win8 / 3. VM Sophos. Was benötigt man hierfür beisplw? Die beiden ersten VMs sollen lediglich zum testen sein, das Sophos für Firewall!
 
Die Erfahrungswerte richten sich nicht nach OS, sondern nach Diensten. Mit den Anforderungen werden dir 4GB für die gesamte physikalische Kiste reichen.
 
Die Erfahrungswerte richten sich nicht nach OS, sondern nach Diensten. Mit den Anforderungen werden dir 4GB für die gesamte physikalische Kiste reichen.
Mit 4GB RAM würde ich keinen ESXi betreiben.

Wenn du nur ein bisschen rumspielen willst:
1. Win10: 2GB
2. Win8: 2GB
3. Sophos: 1GB

= 5 + ca. 2GB VMware. Würde also auf 8 gehen.
Reduzieren könntest du natürlich auch indem du nicht alle VMs gleichzeitig betreibst..
 
Ich hab heute Morgen meinen ESXi von 5.5 auf 6 gebracht. Hat scheinbar auch alles funktioniert, jedoch ist mein ESXi nach dem Update nicht mehr in meiner Domäne und ich kriege Ihn auch nicht mehr rein.

Weder über GUI noch über CLI:

[root@esxi:~] /usr/lib/vmware/likewise/bin/domainjoin-cli join Domäne.de administrator
Joining to AD Domain: Domäne.de
With Computer DNS Name: esxi.domäne.de

administrator@domäne.DE's password:

Error: Lsass Error [code 0x0000000b]

The OU format is invalid.

Jemand ne Idee? Das Problem hab ich bei ESXi 5.1 gefunden und wurde dann wohl mit nem Patch behoben. Die werden aber doch kein altes Problem "zurückgebracht" haben...
Der Domain Join scheint auch anfänglich zu funktionieren, denn ein entsprechenden Computer Objekt wird erstellt bricht dann aber ab.
Unter ESXi 5.5 hatte ich keine Probleme.
 
Mal unabhängig von deinem Domänenproblem: Ist 6.0 mittlerweile "nutzbar"? Würde sonst nachher mal mein Homelab updaten (Server auf HCL).

Zu deinem Problem: Irgendwie beschwert er sich ja über die OU. Sonderzeichen drin oder so?
 
Mit 4GB RAM würde ich keinen ESXi betreiben.

Wenn du nur ein bisschen rumspielen willst:
1. Win10: 2GB
2. Win8: 2GB
3. Sophos: 1GB

= 5 + ca. 2GB VMware. Würde also auf 8 gehen.
Reduzieren könntest du natürlich auch indem du nicht alle VMs gleichzeitig betreibst..
Aha...ich kann also auswählen was alles gleichzeitig läuft. Ich dachte sobald ich die Betriebssysteme installiert habe laufen diese auf dem VM obligatorisch!
 
Es gibt ja eine Client-Software und/oder Web-GUI. Darüber kannst du (natürlich) ganz bequem Maschinen starten, stoppen oder deren Ressourcenverbrauch (z.B. virtuelle CPUs (vCPU), Ram, HDD usw.) ändern.
 
Auch in der freien Version?
Da ich ja hauptsächlich den Rechner für die Firewall (Sophos UTM) nutzen möchte muss ich diese warscheinlich als VM laufen lassen, wenn ich mit dem Rechner sowieso 3. VMs (Win10,8,7 Testzwecke)einrichten möchte? Oder wie macht man das am Besten?
 
Zuletzt bearbeitet:
Grade nochmal HP customized ESXi 6.0 (vom 30. März) auf meinem ML310e probiert. Immer noch miese Performance auf der SSD. Habe auf dem Server XPEnology laufen und per iSCSI intern (über "10Gbit" Anbindung) Datastorage verbunden. (Das Volume der 8 6TB HDDs im R6 sind direkt an die XPEnology VM übergeben) Viel bessere Performance mit mehreren Maschinen auf dem iSCSI Storage als auf der SSD (Samsung 850 Pro). Mit 5.5 U2 und allen aktuellen patches (Ebenfalls HP Image) wars andersherum. Gibts da bereits nen Fix oder besseren Treiber? :/ Die 850 Pro sind in Raid1 am B120i dran, Cache von den SSDs ist An, Rest Standard. Wie gesagt, bei 5.5 u2 beste Performance mit mehreren Maschinen. In 6.0 immer noch miese Performance mit Sachen die am B120i hängen...
 
Auch in der freien Version?
In der freien Version gibt es nur die Client-Software (den sogenannten vSphere Client), Web-GUI gibt es nur mit dem vCenter Server, den es nicht kostenlos gibt.

Da ich ja hauptsächlich den Rechner für die Firewall (Sophos UTM) nutzen möchte muss ich diese warscheinlich als VM laufen lassen, wenn ich mit dem Rechner sowieso 3. VMs (Win10,8,7 Testzwecke)einrichten möchte? Oder wie macht man das am Besten?
Sorry, aber wenn Du schon solche Fragen stellst, solltest Du dich mit dem Produkt erstmal vertraut machen, was ein Hypervisor überhaupt macht etc., denn als blutiger Anfänger einen ESXi mit einer Sophos UTM als VM und weiteren virtuellen Maschinen fehlerfrei und sicher zu konfigurieren, ist fast ein Ding der Unmöglichkeit.

Ich empfehle eher erstmal ohne Sophos UTM anzufangen, die kannst Du später immer noch dazu packen.
 
...oder auf dem eigenen Rechner mit VMware Player anfangen zu testen
 
Hi,

ich weiß gar nicht genau wo ich anfangen soll, aber ich kam heute Abend heim und mein N40L piepte wie wild und ich dachte schon Stromausfall inkl. piepen aus der USV, aber dem war nicht so. Nachdem ich mich kurz auf dem ESXi eingloggte hatte und von den beiden VMs ein Snapshot erstellt habe, fuhr ich alles runter, da ich schon eine Vermutung hatte (Batterie vom RAID, oder defektes RAID).
Nach kurzer Analyse merkte ich dann das eine Festplatte aus dem RAID1 defekt war, wobei ein Rebuild das Problem behob - dachte ich zumindest. Denn nach einem Neustart fing der RAID controller wieder an zu piepen wie wild und ein Reboot zeigte dass die Festplatte wohl doch irgendwie ein Knall hat. Also holte ich die Platte aus dem RAID raus und erwischte dummerweise, da die Beschriftung verkehrt war die falsche Platte - doofe Idee, denn nun machte auch das 2. RAID1 einen Rebuild *grumel*
Übrigens Controller -> PERC H700

Ok, lange Rede kurzer Unsinn, als ich alles wieder am laufen hatte, startete ich den ESXi (5.1.0, 799733) neu und merkte, dass die beiden VMs nicht mehr vorhanden waren. OK, dachte ich mir, hatte ich ja schon mal und fügte die beiden VMs über Durchsuchen der Platten wieder dem Bestand hinzu.

Leider wollten die beide VMs wegen falscher Konfiguration nicht mehr starten, da es die Festplatten nicht mehr finden konnte. Also schmiß ich die Festeplatten raus und fügte die vmdk's der ersten VM hinzu. Nun startete sie auch wieder anstandslos mit einem *hust* kleinen Problem - der Stand ist ein uralter aus 11.2014.
OK, dachte ich, hast ja extra ein Snapshot gemacht, nur leider läßt sich zu diesem nicht mehr wechselt :-(

Hat mir jemand einen Tipp wie ich diesen Snapshot von gestern 11.05.2015 22:40 wieder herbekomme?
Kann ich einfach den Datenspeicher durchsuchen, mit der rechten Maustaste auf den Snapshot gehen und dann "Wechseln zu" sagen?
Er fragt mich dann was mit "Verschieben bestätigen" und ich soll ein Datenspeicher auswählen. Mit sowas musste ich mich bisher nicht rumplagen und könnte hier mal echt ganz doll Hilfe gebrauchen.



Kleine Ergänzung da ich gerade an der 2. VM sitze:
Es kommt die Meldung "Die Festplatte '/vmfs/volumes/51157f3a-66224279-d8a9-6805ca10b43a/vm-snapshots/Debian Mailserver-000001.vmdk' oder eine der Snapshot-Festplatten, auf die sie angewiesen ist, konnte nicht geöffnet werden.
Das System kann die angegebene Datei nicht finden
VMware ESX kann die virtuelle Festplatte '/vmfs/volumes/5101c536-803e9f21-c55f-e839352de915/Debian Mailserver/Debian Mailserver.vmdk' nicht finden. Stellen Sie sicher, dass der Pfad gültig ist, und versuchen Sie es erneut. " und dabei habe ich gemerkt, dass es das Volume 5101c536-803e9f21-c55f-e839352de915 gar nicht mehr gibt :stupid: das heißt jetzt 52a4b17c-a3929bbf-45bd-6805ca10b43a. Wo kann ich das denn ändern - vll. startet dann ja alles wieder wie gewohnt
 
Zuletzt bearbeitet:
in der vmx-datei der VM sollte dies stehn oder in einer kleinen vmdk-txt.
Sicherer wäre wohl, Du kopierst mal eben alles auf Deinen lokalen Rechner -> Datenspeicher durchsuchen und herrunterladen.
Dann kannst Du mittels VMplayer testen, ohne am offenen Herzen operieren zu müssen.
-> wenn Du den Fehler behoben bekommen hast, kannst Du entweder am ESX genauso verfahren oder lädst eben die reparierte Version wieder in den Datenspeicher.
 
Wenn du Pech hast, hast du dir deinen Snapshot zernagelt, weil du den Stand (2014), auf dem der Snapshot aufbaut, gebootet hast.

Du musst dich rückwärts durch VMDK-Dateien durcharbeiten:

3. Snapshot: daten-000003.vmdk
2. Snapshot: daten-000002.vmdk
1. Snapshot: daten-000001.vmdk
Basis: daten.vmdk

In jeder Datei steht die ID des Snapshots (CID), die ID des vorherigen Snapshots (parentCID) und der Pfad/Name zur vorherigen vmdk (parentFileNameHint).
Ich würde dir empfehlen die Dateien vorher zu sichern, bevor du anfängst die Konfiguration per Hand zu bearbeiten. In die VM muss dann der letzte Snapshot eingebunden werden.
 
Zuletzt bearbeitet:
Wenn du Pech hast, hast du dir deinen Snapshot zernagelt, weil du den Stand (2014), auf dem der Snapshot aufbaut, gebootet hast.
oO - sowas habe ich befürchtet. Durch Unwissenheit noch mehr Schaden angerichtet als schon da war :-(

Du musst dich rückwärts durch VMDK-Dateien durcharbeiten:

3. Snapshot: daten-000003.vmdk
2. Snapshot: daten-000002.vmdk
1. Snapshot: daten-000001.vmdk
Basis: daten.vmdk

In jeder Datei steht die ID des Snapshots (CID), die ID des vorherigen Snapshots (parentCID) und der Pfad/Name zur vorherigen vmdk (parentFileNameHint).
Ich würde dir empfehlen die Dateien vorher zu sichern, bevor du anfängst die Konfiguration per Hand zu bearbeiten. In die VM muss dann der letzte Snapshot eingebunden werden.

Ok, ich glaub habe ich verstanden. Fangen wir mal am Mailserver an:
Ich habe das Snapshot Verzeichnis mal lokal geholt und habe dort folgendes
001.jpg

ursprünglich stand folgendes als Festplatte in den Einstellung (was aber ja nicht gestartet hat - siehe mein letztes Posting):
SCSI (0:0) Festplatte 1 [datastore3TB1] vm-snapshots/Debian Mailserver-000001.vmdk

In der Datei steht folgender Inhalt:
# Disk DescriptorFile
version=1
encoding="UTF-8"
CID=dc66e16f
parentCID=a0fac26c
isNativeSnapshot="no"
createType="vmfsSparse"
parentFileNameHint="Debian Mailserver-000002.vmdk"
# Extent description
RW 41943040 VMFSSPARSE "Debian Mailserver-000003-delta.vmdk"

# The Disk Data Base
#DDB

ddb.longContentID = "48c0549a26af29661e1476f1dc66e16f"


Ich habe die Platte nach der obigen Meldung entfernt und dann die Datei
SCSI (0:0) [WD_RED] Debian Mailserver/Debian Mailserver.vmdk eingbunden.

Diese Datei hat folgenden Inhalt gehabt:
.encoding = "UTF-8"
config.version = "8"
virtualHW.version = "8"
pciBridge0.present = "TRUE"
pciBridge4.present = "TRUE"
pciBridge4.virtualDev = "pcieRootPort"
pciBridge4.functions = "8"
pciBridge5.present = "TRUE"
pciBridge5.virtualDev = "pcieRootPort"
pciBridge5.functions = "8"
pciBridge6.present = "TRUE"
pciBridge6.virtualDev = "pcieRootPort"
pciBridge6.functions = "8"
pciBridge7.present = "TRUE"
pciBridge7.virtualDev = "pcieRootPort"
pciBridge7.functions = "8"
vmci0.present = "TRUE"
hpet0.present = "TRUE"
nvram = "Debian Mailserver.nvram"
virtualHW.productCompatibility = "hosted"
powerType.powerOff = "soft"
powerType.powerOn = "hard"
powerType.suspend = "hard"
powerType.reset = "soft"
displayName = "Debian Mailserver"
extendedConfigFile = "Debian Mailserver.vmxf"
floppy0.present = "TRUE"
numvcpus = "2"
scsi0.present = "TRUE"
scsi0.sharedBus = "none"
scsi0.virtualDev = "lsilogic"
memsize = "1032"
scsi0:0.present = "TRUE"
scsi0:0.fileName = "Debian Mailserver-000001.vmdk"
scsi0:0.deviceType = "scsi-hardDisk"
ide1:0.present = "TRUE"
ide1:0.clientDevice = "FALSE"
ide1:0.deviceType = "cdrom-image"
ide1:0.startConnected = "FALSE"
floppy0.startConnected = "FALSE"
floppy0.fileName = ""
floppy0.clientDevice = "TRUE"
ethernet0.present = "TRUE"
ethernet0.virtualDev = "e1000"
ethernet0.networkName = "VM Network"
ethernet0.addressType = "generated"
guestOS = "debian6-64"
uuid.location = "56 4d 3d 9d 92 35 5a 24-19 e7 2f 02 cf ac 4d 8e"
uuid.bios = "56 4d 3d 9d 92 35 5a 24-19 e7 2f 02 cf ac 4d 8e"
vc.uuid = "52 da ce db cd 53 f0 37-80 8e 65 f7 0e 45 b6 6c"
ide1:0.fileName = "/usr/lib/vmware/isoimages/linux.iso"
ethernet0.generatedAddress = "00:0c:29:a6:82:37"
vmci0.id = "631669303"
cleanShutdown = "TRUE"
replay.supported = "FALSE"
sched.swap.derivedName = "/vmfs/volumes/51157f3a-66224279-d8a9-6805ca10b43a/vm-snapshots/Debian Mailserver-ce5852c8.vswp"
replay.filename = ""
scsi0:0.redo = ""
pciBridge0.pciSlotNumber = "17"
pciBridge4.pciSlotNumber = "21"
pciBridge5.pciSlotNumber = "22"
pciBridge6.pciSlotNumber = "23"
pciBridge7.pciSlotNumber = "24"
scsi0.pciSlotNumber = "16"
ethernet0.pciSlotNumber = "32"
vmci0.pciSlotNumber = "33"
ethernet0.generatedAddressOffset = "0"
tools.remindInstall = "TRUE"
hostCPUID.0 = "0000000568747541444d416369746e65"
hostCPUID.1 = "00100f630002080000802009178bfbff"
hostCPUID.80000001 = "00100f6340002292000837ffefd3fbff"
guestCPUID.0 = "0000000568747541444d416369746e65"
guestCPUID.1 = "00100f630000080080802001078bfbff"
guestCPUID.80000001 = "00100f6340002292000003e9ebd3fbff"
userCPUID.0 = "0000000568747541444d416369746e65"
userCPUID.1 = "00100f630002080080802001078bfbff"
userCPUID.80000001 = "00100f6340002292000003e9ebd3fbff"
evcCompatibilityMode = "FALSE"
vmotion.checkpointFBSize = "4194304"
softPowerOff = "TRUE"
chipset.onlineStandby = "FALSE"
tools.syncTime = "TRUE"
bios.bootDelay = "100"
bios.bootRetry.enabled = "TRUE"
workingDir = "/vmfs/volumes/datastore3TB1/vm-snapshots"
snapshot.redoNotWithParent = "true"
fileSearchPath = "/vmfs/volumes/datastore3TB1/vm-snapshots;."


Könntest du mir da etwas helfen, wo ich anfangen soll zu reparieren - wäre echt supercool.
 
Nachdem ich mich kurz auf dem ESXi eingloggte hatte und von den beiden VMs ein Snapshot erstellt habe
Hilfe, wie Du das Ding wieder zum Laufen bekommst, hast Du ja schon bekommen, deswegen nur noch kurz hinterher: Du weißt schon, wie ein Snapshot funktioniert, oder? Wenn Du einen Snapshot machst, bleibt die Basis-vmdk ab diesem Zeitpunkt beim Schreiben unangetastet und es wird eine "Änderungs-vmdk" erstellt, in die nur die Veränderungen geschrieben werden. Deswegen verstehe ich nicht, was Du mit dem Snapshot bezwecken wolltest, kannst Du das bitte erklären, um deine Gedankengänge nachvollziehbar zu machen? Eventuell sehe ich das nicht, eventuell hast ja aber auch Du einen Denkfehler, den Du dann in Zukunft vermeiden kannst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh