Linux verbraucht nur sehr wenig CPU im ESXI?

TheLux

Profi
Thread Starter
Mitglied seit
24.11.2016
Beiträge
76
Moin Leute,

ich hoffe ich bin hier im richtigen Bereich.
Ich besitze einen HP Gen8 Microserver und lasse auf diesem ESXI 6.0.0 laufen mit mehreren VMs.
Bis jetzt lief alles eigentlich auch recht super. Bis ich nun als letztes einen kleinen Gaming Server aufgesetzt habe. Der lief am ersten Abend noch super und völlig ohne Probleme. 2 Tage später, war er extrem langsam. Die Kartenabschnitte wurden nicht geladen und die NPCs verschwanden einfach so, nur um nachher in Massen wieder aufzutauchen.
Auch die Verbindung über PuTTY war sehr langsam.

Mir war schon lange aufgefallen, dass die Linux-Kisten im ESXI extrem wenig CPU Last verursachen.

ESXI VM Server.jpg

Bei meinem "NAS" und den anderen Servern viel das aber nicht weiter auf.
Ich habe im Internet gelesen, dass es wohl diverse Probleme mit Linux-Hosts auf einem ESXI gibt, diese habe ich aber bereits auf allen Hosts angewendet:

Fix Ubuntu BUG: soft lockup CPU stuck (VMWare Server)
Buffer I/O error on device fd0, logical block 0 error and simply soultion nixCraft

Und anfangs dachte ich auch, dass diese Workarounds was gebracht haben. Scheint aber nicht so.
Deshalb erstmal meine Frage: Ist es normal, dass Linux Hosts so gut wie gar keine CPU Last verursachen, wenn sie nichts zu tun haben? Wobei ich sagen muss, dass der Gaming-Server auch bei ca 11 Mhz blieb, obwohl wir uns mit 3 Leuten auf dem Server befanden.

Vielen Dank schon einmal, dass ihr euch das anschaut.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenig cpu könnte bedeuten dass er auf andere komponenten wartet...
wie schnell sind denn deine platten ? und das netzwerk ?
geht die cpu last hoch wenn du was anderes cpu-intensives machst, z.b. linux kernel aus ner ramdisk kompilieren ?
erstmal mit genau dieser VM, evtl aber auch mal mit ner anderen...
 
Moin tcg,

ich habe nun mal diverse Checks durchlaufen lassen. Hier die Ergebnisse.

Code:
DD - SSD Test
Write
dd if=/dev/zero of=tempfile bs=1M count=1024 conv=fdatasync,notrunc 
4 Durchläufe
1. 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 472,576 s, 2,3 MB/s
2. 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 24,445 s, 43,9 MB/s
3. 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 19,2298 s, 55,8 MB/s
4. 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 22,2349 s, 48,3 MB/s

Read
echo 3 | sudo tee /proc/sys/vm/drop_caches (Cache löschen)
dd if=tempfile of=/dev/null bs=1M count=1024 
4 Durchläufe
1. 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 360,52 s, 3,0 MB/s
2. 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 50,3433 s, 21,3 MB/s
3. 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 50,4108 s, 21,3 MB/s
4. 1073741824 bytes (1,1 GB, 1,0 GiB) copied, 50,0367 s, 21,5 MB/s

Cache
dd if=tempfile of=/dev/null bs=1M count=1024 
4 Durchläufe
1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,250247 s, 4,3 GB/s
1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,242467 s, 4,4 GB/s
1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,243903 s, 4,4 GB/s
1073741824 bytes (1,1 GB, 1,0 GiB) copied, 0,587693 s, 1,8 GB/s

Code:
HDPARM - SSD Test
sudo hdparm -tT /dev/sda (Mit Cache)
1. Durchlauf
Timing cached reads:   5806 MB in  2.00 seconds = 2903.03 MB/sec
Timing buffered disk reads:  20 MB in  3.18 seconds =   6.29 MB/sec

2. Durchlauf
Timing cached reads:   6918 MB in  2.00 seconds = 3459.73 MB/sec
Timing buffered disk reads:  54 MB in  3.03 seconds =  17.85 MB/sec

3. Durchlauf
Timing cached reads:   5824 MB in  2.00 seconds = 2911.99 MB/sec
Timing buffered disk reads:  74 MB in  3.00 seconds =  24.64 MB/sec

4. Durchlauf
Timing cached reads:   5766 MB in  2.00 seconds = 2882.58 MB/sec
Timing buffered disk reads:  74 MB in  3.00 seconds =  24.64 MB/sec

sudo hdparm -tT --direct /dev/sda (Ohne Cache)
1. Durchlauf
Timing O_DIRECT cached reads:   372 MB in  2.01 seconds = 185.52 MB/sec
Timing O_DIRECT disk reads: 290 MB in  3.02 seconds =  96.14 MB/sec

2. Durchlauf:
Timing O_DIRECT cached reads:   368 MB in  2.01 seconds = 183.31 MB/sec
Timing O_DIRECT disk reads: 284 MB in  3.01 seconds =  94.45 MB/sec

3. Durchlauf
Timing O_DIRECT cached reads:   368 MB in  2.01 seconds = 183.47 MB/sec
Timing O_DIRECT disk reads: 498 MB in  3.02 seconds = 164.90 MB/sec
 
4. Durchlauf
 
Timing O_DIRECT cached reads:   346 MB in  2.01 seconds = 172.24 MB/sec
Timing O_DIRECT disk reads: 498 MB in  3.02 seconds = 164.96 MB/sec
Beide Tests wurden nach dieser Anleitung durchgeführt: Festplatten-Geschwindigkeitstest › Wiki › ubuntuusers.de

Und dann noch iPerf
Code:
IPERF Netzwerktest
1. Durchlauf
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec  7.72 MBytes  64.7 Mbits/sec    2    214 KBytes
[  4]   1.00-3.15   sec  7.46 MBytes  29.1 Mbits/sec    0    211 KBytes
[  4]   3.15-3.22   sec  0.00 Bytes  0.00 bits/sec    0    211 KBytes
[  4]   3.22-4.94   sec  1.25 MBytes  6.10 Mbits/sec    0    211 KBytes
[  4]   4.94-5.00   sec  7.49 MBytes  1.06 Gbits/sec    0    211 KBytes
[  4]   5.00-7.35   sec  6.97 MBytes  24.8 Mbits/sec    0    211 KBytes
[  4]   7.35-7.41   sec  0.00 Bytes  0.00 bits/sec    0    211 KBytes
[  4]   7.41-8.75   sec  1.25 MBytes  7.81 Mbits/sec    0    211 KBytes
[  4]   8.75-9.00   sec  29.0 MBytes   972 Mbits/sec    0    211 KBytes
[  4]   9.00-10.00  sec   109 MBytes   914 Mbits/sec    0    211 KBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec   170 MBytes   143 Mbits/sec    2             sender
[  4]   0.00-10.00  sec   169 MBytes   142 Mbits/sec                  receiver

2. Durchlauf
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec   111 MBytes   933 Mbits/sec    0    221 KBytes
[  4]   1.00-2.00   sec   110 MBytes   923 Mbits/sec    0    221 KBytes
[  4]   2.00-3.00   sec   111 MBytes   929 Mbits/sec    0    221 KBytes
[  4]   3.00-4.00   sec  88.0 MBytes   738 Mbits/sec    0    221 KBytes
[  4]   4.00-5.00   sec  97.7 MBytes   819 Mbits/sec    0    221 KBytes
[  4]   5.00-6.00   sec   110 MBytes   926 Mbits/sec    0    221 KBytes
[  4]   6.00-7.00   sec   111 MBytes   929 Mbits/sec    0    221 KBytes
[  4]   7.00-8.00   sec   107 MBytes   895 Mbits/sec    0    221 KBytes
[  4]   8.00-9.00   sec   107 MBytes   894 Mbits/sec    0    221 KBytes
[  4]   9.00-10.00  sec   112 MBytes   938 Mbits/sec    0    221 KBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  1.04 GBytes   892 Mbits/sec    0             sender
[  4]   0.00-10.00  sec  1.04 GBytes   891 Mbits/sec                  receiver

3. Durchlauf 10 Minuten später
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec   111 MBytes   927 Mbits/sec    0    212 KBytes
[  4]   1.00-2.00   sec   111 MBytes   932 Mbits/sec    0    212 KBytes
[  4]   2.00-3.00   sec   111 MBytes   931 Mbits/sec    0    212 KBytes
[  4]   3.00-4.00   sec   112 MBytes   937 Mbits/sec    0    212 KBytes
[  4]   4.00-5.00   sec   111 MBytes   934 Mbits/sec    0    212 KBytes
[  4]   5.00-6.00   sec   112 MBytes   938 Mbits/sec    0    212 KBytes
[  4]   6.00-7.00   sec   111 MBytes   934 Mbits/sec    0    212 KBytes
[  4]   7.00-8.00   sec   112 MBytes   936 Mbits/sec    0    212 KBytes
[  4]   8.00-9.00   sec   112 MBytes   937 Mbits/sec    0    212 KBytes
[  4]   9.00-10.00  sec   111 MBytes   933 Mbits/sec    0    212 KBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  1.09 GBytes   934 Mbits/sec    0             sender
[  4]   0.00-10.00  sec  1.09 GBytes   933 Mbits/sec                  receiver

4. Durchlauf 10 Minuten später
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec   111 MBytes   935 Mbits/sec    0    216 KBytes
[  4]   1.00-2.00   sec   110 MBytes   920 Mbits/sec    0    216 KBytes
[  4]   2.00-3.00   sec   110 MBytes   926 Mbits/sec    0    216 KBytes
[  4]   3.00-4.00   sec   111 MBytes   934 Mbits/sec    0    216 KBytes
[  4]   4.00-5.00   sec   111 MBytes   929 Mbits/sec    0    216 KBytes
[  4]   5.00-6.00   sec   109 MBytes   916 Mbits/sec    0    216 KBytes
[  4]   6.00-7.00   sec   111 MBytes   928 Mbits/sec    0    216 KBytes
[  4]   7.00-8.00   sec   111 MBytes   930 Mbits/sec    0    216 KBytes
[  4]   8.00-9.00   sec   111 MBytes   933 Mbits/sec    0    216 KBytes
[  4]   9.00-10.00  sec   110 MBytes   926 Mbits/sec    0    216 KBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  1.08 GBytes   928 Mbits/sec    0             sender
[  4]   0.00-10.00  sec  1.08 GBytes   927 Mbits/sec                  receiver

Was mir auffällt, ist dass er anfangs extrem schlechte Werte hat und beim zweiten Test auf einmal sehr gut davon kommt.
Ich habe in der Zwischenzeit nichts anders gemacht. Es scheint also, als wenn er irgendwo aufwachen würde und plötzlich performen würde.

Meine SSD ist eine Transcend SSD370S 256 GB

Beim durchführen der ganzen Tests, ist die CPU von 11 auf ca. 50 Mhz angestiegen. Mehr aber nicht.
Ich hatte noch auf meinem File-Server die Boot Partition aufräumen müssen. Der ist dabei teilweise auf 800 Mhz gegangen. Da schien es also zu funktionieren.
Aber beide brauchen sehr lange, bis ich mit der Anmeldung über PuTTY durch bin.
Der Gaming Server braucht auch nochmal länger. Hat allerdings auch nur einen Kern zugewiesen bekommen, während mein Fileserver 4 bekommen hat.

helfen die diese Angaben?
Und irre ich mich, oder sind die Festplatten Angaben recht langsam für die SSD?
 
Und irre ich mich, oder sind die Festplatten Angaben recht langsam für die SSD?

Hmmm, fühlt sich schon langsam an... Hmmm...
Jetzt wäre es natürlich genial das mit einer Installation direkt auf dem Blech, also ohne ESXi zu vergleichen.
Z.B. mit einer Ubuntu-Live-CD, aber dann fehlen dir ja die Platten aus dem Datastore zum direkten Vergleich...

Wie hast du denn ESXi eingerichtet ? Da kann man doch irgendwie Swap & Log auf die SSD legen ?!?
Das hab ich auch gemacht, aber obs hilf weiss ich nicht mehr, seit ich mein SAAP am rennen habe fliegt die Kiste ganz gut mit ESXi ;-)
 
Verwendet du die HP ESXi? Da ist es bekannt, dass dee B120i total lahm ist wegen falschen Treibern. Die muss man ab 6.0 oder 6.0 U1 durch aeltere ersetzen
 
Erst lahm dann schnell klingt für mich nicht so sehr nach "aufwachen" sondern nach "Cache".

Du hast da, wenn ich das richtig auf meinem Handy-Mäusekino überflogen habe, Lesewerte größtenteils unter 30MB/s, teilweise unter 10? Das ist 'ne Katastrophe. :)
 
Verwendet du die HP ESXi? Da ist es bekannt, dass dee B120i total lahm ist wegen falschen Treibern. Die muss man ab 6.0 oder 6.0 U1 durch aeltere ersetzen

Ja, genau den nutze ich. Allerdings habe ich seinerzeits den Treiber mit einer alten Version ersetzt, wenn ich das noch richtig im Kopf habe.
Wäre ein anderer Controller besser, oder reicht es, den Treiber ggf. nochmal neu zu installieren?

@besterino Ja, ich finde uach, dass es eine Katastrophe ist ^^
 
Ich hatte zeitweise mal ne sehr alte SanDisk SSD in meinem ESXI und damit war mein System am ende überhaupt nicht mehr zufrieden. Wenn ich in ner VM versucht hab auf die SSD zu schreiben, hat sich die komplette VM aufgehangen und nur ein ESXI neustart konnte es beheben.

Bei mir machte sich das aber auch in den logs bemerkbar. Schau mal im web-client unter Überwachen->Ereignisse. Bei mir erschienen dort immer Ereignisse wie: "Leistung des Geräts <blablah SSD> hat sich verschlechtert" und später irgendwann ist die Verbindung mit der SSD komplett verloren gegangen.

Hab die SSD dann durch eine ersetzt die besser für die workloads geeignet ist.
 
Ich hatte zeitweise mal ne sehr alte SanDisk SSD in meinem ESXI und damit war mein System am ende überhaupt nicht mehr zufrieden. Wenn ich in ner VM versucht hab auf die SSD zu schreiben, hat sich die komplette VM aufgehangen und nur ein ESXI neustart konnte es beheben.

Bei mir machte sich das aber auch in den logs bemerkbar. Schau mal im web-client unter Überwachen->Ereignisse. Bei mir erschienen dort immer Ereignisse wie: "Leistung des Geräts <blablah SSD> hat sich verschlechtert" und später irgendwann ist die Verbindung mit der SSD komplett verloren gegangen.

Hab die SSD dann durch eine ersetzt die besser für die workloads geeignet ist.

Moin TapfererToaster (witziger Name übrigens ^^),
ich habe mal in die Ereignisse geschaut. Da gibt es keine Fehlermeldungen oder Warnungen dieser oder anderer Art.

Was ich vielleicht noch erwähnen sollte, aber vergessen habe, ist dass der Windows Host komplett ohne Probleme und so ziemlich dauerhaft performant läuft.

Ich versuche mal, das Swap & Log auf die SSD zu legen und melde mich, wenn ich da was gefunden habe.

EDIT: Ich habe jetzt mal geschaut. Wenn es das hier ist, was du mit Swap & Log meinst @tcg Storing a virtual machine swap file in a location other than the default in ESX/ESXi (1004082) | VMware KB dann dürfte ich das eigentlich schon haben, da meine VMs alle auf der SSD installiert sind und in der Konfiguration "Speichern Sie die Auslagerungsdatei im selben Verzeichnis wie die vituelle Maschine" steht.
 
Zuletzt bearbeitet:
Was ich vielleicht noch erwähnen sollte, aber vergessen habe, ist dass der Windows Host komplett ohne Probleme und so ziemlich dauerhaft performant läuft.

Treiberproblem !
Hast du schon den Treiber downgegraded ?
Da gabs/gibts wohl Probleme mit der Performance...
Ich kenne das nicht, den B120i nutze ich quasi nicht, aber such mal im großen Würfelthread nach "hpvsa downgrade"...
 
Treiberproblem !
Hast du schon den Treiber downgegraded ?
Da gabs/gibts wohl Probleme mit der Performance...
Ich kenne das nicht, den B120i nutze ich quasi nicht, aber such mal im großen Würfelthread nach "hpvsa downgrade"...

Ich werde nach dem Wochenende (oder heute Mittag, wenn ich es schaffe), wohl nochmal schauen, ob ich das Downgrade gemacht habe. Ich bin mir eigentlich recht sicher, dass ich es durchgeführt habe. Habe aber bei der Erstinstallation den ESXI auch mindestens 3 mal mit verschiedenen Versionen installiert. Kann sein, dass es untergegangen ist und ich das gerade vermische ^^

Ach so. Eine Verständnisfrage: Wenn ich den B120i disable, also gar nicht nutze, muss ich dann trotzdem das Downgrade machen? Ich würde nun sagen ja, weil die Platten ja trotzdem über das Teil laufen
 
Zuletzt bearbeitet:
Ach so. Eine Verständnisfrage: Wenn ich den B120i disable, also gar nicht nutze, muss ich dann trotzdem das Downgrade machen? Ich würde nun sagen ja, weil die Platten ja trotzdem über das Teil laufen

Wenn du den diablest läuft bestimmt keine Platte mehr ;-)
 
Ok, hast mich etwas verwirrt ;-)
Ich würde sagen; yes, downgrade please !
Evtl. hilft ja auch ein aktuelles ESXi (6.5 oder so) ?
Da gibts ja bestimmt nen tolles Command für die Shell, ich hab mal so auf post-6.0.U2 upgraded, hab aber vergessen wie ;-)
so einfach wie "apt-get update && apt-get upgrade" wars leider nicht...
 
ESXi über die Shell upgraden ist kein Hexenwerk.

Alle Infos dazu gibts hier --> VMware ESXi Patch Tracker - Help

Aber: Vorhandene Treiber bleiben dabei oftmals erhalten und werden nicht zwingend überschrieben. Im Zweifelsfall frisch von der ISO installieren und dann auf den gewünschten Patchlevel updaten und weitere Treiber einbinden.
 
Ah ! Danke ! Ich glaube das hab ich auch genau so gemacht !

d.h. damit könnte ich mein ESXi auf 6.5 heben ??

esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile update -p ESXi-6.5.0-20170404001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml
esxcli network firewall ruleset set -e false -r httpClient
# Reboot to complete the upgrade


wäre echt nett ;-)

- - - Updated - - -

oder macht es sinn bei 6.0 zu bleiben ?
also:

esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile update -p ESXi-6.0.0-20170604001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml
esxcli network firewall ruleset set -e false -r httpClient
# Reboot to complete the upgrade
 
Die Entscheidung kann ich dir nicht wirklich abnehmen. Ich fahre produktiv in der Firma noch mit der aktuellen 6.0er Version, die Entwicklingsumgebung von mir läuft aber schon auf 6.5

Mit 6.5 hast du halt keinen C# vSphere Client mehr sondern nur noch den HTML basierenden Hostclient.

Wenn deine Installation auf einem USB Stick läuft, kannst du dir den ja RAW sichern und dann die 6.5 testen. Notfalls wird das RAW Image wieder zurück gespielt.
 
ich habe nun mal diverse Checks durchlaufen lassen. Hier die Ergebnisse.

So, hier mal meine Tests, ESXi6.0U3 (mit B120i-downgrade), alte 5400er HD, lazy-thick-provisioning
Code:
root@ubuntu:/tmp# hdparm -tT --direct /dev/sda

/dev/sda:
 Timing O_DIRECT cached reads:   506 MB in  2.00 seconds = 252.53 MB/sec
 Timing O_DIRECT disk reads: 360 MB in  3.00 seconds = 119.81 MB/sec
root@ubuntu:/tmp# hdparm -tT --direct /dev/sda

/dev/sda:
 Timing O_DIRECT cached reads:   508 MB in  2.01 seconds = 253.02 MB/sec
 Timing O_DIRECT disk reads: 360 MB in  3.00 seconds = 119.95 MB/sec
root@ubuntu:/tmp# hdparm -tT --direct /dev/sda

/dev/sda:
 Timing O_DIRECT cached reads:   508 MB in  2.01 seconds = 253.30 MB/sec
 Timing O_DIRECT disk reads: 360 MB in  3.00 seconds = 119.86 MB/sec
root@ubuntu:/tmp# hdparm -tT /dev/sda

/dev/sda:
 Timing cached reads:   17854 MB in  2.00 seconds = 8933.15 MB/sec
 Timing buffered disk reads: 358 MB in  3.01 seconds = 118.84 MB/sec
root@ubuntu:/tmp# hdparm -tT /dev/sda

/dev/sda:
 Timing cached reads:   17438 MB in  2.00 seconds = 8724.98 MB/sec
 Timing buffered disk reads: 358 MB in  3.00 seconds = 119.28 MB/sec
root@ubuntu:/tmp# hdparm -tT /dev/sda

/dev/sda:
 Timing cached reads:   17950 MB in  2.00 seconds = 8981.35 MB/sec
 Timing buffered disk reads: 360 MB in  3.02 seconds = 119.29 MB/sec
root@ubuntu:/tmp# dd if=/dev/zero of=tempfile bs=1M count=1024 conv=fdatasync,notrunc
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB, 1.0 GiB) copied, 12.4267 s, 86.4 MB/s
root@ubuntu:/tmp# echo 3 | sudo tee /proc/sys/vm/drop_caches
3
root@ubuntu:/tmp# dd if=tempfile of=/dev/null bs=1M count=1024
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB, 1.0 GiB) copied, 12.8915 s, 83.3 MB/s
root@ubuntu:/tmp# dd if=tempfile of=/dev/null bs=1M count=1024
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.306232 s, 3.5 GB/s

Und irre ich mich, oder sind die Festplatten Angaben recht langsam für die SSD?
Hmmm, ja, langsam für ne SSD...
 
Ich werde demnächst mal meinen ESXI neu machen und explizit das Downgrade nochmal durchführen. Dann teste ich mal, ob das was gebracht hat.
 
Mein ESXi ist auch komplett neu, geht schnell ;-)
Nimm aber kein 6.5 ! Das ist total buggy !!
Viel Glück !
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh