[Sammelthread] ZFS Stammtisch

Wie genau würde ich denn die napp-it VM verkleinern?
Das OmniOs sieht nämlich eine 40GB Platte. Ich bin nicht sicher, ib das dann thin provisioned ist!?
Kann ich die vDisk einfach im ESXi Webinterface kleiner drehen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde die OmniOS Partition heutzutage mindestens 25 GB groß machen, 40 GB ist mit etwas Reserve.
Losgelöst von Thin provisioned Überlegungen kann man von folgendem ausgehen.

Die Minimalgröße für die OmniOS Bootdisk sehe ich bei ca 16 GB.
Das beinhaltet Platz für swap und dump. Der hat eine Abhängigkeit vom RAM (ca 2/3 RAM) also bei 16HB Ram allein ca 12 GB
Planning for Swap Space - Oracle Solaris Administration: Devices and File Systems

Bei einem OS-Update muss man das neue System zusätzlich speichern, macht 2 GB

Bei Systemänderungen, Updates wird der aktuelle Systemstand als Bootsnap/ bootenvironment gesichert
damit man bei Problemen auf einen früheren Systemstand zrückgehen kann. Platzbedarf abhängig von Änderungen.

Mit thin provisioned kann man zwar den Platz überbuchen. Man muss das aber immer im Blick haben. damit die Platte nicht voll läuft.
Thick provisioned ist zudem schneller (Daher bei Slog oder L2Arc so machen)
 
Okay, dann werde ich es erst mal bei 40GB belassen. Sollte ja bei 2 pools mit insgesamt 40GB SLOG, 160GB L2ARC und 40GB Napp-it passen. Danke für euer Feedback.
 
@gea
Heute kann ich die 3 Seiten unter Help->HowTo nicht aufrufen. Dafür hat das Update auf 18.12free geklappt, aber ich werde aus der Angabe "18.12p pre4" nicht schlau.
 
Die drei Seiten verlinken die aktuellen Manuals.
Zum Anzeigen wird Internet benötigt.

Napp-it 18.12p ist die aktuelle default napp-it Version seit ca 1 Woche. Da es da darin doch sehr viel Neues wie ZFS Cluster gibt, kommen jetzt doch noch ein paar Kleinigkeiten zum Vorschein. Die behebe ich noch in der 18.12p (aktuell p4). Anschließend gibt es in der 18.12 (free) nur noch kritische Updates. Alles was sonst neu kommt, geht dann in die 19.x Dev/Pro. Die finale 18.12 wird dann 18.12q sein.

napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris Changelog
 
Zuletzt bearbeitet:
Problem: Appliance Map

Ich habe zwei Maps, je 8 Platten. Beginne ich mit dem Zuordnen der Platten, kann ich alle im System verfügbaren Platten sehen. Ordne ich die erste Platte zu, verschwinden zwei aus der Liste. Die, die ich zuordnen will und eine weitere. Ich vermute, das liegt am SAS-Slot, der gedoppelt ist. Siehe Bild im Anhang.

Anhang anzeigen 431183

Hi Gea,

das Problem besteht leider weiterhin und ich komme nicht weiter.

Controller 1: on-board SAS3008, 4 Platten
Controller 2: PCIe Dell Perc H310, 6 Platten

Disk-Location zeigt e1:m0:s00, e1:m0:s01, e1:m0:s02, e1:m0:s03, je zwei mal. Ordne ich eine der Platten einer Map zu, verschwindet die andere gleich mit aus der Liste.

Wäre für einen Tipp dankbar. System läuft mit aktuellen Versionen, PRO Lizenz.

Danke
 
Zuletzt bearbeitet:
Ausm Linux Subforum:
Hat hier jemand auf Ubuntu 18 ZFS am laufen?
Ich habe 2 Disks - Eine davon hat ZFS Partitionen
Die HDD ist SDB, SDB1 hat 100GB, SDB9 hat 500 MB.

Ich möchte nun das Ding auf 200GB vergrößern - Mit Autoexpand=on usw. komme ich aber nicht weiter. der Pool "daten" bleibt bei seinen 99G angezeigt.

Kann hier jemand weiterhelfen? Muss ich erst eine Partition 2 erstellen und dann mit dem "zpool online -e..." den bisherhigen Pool "daten" vergrößern, oder wie gehts weiter?
Habe bei Linux so noch nicht mit ZFS gearbeitet :hust:

Da habe ich bereits nochmal den Link auf das folgende gekriegt: Why isnt my ZFS pool expanding using ZFS on Linux? - Server Fault

Kann ich die Partition des ZFS Pools direkt vergrößern, oder wie bereits im Zitat angesprochen, eine 2. Partition erstellen und entsprechend anhängen? Was wäre die sauberste Vorgehensweise?
 
Hi Gea,

das Problem besteht leider weiterhin und ich komme nicht weiter.

Controller 1: on-board SAS3008, 4 Platten
Controller 2: PCIe Dell Perc H310, 6 Platten

Disk-Location zeigt e1:m0:s00, e1:m0:s01, e1:m0:s02, e1:m0:s03, je zwei mal. Ordne ich eine der Platten einer Map zu, verschwindet die andere gleich mit aus der Liste.

Wäre für einen Tipp dankbar. System läuft mit aktuellen Versionen, PRO Lizenz.

Danke

Da eigentliche Problem hier ist das sich z.B. unter der Angabe c0:e1:s07 (controller 0, enclosure1, anschluss 07) zwei verschiedene Platten melden. Das hat jetzt nichts mit Multipath zu tun, bei dem sich eine Platte unter zwei Controllern meldet.

Momentan erfolgt meine Zuordnung von einer WWN Platten ID zu einem Slot in der Backplane auf den Brodcom Tools zum Ermitteln der Controller und des Ports an dem eine Platte mit einer bestimmten WWN angeschlossen ist. Da dies nicht mit allen Broadcom Controllern funktioniert, benutze ich zusätzlich die Nummeriering des mpt_sas Treibers.

Besondere Probleme bereitet, dass sich "früher" Platten an verschiedenen Controllern mit einer eigenen ID wie c0.. oder c1... meldeten. Heute bleibt die Controller Nummer identisch, auch wenn Platten an verschiedenen Controllern angeschlossen sind. Funktioniert das sauber ist das fantastisch da man Platten zwischen Controllern verschieben kann ohne dass ZFS darüber stolpert.

Das ergibt natürlich das Problem.
Im Moment stützt sich Appliance Map auf die Broadcom Tools. Die verhalten sich im Zweifel je OS, HBA und Firmware anders.

Ich könnte jetzt eine einfache Zuordnung WWN - > Slot vorsehen. Dann gingen aber z.B. die Broadcom Tools zum Anschalten der Alert Led nicht mehr. Eine Möglichkeit wäre eine enclosure Nummer je Platte. Ich tendiere aber eher zu der Vorgabe dass sich das OS und der HBA so verhält wie erwartet, man also aktuelles OS und aktuelle IT Firmare hat.

Welches OS ist es denn und welche Firmware auf den HBAs (Version und Modus wie IT oder IR)??
 
Zuletzt bearbeitet:
Ich bekomme seit einigen Tagen vermehrt Warnungen angezeigt, wenn ich mich eingeloggt habe und die Nappit-Oberfläche geladen wird. Logge ich mich dann aus und direkt wieder ein, kommt keine Warnung...
nappit-warning2.jpg

Ist das ein Anzeichen dafür, daß der Datenträger mit der Appliance bereits lahmt???
 
Genau dieselbe Warnung bekomme ich auch seit einigen Tagen sporadisch. Ein genaues Muster konnte ich bislang nicht erkennen.
 
Beim Login setzt napp-it die Rechte seiner Ordner neu damit z.B. nach einem Update das mit Copy arbeitet, die Rechte wieder stimmen. In diesem Fall auf einen noch nicht vorhandenen Ordner der für Acceleration benutzt wird. Die Meldung ist unkritisch. Ich fange dies aber künftig ab.

Ein kritischer Hinweis ist das nur bei sehr wenig RAM oder zu kleinem Swapspace wenn das rambasierte /tmp Dateisystem voll ist. Das wird für Acceleration benutzt. Dann Acceleration ausschalten (Topmenü neben Logout).

Die Version 18.12 nutzt Acceleration viel umfänglicher als frühere Versionen und braucht dafür nach Aktivierung etwas mehr RAM oder swap (Größenordnung ein paar Hundert MB)

Die Belegung des tmp Dateisystems zeigt
du -h -x /tmp
 
Zuletzt bearbeitet:
Welches OS ist es denn und welche Firmware auf den HBAs (Version und Modus wie IT oder IR)??

napp-it
running version : 18.12p pre4

uname -a
SunOS vmnas 5.11 omnios-r151028-d3d0427bff i86pc i386 i86pc

lspci
03:00.0 Serial Attached SCSI controller: LSI Logic / Symbios Logic SAS3008 PCI-Express Fusion-MPT SAS-3 (rev 02) (onboard - FW IT)
1b:00.0 Serial Attached SCSI controller: LSI Logic / Symbios Logic SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon] (rev 03) (Dell H310 - FW IT)

LSI HBA Controller
Index Port name Chip Vendor ID MPT rev Firmware IOC
m0 mpt_sas17 LSI Logic SAS2008 B2 200 14000700 0
m1 mpt_sas7 LSI Logic SAS3008 C0 205 0d000000 0

sas2ircu DISPLAY
Firmware 20.00.07.00

sas3ircu DISPLAY
Firmware 13.00.00.00
 
Zuletzt bearbeitet:
Ein kritischer Hinweis ist das nur bei sehr wenig RAM oder zu kleinem Swapspace wenn das rambasierte /tmp Dateisystem voll ist. Das wird für Acceleration benutzt. Dann Acceleration ausschalten (Topmenü neben Logout).
Neben dem Logout (finde ich nur open rechts) habe ich nur noch die Punkte "Sprache-umstellen" und "Edit" (enable/disable logs and edit). Für die letzten beide Punkte "Mon" und "Acc" benötige ich eine Pro-Version. "Acc" sollte damit in der Free-Version doch gar nicht aktiviert sein.
 
Bei mir ist es vermutlich mit der 2-Tage Testversion gekommen, die sich vermutlich nicht richtig deaktiviert hat.
Śie taucht zwar als abgelaufen auf, die Version ist aber immer noch 18.12o dev 16.12 und auch Edit Acc Mon lässt sich scheinbar aktivieren, wobei die Statistiken dann leer sind.
Ähnliches gilt für die ACL extensions, welche zumindest teilweise noch funktionieren.
 
napp-it
running version : 18.12p pre4

uname -a
SunOS vmnas 5.11 omnios-r151028-d3d0427bff i86pc i386 i86pc

Ich werde im neuen Jahr ein paar Test mit einer änlichen Konfiguration machen.

zu der Meldung beim Login
Prinzipiell hat das nichts mit Pro oder Free zu tun da diese Funktion beidesmal aufgerufen wird. Auch gibt es keine spezielle Pro Software-Version. In der Free sind nur einige Features deaktiviert und Updates der Free Version sind nur auf die nächste Free möglich.
 
Zuletzt bearbeitet:
Ich habe jetzt deinen Ba$h-Befehl mal laufen lassen:
root@napp-it-san024:~# du -h -x /tmp
4K /tmp/nappit/htm
12K /tmp/nappit
20K /tmp

"Acc" kann ich in der Free-Version über den Browser nicht abschalten.
 
40k, damit läuft /tmp garantiert nicht voll.
Acc abschalten braucht man nicht. Es ist in der Free eh nicht aktiv.

Das eigentliche Problem (Fehlermeldung beim Zugriff auf einen tmp Ordner den es beim Login noch nicht gibt) habe ich behoben.
 
Läuft die Update-Anfrage über HTTPS?
 
Ja, napp-it.org leitet alle Anfragen per redirekt auf https
Ein Problem sollte das aber für das Update nicht sein, es sei denn eine Firewall blockt https
 
Hallo zusammen,

ich bin noch neu im Thema napp-it und spiele gerade ein wenig damit herum, da ich mein FreeNAS ablösen möchte. Das Einzige, was dem aktuell im Weg steht ist der HDD Spindown, dieser funktioniert noch nicht.

Zur Umgbung:
napp-it v18.12p pre4 über OVA Vorlage in ESXi 6.7 importiert, meinen LSI3008 HBA auf einem SuperMicro X11SSL-CF Board habe ich direkt durchgereicht, vier HDDs sind angeschlossen und werden erkannt. Einen neuen Pool und ZFS Filesystem habe ich erstellt.
FreeNAS konnte in derselben Konstellation den HDD Spindown durchführen.

Den FMD Service habe ich deaktiviert und die power.conf sieht folgendermaßen aus:

#
# Copyright 1996-2002 Sun Microsystems, Inc. All rights reserved.
# Use is subject to license terms.
#
#pragma ident "@(#)power.conf 2.1 02/03/04 SMI"
#
# Power Management Configuration File
#

device-dependency-property removable-media /dev/fb
autopm enable
autoS3 default
cpu-threshold 1s
# Auto-Shutdown Idle(min) Start/Finish(hh:mm) Behavior
autoshutdown 30 9:00 9:00 noshutdown
cpupm enable
device-thresholds /dev/dsk/c1t0d0 300s
device-thresholds /dev/dsk/c1t1d0 300s
device-thresholds /dev/dsk/c0t50014EE1AF6378B6d0 300s
device-thresholds /dev/dsk/c0t50014EE104BF8EC3d0 300s
device-thresholds /dev/dsk/c0t50014EE104BF8F2Dd0 300s
device-thresholds /dev/dsk/c0t50014EE2B17DBB22d0 300s

Fehlt hier noch etwas in der Konfiguration? Danke für eure Unterstützung.
 
Prinzipiell sollte es so gehen (nach Start bzw Neustart des Dienstes).

Es darf dann aber keine Zugriffe auf den Pool geben, z.B. via Fault Management (Systemüberwachung) oder napp-it Alerts, acceleration oder monitoring oder VMs oder andere Clients.

- - - Updated - - -

Hi Gea,

das Problem (mit Disk Location and Map bei gleichzeitiger Nutzung von LSI 6G und 12G Adaptern) besteht leider weiterhin und ich komme nicht weiter.

Controller 1: on-board SAS3008, 4 Platten
Controller 2: PCIe Dell Perc H310, 6 Platten

Disk-Location zeigt e1:m0:s00, e1:m0:s01, e1:m0:s02, e1:m0:s03, je zwei mal. Ordne ich eine der Platten einer Map zu, verschwindet die andere gleich mit aus der Liste.

Wäre für einen Tipp dankbar. System läuft mit aktuellen Versionen, PRO Lizenz.

Danke

Das Problem ist, dass das bisherige sas3ircu (ein LSI Tool für 12G LSI HBAs um den Slot für eine Platte mit WWN Nummerierung zu ermitteln) bei neueren Systemen teilweise nicht mehr arbeitet. Napp-it benutzt dann die Slotermittlung über den mpt_sas Treiber. Wenn man nun 6G HBAs mit functionierendem sas2iru und 12G Adapter mit einem nicht funktionierendem sas3ircu mischt, stimmen die ermittelten Controller IDs nicht überein. Die napp-it Menüs Disk > Location und Disk > Map zeigen dann falsche oder doppelte Controller Nummern.

Eine nicht arbeitende sas3ircu wird in napp-it 18.12 p5 nun erkannt und Menü Disk Location gibt eine Fehlermeldung. Ich habe zusätzlich im Menü Disk > Location eine Option hinzugefügt um eine andere sas2ircu/ sas3ircu auszuwählen oder diese komplett zu deaktivieren. Napp-it ermittelt dann den Controller ausschliesslich über den Treiber (was auch viel schneller ist).

Disk Detection über edie rote Alert LED einer backplane geht dann halt nicht mehr, dazu braucht es die sasircu

18.12p5 ist hochgeladen und kommt per About > Update: download 18.12
 
Prinzipiell sollte es so gehen (nach Start bzw Neustart des Dienstes).

Es darf dann aber keine Zugriffe auf den Pool geben, z.B. via Fault Management (Systemüberwachung) oder napp-it Alerts, acceleration oder monitoring oder VMs oder andere Clients.

Es musste zusätzlich noch das Monitoring abgeschaltet werden, jetzt läufts.
Vielen Dank!
 
P420 Passthru und napp-it/ XigmaNAS Problem

Moin,

bin jetzt stolzer Besitzer eines HP DL320 G8
32 GB RAM
eine P420 in PCIe Slot 1
ein B120i onboard (ungenutzt)
ein SATA Port für nen DVD ROM
4 USB 2.0
iLO4
einen SD Cardslot
Xeon 1220v2 (IvyBridge)
Als Massenspeicher derzeit drei 450 GB SAS und eine 750er SATA (werden beizeiten gegen Red, IronWolf oder N300 getauscht)

Installiert ist ein ESXi 6.7U1 auf einem USB Stick
Die VMs liegen auf einer 128 GB SDCard (sollen auf eine SSD am B120i, die SSD wartet noch darauf gekauft zu werden)
VMs sind ein Debian Linux für FHEM (läuft derzeit noch auf nem RasPi, der soll beerbt werden)
ein Debian Linux mit Gnome zum rumspielen
ein XigmaNAS (habe zwei NAS mit NAS4Free laufen, allerdings als BareMetal Kisten, japp, die sollen auch beerbt werden)
und ein napp-it, zum angucken.
Napp-it ist als ova Datei importiert worden.

Den P420i habe ich in den HBA Modus versetzt, dass ging mit den SSACLI ohne Probs, wird auch wunderbar mit "show" als HBA angezeigt, ebenso die vier Platten

Nun zu den Problemen, napp-it
im ersten Versuch lief der P420 noch als Raid Controller, alle vier Platten als je ein RAID 0 eingerichtet und per Passthru an napp-it durchgereicht.
Napp-it hat die Platten gesehen und ich konnte auch ganz fein ein ZFS Pool anlegen und vie SMB und NFS freigeben. Nur ist die Performance unterirdisch.
Das ganze wieder platt gemacht, den Controller in den HBA Modus versetzt, napp-it als neue VM importiert und den Controller wieder neu nurchgereicht.
Der Controller ist auch sichtbar:

pci bus 0x0003 cardnum 0x00 function 0x00: vendor 0x103c device 0x323b
Hewlett-Packard Company Smart Array Gen8 Controllers
CardVendor 0x103c card 0x3351 (Hewlett-Packard Company, P420)
STATUS 0x0010 COMMAND 0x0007
CLASS 0x01 0x04 0x00 REVISION 0x01
BIST 0x00 HEADER 0x00 LATENCY 0x40 CACHE 0x10
BASE0 0xfd300000 SIZE 1048576 MEM
BASE2 0xfd4ff000 SIZE 1024 MEM
BASE4 0x00004000 SIZE 256 I/O
BASEROM 0x00000000 addr 0x00000000
MAX_LAT 0x00 MIN_GNT 0x00 INT_PIN 0x01 INT_LINE 0x0b

aber die Platten sind nicht zu finden.
Als der Controller noch im RAID Modus lief wurden die Platten erst gesehen, nachdem ich die Logical Volumes angelegt hatte. Das geht im HBA Modus offenbar nicht mit den SSACLI, macht IMHO ja auch keinen Sinn, da dass ja mit napp-it passieren soll.

Jemand ne Idee wo die Platten sind?

Nun zu XigmaNAS:
sobald ich die XigmaNAS VM starte drehen nach kurzer Zeit die Lüfter des Servers mit Endgeschwindigkeit, so als ob das komplette Management abgeschaltet wird. Fahre ich die VM wieder runter bleiben die Lüfter unter Vollast, erst nach einem Neustart des Servers läuft alles wieder die gewünscht. Gehäuse ist natürlich geschlossen und die Kunstoffluftführung ist korrekt verbaut.
Gibt es ne Möglichkeit dem BIOS die alleinige Herschaft über die Lüfter zu geben? Es scheint so zu sein das die VM das übernimmt, es aber einfach nicht kann. Der P420 ist ebenso durchgereicht wie in napp-it, natürlich laufen die beiden VMs nicht zeitgleich (vielmehr wollte ich erst XigmaNAS benutzen und bin erst nach dem Lüfterproblem auf napp-it gestoßen)

Derzeit habe ich kein Vorliebe zwischen den beiden, XigmaNAS kenne ich etwas besser, da das erste NAS schon seit einigen Jahren läuft, aber im Prinzip richtet man es ja nur einmal ein und lässt es laufen. Ab und an mal nen neuen Stick mit ner neuen Version und gut.
 
Jemand ne Idee wo die Platten sind?

Der P420 ist für ZFS generell nicht so gut geeignet.
Bei Solarish kommt hinzu dass es wohl keinen Treiber für den HBA Modus gibt.

Ich würde nach einem günstigen LSI HBA mit LSI 2008, 2308 oder 3008 Chipsatz schauen.
Jedes OS mit ZFS wird das bevorzugen.
 
Das Problem ist, dass das bisherige sas3ircu (ein LSI Tool für 12G LSI HBAs um den Slot für eine Platte mit WWN Nummerierung zu ermitteln) bei neueren Systemen teilweise nicht mehr arbeitet. Napp-it benutzt dann die Slotermittlung über den mpt_sas Treiber. Wenn man nun 6G HBAs mit functionierendem sas2iru und 12G Adapter mit einem nicht funktionierendem sas3ircu mischt, stimmen die ermittelten Controller IDs nicht überein. Die napp-it Menüs Disk > Location und Disk > Map zeigen dann falsche oder doppelte Controller Nummern.

Eine nicht arbeitende sas3ircu wird in napp-it 18.12 p5 nun erkannt und Menü Disk Location gibt eine Fehlermeldung. Ich habe zusätzlich im Menü Disk > Location eine Option hinzugefügt um eine andere sas2ircu/ sas3ircu auszuwählen oder diese komplett zu deaktivieren. Napp-it ermittelt dann den Controller ausschliesslich über den Treiber (was auch viel schneller ist).

Disk Detection über edie rote Alert LED einer backplane geht dann halt nicht mehr, dazu braucht es die sasircu

18.12p5 ist hochgeladen und kommt per About > Update: download 18.12


So. Fertig :) ... es funktioniert. Ich habe meine beiden Maps erstellt. Sieht chic aus :d

Vielen Dank, Gea. Vor allem auch für die prompte, trotz-feiertagliche Hilfe.

Allseits guten Rutsch und viel Glück und Gesundheit in 2019 and beyond.

Cheers
 
ok, dann muss ich danach suchen, danke.

LSI ist jetzt Broadcom, ok.
2008 100€
2308 130€
3008 170€

Gibts nen Grund für ein privat genutztes NAS einen Controller über 100€ zu kaufen?
 
Zuletzt bearbeitet:
Ideal wird es dann wenn der Controller bereits auf IT Modus (ohne Raid-Funktionalität) geflasht ist.
Wenn auf dem Controller eine IR (Raid 1/10) Firmware is, so ist das nicht perfekt aber vollkommen in Ordnung.

Manche Controller kommen auch mit Raid-5 Modus.
Die sind aber ohne Umflashen untauglich.

Ich würde bei Eb... nach LSI 9211 IT oder 9300 IT (kompatibel ist ok) suchen
 
@don redhorse: Weil der HBA-Preis relativ geringfügig ist gegenüber den HDD/SSDs und RAM. Bedenke, dass Du bei einer einzelnen 12TB Ironwolf bereits bei ~400 Euro bist. Und für 16GB ECC Ram bist Du bei >150 Euro.

Ob der HBA da jetzt 50 Euro mehr oder weniger kostet, spielt da eigentlich kaum noch eine Rolle. Und dementsprechend kauft man halt für ZFS und dessen Betriebssysteme einen HBA, der bekanntermaßen sehr gut funktioniert und keine Cheapo-Sata-Karten, die ausserhalb Windows oft genug Ärger machen oder gar nicht laufen.
Ausserdem kann ich instant 8 Devices dranhängen, mit Expander auch mehr. Da PCIe-Lanes und Slots bei den kleinen 115x-Sockeln rar sind, will man möglichst viel I/O aus einem Slot holen und nicht an Karten mit 2 Sata-Ports verschwenden.

Abgesehen davon sind die LSI/Broadcom-Teile für 24/7-Betrieb und Belastung ausgelegt und entsprechend qualitätsgeprüft.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh