[Sammelthread] ZFS Stammtisch

Wenn ich eine komplett frische virtuelle disk mit z.B. 32 GB erstelle (napp-it disk hat 30) bekomme ich trotzdem denselben Fehler (Partition 0 not aligned on cylinder boundary und I/O error von zpool)?

Die zweite Disk auf den ersten Datastore zu legen macht ja keinen Sinn, weil es ja ein Mirror werden sollte - für den Fall dass Disk 1 defekt wird.

Beide datastores liegen auf quasi identischen disks (beides Intel X-25M Postville 160 GB SSDs), datastore wurde gleich angelegt.
Ich verstehe nicht wirklich was hier das Problem ist?


Aus Sicht von dem prtctoc Tool scheinen die unterschiedlich zu sein.
Daher mal testweise beide vdisks auf einer Platte.



Übrigens
Ich habe napp-it mal probehalber auf Linux (Ubuntu 12 LTS) portiert. Usability von Ubuntu ist ja nicht ganz mein Ding. Zwanzig Dateisysteme, 7-8 Möglichkeiten devices zu benennen und für jede Aufgabe zehn Tools.

Schön ist aber, dass es überall läuft, es eine riesige Community gibt und viele Programme angepasst sind.

Wers probieren möchte (erste Preview):
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris downloads
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nach dem prtvtoc ... | fmthard ... command dürften die Partitionen leider nicht gleich sein. Ich habe mir die disks mal mit format / verify angesehen und auf der original disk aus der fertigen VM gibt es anscheinend 3 einträge: root, backup und noch irgendwas, wobei die (partition?) 0 erst bei cylinder 16xxx anfängt und diese kann er anscheinend schon nicht übertragen.

Das command macht aus der zweiten platte einfach eine einzelne partition mit 100% größe?

Ich habe versucht exakt dieselbe disk aus der vm nochmals einzubinden (da die geometrie, partitionen, cylinder etc. dort ja exakt gleich sind), leider weiß unix/zfs hier dass dort ein pool existiert (auch wenn er mit zpool status nicht angezeigt wird), und zwar leider auch rpool (logisch, da die zweite platte ja genau denselben content erhält). Deswegen funktioniert das so auch nicht.

Ich habe es einstweilen aufgegeben und versuche jetzt mit meinen sehr spärlichen unix kenntnissen mal OmniOS manuell selbst aufzusetzen und dort gleich direkt einen rpool mirror bei der installation zu erstellen (ich vermute ich muss dann auf der zweiten platte zusätzlich noch einen bootloader installieren? aber das werde ich dann eh sehen ob er von platte 2 booten kann) und via wget napp-it zu installieren.

Danke trotzdem für den support @ gea :)

/Edit: Nur verständnishalber ...

1. Ist ein Mirror von napp-it empfohlen/notwendig (wegen Datensicherheit), oder ist das nur eine Vorgehensweise für hohe Verfügbarkeit?
2. Gibt es am napp-it System viele Disk-Zugriffe (auf die Disk wo napp-it installiert ist) oder kann man das bedenkenlos ebenso wie z.B. den ESXi auf einen USB Stick einrichten?
 
Zuletzt bearbeitet:
Gibt es bei der Festplattenauswahl was zu berücksichtigen, wenn man ein NAS mit 5-6 3,5" HDDs im RAIDZ / RAIDZ2 betreiben will? (Außer der offensichtlichen, keine ausgewiesenen Energiesparmodelle a lá WD Green zu nehmen)
 
Dass die Festplatten möglichst auch für den Dauerbetrieb ausgelegt sind und eine Raid-freundliche Firmware haben, also keine DVR-Videorecorder Firmware (Seagate Video, WD AV-Green) oder ähnliches. Ich würde zur HGST Deskstar 7K4000 4TB, SATA 6Gb/s (HDS724040ALE640/H3IK40003272SW) greifen, das ist meiner Meinung nach die beste Nicht-Enterprise SATA-Festplatte am Markt und ideal für ZFS.

Ich habe napp-it mal probehalber auf Linux (Ubuntu 12 LTS) portiert. Usability von Ubuntu ist ja nicht ganz mein Ding. Zwanzig Dateisysteme, 7-8 Möglichkeiten devices zu benennen und für jede Aufgabe zehn Tools.

Schön ist aber, dass es überall läuft, es eine riesige Community gibt und viele Programme angepasst sind.

Wers probieren möchte (erste Preview):
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris downloads

Das ist super! Hatte dich ja vor einem Jahr oder länger schon mal gefragt und daher dachte ich dass dies wohl nie der Fall sein wird. :)

Schade nur dass du dich als "Standard-Empfehlung" für Ubuntu LTS entschieden hast, ich hätte da viel lieber Debian 7 gesehen, im Profi-Linux-Bereich hat es einfach ein weitaus besseres Ansehen als Ubuntu aus Stabilitäts- und auch aus Firmenpolitischen-Gründen. Aber bis auf ein paar Versionsunterschiede sollten sich 12.04 und Debian 7 nicht allzu sehr unterscheiden als das napp-it for Linux wohl auch unter Debian 7 läuft.

Denk doch vielleicht nochmal darüber nach, gerade weil Proxmox auch unter Debian 7 läuft und eine Kombination von Proxmox und napp-it in einem System sehr interessant wäre. Dann brauch man den Storage nicht mehr virtualisieren, man hat ihn gleich nativ im System. Man stelle sich ESX mit ZFS vor. :fresse:
Eventuell auch gleich als Addon in Proxmox? Muss ja erstmal nicht mehr als eine Verlinkung oder iFrame sein. Proxmox entwickelt auch ein iSCSI-ZFS-Plugin welches ZFS-Appliances via SSH verwaltet, dies kann man man natürlich auch lokal machen.

Ich werde es mal in den nächsten Tagen unter Proxmox (Debian7 mit RHEL-Kernel) ausprobieren und dir Rückmeldung geben, gibt nun übrings auch schon den neuen RHEL7 3.10 Kernel als Paket für Proxmox. Ich hätte da einige Feature-Ideen, werde aber erst mal schauen was denn überhaupt schon drin ist. z.B. SAMBA könntest du recht "simpel" integrieren indem du einfach SWAT vom Installer installieren lässt und im Webmenü verlinkst, das wäre wohl für den unversierten Nutzer sicherlich einfacher als die Config von Hand zu bearbeiten.
 
Zuletzt bearbeitet:
Gibt es bei der Festplattenauswahl was zu berücksichtigen, wenn man ein NAS mit 5-6 3,5" HDDs im RAIDZ / RAIDZ2 betreiben will? (Außer der offensichtlichen, keine ausgewiesenen Energiesparmodelle a lá WD Green zu nehmen)

Auf die richtige Anzahl der Platten, bei RAIDZ: 2+1, 4+1 oder 8+1 / RAIDZ2: 2+2, 4+2 oder 8+2
 
Schade nur dass du dich als "Standard-Empfehlung" für Ubuntu LTS entschieden hast, ich hätte da viel lieber Debian 7 gesehen, im Profi-Linux-Bereich hat es einfach ein weitaus besseres Ansehen als Ubuntu aus Stabilitäts- und auch aus Firmenpolitischen-Gründen. Aber bis auf ein paar Versionsunterschiede sollten sich 12.04 und Debian 7 nicht allzu sehr unterscheiden als das napp-it for Linux wohl auch unter Debian 7 läuft.

Denk doch vielleicht nochmal darüber nach, gerade weil Proxmox auch unter Debian 7 läuft und eine Kombination von Proxmox und napp-it in einem System sehr interessant wäre. Dann brauch man den Storage nicht mehr virtualisieren, man hat ihn gleich nativ im System. Man stelle sich ESX mit ZFS vor. :fresse:
Eventuell auch gleich als Addon in Proxmox? Muss ja erstmal nicht mehr als eine Verlinkung oder iFrame sein. Proxmox entwickelt auch ein iSCSI-ZFS-Plugin welches ZFS-Appliances via SSH verwaltet, dies kann man man natürlich auch lokal machen.

Debian7 läuft auch. Anleitung siehe
napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris downloads
 
@gea: wie updated man AMPO von der alten Version auf die aktuelle (unter OmniOS aktuelle Version)? Einfach den Installer aufrufen (wget -O - www.napp-it.org/ampo04 | perl) oder lässt das Altlasten im System?


Vorsicht ist definitiv bei einem Update von ownCloud 5 auf ownCloud 6 angebracht, hier sollten unbedingt die Upgrade-Hinweise auf der ownCloud-Website beachtet werden:
Updating ownCloud — ownCloud Administrators Manual 6.0 documentation

Ansonsten bitte die /opt/local/etc/httpd/httpd.conf sowie die /opt/local/etc/php.ini vorher nochmal sichern und ggf. nach erfolgtem Update eigene Anpassungen in diesen Dateien erneut ergänzen.
 
Zuletzt bearbeitet:
Hi, habe den HP Microserver mit 9GB Ram und 1,3Ghz. Habe ein RaidZ1 mit 3x 3TB Festplatten. Nun soll der Server einen zusätzlichen Pool bekommen. Angedacht ist ein Wechselrahmen für 2 2,5Zoll Laufwerke im ODD Schacht des Microserver. Da drauf soll ein Mirror Pool gemacht werden (2 2,5Zoll HDD mit jeweils 1TB).

Sollen hauptsächlich Backups und Daten drauf gespeichert werden mehr nicht. Habe jetzt 2 Fragen, die erste gehört hier nicht wirklich hin aber hat jemand Tipps für gute 2,5 1TB HDDs?

Die zweite Frage würde gern Deduplication benutzen. Man liest ja oft dass es relativ unperformant sein soll und man viel Ram braucht. Da der Pool aber mit 1TB eigentlich relativ klein ist, könnte man es da nicht dennoch mal ausprobieren?

Hat das ganze auch Auswirkungen auf den zweiten Pool? Sprich wenn ich nicht zufrieden mit bin kann ich den zweiten Pool einfach neu erstellen und gut ist?
 
ZFS dedup läuft auf Poolbasis, ergo dedup auf einem Pool hat keinen Effekt auf einen anderen.
Dedup ausprobieren kannst du ganz einfach mit dem ZFS Debugger.
zdb -S poolname liefert Statistiken, dort kannst du ablesen, ob dedup etwas bringen würde und wieviel.

cu
 
darum gehts mir nicht. Hab halt mal gelesen dass die Performance bei manchen dadurch stark abgesunken ist. Daher interesieren mich mehr Erfahrungen und Meinungen
 
Also nochmal: dedup beinträchtigt definitv die Performance, teilweise massiv, auch bei ausreichend RAM.
Wenn die Einsparung unter 2:1 liegt, lohnt sich das imho nicht, also vorher mit dem Debugger rausfinden.

cu
 
/Edit: Nur verständnishalber ...

1. Ist ein Mirror von napp-it empfohlen/notwendig (wegen Datensicherheit), oder ist das nur eine Vorgehensweise für hohe Verfügbarkeit?
2. Gibt es am napp-it System viele Disk-Zugriffe (auf die Disk wo napp-it installiert ist) oder kann man das bedenkenlos ebenso wie z.B. den ESXi auf einen USB Stick einrichten?


1. Auf dem rpool ist bei reinem NAS/SAN Betrieb nichts drauf was nicht in kürzester Zeit neu gemacht werden kann.
Bei vielen napp-it Jobs kann man die per system - backup napp-it auf den Datenpool sichern

Es ist also nur wegen der Verfügbarkeit. Als Alternative kann man per USB Stick Clonezilla starten und damit die Bootplatte in ein paar Minuten von externer Platte oder einem SMB/NFS Share (z.B. Windows Arbeitsplatz) sichern/ wiederherstellen.

2. Es gibt mit SmartOS und Eon Solarisbasierte Systeme, die voll im RAM arbeiten. OmniOS greift schon auf die Platte zu. Wenn man aber atime ausschaltet dann sind die Schreibzugriffe eher selten und dank CopyOnWrite auch nicht immer auf die gleichen Bereiche. Man sollte halt auf sehr gute und schnelle Sticks achten (16GB Minimum, gerne 32 GB). Wirklich gut sind normale 32 GB SSDs in einem USB Gehäuse.

- - - Updated - - -

Also nochmal: dedup beinträchtigt definitv die Performance, teilweise massiv, auch bei ausreichend RAM.
Wenn die Einsparung unter 2:1 liegt, lohnt sich das imho nicht, also vorher mit dem Debugger rausfinden.

cu

Für die Geschwindigkeit von ZFS sorgt in erster Linie der Read-Cache aus dem RAM. Daneben kann man sagen, je weniger Daten von Platte gelesen werden müssen, desto schneller. Damit sind Compress und Dedup (bei ausreichend CPU) zunächst gut für die Performance.

Bei ZFS-Dedup handelt es sich aber um Realtime Dedup. Damit müssen die Dedup Tabellen im Ram gehalten werden. Das benötigt 3-5 GB pro Terabyte Daten. Wenn man die hat, ist Dedup zunächst kein Problem und bringt Leseperformance und kann enorm Platz sparen. Man darf aber nie zuwenig RAM haben. Sobald die Dedup Tabelle auf Platte ausgelagert werden muss, bekommt man riesige Probleme bis hin zu mehreren Tagen Wartezeit um einen Snapshot zu löschen da dann für jeden Datenblock der gelesen oder geschrieben werden muss, die Deduptabelle verglichen werden muss.

Das Problem: Diesen RAM-Bedarf muss man zu dem hinzurechnen, was man gerne als Read-Cache haben möchte. Dadurch kommen schnell immense RAM-Mengen zusammen, wenn das rund laufen soll. Dazu kommt das Problem, dass Dedup Poolweit arbeitet. Einmal eingeschaltet bekommt man das nicht mehr weg ohne den Pool neu anzulegen. Beides zusammen bedeutet:

Dedup ist ok wenn
- man es wirklich braucht (Dedup-Raten >2, eher deutlich mehr)
- wirklich viel RAM
- kleine Pools

Fast immer ist deshalb LZ4 Compress und eine weitere Platte die wesentlich sinnvollere Option. Auf keinen Fall auf große Pools anwenden.
 
Zuletzt bearbeitet:
Naja der Pool ist 1TB groß (mirror) Von der Kapazität eher ausreichend, denke werden nichtmal 500GB Daten drauf kommen. Also hauptsächlich für Backup (maximal von 2 PCs) und Daten (Musik,Bilder, Dokumente).

Da der Pool eh groß genug ist würde das gegen dedup sprechen. Da aber nicht soviele Daten drauf sind würde es eventuell dafür sprechen wenn man es nutzen kann ohne dass es zuviel Ressourcen benötigt. 9GB Ram sind eh vorhanden.

Den Pool neu zu erstellen ist auch kein zu großes Problem im Notfall.

Kann man von dem Pool denn noch Daten runterkopieren wenn man zuwenig Ram hat? Ich mein mehrere Tage wartezeit um Snapshots zu löschen hört sich eher unterirdisch an. Kommt man dann überhaupt noch an die Daten ran?
 
Zuletzt bearbeitet:
Illumos hat ja den integierten SMB-Kernel. Weiss jemand welche Version von SMB da unterstützt wird? SMB 1.0 oder SMB 2.0 oder SMB 2.2 (3.0)?
 
Da Nexenta in ihrer Beta 4.0.1 erst SMB 2.1 hinzugefügt hat tippe ich mal das das es bis jetzt nur SMB 2.0 ist aber ich glaube GEA hatte hier mal irgendwann was zu dem Thema SMB Versionen geschrieben habe es aber auf die schnelle nicht gefunden.
 
.
9GB Ram sind eh vorhanden.
Der war gut. :d
9GB Ram sind überhaupt nichts und gerade so mal das Minimum um ZFS performant zu betreiben, da bleibt dann nicht viel Ram für andere Dienste übrig. Dedup ist nur sinnvoll wenn man auch tatsächlich große Datenmengen deduplizieren kann, zum Beispiel wenn man hunderte VM-Images oder Backups von sehr vielen PCs macht die oft die selben Daten enthalten. Und selbst dann kann es eventuell besser sein einfach mehr Storage zu kaufen.

Hast du den Post von gea denn nicht gelesen? Lass es bitte mit Dedup, dein System erfüllt in keinster Weise die technischen Voraussetzungen und dein Datenaufkommen ist für den sinnvollen Betrieb von Dedup eher ungeeignet.
Mach einfach LZ4-Kompression an mittels zfs set compression=l4 poolname/fsname und gut ist.

Wenn du mit meinem Äußerungen immer noch nicht zu frieden bist empfehle ich dir noch die Lektüre folgender Blogposts:
ZFS Deduplication: To Dedupe or not to Dedupe...
OpenSolaris ZFS Deduplication: Everything You Need to Know
Oracle.com Jeff Bonwick's Blog - ZFS Deduplication

Wenn du effizientier Backupen willst schau dir mal Drive Snapshot (Rotation Script hier) an statt der Windows Sicherung.
 
Zuletzt bearbeitet:
Ich habe das Problem mit der nicht mirror-fähigen disk endlich gelöst. Ich habe kurzerhand einfach OmniOS manuell und napp-it via wget installiert - danach gabs keine Probleme mit dem hinzufügen einer zweiten Platte via zpool :) (ev. liegt da das Problem an der vorgefertigen VM?)
 
Ich habe 2 Festplatten mit cryptsetup und luks verschlüsselt, beide eingebunden und mit zfs einen zpool erstellt, sodass Daten auf beide platten gespiegelt werden.
Läuft super, nur wie kann ich den Pool unmounten amit ich mit cryptsetup luksclose die Festplatten richtig aushängen kann um den pc herunterzufahren?
Einfach zfs/zpool unmount reicht anscheinend nicht.
Zfs offline ist auch das falsche.
 
Ich habe das Problem mit der nicht mirror-fähigen disk endlich gelöst. Ich habe kurzerhand einfach OmniOS manuell und napp-it via wget installiert - danach gabs keine Probleme mit dem hinzufügen einer zweiten Platte via zpool :) (ev. liegt da das Problem an der vorgefertigen VM?)

Prima, ist auf jeden Fall eine wichtige Information.
(auch wenn ich die Ursache noch nicht nachvollziehen kann.)

- - - Updated - - -

Da Nexenta in ihrer Beta 4.0.1 erst SMB 2.1 hinzugefügt hat tippe ich mal das das es bis jetzt nur SMB 2.0 ist aber ich glaube GEA hatte hier mal irgendwann was zu dem Thema SMB Versionen geschrieben habe es aber auf die schnelle nicht gefunden.

aktuell ist SMB 1.0 dabei, Nexenta will gerade 2.0 bringen

http://nexentastor.org/news/33
http://comments.gmane.org/gmane.os.illumos.general/2282
 
oh da war ich wohl zu schnell dachte das wäre schon SMB 2.0
 
Ich habe 2 Festplatten mit cryptsetup und luks verschlüsselt, beide eingebunden und mit zfs einen zpool erstellt, sodass Daten auf beide platten gespiegelt werden.
Läuft super, nur wie kann ich den Pool unmounten amit ich mit cryptsetup luksclose die Festplatten richtig aushängen kann um den pc herunterzufahren?
Einfach zfs/zpool unmount reicht anscheinend nicht.
Zfs offline ist auch das falsche.

zpool export poolname
Das erfordert dann aber wieder einen expliziten zpool import poolname beim nächsten Hochfahren und ist nicht wirklich die Lösung die du suchst.
Das alles sollte eigentlich das nicht notwendig sein. Was für eine Distribution verwendest du? Ich kann alle meine Debian Server mit ZoL/dmcrypt einfach so herunterfahren, alles wird automatisch unmountet, unter Gentoo geht das auch problemlos. Ich denke das Problem liegt irgendwo anders.
 
Zuletzt bearbeitet:
Danke, genau das habe ich gesucht!
Automatisch starten geht nicht, da die verschlüsselten Festplatten nicht automatisch eingebunden werden (und auch nicht sollen).
Pc mit shutdown ausschalten ging vordem auch, aber ob er alles ordnungsgemäß aushängt... Keine Ahnung.
Da nutze ich lieber Export.
 
Klar geht das, einfach die zpools mittels Keyfile entschlüsseln welches auf der verschlüsselten Rootpartition liegt. Mein System ist vollständig verschlüsselt und startet in der Init.rd einen Dropbear auf dem ich nur rein das Passwort für die Root-Partition eingeben muss, danach werden alle andere Geräte automatisch entschlüsselt.
Dazu muss man nur die Geräte in der /etc/crypttab eintragen.
015_2.0TB_Samsung_HD203WI_seriennummerblablubb_dein_cryptdevice_name UUID=7fd30030-meine-uuuid--abc-dcb /root/keyfile luks

So muss man nur beim Starten einmalig das Passwort eingeben und nicht für alle Cryptdevices (bei mir über 60).

Er hängt alles vernünftig aus, da Bedarf es keiner manuellen Fummelrei, wir haben nicht mehr Kernel 2.4 aus der Vorsteinzeit. ;)
 
Zuletzt bearbeitet:
Gibt es eigentlich einen Vorschlag für ein "minimal 2-bay ZFS NAS" ? Was brauch man so an "minimaler" Hardware.
 
Klar geht das, einfach die zpools mittels Keyfile entschlüsseln welches auf der verschlüsselten Rootpartition liegt. Mein System ist vollständig verschlüsselt und startet in der Init.rd einen Dropbear auf dem ich nur rein das Passwort für die Root-Partition eingeben muss, danach werden alle andere Geräte automatisch entschlüsselt.
Dazu muss man nur die Geräte in der /etc/crypttab eintragen.
015_2.0TB_Samsung_HD203WI_seriennummerblablubb_dein_cryptdevice_name UUID=7fd30030-meine-uuuid--abc-dcb /root/keyfile luks

So muss man nur beim Starten einmalig das Passwort eingeben und nicht für alle Cryptdevices (bei mir über 60).

Er hängt alles vernünftig aus, da Bedarf es keiner manuellen Fummelrei, wir haben nicht mehr Kernel 2.4 aus der Vorsteinzeit. ;)


Ich bin nicht so der crypttab-Fan, zumal / nicht verschlüsselt ist, sondern nur die Festplatten mit dem zpool.
Ich hab mir ein Script geschrieben, dass ein Passwort einliest und damit dann alle festplatten entschlüsselt und den zpool mounted.
Und eben ein script zum runterfahren in umgekehrter Reihenfolge.
Der Desktop Pc (zpool läuft nur auf dem Backup-Rechner) hat nur eine Festplatte, da lass ich das luks per passworteingabe beim Starten entschlüsseln.
 
Besteht eigentlich die Möglichkeit gleich bei der Installation von OmniOS_r151008j die LZ4-Kompression für rpool zu aktivieren?
Wenn ja, wie?
Wenn Dies nicht möglich ist, wie ist dann die Vorgehensweise rpool nachträglich komplett zu komprimieren, da dieses Feature ja nur neuere oder geänderte Dateien komprimiert.
 
Nachträglich komplett zu komprimieren wäre mit zfs send / receive möglich und Neuinstallieren des Bootloaders. Siehe manpage parameter -p (Send properties). So kann man auch "gededupte" Daten "entdedupen". Aber ist das nur für die paar Daten wirklich so wichtig? ;)

Ansonsten wäre es doch sicherlich möglich das Installer-Script von omniOS um ein zfs set compression=lz4 zu erweitern.
 
Zuletzt bearbeitet:
Nachträglich komplett zu komprimieren wäre mit zfs send / receive möglich und Neuinstallieren des Bootloaders. Siehe manpage parameter -p (Send properties). So kann man auch "gededupte" Daten "entdedupen". Aber ist das nur für die paar Daten wirklich so wichtig? ;)

Meine Boot-HD ist eine kleine 2.5 Zoll HD - nicht sehr schnell
Der Gedanke war jetzt das Booten dadurch zu beschleunigen, wenn der rpool komprimiert ist.

Ansonsten wäre es doch sicherlich möglich das Installer-Script von omniOS um ein zfs set compression=lz4 zu erweitern.
In die Shell kommt man ja bevor das Setup angestoßen wird - ich wüsste jetzt aber nicht wo ich das Installscript suchen müsste und wo die Option einzufügen wäre.
 
Ich hab bei einer Neuinstallation von OmniOS nachträglich noch eine Netzwerkkarte hinzu gesteckt.
Eigentlich dachte ich, dass nach dem Neustart die nic beim aufrufen des Befehls
# dladm show-phys
mir jetzt die neue Karte anzeigt und ich Diese dann konfigurieren kann.
Falsch gedacht. Wie aktiviere ich die Karte?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh