[Sammelthread] ZFS Stammtisch

Sagt mal, wie konfiguriere ich 3x160 GB und 2x500 GB am besten? Würde gerne eine Kombination als iSCSI-Target haben und die andere als Snapshot-Pool.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bei mir klappt die installation von napp-it auf einem oi_151a2 (mit einem selbsterstellten pre1 iso) nicht mehr. ist das zu erwarten oder kann mein iso kaputt sein?

anleitung für die iso-erstellung von weiter unten auf der seite hier: oi_151a_prestable0 Release Notes - OpenIndiana - OpenIndiana Wiki

Ich habe mein OI 151a upgedatet und kein Problem.

---------- Post added at 23:25 ---------- Previous post was at 23:14 ----------

Sagt mal, wie konfiguriere ich 3x160 GB und 2x500 GB am besten? Würde gerne eine Kombination als iSCSI-Target haben und die andere als Snapshot-Pool.

Es gibt bei ZFS keinen snapshot-Pool, da Snapshots bei CopyOnWrite Dateisystemen nicht durch Kopieren wie z.B. bei Apples TimeMachine erzeugt werden, sondern einfach dadurch, dass der aktuelle Datenbestand eingefroren wird. (Geänderte Daten werden immer neu geschrieben, nichts geändert, Snapdaten mit Referenz werden nicht überschrieben.)

Daher braucht ein ZFS snapshot auch zunächst keinen Platz und ist sofort angelegt. Selbst Tausende von Snaps sind kein Problem. Snapshots sind damit aber immer ein Teil des ZFS Dateisystems.

Zu den Platten, da kommt es darauf an, wo im Dreigespann Kapazität, Sicherheit und Schnelligkeit der Focus liegen soll. Man könnte aber zwei Pool anlegen. Einer als iSCSI storage und einer für backups und dann das ZFS incrementell replizieren. Dabei werden auch bei iSCSI nur geänderte Datenblocks übertragen.
 
Zuletzt bearbeitet:
Da die 160er Platten wohl schon aus dem Jahre 2004 herum sind, würde ich diese als three-way mirror einrichten und fürs iscsi benutzen. Die zwei 500er Platten dann als normalen Mirror für Snapshots - welche du aufheben willst.
 
Hi,

ich hätte eine Frage bezüglich read-only Pool und zfs send /receive.
Ich habe mir ein Script geschrieben, welches ich auch gerne veröffentliche, wenn es denn mal fertig ist.
Meine Frage dazu ist:
Ich nutze zfs receive mit den Options "-Fduv" und markiere den Backup-Pool als read-only, soweit so gut.
Ich habe nun festgestellt, dass ich trotzt read-only File-System ein "zfs receive" ausführen kann.
Wenn ich mit "touch" eine Datei auf dem Backup-Pool anlegen möchte, kommt ein "Read-only file system" Error, das zfs receive funktioniert allerdings trotzdem.

Muss ich den Pool also nicht erst wieder schreibbar machen? kann das sein?

LG Ghandalf
 
Da die 160er Platten wohl schon aus dem Jahre 2004 herum sind, würde ich diese als three-way mirror einrichten und fürs iscsi benutzen. Die zwei 500er Platten dann als normalen Mirror für Snapshots - welche du aufheben willst.

Danke, bluesunset. Die 160er Platten sind von 2009, 2010 und 2011. ;) Ich habe nie so viel Platz gebraucht.
 
@gea

ich glaube ich habe jetzt verstanden was das problem war:

ich hatte eine frische installation. mit pre1 ist auch das /dev IPS aktuallisiert worden,
ich musste jetzt die installation nochmal starten, dann lief auch der compiler durch und das script bis zum ende.
 
mir ist unter oi151a eine platte abgeraucht. die habe ich mit cfgadm aus dem sytem entfernt:

Code:
OpenIndiana (powered by illumos)    SunOS 5.11    oi_151a    September 2011
admin@sumi02:~$ cfgadm
Ap_Id                          Type         Receptacle   Occupant     Condition
c3                             scsi-bus     connected    configured   unknown
sata0/0::dsk/c4t0d0            disk         connected    configured   ok
sata0/1::dsk/c4t1d0            disk         connected    configured   ok
sata0/2::dsk/c4t2d0            disk         connected    configured   ok
sata0/3::dsk/c4t3d0            disk         connected    configured   ok
sata0/4::dsk/c4t4d0            disk         connected    configured   ok
sata0/5::dsk/c4t5d0            disk         connected    configured   ok
sata0/6                        sata-port    disconnected unconfigured unknown
sata0/7::dsk/c4t7d0            disk         connected    configured   ok
usb0/1                         unknown      empty        unconfigured ok
usb0/2                         unknown      empty        unconfigured ok
usb0/3                         unknown      empty        unconfigured ok
usb1/1                         unknown      empty        unconfigured ok
usb1/2                         unknown      empty        unconfigured ok
usb1/3                         unknown      empty        unconfigured ok
admin@sumi02:~$

in der napp-it (0.7g) -> Disks übersicht wird diese noch angezeigt, unter Disks -> Details nicht.
meine frage ist jetzt, wenn die ersatzplatte da ist, muss ich eventuell mit einer falschen anzeige unter napp-it rechnen
oder wird das dann richtig aktuallisiert sobald die platte mit cfgadm wieder den system zugefügt wird und ich kann diese dann als hot-spare dem zpool zufügen?
(ich möchte äusserst ungerne den server neustarten)
 
mir ist unter oi151a eine platte abgeraucht. die habe ich mit cfgadm aus dem sytem entfernt:

in der napp-it (0.7g) -> Disks übersicht wird diese noch angezeigt, unter Disks -> Details nicht.
meine frage ist jetzt, wenn die ersatzplatte da ist, muss ich eventuell mit einer falschen anzeige unter napp-it rechnen
oder wird das dann richtig aktuallisiert sobald die platte mit cfgadm wieder den system zugefügt wird und ich kann diese dann als hot-spare dem zpool zufügen?
(ich möchte äusserst ungerne den server neustarten)

Das Verhalten ist immer etwas vom verwendeten Controller und Treiber und dessen hotplug-Fähigkeit abhängig. Auch ist das Verhalten mit Port ID's wie c1t1d0 anders wie mit den langen SAS2 WWN's die normalerweise (nicht immer) eine individuell Platteneigenschaft darstellen. Generell kann man aber sagen, dass nach einem Neustart immer bekannte aber entfernte Platten nicht mehr angezeigt werden. Teilweise läßt sich die Platte aber mit detach entfernen. Wird eine neue Platte eingebaut, so erscheint diese normalerweise als neue Platte und kann mit disk replace oder pool-add hotspare eingebunden werden. Probleme kann es nur beim Tausch im gleichen Slot und nicht hotplug-fähigen Controllern geben. Insgesamt kann aber nichts passieren. Ein gerade ungültiger Befehl erzeugt nur eine Fehlermeldung.

In der neuesten 0.7 habe ich die Anzeige inaktiver Platten etwas geändert. Vielleicht updaten (ohne Neustart)
 
Hallo Gea,

Level 2 war bisher das Richtige bei OpenIndiana.
Bei der neuesten Version (und bei Solaris 11) scheint die Einstellung Level 3 notwendig zu sein

habe es eben testen können. Es stimmt, mit Level 3 anstatt wie vorher Level 2 klappt der Connect zum DC wieder.

btw: seit dem Update schaltet sich der Rechner mit dem nativen OI nicht mehr ab. Beim Init 5 bleiben die Lüfter und die Grafikkarte an. Altes OI 151a gebootet und alles ist wieder chick. Habe in der Bugliste keinen entsprechenden Eintrag finden können, auch Google hat mir nicht geholfen. Suche daher den Fehler ersteinmal wieder bei mir. Gibt es eine Systemeinstellung, die jetzt angepasst werden müsste, ähnlich der NTLM-Authentifizierung? Im BIOS habe ich schon alle ACPI und APM-Einstellungen durchprobiert.
 
Hallo zusammen,

ich habe leider beim Erstellen eines Raid-Z1 (unter Nexentastor Community Edition) nicht darauf geachtet, dass ich 2TB 4k Platten habe... :/ Jetzt habe ich eine sagenhafte Performance von ca. 40 MB lesend und ca. 5 MB schreibend pro Sekunde.
Kann ich die 4k Platten (Samsung HD204UI) durch 512er (5K3000 Hitachi) Stück für Stück ersetzen und mein RaidZ1 so wieder in Schwung bringen? Die Samsung Festplatten wollte ich sowieso loswerden... Das Ganze ist "nur" ein kleines 4x2TB RaidZ1.
 
Hallo,

das müsste meiner Meinung nach aber andere Ursachen haben. Mit WD20EARS, also auch 4k-Platten, sind viel höhere Werte, nah an 512b-Platten ereichbar.

Gruß Millenniumpilot
 
Hallo,
das müsste meiner Meinung nach aber andere Ursachen haben. Mit WD20EARS, also auch 4k-Platten, sind viel höhere Werte, nah an 512b-Platten ereichbar.
Gruß Millenniumpilot

So ist es. Bei meinen RAIDZ1 limitiert immer das Netz bei sequentiellen Transfers, egal ob Platten 4k oder 512b Sektoren. 4k Platten brechen erst richtig ein, wenn man kleine Random-Requests hat, die nicht aligned sind.

Bei so merkwürdigen Werten würde ich erstmal den rohen Netzwerkdurchsatz messen und mir, gerade wenn Lese- und Schreibwerte so weit auseinander liegen, Gedanken darüber machen, was für ein Protokoll ich benutze und ob das nicht synchron schreibt.

Bzgl. 4k Platten gibt es übrigens keinen Grund alle Modelle zu verdammen.
Ich habe in den letzen Monaten öfters Screens von neuen Modellen gesegen (Seagate), die über Smarttools ihre korrekte logische und physische Sektorgröße melden.
Darauf hab ich mal den ashift-Wert der Pools mit meinen WD30EARX überprüft : 12. Sieht so aus als würden es die Hersteller so langsam begreifen, wie man das READ_CAPACITY Kommando richtig implementiert :cool:
 
Leute, kann einer sagen ob napp-it/ZFS die HDDs in Spindown schicken kann, wenn diese nicht genutzt werden bzw. herumidlen?

Meine Idee ist, im ESXI den PERC5&i+4x2TB Hitachis (5K3000) an napp-it weiterzuleiten und den Storage als NAS nutzen.
 
Hallo,

prinzipell geht das. Mein OI mit durchgereichtem IntelSASUC8i macht dies, wenn ich keine VM auf dem ZFS laufen habe. Ob es bei Deiner Hardware geht, mag ich nicht zu sagen.
 
NexentaCore auf ZFS V.28 updaten

Info:
NexentaCore wurde auf Version 3.1 upgedatet

Update mit:
apt-get update
apt-clone upgrade

anschliessend unterstützt NexentaCore ZFS V.28 (gleiche ZFS Version wie OpenIndiana)

hierzu noch ein Nachtrag:

Nachdem ich dies so durchgeführt habe, blieb mein System nach einem reboot mit einem "grub>"-prompt stehen. Es sollte zusätzlich, noch vor einem reboot

installgrub stage1 stage2 /dev/rdsk/<diskid> (z.B. c0t0d0s0)

ausgeführt werden. Falls das Kind schon in den Brunnen gefallen ist, hat folgendes geholfen:

- Download NexentaStor-Community-3.1.2.iso
- iso booten bzw. nach Brennen von CD booten
- installer starten und mit F2 auf Console wechseln
- zpool import (um <diskid> zu erhalten)
- cd /boot/grub
- installgrub stage1 stage2 /dev/rdsk/<diskid>
- reboot

Quelle (engl.): Nexenta Project - Stuck in GRUB after zpool upgrade syspool - The Nexenta Project

Da nexenta.org offenbar bald offline geht bzw. umzieht, dies an dieser Stelle mal zusammengefaßt.
 
ZFS v28 Raid0 über 8 alte SAS HDDs

FreeBSD 9.0 System siehe Signatur, mit 2GiB RAM

dmesg
real memory = 4294967296 (4096 MB)
avail memory = 1997144064 (1904 MB)
ZFS NOTICE: Prefetch is disabled by default if less than 4GB of RAM is present;
to enable, add "vfs.zfs.prefetch_disable=0" to /boot/loader.conf.
ZFS filesystem version 5
ZFS storage pool version 28


Erstellen eines Raid0 über alle 8 HDDs.
storage# zpool create braindead /dev/mfid0 /dev/mfid1 /dev/mfid2 /dev/mfid3 /dev/mfid4 /dev/mfid5 /dev/mfid6 /dev/mfid7
storage# zfs list
NAME USED AVAIL REFER MOUNTPOINT
braindead 95.5K 532G 31K /braindead
storage# zpool export braindead
storage# zpool import braindead

bonnie++ Benchmark über das gesamte Raid, dauert ca. 5h!
storage# bonnie++ -d /braindead/ -r 2G -x 1 -s 531G -u root -g wheel
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
1.96,1.96,storage,1,1330143166,531G,,100,99,358881,89,63179,15,241,99,77993,14,201.6,15,16,,,,,24440,97,+++++,+++,22370,99,23099,98,+++++,+++,22880,99,462ms,1701ms,1479ms,54075us,281ms,602ms,13261us,67us,102us,26287us,30us,72us
storage#

Ausgabe aufbereitet als Tabelle mittels bon_csv2html
Version 1.96Sequential OutputSequential InputRandom SeeksSequential CreateRandom Create
SizePer CharBlockRewritePer CharBlockNum FilesCreateReadDeleteCreateReadDelete
K/sec% CPUK/sec% CPUK/sec% CPUK/sec% CPUK/sec% CPU/sec% CPU/sec% CPU/sec% CPU/sec% CPU/sec% CPU/sec% CPU/sec% CPU
storage531G10099358881896317915241997799314201.615162444097++++++++22370992309998++++++++2288099
Latency462ms1701ms1479ms54075us281ms602msLatency13261us67us102us26287us30us72us

storage# bonnie++ -d /braindead/ -r 2G -x 1 -s 532G -u root -g wheel
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...Can't write block.: No space left on device
Can't write block 69622560.
Ist wohl ein Rundungsfehler, deswegen 1GiB weniger oben ausgewählt.

Es versteht sich von selbst, das man ein RAID0 nicht ohne zeitnahe Backups betreibt.

Falls sich jemand über die geringe Geschwindigkeit wundert, hier greift nicht das Caching von ZFS, da zuwenig RAM verbaut wurde. Es ist alleine die Leistung der Festplatten. Der SAS HBA hat keinen Cache.
 
Zuletzt bearbeitet:
ich habe ein seltsames problem auf einem unserer storage server. hardware ist ein supermicro 933 mit supermicro H8DAE board, installiert ist oi151a. die kiste läuft ca 14 tage normal, dann plötzlich kann ich keinen tcp/ip dienst mehr erreichen, weder ssh noch napp-it frontend oder vnc server.
was lustig ist, der nfs server ist weiterhin aktiv und die gehosteten VMs laufen normal weiter - alsob nix ist, ping geht auch. ein identischer supermicro, der sich nur in den verbauten platten und deren config unterscheidet, zeigt sowas nicht.

hatte jemand sowas schonmal?
wie sollte ich vorgehen, um die fehlerquelle einzugrenzen?
 
ich habe ein seltsames problem auf einem unserer storage server. hardware ist ein supermicro 933 mit supermicro H8DAE board, installiert ist oi151a. die kiste läuft ca 14 tage normal, dann plötzlich kann ich keinen tcp/ip dienst mehr erreichen, weder ssh noch napp-it frontend oder vnc server.
was lustig ist, der nfs server ist weiterhin aktiv und die gehosteten VMs laufen normal weiter - alsob nix ist, ping geht auch. ein identischer supermicro, der sich nur in den verbauten platten und deren config unterscheidet, zeigt sowas nicht.

hatte jemand sowas schonmal?
wie sollte ich vorgehen, um die fehlerquelle einzugrenzen?

Nach einem Neustart geht alles wieder?
Beide Netzwerkanschlüsse mit Switch verbunden?
 
nach neustart ist alles wieder ok. alle NICs sind verbunden. ich werde die kiste mal abends/nachts auf den aktuellen build updaten, vielleicht hilft's.

Dann liegt es daran, dass du beide Nics verbunden hast. Das System verliert irgendwann mal über welche Nic es die Daten schicken soll.
Sorry sehr stümperhaft aufgedrückt.

Dieses Thema wurde letztmalig im Januar auf der Openindiana-Liste behandelt.

Entweder du meldest eine Nic ab oder du bündelst die beiden Nics (teaming oder aggregate oder grouping). Wie man das bei Oi macht kann ich dir leider nicht sagen.
Vielleicht kann @gea da weiterhelfen. :wink:
 
insgesamt sind je server 5x nics verbaut. 4x sind gebundled per IPMP und laufen auf einen separaten switch für das storage. 1x nic für kommunikation. ich habe auf der mailingliste geschaut, aber nix gesehn. hättest du vielleicht noch den link? das wäre super, danke!
 
insgesamt sind je server 5x nics verbaut. 4x sind gebundled per IPMP und laufen auf einen separaten switch für das storage. 1x nic für kommunikation. ich habe auf der mailingliste geschaut, aber nix gesehn. hättest du vielleicht noch den link? das wäre super, danke!

The OpenIndiana-discuss January 2012 Archive by subject Thread "CIFS performance issues"

"gebundled per IPMP"?? IPMP ist doch zur Ausfallsicherung und Lastverteilung zuständig und nicht trunking also "link aggregation".
Bring ich da was durcheinander?
 
Zuletzt bearbeitet:
The OpenIndiana-discuss January 2012 Archive by subject Thread "CIFS performance issues"

"gebundled per IPMP"?? IPMP ist doch zur Ausfallsicherung und Lastverteilung zuständig und nicht trunking also "link aggregation".
Bring ich da was durcheinander?

danke für den link. ich glaube bei mir hat das problem eine doppelte vergabe der ip-adresse aus dem ipmp bereich verursacht.
ich brauche das ipmp für den den fall das eine oder mehrere nics nicht mehr funktionieren.
 
Leute, helft mal bitte. Wo kann ich in napp-it überprüfen, ob sich die HDDs in Standby bzw. Spindown Modus befinden?
 
Zuletzt bearbeitet:
Interessant...

 
Netzwerk unter Solaris 11 einrichten...

Hallo zusammen,

hatte mich eine gute Zeit ausgeklinkt. Unter anderem weil alles lief. Nun habe ich gedacht ich probiere mal Solaris 11 aus. So sass ich gestern mit einem Kumpel der in einem Rechenzentrum die Solaris 10 Server betreut. Wie soll ich sagen - irgendwie ein Alptraum. Das Einrichten einer statischen IP alleine wird schon zum Alptraum. Die Befehle wurden scheinbar zum Teil geändert (gegenüber SE11). Nun bin ich gespalten - besser mal OpenIndiana ausprobieren? Und: Hat wer von Euch Solaris 11 am Laufen? Wenn ja - wie wurde der Zauber mit dem Netzwerk bewerkstelligt?
Aufgabenstellung ist gleich geblieben - simpler, sicherer Fileserver (hier HP Microserver).

Mit Freude sehe ich nebenbei die neue Anleitung (und Versionen) von gea. Danke.

Gruss
Otto
 
Hallo zusammen,

hatte mich eine gute Zeit ausgeklinkt. Unter anderem weil alles lief. Nun habe ich gedacht ich probiere mal Solaris 11 aus. So sass ich gestern mit einem Kumpel der in einem Rechenzentrum die Solaris 10 Server betreut. Wie soll ich sagen - irgendwie ein Alptraum. Das Einrichten einer statischen IP alleine wird schon zum Alptraum. Die Befehle wurden scheinbar zum Teil geändert (gegenüber SE11).

hallo Otto

Ist wirklich nicht nett.
Illumian, OpenIndiana, Solaris Express 11 und Solaris 11 machen das jeweils unterschiedlich und einer komplizierter als der andere. So wie bei Solaris 10 geht garnichts.

Napp-it und System - Netzwerk probieren.
Auf die ip-Adresse klicken und manuelle ip samt router und gateway angeben.

---------- Post added at 10:36 ---------- Previous post was at 10:30 ----------

Leute, helft mal bitte. Wo kann ich in napp-it überprüfen, ob sich die HDDs in Standby bzw. Spindown Modus befinden?

Ich habe mich damit noch nicht beschäftigt und würde den workaround "Ohr an den Rechner" oder ein Verbrauchsmeßgerät versuchen.
Die gibt es schon für ein paar Euro.
 
Zuletzt bearbeitet:
Leute, helft mal bitte. Wo kann ich in napp-it überprüfen, ob sich die HDDs in Standby bzw. Spindown Modus befinden?

Geht nicht mit napp-it.
In meinem Fall ist es so, dass ich 2 Pools habe. Bei dem Einen laufen die Mirror-Platten durch, beim Anderen werden die Platten nach 10 Minuten idle schlafen gelegt. Wenn ich jetzt von einem Windows PC auf diesem Pool zugreifen will, dauert es >45 sec. bis ich vollen Zugriff habe. So weis ich dann, dass die Platten dieses Pool im Spindown Modus waren.
Alternativ geh ich in den Keller und schau auf meinem Strommeßgerät nach.
 
Moin,

Hallo zusammen,
Die Befehle wurden scheinbar zum Teil geändert (gegenüber SE11). Nun bin ich gespalten - besser mal OpenIndiana ausprobieren? Und: Hat wer von Euch Solaris 11 am Laufen? Wenn ja - wie wurde der Zauber mit dem Netzwerk bewerkstelligt?
Aufgabenstellung ist gleich geblieben - simpler, sicherer Fileserver (hier HP Microserver).


ich musste mich auch umgewöhnen… von OSol auf SE11. S11 und SE11 machen das eigentlich gleich und es ist auch tatsächlich wiklich einfach einer NIC eine statische IP zu geben. Im Grunde sind das nur zwei, drei Kommandos:

Zuerst die Netzwerk-Ports finden mittels dladm…

dladm show-phys

Dann einem Gerät ein IP-Interface zuweisen, bzw. eines erzeugen:

ipadm create-ip <device>

Schlussendlich dem Teil eine IP geben:

ipadm create-addr -T static -a local=a.b.c.d/netzmaske <port>/v4 <- IPv4 Adresse

Das wärs schon. Ist doch eigentlich leichter, als dieses ganze /etc/hostname.xxx, /etc/netmasks usw.
Ich habe mehrere S11-Kisten laufen, ein paar in der Firma und ein HP N40L zuhause und ich bin sehr zufrieden mir S11… :)

Cheers
 
Zuletzt bearbeitet:
Moin,

ich musste mich auch umgewöhnen… von OSol auf SE11. S11 und SE11 machen das eigentlich gleich und es ist auch tatsächlich wiklich einfach einer NIC eine statische IP zu geben. Im Grunde sind das nur zwei, drei Kommandos:

Zuerst die Netzwerk-Ports finden mittels dladm…

dladm show-phys

Dann einem Gerät ein IP-Interface zuweisen, bzw. eines erzeugen:

ipadm create-ip <device>

Schlussendlich dem Teil eine IP geben:

ipadm create-addr -T static -a local=a.b.c.d/netzmaske <port>/v4 <- IPv4 Adresse

Das wärs schon. Ist doch eigentlich leichter, als dieses ganze /etc/hostname.xxx, /etc/netmasks usw.
Ich habe mehrere S11-Kisten laufen, ein paar in der Firma und ein HP N40L zuhause und ich bin sehr zufrieden mir S11… :)

Cheers

Hi,

das dachte ich auch... Hab mich an IT From All Angles » Solaris 11: Network Configuration Basics gehalten. Das ging unter SE11 immer bestens. Unter Solaris11 - nee.
Hab jetzt mal Openindiana auf dem Microserver, die monowall vergibt feste IPs an die MAC Adressen, Netzwerkconfig habe ich nun gar nichts geändert.
Nun rauscht es bei Teracopy mit 95 mb/s auf den Microserver (der Pool macht 200mb/s und im anderen Rechner ist eine SSD).
Aber eigentlich würde ih schon gerne per Hand vergeben und auch die zwei Intel Nics zu einer Aggregation...

Schönen Abend,
Otto
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh