Anfängerfragen - Linux Neuling? Hier ist der richtige Platz für deine Fragen (2)

  • Ersteller Gelöschtes Mitglied 45455
  • Erstellt am
@Elmario : Ich habe die Tage mal einen Thread im Wine-Forum erstellt. Sehr aktiv scheint man dort nicht zu sein, ich habe als einzige Antwort bisher "Ja, das gleiche Problem habe ich auch" von einem anderen User. Das Forum schreckt aber auch neue Nutzer ab: eine Registrierung nur mit Beantwortung von einer linuxspezifischen Sicherheitsfrage, für die ich erst mal Google bemühen musste, dazu müssen die ersten drei Threads und Posts manuell von einem Admin freigeschaltet werden.
Wäre natürlich schade, wenn das an so einer Kleinigkeit scheitert :(
Bleibt wohl nur noch etwas abzuwarten, und dann einen Bugreport zu schreiben.
Ich habe das ja hier jetzt nachvollzogen, mit dem selben Ergebnis, könnte mich dort dann auch anschließen, damit es vielleicht eher einer der gnädigen Entwickler erhört xD
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wäre natürlich schade, wenn das an so einer Kleinigkeit scheitert :(
Bleibt wohl nur noch etwas abzuwarten, und dann einen Bugreport zu schreiben.
Ich habe das ja hier jetzt nachvollzogen, mit dem selben Ergebnis, könnte mich dort dann auch anschließen, damit es vielleicht eher einer der gnädigen Entwickler erhört xD

Gerne, dann bekomme ich meinen 3. Post hin, damit ich da endlich frei schreiben kann. :d
 
Was ist denn das für bekloppte Moderation dort?
 
Gerne, dann bekomme ich meinen 3. Post hin, damit ich da endlich frei schreiben kann. :d
Ich fürchte nicht, weil die Bug-Seite wieder was Anderes ist ;)
Aber würde vorher den Post im Forum auch noch ein oder zwei Mal bumpen.
Beitrag automatisch zusammengeführt:

Was ist denn das für bekloppte Moderation dort?
Sowas hat's doch noch in vielen Foren. Ist doch auch immer noch besser, als die immensen Spam-Wellen, mit denen z.B. HWLuxx geschlagen ist ;)
 
Zuletzt bearbeitet:
legst du dann die Snapshots direkt auf dem Wechselmedium an oder erstellst du bloß eine Sicherungskopie davon?

Direkt dort. Ich snapshotte erst das Subvolume mit meinem "/" drauf und sende diesen Snapshot dann mit "btrfs send" in Richtung externen Datenträger. Den Snapshot lösche ich jedoch nicht, sondern erstelle einem Symlink ".current" da drauf. So kann ich das nächste Backup dann mit "btrfs send -p .current" inkrementell erstellen und dann einfach alle Snapshots auf der internen SSD mit Ausnahme des Snapshots, auf den der Symlink zeigt, löschen. Lokal habe ich also nur einen einzigen Snapshot. Das reicht, um nach einem fehlgeschlagenen Update etc. das System wieder lauffähig zu kriegen. Auf der externen SSD sind dann die historischen Backups.

Wenn die Snapshots direkt auf dem Wechselmedium liegen muss dieses dann auch mit Btrfs formatiert sein?

Kann, muss aber nicht. "btrfs send" schreibt nach stdout. Du kannst den Stream auch mit "btrfs send /my_snapshot > /my_snapshot.btrfs" auch in ne Datei schreiben und mit "cat /my_snapshot.btrfs | btrfs receive /" wiederherstellen. So klappen auch inkrementelle Backups. Aber bei den inkrementellen Backups hab ich keine Ahnung wie man die dann wiederherstellt. Möglicherweise mit "cat /my_snapshot.btrfs | btrfs receive / && cat /my_snapshot_incremental.btrfs | btrfs receive /", aber ich hab es nie ausprobiert. Wenn du es herausfindest, sag mir bitte Bescheid, denn ich hätte die externe SSD sehr gerne unter XFS, damit ich etwas weniger von Btrfs abhängig bin.
 
Frage an die Arch + systemd Freunde :)

Ich habe auf einem kleinen Scan/Printserver hier arch laufen, und dort man einen CIFS mount eingerichtet, der automatisch eine Remote-Folder auf dem USB-Stick am Router mounten soll, sobald das LAN nach dem Booten verfügbar ist, damit die Scans dolrthin gespeichert werden können.
Das hat auch immer funktioniert, nur habe ich kürzlich was am LAN geändert und nun müsste ich die Zugangsdaten, den Sharename oder was auch immer ändern - nur finde ich nicht mehr, wo und wie ich diesen Mount beim Boot durchführen lasse.
Sieht in den debugmessages so aus:
39.535964] IPv6: ADDRCONF(NETDEV_CHANGE): wlan0: link becomes ready
[ 39.743665] 8021q: 802.1Q VLAN Support v1.8
[ 46.305056] FS-Cache: Netfs 'cifs' registered for caching
[ 46.319675] Key type cifs.idmap registered
[ 47.250516] CIFS VFS: cifs_mount failed w/return code = -6
[ 47.284285] CIFS VFS: cifs_mount failed w/return code = -6

[ 109.734923] systemd-journald[181]: Received SIGTERM from PID 1 (systemd).
[ 109.747475] systemd[1]: Stopping Journal Service...
[ 109.789809] systemd[1]: systemd-journald.service: Succeeded.
[ 109.811725] systemd[1]: Stopped Journal Service.
[ 109.855852] systemd[1]: Startup finished in 3.937s (kernel) + 1min 33.336s (userspace) = 1min 37.273s.
[ 110.092837] systemd[1]: Condition check resulted in Journal Audit Socket being skipped.
[ 110.136199] systemd[1]: Starting Journal Service...
[ 110.307168] systemd[1]: Stopping udev Kernel Device Manager...
[ 110.353572] systemd[1]: systemd-udevd.service: Succeeded.
[ 110.360875] systemd[1]: Stopped udev Kernel Device Manager.
[ 110.469467] systemd[1]: save-ram.service: Succeeded.
[ 110.909361] systemd[1]: Started Journal Service.
Denke mal es wird ein systemd target sein, o.ä. (Vielleicht auch eine Funktion von diesem "wifi-menu", das die WLAN-Verbindung herstellt, oder gibt's da noch andere, evtl.s peziell dafür vorgesehene Anlaufstellen? HAbe das damals ziemlich sicher nach irgendeinem Tutorial gemacht.. Habe die direcories in systemd schon durchgeschaut, aber wurde nicht fündig.. Wie finde ich das wieder? :)
 
Zuletzt bearbeitet:
Kennt sich jemand mit MuPDF aus? Ich möchte aus einer PDF Tabellen extrahieren können. Da gibt es viele Möglichkeiten wie z. B. Okular installieren. Nur möchte ich nicht so viele unnötige Abhängigkeiten mitschleppen müssen.
Jedenfalls gibt es für MuPDF noch PyMuPDF, das Bindings und weitere Skripte mitbringen soll. Das Skript soll wohl https://github.com/pymupdf/PyMuPDF/wiki/Extracting-Tables-from-Documents-(GUI) sein.
https://pymupdf.readthedocs.io/en/latest/faq/#how-to-extract-tables-from-documents
Nur verstehe ich nicht, wie man das benutzen soll. Kann das bitte jemand für Menschen verständlich erklären? :fresse:
 
Also das Script soll man doch einfach starten und es sollte ein GUI öffnen, sowie einen Dialog um das PDF auszuwählen aus dem extrahiert werden soll.
Sofern man den Kram im dem Krampfdschungel aus pip, virtualenvn und nsowieso nicht funktionirenden Wheels auch funktionsfähig installiert bekommt.
Pyhton ist IMHO schlimmer als ein Baum von 1000 Abhängigkeiten..
 
Edit: falscher Thread
 
Zuletzt bearbeitet von einem Moderator:
Wie du ein System komplett nur mit Windows betreiben willst, dann ist das ein Windowsproblem, keine Linuxfrage.
Um diesen Zustand herzustellen solltest du schließlich auch Windows-Tools verwenden (denn sonst wärst du ja nicht vollständig von Linux weg)
-Die zusätzliche Partition löschen sollte über die Datenträgerverwaltung gehen (falls es das in Windows10 noch userzugänglich gibt).
-Danach müsstest du die bestehende Windows Partition vergrößern, so dass sie den gesamten Platz einnimmt, was mit dem selben Tool gehen könnte.
-Und am Ende den Bootloader neu schreiben, was wohl ungefähr so geht: https://www.heise.de/tipps-tricks/Windows-10-Bootmanager-reparieren-so-geht-s-4268553.html
 
Zuletzt bearbeitet:
(falls es das in Windows10 noch userzugänglich gibt).
Das zumindest kann ich bestätigen (unter Computerverwaltung - Datenträgerverwaltung). Entscheidend ist natürlich dann, den Bootloader neu zu schreiben, wie du bereits sagtest. Dürfte wohl mit einem Win10-Bootmedium funktionieren.
 
@Fallwrrk
Sehr interessanter Ansatz! Da werde ich mir etwas von abschauen ;)
Sind die Snapshots auf dem externen Datenträger denn nach wie vor read-only?
 
@Der Spaßmacher Jein. Das ist wieder n Punkt, wo man Btrfs' Immaturität erkennt. "btrfs receive" setzt das Subvolume zwar auf read-only, aber erst NACH dem vollständigen Empfang. Heißt während der Transfer noch im Gange ist, kann jeder, der Schreibzugriff auf eine Datei in dem Subvolume hat, diese auch beschreiben. Wer es also drauf anlegt, kann die Backups inkonsistent machen. Das wird besonders dann ein Problem, wenn man berücksichtigt wie "btrfs send" arbeitet. Bei inkrementellen Backups werden die zu sendenden Daten nämlich basierend auf einem anderen Quellsnapshot auf dem GLEICHEN Datenträger ermittelt.

Stell dir vor du hast in deinem Topvolume ein Subvolume "@home" mit deinem "/home" drin und hast das Topvolume nach "/.toplevel" gemountet, damit du Zugriff drauf hast. Davon möchtest du einen Snapshot machen und diesen dann an einen externen Datenträger, welcher nach "/mnt/external" gemountet ist, senden:
Code:
% btrfs subvolume snapshot /.toplevel/@ /.toplevel/@home_2020-05-01T00:53:32Z
% btrfs send /.toplevel/@home_2020-05-01T00:53:32Z | btrfs receive /mnt/external
Es ist wichtig zu wissen, dass der Name eines Subvolumes zum Subvolume gehört. Umbenennen ist also nicht drin, wenn das Ding read-only ist und würde auch inkrementelle Backups kaputt machen (man muss also wieder ein neues initiales Backup erstellen). Dementsprechend muss bei "btrfs receive" auch nur das Verzeichnis angegeben werden. Das entgültige Backup ist also in "/mnt/external/@home_2020-05-01T00:53:32Z" zu finden.

Jetzt hat allerdings irgendwer oder irgendwas während dem Transfer des Subvolumes die Datei "/mnt/external/@home_2020-05-01T00:53:32Z/username/Präsentation.odp" gelöscht. Die fehlt also im Backup. Das ist beschissen. Viel beschissener ist, dass sie auch so schnell nicht wieder im Backup auftauchen wird. Wenn wir jetzt nämlich eine dreiviertel Stunde später ein weiteres inkrementelles Backup erstellen...
Code:
% btrfs subvolume snapshot /.toplevel/@ /.toplevel/@home_2020-05-01T01:39:32Z
% btrfs send -p /.toplevel/@home_2020-05-01T00:53:32Z /.toplevel/@home_2020-05-01T01:39:32Z | btrfs receive /mnt/external
...geben wir die Basis des inkrementellen Backups mit "-p" an. Und zwar NUR beim "btrfs send", nicht beim "btrfs receive". Das "btrfs receive" macht dann ein Snapshot von dem Subvolume, welches bereits in "/mnt/external" liegt und den gleichen Namen hat wie das, welches in "-p" mitgegeben ist und patcht dann nur den Diff, den es von "btrfs send" bekommt, drüber. Die Datei wird also erst dann wieder im Backup auftauchen, wenn sie auf dem sendenden Datenträger vollständig neu geschrieben wurde. Ansonsten fehlt sie für immer.

Ich bin ehrlich: Ich mag Btrfs. Aber für mich ist es nur eine Übergangslösung, bis es eine andere Möglichkeit gibt inkrementelle und konsistente Backups zu machen. Möglichkeiten wie "rsync" funktionieren nämlich nicht mit sich dauernd ändernden Daten, wie Datenbanksysteme oder VMs. Und zudem müssen sie die Daten per Prüfsumme etc. vergleichen, was zwangsläufig langsamer ist. Btrfs macht dir neue inkrementelle Backups in 200ms.
 
Zuletzt bearbeitet:
Möglichkeiten wie "rsync" funktionieren nämlich nicht mit sich dauernd ändernden Daten, wie Datenbanksysteme oder VMs.
Snapshots auch nicht, bzw. nur wenn die Anwendung garantiert atomar schreibt (gibt es nur sehr selten) oder transaktionale Daten schreibt wie eine Datenbank im entsprechenden Modus. Wer wirklich auf Nummer sicher gehen will bzw. muss (weil die Zukunft des Arbeitgebers davon abhängt), der macht Backups direkt aus der Anwendung raus, also bei einer VM z.B. die Snapshotfunktion der VM oder bei einer Datenbank der Mechanismus, der vom Hersteller vorgesehen wurde.

Bei der Github Appliance, die wir früher hatten, mussten wir nachts die Appliance komplett runterfahren, um konsistente Backups fahren zu können. Das wird ein echtes Problem, wenn weltweit verteilt Leute darauf arbeiten, weil es dann kein "nachts" mehr gibt.
 
Glaube du hast das falsch verstanden. Dass ein solches Backup niemals zu 100% konsistent sein kann, ist mir bewusst. Aber rsync kann Dateien unter Umständen auch komplett verpassen, wenn ich sie während eines Backups in ein anderes Verzeichnis verschiebe, weil rsync das Quellverzeichnis der verschobenen Datei noch nicht gesichert hat, das Zielverzeichnis aber schon. Bei Btrfs-Snapshots kann ich mir sicher sein, dass der Snapshot exakt die gleichen Daten enthält wie das Quell-Subvolume, egal wer da grad irgendwas schreibt, verschiebt, kopiert etc.

Edit: Auch nicht richtig. rsync ist schon intelligent genug erst die Daten zu ermitteln, die überhaupt gesichert werden müssen. Heißt die Wahrscheinlichkeit, dass ne Datei verpasst wird, ist schon gering. Aber je größer der Verzeichnisbaum, desto eher kann das passieren.
 
Hallo!

Weiß vielleicht Jemand, wie der aktuelle Stand unter Linux bezüglich HEVC / H.265 GPU-Encoding mittels VA-API, also unter Hardwarebeschleunigung durch aktuelle AMD-GPUs aussieht?
Würde ja gerne mal auf ein neues Notebook mit 4800H/4900H upgrade, aber nur, wenn dort Encoding in gescheiter Geschwindigkeit und Qualität möglich ist. Ansonsten müsste es wohl leider etwas mit QuickSync werden..
 
Zuletzt bearbeitet:
GPU Encoding wird eher selten getestet und fehlt oft in der Entwicklung für *neueste* Hardware - außerdem wird das kaum richtig durch Benchmarks geprüft.
Ist teilweise auch wenig sinnvoll, da sich im Linux Kernel mit Hardware De-Encoding sehr viel ändert und viele APIs nicht allzu lange stabil sind.
8K, 4K, 10+ Bit HDR, Pixelformate, Codecs (AV1, VP9, H265) sind aktuell alles "variabel". - siehe zb https://trac.ffmpeg.org/wiki/HWAccelIntro und die verschiedenen APIs
Dazu kommen die Einstellungen (Qualität, Bitrate, CRF ...)

Testen per Kommandozeile zB mit
ffmpeg -threads 1 -i input.ext -vaapi_device /dev/dri/renderD128 -vcodec h264_vaapi -vf format='nv12|vaapi,hwupload' output.mp4

Auf meiner Fire Pro GCN 1.0 Karte macht er das aber mit nur 2.0fps (1080p)
Viel Spaß beim Benchmarken / Suchen - OBS (Open Broadcaster Software) Foren oder Phoronix hat ein paar Beiträge (zB hier)
"2400G = 80fps" (q)
 
Kann man in Ubuntu 20.04 den snap store austauschen? Ich komme mit dem Scheißteil nicht klar, das braucht unendlich lange bis es mal programme anzeigt und dann lassen sie sich nicht installieren mit "snap *paketname* has install-snap change in progress". :wut:
 
Was ist eine empfehlenswerte Standard-Backup-Lösung auf ein "NAS"?

Es gibt keine besonderen Anfroderungen (denke ich):
Ich hab einen headless Raspi4 (Gigabit, USB3) und eine 1TB SSD dranhängen. Bisher nutze ich den Pi nur als Samba-Share, ich werde den Pi aber eh neu aufsetzen (vermutlich wieder DietPi). Momentan würde ich für die backups auf manuelles Anstoßen setzen wollen und am besten natürlich inkrementell sichern und nicht jedesmal komplett.
Ich möchte gelegentlich meine Fotos dorthin "syncen" --> rsync?
(Dann würde ich gelegentlich meine "große" ext. HDD anschließen und einfach die Raspi-SSD komplett dorthin sichern.)

Gibt es Lösungen, die dafür optimal vorbereitet sind? Von Openmediavault wollte ich absehen, wegen der Schreiblast auf der microSD-Karte - oder hat sich das Pronblem mittlerweile durch Optimierung erledigt?
Verträgt sich das problemlos, wenn ich nebenher noch Seafile darauf laufen lasse und evtl. den Fotoordner dort lesbar mache?
Oder besser direkt alles nur über Seafile syncen?

Danke für sachdienliche Hinweise und/oder Links/Tutorials!

(Als Kirsche auf der Sahnetorte: Vom Laptop meiner Frau, auf dem hauptsächlich Win10 läuft, dürfte die Lösung auch gerne einfach nutzbar sein.)
 
Für Client Backups kann ich restic oder Duplicati empfehlen.
Beide laufen mit Windows sowie Linux und können die gängigsten Ziele als Backuport verwenden.

Bei Duplicati gibts dann lokal ein Webinterface über welches man Backups einrichten und starten kann.
 
Ich würde gerne einen Ordner auf meinem Rechner für das Netzwerk freigeben und in Kodi auf einen anderen Rechner hinzufügen, nur leider bekomme ich das überhaupt nicht gebacken. KDE bringt dafür sogar grafische Einstellungen mit, nur finde ich keinerlei Freigabe und zudem setzt sich diese Einstellung auch regelmäßig wieder zurück. Wie sollte ich vorgehen damit mein Vorhaben gelingt?
 
Mangels KDE-Erfahrung kann ich zu der Freigabe leider nichts sagen. Ich mach das normalerweise mit Samba. SSH wäre vermutlich auch eine Alternative, die Kodi gebacken kriegen müsste.
Hast Du die Freigabe mit den richtigen Berechtigungen eingerichtet.


Seh ich das richtig, dass Duplicati tatsächlich unter Linux und Windows nativ funktioniert, wohingegen restic über ein emuliertes Linux-Terminal läuft?
Letzteres hat einen zu niedrigen WAF (wife acceptance factor).....
 
Für Windows würde ich zu UrBackup greifen. Da installierst du dir dann den Server auf den RasPi, den Client auf die Windowbüchse und die Linux Rechner, die du sichern willst, und den Rest macht er fast von alleine. UrBackup ist jedenfalls das einzige mir bekannte Open Source Backupprogramm, das Windows VSS kann. Allerdings solltest du die Backupplatte dann permanent am RasPi hängen haben, sonst funktioniert das nicht.

So ganz klar war mir ohnehin nicht, warum du die "große" externe HDD nur gelegentlich anschließen willst? Da hast du hoffentlich nicht noch andere Daten drauf liegen, sonst sind die unwiederbringbar weg, wenn die Backupplatte mal abraucht.
 
Vielen Dank für die ganzen Empfehlungen.

Die grundlegende Idee ist eigentlich, dass ich von meinem Rechner Fotos auf die SSD sichere (nachdem ich die Fotos von der Kamera importiert & ausgedünnt habe) und einige wenige andere xlsx und pdf Dateien. Mein Desktop-Rechner hat nämlich (a) keine Freigaben und ist (b) auch nicht immer an. Dafür hängt eine Samsung Evo mit 1TB im ext. USB3-Gehäuse am Pi4, die immer verfügbar ist. So habe ich die Fotos etc auch schnell mal vom Laptop oder Handy zur Hand (daher bisher nur via Samba, perspektivisch vielleicht eher Seafile).
So ganz klar war mir ohnehin nicht, warum du die "große" externe HDD nur gelegentlich anschließen willst? Da hast du hoffentlich nicht noch andere Daten drauf liegen, sonst sind die unwiederbringbar weg, wenn die Backupplatte mal abraucht.
Außerdem habe ich noch eine 3,5 Zoll HDD mit 8 TB und ext. Netzteil - die möchte ich nicht immer laufen haben. Die hole ich nur gelegentlich aus dem Schrank und mache ein Backup von Musik, Videos und sonstigem Kram. Das wäre dann nach meiner Vorstellung nicht an ein automatisiertes urBackup zu koppeln, sondern ein händisches backup der SSD - die HDD ist ja nicht immer verfügbar.
Oder passt das nicht zusammen?
 
Kann man in Ubuntu 20.04 den snap store austauschen? Ich komme mit dem Scheißteil nicht klar, das braucht unendlich lange bis es mal programme anzeigt und dann lassen sie sich nicht installieren mit "snap *paketname* has install-snap change in progress". :wut:
Ich glaube das liegt einfach daran, dass der entsprechende Server so langsam ist, vielleicht auch snap so ineffizient. Ich bin inzwischen unter Manjaro, und auch da wird das GUI nach Aktivieren von Snap deutlich langsamer als mit. Einfach so austauschen kannst du den wohl auch nicht, weil die Pfade und die Konfiguration für die zu nutzenden Repos usw. ja völlig anders sind. Ist also schon ziemlich tief im System verankert, so ein Paketmanager.
 
hmm ist also eher ein Rückschritt als Fortschritt. :fresse2:

Mal was anderes:
Ich habe (u.a. in Unterordnern) viele Bilder/Videos. Diese möchte ich gerne nach Aufnahmedatum in solch eine Ordnerstruktur verschieben:

  • 2010
    • 04
    • 05
    • 06
  • 2011
    • 02
    • 05
usw.
Wie kann man das am besten unter Linux machen?
 
Manche Fotoverwaltung macht das lt. Dokumentation automatisch: google hilft mit der Suche durch zb diesen artikel

Ansonsten wurden solche Fragen auch bei stackoverflow gestellt und dort gibt es viele verschiedene Skripte als Startpunkt:
zb diese Frage oder diese
Anstatt ein skript zu Programmieren bzw. zu modifizieren, wenn man unerfahren ist, kann die einfache Sortierung via Datumsspalte und verschieben mit einem zweispaltigem Dateimanager
durchaus schnell sein

Mittels exiftool/mediainfo können auch Metadaten aus den Dateien extrahiert werden, anhand derer sie umbenannt werden können
 
hmm ist also eher ein Rückschritt als Fortschritt. :fresse2:

...
Snap ist durch die riesige Auswahl an zusätzlichen Paketen schon eine sehr gute Ergänzung, um die Auswahl an einfach zu installierenden Applikationen deutlich zu erweitern. Die Notwendigkeit sich andauernd Etwas selbst zu bauen wird dadurch doch schon viel seltener. Natürlich muss man auch Kompromisse eingehen. Man sollte Snap-Store ja auch nicht als Standardrepo verwenden, sondern nur dann, wenn die, besser ins System integrierten, distributionseigenen Repos nichts Geeignetes hergeben, weshalb die Geschwindigkeit nicht so ins Gewicht fallen sollte.

Hast du schon einmal versucht, snap über die Commandline zu nutzen, ob es da genauso langsam ist?
 
Zuletzt bearbeitet:
Mal was anderes:
Ich habe (u.a. in Unterordnern) viele Bilder/Videos. Diese möchte ich gerne nach Aufnahmedatum in solch eine Ordnerstruktur verschieben:

  • 2010
    • 04
    • 05
    • 06
  • 2011
    • 02
    • 05
usw.
Wie kann man das am besten unter Linux machen?

KDE hat die Funktion den Ordnerinhalt zu gruppieren, dass kommt dem sehr nahe wenn du nach dem Erdstelldatum sortierst, nur ist das dann keine Ordnerstruktur mehr sondern alles in einem :fresse2:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh