kleiner Datenbank-"Server"

Luebke

Urgestein
Thread Starter
Mitglied seit
26.03.2010
Beiträge
2.983
Hallo,
ich brauche mal den Rat von Leuten, die sich mit Datenbank-Anwendungen auskennen bzw. deren Hardwareanforderungen. Ich habe hier aktuell einen alten Rechner als File- und Datenbankserver im Einsatz, der wie folgt aussieht:
- R5 3600X
- Gigabyte B450 Aorus M
- 16 GB Ram 3200er
- 1 TB SATA-SSD

Die SSD ist schon mal ganz klar ein Problem und wird auf jeden Fall durch eine M.2 ersetzt, da sie ständig bei 100% Auslastung hängt.
Bei der CPU läuft Kern #8 öfter mal auf 100% während die übrigen kerne eher geringe Last haben, aber zumindest alle arbeiten.
Ram ist um 70% Auslastung

Option 1: einfach die SSD durch eine größere M.2 tauschen, das gibt das alte Brett ja noch her.
Option 2: mal wieder n bissel Geld in die Hand nehmen und nach Jahren die Kiste mal gegen was modernes tauschen und den Rechner für die Kiddies zum Spielen freigeben.

Eure Hilfe brauche ich für Option 2: was wäre hier ein sinnvoller Ersatz für mein Einsatzgebiet? Gaming ist nicht gewünscht, dafür habe ich wie gesagt andere Rechner. Und es sollte einigermaßen günstig sein. Also kein 9950X3D. Sparsam und zweckmäßig sind die Prioritäten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich empfehle folgendes:

Intel Core i5-12400F

Prozessor: Intel Core i5-12400F
RAM: 16 GB DDR4 3200 MHz
Speicher: 1 TB NVMe SSD
Grafik: integrierte Intel UHD Graphics
Betriebssystem: Windows 11 Home
 
Bei der CPU läuft Kern #8 öfter mal auf 100% während die übrigen kerne eher geringe Last haben, aber zumindest alle arbeiten.
Ist das ein Problem? Entstehen in diesen Situationen irgendwie "Hänger/Lags" die stören? Falls ja, stören sie so sehr, das man nur dafür das Geld für Option 2 ausgeben will?

Für eine schnellere SSD brauchst du ja kein neues System. RAM reicht noch und selbst wenn nicht, könnte man den auch einfach erweitern ohne gleich ein neues System zu brauchen. Bleibt also nur das eine Problem das ein Kern ab und zu mal auf 100% rödelt.
Und wenn ausschließlich nur ein Kern auf 100% läuft, deutet das ein Singlecoreproblem hin. Dafür könntest du auch nur deinen 3600X durch z.B. einen 5600(X) tauschen. Das geht auf deinem Board höchstwahrscheinlich und der hat doch nochmal eine ganze Ecke höhere Singlecoreleistung als die 3000er.

Abgesehen davon könnt man auch mal genauer nachforschen, was diese sporadischen 100%-Last verursacht. Vielleicht lässt sich das ja auch anderweitig beheben? Oder es hängt sogar mit der hohen SSD-Auslastung zusammen und wäre sogar einfach weg, sobald eine NVMe verwendet wird?
 
Zuletzt bearbeitet:
Welche Software bzw Anwendung?

Ohne detaillierte Informationen ist eine Beratung mmn nicht sinnvoll möglich
 
@Kail : das wäre ja keine so große Veränderung. Gibt es einen Grund, warum du einen Alderlake empfiehlst?
Und btw: der 12400F hat keine IGP. ;)

@Liesel Weppen : Ich vermute dass die Lags primär von der zu langsamen SSD kommen und der CPU-kern kein Problem darstellt, aber das kann ich schlecht testen wenn ich den anderen Flaschenhals nicht ausklammern kann. Option 1 ist auch mein Favorit, aber wenn ich schon neu installieren muss, dann macht halt die Überlegung Sinn, ob ich die Gelegenheit nicht für etwas Neues nutze, bevor ich in einem Jahr wieder von vorne anfange, weil dann der Rest zu langsam wird. Aus dem Grund würde ich auch wenn kein CPU-Upgrade machen, sondern den alten Rechner weiterreichen und etwas neues hinstellen, womit ich lange meine Ruhe habe. Mir fehlt halt einfach meist die Zeit mal eben alles neu aufzusetzen, vor allem eben bei dem Rechner, der zuverlässig laufen muss. Darum ist es mir wichtig, da lange nicht mehr ranzumüssen.

@VorauseilenderGehorsam : nichts von der Stange. Eine Datenbank-Software speziell für die Firma wo ich arbeite. Der Rechner dient nur dazu, die Datenbank zu betreiben und für Datensicherung. Gearbeitet wird am Notebook.
 
Zuletzt bearbeitet:
Option 1 ist auch mein Favorit, aber wenn ich schon neu installieren muss
Warum musst du neu installieren?

neue NVMe reinstecken, alte SSD auf neue NVMe klonen, alte SSD wegwerfen...

Und warum ist der Rechner, bzw. das was darauf läuft nicht virtualisiert, so das du bei einem Wechsel andernfalls maximal den Hypervisor neu installieren müsstest, aber die VMs/Container mit den eigentlichen Diensten trotzdem einfach nur übernimmst? ;)
Vorallem wenn der Rechner auch noch zuverlässig laufen muss?
 
Du hast recht, wenn ich auf eine NVMe einfach klonen kann, kann ich das auch erstmal ausprobieren. Und falls die CPU dann doch noch für die Lags mitverantwortlich sein sollte, habe ich nichts verloren und kann immernoch wechseln.
Ich glaube so mache ich es auch. :)
Hast du einen Tip für ein gutes Programm zum Clonen?

Das mit der VM ist ne gute Idee, da habe ich noch gar nicht drüber nachgedacht. Muss ich dran denken wenn ich dann den Rechner wechsel und neu aufsetze, das gleich so einzurichten. :)

Danke für die Hilfe!
 
Das mit der VM ist ne gute Idee, da habe ich noch gar nicht drüber nachgedacht. Muss ich dran denken wenn ich dann den Rechner wechsel und neu aufsetze, das gleich so einzurichten. :)
Nicht nur eine VM, sondern ggf. sogar mehrere. Z.B. eine nur für die Datenbank und eine nur für Fileserver.

Macht unabhängig von der Hardware, eben auch z.B. sogar von Festplattenparitionen, erleichtert Backups massiv, weil du einfach die ganze virtuelle Festplatte (quasi nur eine einzelne Datei auf dem Host) kopieren kannst. oder eben auch eine ganze VM auf einen anderen Rechner werfen kannst, wenn du z.B. mal feststellst, das du Datenbank und Fileserver lieber doch auf zwei verschiedenen (physischen) Rechnern hättest.

Proxmox drauf installiert und alles weitere dann in eine oder mehrere VMs oder Container. Funktioniert echt ganz einfach. Remotezugriff über Browser hast dabei auch gleich automatisch.

Rechenleistung kostet das kaum... allerdings können dann da nur 16GB RAM gerne mal knapp werden, weil das OS in jeder VM braucht ja auch RAM.
 
Das Thema VM gehe ich eh erst beim Rechnerwechsel an, da ich wie gesagt unter chronischem Zeitmangel leide und der hat dann definitiv mehr als 16 GB Ram. ;)
"Damals" als der 3600X angeschafft wurde, waren 16 GB halt noch üppig bemessen, aber die Zeit bleibt ja nicht stehen. ^^
 
So wie ich den Thread hier verstehe bringt der einfache Wechsel auf ne m.2 erstmal nix. Da laeuft ne Datenbank drauf, darum sollte ne SSD her, welche nach 2 minuten nicht hoffnungslos zusammenbricht. Aber dann sind wir schnell in der prof. Beratung. Da gehoert dann der Dienstleister her, der das Ding verbrochen hat.
 
Warum denkst du, dass eine M.2 hier nichts bringt? Die hat doch eine bedeutend höheren Datendurchsatz :confused:
Nur zur Klarstellung: aktuell verwende ich noch eine alte SATA-SSD (ergänze ich auch mal im Post #1)
 
Weil du warscheinlich ne Enterprise SSD brauchst, die keinen madigen QLC Zellen verbaut hat und deren Angaben zum Durchsatz in Steady-State angegeben wird.
Dein Problem sind warscheinlich nicht die 500mb/sec wo nen SATA Interface limitiert. Sondern dass ne ‚normale‘ SSD ab ner gewissen Zeit unter Dauerfeuer auf nen paar MB/Sec zusammenbricht weil sie mit sich selbst beschaeftigt ist.
 
Ich sag mal so, die aktuelle SATA-SSD läuft jetzt schon ein paar Jährchen und das Problem ist erst in letzter Zeit vermehrt aufgetreten. Ich mutmaße mal weil die Datenbank mit der Zeit halt kontinuierlich wächst. Die Anwendungen sind schon seit Jahren die gleichen. Denkst du, dass eine M.2 trotzdem nicht den Unterschied machen würde?
 
Das weiss ich nicht was hilft. Dafuer braeuchten wir brauchbare Informationen und Performance Metriken. So nen SQL Server kann diese Dinge ausspucken. Vllt. Sind die queries scheisse programmiert. Keine Ahnung :d (aber der Rest hier im Thread weiss es unter Garantie auch nicht)
 
Warum denkst du, dass eine M.2 hier nichts bringt? Die hat doch eine bedeutend höheren Datendurchsatz :confused:
Erstmal ist M.2 der falsche Begriff, denn auch eine M.2 SSD kann nur mit SATA (statt NVMe) laufen.

Desweiteren ist der bedeutend höhere Datendurchsatz von NVMe SSDs überwiegend nur bei sequentiellen Zugriffen mit großen Blöcken am Stück so massiv. Wenn du 50GB am Stück kopierst, dann limitiert SATA bei 500MB/s und eine NVMe trumpft mit 6GB/s auf.

Wenn du dagegen 50.000 einzelne Zugriffe die jeweils nur 1kB lesen hast, dann bricht sowohl die SATA als auch die NVMe einfach ein. Da ist eine NVMe dann kaum noch schneller, wenn überhaupt noch schneller.

Für Datenbanken... zumindest wenn diese auch entsprechend gefordert werden... braucht man nicht Platten mit möglichst hohen Maximalbandbreiten, sondern welche die schnell reagieren und bei vielen kleinen Zugriffen möglichst schnell sind. Da guckt man am besten erstmal nach den IOPS-Werten der jeweiligen Platten.

Aber wie p4n0 schon geschrieben hat, ohne genauere Infos, WAS da eigentlich läuft, kann man nicht viel sagen. Deswegen mein Hinweis viel weiter oben, das man vielleicht erstmal gucken sollte ob man rausfinden, WAS diese Probleme überhaupt verursacht.
 
Weil du warscheinlich ne Enterprise SSD brauchst, die keinen madigen QLC Zellen verbaut hat und deren Angaben zum Durchsatz in Steady-State angegeben wird.
Hast du evtl. eine Empfehlung für eine brauchbare 2 TB SSD?


Edit: dann sollte ich den Softwarehersteller wohl erstmal kontaktieren. Dachte eigentlich ich könnte das durch ein simples Upgrade fixen, aber da habe ich offenbar zu einfach gedacht. ^^
 
Hast du evtl. eine Empfehlung für eine brauchbare 2 TB SSD?
Nein. Um nen nachvollziehbares Beispiel zu bringen.
Problem: Mein auto Klappert
Antwort: ‚mach halt neue Reifen drauf‘.
Ungefaehr so laeuft das hier gerade.
 
Hab´s kapiert. Die Posts kommen grad schneller als ich antworten kann, darum hat sich das überschnitten, aber nach @Liesel Weppen s letztem Post hab ich das auch geschnallt ^^

Danke für eure Hilfe. :)
 
Weil du warscheinlich ne Enterprise SSD brauchst, die keinen madigen QLC Zellen verbaut hat und deren Angaben zum Durchsatz in Steady-State angegeben wird.
Dein Problem sind warscheinlich nicht die 500mb/sec wo nen SATA Interface limitiert. Sondern dass ne ‚normale‘ SSD ab ner gewissen Zeit unter Dauerfeuer auf nen paar MB/Sec zusammenbricht weil sie mit sich selbst beschaeftigt ist.
Ggf. wäre, je nach workload, auch ne Intel Optane (aber nicht die Billigvariante) das Maß der Dinge. Die sind nicht nur schnell, sondern sind auch kaum totzubekommen.
 
So ist es.
Bei Datenbanken spielt die Datenübertragungsrate nur eine rel. kleine Rolle.
Entscheidend sind da die IOPS, die die SSD schafft.
Enterprisemodelle sind auf möglichst hohe IOPS optimiert, auch was die Firmware angeht.
Nicht ohne Grund hat man früher, bevor es SSDs gab, in Servern Festplatten mit 10.000 oder 15.000 UPM benutzt.
Die Datenübertragungsrate dieser Modelle war nur marginal höher als bei Festplatten mit 5400 oder 7200 UPM, aber die Zugriffszeiten waren deutlich kleiner und damit die möglichen IOPS deutlich höher.
Die Intel Optane ist bzgl. IOPS so ziemlich das beste, was es gibt.

Meine Vermutung bzgl. der SSD ist, das die einfach am Ende ihrer Lebensdauer angekommen ist.
Gerade Datenbankanwendungen stressen die NANDs doch sehr.
Mach mal einen Check mit CrystalDiscInfo.

Und was Virtualisierung angeht:
Das ist immer empfehlenswert.
Bei Hyper-V z.B. ist auch ein Liveumzug einer laufenden VM auf einen anderen Host möglich.
Da kann man schnell mal die VMs auf einen anderen Host umziehen und dann ohne Ausfallzeiten z.B. einen Host warten (z.B. Updates machen, Hardware tauschen etc.) und danach schiebt man die VMs wieder live auf den alten Host zurück.
Oder man zieht eine VM auf eine neue Hardware um.
Vom laufenden Umzug bekommen die Anwender rein gar nichts mit.
Der Umzug geht ohne Ausfallzeiten im Livebetrieb.

Auf dem Blech sind hier im Betrieb nur noch Hostsysteme installiert, die VMs hosten.
Für Testzwecke kann man auch mal schnell eine neue VM machen und nach dem Test wieder wegwerfen.
Die VMs müssen auch nicht Windows sein.
 
Du hast zwar nicht gesagt um welche DB es sich genau handelt, aber normalerweise haben die alle irgendwelche profiling optionen. Dann solltest du schnell raus finden ob du ein io limit hast. Wenn du ein IO limit hast, würde ich auch mal untersuchen ob die in memory Funktion der Datenbank eventuell plötzlich häufig von der Disk nachladen muss. Das würde dafür sprechen mehr RAM zu spendieren.

Für viel Wahrscheinlicher - Du schreibst die Datenbank ist über die Zeit gewachsen - halte ich aber ein Problem mit der logischen DB oder deiner Query anfürsich. Da nur ein Kern auf 100% spricht das imho sehr dafür. Ob das nun fehlenden indizes, imperformante Abfragen oder unglückliches Design ist, ist schwer zu sagen.
Ein R5 3600x ist nicht so schlecht als das ich erwarten würde mit consumer hardware dein Bottleneck auflösen zu können. Eventuell noch mit nem dicken Xeon oder Epic mit viel Cache, das kommt aber sehr auf das Problem drauf an.

Bottom line: Versuche mal herauszufinden, was das Problem ist. Einfach neue Hardware ist imho rausgeschmissenes Geld. Meiner Erfahrung nach muss man DB Design und Abfragen früher oder später verbessern sobald die Anzahl der Daten wächst.
 
Das würde dafür sprechen mehr RAM zu spendieren.
Er hat bereits geschrieben, das der RAM nur zu 70% ausgelastet ist.
Ich will nicht ausschließen, das da irgendwelche Werte falsch interpretiert wurden (z.B. RAM der als Diskcache verwendet wird, was afaik unter Windows nicht (direkt) angezeigt wird, ignoriert wurde), aber wenn ohenehin nur 70% RAM benutzt werden, dann wird noch mehr RAM auch nichts bringen.

Bottom line: Versuche mal herauszufinden, was das Problem ist.
Abgesehen davon könnt man auch mal genauer nachforschen, was diese sporadischen 100%-Last verursacht.
Zweite Antwort im Thread. ;) Immernoch unbeantwortet. Und mit unbeantwortet meine ich es wurde noch nichtmal gesagt "ich gucke mal danach" oder ähnliches. ;)

Es ist wie p4n0 schon geschrieben hat:
Die Aussage ist in etwa "bei meinem Auto klappert etwas, was soll ich tun?"
Eine Antwort ala "Reifen wechseln" (neue Hardware, CPU-Upgrade) hilft da nur vielleicht, vielleicht aber auch nicht.
Die "richtige" Antwort, bzw Rückfrage könnte man meinen wäre eigentlich offensichtlich: Was genau klappert denn... oder als ersten Schritt vielleicht: Wo klapperts denn? Vorne Links? Hinten rechts? Im Motorraum? Im Kofferraum? Man kann natürlich den Motor tauschen, aber wenns dann immernoch klappert, stellt sich vielleicht raus, das es nur eine lose Plastikabdeckung der Heckleuchten im Kofferraum ist. ;)
 
Zuletzt bearbeitet:
@Liesel Weppen
Er schreibt nicht welche DB das ist. Häufig sind die so konfiguriert nicht alle Rssourcen belegen zu können. D.h. es gibt obere speicher limits etc.
DBs sind meiner Erfahrung nach sehr tricky. Ohne die root cause zu kennen wird es schwer. Meist ist aber nicht die Hardware das Problem, sonder die Software.


@Luebke
P.S. wenn du wirklich ein neues sparsames Rig bauen möchtest mit CPU im Preisbereich 200 bis 300 €würde ich empfehlen:

Core Ultra 5 245k
Ryzen 5 9600x
Ryzen 7 7700
Intel Core i5 13600k oder 14600k
Bei einigen DBs dürfte der 5700x3d auch super performen. Das kommt stark auf die DB an. Da hättest du den Vorteil der günstigen und ausgereiften AM4 Plattform.

Die Unterschiede der Platformen AM4, AM5, LGA1700 bzw. 1851 sollten für deinen Fall fast keine Rolle spielen. Imho kannst du da nehmen was die besser gefällt oder einfach am günstigsten ist.

Siehe auch die letzten DB benchs von phoronix
 
Ich werfe einfach mal in den Raum: Lese-/Schreiblimits der SSD könnten erreicht sein, da
- SSD ein paar Jährchen auf dem Buckel hat
- slowdowns erst seit einer gewissen Zeit auftreten.

K.A. obs das ist, meine nur. Für eine wirkliche Eingrenzung der Ursache, fehlen einfach Details.

TE sollte sich auch langsam entscheiden, ob er erstmal die SSD tauschen will, oder sich eine neues System basteln will oder was auch immer. So werden nur Kapazitäten geblockt…
 
@Liesel Weppen
Er schreibt nicht welche DB das ist. Häufig sind die so konfiguriert nicht alle Rssourcen belegen zu können. D.h. es gibt obere speicher limits etc.
DBs sind meiner Erfahrung nach sehr tricky. Ohne die root cause zu kennen wird es schwer. Meist ist aber nicht die Hardware das Problem, sonder die Software.
Valid Point... ändert aber nichts an meiner Aussage, die ich schon vor 10 Stunden gepostet habe: Am besten erstmal versuchen rauszufinden wo es überhaupt hängt.
Das die DB vielleicht irgendeine Art Speicherlimit gesetzt hat und deswegen nur 70% RAM genutzt werden, und das eine Begrenzung darstellt, ist dadurch ja auch nicht ausgeschlossen.

Sollte man ein neues System anschaffen, würde man vermutlich mehr als 16GB reinstecken. Wenn das das Problem war, ist das natürlich durch ein komplett neues System, für das man (mehr oder weniger viel) Geld ausgegeben hat auch gelöst und man wird nie merken, das man das Problem auch einfach dadurch hätte lösen können, das man über einen Großkredit bei einer Bank über 30€ einfach nur weitere 2x8GB dazustecken hätte können, oder falls die Bank beim Kredit noch spendabler gewesen wäre sogar den kompletten RAM für 50€ durch 2x16GB, oder heutzutage ultimativ luxuriös sogar direkt durch 2x32GB sogar für ~100€ ersetzen können, das Problem auch gelöst hätte. ;)

Aber wenn die Kosten egal sind und mehrere 100€ sowieso zur Verfügung stehen und/oder ausgeben werden wollen, na dann natürlich gleich ein komplett neues System.
Da ist dann nur die andere Frage: Da aus den bisherigen Aussagen ja klar ersichtlich ist, das die tatsächlichen Anforderungen an die Hardware nicht bekannt sind und man nur über den Daumen "fett genug wird schon reichen" anpeilt, welche Leistungsklasse kauft man dann am besten neu?
Beitrag automatisch zusammengeführt:

So werden nur Kapazitäten geblockt…
Scheint mir jetzt keine sonderlich professionelle oder gewerbliche Anwendung zu sein (was keine abwertende Einschätzung ist!)... Es wurde ja noch nichtmal ein konkretes Problem genannt. Es wurde nur gesagt, das die SSD mit 100% Auslastung (wodurch auch immer verursacht) am Limit zu seinen scheint, aber nicht, das das wirklich ein Problem wäre, also Lags bei der Anwendung, Verbindungsausfälle oder sonstwas versuchen würde.
Wäre es gewerblich/professionell, wäre das vermeintliche Problem schon längst mit Geld zumindest versucht worden zu erschlagen. :ROFLMAO:
 
Zuletzt bearbeitet:
Immernoch unbeantwortet. Und mit unbeantwortet meine ich es wurde noch nichtmal gesagt "ich gucke mal danach" oder ähnliches. ;)
dann sollte ich den Softwarehersteller wohl erstmal kontaktieren. Dachte eigentlich ich könnte das durch ein simples Upgrade fixen, aber da habe ich offenbar zu einfach gedacht. ^^
;)
TE sollte sich auch langsam entscheiden, ob er erstmal die SSD tauschen will, oder sich eine neues System basteln will oder was auch immer.
Es wird erstmal eine Intel Optan wie von @underclocker2k4 und @passat3233 empfohlen, weil sehr schnell und einfach umsetzbar. da kann ich übers Wochenende das bisherige System drauf klonen und einfach weiterarbeiten.
Parallel dazu werde ich den Softwarehersteller kontaktieren und mit dem Problem konfrontieren. Ich habe sowieso noch ein anderes Problem mit der Datenbank, weswegen ich mit ihm sprechen muss.

Auch wenn es nur noch theoretischer Natur ist: wäre eine CPU mit Stapelcache wie z. B. 5700X3D oder 7600X3D eigentlich durch den großen Cache im Vorteil oder hat das hier keinen Nutzen? Ich beziehe mich dabei auf die hier diskutierte Überlegung, ob der Ram am Limit sein könnte.
 
Deshalb schrieb ich ja, das man mal z.B. mit Crystaldiscinfo nachschauen sollte, wie es um die SSD steht.
Wenn die am Ende der Lebensdauer angekommen ist, ist so ein Verhalten normal.
Zur DB noch etwas:
Es schadet nicht, wenn man die DB regelmäßig reorganisiert.
Dann wird die Datenbank kleiner, da gelöschte Datensätze dann endgültig aus der Datenbank entfernt werden (beim normalen Löschen werden die nur als gelöscht markiert) und die Indizes werden auch neu aufgebaut und fehlerhafte Indizes korrigiert.
Das macht sich u.U. auch bei der Performance positiv bemerkbar.
 
Also wenn ein Anwender mit dem Fehlerbild bei uns über seinen DB Server meckert wäre die erste Ansage: Optimier mal deine Abfragen (bzw. setz den Hersteller auf den Pott) :fresse:

Und TE ist immer noch die Info schuldig, welche Art DB Server er überhaupt einsetzt

Edit: Je nach Fall kann auch jedes HW-Upgrade hier Unsinn sein, wenn die Ursache damit nicht zusammenhängt. 9/10 VMs bei uns sind kleiner gesized als seine Maschine hier.
 
Stimmt.
Es gibt da ja unzählige DB-Systeme, wie MS SQL Server, MySQL, MariaDB, Informix, Oracle, PostgreSQL, etc. etc.
 
nichts von der Stange. Eine Datenbank-Software speziell für die Firma wo ich arbeite. Der Rechner dient nur dazu, die Datenbank zu betreiben und für Datensicherung. Gearbeitet wird am Notebook.
Hier, vielleicht sind nicht mehr Details bekannt
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh