Intel Knights Landing mit 76 Rechenkernen – vier auf Reserve

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.126
<p><img src="/images/stories/logos-2015/intel3.jpg" width="100" height="100" alt="intel3" style="margin: 10px; float: left;" />Gegen Ende des Jahres will Intel mit der nächsten Xeon-Phi-Generation starten. Die Knights-Landing-Generation wird im 14-nm-FinFET-Verfahren gefertigt und kommt auf 8 Milliarden Transistoren. Damit gehört dieser Chip zu den größten und komplexesten, die jemals von Intel gefertigt wurden.</p>
<p>Bisher ging man von einer <a href="index.php/news/hardware/prozessoren/34862-intel-xeon-phi-knights-landing-rechnet-auf-bis-zu-72-silvermont-kernen.html" target="_self">maximalen Ausbaustufe mit 72 Kernen auf Basis der Silvermont-Architektur</a> aus. Der Aufbau besteht dabei aus 36 Tiles oder Kacheln mit jeweils zwei Kernen. Auf der Hot-Chip-Konferenz erklärte...<br /><br /><a href="/index.php/news/hardware/prozessoren/36408-intel-knights-landing-mit-76-rechenkernen-vier-auf-reserve.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wo wird dann eine solche CPU genau eingesetzt?
 
Da es keine CPU ist, wird sie auch sie auch nirgends eingesetzt.
Und ein Gamingprozessor ist es auch nicht. (was soll das überhaupt sein)
Und in Servern wird er auch nicht eingesetzt.
:rolleyes:

Das ist ein reiner Berechnungs-Co-Prozessor.
Er ist für HPC-Operationen gedacht. Bekanntestes Einsatzgebiet sind die "TOP500".

Der Xeon-Phi ist ein Konkurrenzprodukt zur Tesla von NVidia (welche keine GPU ist) oder der der FireStream von AMD ( was ebenfalls keine GPU ist).
 
Zuletzt bearbeitet:
@analogwarrior
Schon klar ;) Halt wofür genau ;)

@underclocker2k4
Danke für die Info! Schon faszinierend, wie man heutzutage Prozessoren mit so vielen Kernen herstellen kann.
 
Da es keine CPU ist, wird sie auch sie auch nirgends eingesetzt.
Und ein Gamingprozessor ist es auch nicht. (was soll das überhaupt sein)
Und in Servern wird er auch nicht eingesetzt.
Natürlich wir der auch als CPU eingesetzt, informiere Dich mal richtig. Aus dieser News geht das zwar nicht hervor, aber bei Computerbase ist dazu ein guter Bereicht: Xeon Phi: Knights Landing als Prozessor zum IDF 2015 mit 60 Kernen - ComputerBase:

Der kann also auch den Haupt-CPU arbeite und dessen Aufgaben mit übernehmen, dafür ist es eben auch eine x86er CPU, nur dann eben eine mit viele Kernen. Das ist ein ganz wesentlicher Unterschied zum Vorgänger und vor allem zu den GPUs wie AMD und NVidia sie für HPC Berechnungen anbiete, die brauchen nämlich alle noch eine normale CPU die die Arbeit koordiniert.

Aktuell auch erste Benchmarks von Intel: Knights Landing: Physisch mit 76 Kernen, weitere Details und erste Benchmarks - ComputerBase

Da gibt es auch diese Folie wo Self Boot Processor noch einmal extra hervorgehoben ist:

5-1080.783969175.jpg


Das ist ein reiner Berechnungs-Co-Prozessor.
Nein, genau das ist Knights Landing im Gegensatz zu seinen Vorgängern eben nicht, er kann zwar auch so eingesetzt werden, bzw. wird es Versionen für PCIe Karten geben wie bisher, aber eben nicht nur.

Er ist für HPC-Operationen gedacht.
Das stimmt allerdings.
 
Zuletzt bearbeitet:
Das ist mir schon klar, bzw. war ich da nicht präzise genug.
Die alten Phis waren auch x86er Prozessoren, wie schon Intels Versuchsplattform, Intel kann nämlich nur das wirklich gut.
Der Unterschied ist nur, dass sie das, was schon drin war, mal nach außen geführt haben.

Da es aber in der Regel einen schnellen Zuspieler braucht, wird man wohl kaum auf Atom-Cores aufsetzen. Von der IPCore sind sie, wie alle anderen Cruncher, unterirdisch schlecht. Die leben von der Parallelität.

Und das sieht Intel auch so, nicht umsonst setzt man die Groveport-Plattform auf.
Es wird daher, wie auch beim Vorgänger und AMD/NV, kaum vom klassischen Aufbau abgewichen.
Es mag evtl. ein paar "autarke"-Systeme geben, halte ich aber für vernachlässigbar.
 
Zuletzt bearbeitet:
Das ist ja cool. Ich habe mir vor ein paar Tagen die Xeon Phi-Karten angeschaut, die fuer 200$ erhaeltlich sind (Spottpreis!). Lassen sich natuerlich nur fuer speziell programmierte HPC-Geschichten nutzen.

Diese Dinger hier lassen sich echt transparent fuer native Anwendungen nutzen? Das ist ja geil!!

@underclocker24
Natuerlich haben Atom-Prozessoren schlechte IPC, aber hier gehts um reine Parallelverarbeitung. Du wuerdest nie 53 bzw. 76 z.B. Haswell-Kerne auf eine Karte kriegen, ohne eine Monsterkuehlung und 3000W-Netzteil.
 
@Holt: danke, das wollte ich gestern auch schon schreiben. Das ist in meinen Augen nämlich kein unwesentliches Detail, und auch wenn ich noch nicht weiß, welchen Sockel diese CPUs bekommen werden, es wird jedenfalls eine interessante Plattform.

Das ist ja cool. Ich habe mir vor ein paar Tagen die Xeon Phi-Karten angeschaut, die fuer 200$ erhaeltlich sind (Spottpreis!). Lassen sich natuerlich nur fuer speziell programmierte HPC-Geschichten nutzen.
Hast du da einen Nuller unterschlagen, oder weißt du etwas, was ich nicht weiß? Auf Geizhals sehe ich die günstigste PHi-Karte für 1429€.
 
@underclocker24
Natuerlich haben Atom-Prozessoren schlechte IPC, aber hier gehts um reine Parallelverarbeitung. Du wuerdest nie 53 bzw. 76 z.B. Haswell-Kerne auf eine Karte kriegen, ohne eine Monsterkuehlung und 3000W-Netzteil.

Du hast nicht richtig gelesen.
Es geht um die ZuspielCPUs für die Cruncher Cores. Und da braucht es hohe IPC Performance, weil ja mal eben 1000Kerne versorgt werden wollen.
Und die Verwaltung hat nichts mit der Parallelverarbeitung zu tun. Die kommt erst nach der Verwaltung zum Tragen.
Das muss man sich wie nen Vorarbeiter auf der Baustelle vorstellen. Da kannst du 100 starke Männer haben, wenn der Vorarbeiter pennt, geht nix.
Und da kann ein Kern mit einer niedrigen IPC (Atom) eben nicht glänzen.

Und genau aus diesem Grund setzt Intel ja als Unterbau den Haswell-EP ein, im Gegensatz zu einem Atom oder einer Standalone Phi Lösung.
 
Zuletzt bearbeitet:
Das ist mir schon klar, bzw. war ich da nicht präzise genug.
Nein, Du hast Dich klar falsch ausgedrückt.
Die alten Phis waren auch x86er Prozessoren, wie schon Intels Versuchsplattform, Intel kann nämlich nur das wirklich gut.
Das mag durchaus stimmen, aber offenbar reicht es ja eine wirklich gut zu können um Erfolg zu haben. Das ist allemal besser als viele nur halb zu können und bei gar nichts gut zu sein.
Da es aber in der Regel einen schnellen Zuspieler braucht, wird man wohl kaum auf Atom-Cores aufsetzen.
Nein, genau das ist ja der Vorteile der neuen Knights Landing, die brauchen diese Zuspieler eben nicht und damit spart man dann ggf. auch einiges an Overhead. Hier ist eben die Ausnahme der Regel und der Zuspieler kann entfallen, was bei den bisherigen Lösungen mit GPU gar nicth denkbar war.
Von der IPCore sind sie, wie alle anderen Cruncher, unterirdisch schlecht. Die leben von der Parallelität.
Das ist klar, aber die sind ja auch für Anwendungen wo genau das sinnvoll ist und für andere Anwendungen gibt es die anderen Xeons, die viel mehr IPCs und Takt haben, aber eben weniger Kerne. Knights Landing soll die ja nicht ersetzen, sondern eben ergänzen und für die Anwendungen sein, wo man daraus Vorteile ziehen kann.

Es wird daher, wie auch beim Vorgänger und AMD/NV, kaum vom klassischen Aufbau abgewichen.
Es mag evtl. ein paar "autarke"-Systeme geben, halte ich aber für vernachlässigbar.
Das wird man sehen, vielleicht werden die Versionen auf PCIe Karten stückzahlenmäßig die Ausnahme sein, vielleicht die autaken im Sockel.

Du hast nicht richtig gelesen.
Es geht um die ZuspielCPUs für die Cruncher Cores.
Nein, Du hast schon wieder vergessen, dass es eben nicht nur die PCIe Versonen für Karten geben wird, sondern halt auch solche die selbst die Haupt-CPU sind und keinen Zuspieler haben.
Und da braucht es hohe IPC Performance, weil ja mal eben 1000Kerne versorgt werden wollen.
Wenn die Kerne alle in einer CPU sind und das auch die Haupt-CPU ist, wozu braucht man einen Zuspieler mit hoher IPC?
 
Nein, genau das ist ja der Vorteile der neuen Knights Landing, die brauchen diese Zuspieler eben nicht und damit spart man dann ggf. auch einiges an Overhead. Hier ist eben die Ausnahme der Regel und der Zuspieler kann entfallen, was bei den bisherigen Lösungen mit GPU gar nicth denkbar war.

Wenn die Kerne alle in einer CPU sind und das auch die Haupt-CPU ist, wozu braucht man einen Zuspieler mit hoher IPC?
Was glaubst du, berechnen die Cores? Die denken sich die Aufgaben ja nicht aus. Es gibt eine konkrete Aufgabe, die gelöst werden muss. Diese Aufgabe wird untergliedert und dann zum Rechnen freigegeben.
Zusätzlich müssen Daten bereitgestellt und abgeholt werden
(siehe das Beispiel mit dem Vorarbeiter)

Und genau das Zerlegen muss ausreichend schnell passieren, sonst warten alle Rechensklaven immer, bis sie eine neue Berechnung zugewiesen bekommen.
Auch müssen die Daten ausreichend schnell transferiert werden.

Und selbst wenn man eine 1000Kern CPU baut, gibt es immer "einen" Trottel der das organisieren muss. Der kann in der "CPU" sitzen oder extern, wenn es eine dedizierte Gerätschaft ist.

Nein, Du hast schon wieder vergessen, dass es eben nicht nur die PCIe Versonen für Karten geben wird, sondern halt auch solche die selbst die Haupt-CPU sind und keinen Zuspieler haben
Ich vergesse da garnichts.
Und selbst der Phi braucht einen Zuspieler (Grund siehe oben), eben den besagten "Vorarbeiter". Der kann auch gerne in der CPU sitzen, oder eben extern sein.
Dennoch gibt es ihn!
Und da dieser Zuspieler etwas mehr Bums braucht, reicht eben "ein" Mädchenkern nicht aus. Es braucht da eine Männer CPU.

Der Suchbegriff bei Google lautet: Decomposition

Mir ist sehr genau klar, was der neue Phi kann, wie er aufgebaut ist, etc. pp.
Dennoch schätze ich den Anwendungsfall "standalone" als eher von geringerem Interesse ein. Es mag ihn geben, bestimmt, aber die Paradedisziplin wird er nicht werden.
Und Intel sieht das auch so. Die bieten die Option aber zusätzlich an, bestimmt nicht verkehrt.

EDIT:
Das kann man in etwa mit dem vergleichen, wenn man sich nen SLI mit 2 GTX980Ti aufbaut und einen J1900 Prozessor.
Die "HPC"-Cores der GPUs langweilen sich zu Tode, weil sie nicht schnell genug mit neuen Daten und Aufträgen versorgt werden.
Und das Problem, was du in einem ATX-Tower hast, gibt es auch skaliert auf etliche Petaflops.

2ndEDIT:
Und genau aus dem Grund sehe ich den Xeon Phi auch nicht als CPU an. Ja, er mag als x86er CPU bootbar sein, dadurch wird es aber nicht zum Berechnungsmanager, dazu braucht es etwas mehr.

3rdEDIT:
Was Sinn machen würde, wenn Intel eben einen Multicore-highclock Haswell-EP in die DIE oder auf dem Package verbaut. Dann würde ich sagen, das ist das, was "du mir hier verkaufen willst" :).
Ne Standalone HPC-CPU/GPU (HPC-SOC?).
 
Zuletzt bearbeitet:
Wenn nun jeder Kern eben kein dummer Sklave ist, dann brauchen bei entsprechender SW auch keine Einpeitscher oder Vorarbeiter, das ist dann wie ein Team von Spezialisten, aber das scheint Deine Vorstellungskaaft eben zu übersteigen. Daher ist das Thema hier für mich durch, ich habe SW die genau sowas kann und wo dann 70 Kerne jeder für sich arbeiten und erst am Ende ihre Ergebnisse einem geben, der diese dann weiterreicht, aber das kann jeder von denen sein, da muss es keinen besonders leistungsstarken Vorarbeiter geben.
 
Meine Vorstellungskraft übersteigt das nicht. Es gibt durchaus HPC Anwendungen, wo der Rechenaufwand höher ist, als der Verwaltungsaufwand.
HPC ist aber weit mehr.
Welche HPC Software setzt du denn ein und was berechnest du damit?
Komme mir jetzt nicht mit Cinema 4D, Maya oder anderen Scherzen.
Beim HPC gibt es immer einen sequentiellen und einen parallelen Anteil. Und der Sequentielle lässt sich eben nicht parallelisieren. Die Folge ist, dass es, in Abhängigkeit von der zu lösenden Aufgabe, zunehmend darauf ankommt, dass der sequentielle Ablauf hinreichend schnell ist, dass die parallelen Prozesse versorgt sind.
Beispiel habe ich bereits genannt.
Spiele sind ein gutes Beispiel dafür. Die parallelen Prozesse (das Rendern in der GPU) müssen mit ausreichend Daten versorgt werden.
Und da kannst du auch gerne den neuen Phi mit seiner Vielzahl an intelligenten Kernen einsetzen und du wirst feststellen, es gibt nen Bottleneck.
Eine Quad 4GHz wird dort bessere Ergebnisse erzielen.

Das musst du mir nicht glauben. Der gemeine Gamer kennt den Effekt aber.

Jetzt kann man natürlich sagen, ich schraube den Rechenaufwand in den parallelen Prozessen uns unermessliche hoch (bei Games die Auflösung und die Features hochziehen). Dann sind wir wieder bei dem Ding, wo man den Phi (oder den Atom am Beispiel der Games) nehmen kann, da dann die CPU (der Zuspieler) die untergeordnete Rolle spielt.

Aber wie gesagt, HPC ist mehr als nur der letzte Anwendungsfall.

EDIT:
C4D, Maya, Bonic und ähnliches ist genau die andere Seite des von mir angeführten Anwendungsfalls.
Hier sind die einzelnen Berechnungen so aufwändig, dass die CPU (für mich ist auch der OS-PHi-Kern die CPU), Die Aufgabe verteilt, Däumchen dreht und nach "einer halben Stunde" das Ergebnis bekommt und wieder von vorne anfängt.
Aber auch das hat Grenzen. Man kann nicht unendlich viele Cruncher nehmen und darauf hoffen, dass "der Atom-Kern" noch die Performance hat, um die Multithreads zu füttern.
 
Zuletzt bearbeitet:
Der kann also auch den Haupt-CPU arbeite und dessen Aufgaben mit übernehmen, dafür ist es eben auch eine x86er CPU, nur dann eben eine mit viele Kernen. Das ist ein ganz wesentlicher Unterschied zum Vorgänger …
Nein, auch beim Vorgänger lief das System schon strikt autark! Auf jeder Xeon Phi Karte läuft ein vollständiges Linux (auch in einem Windows System läuft auf der Karte immer Linux) und nur zum IO nutzte man den Host. Wobei Infiniband schon seit längerem den eintreffenden IO-Traffic auf XeonPhis und Teslas direkt durchleiten kann, d.h. der PCIe Traffic landet sofort auf der Karte ohne die Host CPUs zu erreichen. Die neue Generation XeonPhi wird es auch mit integrierten Omni-Path (eine Intel Abart der Infiniband EDR Netzwerktechnologie) Controllern geben und man kann auf den umgebenden Host verzichten. Das hat Vor- aber auch Nachteile.

Das Programmiermodell der alten XeonPhis erlaubte es schon reine Phi Programme zu schreiben, die ausschließlich auf der Karte laufen und keinerlei Interaktion mit dem Host haben. Man kopiert vorher das Programm und die Daten auf die Karte, führt das Programm aus und kopiert anschließend die Daten wieder auf den Host. So etwas geht auf einer Tesla oder FirePro nicht, da gibt es immer die Abhängigkeit mit dem Host.

- - - Updated - - -

Wenn die Kerne alle in einer CPU sind und das auch die Haupt-CPU ist, wozu braucht man einen Zuspieler mit hoher IPC?
Die Karten haben sehr wenig Arbeitsspeicher, und sind relativ lahm bei SingleThread Jobs so daß auch IO zu einem Problem werden kann. Infiniband bzw. Omni-Path beherrscht Offloading sehr gut, aber es fallen trotzdem Aufgaben für die CPU Kerne an. Aber lokaler Storage wird so zu einem Problem. D.h. diese Karten mit Omni-Path Interface ergeben nur dann einen Sinn, wenn man keinerlei lokalen Storage benötigt und die Probleme komplett in die 16GB passen.
 
underclocker2k4, nein SW ist speziell und nicht kommerziell nicht bzw. nur im Rahmen von Projekte erhältlich, daher kannst Du sie nicht kennen und deshalb ist es sinnfrei weiter zu diskutieren, denn auch Details der SW werde ich nicht eingehen. Es kommt da auf schnelles RAM mit viel Durchsatz und hohe Rechenleistung an, Omni-Path interessiert dagegen nicht, weil es kaum einen Datenaustausch zwischen den Kernen gibt, die SW skaliert daher auch extrem gut über viele Kerne.

jdl, eben weil die Karten wenig Speicher haben, wäre ein Xeon Phi als Haupt-CPU so gut, da kann man den HMC-Speicher ja offenbar wahlweise als schnelles aber spezill anzusprechendes RAM oder als Cache für das DRAM nutzen und wohl sogar wahlweise anteiliig. Die Kunden der Projekte verlangen meist das nur Standard-HW verwendet wird, einen Xeon Phi im Sockel des Haupt-CPU könnte man noch unterbringen, einen auf einer Steckkarte dagegen nicht.
 
Zuletzt bearbeitet:
jdl, eben weil die Karten wenig Speicher haben, wäre ein Xeon Phi als Haupt-CPU so gut,
Vom schnellen Arbeitsspeicher hat man nichts bei SingleThread Problemen, weil ein Core viel zu langsam ist um davon Gebrauch zu machen. D.h. die Phis leben davon parallelen Code abzuarbeiten, hat man diesen nicht sind sie eine Bremse. Aus diesem Grund sind bei vielen HPC Jobs die normalen Xeon E5 deutlich schneller. Intel will nun zukünftig reine Xeon Phi Cluster anbieten können, diese werden nur für sehr spezielle Probleme geeignet sein. Es wird sicherlich für einen hohen Linpack Wert reichen, weil dieser stark von der Performance von DGEMM dominiert wird, aber Linpack ist alles andere als ein realitätsnaher Benchmark. Mit persönlichen Erfahrungen mit HPC Code war, daß die DGEMM bzw. in unserem Fall ZGEMM nie das Problem war. Problematisch wurde es mit selbstgeschriebenen Code und der effizienten NUMA Nutzung. Wenn man das wirklich gut machen will, muß man oftmals die Datenstrukturen in gewachsenem Programmcode ändern - das ist sehr problematisch.

Die Kunden der Projekte verlangen meist das nur Standard-HW verwendet wird, einen Xeon Phi im Sockel des Haupt-CPU könnte man noch unterbringen, einen auf einer Steckkarte dagegen nicht.
Kunden die HPC machen wissen um die Problematik, und bei anderen solltest Du ohnehin nicht mit Phis aufkreuzen.
 
Vom schnellen Arbeitsspeicher hat man nichts bei SingleThread Problemen, weil ein Core viel zu langsam ist um davon Gebrauch zu machen.
Sorry, aber das ist doch selbst bei einem schwachen Kern totaler Blödsinn! Die normale Latenz bei einem RAM Zugriff liegt bei 50 bis 60ns, wie viele Taktzyklen in der Zeit selbst einen CPU mit nur einem 1 bis 2 GHz Takt macht, brauche ich wohl nicht vorzurechnen, oder?

D.h. die Phis leben davon parallelen Code abzuarbeiten, hat man diesen nicht sind sie eine Bremse.
Das ist klar, es sind ja eine Menge schwacher Kerne, hat aber mit dem RAM nun gar nichts zu tun.
Problematisch wurde es mit selbstgeschriebenen Code und der effizienten NUMA Nutzung. Wenn man das wirklich gut machen will, muß man oftmals die Datenstrukturen in gewachsenem Programmcode ändern - das ist sehr problematisch.
Vernünftige Datenstrukturen sind das A und O einer guten Programmierung, gerade auch wenn man Performance braucht. Selbstgeschriebener Code ist da nur problematisch, wenn der Programmierer davon keine Ahnung hat. Es ist wie immer im Leben, es reicht nicht nur zu wollen, man muss auch können und da überschätzen sich eben viele Programmierer.

Kunden die HPC machen wissen um die Problematik, und bei anderen solltest Du ohnehin nicht mit Phis aufkreuzen.
Die Kunden wollen ist erste Linie ein Problem gelöst haben und wissen, wie viel HW sie dafür brauchen um das gemäß ihren Anforderungen zu können und sie wollen dafür Standard-HW, die sie ggf. auch anderweitig nutzen können. Das das was sie machen schon eindeutig in den HPC Bereich fällt, das ist denen oft so nicht gar nicht klar.
 
Sorry, aber das ist doch selbst bei einem schwachen Kern totaler Blödsinn!
Das ist die Realität, und durch den Stream-Benchmark zigfach belegt. Die neusten CPUs können nur im Multithread die Speicherbandbreite vollständig auslasten, ein einzelner Core ist dazu nicht in der Lage.

Die normale Latenz bei einem RAM Zugriff liegt bei 50 bis 60ns, wie viele Taktzyklen in der Zeit selbst einen CPU mit nur einem 1 bis 2 GHz Takt macht, brauche ich wohl nicht vorzurechnen, oder?
Die Latenz hat nichts mit der Speicherbandbreite zu tun. Die Latenz ist wichtig, wenn man die Zeit berechnen will bis der erste Wert in der CPU eintrifft. Weil das so problematisch geworden ist, werden Algorithmen auf Cache Hits optimiert. Aber das hat erstmal nichts mit der Speicherbandbreite zu tun.

Vernünftige Datenstrukturen sind das A und O einer guten Programmierung, gerade auch wenn man Performance braucht. Selbstgeschriebener Code ist da nur problematisch, wenn der Programmierer davon keine Ahnung hat.
Die Paradigmen haben sich in den letzten Jahren deutlich gewandelt, so daß man auch die Algorithmen verändern mußte. Man wird nicht ohne Not funktionierenden stabilen HPC Code durch neuen Code ersetzen von dem man erstmal nicht weiß, ob er überhaupt richtig rechnet. Dann ist etwa Lock Free Code alles andere als trivial umzusetzen.

Die Kunden wollen ist erste Linie ein Problem gelöst haben und wissen, wie viel HW sie dafür brauchen um das gemäß ihren Anforderungen zu können und sie wollen dafür Standard-HW, die sie ggf. auch anderweitig nutzen können. Das das was sie machen schon eindeutig in den HPC Bereich fällt, das ist denen oft so nicht gar nicht klar.
XeonPhis sind keine Standardhardware, sondern hoch spezialisierte CPUs für einen Teilbereich des HPCs. Hast Du jemals Kontakt mit normalen Xeon E5 o.ä. HPC Knoten gehabt?
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh