Spezifikationen zu Skylake-X: Intel packt den Core i9 für vier Prozessoren aus

Nein, das CCX Design hat auf Spiele keinen nennenswerten Einfluss. Wurde doch nun mittlerweile mehrfach bestätigt. Bei KBL steigt die Latenz oberhalb von 8 MB ja ebenfalls auf RAM Niveau an.

Erst muss man sich mit Materie auseinandersetzen bevor man darüber sprechen kann und Latenzmessungen sind eben Latenzmessungen. Erstelle doch selbst welche wenn du glaubst dass sie nicht stimmen.
Literaturnachweise wurden schon auf den letzten Seiten erbracht.
Der Einfluss des CCX Designs inkl. Infinity Fabric ist eine Problemstelle in AMD´s Design und ist eine Konzession zwischen divergierenden Ansätzen.

Bei Ryzen steigt die Latenz bereits bei >4 mb Blöcken deutlich an, bei Intel nicht --> Problem
Dort erst beim Sprung von 16 auf 24mb Blöcke.

AMD wählte ein inklusives Cachedesign, ergo ist ein Datenaustausch zwischen CCX fernen L3 Caches ohnehin prinzipiell unerwünscht und limitiert, also benötigt man auch nicht mehr als 8MB pro CCX.
Die Cacheorganisation trägt also bereits im Consumerbereich ein Problem mit sich herum. Bei Servern wird es mit dem MCM Ansatz gelöst, dort ist es sowieso völlig egal, weil die L3 dann eh nicht miteinander kommuniizieren.

Doch. Schau dir vielleicht nochmal die von dir geposteten Diagramme an. Die L3 Latenz ist bei Ryzen etwas niedriger/besser.

Bis 4MB ist sie etwas niedriger danach steigt sie massiv an und bremst. Aber dreh es dir ruhig hin bis es passt.:haha:
Selbst Bulldozer hat bei 4mb bis 8mb Blöcken eine deutlich niedrigere Latenz als Ryzen.


Ab gewissen Datengrössen fällt man immer in das nächsthöhere Cache-Level, was höhere Latenz und geringere Transferraten zur Folge hat.

Also hat Ryzen in Wirklichkeit nur 4mb Level 3 Cache und die restlichen 4mb in einem CCX sind dann Level 4 Cache?
Dass die Latenzen vom einem CCX zum anderen schlecht sind, ist erwartbar, innerhalb eines CCX sollte das aber nicht auftreten.

Nur weil jemand was in ein Forum schreibt, ist das für mich keine Bestätigung. Ich hätte schon gerne ein paar Auslastungsdiagramme. ;)

Eine schmerzliche Wahrheit ist besser als eine Lüge. Die Akzeptanz unangenehmer Dinge nimmt zu im Quadrat der Entfernung.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein, das CCX Design hat auf Spiele keinen nennenswerten Einfluss. Wurde doch nun mittlerweile mehrfach bestätigt.

Ne irgendwie ja nicht. Manche reagieren darauf und manche nicht.

Bei KBL steigt die Latenz oberhalb von 8 MB ja ebenfalls auf RAM Niveau an.

Ich weiß ja nicht, aber es könnte daran liegen, dass KBL nur 8 MB L3-Cache hat. ;)
Ryzen hat 16 MB (2*8 MB), aber die Latenz fängt schon bei 4 MB an zu spiken.

Kein Problem per se, nur ein Ryzen Spezifika. Ab gewissen Datengrössen fällt man immer in das nächsthöhere Cache-Level, was höhere Latenz und geringere Transferraten zur Folge hat. Am Ende fällt man in den RAM. Das ist bei Intel nicht anders als bei AMD. Das lustige ist ja, beim C2Q war das Design noch deutlich altmodischer, weil es nicht zwei Cluster plus Interconnect On-Die war, sondern zwei separate Dies, deren Kommunikation sogar Off-Package ging. Damals hat kein Hahn danach gekräht und wurde auch nie als Problem von den Intel Verfechtern gesehen. Bei Ryzen soll es aber ein Problem sein? Ergibt null Sinn.

Ja, ist kein Problem per se, aber bei Cache sensibler Software teilweise schon. Das hat auch nichts mit gewissen Datengrößen zu tun, sobald zwischen den CCX-Blöcken kommuniziert werden muss, also nicht nur wenn der L3-Cache überläuft, kommt es zur drastischen Erhöhung der Latenz und Verringerung der Transferrate. Und genau hier unterscheiden sich Intel CPUs und Ryzen.
Wow ein altmodisches Design bei einer über 10 Jahre alten CPU anprangern, ernsthaft?! Geh doch noch weiter in die Vergangenheit, da könntest du noch den ein oder anderen Fail finden ;) Oder zurück zu der Zeit wo AMD noch die Intel CPUs nachgebaut hat (Stichwort Intel kopiert AMD ;) ) und wo die pösen Intel Menschen dann aufgehört haben AMD den Zugang zu derem Design zu geben und AMD dann reverse-engineering betrieben hat um die CPUs weiter zu kopieren ;)
Aber die schrottigen, veralteten Core 2 Quad CPUs waren das nicht die CPUs bei denen AMD ins Straucheln geriet? Hätte es für AMD nicht ein leichtes sein müssen das schlechte Design zu schlagen? Und der Nachfolger, wo dieses altmodische Design behoben wurde, hat AMD dann komplett zugesetzt? Ja die C2Q waren schon krass schlecht :rolleyes:
Auch bedenkst du nicht, dass zu der Zeit die Software komplett anders war und es dort noch keine Nachteile durch das altmodische Design gab.

Ich würde mal auf das letzte tippen. ;) Ab einer gewissen Komplexität enden die Optimierungsfähigkeiten des Compilers. Hier ist immer noch der Programmierer gefragt, seinen Code möglichst sauber und effizient zu strukturieren.


Da du scheinbar gerne in der Vergangenheit schwelgst, ja dann stimmt es ;)
 
Warum sollte jemand lügen?
Ich hab nicht gesagt, dass jemand lügt. Aber entsprechende Diagramme würden Sicherheit geben. Aussagen von Leuten die ich nicht kennen, tun das nicht. Problem ist, dass nicht jede Anwendung das gleiche macht und je nach Szenario ein anderes Verhalten zu beobachten ist. Beispiel, lässt du x264/x265 auf eine rawvideo Datei los, bekommst du auch nahezu 100% Auslastung. Verwendest du hingegen x264/x265 zB über eine ffmpeg Pipe, dann nicht.

Wir sind heute ja auch 10 Jahre weiter. Und damals gab es nichts schnelleres bei AMD zum Intel Quad.
Irrelevant. Es geht ums Prinzip.


Erst muss man sich mit Materie auseinandersetzen bevor man darüber sprechen kann und Latenzmessungen sind eben Latenzmessungen. Erstelle doch selbst welche wenn du glaubst dass sie nicht stimmen.
Ja, einige sollten sich wirklich erst mal mit der Materie befassen, bevor sie falsche Behauptungen in den Raum stellen, wie das CCX Design hätte deutliche Nachteile bei Spielen. Dem ist eben nicht so. Das wurde anhand von Spielen nachgewiesen. Dafür braucht es nicht mal Latenzmessungen.

Der Einfluss des CCX Designs inkl. Infinity Fabric ist eine Problemstelle in AMD´s Design
Mitnichten. Infinity Fabric ist eine Notwendigkeit für kohärente Systeme. Ohne wird es in Zukunft nicht gehen. Intel forscht ja ebenso an solchen Interconnects. Allerdings haben sie hier noch nichts marktreifes. Glaub es mir oder auch nicht, das wird aber kommen. ;) Der CCX selbst ist wiederum eine gewollte Lösung, um die Kosten niedrig zu halten und relativ einfach verschiedene Designs der selben Generation auf den Markt zu bringen. Eine Problemstelle ist das nicht per se. Ganz im Gegenteil, ich nehme gerne deutlich günstigere Prozessoren mit >4 Kernen. Man kann noch so sehr über Latenzen, Transferraten etc philosophieren. Wenn sie in der Praxis maximal Unterschiede im Messtoleranzbereich ausmachen, dann ist und bleibt es nur theoretisches Gerede. Eine Problemstelle sehe ich eher bei Intels riesigen monolithischen Designs, die bisher 1-2 Architekturgenerationen hinterherhinkten. Als informierter und potenzieller Kunde wünscht man sich was anderes. Da will ich einen Prozessor mit vielen Kernen basierend auf der aktuellsten Architektur.

Bei Ryzen steigt die Latenz bereits bei >4 mb Blöcken deutlich an, bei Intel nicht
Doch, auch bei Intel CPUs mit 8 MB L3 steigt sie laut entsprechender Tests bei >4 MB schon an.



Auch beim i7-6900K steigt sie bereits unterhalb seiner 20 MB L3 an.



Du solltest in solche Diagramme einfach nicht zu viel hineininterpretieren. Gerade die Übergangsphasen von einem zum nächsten Cache-Level können sicherlich nicht von jedem gängigen Tool präzise erfasst werden. Ergebnis sind dann widersprüchliche Messungen. Wie diese, die klar zeigt, dass erst oberhalb von 8 MB die Latenz bei Ryzen deutlich ansteigt.

AMD wählte ein inklusives Cachedesign
Nein. Der L3 ist nicht inklusive. Es ist ein Victim Cache. Bitte erst informieren, dann darüber diskutieren!

Bis 4MB ist sie etwas niedriger danach steigt sie massiv an und bremst. Aber dreh es dir ruhig hin bis es passt.
Das machst du gerade. Aber ich merke schon, mit dir ist nicht vernünftig zu diskutieren, weil du erstens wenig Ahnung von der Materie hast und zweitens notorisch Probleme bei Ryzen siehst, wo keine sind, und diese auch noch ohne Ende aufbauschst.

Selbst Bulldozer hat bei 4mb bis 8mb Blöcken eine deutlich niedrigere Latenz als Ryzen.
Und nochmal, das hast du dir auch nur ausgedacht und ist falsch. Zens L3 hat eine Latenz von 40 Takten. Bulldozers L3 Latenz liegt bei über 60 Takten.

Also hat Ryzen in Wirklichkeit nur 4mb Level 3 Cache und die restlichen 4mb in einem CCX sind dann Level 4 Cache?
Nein. Ryzen hat 2x 8 MB L3.

Dass die Latenzen vom einem CCX zum anderen schlecht sind, ist erwartbar, innerhalb eines CCX sollte das aber nicht auftreten.
Tut es ja auch nicht.


Ich weiß ja nicht, aber es könnte daran liegen, dass KBL nur 8 MB L3-Cache hat. ;)
Ryzen hat 16 MB (2*8 MB), aber die Latenz fängt schon bei 4 MB an zu spiken.
Du scheinst nicht zu verstehen, was der Punkt an meiner Aussage war. Richtig, KBL hat maximal 8 MB L3, die an einen Kern angebunden sind. Genauso wie Ryzen. Über 8 MB fällt Latenz sowohl bei KBL als auch Ryzen auf RAM Niveau zurück. Völlig unabhängig vom CCX Design. Trotzdem behaupten einige, Ryzen hätte aufgrund des CCX Designs eine Gaming Schwäche. KBL hingegen hat keine Gaming Schwäche, obwohl praktisch das gleiche Speicherverhalten ab 8 MB zu beobachten ist. Ergibt keinen Sinn, richtig? :stupid: Nochmal, das CCX Design hat in der Praxis keine nennenswerte negativen Auswirkungen, auch in Spielen nicht.

Ja, ist kein Problem per se, aber bei Cache sensibler Software teilweise schon. Das hat auch nichts mit gewissen Datengrößen zu tun, sobald zwischen den CCX-Blöcken kommuniziert werden muss, also nicht nur wenn der L3-Cache überläuft, kommt es zur drastischen Erhöhung der Latenz und Verringerung der Transferrate.
Wie gesagt, in der Praxis vernachlässigbar, weil das meiste eh von L1 und L2 abgepuffert wird. Ich denke AMD wird da schon einige clevere Mechanismen eingebaut haben, damit keine unnötigen Transfers stattfinden.

Ja die C2Q waren schon krass schlecht
Du verstehst wie so oft nicht worum es geht. Dass sie schlecht waren, hat keiner behauptet. Aber dass deren Multicore-Design, welches weitaus schlechter war als das von Ryzen, von den Intel Verfechtern nie angeprangert wurde, bei Ryzen jetzt aber draufgehauen wird, mit teils völlig falschen Behauptungen, ist einfach nur Heuchelei. Da fällt mir meine Aussage von weiter vorne wieder ein:
Ich kritisiere aber Unsachlichkeit dort, wo es angebracht ist. Auch wenn das manche nicht kapieren (wollen) aufgrund ihrer sehr einseitigen Sichtweise.
Einige haben leider eine zu einseitige und unsachliche Sichtweise.

Auch bedenkst du nicht, dass zu der Zeit die Software komplett anders war und es dort noch keine Nachteile durch das altmodische Design gab.
Wie Multithreading implementiert wurde, war damals nicht anders. Es gab nur weniger Software, die Multithreading berücksichtigten. Was sich vor allem auf partitioniertes Multithreading bezieht und für das Thema des CCX Designs eh belanglos ist. Datentransfers zwischen Kernen reduzieren sich bei partitioniertem Multithreading auf ein Minimum.

Da du scheinbar gerne in der Vergangenheit schwelgst, ja dann stimmt es
Das war, ist und wird auch so bleiben und hat nichts explizit mit der Vergangenheit zu tun.
 
Kafkaeske Bemerkungen zur Ausprägung einer selbstgefälligen Rabulistik, treffen hier den inwendigen Kern deiner eigentlichen Zensur.
Auch wenn die Modalität die selbe sein möchte, so ist die Disparität eminent.



Zuvörderst bedarf es einer Eruierung der Faktizitäten und einer vollumfänglichen Kontemplation/Reflexion um wirklich zur Materie durchzudringen.
Summa Summarum eine Abkehr von dogmatischen und unbeweglichen Formulierungen.

Figurativ beziehungsweise konkret ausgesprochen: Intel hat bessere Latenzen und keinen enormen Abfall an Bandbreite im Falle eines externen CCX Zugriffs:haha:

Die bisulca ungula des Ryzen CCX Designs.
Macht es besonders spannend wenn Threadripper das Licht der Welt erblickt.



Es gibt nur zwei Arten von Menschen: die Gerechten, die sich für Sünder halten, und die Sünder, die sich für Gerechte halten.
An dieser Worthülse hast du also deinen ganzen Tag verschwendet?! Die ganzen Wörter, die du vorher nicht kanntest, per Google gefunden? Respekt!
 
@Dude
Du scheinst nicht zu verstehen, was der Punkt an meiner Aussage war. Richtig, KBL hat maximal 8 MB L3, die an einen Kern angebunden sind. Genauso wie Ryzen. Über 8 MB fällt Latenz sowohl bei KBL als auch Ryzen auf RAM Niveau zurück. Völlig unabhängig vom CCX Design. Trotzdem behaupten einige, Ryzen hätte aufgrund des CCX Designs eine Gaming Schwäche. KBL hingegen hat keine Gaming Schwäche, obwohl praktisch das gleiche Speicherverhalten ab 8 MB zu beobachten ist. Ergibt keinen Sinn, richtig? :stupid: Nochmal, das CCX Design hat in der Praxis keine nennenswerte negativen Auswirkungen, auch in Spielen nicht.

Nein du scheinst einfach nicht zu verstehen, dass bei KBL bei Datengrößen > 8 MB der L3 Cache überläuft und die Daten in den Ram geschoben werden. Ryzen hat das doppelte an L3-Cache und trotzdem sinken die Transferraten und die Latenzen schlagen aus, sobald zwischen den CCX kommuniziert werden muss, auch mit Datengrößen < 16 MB, welche nicht in den Ram ausgelagert werden müssen. Was jetzt KBL oder auch Broadwell aber deutlich von Ryzen unterscheidet ist, dass bei denen die Datenrate nicht so drastisch einbricht wie bei Ryzen. Bei Ryzen sinkt sie sogar unter die Datenrate vom Ram!


Wie gesagt, in der Praxis vernachlässigbar, weil das meiste eh von L1 und L2 abgepuffert wird. Ich denke AMD wird da schon einige clevere Mechanismen eingebaut haben, damit keine unnötigen Transfers stattfinden.

Ja ist es größtenteils auch, aber es gibt halt Anwendungen, auch Spiele, die Leistung verlieren.
Wieso profitiert denn Ryzen so stark von schnellerem Ram?

Einfach mal ein kleines Beispiel:
Ryzen 1800x - Thread performance across the two CCX units - YouTube



Du verstehst wie so oft nicht worum es geht. Dass sie schlecht waren, hat keiner behauptet. Aber dass deren Multicore-Design, welches weitaus schlechter war als das von Ryzen, von den Intel Verfechtern nie angeprangert wurde, bei Ryzen jetzt aber draufgehauen wird, mit teils völlig falschen Behauptungen, ist einfach nur Heuchelei. Da fällt mir meine Aussage von weiter vorne wieder ein:

Einige haben leider eine zu einseitige und unsachliche Sichtweise.

Ne, ich habe mich einfach nur ein bisschen über den schwachsinnigen Vergleich lustig gemacht ;)

Vielleicht wurde es einfach nicht kritisiert, da man es zu der Zeit einfach nicht besser wusste und es keine Alternative gab?! Und nachdem dann die ersten Core-i-Serie CPUs erschienen sind, wurde doch das alte Design kritisiert. Klar gibt es immer ein paar Hansel, die so etwas nicht einsehen.

Und btw. die Aussage die du getroffen hast, war das eine Art Selbstreflexion, da sie voll und ganz auf dich zutrifft. :shot:


Wie Multithreading implementiert wurde, war damals nicht anders. Es gab nur weniger Software, die Multithreading berücksichtigten. Was sich vor allem auf partitioniertes Multithreading bezieht und für das Thema des CCX Designs eh belanglos ist. Datentransfers zwischen Kernen reduzieren sich bei partitioniertem Multithreading auf ein Minimum.

Ich meinte damit, dass die Software allgemein deutlich kleiner war und nicht so viele Daten über Threads austauschen musste wie heutzutage, wo Software riesiger und komplexer ist. Heutzutage arbeitet Software mit größeren Datengrößen als damals.

Das war, ist und wird auch so bleiben und hat nichts explizit mit der Vergangenheit zu tun.

Wie selber verstehst du keine Ironie? :rolleyes:
Compiler werden immer weiter entwickelt und es werden immer neue Möglichkeiten gesucht, wie Compiler Code optimieren können um mehr Performance herauszuholen. Im Bereich Caching lässt sich halt die meiste Performance holen, also werden die Optimierungen wohl auch möglichst in diesem Bereich sein.
Viele Optimierungsmöglichkeiten die man damals am Code einer Software vorgenommen hat, damit diese die vorhandenen Caches gut ausnutzt, sind zu großen Teilen in die Compiler eingeflossen, sodass diese die Optimierungen (u.a. Data Layout Optimitations) vornehmen. Ja es gibt noch Optimierungsmöglichkeiten bei der Software, ich habe nicht gesagt das es überhaupt keine gibt, aber diese sind sehr sehr komplex und im Bereich Größe und Anordnung der Daten optimieren aktuelle Compiler.
 
Zuletzt bearbeitet:
Ist bekannt ab wann die Reviews heute veröffentlicht werden dürfen?
 
Ich bin gespannt welche Reviewer CPUs zum testen bekommen haben. In einem von "Jayz" oder "Linus" aktuelleren Videos wird soweit ich mich erinnere erwähnt, dass Intel das verschicken von Reviewsamples eingeschränkt hätte und quasi nur noch wenige "ausgesuchte" Tester - Samples bekommen. Mal abwarten wo es später tatsächlich Tests geben wird.
 
Wow, das hatte ich gar nicht auf dem Schirm dass heute der/die/das NDA fällt :d
 
Enthüllt die Dinger doch endlichst, ich will die Euro Preise wissen:shot:
 
Ich hab nicht gesagt, dass jemand lügt.

Aber du gehst davon aus und windest dich wie ein Aal bei seinen letzten Zuckungen.
Ich möchte mal darauf hinweisen dass das ein Intel Thread und kein AMD Thread Wunschkonzert Thread ist.
Einen solchen Huldigungsthread gibts doch bereits, vielleicht solltest du dort deinen Bullshit verbreiten und AMD in den Arsch kriechen.

wie das CCX Design hätte deutliche Nachteile bei Spielen.

Na dann messe doch selbst wie hoch der Performanceabfall ist wenn über die Infinity Fabric kommuniziert werden muss.
Das kostet da teilweise 20% (Battlefield1) und da ist noch nicht mal der doppelte Cache mit rausgerechnet.
Dieser Designsansatz kostet Leistung. Würde ein CCX 8 Kerne + gemeinsamen L3 und keinen NUMA Cache beinhalten, dan würde die Leistung in Spielen wesentlichhöher ausfallen.
So hat man leider keine Chance gegen Skylake X.

Doch, auch bei Intel CPUs mit 8 MB L3 steigt sie laut entsprechender Tests bei >4 MB schon an.

Ich rede vom 6900k vs 1800x, falls es dir nicht auffällt.
Und so ein Verhalten ist völlig normal da weiter entfernte L3 Segmente die Daten etwas langsamer liefern.
Dass darf aber niemals so stark nach oben gehen wie be Ryzen vom Sprung auf 4mb zu 8mb, da liegt nocht einiges im Argen.
Auch beim i7-6900K steigt sie bereits unterhalb seiner 20 MB L3 an.

Aber nicht bei bereits deutlich weniger als der Hälfte an L3 Cache. Und das ist nunmal ein himmelweiter Unterschied, auch fällt die Latenz nicht auf RAM Latenz.
Die Infinity Fabric limitiert hier massiv und das kostet AMD Konkurrenzfähigkeit und Leistung.
Und sogar innerhalb eines CCX stimmt die Cache Latenz nicht. Das kostet auch.

Nein. Der L3 ist nicht inklusive. Es ist ein Victim Cache. Bitte erst informieren, dann darüber diskutieren!

Ja das stimmt, da habe ich mich vertan. Ich weiß natürlich dass es ein Victim Cache ist, nur schau dir mal an wie lange die Diskussion ist.
Einfach nur sinnlos, dabei geht es nur um einen kleinen Fakt den du nicht zugeben willst und schon wird klar wo sich der Troll aufhält.
Das ist ein Intel Thread. Deine AMD Huldigungen und die Arschkriecherei könntest du etwas kürzen.

Das machst du gerade. Aber ich merke schon, mit dir ist nicht vernünftig zu diskutieren, weil du erstens wenig Ahnung von der Materie hast und zweitens notorisch Probleme bei Ryzen siehst, wo keine sind, und diese auch noch ohne Ende aufbauschst.

Es geht eigentlich nur darum, dass AMD aufgrund des Designs eben schlechtere Cache Latenzen aufweist und die Infinity Fabric hier das Problem ist und sogar innerhalb eines CCX deutlichere Latenz Abfälle auftreten.
Und das erklärt eben eine schlechtere Spieleleistung, während es bei Anwendungen weit weniger wichtig ist. Dort kann man häufig auch den L3 komplett weglassen und es kommt kaum zu Performanceeinbrüchen.

Intel ist eben nach wie vor besser als AMD und das wird Skylake X manifestieren, da können sich manche auch 10 mal im Kreis drehen oder ewiglange inhaltlose Texte verfassen, da wird es auch nicht besser werden.

Ich freue mich auf die Reviews.
 
Zuletzt bearbeitet:
Erstaunlich ruhig auf Reddit und anderen Foren, weder ein Leak noch sonst was.

Hoffe heute wird's noch was mit den Reviews.
 
Intel ist eben nach wie vor besser als AMD und das wird Skylake X manifestieren, da können sich manche auch 10 mal im Kreis drehen oder ewiglange inhaltlose Texte verfassen, da wird es auch nicht besser werden.

Ich freue mich auf die Reviews.

Intel ist beim Abzocken viel besser als AMD. Da hast du vollkommen recht.
 
Reviews verschoben oder weshalb hat u.a. ASUS plötzlich die gesamte Produktpalette der X299 Mainboards aus ihrer Webseite entfernt?
 
Zuletzt bearbeitet:
Qualitativ hochwertige Beiträge hier, so wie man es gewohnt ist.
 
War die DE vermutlich :d

Ich wart und wart und noch immer keine Tests dazu :(
 
Next week kann man bis zum i9 Zehnkerner vorbestellen. Rest kommt dann August-Oktober. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh