CPU Leistung seit 2600k stagnierend?

Die einzigen "Flaschenhälse", die man heutzutage bei "Otto-Normal" antreffen könnte, sind Mainboards ohne AHCI (daran knüpft meist eine veraltete Architektur an), normale HDDs und USB2.0.

Alles andere ist Jammern auf hohem Niveau. Ob SATA2 oder SATA3 spielt keine Rolle. Selbst SATA1 ist mit AHCI noch vollkommen ausreichend.

THG hat doch mal einen Test gemacht. In Vielen Dingen merkt man den Unterschied nicht (ich auch nicht) aber einge Dinge sind sehr viel langsamer, und dabei rede ich nichtmal von Dateien kopieren o. Ä. Der Unterschied ist da. Ob du den merkst oder nicht, liegt wohl einfach daran ob du das gleiche machst wie ich. Mir aber erzählen zu wollen dass ich auf hohem Niveau jammere, ist schon dreist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber Wo soll dieser Unterschied denn herkommen? Von der doppelten sequentiellen leserate schon mal nicht (im Alltag)
 
Habe auch keinen unterschied zwischen sata2 und sata3 bemerkt, nur halt im benchmark.
 
Dem sind leider technische Grenzen gesetzt ;)
 
der witz ist ja, das viele moderne profi programme noch immer nur auf 1 chip laufen und nichtmal multicore fähig sind...
Die da wären? Alles mir bekannte das Dampf braucht ist schon laaange Multi (!=dual) core optimiert. Grafikprogramme? Check! Renderer? Check! Sampler, Dubber, Mixer? Check! DBMS und co? Aber sowas von Check! Compiler? Seit ~30 Jahren check. Also, wovon redest du da?
 
Aber Wo soll dieser Unterschied denn herkommen? Von der doppelten sequentiellen leserate schon mal nicht (im Alltag)
Die Latenz hängt auch von der Taktrate der Schnittstelle ab, und das merkt man beim Zugriff von kleinen Dateien dann recht schnell.
 
Die da wären? Alles mir bekannte das Dampf braucht ist schon laaange Multi (!=dual) core optimiert. Grafikprogramme? Check! Renderer? Check! Sampler, Dubber, Mixer? Check! DBMS und co? Aber sowas von Check! Compiler? Seit ~30 Jahren check. Also, wovon redest du da?

cad programme mit den der große bereich maschinenbau sein geld verdient. fast alle programme laufen dort noch auf 1 kern mit den meisten teilprogrammen. nur einzelne teile laufen wenn überhaupt auf nen zweiten kern. anders sieht es bei FEM aus, machen wir aber jetzt selber nicht.
 
cad programme mit den der große bereich maschinenbau sein geld verdient. fast alle programme laufen dort noch auf 1 kern mit den meisten teilprogrammen. nur einzelne teile laufen wenn überhaupt auf nen zweiten kern. anders sieht es bei FEM aus, machen wir aber jetzt selber nicht.
Welches cad ist es den genau? Es gibt ja Stadt, Land, Fluss Gewerbe...

Je nach Einsatz, ist Multi-GPU eben doch nicht zu unterschätzen: http://abload.de/img/bmw_blender.1125_1575ihac1.jpg
 
Zuletzt bearbeitet:
Doch, das ist ein schon großer Sprung. Ich bin von i5-2500 auf den i7-4790k gewechselt. Der Performance-Zuwachs hat mich selbst überrascht.

ARMA 3 im Multiplayer haben sich die FPS fast verdoppelt.

Mal sehen. Spätestens wenn ich für 4K Material in HEVC eine neue Kiste benötige, kommt der neue Rechner. Ob das schon dieses Jahr sein wird, wird sich zeigen. Konsolen habe ich keine aktuellen, das wird sich aber spätestens mit Halo 5 ändern und dann könnte ich statt auf einem neuen PC das kommende COD BO 3 genauso gut auch auf der Xbox One zocken.
 
cad programme mit den der große bereich maschinenbau sein geld verdient. fast alle programme laufen dort noch auf 1 kern mit den meisten teilprogrammen. nur einzelne teile laufen wenn überhaupt auf nen zweiten kern. anders sieht es bei FEM aus, machen wir aber jetzt selber nicht.
cad ist der einzige Bereich den ich ausgelassen habe, da ich mich damit nicht auskenne. Interessant das es genau da anders sein soll, glaub ich zwar nicht generell, aber möglich. Trotzdem ist das dann nur ein verschwindend geringer Teil der Profi-Programme und kann dann durchaus vernachlässigt werden.
Und soweit ich das als Laie verstehe hat man beim reinen Zeichnen, also 2D bzw simuliertem 3D bei CAD Programmen eh kein Performance-Problem, und wenns dann an die Berechnung geht (Statik, Volumina, etc pp) wird das in der Graka eh massivst parallelisiert gemacht. Klär mich auf falls ich irre.
 
Aus Gamer-Sicht ein größeres Problem ist eigentlich, dass gerade Spiele der größeren Publisher immer häufiger für PC und Konsole zusammen entwickelt werden. Das Ergebnis ist dann so ineffizient, dass der PC noch so gut sein kann, an einem hart codierten FPS-Lock und Nichtnutzung zahlreicher Funktionen der Grafikkarte kann er auch nichts ändern.

Dazu kommt, dass Intel in den letzten Jahren (mangels besserer Ideen?) den Fokus auf Stromsparen gelegt hat, sich dort aber inzwischen auch eine gewisse Sättigung / Diminishing Returns einstellen. Inzwischen spricht eigentlich alle Vernunft gegen zeitnahes Aufrüsten. In einem Forum wie HardwareLuxx natürlich schwierig. ;)
 
Inzwischen spricht eigentlich alle Vernunft gegen zeitnahes Aufrüsten.
So schaut's aus.

Ich sehe bislang nur drei Gründe, warum man aufrüsten sollte:

a) Das System ist asbach-uralt und ein Teil davon hat sich verabschiedet - bspw. C2D E6420 und nach Blitzeinschlag sind Mobo, Netzteil und HDD hinüber. Dann würde ich jedem zum Skylake (nicht unbedingt i5) raten, sobald verfügbar.

b) Das System wird zum Zocken genutzt, bietet aber keine OC-Optionen (mehr) - bspw. i5-2300 oder i5-750. Auf zu Skylake.

c) Man braucht unbedingt die neuen Funktionen der Skylake-Plattform. M.2 32GB/s, USB3.1 & Co. müssen unbedingt her. Und weniger Strom sowieso.

Für "Otto-Normal", also ein Großteil der Weltbevölkerung im heimischen Gefilde, hat bereits seit Jahren eine Marktsättigung eingesetzt. Seit dem C2D bzw. dem A64 X2 (AM2/AM3) reicht die Rechenleistung für sämtliche Alltagsaufgaben (sogar Hobbyvideoschnitt mit Windows Movie Maker) aus. Der "Oho-Effekt" entsteht durch vollkommen neue Hardware wie SSDs.

Ob man heutzutage als Neuanschaffung einen IvyBridge, Haswell oder Skylake kauft, spielt in meinen Augen, bis auf die Features der Plattformen, keine Rolle mehr. Die Leistung ist auf allen drei Generationen in ausreichender Menge vorhanden, Gamer können Übertakten.

Erst die in 14nm folgenden 6/8-Core-CPUs werden wieder ein Novum darstellen - sechs bzw. acht Kerne über 3GHz mit weniger als 100W TDP. Das erinnert an den guten, alten Q6600. Der Einstieg in die QuadCore-Welt und mit ordentlicher Kühlung: gib' ihm. :d :fresse:
 
Größtenteils kann man schon fast berechnen wie sich die CPU Leistung in Zukunft "steigert".

https://de.wikipedia.org/wiki/Mooresches_Gesetz

Was genau besagt das "Gesetz" zur CPU leistung aus? Ich kann davon absolut nichts ableiten. Gerade mit dem Überführen der gpus in die CPU ist es eigentlich hinfällig geworden "Leistung" davon abzuleiten.
Früher mag es so gewesen sein: CPU ist doppelt so komplex, also auch doppelt so schnell. Heute ist das definitiv nicht so, die CPU Einheit ist dank der GPU extrem komplex geworden, aber die CPU Leistung ist ja exakt gleich geblieben (siehe 4790k vs 6700k).

Das Mooresche Gesetz steht zur CPU Leistung, wie die TDP zur Leistungsaufnahme: Es kann Tendenzen zeigen, muss es aber nicht - eigentlich ziemlich sinnbefreite Zahlen/Theorien.
 
Doch, das ist ein schon großer Sprung. Ich bin von i5-2500 auf den i7-4790k gewechselt. Der Performance-Zuwachs hat mich selbst überrascht.

ARMA 3 im Multiplayer haben sich die FPS fast verdoppelt.

Ausgerechnet im Multiplayer wo man am Servertropf hängt und wo Arma ja so gut über die Kerne samt HT skaliert. Ich glaub ich habe den :xmas: gesehen.
 
Einbildung kann täuschen ;)
 
ARMA 3? Ist das nicht die Engine, die auch DayZ nutzt? Dein i5-2500 war wohl wirklich ohne K, und war nicht übertaktet. Und jetzt wunderst du dich, dass du mit irgendwie anderthalb Gigahertz mehr auch mehr Performance kriegst?
 
Eigentlich sind es nur etwas mehr als 20 % mehr Takt von 3,4 auf 4,2ghz im allcore Turbo, dazu noch 15% IPC und schwups hat man ganze 100% Mehrleistung.:bigok:
Mein Kumpfel mit seinem 8350 hat meist die gleiche Framezahl wie ich mit dem 3770k im Multiplayer, weil die Server meist einfach nicht mehr hergeben
 
Ob man heutzutage als Neuanschaffung einen IvyBridge, Haswell oder Skylake kauft, spielt in meinen Augen,
Neu kauft dch heute keiner mehr Sandy- oder IvyBridge, entweder Haswell oder Skylake und bald nur noch Skylake, wenn der erst etabliert ist und die anfänglichen Aufpreise entfallen sind.
Gamer können Übertakten.
Das können sie bei allen Generation mit der richtigen CPU und dem passenden Board. Wieso tun immer alle so, als wenn das heute gar nicht mehr gehen würde? Oder als ob man damit eine alte CPU generell auf das Leistungsniveau einer vergleichbaren aktuellen CPU bringen könnte?



Nimmt man mal Anandtechs Tabelle als Grundlage, dann wird es zwar immer weniger was da geht, auch weil der maximale Takt den man zu erreichen erwarten kann immer gefallen, die Werkstakte aber eher gestiegen sind, aber ein Sandy den man um 45% übertaktet bringt deswegen eben keine 45% Mehrleistung, die Leistung skaliert ja nicht linear mit dem Takt. Außerdem hat Anandtech seine 3 Engineering Samples auf über 4,6GHz und die eine Retail CPU auf 4,5GHz bekommen, normale Retail CPUs können das also auch schaffen oder wenigstens 4,4GHz, was auch noch mal wenigstens 10% mehr Takt wären.

aber die CPU Leistung ist ja exakt gleich geblieben (siehe 4790k vs 6700k).
Das ist doch so nicht richtig, egal wie oft es wiederholt wird, die Steigerung ist nicht bei allen Anwendungen vorhanden, aber z.B. bei allen die Anandtech unter Linux getestet hat und bei NPB, Fluid Dynamics oder Redis Memory-Key Stor 10x bei fast 20% für den 6700k gegenüber dem 4790k.

Klar wird das einen Gamer nicht interssieren und bei den Game Tests mit High-End Grakas liegen die i5 und i7 seid SandyBridge mehr oder weniger gleichauf, aber das ist doch eben kein Beleg für den angeblich nicht vorhandenen Leistungszuwachs, sondern nur dafür das die Games diese Mehrleistung nicht brauchen bzw. nutzen können. GRID: Autosport ist da eines der wenigen bei denen die CPUs überhaupt einen Unterschied jenseits der Messgenauigkeit ausmachen und schon liegt der 2600k auch mit 77,2 Frame (R9 290X) zu 112,24fps des 4790k zurück, genau um die 45% die man vielleicht bei einer gut übertaktbare CPU vielleicht beim Takt rausholen kann.

Aber einen gut gehenden 4790k bekommt man auch auf 4,8GHz und die besten auf 5GHz, dann sieht der 2600k doch wieder alt aus. Warum also einen guten übertaktbaren 2600k also gegen einen 4790k@Stock antreten lassen? Nur damit These stimmt die Leistung würde stagnieren? Das kann es ja wohl nicht sein, also entweder bei @Stock oder beide OC und dann entweder nach dem was viele können und das sind dann eben bei beim 2600k keine 5GHz oder nach dem was die besten Exemplare schaffen, dann muss man auch einem 4790k die 5GHz zugestehen, die so etwa 5% von ihnen schaffen sollen.

Intel_Generation_OC.png
 
Ich habe nie von "nicht vorhandenem Leistungszuwachs" gesprochen. Wenn du meine Aussage aus dem Kontext nimmst, oder dich an diesem Halbsatz aufhängst, ist das dein Problem.

Natürlich ist ein S-Bridge einem Haswell/Skylake bei 4GHz unterlegen. Aber die Leistung ist bei beiden CPUs bei aktuellen Games vollkommen ausreichend bis nahezu identisch, da das Problem immer noch die GPU darstellt. Und da der Großteil der Gamer heutzutage mit FullHD und mehr zockt, wird die GPU mehr und mehr zum Flaschenhals. Warten wir erstmal, bis 4K-Displays bei der 100€-Marke ankommen. Der Trend ist absehbar.

Die einzigen, die von der Mehrleistung von Skylake profitieren, sind Professionals, die auf die Features (AVX & Co.) in ihren Programmen angewiesen sind.

Otto-Normal (also Mutti & Co.) sowie Gamer brauchen Skylake nicht. Für die reicht ein (gebrauchtes) S-Bridge-, I-Bridge- oder Haswell-System. Entweder mit passenden Celeron/Pentium-CPUs für Mutti & Co. oder K-CPUs für die Gamer.

Wer von einem 2500K @ 4GHz auf einen Skylake @ 4GHz wechselt, kann sich über den geringeren Stromverbrauch freuen. Über die "nur" paar FPS mehr @ FullHD wird er sich weniger freuen. Und das Wort "Amortisierung" wollen wir gar nicht erst in den Mund nehmen.
 
Zuletzt bearbeitet:
Ich habe nie von "nicht vorhandenem Leistungszuwachs" gesprochen. Wenn du meine Aussage aus dem Kontext nimmst, oder dich an diesem Halbsatz aufhängst, ist das dein Problem.

Natürlich ist ein S-Bridge einem Haswell/Skylake bei 4GHz unterlegen. Aber die Leistung ist bei beiden CPUs bei aktuellen Games vollkommen ausreichend bis nahezu identisch, da das Problem immer noch die GPU darstellt. Und da der Großteil der Gamer heutzutage mit FullHD und mehr zockt, wird die GPU mehr und mehr zum Flaschenhals. Warten wir erstmal, bis 4K-Displays bei der 100€-Marke ankommen. Der Trend ist absehbar.

Die einzigen, die von der Mehrleistung von Skylake profitieren, sind Professionals, die auf die Features (AVX & Co.) in ihren Programmen angewiesen sind.

Otto-Normal (also Mutti & Co.) sowie Gamer brauchen Skylake nicht. Für die reicht ein (gebrauchtes) S-Bridge-, I-Bridge- oder Haswell-System. Entweder mit passenden Celeron/Pentium-CPUs für Mutti & Co. oder K-CPUs für die Gamer.

Wer von einem 2500K @ 4GHz auf einen Skylake @ 4GHz wechselt, kann sich über den geringeren Stromverbrauch freuen. Über die "nur" paar FPS mehr @ FullHD wird er sich weniger freuen. Und das Wort "Amortisierung" wollen wir gar nicht erst in den Mund nehmen.
:bigok:
Oder Gamer, die GRID2 spielen und nicht nur benchen! (AVX)
Es wird Zeit, dass auch DirectX AVX kennenlernt...
 
...aber ein Sandy den man um 45% übertaktet bringt deswegen eben keine 45% Mehrleistung, die Leistung skaliert ja nicht linear mit dem Takt.

Das würde ich so nicht primär pauschal unterschreiben... Die Leistung häng in erster Linie von der Software ab.
Natürlich skaliert das Teil annähernd 1:1, wenn nichts anderes anfängt zu limitieren. Mit Spieletests wird man das freilich aber nicht ermitteln können ;) Denn da limitiert idR irgendwas, aber fast nie vollständig und ausschließlich die CPU. ;)

Wer von einem 2500K @ 4GHz auf einen Skylake @ 4GHz wechselt, kann sich über den geringeren Stromverbrauch freuen. Über die "nur" paar FPS mehr @ FullHD wird er sich weniger freuen. Und das Wort "Amortisierung" wollen wir gar nicht erst in den Mund nehmen.

Auch das kann ich so nicht pauschal unterschreiben... Denn es hängt auch wieder stark von der Software ab.
Es gibt Titel, die interessiert das relativ wenig, was die CPU da leistet. Und Andere dafür um so mehr... Beispiel für ersteres wäre wohl aktuelle The Witcher 3. Beispiel für letzteres wäre bspw. Total War: Attila, ggf. auch GTA V.
Selbst in UHD sieht man noch Unterschiede in Attila zwischen einem 2500k.
Und wenn man beide OCed betreibt und beide relativ gleiche OC Taktraten in Relation zum Basistakt dazu bekommen, ändert sich an den Werten auch nix. Der 2500k rückt etwas mehr ran, weil er etwas weniger Basistakt fährt.

Die große Preisfrage ist eher, warum sollte man überhaupt OC betreiben, wenn man sich mit popligen ~10% zufrieden gibt? -> das kann man sich gleich schenken. Zumindest nach den bisherigen Reviews, welche ich laß, scheint Skylake nicht grundsätzlich bei 4GHz schluss zu machen. Selbst wenn man die 5GHz ausm Luxxtest mit der Dual 140er AIO Wakü ausklammert, scheint da gerade für den kleinen durchaus auch 4,5GHz machbar.
Also wenn vergleichen, dann doch bitte mit vergleichbaren Vorraussetzungen.
 
Natürlich skaliert das Teil annähernd 1:1, wenn nichts anderes anfängt zu limitieren.
Das ist der Satz des Monats, ehrlich! Das ganze I/O Subsystem wird nicht linear mit übertaktet und das die linear skaliert wenn man eben kein I/O machen muss welche limiert, ist sowieso logisch, nur praktisch eben außer in Benchmarks die sich mehr oder weniger nur im Cache abspielen, leider nicht zu realisieren.

Mit Spieletests wird man das freilich aber nicht ermitteln können ;) Denn da limitiert idR irgendwas, aber fast nie vollständig und ausschließlich die CPU. ;)
Das sage ich ja, die meisten Spiele fordern CPUs nicht genug um überhaupt die Unterscheide in deren Performance zeigen zu können, sobald sie erst einmal eine bestimmte Mindestleistung haben.
Zumindest nach den bisherigen Reviews, welche ich laß, scheint Skylake nicht grundsätzlich bei 4GHz schluss zu machen. Selbst wenn man die 5GHz ausm Luxxtest mit der Dual 140er AIO Wakü ausklammert, scheint da gerade für den kleinen durchaus auch 4,5GHz machbar.
Anandtech hatte 3 ES die alle auf 4.6GHz gingen und einen Retail der 4.5GHz gepackt hat. Alle haben auch bei moderaten 1.25V (eingestellt, ausgelesen weniger) noch 4,4GHz geschafft und zwar stabil und mit weniger Leistungsaufnahme als das MSI Board denen in der Defaulteinstellung draufgebraten hat.
 
Das ist der Satz des Monats, ehrlich! Das ganze I/O Subsystem wird nicht linear mit übertaktet und das die linear skaliert wenn man eben kein I/O machen muss welche limiert, ist sowieso logisch, nur praktisch eben außer in Benchmarks die sich mehr oder weniger nur im Cache abspielen, leider nicht zu realisieren.

Was heist praktisch nicht zu realisieren? Komplexe Berechnungen gibts doch wie Sand am Meer. Spiele gehören halt einfach nicht dazu...
Ich komme von einem OCed 2600K und bin num beim OCed 5960X. Beide CPUs bringen mir bspw. beim Rendern fast annähernd perfekte Skalierung mit dem Takt. Der Oktacore überzeugt dabei so sehr, dass er gar > doppelte Performance zum Sandy vorher rauskloppt. Trotz relativ geringer "IPC" Steigerung und etwas weniger Endtakt bei mir. Letzterer skaliert mit OC zwar etwas weniger, da der Cache nicht im gleichen Maß bei mir mitübertaktet wurde, da die Cachegröße aber drastisch gestiegen ist zu vorher, stört mich das weniger.
Deine Aussage oben, auf die ich mich bezog, lässt dabei eher durchklingen, dass von 45% mehr Takt keineswegs auch nur annähernd 45% Mehrleistung bei rum kommen. Und das ist eben (wenn man abseits von Spielen schaut) nicht der Fall... Gibt genügend fordernde Szenarien, wo das so nicht stimmt.

Falls du dich nur auf Spiele bezogen hast, Asche auf mein Haupt...
 
Neu kauft dch heute keiner mehr Sandy- oder IvyBridge, entweder Haswell oder Skylake und bald nur noch Skylake, wenn der erst etabliert ist und die anfänglichen Aufpreise entfallen sind.

So war es ja auch nicht gemeint. Ob Haswell oder Skylake, ist völlig egal, beide sind gleichschnell und gleich gut übertaktbar.
Wer damals einen Sandy gekauft hat, braucht keine neue CPU, wegen 15 bis 20% mehr Leistung bei gleichem Takt.. völlig unnötig.

Es empfiehlt sich den ganzen Sinn eines Posts zu erfassen, bevor man sich etwas herauspickt und den Zusammenhang falsch darstellt.

[
 
So war es ja auch nicht gemeint. Ob Haswell oder Skylake, ist völlig egal, beide sind gleichschnell und gleich gut übertaktbar.
Wer damals einen Sandy gekauft hat, braucht keine neue CPU, wegen 15 bis 20% mehr Leistung bei gleichem Takt..
Und wieder nur die Sicht der Gamers eingenommen, die Leistungssteigerung von SandyBridge zu Skylake sind da, wobei für SciTech Code die Skylake Xeons sehr viel interessanter sein werden, denn die haben dann AVX-512 was die Desktop CPUs nicht unterstützen.
 
Und wieder nur die Sicht der Gamers eingenommen
Eben nicht.

Die Sicht der Gamer und "Otto-Normal". Und das ist nun'mal die Mehrheit.

Die einzigen, die eindeutig von einer Skylake-Neuanschaffung profitieren, sind Professionals. Die nutzen die neuen und verbesserten Featuren von Skylake und der Plattform.

Ob es sich als Gamer lohnt, kann man in den wenigsten Fällen "bejahen". Wenn man keine K-CPU besitzt und daher weniger als 4GHz unter der Haube hat, lohnt sich der Wechsel. Falls man bereits eine K-CPU mit 4GHz nutzt, ist ein Wechsel zu Skylake rausgeschmissenes Geld. Dann lieber auf Broadwell-E sparen, denn dann rutschen die 6/8-Core-CPUs unter die 100W TDP - und dann werden, aufgrund der einsetzenden Skalierbarkeit der neuen Gaming-Generationen, die Karten neu gemischt.

Für "Otto-Normal" hingegen spielt das alles keine Rolle. Für die ist selbst ein Core2Duo vollkommen ausreichend. Wenn da ein PC explodiert, tut man gut daran, aufgrund des überzogenen Preises eben KEINEN Skylake zu kaufen - sondern zu einer sparsamen S-Bridge-, I-Bridge- oder Haswell-Celeron/Pentium-Plattform zu greifen. Ob man die gebraucht oder neu bekommt, spielt dabei keine Rolle - Leistung kommt da mehr als genug raus.
 
Die Sicht der Gamer und "Otto-Normal". Und das ist nun'mal die Mehrheit.

Ich wäre mir da gar nicht ganz so sicher, ob Gamer und "Otto-Normal" zusammen die absolute Absatzmenge von Xeons toppen ;) Speziell, weil der PC mit dem Sockel 11xx ja im Absatz in den letzten Jahren drastisch einknickte... Alles wo es stark auf Platz und Verbrauch ankommt, da zieht der Effizienzfaktor ziemlich drastisch. Und speziell zählt auch weniger die absolute Leistung. Noch dazu gehts oftmals noch zur gesteigerten Effizienz bergauf.

jdl hat nicht ganz unrecht was das Thema angeht...
 
@Reaver1988

Is ja auch geil du verkaufst so gesehen deinen 4790K um dir einen fast 5 Jahren alten 2600K einzubauen is ja geil :d

Schön oldschool :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh