Intel Core i9-10850K: Der langsamere und günstigere Core i9-10900K

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Deshalb das + da ich gerade keine zahlen vorliegen habe.

Aber das könnte sich mit Ryzen 4000 vllt dann auch ändern, aber das weiß nur AMD.
 
Es vielleicht einfach daran liegt dass Kerne sich langweilen? :popcorn:

Witzig. Stromverbrauch bringst du im Kaufberatungsbereich noch als random Argument pro AMD, aber eigentlich ist er sowieso egal, weil sich die Kerne beim Gaming langweilen. Wichtig ist also exakt der Stromverbrauch der EINEN CPU, mit der AMD einen Kracher im Portfolio hat und der dann im Vergleich zu dem, was bei Intel so geboten wird und das genau dann, wenn es dir gerade in den Kram passt und irgendwann irgendwo irgendwer mal danach gefragt hat (der TE im anderen Fall aber nicht^^).

Cherrypicking at its best...
 
Also ich finde ja, das nur FPS als Vorteil zu bringen, Cherrypicking ist................aber OK, jeder wie er möchte.
 
Also ich finde ja, das nur FPS als Vorteil zu bringen, Cherrypicking ist................aber OK, jeder wie er möchte.

Sofern du andere wichtige Eckdaten findest, die in Sachen "Gaming" für dich besonders relevant und als existent belegbar sind, darfst du das ja gerne äußern und man kann drauf eingehen.
 
Und ich finde, das ist das wichtigste überhaupt, oder wie willst du sonst lange mit spaß haben? Also ich hätte keine lust und Geld schon garnicht nach 3 Jahren wieder aufzurüsten.
 
Und das schon beim Gaming bei Intel muss man da Anwendungen ausführen.
 
Gerne, es gibt massig an Menschen, denen mittlerweile Benchmarks völlig egal sind. Und es ist halt auch völlig egal ob ich 60 oder 66 FPS habe. Sehr viele habe das schon lange kappiert.

Um diesen Benchmarks gerecht zu werden, müsste man sich sowieso das exakt gleiche Sys kaufen, auf dem getestet wurde.............und selbst dann wäre es fragwürdig. Die FPS werden jetzt natürlich gerne wieder rausgeholt, weil Intel ja nun den 30ten Aufguss verkauft und mit was "NEUEN" wohl erst 2022 zu rechnen ist.
 
Na dann viel spaß wenn aus 66 FPS nur noch 50 FPS bei rumkommen.
 
Naja, da sind wir aber dabei, dass man als User dann subjektiv gefühlte Wahrnehmungen als objektiv anzuerkennende Fakten deklariert, oder nicht?

Für DICH sind 60 FPS vs. 66 FPS egal. Ebenso ist es dann ggf. für DICH egal, dass es überhaupt "nur" 60 FPS sind und keine 100, 120, 140 etc. . Das muss aber nicht pauschal für alle anderen Nutzer ebenfalls wahr sein und mit "die (weniger intelligenten) anderen kapieren das nur nicht..." hat das auch sehr wenig zu tun.

Und Nein, die FPS werden nun auch nicht nur "wieder rausgeholt", weil [bla bla], sondern weil sie seit jeher der gängigste Vergleichsfaktor sind und erst zukünftig hoffentlich irgendwann ersetzt werden (wenn auch wieder durch Werte, die darauf basieren). Und was hat das mit der Anzahl der Aufgüsse zu tun?
 
Und es ist halt auch völlig egal ob ich 60 oder 66 FPS habe.

Ich empfehle dir eine der gängigen Videospielkonsolen. Ob nun 33 oder 30 fps sind dann ja irgendwann auch egal wa?
Beitrag automatisch zusammengeführt:

Um diesen Benchmarks gerecht zu werden, müsste man sich sowieso das exakt gleiche Sys kaufen, auf dem getestet wurde

Nein, dafür reichen gleiche CPU (-settings), RAM (-settings), GPU (-settings)

Ich verstehe hier allerdings auch deinen Punkt nicht. Wenn du die gleichen Fahrleistungen wie Auto X haben willst, musst du entsprechend auch Auto X kaufen, was genau ist daran dein Problem?
 
wie z.B. FPS Zahlen bei Intel??

Das ist völlig wirr und hat keinerlei Bezug zum Geschriebenen. Die gemessenen FPS sind objektive Zahlen, eben weil sie gemessen werden können. Ganz im Gegensatz zur persönlichen Wahrnehmung.


Das subjektiv Wahrgenommene (von dir): 60 vs 66 FPS sind egal und 60 FPS sind gut.

Das subjektiv Wahrgenommene von User A: 60 vs 66 FPS sind egal, weil ich unter 120 FPS Augenkrebs bekomme.

Das subjektiv Wahrgenommene von User B: 60 FPS vs. 66 FPS sind nicht egal, weil ich beim kleinsten Drop unter 60 von V-Sync beeinflusst werde und das Spiel nicht mehr als "flüssig" wahrnehme.

Das subjektiv Wahrgenommene von User C: Ich verliere in Multiplayer Shootern regelmäßig, weil ich nur 60 FPS habe, während mein Gegner das Doppelte hat. ABER evtl. reicht es auch, dass er 66 hat^^


Kann man ewig so fortsetzen...
 
Wir reden hier über einen Bereich, in dem AMD wie Intel, für jeden die richtige CPU hat und genug Leistung liefert. Alle werden genug FPS liefern um flüssig zu spielen. Das hat nichts mit subjektiv zu tun, sondern ist Fakt. Wenn Du jetzt sagst, die 10% (oder wieviel es jetzt auch war) machen einen Unterschied hast Du natürlich Recht. Denn für Deine (und viele andere) Wahrnehmung sind die z.B. 6 FPS+ wichtig!!
Es gibt aber auch viele Leute (ja, auch ich!) denen das völlig egal ist. Das ist dann nicht subjektiv Wahrgenommen von mir, sondern einfach Fakt.
 
Fakt ist (möglicherweise, denn überprüfbar ist es schwer), dass es manchen / einigen / vielen Leuten egal ist. So weit, so gut.

Das hat aber doch mit dem übrigen Thema nichts zu tun. Und NEIN, es steht eben nicht fest, dass alle CPUs "genug" FPS liefern werden, um "flüssig" zu spielen; und ein Fakt ist es gleich in mehrfacher Hinsicht nicht, sondern ebengenau DOCH, subjektiv.

"Genug" und "flüssig" alleine sind so dehnbare und subjektiv beeinflusste Begriffe, dass man faktisch nicht aus deiner Position heraus beurteilen kann, wem was genügt und wem nicht und allgemeingültige Werte gibt es schlicht keine.

Ebenso ist es witzig, dass du ständig auf den 6 FPS (und das im Bereich von 60 vs 66) herumhackst. Was ist mit den ganzen anderen Spielern, die inzwischen 75, 100, 120, 144, 165 oder gar 240 FPS auf ihren Monitoren dargestellt bekommen? Zählen die objektiv nicht mehr, weil es nicht in deine subjektive (!) Beurteilung passt?^^
 
Ist nur die frage wie lange noch 6 Kerne reichen. Das selben wurde zu den 4 Kerner gesagt zu den Ryzen Einführung. Heute bekommen die 4er immer mehr Probleme und das selbe kann mit 6 Kerne auch immer enger werden, besonders jetzt wo die neuen Konsolen vor der Tür stehen.

Das wird aber schon ewig und drei Tage so gesagt. Dennoch dreht der 3300X in Games "Kreise" (übertrieben gesagt) um die alten 1600 und 1700/1800er Ryzen, trotz "nur" 4C/8T ggü. 6/8C und 12/16T. Was bringt es also, Kerne auf Vorrat zu kaufen, wenn du in 3-5 Jahren, sofern das überhaupt irgendwann soweit kommt, vllt nen Vorteil ggü. damals erhältlichen CPUs erhälst - aber gegen dann dort neue Modell komplett abstinkst?

Das Argument kann man seit gut und gerne 10 Jahren beobachten. Das wurde zu Phenom II X6 Zeiten gesagt, dass 6C in Games was bringen werden - das wurde zu Bulldozer Zeiten gesagt, dass 4M/8T was bringen werden, das wurde zu Ryzen 1 Zeiten wieder gesagt usw. usf.
Am Ende kommt es ganz klar aufs Game an und vor allem, auf die Settings. Es gibt Spiele, die profitieren obenraus noch ganz gut, andere profitieren sogut wie gar nicht. Weiterhin kommt es auf die GPU an, NV GPUs skalieren besser über MT beim der CPU, weil deren Scheduler eben in Teilen in Software und nicht in Hardware läuft. Dummerweise wird immer mit 2080TI/TitanRTX getestet, weil es noch kein entsprechendes AMD Gegenstück gibt. Und mit den gleichen Werten argumentiert, wenn es auch um Mittelklasse, ggf. gar AMD GPUs geht. ;)

Komisch, bei den alten CPUs von AMD wurde auch immer der schrecklich hohe Verbrauch als Minus angesehen. Bei der jetzigen Intel/AMD Situation spricht komischerweise keiner mehr über Stromverbrauch.

Ein Schelm wer böses dabei denkt...............:wink:
Nein - nix Schelm. Wohl dem, der Zusammenhänge versteht...
Kannst du Zahlen vor legen von dem ach so schrecklich hohen Stromverbrauch bei Intel? -> abseits irgendwelcher generischen Volllast-MT Tasks? Hier gings um Games. Also mal raus mit den Zahlen die belegen, wo der Verbrauch so hoch ist?

Das Argument ist soweit berechtigt, wo es um MT-Volllast geht. Aber warum sollte es um MT-Volllast gehen? Einerseits redet ihr hier gerade über Games - und da ist der Verbrauch unter Teillast bei Intel seeehr konkurrenzfähig. Sogar je nach Board und Konfig der AMD Kombo voraus. Trotz Assbach Prozess. Verstehe dein Argument nicht...
Interessiert dich der Volllast Verbrauch beim Auto, wenn du eh nur von Zuhause zum Bäcker ums Eck und zurück fährst? Doch ganz sicher nicht... Jemanden, der jeden Tag hunderte km über die BAB unbegrenzt ballert, wohl vllt schon eher... Vor allem, wenn er das selbst zahlen darf und nicht der Arbeitgeber ;) Nur ist das genau so wie MT-Vollast alle Nase lang, schlicht nicht die Regal...

Es vielleicht einfach daran liegt dass Kerne sich langweilen? :popcorn:
Ja - darum gehts doch?
Die Kerne langweilen sich... Weil sie eben nicht in jeder Situation ausgefahren werden können. Anders, als Reviews es gern suggerieren mit ihrer "Anwendungsleistung"... Real ist MT Vollast eher selten anzutreffen. Und wenn, dann meist klar auf eine Anwendung hin zugeschnitten, die läuft, solange sie läuft und ist sie fertig, ist der Spuk auch schon vorbei...
Kann mich mit meiner 2700U 4C/8T CPU nicht über Überlast beklagen. Und mit dem System wird natürlich gearbeitet und nicht gespielt ;) Was denn sonst, als die eigene Arbeit sollte definieren, was für Anwendungen relevant sind? -> lässt sich für jeden anderen natürlich adaptieren. Wenn man nicht immer irgendwo MT-Volllast als Indikator ausführen würde, wohlwissentlich, dass das effektiv wenig Relevanz hat...
 
Die 60/66 FPS waren nur ein Beispiel, welches du jetzt leider für Deine Haarspalterei missbrauchst. Schade........................

Und wenn alle Spiele mit AMD/Intel gespielt werden können ist das natürlich eine Tatsache.......................nur eine die Du nicht gerne liest!^^
 
Ich möchte an der Stelle nochmals darauf hinweisen:
Der Initialbeitrag war schon für die Tonne, aber davon mal ab.
Und wegen der Verbräuche, nehme ich am liebsten den FormatC aka Igorslabs. Der kann gefühlt als einziger wirklich Verbräuche messen.
Und da ich Beruflich in einem ähnlichen Bereich bin, stoßen mir am Ende solche Pauschalisierungen massiv sauer auf. Es war kein Angriff auf dich, aber wie gesagt den Beitrag hättest du dir schenken können, weil er ebenso Themenfremd wie der Initialbeitrag ist.

Du kannst, und da wirst du mir Recht geben, in einem normalen UseCase keinen Unterschied bei einer Blindprobe spüren. Ich habe bis heute noch keinen Kennen gelernt, der das konnte.

Was ich als Vorteil der neuen Intel Gen mitnehme ist, dass die Frametimes endlich konstanter sind und z.T. auch besser und dass die Folgegen dann endlich auch PCIE4.0 bekommt. Im Teillastverbrauch hat Igor schon bewiesen, dass weder AMD noch Intel wirkliche Stromschlucker sind. Aber Da ich nicht 23:59Std am Tag spiele, sind für mich auch Lastverbräuche wichtig.. Und da verliert die veraltete Plattform.
 
Wurde nicht bereits mehrfach getestet, wie es in Sachen Realverbrauch unter Gaming(!)-Last so aussieht und die Unterschiede waren letztlich deutlich geringer als das, was die völlig am Thema vorbei oft als Argument gebrachten Cinebench/Multicore/Anwendungs-Volllast-Tests den geneigten Leser glauben bzw. einen möglichen Intel-Käuer fürchten lassen sollen?

Um es mit Igor zu sagen, der es aus meiner Sicht ziemlich treffend beschrieben hat:
"Viel mehr muss man dann auch gar nicht zur Leistungsaufnahme schreiben, denn sogar Intel kennt die Stärken (Anm.: Igor meint hier Gaming) und Schwächen dieser CPU nur allzu gut. Da muss man dann auch nicht durch das Heranziehen noch weiterer Negativbeispiele schadenfroh nachtreten, sondern sich besser auf das konzentrieren, was zumindest annährend ebenbürtig ist. Allerdings sind das dann Szenarien, wo man eigentlich gar keinen 10-Kerner bräuchte. Finde den Widerspruch… "
(Zitiert aus: https://www.igorslab.de/intel-core-...echen-des-letzten-14-nm-boliden-seiner-art/8/)

Cunhell
 
Und wegen der Verbräuche, nehme ich am liebsten den FormatC aka Igorslabs. Der kann gefühlt als einziger wirklich Verbräuche messen.

[...]

Im Teillastverbrauch hat Igor schon bewiesen, dass weder AMD noch Intel wirkliche Stromschlucker sind. Aber Da ich nicht 23:59Std am Tag spiele, sind für mich auch Lastverbräuche wichtig.. Und da verliert die veraltete Plattform.

Wir haben also im Schnitt 20W Unterschied im aktiven Gamingbetrieb laut Igor und demgegenüber ebenfalls im Text noch folgende Aussage von ihm, der ja Verbräuche messen kann:

Igorslab schrieb:
Abschließend habe ich die unzähligen Leistungsaufnahmemessungen noch einmal zusammengefasst und den Werten des Ryzen 9 3900X gegenübergestellt. Was Intel wirklich im Griff hat und woran AMD bei den großen Desktop-CPUs noch arbeiten muss, ist die Leistungsaufnahme im Idle. Hier liegen wirklich Welten dazwischen. Auch im normalen Konstruktions- oder Zeichenalltag hat der i9-10900K deutlich die Nase vorn und dieser Vorsprung endet erst, wenn man anfängt zu spielen. Und es kehrt sich umso stärker zum Rückstand um, je mehr Kerne wirklich ausgelastet werden.

Ganz so schlecht steht doch hier der sonst klare Verlierer im Allgemeinen nicht da, oder?
Beitrag automatisch zusammengeführt:

Die 60/66 FPS waren nur ein Beispiel, welches du jetzt leider für Deine Haarspalterei missbrauchst. Schade........................

Und wenn alle Spiele mit AMD/Intel gespielt werden können ist das natürlich eine Tatsache.......................nur eine die Du nicht gerne liest!^^

Das einzige, was ich als Tatsache in deinen Posts ausmache, ist die, dass du ganz offensichtlich nicht dazu in der Lage bist, den Unterschied zwischen objektiver Messung und subjektiver Wahrnehmung einer Situation zu begreifen.

Na klar können alle Games sowohl mit Intel als auch mit AMD im System "gespielt werden". Das bezweifelt niemand. Aber mal wieder gehst du komplett an dem Punkt vorbei, dass die wahrgenommene Qualität (die sich in vielerlei Werten auszeichnet) eben etwas völlig anderes ist.

Ich kann auch auf meiner 10 Jahre alten 2-Kern Mobile CPU ein beliebiges Spiel spielen. Und wenn ich davor noch nie an einem Rechner gesessen bin, dann reichen mir möglicherweise auch die daraus resultierenden 12 FPS, um ein tolles Erlebnis zu haben und zu (m)einem subjektiven Urteil zu kommen, dass das Spiel mit der CPU ausreichend flüssig "gespielt werden" kann. Ebendeshalb ist dieser Eindruck, diese Wahrnehmung, rein subjektiv und weder du noch ich können das für den Einzelfall anderer Menschen (zB eines fragenden Users) beurteilen.

Und ob User A oder B oder C nun am Ende einen Unterschied von 3 FPS, 17 FPS oder 30 FPS im Mittel und Teilwerten davon als Min. FPS wahrnimmt, hat auch keiner von uns zu entscheiden und die Frage, ob das so ist, lässt sich eben nicht objektiv und anhand von Fakten klären. Was aber objektiv messbar ist, ist der faktisch existente Unterschied in den gemessenen Zahlen und dessen Relation zu dafür ausgegebenem Geld. Und da ist es - auch wenn du dich stur weigerst, das anzuerkennen - nunmal so, dass AMD mit dem 3300X und dem 3600 Non-X(T) zwei absolut solide P/L-Kracher im Angebot hat, während ab genau dem Preispunkt des 3600 Non-X(T) aufwärts Intel schneller und gleichzeitig günstiger oder preisgleich ist.

Da bringt es auch nichts, zum drölfzigsten Mal auf die hochmoderne Plattform von AMD zu verweisen, deren supertolle Technik faktisch beim Großteil der Nutzer rein gar nichts relevantes bewirkt; es sei denn, man kauft sich eine Krüppel-GPU, die sowohl im VRAM als auch bei den PCIe-Lanes durch den Hersteller beschnitten ist und macht damit sowieso von vorhnherein etwas falsch.
 
Zuletzt bearbeitet:
Und da ist es - auch wenn du dich stur weigerst, das anzuerkennen - nunmal so, dass AMD mit dem 3300X und dem 3600 Non-X(T) zwei absolut solide P/L-Kracher im Angebot hat, während ab genau dem Preispunkt des 3600 Non-X(T) aufwärts Intel schneller und gleichzeitig günstiger oder preisgleich ist.
Ich übersetze das mal und würze es mit etwas salzigem Popcorn:
Im für Gamer relevanten Bereich der High-Performace 4- und 6 Kerner hat Intel nix am Start.

Persönlicher Kommentar: 10400F und 10600k sind am ehesten vergleichbar.
 
Die Tatsache, dass der 10600k als 6-Kerner ggü. dem Ryzen 5 3600 als ebenfalls 6-Kerner schon @stock im Schnitt um runde 10% vorne liegt und dies bei gleichberechtigtem OC für beide CPUs und verbautem RAM problemlos auch in Bereiche von 20% bis 30% geht, welche sich in besseren Min. und Avg. FPS sowie glatteren Frametimes äußern, ignorieren wir nochmal warum genau?

Und um etwas von deinem recht bitteren Popcorn zurückzugeben:

Bei den genannten Abständen und der niedrigen Taktgrenze bei CPU, IF und RAM vom Ryzen: Ist es da überhaupt noch wahrheitsgemäß, bei beiden CPUs gleichermaßen von "high performance" im Gaming zu sprechen oder empfindest du das nur als coolen Begriff, der dir dabei hilft, die beiden auf eine imaginäre gleiche Stufe zu stellen, auch wenn er faktisch nichts bedeutet?
 
Dreht euch doch bitte nicht im Kreis, dass man für gaming bis auf einige Ausnahmen nicht mehr wie 6 kerne benötigt wissen doch alle. :)
 
Also wenn man es richtig anstellt, dann ist man auch bei FullHD (1080p ist eine blöde Bezeichnung) im GPU Limit. Alleine schon durch evtl Downsampling, hohes AA etc...
Das geht schneller als man denkt, vor allem weil der normale 08/15 Spieler auch nicht gerade sowas wie ne 2080ti im Rechner hat. Wahrscheinlich ist da eher ne 2060 oder noch weniger.

Ich will 144fps+, d.h. 1080p und mittlere Details und da rannte ich mit RX3700x schon oft ins CPU-Limit bei Modern Warfare, wo man sich schön die Frametimes CPU und GPU anzeigen lassen kann. Je nach Game liegen auch bei High Detail FullHD die Intels gern mal 20% vorn.

Zudem kann man die Intels gern mal 10-15% übertakten, bei AMD geht quasi gar nichts.

Mein erster Versuch mit AMD nach vielen Jahren war auch gleich mein Letzter. Die Freizeit von zwei Wochen im Bios verbracht.
 
Wir haben also im Schnitt 20W Unterschied im aktiven Gamingbetrieb laut Igor und demgegenüber ebenfalls im Text noch folgende Aussage von ihm, der ja Verbräuche messen kann:

Ganz so schlecht steht doch hier der sonst klare Verlierer im Allgemeinen nicht da, oder?
Beitrag automatisch zusammengeführt:

Naja, ich kauf mir keinen 10C-Prozessor im Hinblick auf den Leerlaufverbrauch. Und für ein paar Anwendungen, die die CPU auch nur sehr bedingt auslasten, brauch ich auch keinen 10C. Da tut es auch ein gleich hoch getakteter 6C. Und wenn ich dann die Anwendungen laufen lasse, die einen 10C wirklich auslasten, wird es halt momentan im Vergleich zu dem AMD-Prozessoren nicht mehr so prickelnd was den Verbrauch angeht.

Letzendlich muss jeder selber wissen, was er will.

Anm.: Ich finde es nur sehr schade, dass hier im Forum sehr oft, selbst sachliche Anmerkungen zu Produkten z.T. sehr unsachlich niedergeschrieben werden. Andere Meinungen, die nicht der eigenen entsprechen, werden einfach nicht toleriert. Das ist mMn eben nicht sehr hilfreich und schadet letzendlich dem Forum. (Das ist jetzt nicht auf Deine Antwort gemünzt sondern allgemein gemeint)

Cunhell
 
Um es mit Igor zu sagen, der es aus meiner Sicht ziemlich treffend beschrieben hat:
Das kann man so oder so sehen... Du kaufst ja auch kein 500 PS Auto und damit ausschließlich Volllast zu fahren... Warum sollte das im PC Umfeld der Fall sein?
Die Überwiegende Zeit wird das Ding weit unter 50% im Schnitt ausgelastet sein. Das bekommst du selbst bei 4C/8T heute im Alltag im Schnitt nur schwer hin, über 50% Last zu erzeugen - Dauerhaft. Es sei denn, du fährst die ganze Zeit eben diese Volllasttasks wie eben 24/7 Cinebench zu spielen... Und ganz ehrlich, wer da weit mehr wie 50% Last auf 10C/20T erzeugen kann - der kann die gleiche Last auch auf 12C/24T, 16C/32T, 24C/48T usw. erzeugen -> sprich fährt mit ner breiteren, weniger hoch taktenden, dabei sogar noch effizienteren CPU für diese Arbeiten normalerweise besser. Weil schneller und effizienter. Nicht selten sogar mit besserem P/L durch Zeiteinsparung.

Es wirkt irgendwie so als müsse man unbedingt irgend einen Pferdefuß an der CPU finden... Aber niemand, der nicht Volllast fährt, interessiert sich für den Volllastverbrauch. Warum auch immer das immer wieder rangezogen wird. Und alle, die dann mit Hintergrund Last und solchem Kram argumentieren - die verlieren Takt auf den breiten CPU sodass gerade dort der Nachteil bei weiterer Last in Sachen FPS noch viel mehr zum Tragen kommt. Da ist man dann ggf. nichtmal mehr bei "reicht ja" sondern schon bei deutlich größeren Unterschieden. Früher hätte man sowas schlicht und ergreifend einen Kompromiss geschimpft. Einen Tod muss man nämlich sterben. 5GHz Allcore gibts nicht bei AMD - bei Intel schon. Bei den Zen2 CPUs bekommste dann auch nicht mehr die fancy 4,7GHz Booost - sondern eher ~4GHz oder was da Allcore im Schnitt anliegen. Wer das dann aber bei Intel im Vergleich, ausfahren möchte - ja der muss das halt auch gekühlt bekommen und die zusätzlichen Windungen beim Stromzähler bereit sein zu zahlen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh