CPU Bottleneck 3090ti 8700K

mir ging es darum weil du sagtest bei der 4090 würde es dann anders aussehen. ja gpu seitig. die cpu wird ja nicht schlechter. wenn die cpu vorher deine wunsch fps erreicht hat, wird sie es mit der 4090 ja auch tun ;)
Beitrag automatisch zusammengeführt:


im gpu limit wirst du natürlich sehr sehr wenig haben eine cpu aufzurüsten ;)

Ich denke schon, dass selbst bei der 4080 16GB der CPU schon etwas mehr limitieren wird. Aber das weiß ich ja nicht, bevor keine Tests da sind. Ich hatte aber ehrlich gesagt auch keine Lust nochmal 500 EUR drauf zu legen, für eine überschaubare Mehrleistung im Vergleich zu 3090ti. Zudem Supporte ich Nvidia auch nicht bei der 4000er. Hat also nicht nur technische Gründe, wieso ich die 4000er ablehne. Wäre mit dem 8700K sicher auch betreibst, aber ich rüste dann in 2 Jahren lieber einmal komplett neu auf. 👍🏽
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich will nicht das du aufrüstet sondern dass du verstehst das die cpu und gpu nicht zusammenhängen :)

die 4080 wird nichts anderes tun als die das gpu limit anheben. das cpu limit bleibt an der stelle wo es ist.

wenn die karte dann nicht ausgelastet ist, ist es so^^

solange der anwender mit den fps aber zufrieden ist, wayne.
 
DLSS3 wird auch für die 2000er und 3000er kommen. Hier wird aber auch erstmal der dumme Early Adopter Gemolken. Ich halte sowieso nichts von DLSS. Wenn ich DLSS will dann kann ich mir auch eine Konsole holen. Am PC spielt man in der nativen Auflösung. Außerdem kann mein LG C1 auch DLSS3 nennt sich dann Motion Interpolation, damit fühlen sich auch 30 Fps wie 120 Fps an aber der Lag ist der gleiche. Hier hat Nvidia was kopiert und die Schafe sind es am Feiern. Hast das beste gemacht die 3090 Ti wird noch 2 Jahre locker halten wenn du Erfahrung mit Grafik Settings hast und nicht alles stumpf nach Rechts schiebst. In 2 Jahren kaufen wir uns dann im Mindstar eine 4090 Ti für 1099€
 
Ich denke schon, dass selbst bei der 4080 16GB der CPU schon etwas mehr limitieren wird. Aber das weiß ich ja nicht, bevor keine Tests da sind. Ich hatte aber ehrlich gesagt auch keine Lust nochmal 500 EUR drauf zu legen, für eine überschaubare Mehrleistung im Vergleich zu 3090ti. Zudem Supporte ich Nvidia auch nicht bei der 4000er. Hat also nicht nur technische Gründe, wieso ich die 4000er ablehne. Wäre mit dem 8700K sicher auch betreibst, aber ich rüste dann in 2 Jahren lieber einmal komplett neu auf. 👍🏽
Wenn du günstig an eine 3090 / Ti rankommst, warum nicht. Es wird ja immer so getan als wären die über Nacht unbrauchbar, was aber nicht der Fall ist. Die Karten werden sich mindestens im oberen Mittelfeld einordnen. Wenn nun die 4080 16 GB auch noch 1500+ kosten soll ist eine 3090 für 1 K gar kein schlechter Deal mehr in Relation zur Leistung.
DLSS3 wird auch für die 2000er und 3000er kommen. Hier wird aber auch erstmal der dumme Early Adopter Gemolken. Ich halte sowieso nichts von DLSS. Wenn ich DLSS will dann kann ich mir auch eine Konsole holen. Am PC spielt man in der nativen Auflösung. Außerdem kann mein LG C1 auch DLSS3 nennt sich dann Motion Interpolation, damit fühlen sich auch 30 Fps wie 120 Fps an aber der Lag ist der gleiche. Hier hat Nvidia was kopiert und die Schafe sind es am Feiern. Hast das beste gemacht die 3090 Ti wird noch 2 Jahre locker halten wenn du Erfahrung mit Grafik Settings hast und nicht alles stumpf nach Rechts schiebst. In 2 Jahren kaufen wir uns dann im Mindstar eine 4090 Ti für 1099€
Es ist halt jedes mal das gleiche. DLSS und auch das AMD-Pendant kann ich schwer ernst nehmen. Wie aktiviere ich es zum Beispiel bei Skyrim SE / VR? Dort könnte man es gut gebrauchen, genauso in vielen älteren Spielen. Das wird aber nie passieren, sondern nur in ausgewählten Titeln. Solange es nicht auf 100 % der Titel anwendbar ist und fehlerfreies Bild liefert ist es reines Marketing.

Und du hast recht, wenn das jetzt immer so läuft wird nur noch am Ende einer Gen gekauft. Ich brauche sowieso nicht das Allerneuste, zumal heutzutage alle Produkte sowieso unfertig auf den Markt kommen und der early adoper gnadenlos gemolken wird. Das ist ja auch bei den Spielen so. Man weiß schon gar nicht mehr ob die Spiele jemals fertig werden oder der Entwickler sie dann fallen lässt (wie DICE). Darum gibt es dann auch keinen Cent mehr von mir, bis das Produkt fertig ist. Meistens ist es dann auch günstig zu bekommen und hat mehr content. Leider gibt es immer noch Leute die gewissenlos vorbestellen und es sich schönreden, siehe BF2042.
 
Ich höre da sowieso nicht auf die Leute und gehe immer mein eigenen Weg. Damals als ich mir den 11900K gekauft habe neu für 450€ das hat damals auch den 5800X gekostet meinten alle nur, Intel ist blöd säuft soviel Strom und wird heiß. Jetzt frag mal die AMD Fanboys zu der 7000er Serie? Die meisten labern einfach nur alles nach und können den Kopf nicht benutzen.
 
in games verbraucht keine der cpus viel

htthr.jpg
 
Ich höre da sowieso nicht auf die Leute und gehe immer mein eigenen Weg. Damals als ich mir den 11900K gekauft habe neu für 450€ das hat damals auch den 5800X gekostet meinten alle nur, Intel ist blöd säuft soviel Strom und wird heiß. Jetzt frag mal die AMD Fanboys zu der 7000er Serie? Die meisten labern einfach nur alles nach und können den Kopf nicht benutzen.
Die sind beide nicht mehr besonders sparsam und heiß, was man aber problemlos ändern kann. Der 12900KS ist natürlich ein Extremfall, weil er so hart am Limit läuft. Das gilt übrigens auch für die 3090 Ti und die kommende 4090. Ich hatte meine 2080 Ti auf 0,925 V, das sparte einiges an Abwärme und somit auch einige 100 RPM.
 


So ich habe jetzt auch eine Palit 3090 Ti Gamerock für 1000€ geschossen. Meine Rtx 3090 geht für 900€ und für 100€ habe ich dann 5% - 8% mehr Leistung. Jetzt wird sich entspannt zurück gelehnt und alles beobachtet. Bin jetzt zwischen der 1600€ 4080 16GB und der 1200€ 4080 (4070) 12GB ganz gut aufgestellt 😎 Cpu und Ram reichen noch locker für 4K Gaming. Bezahlt hatte ich für die 3090 850€.
 
Zuletzt bearbeitet:
Ich wusste nur nicht, ob es mir die 1200 EUR jetzt wert sind, hatte genau die gleiche Karte im Auge.
Wenn die 4090 und 4080 jetzt erscheinen, dann habe ich Sorge, dass sich die Preise nochmal nach unten bewegen und ich dann zu teuer gekauft hätte.

Nach den 1,5 Wochen bin ich nun Vollends überzeugt, dass die 3090ti sehr gut zu mir, meinen Wünschen und meinem 8700K@5,1 Ghz passt. Worauf ich hinaus will..........denk mal an die "Armen" Leute, welche noch vor 6 Monaten 2400 € für die Karte auf den Tisch gelegt haben. Ich habe die 1199 € 3090ti Waterforce retourniert, da 3 Tage später die selbe für 1099 € im Angebot war. Ich bezweifle, dass diese in nächster Zeit noch groß sinken wird. Und sind wir mal ehrlich.....

Ich habe meine 3090ti WF bei 965mv mit 2100Mhz laufen und in den meisten Games komme ich nicht über 60 Grad, bei flüsterleiser Lüfter-RPM von 1150. Die Arctic P12 A-RGB sind der Oberhammer. Ich liebe die Teile.

Wie auch immer........ich bin unglaublich zufrieden und kann beruhigt die nächsten 2 Jahre mit den System beschreiten. :)


PS: Habe nen Kumpel, welcher die 4090 Suprim X gekauft hat (mit der Aussicht in Kürze auch CPU/RAM/Board zu wechseln. Die Ernüchterung bei mir war in dieser Konstellation groß und bekräftigte mich nochmal meiner Entscheidung, denn die 4090 lief teils nur mit 40-60% Auslastung bei UWQHD. :)
 
Zuletzt bearbeitet:
Ich bin auch zufrieden mit meiner RTX 3090 Ti für 1000 €. A Plague Tale Requim zurzeit am Spielen und (Geheimtipp) Asterigos Curse of Stars. A Palgue Tale läuft mit der 3090 Ti zwischen 40 - 50 Fps in 4K Ultra. Die angebliche echte 4K Karte 4090 macht auch nicht viel mehr, und läuft ohne DLSS oder Auflösungsskalierung auf 80% auch nicht mit hohen Fps . Fazit wie bei dir, 1500 € gespart und eine saustarke Karte.
 

Anhänge

  • A-Plague-Tale-Requiem-GPU-benchmarks-2.png
    1,2 MB · Aufrufe: 57
Am 16.Nov soll die 4080-16GB erscheinen.
Wenn ich dann eine für 1.469EUR bekomme, dann wäre das super. Bin um 15Uhr dann auf jeden Fall in "F5"-Stellung😁
 
Am 16.Nov soll die 4080-16GB erscheinen.
Wenn ich dann eine für 1.469EUR bekomme, dann wäre das super. Bin um 15Uhr dann auf jeden Fall in "F5"-Stellung😁

Das gönn ich Dir. :)

Da ich persönlich Fan von den AiOs bin oder wenn Luft, dann mind. die Suprim X, glaube ich nicht, dass ich was unter 1600 € bekommen würde. Die 4080 16GB wird ca. 20% schneller sein als die 3090ti. (Braucht ja noch biss Luft zwischen 4090 fpür die 4080ti). Klar, wird diese weniger verbrauchen, aber darauf lege ich keinen Fokus. Mir ist es schon dieser Mehrpreis nicht Wert. Erst Recht nicht, mit dem 8700K im Nacken und dann auch der fehlende Support von DLSS 3 sowie deren unausgereiften Technik, siehe Grafikbugs bei DLSS 3. Ich bin Ultra gespannter auf die 5000er Nvidia-Reihe und auf die 15000er Intel-Reihe. :)
 
A Plague Tale Requiem ist ein tolles Spiel und hat eine sehr schöne und aufwendige Grafik. Das sind Spiele wo die 4090 zeigen kann, was die drauf hat und nicht bei Spielen die Jahre alt sind. Da macht die 4090 60 - 70 Fps und die 3090 TI 40 - 50 Fps, was denkst du, wird dann die 4080 für 1500 € machen? Da wirst du dann auch 50 - 60 Fps haben mit der 4080. Da wo die 4090 120+ Fps macht wird die 3090 Ti 70 - 80 Fps machen und die 4080 90 - 100 Fps. Also warum nicht günstig eine 3090 Ti kaufen? Nicht soviel auf Reviews und andere Menschen hören. Es ist immer besser sich selbst ein Bild zu machen und den Kopf zu benutzen und um die Ecke zu denken und nicht mit der Masse zu gehen. Nur ein Tipp von mir und wie @Sgt_Bagster sei es dir gegönnt :-)


Ab min 1.53 beginnt das Gameplay.
 
Zuletzt bearbeitet:
Naja, effizienter und kühler wird sie wohl auf jeden Fall sein, dazu für die Zukunft auch noch DLSS 3.0 haben.
 
Schau dir mal das Video von HardwareUnboxed zum Thema an.
Gerüchteweise brodelt es heftig hinter den Kulissen deswegen.
(Vorgeschichte: HWU sollte ja auch keine Review Samples mehr bekommen, nachdem sie bei Ampere vs RDNA2 einen Vergleich nach Rasterperformance und RTX Performance gemacht haben)
 
PS: Habe nen Kumpel, welcher die 4090 Suprim X gekauft hat (mit der Aussicht in Kürze auch CPU/RAM/Board zu wechseln. Die Ernüchterung bei mir war in dieser Konstellation groß und bekräftigte mich nochmal meiner Entscheidung, denn die 4090 lief teils nur mit 40-60% Auslastung bei UWQHD. :)

Wer seine Graka nicht ausgelastet bekommt, hat die Regler im Game und im Treiber vergessen.
Sorry, hab ich kein Verständnis für wenn das so "solo" ohne Kontext hingeknallt wird.
Sind es zu wenig FPS ... von mir aus, dann besteht Handlungsbedarf, aber eine Graka bekommt man immer klein, wenn man sich mit den Reglern beschäftigt, die einem Game und Treiber bieten.
Das Rumgeheule, weil die Graka nicht ausgelastet ist .... da ist man selbst drann schuld.

OMG OMG meine Graka langweilt sich.
aplaguetalerequiem_x6o6evd.jpg


Ein Regler später

APlagueTaleRequiem_x64_2022_10_18_11_16_56_580.jpg
 
Ich halte nichts von DLSS. Da stelle ich lieber die Auflösungsskalierung zwischen 80 - 95 statt DLSS zu benutzen. DLSS3 wird aber auch noch für die 30er kommen, wenn erstmal genug 40er verkauft wurden.
 
Schau dir mal das Video von HardwareUnboxed zum Thema an.
Gerüchteweise brodelt es heftig hinter den Kulissen deswegen.
(Vorgeschichte: HWU sollte ja auch keine Review Samples mehr bekommen, nachdem sie bei Ampere vs RDNA2 einen Vergleich nach Rasterperformance und RTX Performance gemacht haben)

Was hat es damit auf sich, nochmal bitte für Uninformierte.
 
Wer seine Graka nicht ausgelastet bekommt, hat die Regler im Game und im Treiber vergessen.
Sorry, hab ich kein Verständnis für wenn das so "solo" ohne Kontext hingeknallt wird.
Sind es zu wenig FPS ... von mir aus, dann besteht Handlungsbedarf, aber eine Graka bekommt man immer klein, wenn man sich mit den Reglern beschäftigt, die einem Game und Treiber bieten.
Das Rumgeheule, weil die Graka nicht ausgelastet ist .... da ist man selbst drann schuld.

OMG OMG meine Graka langweilt sich.


Ein Regler später

Ich glaube hier wird etwas missverstanden und der Vegleich deines Prozessors mit dem 8700K Stock ist semi.

Beispiel:

Cyberpunk 2077:
Egal was er eingestellt hat, ob DLSS Qualität, DLSS Performance, DSRx1,5, etc., er hatte immer 65 FPS. nur die Auslastung der Graka änderte sich mal von 40% auf 70%.

Was ich damit meine ist. Warum sollte ich mir einem 8700K Stock eine 4090 kaufen, wenn es am Ende keine Mehrleistung, im Sinne von FPS und nicht von Bildqualität, bringt, im Vergleich zu günstigeren Modellen. Baue ich einen 13700K ein, habe ich garantiert mehr FPS, bei gleichbleibender Bildqualität, was aus meiner Sicht einen Kauf der 4090 mit dem 8700K widerstrebt. Ich habe sehr hohe Kosten und kann das Potenzial nicht nutzen. Ist wie ein Ferrari kaufen, aber nur max 120 kmh fahren können. Das Potenzial wird nicht ausgeschöpft. Ob es sinnig und sinnvoll ist steht auf einem ganz anderen Blatt und mag jeder für sich entscheiden. Es ist lediglich meine Meinung zu der Sache.
Beitrag automatisch zusammengeführt:

Was hat es damit auf sich, nochmal bitte für Uninformierte.


In dem Video zeigt er deutlich die schwächen und Bugs von DLSS 3.0. Ich persönlich lehne solch "unausgereifte" Technik ab. Das wird sich sicher im Laufe der Zeit noch bessern, aber aktuell ist es halt nicht das gelbe vom Ei. Die reine Rohleistung ist bei der 4000er halt super geil, aber das Argument DLSS 3.0 ist bei mir persönlich aktuell außen vor, so lange die Technik nicht reibungslos funktioniert.

Schließe mich da dem @PC-Neuling an, beschränke mich aber nur auf DLSS 3.0.
Beitrag automatisch zusammengeführt:

Denkt aber bitte daran, dass es in diesem Thread um das Thema "Bottleneck 8700K bei der 3090ti geht"und nicht um DLSS oder der 4000er Reihe von Nvidia. Wir sollten hier schon beim Thema bleiben. Ansosnten können wir uns gern in einem passenden Thread weiter austauschen und Meinungen teilen.
 
Zuletzt bearbeitet:
Cyberpunk 2077:
Egal was er eingestellt hat, ob DLSS Qualität, DLSS Performance, DSRx1,5, etc., er hatte immer 65 FPS. nur die Auslastung der Graka änderte sich mal von 40% auf 70%.
Was ich damit meine ist. Warum sollte ich mir einem 8700K Stock eine 4090 kaufen, wenn es am Ende keine Mehrleistung, im Sinne von FPS und nicht von Bildqualität, bringt, im Vergleich zu günstigeren Modellen.

ABER DAS kann man doch im Vorfeld klären.
Einmal kurz auf 720p und AA aus, und man sieht genau wie viele FPS die eigene CPU bringt. 65 in Deinem Fall.
Wenn mir das zu wenig ist, dann kauf ich mir keine neue Graka und heule dann sondern eine neue CPU. Ist wirklich so einfach.

Und meine CPU ist da auch kein "Renner".

cyberpunk2077_2020_125ok6v.jpg


Was ich kritisiere ist: Hilfe meine Graka langweilt sich.
DARAN ist man immer selbst schuld. DAFÜR gibt es die Regler in den Games.

Ich bekomme auch die 4090 bequem unter die 80 FPS gedrückt, die meine CPU stemmt. Ich wusste vorher, dass auch mit einer neuen Graka nicht mehr drinne ist.

Cyberpunk2077_2022_10_18_22_10_30_079.jpg




Wenn die Leute sich das mal klarmachen würden, das man CPU und Graka getrennt betrachten sollte, dann würde eventuell mal die ganzen "oh, meine Graka langweilt sich: HILFE HILFE HILFE"-Threads verschwinden. Ist doch keine Raketenwissenschaft^^
 
Beim Spielen in VR, besonders schlecht parallelisierten Rennspielen mit großer Spielerzahl, ist der 8700k ein kompletter Bottleneck, ein Grund warum ich aufrüsten musste.
Da wäre dann selbst die 3090 verschwendet. Nur um es erwähnt zu haben, wahrscheinlich spielt dieses Szenario für dich keine Rolle.
 
ABER DAS kann man doch im Vorfeld klären.
Einmal kurz auf 720p und AA aus, und man sieht genau wie viele FPS die eigene CPU bringt. 65 in Deinem Fall.
Wenn mir das zu wenig ist, dann kauf ich mir keine neue Graka und heule dann sondern eine neue CPU. Ist wirklich so einfach.

Und meine CPU ist da auch kein "Renner".

Was ich kritisiere ist: Hilfe meine Graka langweilt sich.
DARAN ist man immer selbst schuld. DAFÜR gibt es die Regler in den Games.

Ich bekomme auch die 4090 bequem unter die 80 FPS gedrückt, die meine CPU stemmt. Ich wusste vorher, dass auch mit einer neuen Graka nicht mehr drinne ist.

Wenn die Leute sich das mal klarmachen würden, das man CPU und Graka getrennt betrachten sollte, dann würde eventuell mal die ganzen "oh, meine Graka langweilt sich: HILFE HILFE HILFE"-Threads verschwinden. Ist doch keine Raketenwissenschaft^^

Das darfst du gern verallgemeinern. Was mich betrifft -> Ich habe keine 4090, sondern mein Kumpel. Und dieser heult auch nicht, sondern rüstet bewusst Board, CPU und RAM auf. Die 4090 war schon mal gekauft, damit er dann, wenn er sie tatsächlich brauchen würde, nicht die Angst haben muss keine mehr zu bekommen. Niemand heult, sondern stellt fest. Da liegt glaube das Missverständnis deinerseits vor, aber allg. hast du Recht. Evtl. gibt es ja unter uns Leute, welcher sich fragen, ob diese mit ihrem 8700K, 7700K noch eine 4090 befeuern können. Ganz klar -> NEIN - bei QHD/UWQHD. Das macht P/L-Mäßig keinen Sinn und können auch entspannt auf eine 3080ti oder 3090ti zurück greifen und sich viel Geld sparen. :)
 
Wer verallgemeinert jetzt?

Ganz klar: Hängt davon ab was ich erreichen möchte. Soll ja Leute geben die mit einer bestimmten FPS Zahl zufrieden sind (siehe meine 80)
 
Habe mal bei Cyberpunk alles auf niedrig gemacht und 720p. Waren 142 FPS 68 % GPU Last. CPU stand auf 20 %. Frametimes Avg 7.0 ms Warum auf nur 20% CPU Ausl.??
Wieder alles hoch und DLSS auf Qualität und 0,5 Schärfe. 3840*1600 96 FPS 94 % GPU Last. CPU stand auf 23 %. 11.0 ms
Spezifikationen in der Signatur.
 
grafiksettings finger weg!

die verschieben das CPU limit mit

für das testen des cpu limits ausschließlich Auflösung und AA runterdrehen. (ihr wollt ja die GPU entlasten und nicht auch noch die CPU dazu)

rest so einstellen wie man es gerne haben wollen würde
 
grafiksettings finger weg!

die verschieben das CPU limit mit

für das testen des cpu limits ausschließlich Auflösung und AA runterdrehen. (ihr wollt ja die GPU entlasten und nicht auch noch die CPU dazu)

rest so einstellen wie man es gerne haben wollen würde
Ich komme dann auf 28 Prozent CPU Auslastung, und 66 Prozent GPU. Habe nur auf 720p gestellt, und DLSS auf aus. Da Cyberpunk 2077 keine Kantenglättunsslider hat, und dies meines Erachtens über DLSS macht. Liege ich da richtig?

Die 3090 er ist ausreichend. Da ich sie austauschen muß, und später auch auf 4 K wechseln möchte, streb eich so ein Betrieb mit einer 4090 er an.
 
Zuletzt bearbeitet:
AA sollte cp77 defintiv haben. TAA oder sowas. bin aber gerade nicht sicher

macht aber nix da du ja bei 66% gpu load weit vom GPU limit weg bist. damit kannste jetzt paar minuten zocken und dir die richtig schlimmen gegenden anschauen wo die fps runterrauschen und deine avg.
 
Mein 8700 limitiert selbst die RX6800 @4K in einigen Spielen. Ist mir egal, habe sowieso nur einen 4K 60Hertz Freesync-Monitor und spiele nicht kompetiv Multiplayer Games, dafür bin ich zu alt und habe zu wenig Zeit. Und wie gesagt, die Regler lassen sich in die eine und die andere Richtung drehen. Es ist ja das gute am PC, man kann sehr viele die Einstelleungen anders als an der Konsole beeinflußen. :sneaky:
 
Zuletzt bearbeitet:
Nach über einem halben Jahr ein Update zu meinen Erfahrungen.

Ca. 70% meiner Games laufen zwischen 98%-100% GPU-Auslastung.

Ca. 30% meiner Games laufen zwischen 80%-97% GPU-Auslastung.

Ich bin mit dem von mir gezahlten Preis der 3090ti Waterforce (1099€) super zufrieden. Meine FPS reichen mir bei 90% meiner Games aus.

Der 8700K @ 5,1 Ghz allCores ist schon ein geiler GamingProzi. Ich hoffe er hält die Tortuere noch bis 2025 durch. (2025 soll wohl erst die 5000er Nvidia-Reihe erwcheinen). Wenn das so kommen sollte, so habe ich das längste, aber dafür auch noch sehr gut laufende System meines Lebens gehabt. Ich drücke mir seöbst die Daumen, dass nix kaputt geht. :d

Danke nochmal an Alle für euren Input und teils auch Augen öffnen. :)

Cya
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh