Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Es kommt beim Witcher ja auch stark auf die Benchmarkszene an. PCGH geht dabei eher an die intensiven Stellen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das wird der normale boost sein und kein handangelegtes OC. Sowie meine Pascal Karte auch auf 2GHz boostet.
1GHz Speicher wird noch drinnen sein und da kommt sicher nochwas über die Treiber. ich denke das 75FPS durchaus drinne sind.
 
Einmal Ryzen 2700X mit mit einer GTX 1080 Ti.
Anhang anzeigen 444320

Du hast Da irgendwie sehr wenig CPU Frames für den 2700x.
Liegt das rein am "Highest" Setting? Habe gestern bei mir das Spiel installiert und wegen der 1070 auf "High" getestet, da kam er wenn ich mich richtig erinnere auf 91fps CPU Min. Kenne jetzt nicht die genauen Unterschiede in den Settings, aber müsste doch kein großer Unterschied mehr sein für die CPU. Wenn ich irre gerne korrigieren.
 
Jetzt sollen noch die Wundertreiber von NVIDIA alles richten. Das ich dies noch erleben darf...
Leute, nehmt es einfach so wie es ist und gut. Wer diese Karte kaufen möchte, der soll es einfach auch tun und nicht so viele Tests lesen. :)
 
Rattenmann will auf biegen und brechen sich seine gekaufte Karte schön reden.

Ich rede mir gar nichts schön.
Selbst wenn die neuen Karten genau 0% mehr Leistung hätten, hätte ich sie gekauft.
Genau mit dem Gedanken HABE ich ja vorbestellt.

Es geht mir halt um die neue Technik. Ich liebe Technik und habe in jedem Bereich die Neuesten Spielereien.
Manchmal sind es echt nur Spielereien, aber manchmal eben auch nicht.
Keine Ahnung warum es so schwer vorzustellen ist, dass jemand nicht wegen dem selben Grund etwas kauft als jemand anderes. Wir sind hier in einem Preisbereich von 1300 Euro, da kauft doch niemand ein, der nicht ernsthaft Interesse daran hat.
Das ja wohl kein Impulskaufpreis, oder? Es handelt sich um die schnellste Consumerkarte auf dem Markt, mit den neuesten Features die sonst keine Karte hat.
Damit ist die 2080 TI spot on genau das was ein Technerd gerne im System hat. Ob das Preis / Leistungsverhältnis nun 9 Euro pro Frame, oder 11 Euro pro Frame ist macht für mich überhaupt keinen Unterschied.

Davon abgesehen:
Mir vorzuwerfen die Benchmarks hier wären mir nicht schön genug, ist recht lustig, wenn Du nur paar Zeilen später behauptest ein anderer Benchmark muss fake sein, weil es dir nicht ins Bild passt. Fällt Dir das nicht auf? :-)
Ich dachte ich hätte hier gut argumentiert, dass ich mich an dem Setup störe, weiles total unrealistisch ist, nicht wegen Turing.
Wenn andere Systeme mal locker 15-50% mehr FPS produzieren und ganz andere Relationen entstehen (die Relationen sind der eigentliche Kicker), ist das doch irgendwie verständlich, oder? Ganz unabhängig von Turing.
Auch Vega wird verzerrt zum Nachteil von AMD teilweise.

Falls es Dich widererwartent doch interessiert wieso ich Turing wirklich gekauft habe, dann schau mal dieses Review an. Es kommt von jemand der eben diese Technik dahinter sieht. Er empfielt der Masse weiterhin Pascal zu kaufen, aber versteckt nicht die Leistung von Turing.
Zusammenfassung von Turing: 21m04s: Technerd Grund Turing zu kaufen
Wenn nur die Zahlen interessieren: 2080(non ti!) mit fast 50% mehr FPS als die 1080ti, dank DLSS

Ist es also die Katze im Sack kaufen? Naja, theoretisch schon. Aber es gibt in jedem Bereich Spekulationen die so nahe an 100% save sind, dass es ein überschaubares Risiko ist.
Mit DLSS ist die Performance der 2080 um 50% höher als die der 1080ti und die 2080ti ist 100% und mehr vor der 1080ti.
Da es jetzt schon 28 Games sind, bevor Leute die Karten in der Hand haben, ist ein gutes Indiz. So eine breite Anpassung an neue Technik gab es noch nie. Die Implementation von RT ist wie auf der Bühne gesagt mit "it just works!" zusammenzufassen. Entwickler sagen sie freuen sich gewaltig darauf, es würde sehr viel Zeit sparen und besser aussehen. DLSS erlaubt deutlich bessere Grafik bei selber FPS, oder deutlich höhere FPS bei selber Grafik.

Das ist neue Technik und diese Technik begeistert und hat enorme Auswirkungen.
Aber selbstverständlich sollte niemand der wegen ein paar hundert Euro auf sein Essen verzichten muss diese Spekulation eingehen. Egal wie wahrscheinlich es ist, dass es aufgeht.
Auf der anderen Seite: Wenn es Technerds nicht geben würde, die genau in diesen Situationen kaufen, dann würden auch die Budgethunter nie von den Funktionen profitieren, auch nicht in 3-4 Jahren.

Ist schwer zu glauben, dass die reinen FPS mir egal sind, hmm? Aber so Schwarz / Weiß ist es ja auch nicht. Es ist ja auch die schnellste Karte, ohne die neuen Spielzeuge. Also muss ich mir da keine Sorgen machen.
Selbst wenn widererwartend keines der Features anklang findet, habe ich weiterhin die schnellste Karte auf dem Markt. Mit einem Faktor von 1,3x. Sobald alleine DLSS dazu kommt sind es dann 2,0x oder mehr. Das Risiko ist also überschaubar.
Da gibt es nix schön zu reden, die Karte hat alles das was ich erwartet habe und obendrauf noch mehr Leistung als jede andere Karte.

Aber natürlich kann man auch alles was neu und anders ist schlecht reden. Wobei es, außer beim Preis, wohl schwer wird etwas Negatives zu finden. Und Preise sind sehr relativ für Kunden. Das Produkt selber nicht.
 
Was für Wundertreiber... ??

Die Karten sind 2 Tage am Markt mit ungenutztem Potential.
 
Da wird sicher noch etwas kommen.
In einigen Spielen ist der Unterschied jetzt bereits ersichtlich.

Es wird eine starke Cpu benötigt um überhaupt genug Futter zur Verfügung zu stellen.

Meine 1080ti läuft in BF1 in 1080p auch ins Cpu Limit. Und in 1440p geht mit einer schnelleren Cpu selber bei meiner Karte noch was.
 
Das Einzige was mich wirklich interessiert: Wie wird sich der Markt und die Preise entwickeln. Das ist die einzig für mich spannende Frage. Bleiben die Preise so auf lange Sicht und werden von den Kunden auch akzeptiert, dann freue ich mich auf den nächsten Launch in 2 Jahren, wo die Preise noch weiter steigen werden. Solang es jemand kauft.

Meine Hoffnung ist ja, dass die GTX demnächst (ca. 6 Monate) dann doch von Markt verschwindet, da die Leute, die jetzt RTX gekauft hätten, doch eine GTX kaufen und die Preise sich wieder etwas nach unten korrigieren. Bin selbst ein großer Freund vom "Neusten und Besten", doch bei diesen Preisen siegt dann doch der Geiz über dem "Haben wollen" :)

Für die 1200 Euro fliege ich dann lieber eine Woche 5 Sterne in ein SPA-Hotel und setze eine Generation aus.
 
Auf einem 1440p Monitor sehe ich jetzt noch keine wirklichen Vorteile durch DLSS oder gibt es schon irgendwelche Tests und Vergleichsvideos ?

Naja, selbes Spiel, nur auf 1440p?
Du bist doch ein FPS Fanatiker, du magst 144hz+ Bildschirme, oder?
1440p@144hz ist mit DLSS wohl kein Thema mehr. Je nach Game auch 1440p@265hz für die ganz extremen Screens.

Die meisten Tests schauen halt auf 4k only, klar. Aber 1440p mit high framerates ist nicht so viel anders.
 
Hier mal ein Rainbow Six Siege benchmark einer ZOTAC RTX 2080 AMP. 1440p Auflösung und alles auf max was das Game zu bieten hat.

Testsystem: i7 4770k@4,1 Ghz und 8 GB DDR3 1600

ZOTAC RTX 2080 AMP: 43,5 fps
GTX 1080 Founders Edition 27,9 fps
 
In GPU Z zeigt er beim eigenen GPU Z Test 1920 Mhz an. Schwankt aber.
 
Zuletzt bearbeitet:
So sehr ich verstehen kann, dass eine Hand voll extrem-Enthusiasten hier in diesem Board Intel+Nvidia sehen wollen und nichts anderes, so wenig ist es für mich nachvollziehbar wie Menschen, die sich morgens (vermutlich) selber die Schuhe zubinden so einen Blödsinn verfassen können.

Was sagst du denn zu nem Review ner AMD APU mit SingleChannel popligen 2133er Speicher? Die "Hand voll extrem-Enthusiasten" die da unbedingt DualChannel mit hohem Speichertakt ignorieren wir halt einfach - weil die verfassen eh nur Blödsinn.

Deine Aussage ist eher ne typische Reaktion von Leuten die das Kernproblem nicht verstehen... Denn du wärst eher einer der ersten die dann diese Testmethodik kritisieren werden ;)
Es geht nicht darum, dass da Intel+NV stehen muss und ja kein AMD Unterbau. Sondern darum, dass ein GPU Test mit möglichst ohne Beeinflussung dritter Komponenten zu erfolgen hat. Das gilt für JEDE GPU, die getestet wird. Und um so schneller die GPU, desto mehr kommt ein CPU Limit eben zu einem Problem. Ähnlich dem APU Vergleich, welche ohne eigenen Speicher eben davon stark beeinflusst wird.

Aber Hey, früher gabs auch viel weniger Neid und Missgust - ne GPU, die 1259€ und mehr kostet erzeugt offenbar so viel Missgunst und Neid in den Köpfen, dass man lieber CPU limitierte Tests fordert um ja nicht entsprechend wenig gedeckelte Werte sehen zu müssen. Die, die sich für reale Werte interessieren lesen dann eher andere Reviews - im Endeffekt fällt das auf die Redaktion zurück. Schade um die harte Arbeit.
 
Das wird der normale boost sein und kein handangelegtes OC. Sowie meine Pascal Karte auch auf 2GHz boostet.
1GHz Speicher wird noch drinnen sein und da kommt sicher nochwas über die Treiber. ich denke das 75FPS durchaus drinne sind.

Schaue dir doch einfach mal das Video an, anstatt irgendwas zu behaupten. handangelegtes OC 1950 - 2000 Mhz, mehr waren wegen dem Powerlimit (120%) nicht möglich. Und nein auch hier keine 75 geschweige 80 FPS.


Davon abgesehen:
Mir vorzuwerfen die Benchmarks hier wären mir nicht schön genug, ist recht lustig, wenn Du nur paar Zeilen später behauptest ein anderer Benchmark muss fake sein, weil es dir nicht ins Bild passt. Fällt Dir das nicht auf? :-)

Da fällt mir gar nichts auf da es hier ein Video gibt was eindeutig das Gegenteil behauptet, um nur mal bei Witcher 3 zu bleiben:

Zotac Geforce RTX 2080 Ti AMP Edition: Temperaturen, Lautstärke und Overclocking

Wenn der Benchmark nicht gefaked bzw. zu gunsten Turing geschönt war, dann müsste ja das Video, sowie der Benchmark von HWL und dieser hier

Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega - Seite 55

Die Ergebnisse wieder spiegeln, tut es aber nicht. Von daher kann man diesen Benchmark dann auch nicht ernst nehmen.

Davon abgesehen:Wenn andere Systeme mal locker 15-50% mehr FPS produzieren und ganz andere Relationen entstehen (die Relationen sind der eigentliche Kicker), ist das doch irgendwie verständlich, oder? Ganz unabhängig von Turing.

Welche anderen Systeme, das Intelsystem produziert diese angeblichen 15-50% an mehr FPS ebenfalls nicht.

Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega - Seite 55

VOn daher kann man durch aus von schön reden sprechen, wenn man so konzequent Fakten ignoriert.
 
Zuletzt bearbeitet:
Welche anderen Systeme, das Intelsystem produziert diese angeblichen 15-50% an mehr FPS ebenfalls nicht.

Selektiv benches suchen die den eigenen Standpunkt unterstreichen ist nicht sehr hilfreich, findest Du nicht?
Es wurde von vielen Leuten, mit vielen Belegen auf die Threadripper Problematik hingewiesen. Schon vor Turing. Und jetzt zeigt es sich eben erneut.

Du scheinst einfach nur nen echten Hass auf Turing / NVidia zu haben, dass es Dir total egal ist wie schlecht ein Testaufbau ist.
 
In GPU Z zeigt er beim eigenen GPU Z Test 1920 Mhz an. Schwankt aber.

Und angegeben von Zotac sind 1830 Boost-Takt. Und Deine GTX 1080 FE ging bis auf knapp ~1800 ?

Interessant wären die Unterschiede ja bei Übereinstimmendem Takt auf GPU/Speicher.

Dann wüsste man mal eher welchen Taktbereinigten Vorsprung die neue Architektur hat.
 
Selektiv benches suchen die den eigenen Standpunkt unterstreichen ist nicht sehr hilfreich, findest Du nicht?
Es wurde von vielen Leuten, mit vielen Belegen auf die Threadripper Problematik hingewiesen. Schon vor Turing. Und jetzt zeigt es sich eben erneut.

Du scheinst einfach nur nen echten Hass auf Turing / NVidia zu haben, dass es Dir total egal ist wie schlecht ein Testaufbau ist.


Dann poste Doch hier einfach einen Beweis wo das Intelsystem diese 15- 50% an mehr FPS bei einer Turing Zustande bringt und dies für WQHD und UHD auschlaggebend ist, da bin ich gespannt. Außerdem behauptest Du das der Testaufbau von HWL angeblich schlecht wäre. Die Leute HWL sehen das sicher anders.
 
Zuletzt bearbeitet:
Dann poste Doch hier einfach einen Beweis wo das Intelsystem diese 15- 50% an mehr FPS bei einer Turing Zustande bringt und dies für WQHD und UHD auschlaggebend ist, da bin ich gespannt. Außerdem behauptest Du das der Testaufbau von HWL angeblich schlecht wäre. Die Leute HWL sehen das sicher anders.

Du verstehest entweder wirklich nicht, oder absichtlich nicht.
Es geht NICHT darum irgendwelche Benches zu finden die Standpunkt A oder B unterstreichen.

Es geht darum, dass ein Vergleich von EGAL welchem Produkt, mit einem Aufbau geschehen muss der externe Einflüsse negiert. Es ist also nicht relevant ob man Benchmarks findet wo das System gleiche Resultate bringt, das kann man sicher finden, sondern man darf KEINE Resultate finden bei denen der Test verzerrt ist. Sobald Produkt A getestet wird, aber aufgrund von Testaufbau B ein verzerrtes Ergebnis entsteht, ist Versuchsaufbau B schlecht.

Da ist kein Spielraum für Interpretation oder sonst was.
Ein Testaufbau muss alle externen Einflüsse so gut es möglich ist negieren, sonst ist der Testaufbau fehlerhaft.
Fehlerhafte tests KÖNNEN auch richtige Ergebnisse ausspucken, aber sie sind nicht verlässlich oder representativ. Und genau darum will ich mich hier nicht auf einen "wer findet tollere Benches die Punkt A oder B selektiv zeigen" - Vergleich einlassen. Es ist einfach irrelevant ob man etwas findet wo es passt, solange es nur einen Beleg gibt das es nicht passt. Das hat nichts mit Turing oder Intel zu tun. Das gilt für jeden Bereich in dem etwas getestet wird. Auch in ganz anderen Brachen.

Kann nicht nachvollziehen wieso das so schwer zu verstehen ist.
 
DLSS geht auch unterhalb 4K, wird wenn überhaupt aber erst nachgereicht.
Muss wohl komplett unabhängig je Auflösung neu trainiert werden.
 
Also rein rechnerisch ist es schwerer von WQHD 100FPS auf 144FPS zu kommen also von UHD 40FPS auf 60FPS. :eek: Die Frage ist geht DLSS überhaupt bei 1440p ?
Also in 1080p rendern und dann auf 1440p hochrechnen und gleichzeitig eine Kantenglättung erzeugen und wirkt das dann auch besser als natives 1440p mit TAA ?

Kann ich Dir sagen sobald die Karte ankommt. Alternate ist leider nicht so toll was Bestellungen und Liefertermine angeht,... leider hat meine Frau halt da bestellt, sie kannte den "Service" von Alternate noch nicht. ;-)
Es spricht aber nichts dagegen, dass es auch in jeder anderen Auflösung funktioniert. Wieso sollte es 4k only sein?

Was die Qualität angeht findet man recht viele Reviews. Man kann in extremen Situationen durchaus sehen das DLSS lower rendered, aber nur in Standbildern. Das wären zum Beispiel Aufnahmen von Städten in der Ferne, Nachts mit vielen einzelnen Lichtern. Wenn die Lichtquellen selber nur 1 Pixel groß sind, dann werden sie durch DLSS natürlich etwas gedimmt. Ist aber schon nen sehr spezieller Fall würde ich sagen, oder? Ansonsten wirkt es wie native resolution plus TAA, ohne die Probleme von TAA.
Man gewinnt dadurch aber 40-70% Performance. Scheint je nach Implementation zu schwanken, aber richtig verlässliche Vergleiche habe ich noch nicht gesehen.
Komplett fehlerfrei ist es sicher nicht, aber die Alternative ist die Settings runterzudrehen um die ganz hohen Framerates zu bekommen. Da muss man sich dann also eher fragen welche Alternative einem weniger stört.
Vereinzelte Pixel in Standbildern, oder durchgehend geringere Settings. Für mich sehr klar was ich nutzen würde. Kaufe ja keine neue GPU um dann Settings zu reduzieren.

Auf jeden Fall eine sehr spannende Technik mit viel Potential. Und wenn man ohne DLSS auf 1440p@144 kommt, kann man DLSSx2 aktivieren und hat "kostenloses" AA und rendern in nativer Auflösung.
Mehr Optionen, mehr Leistung mit geringem / nicht spürbaren Verlust / sogar mit AA Effekt oben drauf. Im Gegensatz zu RT werden wir DLSS auch schon recht kurzfristig nutzen können. Denke auch die Verbreitung wird schneller steigen. Außer evtl. bei Global Illumination. So viel Aufwand wie das spart, werden die Developers das sicher so fix es geht als Standard definieren.
 
wenn ein dlaa funktioniert (die anwendung muss es ja anfordern) kann das resultat besser sein als temporales aa, weil es nicht blurrt. dlss hat den theoretischen vorteil, dass es ggü. TAA auch mit SLi und AFR funktioniert. darüber ob jetzt UHD eine voraussetzung ist oder ob es auch für kleinere auflösungen angeboten wird, scheiden sich die geister. wird zuviel rekonstruiert und ist die ausgangsauflösung zu gering (unter UHD) werden schriften verschwinden, die mit gewöhnlichem TAA noch da sind. zwar geblurrt aber vorhanden und lesbar. über dlss zu spekulieren ist müßig, weil erstmal spiele erscheinen müssen, die es abrufen. man muss es auch am eigenen bildschirm sehen, um es zu bewerten. UHD aus ausgangsauflösung zu verwenden scheint absolut logisch weil es im ergebnis fehler vermeidet. ich meine, dass nvidia auch irgendwo gesagt hätte, dass es aufwendig wäre, das netzwerk zusätzlich auf wqhd zu trainieren.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Bereits WQHD 100FPS kostet so viel Leistung wie UHD 60FPS also da noch über die Zuschaltung von gutem AA zu fachsimpeln ist praxisfern.

Tomb Raider 1440p
143,7fps average auf Max Settings, mit AA, ohne DLSS. --> hier

Es ist das alte Tomb Raider, aber das ist ja auch nicht unbedingt sparsam mit Grafik.
Soll also nur ein Beispiel sein, dass es durchaus geht mit Turing. Entferne bei dem Bench noch das normale AA und ersetze es durch DLSSx2 und die Frames sind ca. im 160 Bereich.
ersetze AA durch DLSSx1 und 240fps sind gar nicht mehr so unrealistisch in 1440p. Würde wohl noch ein reduzieren von ein paar Settings brauchen, aber wir reden dann auch über 240fps bei 1440p.
So nen Monitor haben wohl nur die wenigsten und es wird auch nicht bei jedem Game so gut laufen, aber so praxisfern würde ich es gar nicht mehr sehen.

Edit:
Anderes Review, anderes (aktuelles) game: 1440p, TAA, 16x Anisotropic Filtering, maxed settings: Formel 1 - 2018
142fps, trotz TAA. Also auch hier mit DLSS noch ne Ecke an Spielraum.
 
Zuletzt bearbeitet:
Heute ein Video von Linus (LinusTechTips) gesehen.
Der meint, die 2080ti könne man gar nicht richtig reviewen/benchmarken.
Gibt auch keine RTX ON, DLSS games....


Wenigstens einer, der mal tacheles spricht in dieser ganzen vollgehypten Medienlandschaft inzwischen all der vollgehypten gamer die gar nicht mehr wissen warum sie bestimmte hardware überhaupt noch kaufen (vorbestellen)... einfach damit sie gekauft ist..
 
Heute ein Video von Linus (LinusTechTips) gesehen.
Der meint, die 2080ti könne man gar nicht richtig reviewen/benchmarken.
Gibt auch keine RTX ON, DLSS games....


Wenigstens einer, der mal tacheles spricht in dieser ganzen vollgehypten Medienlandschaft inzwischen all der vollgehypten gamer die gar nicht mehr wissen warum sie bestimmte hardware überhaupt noch kaufen (vorbestellen)... einfach damit sie gekauft ist..

Na, da haste aber alle anderen Reviews nur sehr hart überflogen.
Hab bisher noch keinen gefunden der nicht A: auf dem Preis rumgeritten ist und B: auf die fehlenden Vergleichsmöglichkeiten hingewiesen hat. Linus ist nur von einem Review zu einem Rant übergegangen in dem Video, aber das ändert nichts am Inhalt. Nur an der Präsentation des selben Inhalts. :-)
 
Kurze Frage: könnte die GAINWARD GeForce RTX 2080 Phoenix Golden Sample "günstig" (ca. 700€ ) bekommen.
Wäre auch bereits abholbereit.

Gibts zu der Karte irgendwelche tests bzgl kühler bzw kann man dazu schon irgendwas sagen? oder lieber auf eine andere custom zurückgreifen?
 
Nein es ist noch keine Custom getestet worden.
 
Linus ist nur von einem Review zu einem Rant übergegangen in dem Video
Anders kapieren es die Leute offenbar heute auch nicht mehr. :rofl: Tacheles halt.
Auf Nvidia Produkten stehen immer so schöne features wie SLI, PhysX, VR Ready, jetzt new Ray Tracing und DLSS. Und ständig werden genau diese großen features stiefmütterlich bis gar nicht behandelt. Hauptsache die Verpackung und hype-trailer sind vollgestopft mit Versprechungen.
Am Ende bleibt eine Karte wie die 2080ti einfach nur eine etwas schnellere 1080ti (meine läuft auf 2060Mhz). In ein paar Jahren wird man über die Karte nur müde lächeln, VOR ALLEM wegen der absurd schwachen RT (Global Illumination) Leistung. Das ist nahezu lächerlich solche Aufgaben auf derart schwache chips zu prügeln. Die Leute machen sich doch schon reihenweise lustig über FullHD@60fps. Auf jeden Fall und das kann man glauben, wird diese Karte noch Geschichte schreiben. Die GeForce MX des Ray-Tracings.

Würde auch mal gerne wissen wie viel Geld der Kartenverkäufe wieder an Spielehersteller fließen, nur damit diese schön Nvidia auf die Fahnen schreiben, weil da ein bisschen Reflektion/GI klimbims zu sehen sein wird. Eben damit Nvidia noch weiter verkauft.
In der Hinsicht hat AMD leider komplett das Nachsehen..
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh