[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
Das haben die Jungs bei den 6080 Karten zum Teil auch. Es liegt an PCIe 4.0., da ist einfach die Last zu gering und der Bus schaltet ne Nummer zurück. Bei den anderen ist die Hardware zu schwach oder zu oll :d

Bin inzwischen bei 21722 Grafikpunkte in Timespy. Ohne Shunt, ohne Wasser ohne Fenster auf, einfach im Case bei 67 Grad. So kaputt kann meine Strix nicht sein. :bigok:
Interessant, nen Kumpel von mir hat ne 3090 Strix und nen 5950x und da liegt immer 4.0 an beim Windowed Mode.. ich kann 4.0 nur halten wenn ich im Treiber maximiale Leistung bevorzugen wähle. Ansonsten springt es eben am Anfang des Rendertests zwischen 2.0 und 4.0 rum und bleibt dann bei 4.0 nach ca 20. Sekunden
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe jetzt mal nach dem Spielen probiert. Jetzt ist es immer 4.0 :unsure:
Beitrag automatisch zusammengeführt:

Schau Dir mal den Verbrauch oder die Temps von Graka oder Motherboard an. Irgendwo dort liegt die Wahrheit.
 
Ich hab nu ne 6800XT drin, welche man gar übertakten kann (also Ampere-fremdes Thema) und wenn man RT mal außen vor lässt, dann ist Sie mit 2.6G ~gleichauf mit ner 3090!

wenn nich sogar vor der 3090 FTW Ultra!!!!!!elf
 
Habe jetzt mal nach dem Spielen probiert. Jetzt ist es immer 4.0 :unsure:
Beitrag automatisch zusammengeführt:

Schau Dir mal den Verbrauch oder die Temps von Graka oder Motherboard an. Irgendwo dort liegt die Wahrheit.
Was hast du im Treiber eingestellt bei der Karte? Optimale Leistung oder maximale Leistung? Wo hast du das mit der 6080er gesehen dass das auch welche haben?
 
Was hast du im Treiber eingestellt bei der Karte? Optimale Leistung oder maximale Leistung? Wo hast du das mit der 6080er gesehen dass das auch welche haben?

Hatte ja eben nur 4.0 beim PCIe und habe erfolglos probiert, den Bus bei GPUZ wieder auf 2.0 zu kriegen. Egal ob optimale oder maximale Leistung im Treiber. Egal ob Beste Leistung oder bessere Leistung im Netz und Energiesparplan. Es blieb immer auf 4.0. Habe aber gesehen, dass mein Rechner beim Ideln über 200 Watt gezogen hat. Da ist zu viel, normal sind 116 bis 120 Watt. Ich habe ja die Leistungsanzeige vom Corsair auf dem Desktop:

Unbenannt.JPG


Habe dann den Rechner neu gestartet. Wieder normaler Verbrauch und die PCIe geht auch wieder auf 2.0 runter.

Guck mal bei Berni:
https://www.hardwareluxx.de/communi...-rdna2-sammelthread-faq.1276023/post-27900686
 
Hatte ja eben nur 4.0 beim PCIe und habe erfolglos probiert, den Bus bei GPUZ wieder auf 2.0 zu kriegen. Egal ob optimale oder maximale Leistung im Treiber. Egal ob Beste Leistung oder bessere Leistung im Netz und Energiesparplan. Es blieb immer auf 4.0. Habe aber gesehen, dass mein Rechner beim Ideln über 200 Watt gezogen hat. Da ist zu viel, normal sind 116 bis 120 Watt. Ich habe ja die Leistungsanzeige vom Corsair auf dem Desktop:

Anhang anzeigen 555764

Habe dann den Rechner neu gestartet. Wieder normaler Verbrauch und die PCIe geht auch wieder auf 2.0 runter.

Guck mal bei Berni:
https://www.hardwareluxx.de/communi...-rdna2-sammelthread-faq.1276023/post-27900686
sehr interessant, danke dir. Und du gehst hier nicht von einem defekt aus?
 
Jupp, war vorhin da ^-^

Er hatte nicht mal gefragt oder gequatscht. Er hat direkt geschrieben, dass ich weiterempfohlen wurde und sie gekauft :fresse:
Sehr geil! Ich hatte ihm den Link von Deiner Anzeige gesendet, weil ich wusste das es 100%-ig kein Fakeangebot ist. Hat er Dich auch um eine Abtretungserklärung gebeten? Er machte auf jeden Fall einen seriösen Eindruck...
 
Zuletzt bearbeitet:
@andi0138
Die Karte läuft bei mir gut. Ist keine Perle, aber die Leistung ist im Bereich des zu erwartenden. Schau Dir den Timespyscore an, der Wert kommt nicht bei 1.1 im PCIe und den sehe ich hier manchmal unter GPUz im Fenstermodus. Ist die Karte unter Last, liegt immer 4.0 an. Das ist einfach Stromsparen. Habe übrigens S4 und S5 im BIOS aktiviert. Vielleicht liegt es daran?

Nee, die Karte ist heile. Und Öko!
 

Anhänge

  • 1606842666618763350549550944565.jpg
    1606842666618763350549550944565.jpg
    1,7 MB · Aufrufe: 85
Ich hab nu ne 6800XT drin, welche man gar übertakten kann (also Ampere-fremdes Thema) und wenn man RT mal außen vor lässt, dann ist Sie mit 2.6G ~gleichauf mit ner 3090!
No way!
Hättest du 3080 geschrieben, dann würde ich sogar zustimmen. Allerdings kann man eine 3080 auch noch übertakten...
Für die 3090 = no way. Hier heisst es abwarten, am 08.12.2020 schickt AMD die 6900XT an den Start. Ob sie der 3090 dann die Schweißperlen auf die Stirn zaubert werden wir sehen.
Problem dann vermutlich wie gehabt: "Mit Papier kann ich keine Pixel beschleunigen" :hust::wut:

Ich entscheide dann was bei mir die 1080Ti ersetzt, vorrausgesetzt AMD kann treiberseitig das "UHD MSFS2020-Problem" lösen:

Hier geht die 6800XT ein wie ne Primel und DAS ist FÜR MICH unakzeptabel! :hwluxx:


Nur ist der Kühler bei Last kein Leisetreter. Der macht ordentlich auf sich aufmerksam. Quietbios habe ich noch nicht probiert, um erstmal die Leitung zu sehen.
Hast die Leitung gesehen? :fresse:
Nee im ernst:
Teste mal mit dem Quietbios, dann sollen die Luffies weniger rotieren und damit die Karte einiges leiser sein (sofern die Spulen nicht Radau machen ... ).
 
😍


Heute Abend kann ich endlich meinen 48CX abholen...
Mein erster megagrosser Gamermonitor (OLED/4K/HDR/120Hz G-Sync). Das wird richtig geil !!! 😍

Weil ich nicht widerstehen konnte, habe ich am gleichen Tag (abends) noch den 55BX (auch OLED/4K/HDR/120Hz G-Sync) für niedliche 974€ bestellt, den ich schon seit Dienstag fürs Schlafzimmer hab. Vor dem sitze ich 1-1,5m direkt davor - nie weiter!!! :fresse: Wenn dann der 48CX auf dem Schreibtisch steht, hab ich hoffentlich richtig viel Spaß beim Zocken :d

Es gibt ja Verrückte, die 55“ aufm Schreibtisch haben... :haha:
Anhang anzeigen 554234
Hallo, hatte auch überlegt mir den CX48 als nächsten Monitor zu holen.
Wie groß ist den die Range für GSync ?
 
Zuletzt bearbeitet:
Ist dann bei mir von einem defekt auszugehen? Wenn ja was kann das defekte Teil dann sein? Board oder GPU?
Beitrag automatisch zusammengeführt:


warum ist es bei mir und bei dir 2.0 und 4.0 und bei anderen nur 4.0? Haben wir einen defekt?
Würde da jetzt keine voreiligen Schlüsse ziehen. Mein neues System mit 5950X und 3090 verbrät im Idle generell relativ viel, was ich mir noch näher anschauen muss (die gemessene Leistungsaufnahme im Idle pendelt normalerweise so zw. 150 u 200W - mit seltenen, kurzzeitigen 130W-Ausreißern). Könnte also sein, dass bei mir einfach ein Stromspar-Mechanismus aus irgendeinem Grund nicht voll greift (wobei ich da schon so einiges durchgetestet habe). Merkst du denn überhaupt Performanceeinbußen oder Ruckler in Spielen/Benchmarks?
 
So, fast fertig 😀
 

Anhänge

  • 20201201_205921.jpg
    20201201_205921.jpg
    1,3 MB · Aufrufe: 119
@yilem76
Ähhmmm ... dachte mein LG38er ist riiiieeeesig. Aber das Ding sprengt ja alles :fresse2: :bigok:.

@Thrawn.
Bitte nicht den (geklärten!) Disput zwischen den beiden hier in den Fred tragen. PLEASE lösch deinen Beitrag bitte. :sneaky:
 
Würde da jetzt keine voreiligen Schlüsse ziehen. Mein neues System mit 5950X und 3090 verbrät im Idle generell relativ viel, was ich mir noch näher anschauen muss (die gemessene Leistungsaufnahme im Idle pendelt normalerweise so zw. 150 u 200W - mit seltenen, kurzzeitigen 130W-Ausreißern). Könnte also sein, dass bei mir einfach ein Stromspar-Mechanismus aus irgendeinem Grund nicht voll greift (wobei ich da schon so einiges durchgetestet habe). Merkst du denn überhaupt Performanceeinbußen oder Ruckler in Spielen/Benchmarks?
Ja wenn ich den Energieplan in Windows auf Balanced stelle habe ich zu Beginn von spielen starke Ruckler. Wenn ich auf Höchstleistung stelle sind die Ruckler weg und nur mehr hin und wieder ein kleiner nicht merkbarer Ruckler vorhanden. Kann evtl am Ram liegen, hab nen alten Gskill 3200CL14 Rgb der nicht Ryzen optimiert ist. Evtl sind mit nem 3800 Cl 14 neo dann alle Ruckler weg
 
@yilem76
Ähhmmm ... dachte mein LG38er ist riiiieeeesig. Aber das Ding sprengt ja alles :fresse2: :bigok:.

@Thrawn.
Bitte nicht den (geklärten!) Disput zwischen den beiden hier in den Fred tragen. PLEASE lösch deinen Beitrag bitte. :sneaky:
Hab vorhin Division 2 und AC Vallhala gezockt auf 4k HDR usw.
So Geillll 😀 😀
 
Also mein altes Seasonic 760W wird nach sechs Jahren Nutzung nun vom RMA-service gegen ein neues SSR-750PD2 ausgetauscht (intermittent reboots at load).
Da will ich nach sechseinhalb Jahren wegen 10 Watt mal nicht meckern, aber das NT geht direkt versiegelt zu Ebay-K.

Seasonic ist anscheinend übermäßig kulant, oder sie haben wirklich ein Problem mit dem NT festgestellt.

Es gibt Leute, die behaupten, dass die OCP-Schaltung der alten SS-NTs zu empfindlich für die 30x0 ist - okay, aber könnte es nicht vielleicht bei manchen auch eine Art von Memory-Effekt von alten NTs sein, von denen bis dato über Jahre nie die Leistung eingefordert wurde? Ich hab da leider keine Ahnung von - trotzdem weigere ich mich, Netzteile aus Gegenwirkung mit ner Kapa einzubauen, die für zwei 3090 gleichzeitig reichen würden. -> 1300 Watt. Damit geht auch komplett der Effizienzgain im Idle flöten, weil ein solches bei mir zu 70% der Zeit bei 5-10%-Last verbringen würden.

Momentan fahre ich die 3090 im UV bis max. 330W + 120W CPU + 50W Periph., und das regelt sogar ein sechs Jahre altes Corsair AX860W mit ausreichend Reserven im Stressbereich dann mit Top-Effizienz.

Das soviele NTs wie gerade jetzt ihre Schwächen zeigen, ist imho eine Mischung von allen Faktoren zusammen. Die schnelle Powerfluktuation von 50-4??W hinsichtlich OCP und insb. bei OC; ältere Geräte, die nie entsprechend gefordert wurden und nicht zuletzt mindere Qualität, die sich erst dann zeigt, wenn man sie brauch. Für meinen Desktop mit 8700K/3090FE jedenfalls müssen 850W reichen, sonst stimmt irgendwas nicht!
 
Für wen es vielleicht interessant ist, hier eine 3090 Ventus nackt.
Beim zerlegen gab es keine besonderen Vorkommnisse. Keine versteckten Schrauben oder Bauteile die mit abreißen. (y)
Hab dann den Alphacool Eisblock Aurora Acryl GPX-N RTX 3090/3080 Ventus mit Backplate montiert. Auch alles passgenau gewesen.
Auf der Backplate hab ich mir noch eine Heatsink montiert und den mittleren Gehäuse-Frontlüfter an den PWM Anschluss der Graka angeschlossen.
Ab 45° gibts dann ordentlich Frischluft direkt auf die Karte.

20201129_172751.jpg
20201129_174248.jpg
20201129_174335.jpg
20201129_175342.jpg
20201129_191821.jpg
20201129_205341.jpg
20201129_210044.jpg


Au
 
Sehr nice und danke für die Bilder. Wo hast du den Alphacool Eisblock Aurora Acryl GPX-N RTX 3090/3080 Ventus mit Backplate bestellt? Im Webshop von Alphacool ist er leider nicht lagernd und habe letztens hier im Forum gelesen das vor Januar wohl keine Bestellung mehr ausgeliefert wird. Bist du zufrieden mit den Temperaturen jetzt? Meine muss auch dringend unter Wasser.
 
Sieht real gar nicht schlecht aus, der Alphacool Block! Keine Ahnung warum die so billig wirkende Werbebilder in ihrem Shop haben. An dem Design der Wasserkanäle scheiden sich die Geister, ich finde es irgendwie leicht faszinierend. Hauptsache am Ende passt die Kühlleistung (und man hat das Teil tatsächlich in den Händen... *hust* Watercool *hust* Aquacomputer).

Also mein altes Seasonic 760W wird nach sechs Jahren Nutzung nun vom RMA-service gegen ein neues SSR-750PD2 ausgetauscht (intermittent reboots at load).
Da will ich nach sechseinhalb Jahren wegen 10 Watt mal nicht meckern, aber das NT geht direkt versiegelt zu Ebay-K.

Seasonic ist anscheinend übermäßig kulant, oder sie haben wirklich ein Problem mit dem NT festgestellt.

Es gibt Leute, die behaupten, dass die OCP-Schaltung der alten SS-NTs zu empfindlich für die 30x0 ist - okay, aber könnte es nicht vielleicht bei manchen auch eine Art von Memory-Effekt von alten NTs sein, von denen bis dato über Jahre nie die Leistung eingefordert wurde? Ich hab da leider keine Ahnung von - trotzdem weigere ich mich, Netzteile aus Gegenwirkung mit ner Kapa einzubauen, die für zwei 3090 gleichzeitig reichen würden. -> 1300 Watt. Damit geht auch komplett der Effizienzgain im Idle flöten, weil ein solches bei mir zu 70% der Zeit bei 5-10%-Last verbringen würden.

Momentan fahre ich die 3090 im UV bis max. 330W + 120W CPU + 50W Periph., und das regelt sogar ein sechs Jahre altes Corsair AX860W mit ausreichend Reserven im Stressbereich dann mit Top-Effizienz.

Das soviele NTs wie gerade jetzt ihre Schwächen zeigen, ist imho eine Mischung von allen Faktoren zusammen. Die schnelle Powerfluktuation von 50-4??W hinsichtlich OCP und insb. bei OC; ältere Geräte, die nie entsprechend gefordert wurden und nicht zuletzt mindere Qualität, die sich erst dann zeigt, wenn man sie brauch. Für meinen Desktop mit 8700K/3090FE jedenfalls müssen 850W reichen, sonst stimmt irgendwas nicht!

Einen "Memory Effekt" in dem Sinne gibt es nicht, aber Bauteilalterung spielt irgendwann eine gewisse Rolle. Ein sechs Jahre altes Gerät sollte jedoch keine Probleme machen... Stress mit der OCP liest man bei Seasonic leider sehr häufig 🤷‍♂️

Ein hochqualitatives 850W reicht in Kombination mit einer kleinen Mainstream CPU jedenfalls aus, daran gibt es keinen Zweifel. Bei HEDT CPUs muss man schauen.
 
Sehr nice und danke für die Bilder. Wo hast du den Alphacool Eisblock Aurora Acryl GPX-N RTX 3090/3080 Ventus mit Backplate bestellt? Im Webshop von Alphacool ist er leider nicht lagernd und habe letztens hier im Forum gelesen das vor Januar wohl keine Bestellung mehr ausgeliefert wird. Bist du zufrieden mit den Temperaturen jetzt? Meine muss auch dringend unter Wasser.

Am Tag der Veröffentlichung am 06. Oktober direkt bei Alphacool im Webshop bestellt. Am 19. November wurde er geliefert.
Nach zwei Stunden RDR2 waren es so um die 35° GPU Temperatur. Allerdings steht der PC mit externem Radiator im unbeheiztem Nebenraum.
Da sind etwa 17° C und Wassertemperatur waren 21 °C.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh