[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
gibt es eigentlich auch karten mit ner ASIC von mehr als 90% weil sowas interessiert mich sehr!
Bei den HD7970 habe ich auch noch keine karte in den 90er gesehen...

Ich habe bisher noch keine gesehen. Habe aber auch erst ca. 25 in der Liste.
Evtl hebt NVIDIA die auch auf ;)

---------- Post added at 23:21 ---------- Previous post was at 23:19 ----------


Was soll denn bitte so ne Antwort?
Er hatte ne Frage zu OSD Einstellung und bekommt als Antwort, dass er den Takt senken soll? :hmm:

---------- Post added at 23:25 ---------- Previous post was at 23:21 ----------

Jetzt ist sie unter Wasser mit max. 25° C.
Stimmt es, dass man einen 3DMark 2013er Key bekommt, wenn man den Code der Karte bei EVGA aktiviert, und wie geht das?
Einfach auf die EVGA-Seite und navigieren?

Ja, sollte hier gehen:
EVGA | Articles | 3DMark Advanced Free
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
SO hab jetzt auch mal den ASIC Wert ausgelesen.

72,9% und macht Stock 993Mhz. Derzeit läuft sie auf 1097 mit Stock Volt und 3100 Ram. Reicht mir unter Luft und ich bin gespannt auf den Sommer :fresse:
 
Zuletzt bearbeitet:
Gerade das erste mal BF3 probiert mit der Titan. Die frames sind super, aber leider hab ich ganz schön störendes stuttering wenn ich teils auf die Mapmitte schaue vom Heli oder so. Das ist echt schlecht spielbar so.

Treiber ist der 314.22.

Edit:
Ich habe glaube genau das Problem:

Guru3D.com Forums - View Single Post - Nvidia GeForce 314.22 WHQL - Download & Discussion

Gleich mal testen.

Jo das muss es sein, weil bei mir läuft es total sauber! Nutze ausschließlich und nur den Orbmuks Inspector. :)

Muss auch generell sagen, dass die Treiber brutal gut laufen und es keinerlei Abstürze oder Performance Einbrüche etc. bis Dato gab. (außer WOW aber der Fehler ist bekannt)
Getestet mit MOH:WF, BF3, Skyrim inkl. TPC, Crysis 3, Path of Exile und Rage.
 
Zuletzt bearbeitet:
Hm, Mist, so wie dort beschrieben vorgehen bringt bei mir nichts. Stuttering bleibt. Selbst wenn ich Precision gar nicht mehr nachinstalliere. :(
 
mmelthread + FAQ - Bei Fragen erste Seite lesen

Hm, Mist, so wie dort beschrieben vorgehen bringt bei mir nichts. Stuttering bleibt. Selbst wenn ich Precision gar nicht mehr nachinstalliere. :(

Für BF3 ist es bei mir zwingend erforderlich den pre rendered frames Wert auf 0 via config zu stellen. Dazu noch Core Parking in Windows 7 deaktivieren und alles läuft smooth as butter!

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Joa, das dauert aber nen Weilchen, wird manuell von einem EVGA Mitarbeiter gemacht :)
 
und? Wo ist das jetzt schlimm?


Diese scheiß ASIC interessiert doch kein Schwein, zumal die sich von GPUZ zu GPUZ Version ändert... :shake:
 
und? Wo ist das jetzt schlimm?


Diese scheiß ASIC interessiert doch kein Schwein, zumal die sich von GPUZ zu GPUZ Version ändert... :shake:

Gibt klare Tendenzen das ASIC unter 75 keine 1200 machen
 
Re:

Das zeig mir mal....

Gesendet von meinem GT-N7100 mit der Hardwareluxx App

War doch bei meiner 660ti so?

Verkauft mit ner in GPUz ausgelesenen asic die dann mit der nächsten GPUz Version niedriger war und ich dadurch mit dem Käufer Schwierigkeiten hatte...

Gesendet von meinem HTC One V mit der Hardwareluxx App
 
Für BF3 ist es bei mir zwingend erforderlich den pre rendered frames Wert auf 0 via config zu stellen. Dazu noch Core Parking in Windows 7 deaktivieren und alles läuft smooth as butter!

Klasse Tipp!
Lag bei mir an den pre-rendered frames. Stelle ich die auf 1 ist alles ok. Wie stellt du die auf 0? Das geht bei mir nicht im inspector.

Werde mal noch core parking versuchen testweise zu deaktivieren.
 
War doch bei meiner 660ti so?

Verkauft mit ner in GPUz ausgelesenen asic die dann mit der nächsten GPUz Version niedriger war und ich dadurch mit dem Käufer Schwierigkeiten hatte...

Gesendet von meinem HTC One V mit der Hardwareluxx App

Zählt das nun im Marktplatz schon als Preisargument?

Also ich würde jeden der im MP per ASIC über den Preis reden möchte abtreten lassen:d
 
Wieso Scully hast du ne ASIC mit über 80% ?
 
Zählt das nun im Marktplatz schon als Preisargument?

Also ich würde jeden der im MP per ASIC über den Preis reden möchte abtreten lassen:d

Exakt das mache ich seit dem auch - zum Glück konnte ich mich dank des Forums und der Intervention einiger User im GTX 660Ti Thread mit dem User einigen - ist auch nicht Gegenstand hier.


Wollte nur zum Ausdruck geben das ich auf die ASIC nix gebe weil es eben nur nen Ausgelesener Wert ist der keine 100%ig geklärte Bedeutung hat.
 
Wieso Scully hast du ne ASIC mit über 80% ?


Nein meiner hat 76er ASIC:) Ich find es nur irgendwie abartig das da im Marktplatz aufgrund dieses Wertes versucht werden soll Preise zu drücken oder zu heben,weil der eben nicht wirklich Aufschluss gibt über das OC Potential


Mal sehen was die andere Asus nächste Woche für ne Voodoo Zahl liefert


Unbenannt.jpg
 
Zuletzt bearbeitet:
Klasse Tipp!
Lag bei mir an den pre-rendered frames. Stelle ich die auf 1 ist alles ok. Wie stellt du die auf 0? Das geht bei mir nicht im inspector.

Werde mal noch core parking versuchen testweise zu deaktivieren.

Das Thema hat mich fast 14 Tage meines Lebens gekostet und ärgert mich im Nachhinein immer noch... :wall:
Habe es im Inspector auf Anwendungsgesteuert und über das Spiel via user.cfg eingestellt -> RenderDevice.ForceRenderAheadLimit 0
Mit Core Parking disabled kannst du dann HT im Bios auch anlassen, ohne das es zum stottern anfängt. Das Thema disable Core Parking
ist so oder so für Spieler ein absolutes "MUSS"!
 
Crysis 3, ist meiner Erfahrung nach gar nicht als Stabilitätstest geeignet - Crysis 3 rennt bei mir Stunden mit 1202MHz bei 1.200V, damit Assassin's Creed III ohne abzustürzen läuft, muss ich heftigst zurück auf 1150MHz und das bei noch zusätzlicher erhöhter Volt auf 1.212.

Wie und wo testest du denn in AC3 wenn ich fragen darf?
Welche Einstellungen nutzt du, bzw. wann kommt es bei dir zu Abstürzen?
Folge? Treiberreset?
Würde es gern für das Review und als eigenen Stabilitätstest nachstellen.
Danke.
 
Das Thema hat mich fast 14 Tage meines Lebens gekostet und ärgert mich im Nachhinein immer noch... :wall:
Habe es im Inspector auf Anwendungsgesteuert und über das Spiel via user.cfg eingestellt -> RenderDevice.ForceRenderAheadLimit 0
Mit Core Parking disabled kannst du dann HT im Bios auch anlassen, ohne das es zum stottern anfängt. Das Thema disable Core Parking
ist so oder so für Spieler ein absolutes "MUSS"!

Also über die config auf "0" setzen ist bei mir seltsamerweise nicht so effektiv wie über den Treiber auf 1? Es ist zwar besser mit config als Treiber auf auto, aber am besten noch immer per Treiber auf 1.

Butter smooth ist es aber noch immer nicht, ich glaube das liegt einfach an der Engine (ich bin bei sowas auch empfindlich, hat ja jeder seine eigene Wahrnehmung).

Wie deaktivierst du Core Parking? Ich habe mir ParkControl runtergeladen, aber merke 0 Unterschied (hab einen 6-Kerner, evtl. deshalb?).
 
Wie und wo testest du denn in AC3 wenn ich fragen darf?
Welche Einstellungen nutzt du, bzw. wann kommt es bei dir zu Abstürzen?
Folge? Treiberreset?
Würde es gern für das Review und als eigenen Stabilitätstest nachstellen.
Danke.

Wie ich AC3 teste bzw. spiele habe hier schon beschrieben. Ich nutze einen bestimmten Spielstand, wo ich wirklich nur den Level starten muss und auf der Stelle warten kann. Ist der Takt nicht stabil, stürzt es hier bereites meist innerhalb von ein paar Minuten ab, meistens ein Treiberreset, manchmal auch einen Totalabsturz, wo nur noch ein Neustart hilft. Desto näher man am stabilen Takt ist, also dass das Spiel nicht mehr abstützt, desto länger läuft es. Ist alles im grünen Bereich, läuft es dann ne Stunde und natürlich durchgehend durch, so lange lasse ich es zum Test laufen, ca. eine Stunde. Habe mal ein Bild angehangen, von der Stelle und dem Spielstand, den ich meine - Auflösung ist 2.560 x 1.600 downsamplet auf 1920x1200, alles auf Max. und TXAA. An dieser Stelle macht eine Titan mit 1150MHz GPU und 1604MHz RAM ca. 59Frames, bei 98 Prozent Auslastung.

Grüße
 

Anhänge

  • AC3SP-1.jpg
    AC3SP-1.jpg
    62,7 KB · Aufrufe: 101
  • AC3SP-2.jpg
    AC3SP-2.jpg
    18,5 KB · Aufrufe: 89
wie ihr 1.2 ghz bei crysis3 stabil haben wollt, verstehe ich nicht. mehr als 1137 und das kackt nach 30 min ab. ist mir unverständlich...
 
meine rennt auch jeden bench + furmark auf über 1200mhz aber bei manchen spielen inkl. crysis3 muss ich auf ~1180 runter.
 
Für 1200 brauchts Wasserkühlung und modifiziertes BIOS zwecks Powertarget. Unter Luftkühlung dropt es immer unter 1058 MHz bei starker Auslastung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh