[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
@ webmi
das @ air ist doch ein tolles Ergebnis :)

Das mit dem Combinedproblem kenne ich auch. Ist das ein Treiberproblem, oder ein Problem generell bei den 3D Murksen ?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Für den 3DMark fehlt wohl noch ein passendes Treiberprofil für SLi?! Werds nachher/heute Nacht mal selber testen :d.
 
dann sind die Karten wohl doch nicht so Benchmarkoptimiert worden wie ich von NV gedacht habe.
Finde die Benchergebnisse ja schon gut, aber wenn da noch ordentlich was geht mit nem optimierten Treiber.
 
Für den 3DMark fehlt wohl noch ein passendes Treiberprofil für SLi?! Werds nachher/heute Nacht mal selber testen :d.

So trivial scheint es nicht zu sein. Denn in den Gametests funktioniert SLI normal, nur im letzten Teil, dem Combined-Test, habe ich nur etwas mehr als die Hälfte an Frames, die ich ohne SLI habe.

Ich habe bereits mit den Profilen rumgespielt. AFR2 geforced, anderes Treiberprofil genutzt (z.B. 3DMark11, hat ja schließlich auch einen Combined-Test), PhysX-Berechnung auf CPU und GPU probiert und noch ein paar andere Sachen mehr. Hat alles nichts gebracht.

Um ehrlich zu sein befürchte ich, dass wir einen Patch von FM abwarten müssen, dass es flächendeckend mit SLI funktioniert.
 
Mit SLi geht Crysis3 richtig ab und gerade in 3D Vision mit max Settings bringts eine Titan nicht, 2 jedoch schon :d.
 
hat sich einer mal mit Tripplescreen an C3 versucht ? :d
Mit einer Karte waren 16 fps drin oder so wie ich gelesen habe.

€dit:
wo ist derjenige mit Alan Wake ?, wurde das überlesen ? :(
 
sollte die nicht Ram OC bekommen ?
 
Werd später mal eine Titan auf mein olles Striker II Extreme (NV 790i Ultra Chipsatz^^) schnallen :d. Schade das ich nur noch nen E8500er rumfliegen hab. Damals hab ich nen Benchvergleich zwischen 775 mit QX9650@4,0 und @4,4GHz mit GTX580Stock+OC sowie GTX580SLi Stock+OC gemacht und das Gleiche dann mit SB. Das war ein tagelanger Benchmarathon :fresse:.

Nunja, der E8500er hat ja 2 Kerne, ergo i7 auf 2 Kerne setzen und ab geht's^^.
 
Kleiner Einwurf zur Crysis3 Diskussion von gestern an MeliMelicious und TurricanM3:

1. Schatten kann man ruhig auf High lassen, die sehen mit High nämlich besser aus als auf sehr high (zumindest meiner Meinung nach) und bringen ganze 10% extra Performance: Technik-Check: Crysis 3 im Technik-Check - Systemanforderungen und Grafikvergleich - GameStar.de

2. Der Gras Level ist absolut CPU limitiert und bringt selbst nen 3570k bei 4,7 Ghz richtig ins Schwitzen. Da dürfte der 2600k @ 4,2 Ghz eher das Problem sein, als die Titan. Zur not mal mit Afterburner/PrecisionX und HWiNFO die CPU Stats ingame anzeigen lassen, dann habt ihr Gewissheit:



(Bild von Black2Soul mit seinem 3570k @ 4,7 Ghz)

Schon mit 4,6 Ghz hat er da 100% Load auf allen Kernen und die CPU limitiert - und das bei ner 670! Denke für die Titan braucht man an der Stelle noch deutlich mehr CPU Takt!
 
schon krass, muß man also wieder 4 Jahre warten bis Crysis anständig in allen Lagen durch rennt !?
Habe aber gelesen dass das Game bei ner Hexacore CPU nochmal ordentlich skalieren soll.
 
Deswegen zock ich momentan fast nur noch mit 5GHz (24/7 sind 4,6GHz). Ich kann bis 5,0GHz dank AI Suite "on the fly" hochziehen. Erst wenn ich mehr Takt will muss ich ins UEFI und PLL Overvoltage enablen^^.
 
so schlimm limitiert die CPU doch gar nicht.. crysis3 lässt sich auch auf alten gurken passabel durchspielen mit 60fps average..

AMD PhenomII X4 955BE, @H²O @4.00GHz
16GiB DDR3 1600, Win7 Pro x64 SP1, FW 314.14beta
GeForce GTX690 (1137|1701MHz|PT133%)

Crysis 3 MAP SWAMP

720P NIEDRIG

NO AA
Time: 111000ms - Avg: 118.586 - Min: 78 - Max: 172



1080P SEHR HOCH

FXAA
Time: 111000ms - Avg: 67.342 - Min: 34 - Max: 98

SMAA 1x
Time: 111000ms - Avg: 68.369 - Min: 34 - Max: 98

SMAA 2x (MGPU)
Time: 111000ms - Avg: 59.847 - Min: 30 - Max: 81

TXAA Mittel (2xT2)
Time: 111000ms - Avg: 51.306 - Min: 28 - Max: 67

TXAA Hoch (4xT2)
Time: 111000ms - Avg: 47.658 - Min: 27 - Max: 59

MSAA Niedrig (2x MSAA)
Time: 111000ms - Avg: 61.604 - Min: 29 - Max: 85

MSAA Mittel (4x MSAA)
Time: 111000ms - Avg: 56.333 - Min: 31 - Max: 73

MSAA Hoch (8x MSAA)
Time: 111000ms - Avg: 46.081 - Min: 25 - Max: 64


GPU1 max-temp -> 93°C @1.175V @1163MHz
GPU2 max-temp -> 88°C @1.175V @1176MHz
CPU max-temp -> 55°C @1.440V @4016.6MHz


zugehöriger thread im 3DC: klick


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Laut neannon skaliert seine Karte nur bis 1.1875!
Geht damit aber 1202...meine karte hingegen schafft mit 1.2v nur 1176! Schaltet man nun pt aus und dazu noch 1.212v dann sind plötzlich 1280 drin...ok...valley nur 1248 manchmal...1224 gehen immer.

Gesendet von meinem GT-N7100 mit der Hardwareluxx App

Wie schaltet man denn das PT aus und gibt manuell 1.21v?
 
@webmi
muss man ja mal gesehen haben.. in einer welt, wo sich alle nur ihre 5GHz-hauptsysteme schönreden.


(..)

mfg
tobi
 
Könnte es nicht sein, dass die SC von EVGA besseres ASIC haben müssten, weil sie ja schon eh ein bissi höheren Takt haben und von daher eventuell "übertaktbarer" sind als die "normalo"Titte?
 
Könnte es nicht sein, dass die SC von EVGA besseres ASIC haben müssten, weil sie ja schon eh ein bissi höheren Takt haben und von daher eventuell "übertaktbarer" sind als die "normalo"Titte?

Habe ja eine SC und dann kommt es ja noch darauf an was du als besser definierst. Scheint ja unterschiedlich im Bezug auf Lukü (grosser Wert besser) & Wakü (kleiner Wert besser) zu geben. Aber wie gesagt habe keine Ahnung wie das genau gehen resp. berechnet werden soll.
 
Ja und die min fps sind eine Qual bei crysis . Da bringen mir die 60 im schnitt auch nichts

Gesendet von meinem HTC EVO 3D X515m mit der Hardwareluxx App
 
Ja und die min fps sind eine Qual bei crysis . Da bringen mir die 60 im schnitt auch nichts

Gesendet von meinem HTC EVO 3D X515m mit der Hardwareluxx App

ich kenne deine minframes nicht; meine sind ausreichend. auf beiden rechnern.


(..)

mfg
tobi
 
680 SLI
3930k @4.5 GHz ...

Und wenn die frames runter gehen merkt man es auch wegen SLI. Zielen fällt dann schon schwer bei 30 fps
Aber ist halt crysis 3 ^^

Gesendet von meinem HTC EVO 3D X515m mit der Hardwareluxx App
 
Hi, hab seit heute auch ne Asus GTX Titan ohne was zu machen boostet die Karte auf 1005 MHz :hail: nach 3 runs Valley rennt sie dann ins Temptarget von 80°C und taktet auf 914MHz runter allerdings regelt der Lüfter auch nur bis 40% im Automodus wenn ich manuell auf 65% gehe rennt Sie bestimmt nicht ins Temptarget. :wink: mfg omni
 
@simder

Das ist schon ein starkes Stück bei Deiner Konfig! Finde aber auch mit 30fps machts keinen Spaß.

BTW: bei Simplygames (uk) bekommt man Cry3 für 22 Pfund (hatte noch 25 gezahlt waren knapp unter 30€ mit PP).
 
Zuletzt bearbeitet:
warum tust du dir sowas an? mit 2x 15fps kann kein mensch zielen.. Auch nicht wenn AFR es als 1x 30fps anzeigt. dazu noch ein langsamer bildschirm und ne crappy funkmaus + USB-keyboard und die lagseuche ist komplett. verlängern lässt sich das gummiband dann nur noch mit vsync, was bei einem 120Hz Gerät @1/4 des refresh per forcewareprofil sogar möglich wäre..

im SLI braucht man 50fps und im CF 60fps für ein halbwegs störungsfreies spielen. mehr ist natürlich besser.


wäre der anteil der gemessenen minframes irgendwo gewichtig, wären auch die averageframes unzureichend; also klar unter 60fps bei MGPU. SGPU läuft auf Titan auch mit 30-40fps ohne sync gut.

bei MGPU immer schön durch zwei teilen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
A GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

Habe ja eine SC und dann kommt es ja noch darauf an was du als besser definierst. Scheint ja unterschiedlich im Bezug auf Lukü (grosser Wert besser) & Wakü (kleiner Wert besser) zu geben. Aber wie gesagt habe keine Ahnung wie das genau gehen resp. berechnet werden soll.

Wie ist denn deine asic?

Gesendet von meinem GT-N7100 mit der Hardwareluxx App
 
Hallo,

ne Evga Geforce GTX Titan hab ich bei Computeruniverse gestern bestellt.
Ne Evga Geforce GTX Titan SC Signature ist gekommen.

Die Haken daran:
- Keine Umverpackung um die OVP, nur Paketbänder
- die Evga-Siegel sind gebrochen

Eigentlich sollte ich das Teil alleine aus Prinzip zurückgehen lassen.

ciao Tom
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh