NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell

Wenn Nvidia das sagt rechne mit 25-40%..

Bisher hat Nvidia bei Performancezahlen eher tiefgestapelt als zu übertreiben.
Vorsicht ist immer geboten, aber das ist die eine Sache die man Nvidia (bis jetzt!) nicht vorwerfen kann.
Daher finde ich, dass man durchaus auch mal die überzogene Skepsis beiseite legen kann. Die Fakten bekommen wir eh in spätestens drei Wochen.

Ohne jetzt auf AMD hate gehen zu wollen, rein als Beispiel.
Bei Vega haben sie damals Witcher 3 in 4k 60fps gezeigt. Bei den Reviewern war dies nicht nachzustellen. Diese 60fps waren bei keinem drin und es war Ahnunslosigkeit wie AMD diese Zahlen erreicht hat auf der Bühne.
Im Gegensatz dazu hat NVidia zwar immer nur Slides und Wörter, diese sind aber bisher meist 10% unter der real gemessenen Leistung gewesen.
Die Infiltrator Demo lief auf 85fps für die Presse, auf der Bühne hat Jenson aber nur von 78 gesprochen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bisher hat Nvidia bei Performancezahlen eher tiefgestapelt als zu übertreiben.
Vorsicht ist immer geboten, aber das ist die eine Sache die man Nvidia (bis jetzt!) nicht vorwerfen kann.
Daher finde ich, dass man durchaus auch mal die überzogene Skepsis beiseite legen kann. Die Fakten bekommen wir eh in spätestens drei Wochen.

:d :d Bingo! :d :d
 
@Rattenmann
Ich weiß in keinem deiner Beiträge um was es dir genau geht. Die Beiträge haben irgendwie nie eine Punchline bzw. eine klarere Meinung oder Aussage. Zu jedem Teilthema bei dem sich irgendwer auch nur leicht skeptisch äußerst, teilst du dich direkt mit. Indem du den ggf. Fragenden wie auch den Antwortenden in noch größere (Selbst)Zweifel treiben möchtest. Tendenziell ist das trotzdem immer zwar recht vorsichtig, andererseits aber immer ziemlich klar, pro Turing.
Bist du dir denn wirklich sicher, daß du auf keiner berufsbedingten Mission bist? #857 war jetzt wahrlich ein Paradebeispiel dafür.

Ich bin hier um meiner Begeisterung für neue Technologie nachzugehen. Das beinhaltet Fragen und natürlich eine Vorfreude auf Turing. Das verheimliche ich keinen Meter.
Zweifel zu provozieren gehört zu jeder guten Diskussion dazu. Wie sonst soll man sich austauschen und im Optimalfall einen Mehrwert aus einer Diskussion ziehen?
Wenn jeder nur mit einer festen vorgefertigten Meinung da steht, ohne diese zu hinterfragen und zu zweifeln, was ist dann der Grund für eine Diskussion? Sich zu profilieren? Das ist mir egal.

Eine Punchline will ich gar nicht haben, ich suche nach einer freien Diskussion und Meinungsaustausch zu Technologie. Nicht mehr, nicht weniger.
Was mich stört sind Aussagen die auf keiner messbaren Grundlage basieren. Was ich mag sind Denkanstöße die eine Grundlage haben und gerne dann spekulativ sind. Solange die Spekulation nicht auf reinem Bauchgefühl, Frust, oder einfach nur Rot / Grün Denkem entspringt.

Ganz einfach ausgedrückt: Es ist mir total egal ob es sich hier um AMD, NVidia oder Intel handelt. Ich interessiere mich für Technik und deren Möglichkeiten.
Was random Forenuser X, Du, ich oder sonstwer für ein Budget haben ist mir dabei komplett egal. Ein Bekannter sagt ich spinne, weil meine Frau und ich die 2080ti vorbestellt haben. Er dafür hat ne Cappuchino Maschine die 10.000 gekostet hat.
Ausgaben und Prioritäten sind halt total relativ und daher in den meisten meiner Postings auch entsprechende Nebensache. Das wäre wohl die "Punchline" die du vermisst.

Um es komplett kurz und deutlich zu machen:
Ich habe keine Punchline, weil ich nicht versuche jemand zu evangelisieren oder mich zu profilieren. Ich provoziere Zweifel, weil ich das selbe mir gegenüber erwarte.
Nur wer mich zum zweifeln bringen kann, mit guten Argumenten, kann mir helfen einen Mehrwert aus der Diskussion zu ziehen.

Und ja, mir ist bewusst, dass das Luxx Forum dafür nicht zwingend der beste Ort ist. Aber auch hier gibt es durchaus Leute die ähnlich agieren. @Holzmann gehört z.B. dazu wie ich finde.
Eine deutliche eigene Meinung, trotzdem bereit sich auf andere Meinungen einzulassen und Argumente abzuwägen.
Das gegenbeispiel dafür bist Du für mich. Eine Diskussion mit Dir ist für mich einfach nicht hilfreich fachlich. Aber durchaus lustig wenn mir meine Frau über die Schulter schaut.
Das soll nicht so negativ sein wie es evtl. klingt. Es ist nur ganz deutlich, dass wir beide komplett andere Ziele haben bei einem Forenbesuch. Du scheinst einen großen Fokus darauf zu setzen leute zu analysieren und deren Beweggründe zu erraten.
Wie Du z.B. von #857 auf eine berufliche Mission kommst ist mir total schleierhaft. Nur weil ich hinterfrage welche Speichermenge relevant ist? Ich versuche ja nur zu differenzieren zwischen Mehrkosten für mehr Speicher und dessen Nutzen abseits von "mehr ist immer besser".

Versteh mich bitte nicht falsch. Nichts hier soll ein Angriff auf Dich sein.
Wir haben einfach andere Beweggründe ein Forum zu besuchen. Ich bin hier nur ins Detail gegangen, weil es unnötig ist mich zu analysieren. Wenn ich X schreibe, dann meine ich auch X und nichts anderes.
 
Bisher hat Nvidia bei Performancezahlen eher tiefgestapelt als zu übertreiben.
Vorsicht ist immer geboten, aber das ist die eine Sache die man Nvidia (bis jetzt!) nicht vorwerfen kann.
Daher finde ich, dass man durchaus auch mal die überzogene Skepsis beiseite legen kann. Die Fakten bekommen wir eh in spätestens drei Wochen.

Ohne jetzt auf AMD hate gehen zu wollen, rein als Beispiel.
Bei Vega haben sie damals Witcher 3 in 4k 60fps gezeigt. Bei den Reviewern war dies nicht nachzustellen. Diese 60fps waren bei keinem drin und es war Ahnunslosigkeit wie AMD diese Zahlen erreicht hat auf der Bühne.
Im Gegensatz dazu hat NVidia zwar immer nur Slides und Wörter, diese sind aber bisher meist 10% unter der real gemessenen Leistung gewesen.
Die Infiltrator Demo lief auf 85fps für die Presse, auf der Bühne hat Jenson aber nur von 78 gesprochen.

Sehe ich anders.
 
Zweifel zu provozieren gehört zu jeder guten Diskussion dazu.
Wird nur bisschen schwierig seinen Beitrag als für andere nützlich zu kategorisieren, wenn sowas 100% der Inhalte ausmacht.

Versteh mich bitte nicht falsch. Nichts hier soll ein Angriff auf Dich sein.
Ja schon klar. Ich erkenne ja die neue Methodik, im Vergleich zu früher. Garkeine Aggressivität mehr, durchgehende Ruhe samt Charmoffensive. Ich bin nahezu begeistert. Das Problem dabei: In einem Forum fällt das den Ausgeschlafenen dann doch als untypisch auf ;) Tipp vom Profi: Man sollte sich lieber einen gesunden Mix ausdenken, bei dem das zweitgenannte 80-90% ausmacht.

Auch das KB-weise drauf Einreden ist nicht typisch. Auf das "komm, Vatti erzählt dir das mal in 130 Sätzen genau" reagieren die meisten eh leicht allergisch. Hier sehe ich ebenfalls noch Verbesserungspotenzial. Spätestens für die 7nm Launches.

Diese Menge in dieser Form in zweifacher Ausführung zum Unterschiedlichen bekommt ein Normalo, alleine, zwischen 17:43 und 18:02 unmöglich hin :) Erst recht nicht in dieser zugegeben recht hohen Qualität.

Ok. Zurück zum Topic Leute. Es ist trotzdem immer zuträglich, wenn man weiß gegenüber wem man steht.
 
Zuletzt bearbeitet:

Kannst Du ein Beispiel geben?
Ich kann durchaus was nicht mitbekommen haben, lasse mich also gerne eines Besseren belehren.

- - - Updated - - -


Keine Sorge, war das letzte Mal, dass ich auf einen Deiner Beiträge eingegangen bin.
Auch in anderen Topics ist bis auf Stichelleien, getrolle und auf alle die Dir nicht nach dem Mund reden nur herablassende Analysen nichts zu lesen.
Analyisere doch mal lieber die Technik im Technik Forum. Echt traurig wie Du versuchst Dich zu profilieren und als überlegen allen anderen darzustellen.
 
Na siehst du. Garnicht mal so schlecht. Sogar mit waschechten menschlichen Schwächen im Text. So ist das schon viel besser. Das üben wir jetzt noch ne Weile und dann wird das schon :bigok:
 
Zuletzt bearbeitet:
Kannst Du ein Beispiel geben?
Ich kann durchaus was nicht mitbekommen haben, lasse mich also gerne eines Besseren belehren.

- - - Updated - - -



Keine Sorge, war das letzte Mal, dass ich auf einen Deiner Beiträge eingegangen bin.
Auch in anderen Topics ist bis auf Stichelleien, getrolle und auf alle die Dir nicht nach dem Mund reden nur herablassende Analysen nichts zu lesen.
Analyisere doch mal lieber die Technik im Technik Forum. Echt traurig wie Du versuchst Dich zu profilieren und als überlegen allen anderen darzustellen.

Werde ich nicht, du bist Argumenten sowieso nicht zugänglich, dein Einziges Interesse ist es in allen RTX Threads die Karten in den Himmel zu loben..
Hach wie war das Forum bis Ende 2015 so schön..
 
Ist eigentlich schon bekannt ob eine RTX Titan kommt und ob diese mehr als 12GB bekommen wird?
 
Was bedeutet diese CEO Edition?
 
Krass.... dann wäre die Titan aber böse teuer
 
Werde ich nicht, du bist Argumenten sowieso nicht zugänglich

Ich bettle quasi um Argumente und bekomme nur ein "Weil es so ist". Was soll den das für eine Diskussionsart sein?
Natürlich kann ich auch selber nochmal suchen nach einem Beispiel für Falschaussagen zu Performance. Dachte nur Du hättest da nen Link, da Du es ja ganz sicher weißt und behauptest.
 
Die Frage bzgl. Menge an VRAM kann man schwer beantworten, sofern es darum noch geht.
Wenn es zu wenig ist, wirds einfach nur murksig mit Spielen, daher ist zu viel VRAM sowieso nicht möglich.
Natürlich helfen irgendwo 128gb mit der Geschwindigkeit eines usb-sticks nicht wirklich weiter, aber 128mb mit einer Bandbreite von 364TB/s eben auch nicht.

Irgendwo muss man da natürlich gesunde Maße finden.

Dass VRAM mehrfach die Sekunde völlig geleert und neu geschrieben werden kann ist halt schon deswegen nötig, weil auch ein so enormer paralleler Zugriff erfolgt. So ne GPU besteht quasi ja aus tausenden Kernen, die jeder für sich Daten benötigen um zu rechnen und das Ergebnis auch wieder schreiben.

Wenn dann der VRAM aus geht und die Anbindung über PCIe auf den RAM stattfinden mur, kommt eben ein enormer Falschenhals zu tragen. Sogesehen können also z.B. 384GB/s mit doppeltem VRAM trotzdem besser sein, als 422GB/s.
 
Irgendwo muss man da natürlich gesunde Maße finden.

Diese gesunden Maße wären durchaus interessant.
Bisher habe ich nur Artikel gefunden die Speicher vergleichen. Da steht dann im Groben "GDDR 5 ist toll, GDDR5x ist toller, GDDR 6 ist noch toller".
Mehr Bandbreite ist besser, klar. Mehr Speicher ist auch besser, auch klar. Aber das ist halt auch teurer.

Es ist ohne sinnvollen Hintergrund schwer zu bewerten ob Nvidia hier Schmarn erzählt, oder 8gb/11gb echt ausreichend ist.
Für mich weiterhin die eine Unbekannte an der RTX die mich unsicher macht. Leider hat noch keiner mit einer 8gb+ Karte gepostet ob er seinen Speicher regelmäßig voll bekommt.

Wenn jemand einen Artikel kennt der auf diese gesunden Maße eingeht, wäre das super.

Edit:
Hier ein Artikel von gamingscan.com -> How Much VRAM Do I Need For Gaming In 2018? [Simple Guide]
Das klingt alles irgendwie etwas schwammig. 4gb sollen für 4k theoretisch reichen, aber 8-12 wären besser.

Interessanter Punkt der mir nicht bewusst war: Manche Formen von AA kosten auch VRam.
Ist bereits bekannt ob DLSS hier auch betroffen ist? Wird das im VRam abgelegt, oder pur auf den Tensor Cores berechnet?
 
Zuletzt bearbeitet:
4gb reichen gern mal für fHD nicht mal. Da gabs von Computerbase schon nen Bericht zu.
8gb ist für 4k definitiv schon vereinzelt ein Thema.
 
4gb reichen gern mal für fHD nicht mal. Da gabs von Computerbase schon nen Bericht zu.
8gb ist für 4k definitiv schon vereinzelt ein Thema.

Meine 4gb sind eigentlich immer voll bei 1440p. Ich merkt aber keine Ruckler, außer wenn ich z.B. in Ark irgendwohin teleportiere und der ganze Speicher neu aufgebaut werden muss.
Wobei der Ruckler dann aber deutlich länger ist als die Bandbreite suggerieren würde.
Was steckt da dahinter?

Bin da also geneigt zuzstimmen, dass 4gb zu optimistisch sind. Wie groß ist den der Impakt wenn der Speicher ausgetauscht wird weil er voll ist?
Wenn ich so auf den Quellcode in Unreal und Unity schaue, dann wird ja alles gestreamt. Es ist also kein harter Schnitt, sondern eher ein sanfter Fluss von wechselnden Texturen.
Solange 8gb für 4k nur vereinzelt ein Thema ist, sind die 11gb der 2080ti dann wohl wirklich ausreichend.
Die Performance reicht ja für 8k gaming eh nicht, also ist kein großer Sprung an Texturspeicher zu erwarten für ne Weile.
 
Das Problem ist ja eher, das moderne Engines Prüfen wie viel Speicher da ist, und die Texturen z.B. zurück nehmen, ...
Es kann also sein, dass du nicht mehr das beste Bild hast, obwohl du das eigentlich eingestellt hattest, oder du kannst es gar nicht erst einstellen, ...
 
Ich halte das langsam für klinisch relevant...

@[W2k]Shadow
Man kann nichts dazu sagen. KP wieviel RT kostet und wieviel sowas kostet, wenn es noch dazu kommt
Book of the Dead: Photogrammetry Assets, Trees, VFX Unity Blog

Dann gibts noch HDR usw. ;)
Zu der 2070 würde ich sagen, ok. Die wird für ALL das nicht die Power haben. Da muß man mal was bisschen runterstellen und sich überlegen mit welcher Auflösung man das fahren sollte.
Die 2080Ti sollte das alles zu diesem Preis eigentlich mit konstant 60fps fahren können. Hat ja auch 11GB.
1080Ti macht auf Steam meine ich unter 1.5%. Nur so nebenbei gemerkt...

Die 2080er aber. Die könnte es vielleicht auch. Wenn man mit RT nicht schwachsinnig protzt, damit jeder überall sofort sieht, daß es da ist, sondern es sinnvoll einsetzt. Dann sollte sie auch gut mitkommen. Nur ob der Speicher für das obige dann noch ausreicht...

Ich denke wenn die 2070 8GB, die 2080 aber 11GB und die 2080Ti 16GB hätte, würde das Thema Speicher in den Threads nicht aufkommen.

Das mit den "tausenden Kernen" ist imho Marketing-blahblah. "CUDA-Cores" sind keine Cores. Seit wann rechnen wir bei CPUs die Cores nach ALUs? Ein 5960X ist doch keine 48 Cores CPU.
Cores in GPUs sind die ComputeUnits. Die heissen bei NV streaming multiprocessors (SM). Die SM sind da wie hier die Cores. Die paar FAQs im Netz zu CUDA-Cores sind alle PR-Bullshit mit, übrigens, nahezu identischem Text. Keine Ahnung wer das verfasst hat. Wahrscheinlich jemand der Core als mega buzzword ansieht.

Jeder SM hat nun 64 Shader-Einheiten ähmm Cuda-Cores... Eine 2080Ti ist also eine 68 Cores GPU + 8 Tensor pro Core (544). Ich konnte noch nirgendwo was zu der Anzahl der RTs ("RT-Cores", man erinnert sich ;)) finden. Auch TextureUnits noch nichts (?)

Was ich bis vorher nicht wusste: Eine Shader-Einheit ;) beim Turing kann jetzt eine INT und eine FLOAT parallel abarbeiten. Real kommt man beim gleichen Takt schon alleine dadurch auf einen Speedup gegenüber Pascal von 1,2 bis 1,5 für die Shader-Einheit. In der Tat nett.

Gebalte Rechenleistung eigentlich. Wobei es mich doch wundert, daß die geizhals-gelistete Power der Ti an sich recht niedrig ausfällt. Mit all dem Zauber 13448 singel Gflops. Bei max. 1545 Boost. Ohne das ganze aufregende lika a magic Zeug kommt die Nitro+ Vega64 auf 12943. Mit 1580.
Eine MSI 1080Ti mit 1683 Boost, auf 12064. Auf den Folien tut sich da also immer viel mehr als auf dem Bildschirm...

Bis denne.

p.s.:
Andererseits, da erinner ich noch ab und zu daran wegen Vram , kann man BF StarWars in 1080, mit allem auf High und nur Schatten auf Medium, field of view auf "90" und FXAA, auf einem PCIe3.0 Board, mit 50-60fps spielen: auf der "MSI 260X 2GB OC" (13R) :hust:
Bei sowas flippen die Kiddis regelrecht aus ;)

Wie gesagt. Die Meinung des Luxx von heute was man denn unbedingt braucht, spiegelt sich auf Steam bereits nach 3 bis 4 Jahren ;)
 
Zuletzt bearbeitet:
Du sagst es, bzgl. Der RTX müssen wir erst mal sehen wie das dann aus sieht, nur wenns jetzt mit ner 2080 schon knapp ist, hilft die RTX auch nicht.
 
Jep. Die tragende wirtschaftliche Rolle haben die 2070 und dann gutes Stück dahinter die 2080. Die 2080Ti darf nur soviel Verlust sein, daß die anderen sie mittragen können :) Wie gesagt, 1080Ti macht unter 1.5% auf Steam aus.

Irgendwie hab ich also das Gefühl, die "teuerste" Karte für den Kunden, also die mit der größten Marge, ist nicht die 2080Ti. Als wenn die 2080 nur die 8Gb bekommen hat, um die 2080Ti besser mittragen zu können.

Ich fände das wirklich schade, wenn eben die meisten Käufer der 2000er aus der Nummer völlig unnötig beschnitten rausgehen würden, nur für Glanz&Glorie der Ti, die dann 2020 1.4% auf Steam erreicht...

Bis später mal.

edit:
Dazu auch noch
Jon Peddie Research reports the Q2’2018 GPU shipments | Jon Peddie Research
 
Zuletzt bearbeitet:
@ Rattenmann: Also die 8GB meiner 1080 waren noch nie auch nur annähernd ausgelastet, nicht bei meiner aktuellen Auflösung von 5760x1080, nicht mit der Oculus Rift mit ner Skalierung von 200% und auch nicht z.b bei nem Battlefield 1 in 4k mit Ultra Settings.
Vielleicht habe ich die falschen Spiele aber die 8GB waren noch nie zu wenig.
Das kann sich natürlich ändern und wird sich wahrscheinlich auch ändern aber ich lehne mich mal aus dem Fenster und behaupte, die 11GB reichen die nächsten zwei, drei Jahre noch locker.
Aber ja mehr wäre besser. Hier stimme ich den Kritikern schon etwas zu, einfach weil sich der Preis dann etwas besser anfühlen würde aber ich glaube nicht dass man mit 11GB so schnell Probleme bekommt.

Gesendet von meinem BLA-L29 mit Tapatalk
 
4 GB reichen aktuell für FHD eventuell noch gerade so, bei alten Karten macht da meist die Leistung vorher dicht. Neu kaufen würde ich solche Karten aber nicht mehr außer es ist ~100 € Budget. Für 4K sind selbst 8 GB knapp, Belegungen von 9-10 GB sind da völlig normal. Ob man die "braucht" kann ich nicht exakt beurteilen, darauf verzichten will ich aber nicht. Das ist wie 8 und 16 GB RAM. 8 GB "reichen" meistens selbst noch für die aktuellen Grafikkracher, ruckeln aber dann zwischendurch schonmal. Mehr RAM ist immer besser.

Ich weiß auch nicht was die Leute gegen VRAM haben, es hat sich mit jeder Generation verdoppelt. 11 GB sind gar nicht so viel wie es sich anhört. Es gab mal Zeiten da hatte ich 128-256 MB da kamen die ersten Karten mit 1 GB raus, damals staunte ich nur und fragte mich wofür man so viel VRAM überhaupt benötigt. Die 580 kam mit 1,5 GB, die 780 mit 3 GB, die 980 Ti mit 6 GB und die 1080 Ti nun mit 11 GB. Es stagniert viel mehr weil die 2080 Ti nicht mehr hat.

SW BF1? Das habe ich auf einer 780 Ti problemlos in 4K gezockt auf Mittel. Das nenne ich mal optimiert. Selbst BF1 lief von den FPS her flüssig, jedoch hatte ich derbe Nachladeruckler aufgrund der 3 GB. Selbst mit 60 FPS fühlte es sich dann immer noch ruckelig an.

Sollte die 2080 Ti keine konstanten 60 FPS, eher aber deutlich mehr schaffen in 4K können sie den Schrott behalten. Ansonsten bin ich echt versucht mir eine zu holen. Vorausgesetzt es kommen gute Customs raus. Für 1300 € erwarte ich schon etwas mehr als Plastikbomber.
 
Diese gesunden Maße wären durchaus interessant.
Bisher habe ich nur Artikel gefunden die Speicher vergleichen. Da steht dann im Groben "GDDR 5 ist toll, GDDR5x ist toller, GDDR 6 ist noch toller".
Mehr Bandbreite ist besser, klar. Mehr Speicher ist auch besser, auch klar. Aber das ist halt auch teurer.

Es ist ohne sinnvollen Hintergrund schwer zu bewerten ob Nvidia hier Schmarn erzählt, oder 8gb/11gb echt ausreichend ist.
Für mich weiterhin die eine Unbekannte an der RTX die mich unsicher macht. Leider hat noch keiner mit einer 8gb+ Karte gepostet ob er seinen Speicher regelmäßig voll bekommt.

Wenn jemand einen Artikel kennt der auf diese gesunden Maße eingeht, wäre das super.

Edit:
Hier ein Artikel von gamingscan.com -> How Much VRAM Do I Need For Gaming In 2018? [Simple Guide]
Das klingt alles irgendwie etwas schwammig. 4gb sollen für 4k theoretisch reichen, aber 8-12 wären besser.

Interessanter Punkt der mir nicht bewusst war: Manche Formen von AA kosten auch VRam.
Ist bereits bekannt ob DLSS hier auch betroffen ist? Wird das im VRam abgelegt, oder pur auf den Tensor Cores berechnet?

Einfach mal richtig lesen, ich habe bereits in einem der RTX Freds Screens gepostet und Games wo ich die 8 GB Vollbekomme..:
Frostpunkt, Schatten des Krieges, Quake Champions und einige mehr
 
Sollte die 2080 Ti keine konstanten 60 FPS, eher aber deutlich mehr schaffen in 4K können sie den Schrott behalten. Ansonsten bin ich echt versucht mir eine zu holen.
Ti? Dann hab ich das hier falsch verstanden. Ich hab das eher so verstanden, daß die Leute über die 8GB der 2080 "grübeln". Der dürfte eher nicht die Leistung ausgehen bevor der Speicher dicht macht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh