[Sammelthread] Grafikkarten - Technikdiskussion

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jeder Treiber wo Legacy dran steht. Steht ja auch im Text. Für die 5k, 6k, ... Modelle.

Da deine Karte relativ alt ist wirst du an sich nicht mehr updaten brauchen sofern alles sauber läuft und du keine Probleme feststellst.
 
Aber Legacy ist doch nur eine Beta, oder nicht?
 
Stimmt. Ziehmlich verwirrend geschrieben. Text sagt Legacy und bieten nur den Betatreiber als Legacy.
Dann doch lieber auf der AMD Seite selber schauen. :)

AMD Grafiktreiber und Software
rechts der dritte Treiber sollte es sein.

Allerdings sagt Legacy aus das es für Altes gedacht ist und Laut Wikipedia sind die Legacy Treiber eben für die alten Karten. Kann natürlich auch dafür Betatreiber geben ohne Zertifizierung. Nur bietet CB hier scheinbar nicht die fertigen Treiber an.
 
Zuletzt bearbeitet:
Danke für den Link. Den Treiber nehme ich mal :)
 
War meistens ATI/AMD User bin aber seit Maxwell auf ne GTX 970 gewechselt. Muss sagen bin mehr als zufrieden mit den Treibern. Adaptives Vsync etc... Solche Optionen gabs beim Catalyst ja nie und ich hatte immer Probleme meinen Input Lag unter Kontrolle zu halten mit aktiviertem Vsync, weil Tearing auch keine Option war. Außerdem waren die Frametimes wirklich ne Liga schlechter als bei Nvidia, dass muss man leider so sagen. Das Bild wirkt einfach runder.

Jetzt hört man ja AMD hätte mit Crimson komplett neu angefangen. Sind die Treiber denn mittleweile ähnlich konfigurierbar was Vsync etc.. angeht und auch besser was Frametimes etc angeht? Wäre geneigt bei der nächsten Generation zurückzuwechseln.
 
Adaptive Vsync ging auch früher bei AMD - mit Radeon Pro. Im Crimson ist es bisher leider nicht.
Die bessere Alternative ist allerdings auch Freesync/Gysync.

Was Frametimes angeht ist mir nicht bekannt dass AMD da irgendwo generell hinterher wäre...
Hattest du Grakas der selben Leistungsklasse zum Vergleich?
 
Hallo Allerseits,

Ich will das Forum nicht unbedingt mit einem extra Thread belasten, darum frage ich hier! :)

Laut technischen Details müsste eine 780ti schneller als eine GTX970 sein. So viel zur Theorie ... Wie kommt es, dass eine GTX970 in der Praxis die 780ti in der Regel abhängt? Und trifft dies nur für 1440p und höher zu, oder ist eine GTX970 auch bei 1080p schneller im Durschnitt?

Ich bin aktuell in der glücklichen Lage mindestens 1-2 Jahre nichts extra für meinen Strom zahlen zu müssen. Eine GTX 780ti wechselt den Besitzer mitunter für 80-90 € weniger als eine GTX970 den Besitzer. Nun frage ich mich, ob das an der Performance oder am katastrophalen Stromverbrauch und der Lautstärke liegt.

Angenommen die sind mindestens gleich auf, spiele ich mit dem Gedanken eine GTX 780ti zu kaufen und dann eine nextGen nVidia (wegen des besseren Linux-Treibers) im Laufe des Jahres nachzurüsten - die sollen angeblich ja wesentlich schneller werden.
 
Adaptive Vsync ging auch früher bei AMD - mit Radeon Pro. Im Crimson ist es bisher leider nicht.
Die bessere Alternative ist allerdings auch Freesync/Gysync.

Was Frametimes angeht ist mir nicht bekannt dass AMD da irgendwo generell hinterher wäre...
Hattest du Grakas der selben Leistungsklasse zum Vergleich?

Ah schade ok. Ich hatte vorher eine R9 270 und ein Kollege von mir eine 660 Ti. Bei Ihm wirkte das Bild immer viel runder, da dachte ich erst das liegt am Monitor. Jetzt wo ich auch Nvidia hab ists bei mir aber genauso geworden. Vor allem in Blizzard spielen wie WOW ist das ganz deutlich zu bemerken. Gut mittlerweile hab ich mich von meinem 60 Hz Monitor verabschiedet und bin auf 144 Hz gewechselt. Das ist natürlich nochmal ne ganz andere Liga... Ich hatte aber den direkten Vergleich weil ich anfangs noch den 60 Hz Monitor hatte.(Er hat auch 60 Hz.) Vllt würde es da gar nicht mehr so ins Gewicht fallen. Der hat allerdings kein Free oder Gsync...
 
Zuletzt bearbeitet:
Ah schade ok. Ich hatte vorher eine R9 270 und ein Kollege von mir eine 660 Ti. Bei Ihm wirkte das Bild immer viel runder, da dachte ich erst das liegt am Monitor. Jetzt wo ich auch Nvidia hab ists bei mir aber genauso geworden.
Was hattet ihr denn für CPUs und du hast nicht zufällig mit der NV GPU auch die CPU getauscht?
Wow ist öfters CPU-limitiert.
 
Er hatte einen FX 6100 ! und ich auch während des Übergangs einen I5 3350P. Trotzdem wirkte bei Ihm das Bild trotz niedrigerer Frames geschmeidiger. Einfach weil nicht solche Frametime Spikes drin waren. Genau dieses rundere empfinden hat sich bei mir sofort nach dem Wechsel auf die 970 auch eingestellt. Bei gleichbleibenden Prozessor. (Frames waren auf 60 gecapped wegen Vsync wie vorher auch.)
 
Zuletzt bearbeitet:
Ich will ja nicht Großkotzig wirken, aber dieser Artikel hier bestätigt alles was ich die letzten Jahre hier im Thread immer wieder gesagt habe.

Prozessoren: Intel trägt das Tick-Tock-Modell zu Grabe - ComputerBase

"Inoffiziell ist das Tick-Tock-Modell schon seit dem „Haswell Refresh“ begraben. Jetzt beerdigt Intel das Konzept auch ganz offiziell."

"Demnach ist das bisherige Tick-Tock-Modell bei Intel nicht mehr haltbar"

Die ausgaben für Forschung und Entwicklung sind denen dafür zu Hoch.
Eine weise Entscheidung, und dennoch eine interessante Sache in der Geschichte.
Der Fortschritt wird langsamer und langsamer.

"Bereits vor zwei Jahren war mit der Verspätung der Broadwell-Prozessoren und dem Einschub des Haswell Refresh, hinter dem sich zu dieser Zeit aber nichts weiter als leicht gesteigerte Taktraten verbargen, das Ende des Tick-Tock-Modells absehbar, wenngleich Intel betonte, die Kurve noch einmal kriegen zu wollen. Die Skylake-Prozessorfamilie folgt daraufhin Mitte 2015 fast wieder im Plan. Nahezu zeitgleich gab Intel jedoch bekannt, dass sich die 10-nm-Fertigung weiter verzögert und stattdessen eine weitere Runde in 14 nm gedreht wird: Kaby Lake. Geboren war dort das nun offiziell enthüllte neue Modell „Process-Architecture-Optimization“."

Der Druck durch die Konkurrenz wächst

"Der neue Plan gilt zudem nicht nur für die 14-nm-Fertigung. In der Mitteilung spricht Intel auch direkt die 10-nm-Fertigung an. Mit dem Start der Cannonlake-Prozessoren im zweiten Halbjahr 2017 werden mindestens zwei weitere Jahre in 10-nm-Fertigung folgen. Mit der Einführung der 7-nm-Fertigung ist demnach bei Intel nicht vor 2020 zu rechnen.
TSMC geht mit großen Schritten auf die 7-nm-Fertigung zu, ab dem Sommer 2016 soll die 10-nm-Fertigung in Serie produziert werden, Anfang 2017 die 7-nm-Herstellung in den Status der Risikoproduktion gehen.
Intel selbst sah sich zuletzt als weiterhin führend an. So oder so wäre das aber das erste Mal seit vielen Jahren, dass Intel keinen teilweise jahrelangen Vorsprung durch Technik mehr vorweisen könnte.
"
 
@nighteye

Bei den GPU´s nichts anderes. Der GM200 ist auch eine Weiterentwicklung basierend auf nochmals verbesserter 28nm Produktion. Die Laufzeiten der vorhandenen Hardware wird damit potenziell noch länger, bis sie ersetzt werden muss.
 
@nighteye

Bei den GPU´s nichts anderes. Der GM200 ist auch eine Weiterentwicklung basierend auf nochmals verbesserter 28nm Produktion. Die Laufzeiten der vorhandenen Hardware wird damit potenziell noch länger, bis sie ersetzt werden muss.

Das sagte ich schon 2012. Aber damals war ich der einzige und keiner wollte mir glauben :d
 
Intel kostet die Umrüstung nur einer Fabrik imho über 2 Milliarden Dollar. Dazu wird der Sprung auf EUV sicherlich noch mehr kosten. Kein Wunder, dass man so lang wie möglich die alten Prozesse nutzt. Das Problem bahnte sich irgendwie an. Die GPU´s sind auch komplexer als CPU´s. Die vielen Transistoren resultieren da aus dem Cache. Ein GM200 Pendant in 16nm reizt allerdings sehr, denn da dürften knapp 20 Milliarden Transistoren zusammenkommen. Beim nächsten vollen Sprung dann an die 45 Milliarden....
 
Ich will ja nicht Großkotzig wirken, aber dieser Artikel hier bestätigt alles was ich die letzten Jahre hier im Thread immer wieder gesagt habe.

Nighteye, dein Problem ist nach wie vor, dass du Rückschlüsse anhand grundverschiedener Themen ziehst. Das ist einfach unsinnig...

Intel hat viel eher das Problem, dass man mittlerweile NICHT mehr viel über IPC und Takt rausholen kann, die CPU Breite ist definitiv kein Problem. Aber die Software, die solch breite Modelle nutzen soll. Dazu kommt, die Märkte haben sich gerade im CPU Bereich über die letzten Jahre gewandelt. Das haben selbst die Softwareanbieter mittlerweile klar erkannt. Bspw. hat MS das Lizenzmodell für die Datacenter Lizenzen umgestellt und will mit der kommenden 2016er Version nicht mehr ausschließlich pro CPU, sondern auch noch pro Core lizensieren.
Warum macht man das wohl? Weil immer weniger Firmen für jede Anforderung dediziertes Blech kaufen... Man virtualisiert heute sehr viel. Das heist, wenig dickes Blech für viele verschiedene Sachen... Während Intel vor 10 Jahren noch für quasi jeden Dienst mindestens eine CPU verkauft hat, verkaufen sie heute nur noch wenige. Lass eine Firma 50 verschiedene Server nutzen -> macht min. 50 verkaufte CPUs nach damaliger Rechnung. Heute kommst du auf 2-4, lass es 6 sein und du hast Notfall/HA Reserve noch inkl.
Das schlägt sich A) auf die Preise nieder und B) natürlich auch klar auf den Absatz... Dort wo damals CPUs im Server und Client Bereich ziemlich identisch waren, hast du heute von sechs bis 18 Cores Xeons im Serverbereich und 1-8 Core CPUs im Client Bereich. Größer 4 kommt beim Clientbereich nichtmal nennenswert Alltagsleistung bei rum, wenn man von speziellen Fällen ausgeht.

Wäre das anderes, sprich würde jeder, der heute CPUs kauft mit seiner Software nach belieben über die CPU Breite skalieren können, dann hätte Intel auch überhaupt keine Probleme, dann hätten wir heute lange schon CPUs mit weit über acht Cores im Mainstream. Das ist aber eben nicht der Fall. Die Software spielt nicht mit... Ergo kauft keiner das Zeug und Intel hat zunehmend Absatzprobleme. Bis dato kann/konnte man wohl noch halbwegs wirtschaftlich den Spaß über Takt/IPC kompensieren... Aber bei immer teureren Fertigungsprozessen ist da eben auch irgendwann eine Grenze erreicht. -> denn der Otto Normalo will nicht tausende Euro für Prozessoren ausgeben. Sondern eher günstig.


Um den Vergleich zu GPUs zu ziehen. Dort gibt es kein Problem mit der Breitenskalierung. Doppelt so breite GPU und die Anwendung fluppt idR deutlich besser bzw. skaliert durchaus anständig. Grenzen sind dort eher die Fertigung und die TDP/Verlustleistung sowie der Geldbeutel der Gamerschaft. Kurzum, der GPU Markt würde, wenn er könnte... Und sie täten natürlich auch, wenn die Menschheit nicht immer günstiger ihre Produkte haben wollten würde. Aber irgendwann ist der Punkt nunmal erreicht, wo es nicht endlos nach oben skalieren kann. Also geht man andere Wege... Das Thema Energieeffizienz ist dabei ziemlich hoch im Kurs. Wenn alle bereit wären, spielend doppelt so viel Kohle auf den Tisch zu blättern, würde es auch viel schneller gehen ;) Da dort aber der Endanwender auf die Bremse tritt, ist klar, dass es nicht endlos so weiter gehen kann...
Meldungen über CPUs da als Grundlage ranzuziehen ist aber trotzdem weit hergeholt. Da es dort genau andersrum läuft. Dort gibt es die technische Hürde gepaart mit mangelndem Softwaresupport. Und für kein Geld der Welt wird Software auf einmal brachial über MT skalieren, wenn es technisch eben Limits sind ;)
 
Eigentlich interessanter Test -> nur wird die Frage nach dem Warum auch dort nicht geklärt ;)
-> wir sehen auch hier wieder, Kepler ist NICHT langsamer geworden
-> wir sehen ebenso, dass Kepler in alten/älteren Titeln so performt (auch mit neuen Treibern) wie seinerzeit üblich
-> wir sehen, dass Hawaii in älteren Titeln so performt, wie damals gebencht
-> und wir sehen, dass Hawaii in neueren/neuen Titeln besser performt als Kepler
-> andererseits Hawaii in den besagten älteren Titeln aber ebenso nicht zulegt?
-> wir haben auch dort die Bestätigung, dass 3GB der 780TI heute effektiv zu wenig sind

Was dem Test aber fehlt, es fehlt Maxwell im Vergleich bei den alten Titeln... Das hätte vielleicht noch etwas mehr Aussagekraft. Denn so bleibt es weiterhin bei der Frage, will NV nicht Kepler optimieren oder ist Maxwell vielleicht bei richtiger Anwendung einfach schneller? (so wie es NV zumindest selbst vor Maxwell Release sagte)

Denn es könnte auch einfach der Fall sein, dass die geänderte Technik bei Maxwell, von 192 ALUs pro GPC auf 128 ALUs pro GPC schlicht besser skaliert. Auch könnte es sein, dass weitere Teile, neben der reihen Shadergeschichte, die bei Maxwell zum Teil mehr, zum Teil deutlich höher getaktet, einfach besser laufen in neueren Titeln -> weil sich die Anforderungen dahingehend geändert haben.
Und unterm Strich bleibt immernoch die Frage, warum ist/war AMD mit Hawaii seinerzeit langsamer als GK110 und benötigte hohe Auflösungen, damit der Rückstand schrumpfte bzw. sich umkehrte? -> genau dieser Part lässt nämlich nicht primär darauf schließen, dass die angeblich mangelnde Kepler Optimierung bei NV das Problem verursacht, sondern einfach, dass Hawaii den deutlich längeren Atem hat und nun endlich, ~2,5 Jahre nach Release, zur vollen Leistung ausgefahren werden kann... Während Kepler den Zenit (länger) schon überschritten hat. Denn in den alten Titeln performt Hawaii auch heute nicht besser als damals.

Was noch dazu kommt, auch dieser Test bestätigt mal wieder, dass Treiberoptimierungen eher im Detail die Performance verbessern. Im Schnitt (AVG FPS) sich das aber nicht sooo sonderlich verändert. Was wiederum aber auch bedeutet, wenn weder Hawaii noch Kepler über die Treiber stark zulegen in den FPS, Maxwell und Hawaii in neuen Titeln aber deutlich besser laufen als Kepler -> dass die Treiberoptimierung eigentlich nicht das Problem ist/sein sollte, sondern vielleicht doch eher die Hardware ;)
 
Zuletzt bearbeitet:
Kann es sein, dass AMD und Nvidia eine verschiedene Bildqualität liefern?

Habe hier gerade 'frisch' ne 6950 und meine, dass Valley Benchmark damit anders ausschaut.

DOF und Kontrast erscheinen mir anders als mit meiner GTX 680. Valley läuft auch dem selben Monitor mit den gleichen Settings.

Oder ist das alles nur Einbildung ? Irgendwie mag ich das AMD-Bild mehr ;)
 
Eigentlich interessanter Test -> nur wird die Frage nach dem Warum auch dort nicht geklärt ;)
-> wir sehen auch hier wieder, Kepler ist NICHT langsamer geworden
-> wir sehen ebenso, dass Kepler in alten/älteren Titeln so performt (auch mit neuen Treibern) wie seinerzeit üblich
-> wir sehen, dass Hawaii in älteren Titeln so performt, wie damals gebencht
-> und wir sehen, dass Hawaii in neueren/neuen Titeln besser performt als Kepler
-> andererseits Hawaii in den besagten älteren Titeln aber ebenso nicht zulegt?
-> wir haben auch dort die Bestätigung, dass 3GB der 780TI heute effektiv zu wenig sind

Was dem Test aber fehlt, es fehlt Maxwell im Vergleich bei den alten Titeln... Das hätte vielleicht noch etwas mehr Aussagekraft. Denn so bleibt es weiterhin bei der Frage, will NV nicht Kepler optimieren oder ist Maxwell vielleicht bei richtiger Anwendung einfach schneller? (so wie es NV zumindest selbst vor Maxwell Release sagte)

Denn es könnte auch einfach der Fall sein, dass die geänderte Technik bei Maxwell, von 192 ALUs pro GPC auf 128 ALUs pro GPC schlicht besser skaliert. Auch könnte es sein, dass weitere Teile, neben der reihen Shadergeschichte, die bei Maxwell zum Teil mehr, zum Teil deutlich höher getaktet, einfach besser laufen in neueren Titeln -> weil sich die Anforderungen dahingehend geändert haben.
Und unterm Strich bleibt immernoch die Frage, warum ist/war AMD mit Hawaii seinerzeit langsamer als GK110 und benötigte hohe Auflösungen, damit der Rückstand schrumpfte bzw. sich umkehrte? -> genau dieser Part lässt nämlich nicht primär darauf schließen, dass die angeblich mangelnde Kepler Optimierung bei NV das Problem verursacht, sondern einfach, dass Hawaii den deutlich längeren Atem hat und nun endlich, ~2,5 Jahre nach Release, zur vollen Leistung ausgefahren werden kann... Während Kepler den Zenit (länger) schon überschritten hat. Denn in den alten Titeln performt Hawaii auch heute nicht besser als damals.

Was noch dazu kommt, auch dieser Test bestätigt mal wieder, dass Treiberoptimierungen eher im Detail die Performance verbessern. Im Schnitt (AVG FPS) sich das aber nicht sooo sonderlich verändert. Was wiederum aber auch bedeutet, wenn weder Hawaii noch Kepler über die Treiber stark zulegen in den FPS, Maxwell und Hawaii in neuen Titeln aber deutlich besser laufen als Kepler -> dass die Treiberoptimierung eigentlich nicht das Problem ist/sein sollte, sondern vielleicht doch eher die Hardware ;)

Naja wirklich am VRAM liegt es nicht. Da gibt es eigentlich kaum Auffälligkeiten zwischen 780Ti (3GB) und Titan (6GB).
Das Hawaii nun immer besser performt liegt schlicht an den Konsolenportierungen. Es mag ja sein das average sich das Bild nicht groß ändert, da eben sich bei alten Spielen auch bei Hawaii nicht sonderlich was gändert hat. Das ist aber auch vollkommen uninteressant. Damals war Hawaii auch High-End oder gehobene Performance-Klasse, also alles ohnehin gut spielbar. Nun am Ende der Laufzeit, legt man eben eine Schippe drauf. Natürlich konzentriert sich Nvidia auf Maxwell und nicht mehr auf Kepler. Ändert eben aber nichts, dass die 290x eben heute deutlich besser da steht.
Um die Rohleistung von GNC auf die Straße zu bekommen bedarf es eben entsprechender Optimierung, welche Nvidia seit G80 durchführt. Kepler war Treiberseitig bereits ausgereizt und ist weder schneller noch langsamer als damals. Die Rechnung geht ja nun einfach anscheindend sehr gut auf. Auch muss man sich die Spieleengines genau ansehen. Ein GTA5 welches im Kern zB für die alten Konsolen entwickelt wurde und nachträglich für die neuen aufgeppept wurde ist nunmal auch weit entfernt von wirklichem NextGen. Das zeigen eben auch sehr deutlich die zu letzt erschienen Titel, selbst unter DX11.
 
Zuletzt bearbeitet:
Gehäuse Dämmen. Mehr kann man wohl nicht machen. In Zukunft dann einfach vorher informieren welche Karten Fiepen :)
Meine GTX770 Fiept auch leicht.
 
Gibt es derzeit eigentlich noch passiv gekühlte Grafikkarten? Oder sind bei den kommenden Generationen vielleich wieder welche angedacht / möglich?
 
Kann es sein, dass AMD und Nvidia eine verschiedene Bildqualität liefern?

Habe hier gerade 'frisch' ne 6950 und meine, dass Valley Benchmark damit anders ausschaut.

DOF und Kontrast erscheinen mir anders als mit meiner GTX 680. Valley läuft auch dem selben Monitor mit den gleichen Settings.

Oder ist das alles nur Einbildung ? Irgendwie mag ich das AMD-Bild mehr ;)

Also wenn man das mal recherchiert, dann stößt man auf nicht wirklich Stichhaltiges. Zumindest auf die Schnelle. Hab zwar zb nen YouTube Video gesehen, wo 960, 970, 980 und R9 290 Material nebeneinander liefen und ich persönlich sagen würde, dass die 290 das sattere Bild lieferte, aber die Unterschiede in der Bildqualität in dem Video könnten auch durch das Zusammenschneiden der Videos entstanden sein. Ich hab auch einige Beiträge gefunden, in denen Menschen von ähnlichen Beobachtungen, wie du sie hast, berichten. Aber Beiträge, die sich dann ansatzweise ausführlicher mit diesem Thema beschäftigen kommen jedoch zu dem Schluss, dass sich die Bildqualität nicht unterscheidet.

Irgendwo hatte auch jemand geschrieben ihm aufgefallen sei, dass AMD mehr Schatten gerendert habe etc. Das hat mich dann an einen Post aus dem Luxx erinnert.

Na ja, leider nicht so richtig zufriedenstellend, da man keinen ordentlich auf diese Thematik abzielenden Test findet.
 
Hmmm.. Dann heisst es wohl selber testen :d mein lg ultrawide kann ja split screen, um monitoreigenschaften auszuschließen. Werde da mal zwei windowsvms drauf los lassen. Einmal mit meiner nvidia und einmal mit der ATI. Bin gespannt. Wird wohl aber vorm WE nix

Gesendet von meinem Nokia 6110 mit Tapatalk
 
Hmmm.. Dann heisst es wohl selber testen :d mein lg ultrawide kann ja split screen, um monitoreigenschaften auszuschließen. Werde da mal zwei windowsvms drauf los lassen. Einmal mit meiner nvidia und einmal mit der ATI. Bin gespannt. Wird wohl aber vorm WE nix

Gesendet von meinem Nokia 6110 mit Tapatalk

Das wär mal echt eine coole Sache! :)
 
Also der Test zwischen einer 6000er AMD und einer NV GPU seit G80 ist dahingehend eher Unsinn, da alles vor den GCN AMD Modellen eine teils sichtbar schlechtere AF Filterqualität hatte(n). Nachweislich... im HQ Mode ist GCN nun zumindest sichtbar auf gleichem Niveau, messbar fehlt wohl, wenn ich das recht in Erinnerung habe, immer noch minimal was.

Es wird im Endeffekt an Einstellungen liegen. Gerade so Sachen wie Farben, Kontrast und Helligkeit können auch Treiberthemen btw. Einstellungssache sein.
Was aber soll am DOF anders sein? Kannst du das genauer erklären?

Ansonsten, es gibt immer mal wieder Unterschiede, die teils aber gewollt sind. Aber das ist dann idR. eher technisch gewollt -> Effekte mit Herstellerbindung. Besser oder schlechter kann man dann zwar bewerten, aber wären an der Stelle eher unfair.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh