Unstimmigkeiten beim Benchmarktest 3DMark!!! 3-Way SLI-Verbund 580GTX!!!

Die Frage ist Recht einfach zu beantworten:

Möchtest du bei Release die meist beste Performance und bist bereit dafür am besten jede Generation zu Wechseln: Nvidia

Möchtest du deine Hardware möglichst lange behalten und findest daher modernste Features und eine meist bessere VRAM Ausstattung wichtig: AMD

Der Stromverbrauch spielt bis auf die notwendige Kühlung keine Rolle. Die Stromkosten sind rational unerheblich gegenüber Staubsauger, Backofen und co. Zudem ist Nvidia in der Regel etwas teurer.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

NVIDIA und AMD miteinander kombinieren!!!

Wie geil bitte ist das den? :asthanos:

- - - Updated - - -

Möchtest du bei Release die meist beste Performance und bist bereit dafür am besten jede Generation zu Wechseln: Nvidia

Möchtest du deine Hardware möglichst lange behalten und findest daher modernste Features und eine meist bessere VRAM Ausstattung wichtig: AMD

Das ist ja interessant! Verstehe ich dich da richtig?:hmm:

NVIDIA entwickelt eher Grafikkarten mit extremer Leistung auf Kosten von Hardwarequalität und Langlebigkeit bzw. langer Nutzbarkeit.

AMD hingegen setzt dann auf Hardwarequalität und Langlebigkeit bzw. langer Nutzbarkeit aber dafür mit etwas weniger Leistung.

Es sollte dann auch mindestens eine der 900er oder 1000er Serie seien, da ich schon ganz gerne den Sprung zum DirectX12 machen möchte.
Finde den Fehler... :lol:

Nvidia hat ersteinmal keinen Bock auf LowLevel, da sie bei DX11 mehr Geld verdienen und AMD automatisch ausstechen. Daher auch die halbherzige Unterstützung.

Bei dem Argument bin ich nicht ganz mitgekommen! Meinst Du das, weil es im Moment noch weniger DX12 Spiele gibt, als bei DX11?:confused:

Sowas hab' ich ja schon ewig nicht mehr gesehen.

Haste mal Bilder von der kompletten Chose?

Bitteschön, wie gewünscht ... !!!:xmas:

Chose 01.jpg Chose 02.jpg Chose 03.jpg Chose 04.jpg
 
Zuletzt bearbeitet:
Da krieg ich sofort nostalgische Gefühle

Ich hab tatsächlich noch 2 alte Bilder vom Umbau gefunden!:coolblue:
Die Grunderneuerung 2012 hat sich wirklich sehr gelohnt.
Die Temperatur im Gesamtkreislauf ist selbst unter Volllast, wenn ich den Prozessor und die 3 Grafikkarten extrem übertakte, sehr gering.

Die alten schwarzen Standardlüfter wurden ersetzt.
Lüfter NEU.jpg

Der originale silberne Radiator ist einem größeren schwarzen Radiator gewichen, der ein gutes Stück länger, breiter und doppelt so hoch(tief) ist.
Endlich auseinander und sauber.jpg

Doch wenn ich etwas übermütig übertakte, also die 3 Grafikkarten je um 433MHz und den Prozessor von 4,3GHz auf 4,8GHz erhöhe, dann kann ich mit der vom Kühlturm abgeführten Wärme mein kleines Büro heizen.:haha:
 
Zuletzt bearbeitet:
Das ist ja interessant! Verstehe ich dich da richtig?:hmm:

NVIDIA entwickelt eher Grafikkarten mit extremer Leistung auf Kosten von Hardwarequalität und Langlebigkeit bzw. langer Nutzbarkeit.

AMD hingegen setzt dann auf Hardwarequalität und Langlebigkeit bzw. langer Nutzbarkeit aber dafür mit etwas weniger Leistung.

Nein nicht ganz die Hardwarequaltität passt bei beiden auch die Langlebigkeit, bei AMD hat sich aber in der Vergangenheit gezeigt das die Grafikkarten !leicht! besser werden mit der Zeit während bei NVIDIA die Leistung meist gleich bleibt obwohl immer mal wieder behaupte wird das die neusten Treiber die Leistung älterer Grafikkarten drosseln würden was aber so nicht stimmt. NVIDIA liebt es aber seine Käufer einzuschränken um sie mehr zu motivieren die nächst teurere zu kaufen siehe neuer Treiber der Mod Bios erkennt und je nach Umfang der Modifikation den Dienst verweigert.
 
Zuletzt bearbeitet:
. . . obwohl immer mal wieder behauptet wird, dass die neusten Treiber die Leistung älterer Grafikkarten drosseln würden, was aber so nicht stimmt.

Das Gerücht kannte ich noch gar nicht, aber trotzdem gebe ich Dir recht, denn bei meinen 580igern hat sich für mich nicht die Leistung durch aktuellere Treiber verringert.:cool:
Es macht sich bei mir also nicht bemerkbar, dass die neusten Treiber besser oder schlechter mit meinen Grafikkarten harmonieren als die ersten Treiber von 2012.
Die Ergebnisse bzw. Punkte der letzten Jahre im 3DMark2006 sind in etwa gleich geblieben, also ist für mich dementsprechend auch die Leistung meiner 3 Grafikkarten gleich geblieben.
Erst jetzt, wo ich aus einem Glücksfall heraus extrem günstig an ein aktuelles neues Mainboard, neuen Prozessor und neue Arbeitsspeicher gekommen bin, sind die zu erreichende Punkte beim 3DMark2006 deutlich gestiegen.


. . . , bei AMD hat sich aber in der Vergangenheit gezeigt, dass die Grafikkarten !leicht! besser werden, mit der Zeit . . .

Wenn man Dich beim Wort nimmt, dann macht das AMD ja wieder sehr viel interessanter, weil ja auch der etwas günstigere Anschaffungspreis verlockend ist.:drool:
Wobei mir das Internet es nicht gerade einfach macht, da bei vielen Suchergebnissen das Zugpferd von NVIDIA gegenüber dem von AMD, in der Mehrheit der Kategorien ein Stück vorne liegt.
Ich bin dann etwas hin und her gerissen, weil ich nicht genau einschätzen kann, ob diese Vergleiche wirklich vollkommen unabhängig sind.:(

UserBenchmark.com
versus.com
tweaktown.com (8K benched)

Bei gamestar.de zum Beispiel wird dann wieder dieses "Rapid Packed Math" von AMD und die doppelt so hohe DP-Rechenleistung besonders hervorgehoben.
Da bin ich aber noch dabei mich einzulesen.

gamestar.de (Radeon RX Vega 64)
gamestar.de (Rapid Packed Math)

Deshalb fällt es mir persönlich nicht immer leicht festzustellen, wer im Moment gerade die Nase vorn hat, NVIDIA oder AMD.
Das ist von Website zu Website unterschiedlich, mal werden von einer Grafikkarte besondere Merkmale hervorgehoben und ein paar Websites später genau diese Merkmale wieder herunter gemacht.:stupid:

Sehr verwirrend alles!!!:shot:


NVIDIA und AMD miteinander kombinieren!!!

Wie geil bitte ist das den? :asthanos:
Wait, wait, wait, until it is ready.
Ähh no one left...:asthanos:

DX12 kann beide Supporten.

Vielleicht, macht man ja aus den Schwächen und Stärken der beiden Hersteller ja eine Tugend und kombiniert die beiden Hersteller miteinander, wie es Phantomias88 gepostet hat.:coolblue:

Zuerst muss ich ja eh Abnehmer für meine 3 EVGA GeForce GTX 580 Classified Hydro Copper Ultra 3GB finden. Bis dahin bin ich noch zufrieden damit. Die 3 laufen ja jetzt perfekt miteinander.:asthanos:
 
Vielleicht, macht man ja aus den Schwächen und Stärken der beiden Hersteller ja eine Tugend und kombiniert die beiden Hersteller miteinander, wie es Phantomias88 gepostet hat.:coolblue:

Zuerst muss ich ja eh Abnehmer für meine 3 EVGA GeForce GTX 580 Classified Hydro Copper Ultra 3GB finden. Bis dahin bin ich noch zufrieden damit. Die 3 laufen ja jetzt perfekt miteinander.:asthanos:
Ich laber viel, so lang der Tag hell ist...
https://abload.de/img/mingat_benchzbpip.jpg
CPU only...
 
Ich laber viel, so lang der Tag hell ist...
https://abload.de/img/mingat_benchzbpip.jpg
CPU only...

Bei dem wenig Licht in den kurzen Wintertagen, kann das nicht so viel seien.;)

MinerGate kenn ich, habe ich auch schon mal drüber laufen lassen, aber das komplette System an sich und nicht nur den Prozessor alleine.

Ich wusste gar nicht, dass man den Benchmark auf die CPU alleine begrenzen kann. Ich habe dazu gar keine Einstellungsmöglichkeit gefunden.:confused:
 
Wenn man Dich beim Wort nimmt, dann macht das AMD ja wieder sehr viel interessanter, weil ja auch der etwas günstigere Anschaffungspreis verlockend ist.:drool:
Wobei mir das Internet es nicht gerade einfach macht, da bei vielen Suchergebnissen das Zugpferd von NVIDIA gegenüber dem von AMD, in der Mehrheit der Kategorien ein Stück vorne liegt.
Ich bin dann etwas hin und her gerissen, weil ich nicht genau einschätzen kann, ob diese Vergleiche wirklich vollkommen unabhängig sind.:(

Nun ich sage es mal so beide Seiten haben ihre Vorzüge aber auch Nachteile, das AMD um Welten günstiger ist als vergleichbare Konkurrenz Produkte ist seit Vega futsch und NVIDIA verscuht durch seine Marktmacht immer mal wieder dem Anwender Grenzen aufzudrücken. Für maximale Performance in allen Bereichen würde ich persönlich zu NVIDIA greifen, suche ich allerdings einen aufregenden Spielgefährten mit dem ich tolle Sachen machen kann würde ich Vega nehmen (bzw liegt all meine Hoffnung in Navi :d))

Die Vergleiche die öfters mal angesprochen werden vor allem im roten Lager hinken ein wenig, zwar steht bei AMD Rohe Power zur Verfügung(was man Aufgrund der aktuellen Mining Situation sieht) doch muss die auch auf die Straße gebracht werden und da kommt es darauf an wofür du die Karte brauchst.
 
Zuletzt bearbeitet:
Hi

Ich weis zwar nicht was Du meinst renegade, Supreme Commander ist halt kein DX12 Game und DU wolltest den VRam deiner GPUs zusammenlegen! Das geht halt nur unter DX12 und in AoS.

Auserdem bist DU hier nicht der erste mit 4 x 580 GTX Ultra und dem selben SLi Quark, verbrennst Kohle und Strom. Dafür hengt jede 980 deine Bench ab.Um Unstimmigkeiten deiner Benches ging es doch?

Mach weiter so!

4x EVGA 580 Classified Ultra wie viele NTs werden benötigt?
 
Ich weis zwar nicht was Du meinst renegade, Supreme Commander ist halt kein DX12 Game und DU wolltest den VRam deiner GPUs zusammenlegen! Das geht halt nur unter DX12 und in AoS.

Das ist richtig, "Supreme Commander 2" ist kein DirectX12 Spiel und unterstützt auch keine Aneinanderreihung des VRAMs, was ich auch nicht damit meinte.:hmm:

Ich meinte damit, dass "Ashes of the Singularity", obwohl es gegenüber "Supreme Commander 2" diese zwei Attribute (DirectX12 und Aneinanderreihung des VRAMs) hat, ist es
grafisch und von der Spieledynamik leider etwas schlechter.

Die Betonung liegt auf "etwas".

Das finde ich halt Schade, dass es bei "Ashes of the Singularity" so ist, obwohl es ja bei mit diesen zwei Attributen viel besser laufen sollte.:(

Wie ich es zuvor eigentlich beschrieben habe.
Ja, "Ashes of the Singularity" ist schon ein gutes Spiel, aber kann seinem Vorbild "Supremes Commander" in vielen Dingen nicht das Wasser reichen.

Grafisch leider unausgereift, für ein so neues Spiel mit so hohen Anforderungen.
Da sieht "Supremes Commander 2" in den höchsten Einstellungen optisch viel besser aus, obwohl es viel älter ist.

Ashes of the Singularity - Das nächste Supreme Commander?

Meine Antwort darauf ist ein ganz klares Nein!


.

Und auch ohne DirectX12 können gewisse Spiele über den maximalen VRAM einer einzelnen Grafikkarte hinweg gehen und den anderer Grafikkarten zusätzlich nutzen, wie ich es hier zitiert habe.:cool:
Ja, da gebe ich Dir recht, das ist von Anwendung zu Anwendung unterschiedlich. Besonders bei Spielen!!!:hust:

Als schönes Beispiel finde ich, dient die remasterte Version von Strategiespielklassiker Homeworld(1999) und Homeworld 2(2003), die "Homeworld Remastered Collection (2016)".
Wenn man das Einheitenlimit aufhebt bzw. umgeht, das Spiel in der anspruchsvollsten Grafikeinstellung spielt und im Gefecht sich knapp 2000 diverse Raumschiffe gegenüberstehen, dann wird nicht nur mein normaler Arbeitsspeicher gut belastet, sondern sind plötzlich auch fast 4,7GB VRAM meiner Grafikkarten in Benutzung und es läuft immer noch flüssig.

1 2 3 4 5 6 7

Dann gibt es aber wieder Spiele, da ist dann bei knapp 2,6GB Feierabend.
Das wirkt dann auf mich so, als ob meine NVIDIA-Systemsteuerung ab und zu zwischen AFR und SFR wechselt. :stupid:


.

Auserdem bist DU hier nicht der erste mit 4 x 580 GTX Ultra und dem selben SLi Quark, verbrennst Kohle und Strom. Dafür hengt jede 980 deine Bench ab.
Der Erste bin ich auch garantiert nicht, hab ich auch nie geschrieben oder angedeutet. Ich hab Anfang 2012, zu einer Zeit, wo SLI noch ein Thema war, drei gute Grafikkarten zu einem sehr guten Preis bekommen und diese zu einem SLI-Verbund zusammengeschlossen.
Mein Stromverbrauch ist höher als der eines Single-Grafikarten Systems, aber nicht so viel höher, als Du jetzt meinst.:rolleyes:
Ich habe mithilfe einer Leihgabe vom Nachbarn mal etwas ausprobiert. :cool:

Meinen Watt Verbrauch gemessen, einmal im normal Betrieb und einmal unter Volllast (3DMark Benchmarktest: Fire Strike Ultra Custom mit den höchstmöglichen Einstellungen)

Anhang anzeigen 417955 Anhang anzeigen 417956

An der Steckdose hängen alle Verbraucher dran, Rechner, Kühlturm und Monitor.

Also bei normalen Bedingungen und bei hoher Belastung, noch einigermaßen vertretbar.


.

Um Unstimmigkeiten deiner Benches ging es doch?
Ja, meine Unstimmigkeiten wurden ja auch gelöst. Schon seit dem dritten Beitrag. Danke noch mal dafür!:wink:
Apropo "mittlerweile" ... ... mittlerweile bin ich fertig mit dem Herumprobieren.:bigok:

Alle Benchmarktests vom 3DMark ein paar Male durchgegangen und die flüssigsten und besten Ergebnisse erziele ich mit der vierten Variante.
Den SLI-Modus aktiviert, die Grafikkarten im 3-Way und die PhysX überlasse ich dem Prozessor. So wie es aussieht, kommt der CPU ganz gut zurecht damit.
Damit hat sich mein kleine Unstimmigkeit mehr oder weniger durch durchdachtes einstellen und manuellen zuweisen der Aufgaben auf GPUs und CPU gelöst.

Ich danke Dir trotzdem für Deinen Beitrag.:wink:

War ja eigentlich kein Problem, was ich hier gepostet habe.
Ich konnte mir halt nicht erklären, warum ausgerechnet bei der Einstellung der PhysX auf automatisch, die Grafikkarten bzw. der SLI-Verbund so unruhig läuft.
Man könnte es ja schon fast ein Luxusproblem nennen.;)

Bei allen anderen Beiträgen danach, die von anderen Nutzern hier geschrieben wurden, ging es ja dann mehr oder weniger um andere Sachen, wie Stromverbrauch, Grafikkarten im Allgemeinen, Verkaufschancen bezüglich meiner aktuellen Grafikkarten, AMD oder NVIDIA, Unterschiede zwischen AlternativeFrameRendering und SplitFrameRendering, etc ...:popcorn:


Erst aufgrund der ganzen Schreiberei hier und den Tipp meine drei 580iger zu verkaufen (330€ Insgesamt bekommen) und dann ganz vielen Informationen der Anderen hier, habe ich jetzt, dank des Cyber Mondays, mir eine neue Grafikkarte für knapp 500€ geholt, die meinen aktuellen Verbund wirklich mehrfach schlägt.:angel::asthanos:

Also noch einmal ein dickes Dankeschön an alle!!!:banana:
 
Zuletzt bearbeitet:
Bei dem wenig Licht in den kurzen Wintertagen, kann das nicht so viel seien.;)

MinerGate kenn ich, habe ich auch schon mal drüber laufen lassen, aber das komplette System an sich und nicht nur den Prozessor alleine.

Ich wusste gar nicht, dass man den Benchmark auf die CPU alleine begrenzen kann. Ich habe dazu gar keine Einstellungsmöglichkeit gefunden.:confused:
:fresse:
Wie meinst du das Komplette System Mine lassen oder den Benchmark laufen lassen?
Es ist eher so, dass sich die GPUs nicht auswählen lassen beim Benchmark und beim Minen manuell angeworfen werden müssen:
https://abload.de/img/minergate_xmrqvul2.jpg

Welche Grafikkarte ist es denn nun geworden?
Ich kann mich bisher immer noch nicht entscheiden, es macht den Eindruck je mehr FPS desto weniger Roh-Leistung erhält man...
 
Zuletzt bearbeitet:
Welche Grafikkarte ist es denn nun geworden?
Ich kann mich bisher immer noch nicht entscheiden, es macht den Eindruck je mehr FPS desto weniger Roh-Leistung erhält man...

Das kann man fast so unterstreichen liegt wohl aber mehr an Software als an Hardware, ich spiele derzeit mit dem Gedanken wieder auf SLI zu gehen mit meiner Kepler Titan nur stellt sich mir die Frage ob das wirklich sinnvoll ist da ich wenn ich meine jetzige Titan verkaufe und die 200 für eine weitere drauf lege ich bei einer 1070 wenn nicht sogar ti ankomme und die dürfte in etwa die gleiche Leistung haben und ein drittel des Stromverbrauchs, bei moderneren Technologien auf der anderen Seite könnte ich sagen ich hab ein Titan SLI :hail:
 
Welche Grafikkarte ist es denn nun geworden?
Die Gigabyte AORUS GeForce 1080 GTX Ti Waterforce Xtreme:asthanos:



äh...ja... Du hast nur eben nur so lange gewartet, bis die Karten so gut wie nichts mehr wert sind. :wut:
Das stimmt, wenn man einen möglichst hohen Wiederverkaufswert haben möchte, dann sollte man spätestens nach einem Jahr seine Hardware abstoßen! Ähnlich, wie es einige mit ihren Smartphones machen. :)
Ich habe im Laufe der Jahre einige Computerspielfreaks kennenlernen dürfen, die sich einmal eine brandaktuelle Grafikkarte für 800 bis 1000€ gekauft haben und diese dann jährlich durch eine aktuellere Grafikkarte ersetzen.

Die bringen dann die alte Grafikkarte nach einem Jahr minus knapp 15 bis 30% Werteverlust wieder unter die Leute und investieren dann noch mal zusätzliche 100 bis 250€ um sich dann das nächste brandneue aktuelle Modell zu holen.
Das machen die aber auch mit den anderen Komponenten, wie zum Beispiel mit den Arbeitsspeichern und Prozessoren.
Die nehmen so jedes Jahr knapp 400 bis 600€ in die Hand, aber haben dafür auch immer das beste, leistungsstärkste und sexyste System of the Year!:teufel:

Dieser Typus bin ich aber nicht! :coffee2:
Ich tausche meine Hardware erst, wenn ich etwas spielen will und das System mir selbst bei nur mittleren Einstellungen droht wegzurauchen.
Das war bei den drei 580igern aber bis zuletzt nicht der Fall.

Selbst "Ashes of the Singularity" mit seinem DirectX12 und seinen extrem übertiebenden Anforderungen lief auf ULTRA flüssig auf meinen System.
Ich hätte mein System dieses Jahr gar nicht verkauft, wenn ich nicht zufällig durch einen Räumungsverkauf ein mega Schnäppchen zu unverschämt günstigen Preisen gemacht hätte.
Das ist auch das allererste mal, das ich Hardware gekauft habe, die aktuell auf dem Markt kaum 4 bis 5 Monate alt ist.:coolblue:

Wenn ich jetzt die letzten 20 Jahre Revue passieren lasse, dann hab ich im Schnitt alle 5 bis 7 Jahre die alte Hardware, je nach Art der Hardware, mit 40 bis 90% Werteverlust verkauft und das Geld in etwas Neues investiert.

Ende 2006 hab ich ungefähr insgesamt 1350€ in ein komplett neues System mit dem Stand Anfang 2006 investiert.
Die Komponenten einzeln Mitte 2012 für ungefähr insgesamt 490€ wieder verkauft.
Im Konvolut verkaufe ich grundsätzlich nicht, da bekommt man am wenigsten für seine Hardware.

Mitte 2012 hab ich ungefähr insgesamt 1220€ in ein komplett neues System mit dem Stand Ende 2011 investiert.
Ich musste also noch zusätzlich 730€ drauflegen (490€ + 730€ = 1220€).

Diese Komponenten wiederum Mitte 2017 einzeln für ungefähr insgesamt 760€ verkauft.
330€ alleine nur durch den Verkauf der drei EVGA GeForce GTX 580 Classified Hydro Copper Ultra 3GB!
Insgesamt hab ich vor Kurzem für alle Komponenten zusammen ungefähr 1530€ ausgegeben. Allein die neue Grafikkarte hat mich jetzt knapp 500€ gekostet.
Diesmal musste ich noch zusätzlich 770€ drauflegen (760€ + 770€ = 1530€).

Dafür aber auch Hardware, die diesmal ziemlich aktuell ist.

Wenn man die zusätzlichen Investitionen mit den beiden dazwischen liegenden Zeitspannen vergleicht, dann habe ich zwischen 2006 und 2012 jährlich
121,67€ und zwischen 2012 und 2017 jährlich 154€ für Computerhardware ausgegeben.:cool:

Also gibt es Menschen, die jährlich investieren, alle 5 bis 7 Jahre oder irgendwo dazwischen liegen.:d

Doch Gott sei Dank ist es ja jedem Selbst überlassen, wie er im Bereich Computerhardware über die Jahre hinweg wirtschaftet.:hail:

Und kommt mir jetzt nicht wieder mit dem Stromverbrauch!
NEIN, er ist nicht astronomisch mega krass viel höher als viele glauben! siehe hier
 
Zuletzt bearbeitet:
Mitte 2012 hätte ich keine GTX580 mehr gekauft. ;)
 
Auser DX12 ist eine GTX 580 3GB immer noch gut unterwegs. Mit SLi geht auch noch mehr. Kaufen ist eine Frage des Preises.
Unsere Hardware OC Experten im Forum benchen gern neue Rekorde ala neues Board/CPU mit alten GK. Bringt Points. mfg
 
Zuletzt bearbeitet:
Mitte 2012 hätte ich keine GTX580 mehr gekauft. ;)

Der Nachfolger, die 680 GTX, wurde der Öffentlichkeit erst am 22.03.2012 vorgestellt.

Kaufen ist eine Frage des Preises.

Da gib ich dir vollkommen recht!

Für mich war damals die am Anfang 2012 auf dem Markt erscheinende 580 GTX Classified Ultra Hydro Cooper 3GB mit ihren taktbaren 2500GFLOPS die bessere Wahl.

Ich habe damals Glück gehabt und im Rahmen eines Notverkaufes nur 189€ pro Grafikkarte bezahlt!

Deshalb machte das für mich damals mehr Sinn.

Eine einzige 680 GTX, mit ihren damals 3090GFLOPS, kostete damals knapp 600€ und war mir damit etwas zu teuer.

Naja, jetzt ist es ja eh egal!
Die drei 580iger sind von mir nun ausgemustert worden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh