AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber es sollte jetzt jedem klar sein, dass dieses Undervolting bei Vega in Form von 0.1V nicht existiert. Das ist schlicht Overvolting, was dann Undervoltet wird!

Da die Standardeinstellung im manuellen Modus ein Overvolting mit viel zu hohen Spannungen in Form von 1150mV und 1200mV ist. Dass das der Fachpresse nicht aufgefallen ist, ist schon ein dicker Schnitzer und wirft auch einen großen Schatten auf die vermeintlichen Youtube Größen. Das ein besonders schlechter Chip existiert der über 1150mV/1200mV liegt, möchte ich nicht ausschließen. Bei diesem wäre es dann "echtes" Undervolting. Ich muss auch sagen, dass es an der Inkompetenz von AMD liegt, im Treiber nur Absolutwerte anstatt Deltas eingeben zu können.

PS: Der neue Treiber zeigt nun die Taktraten genauer an, was angenehmer ist.


Ich würde mir auch einen Beitrag/News auf Hardwareluxx wünschen, wo diese Sache dann klar gestellt wird.
 
Zuletzt bearbeitet:
Wer sagt dir, dass ein Programm, das Fehler macht diese auch richtig ausliest und nur vertauscht?

Edit: Neben bei sind Strommessungen via Software sowieso Schwachsinn.
 
Zuletzt bearbeitet:
Wer sagt dir, dass ein Programm, das Fehler macht diese auch richtig ausliest und nur vertauscht?

Edit: Neben bei sind Strommessungen via Software sowieso Schwachsinn.

#1 Das mit dem Vertauschen habe ich oben beschrieben. #2 Wieso sollte eine Strommessung mit einer Software Schwachsinn sein? Dazu habe ich eigentlich auch etwas geschrieben. Wandlerverluste die sich linear zum Chip/Speicher Verlust verhalten werden, tragen nichts zur Aussage bei. #3 Der Messwert der Software wird jede Sekunde oder alle 2sek gemacht. Das wäre dann die Messauflösung. Ich gehe mit guter Annahme davon aus, dass sich Abweichungen in 5 Minuten Messzeit gut rausmitteln. Ein Erhöhung der Abtastrate würde nur die Messzeit nicht aber die Qualität der Ergebnisse ändern. Ob das Messinstrument von hoher Qualität ist, ist auch bei einem gekauftem physischem System fragwürdig, aber auch fehleranfälliger und unabhängiger. Es geht aber um Differenzen nicht absolute Werte, nachdem auch ein schlechtes Messsystem verwendet werden kann, was nicht heißen soll, dass AMDs Sensoren von niedriger Qualität sein.

Macht die Software einen Offsetfehler wird dieser durch die Betrachtung von Unterschieden entfernt (für meine Schlussfolgerung brauche ich nur Deltas). Macht die Software große Streuungen werden diese durch die lange Messzeit, also durch die Anzahl der Messwerte, herausgemittelt.

Das mit der Qualität ist sowieso nicht so einfach. Du brauchst dazu einen Referenzwert. Der mit physikalischen Definitionen gut übereinstimmt. d.h. eine Eichung. Das ist hier natürlich nicht der Fall. Dass kann ich auch nicht machen, da es sich um interne Sensoren handelt. Es spielt aber auch keine Rolle für die Aussage die ich mache. Ich kann mir natürlich mehr Arbeit machen als nötig, was nicht in meinem Interesse wäre ;)

Ich denke dies sollte die Aussage beantworten.

Grüße Paul
 
Zuletzt bearbeitet:
#1 Das mit dem Vertauschen habe ich oben beschrieben.

Du gehst davon aus, dass das eine der GPU Verbrauch ist, da es der höhere Wert ist. Aber stimmt der Wert, die Hardware Monitor da berechnet überhaupt?
Verbrauch ist Strom mal Spannung, ABER eine deiner Spannungen hängt permanent bei 1,356V (GPU Core Voltage) und es ist nun mal sehr unwahrscheinlich, dass der Wert stimmt.
1,356V könnte ein Soll oder Grenzwert sein, aber definitiv keine gemessene Spannung!
Wenn man den Wert schon anzweifeln kann was ist dann mit dem Rest?

#2 Wieso sollte eine Strommessung mit einer Software Schwachsinn sein? Dazu habe ich eigentlich auch etwas geschrieben. Wandlerverluste die sich linear zum Chip/Speicher Verlust verhalten werden, tragen nichts zur Aussage bei.

Weil du weder etwas über die Genauigkeit, irgendwelche Faktoren die reinspielen, was da gemessen wird oder welche Werte für die Berechnung eigentlich genutzt werden weist.

#3 Der Messwert der Software wird jede Sekunde oder alle 2sek gemacht. Das wäre dann die Messauflösung. Ich gehe mit guter Annahme davon aus, dass sich Abweichungen in 5 Minuten Messzeit gut rausmitteln. Ein Erhöhung der Abtastrate würde nur die Messzeit nicht aber die Qualität der Ergebnisse ändern. Ob das Messinstrument von hoher Qualität ist, ist auch bei einer gekauftem System fragwürdig. Es geht aber um Differenzen nicht absolute Werte nachdem auch ein schlechtes Messsystem verwendet werden kann, was nicht heißen soll das AMDs Sensoren von niedriger Qualität sein.

Blöd nur, dass es kein Statisches System ist, der Takt ändert sich ständig und da sind 1-2sek. keine brauchbare Abtastrate.
Und bezugnehmend auf #1 und #2 sind die Grundlegenden Werte misst, hilft ein Mitteln über 5 Minuten auch nicht um das irgendwie besser zu machen.

Das mit der Qualität ist sowieso nicht so einfach. Du brauchst dazu einen Referenzwert. Der mit physikalischen Definitionen gut übereinstimmt. d.h. eine Eichung. Das ist hier natürlich nicht der Fall. Dass kann ich auch nicht machen, da es sich um interne Sensoren handelt. Es spielt aber auch keine Rolle für die Aussage die ich mache.

Eigentlich reichen zuverlässige Messungen, die müssen nicht geeicht sein für eine grobe Abschätzung und nicht dass was du hier irgendwelche Interpretationen von Werten, die eine Software ausliest.

Und jetzt noch der Sargnagel zu deiner Theorie, wie kommst du auf 170W bei einem PowerTarget von +50% wenn Computerbase oder andere Redaktionen hier auf 400W kommen?
Das schreit doch danach, dass deine Werte vorne und hinten nicht stimmen können, oder?

Ich kann mir natürlich mehr Arbeit machen als nötig, was nicht in meinem Interesse wäre

Was ist denn dein Interesse? Wenn ich meine Freizeit für so etwas opfern würde und noch dazu einer/allen Redaktion/en unterstellen würde sie Lügen und sind gekaut, würde ich zumindest versuchen verlässliche Werte zu liefern.
Verbrauchsmessungen bei GPUs sind nicht so kompliziert für ein einfaches überprüfen reicht eine ~50€ Strommesszange (DC tauglich ;) ) und eine Riserkarte für den PCIe Verbrauch.


In diesem Sinne, wer misst misst Mist...


PS: 40Min editieren ist echt eine scheiß Angewohnheit :wink:
 
Du gehst davon aus, dass das eine der GPU Verbrauch ist, da es der höhere Wert ist. Aber stimmt der Wert, die Hardware Monitor da berechnet überhaupt?
Verbrauch ist Strom mal Spannung, ABER eine deiner Spannungen hängt permanent bei 1,356V (GPU Core Voltage) und es ist nun mal sehr unwahrscheinlich, dass der Wert stimmt.
1,356V könnte ein Soll oder Grenzwert sein, aber definitiv keine gemessene Spannung!
Wenn man den Wert schon anzweifeln kann was ist dann mit dem Rest?



Weil du weder etwas über die Genauigkeit, irgendwelche Faktoren die reinspielen, was da gemessen wird oder welche Werte für die Berechnung eigentlich genutzt werden weist.



Blöd nur, dass es kein Statisches System ist, der Takt ändert sich ständig und da sind 1-2sek. keine brauchbare Abtastrate.
Und bezugnehmend auf #1 und #2 sind die Grundlegenden Werte misst, hilft ein Mitteln über 5 Minuten auch nicht um das irgendwie besser zu machen.



Eigentlich reichen zuverlässige Messungen, die müssen nicht geeicht sein für eine grobe Abschätzung und nicht dass was du hier irgendwelche Interpretationen von Werten, die eine Software ausliest.

Und jetzt noch der Sargnagel zu deiner Theorie, wie kommst du auf 170W bei einem PowerTarget von +50% wenn Computerbase oder andere Redaktionen hier auf 400W kommen?
Das schreit doch danach, dass deine Werte vorne und hinten nicht stimmen können, oder?



Was ist denn dein Interesse? Wenn ich meine Freizeit für so etwas opfern würde und noch dazu einer/allen Redaktion/en unterstellen würde sie Lügen und sind gekaut, würde ich zumindest versuchen verlässliche Werte zu liefern.
Verbrauchsmessungen bei GPUs sind nicht so kompliziert für ein einfaches überprüfen reicht eine ~50€ Strommesszange (DC tauglich ;) ) und eine Riserkarte für den PCIe Verbrauch.


In diesem Sinne, wer misst misst Mist...


PS: 40Min editieren ist echt eine scheiß Angewohnheit :wink:



Also ich will eigentlich nicht persönlich werden, aber du verstehst viele Dinge nicht. Für alles was ich gemacht habe, gibt es wesentliche Gründe. Ich messe auch keinen Gesamtverbrauch oder sowas. Ich müsste jetzt durch jeden Punkt durchgehen. Aber ich würde dir sagen: bitte überlege dir das nochmal genau. Es gibt für alles was du geschrieben hast, eine einfache Überlegung, die ich eigentlich schon mal erzählt oder geschrieben habe. Wenn sich dann die Anzahl der Fragen reduziert, können wir gerne nochmal darüber sprechen.

Ich muss ja hier nebenbei noch was anderes machen, da kann das mit dem editieren ein bisschen Zeit in Anspruch nehmen ;)
 
Zuletzt bearbeitet:
Ok, soll ich wieder eine Stunde warten, bis ich auf den bis dahin komplettierten Post antworten kann/darf?

Ich probiere mein bestes. Vielleicht gehe ich ja nochmal durch deine Punkte durch, wenn ich genug vom anderen Kram habe. Aber machs dir nochmal klar, dann können wir in wahrscheinlich 2 Stunden besser drüber reden ;)

- - - Updated - - -

Wie wirkt sich denn nun das Powertarget von 50% auf den Takt aus?
Das hast du in keinem deiner Videos angesprochen.

Gesendet von meinem FRD-L09 mit Tapatalk
Das habe ich nicht betrachtet, da dies zu einem Zeitpunkt war, als es der Treiber noch nicht "konnte". Grob gesagt geht er leicht hoch vielleicht so ~100MHz aber die Abwärme nimmt stark zu. Ich hatte ja so 180W ohne Wanlder, also (180+ Wandler+Kleinvieh+System)/Wirkungsgrad ist ein hoher Wert.
 
Zuletzt bearbeitet:
Ok, soll ich wieder eine Stunde warten, bis ich auf den bis dahin komplettierten Post antworten kann/darf?

Hat doch eh keinen sinn er versteht nicht das man mit ner sofware die nicht annähernd funktioniert mit vega sehr vorsichig sein sollte. ;)
Untervoltet auf z.b 1070 V zieht die karte mal locker 100 W weniger aus der dose das ist fakt.
Und mit guter kühlung dropt sie nichtmal dabei.
 
Zuletzt bearbeitet:
Ok, wovon spreche ich eigentlich? Sag mir bitte in eigenen Worten, wovon ich Spreche und welche Erkenntnis ich gemacht habe (ob du sie teilst oder nicht).

Ich möchte wissen, ob du weißt wovon ich spreche, dann nehme ich dich ernst.
 
Zuletzt bearbeitet:
Weist du denn deren Testverfahren ? Ich wär einfach nur vorsichtig mit solchen Behauptungen. Fehler passieren wir sind alle nur Menschen aber diese Leute testen
sowas ja nicht das erste mal.
 
An dieser Aussage sehe ich, dass auch du meine Aussage nicht verstanden hast, obwohl ich sie bestimmt 25 mal wiederholt habe. Ich hatte mal an der Uni eine Übungsgruppe von ~30 Menschen und ich kann nur zwei Personen nennen, die überhaupt wussten worum es ging. D.h. wenn ich von dieser Quote ausgehe und sie noch leicht nach unten korrigiere, müsste sich doch hier mindestens einer finden, der weiß wovon ich rede. Dadurch, dass wir uns die ganze Zeit beleidigen, kommt natürlich nicht viel bei rum, außer eine Form der Selbstbefriedigung, bedingt durch die täglich Unterdrückung der Freiheit des Menschen.

Erst werdet ihr in der Schule lang gemacht, dann auf der Arbeit, dann auf dem Amt, dann vor der Steuer und dann kommt noch der blöde Typ und stellt den Beitrag in Frage -ich brauch ein Bier, wo ist meine ZDF Propaganda...
 
Zuletzt bearbeitet:
Du stellst die ganze Zeit die Werte des Luxx undervolting Tests in Frage.
Kommst dann mit eigenen Werten, die mehr als Fragwürdig ermittelt wurden. Und jedem der diese zurecht Anzweifelt, unterstellst du, das er keine Ahnung hat.
Die einzige Erklärung von dir, warum diese Werte dennoch stimmen sollen, ist: "die Werte sind vertauscht"

Man versucht dich freundlich darauf hinzuweißen, worin deine Fehler liegen und warum deine Werte nicht stimmen können. Und du nimmst die Kritik einfach nicht ernst.
Du konntest bis jetzt noch nicht eine der Kritiken fachlich wiederlegen. Jedesmal kam nur ein großkotziges, du wärst der schlauste und alle anderen nur dümmer als du und verstehen es nicht.

Warum du bis jetzt immer noch darauf beharrst, das du keine Fehler machst, obwohl dir nachgewiesen wurde, dass deine 170W ei +50% PT in keinster Weise stimmen können. Verstehe ich einfach nicht. CB kommt auf 400W, gemessen vor den Wandlern der Grafikkarte. Davon gehen ein Paar Watt für den Lüfter ab, ein Paar Watt Verlust im Wandler, diese haben idr. eine 90-92% Effizienz und sonst verbraucht da keine Komponente irgendetwas nennenswertes.
Aus 171W hinter den Wandlern werden ca. 190W davor. Dazu noch 20W (wobei es wohl eher 10-15W sein werden) für den Lüfter und 5W für kleinkram, macht 215W, da fehlen also über 185W im vergleich zu CB. Da du selbst da noch nicht einsehen willst, dass etwas bei deinen Werten nicht stimmen kann, ist schon grenzwertig, aber dann auch noch die Frechheit zu besitzen und allen Redaktionen, die Messungen gemacht haben, vorzuwerfen, sie wären zu blöd dazu und deine Schätzung wäre das einzig richtige.... das geht einfach zu weit. :wall:

E: Wenn ich wo falsch liegen sollte, dann sag mir das bitte.

E2: Man braucht keine 50€ um eine Brauchbare Messung durchzuführen.
1.) Eine Strommesszange
2.) Eine Riser Karte, damit man den Strom über den Slot messen kann

Und damit kann man dann auch von einer Messung sprechen und kann den realen Verbrauch mit weniger als 2% Abweichung ermitteln.
 
Zuletzt bearbeitet:
@DasUnding

Bei Hardware gehts um Ergebnisse, und dass sich die Vega56 unverolten und gleichzeitig übertakten lässt haben wir schon vorher geschrieben bevor es die ersten Reviews gab, es gibt aber wie immer keine Garantie dafür
 
Zuletzt bearbeitet:
Für einen kurzen Moment dachte ich ja, man könnte dich ernst nehmen.
Hast dir ja auch wirklich Mühe gemacht mit deinen Videos und so.

Aber ne, doch nicht.


Gesendet von meinem FRD-L09 mit Tapatalk
 
Interessant. Laut diesem Test ist die 56 undervoltet so schnell wie die 64. Mich würde interessieren wie es sich verhält mit V56 <=> GTX1070. Beide das Maximum rausgeholt. Also weder TT noch PT als Limit.
 
Interessant. Laut diesem Test ist die 56 undervoltet so schnell wie die 64. Mich würde interessieren wie es sich verhält mit V56 <=> GTX1070. Beide das Maximum rausgeholt. Also weder TT noch PT als Limit.

Du muss hier beachten, dass der HBM auf 1GHz beim UV getaktet wurde, da bekommt die kleine Vega den Großteil ihrer Leistung her.
 
Zuletzt bearbeitet:
Also iwie ist meine Sache mit dem Vergleich GTX1070 <=> Vega56 beide mal ohne dass sie ins PT oder TT laufen völlig untergegangen. Ich weiß jetzt nur dass die 56 offensichtlich massiv von Speicher OC profitiert.
 
Ihr lasst es doch nicht zu. Was soll ich denn machen? Der Eine glaubt nur an seine Messwerk. Der Andere beleidigt nur. Der Andere macht den Mitläufer. Ich habe nach bestem Gewissen versucht eine Erkenntnis zu teilen. Das was hier passiert ist ein gesellschaftliches Problem. Ich werde hier jetzt nichts mehr schreiben. Ich habe versucht den Leuten die Fehlerhaftigkeit des Artikels zu zeigen, in dem ein wirklich dicker Schnitzer drin ist. Das ist ein wirklich dicker systematischer Fehler. Es spielt auch keine Rolle ob meine Werte verlässlich sind, wenn ich eine Aussage über eine Tendenz mache.

Erklär doch einfach mal, wie deine 170W bei +50% PT deiner Meinung nach stimmen können und wir können weiter reden. Wenn du das nicht kannst, dann stimmt deine ganze Methode der Wertermittlung nicht und deine Erkenntnis ist für die Tonne. Im Raum stehen hier knapp 200W Differenz zu richtigen Messungen. Und auf diesem wackligen Fundament baut deine ganze Theorie auf.

Deine Werte müssen stimmen, sonst kannst du doch nichts beweisen.


Und falls ich dein letztes Video vielleicht nach mehrfachen schauen richtig verstanden habe, sind dein einziges Problem die 1,2V und 1,15V in der Tabelle im Test. :confused:
Falls ja, warum fragst du dann nicht freundlich, woher die Spannungen in den Tabelle her kommen? Aber nein, du erzählst etwas vom Zinssystem, dem zweiten Weltkrieg, Betrügereien und gekauften Tests etc. und beleidigst jeden, der deine wirren Werte kritisiert. Über die Tabelle aus deinem Letzten Video aber nicht ein einziges mal.


@Marc53844: Genialler Post :hail:
 
Du sagst also das die HWLuxx Karte massiv mehr Spannung hätte, weil es deine nicht hat, und das daraufhin alle Ergebnisse von HWLuxx quasi für die Brause sind weil sie ja von einem Falschen Wert ausgehen.
Du beschwerst dich des weiteren das des ja als Referenzwert angegeben ist.

Aber ein Referenzwert ist doch jener Wert den die jeweilige Karte hat, wenn ich sie verbaue und nichts verändere... sie also komplett Stock läuft.
Da es eine Referenz Karte von AMD ist die HWLuxx vorliegt, ist das doch aber der Referenzwert von dieser Referenz Karte.

Oder behauptet du indirekt das HWLuxx die Karte manuell overvoltet hätte, um dann solche Ergebnisse zu veröffentlichen?

----------

Hab bisher nur die ersten 1:30 gesehen ...

Edit:

Okay gesehen.

Finde es ehrlich gesagt krass wie du behauptest das die Karte von HWLuxx overvoltet wäre...
Ausgehend von der güte des jeweiligen Chips (Asic z.B.) wäre es zum einen durchaus möglich das eine andere Spannung anliegt und dahingegen eine gewisse Streuung herrscht.

Daraus zu schließen das die HWLuxx Karte Overvoltet wäre - finde ich harten Tobak ganz ab davon das sich an der Grundsätzlichen Aussage zum Thema Vega UV ja nichts ändert...

Sowas könnte man behaupten wenn wirklich jede Karte eine niedrigere Voltage an den Tag legen würde als die HWLuxx Karte.
Ein schöner Artikel zum Thema Effizienzsteigerung:

Untervolten und Effizienzbenchmarks
 
Zuletzt bearbeitet von einem Moderator:
M. E. geht es Paul um eine komplette Verzerrung der Werte, bzw. deren (falsche) Darstellung in dem Artikel.

Edit:

Lieber Paul, ich bin nun wirklich kein Experte. Aber jede Karte (GPU, bzw. PCB) ist einzigartig. Um eine adäquate Gegendarstellung zu realisieren bräuchtest Du aus meiner Sicht exakt die gleiche Karte und das selbe Equipment. Nur damit liese sich der ganze Rock'n'roll überprüfen. In diesem Sinne. / No offense.
 
Zuletzt bearbeitet:
Das ist reiner Kern und Speicher Verbrauch da fehlen Wandler und Kleinvieh dann kommt noch das System dazu und der Wirkungsgrad -> dann kommst du irgendwo bei 400W raus.... spielt aber wieder keine Rolle für eine Deltamessung... bzw. für die Aussage... habe ich auch schon erzählt...

Welches restliche System? Computerbase hat den Verbrauch der Grafikkarte alleine gemessen (klick). Die kommen da auf 300W @stock und 400W @stock mit PT +50%. Du liest allerdings nur 130 und 170W aus. Mit Wandlerverlusten, Lüfter und Kleinvieh kommt man dann vielleicht bei 160 und 200W raus.
Deine Werte sind so weit daneben, dass es natürlich eine Rolle spielt. Selbst für eine Delta Messung brauchst du vernünftige Werte. Nur weil sich deine Werte ändern, wenn du die Spannung änderst, macht es die ganze Deltamessung nicht richtiger.

Frage 1 und 2 hast du ignoriert?
 
Welches restliche System? Computerbase hat den Verbrauch der Grafikkarte alleine gemessen (klick). Die kommen da auf 300W @stock und 400W @stock mit PT +50%. Du liest allerdings nur 130 und 170W aus. Mit Wandlerverlusten, Lüfter und Kleinvieh kommt man dann vielleicht bei 160 und 200W raus.
Deine Werte sind so weit daneben, dass es natürlich eine Rolle spielt. Selbst für eine Delta Messung brauchst du vernünftige Werte. Nur weil sich deine Werte ändern, wenn du die Spannung änderst, macht es die ganze Deltamessung nicht richtiger.

Frage 1 und 2 hast du ignoriert?
Interessant bei CB ist zwar der Verbrauch doppelt so hoch wie eine 1080 TI sie wird aber nicht wärmer.
Das lässt sich physikalisch auch nur ganz schlecht erklären...
Sind die Messgeräte geeicht und für Oberwellen gefiltert? ;)
 
Dafür wird das Ding ganz schön laut, was für einen deutlich höheren Luftdurchsatz spricht. Je mehr Luft, umso mehr Energie kann abgeführt werden und umso kühler bleibt die Karte. So schlecht ist das eigentlich nicht zu erklären, oder? (Eventuell gibt es da passendere Begriffe für, aber bin ja kein Physiker).
 
Dafür wird das Ding ganz schön laut, was für einen deutlich höheren Luftdurchsatz spricht. Je mehr Luft, umso mehr Energie kann abgeführt werden und umso kühler bleibt die Karte. So schlecht ist das eigentlich nicht zu erklären, oder? (Eventuell gibt es da passendere Begriffe für, aber bin ja kein Physiker).
Nein, die Lüfterdrehzahl ist auch identisch mit 2.400 RPM.
Lauter ist sie mit 44 zu 48 dbA das ist jetzt nicht wirklich ein hörbarer Unterschied zumindest aus dem System heraus. ;)
 
Interessant bei CB ist zwar der Verbrauch doppelt so hoch wie eine 1080 TI sie wird aber nicht wärmer.
Das lässt sich physikalisch auch nur ganz schlecht erklären...
Sind die Messgeräte geeicht und für Oberwellen gefiltert? ;)
Solange du nicht nachweist, dass das kühlsystem bei beiden karten die selbe kühlleistung erbingt ist deine aussage absolut unseriös weil du mal eben wichtige kernelemente bei der gegenüberstellung weglässt.

4 db unterschied sind nicht hörbar? Da ist der nächste profi am werk...

Ps: cb misst die werte im geschlossenen gehäuse Gehäuse. Die 4 db mehr sollten also außerhalb des geschlossenen gehäuses sein
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh