ASUS ROG SWIFT PG32UQ: 32-Zoll-Display mit 4K, 144 Hz und HDMI 2.1

VQ ? Ich meinte nun den XG438Q von ende 2019 ( welcher heute noch so teuer is wie damals ) ... mit Freesync welcher der erste Monitor mit DSC werden sollte was sie dann aber
auf den PG43UQ ( Gsync ) verschoben haben denn ich mir dann ja auch holte und der 2 Wochen später genau wie etliche Jahre davor der Dell
wieder zurück zum Händler ging.

Farblich wahren die Seiten eher Betroffen ( Grauschleier ) .. glaub darüber hatten wir uns ja letztens schon unterhalten.
Damit hätte ich persönlich aber noch leben können.

Mit nem Auge zu hätte ich mich auch noch mit der Schriftdarstellung auf Grund des BGR Panels abgefunden ... wo das Blood grade schreibt.
Hatte ich schon wieder vergessen.

Was mir den PG43UQ Kaputt gemacht hat war das Ghosting sowie eben das Black und Red Smearing.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann ich verstehen. Quantum Dot bei VA hat eine noch höhere Farbabweichung bewirkt. Sieht zumindestens im Zentrum poppiger aus. Außerhalb ist es ausgewaschen :d.

Die Schriftdarstellung ist das absolute Highlight von SVA. Fransenlook (gespickt mit Farbfehlern) vom feinsten.
Beitrag automatisch zusammengeführt:

@Stagefire

Ich auch. Habe mich verschrieben. Tut mir leid, dass ich bei den vielen Monitoren die ich hatte die Bezeichnung nicht sofort korrekt auf dem Schirm hatte. Ich mein den 43" 16:9 Uhd AUO AMVA Fernseher ähm "Monitor".

Blood1988


War das der BDM4065UC?

16 Dimmingzonen sind beim Asus Hdr Feeling pur. Die "Experten" von PCGH konnten beim Schwestermodell mit gleichen Panel nicht mal die Anzahl ausmachen:


Besser als Oled :d. Omg. Hätte man mal einen Test mit kleineren Objekten und mehr Helligkeit gewählt, dann würde man auch die Dimmingzonen sehen.

PCGH hat diesen "Test" verwendet:


Dieser Test ist geeignet:

Beitrag automatisch zusammengeführt:

Ich habe vor ein paar Wochen in einem Forum ein Bild von einem Forennutzer gefunden. Finds auf anhieb nicht wieder.
Der will 8 Zonen ausgemacht haben. Vermutlich sind es 16. 8 oben und 8 unten. Sein Bild sah jedenfalls nach extremen Blooming aus. Wie man es von Edge Led gewohnt ist.
 
Zuletzt bearbeitet:
Hier ein erster Test/Review:

Was mich nun verwirrt:
Laut dem Review ist es ein 8 Bit+FRC Panel, aber hier wird von einem 10 Bit Panel gesprochen und FRC sogar explizit ausgeschlossen:

Hmm, wer hat nun Recht?
 
Zuletzt bearbeitet:
Das hat niemals 10 Bit. Ein 10 Bit Panel hat kein Gamingmonitor mit high refresh.

Steht hier, Panel des PG32UQ und XB323QK:


16.7M Display Colors = 8 Bit

Selbst das teurere M320QAN02.6 hat nur 8 Bit + FRC:


1.07B (8-bit + Hi-FRC)
 
Zuletzt bearbeitet:
8 Bit + 2 Bit FRC Dithering kann sogar besser aussehen als 10 Bit Nativ durch das Dithering was eben bei Color Banding helfen kann.
Das muss nun nich dauernt so sein aber es gibt Fälle wo dem so is.

Ich denke mal daher haben wir bei den PC Monitoren auch so oft 8 Bit + 2 Bit FRC statt 10 Bit Nativ.
 
Ich denke mal daher haben wir bei den PC Monitoren auch so oft 8 Bit + 2 Bit FRC statt 10 Bit Nativ.

Das liegt eher daran, dass die Hersteller von "Gaming Monitoren" so viel Gewinn wie möglich machen wollen. Deswegen taugen die Panel in diesen Monitoren auch nichts, obwohl sie einem dafür ein Vermögen abknöpfen.

Im TV Bereich hast du da auch viel mehr Leute, die auf solche Sachen achten. 2020 hat Samsung ordentlich einen auf den Sack bekommen, als sie mit 8 Bit + FRC Paneln aufgeschlagen sind in ihren High End TVs.a
 
Das liegt eher daran, dass die Hersteller von "Gaming Monitoren" so viel Gewinn wie möglich machen wollen. Deswegen taugen die Panel in diesen Monitoren auch nichts, obwohl sie einem dafür ein Vermögen abknöpfen.
Im TV Bereich hast du da auch viel mehr Leute, die auf solche Sachen achten. 2020 hat Samsung ordentlich einen auf den Sack bekommen, als sie mit 8 Bit + FRC Paneln aufgeschlagen sind in ihren High End TVs.a

Das wird natürlich auch ein Faktor sein ... dennoch hat es zumindest den Angenehmen Nebeneffekt von Dithering wenn man 8 Bit + 2 Bit FRC ( Fake 10 Bit ) Dithering hat.
Wie eben bei den Fake 12 Bit auch ( 10 Bit + 2 Bit FCR Dithering )

Allerdings gehöre ich zu den Menschen die bei Gaming keinen Unterschied zwischen 8 Bit Nativ und 10 Bit Nativ sehen.
Zumindest is mir bisher kein Game untergekommen wo ich da einen Unterschied sehen würde.
( Ausgenommen natürlich das Color Banding ) ohne bezug auf HDR und Color Banding seh ich 0 Unterschied beim 8 Bit Gaming Vs 10 Bit Gaming.
 
Zuletzt bearbeitet:
Allerdings gehöre ich zu den Menschen die bei Gaming keinen Unterschied zwischen 8 Bit Nativ und 10 Bit Nativ sehen.
Ironie ein->
Darum geht’s doch garnicht!
Es geht darum, dass Du solange Test durchwühlen musst, bis Du glaubst es zu sehen. Notfalls vollgepumt mit Kaffee und Red Bull, bis Du Deine Schreibtischlampe für Deine seelige Großmutter hälst…,
den Moni umgehend zeternd zurückschickst und die einschlägigen Foren die nächsten drei Jahre zunölst, was für ein maßlos überteuertes Schrottteil man Dir da angedreht hat.
<-Ironie aus.
 
Zuletzt bearbeitet:
1024 sind viel feiner als nur 256 Farbgradienten. Wenn du das nicht siehst musst du derbe blind sein.
 
1024 sind viel feiner als nur 256 Farbgradienten. Wenn du das nicht siehst musst du derbe blind sein.

Jepp .. ich hab sone Dicke Hornbrille aus Holz die hatte mir mein Opa vor 30 Jahren noch geschnitzt aus einem Ant 😂

Ne aber mal ohne Flax .. das is bei mir halt so .... das is wie bei dir mit den OLEDs die du nur für HDR nutzt aber nich für SDR.
Leute sind halt unterschiedlich.

Ich lade die Leute ein einen Selbst Test zu machen .. nehmt Game X oder Y und stellt mal auf 8 Bit nativ und danach macht ihr nenn lauf mit 10 Bit Nativ .. bin gespannt.
 
Zuletzt bearbeitet:
Im Blind Test würde das nie jemand sehen, da würde ich auch gutes Geld drauf wetten.

Hat wenig mit blind sein zu tun, soo gut sind unsere Augen einfach nicht und unsere Wahrnehmung erst recht nicht.
 
1024 sind viel feiner als nur 256 Farbgradienten.
'nur 256 Farbgradieneten' muss man aber hoch 3 betrachten.
(Soviel zum Thema: 'hans5665, der unbestechliche Kämpfer gegen Manipulation'.)
Ich finde mit 16,7 Mio. Farben kann man durchaus farbenfrohe Ergebnisse zaubern. Mein erster Tuschekasten hatte nur 12 Farben. Meiner Omi haben meine Bilder trotzdem gefallen.
 
Zuletzt bearbeitet:
Ich lade die Leute ein einen Selbst Test zu machen .. nehmt Game X oder Y und stellt mal auf 8 Bit nativ und danach macht ihr nenn lauf mit 10 Bit Nativ .. bin gespannt.

Es nützt dir halt nichts (oder nur bedingt etwas), wenn du zwar 10 Bit eingestellt hast, der Content aber trotzdem nur in 8 Bit vorliegt.
Gerade das ist ja bei vielen Texturen trotz HDR gerne mal der Fall. Dann hast du halt einfach nur 8 Bit im 10 Bit Container und das wars.
Irgendein Game X oder Y bringt dir da also nichts. Da muss schon richtiger Content her, der dann auch in 10 Bit gemacht ist. Da bringt es also auch nichts,
wenn du in deinem Treiber 10 Bit einstellst. Der Treiber kann aus 8 Bit Content auch kein 10 Bit zaubern.

Test Pattern zeigen die Sache ansonsten relativ klar.
 
Die 10 Bit ( oder eben auch 8 Bit + 2 Bit FRC Dithering bei den Gaming Monitoren und somit Fake 10 Bit ) brauchen wir halt für HDR
damit HDR auf den Erweiterten Farbraum zugreifen kann.

Nur in dem Zusammenhang verändert HDR ja auch die Beleuchtung und daher sieht HDR halt besser aus als SDR aber eben nich wegen den 10 Bit
sondern durch die ganze Lichtstimmung die durch HDR geändert wird.

Dazu kommt das man HDR auch mit 8 Bit nutzen kann ( kann sein das man dafür ein 10 Bit Nativ Panel brauch ) ... aber stellt man sein 10 Bit Nativ Panel
auf 8 Bit macht Windows daraus 8 Bit + Dithering ( Fake 10 Bit ) wenn man HDR in Windows Aktiviert... und kann somit auch mit 8 Bit HDR nutzen
und wird keinen Unterschied bemerken.

So .. aber wie vorhin geschrieben ... gehen wir mal weg von HDR und Color Banding ... und hin zu 8 Bit Nativ Vs 10 Bit Nativ bei einem ganz normalen SDR Game.

Stellt man im Treiber auf 8 Bit und zockt ne Weile Game X oder Y in SDR um sich das alles einzuprägen was man sieht .. und beendet das Game und stellt im Treiber auf 10 Bit Nativ
wird man ..... soweit ich das zumindest für mich sagen kann .... keinerlei unterschiede erkennen
Beitrag automatisch zusammengeführt:

Es nützt dir halt nichts (oder nur bedingt etwas), wenn du zwar 10 Bit eingestellt hast, der Content aber trotzdem nur in 8 Bit vorliegt.
Gerade das ist ja bei vielen Texturen trotz HDR gerne mal der Fall. Dann hast du halt einfach nur 8 Bit im 10 Bit Container und das wars.
Irgendein Game X oder Y bringt dir da also nichts. Da muss schon richtiger Content her, der dann auch in 10 Bit gemacht ist.

Dann müsste man nun schauen welche Games denn 10 Bit sind ... alternativ einfach alle Games testen die man halt so halt. ... da wird dann vielleicht mal ein 10 Bit Game ( sollte es die überhaupt geben )
dabei sein.


Test Pattern zeigen die Sache ansonsten relativ klar.

Klar .. die sind ja auch genau darauf ausgelegt sowas aufzuzeigen .. nur eben die Realen Games nich.

Das is wie bei Syntischen Benchmarks und richtigen Game Benchmarks.
 
@fullHDade

Ich spreche von einer Farbe und deren Abstufungen ;). Und da sind es 256 Abstufungen bei 8 Bit. Du beziehst dich auf die 3 Farbkanäle (rot, grün und blau) die 16,7 Millionen Farben ermöglichen. Hat nichts mit meiner Aussage zu tun ;).
 
Ich spreche von einer Farbe und deren Abstufungen ;). Und da sind es 256 Abstufungen bei 8 Bit.

Also deine Grundaussage is ja Richtig ... 10 Bit hat mehr Farben als 8 Bit .. das Ding is halt
das Games diese Farben die sie zusätzlich mit 10 Bit haben nicht sichtbar ausnutzen.

Zumindest nich für mich sichtbar in den Games in meinen bisherigen Vergleichen die ich gemacht hab.

Mag ja sein das Game X davon vielleicht Profitiert .. aber dieses Game X hab ich bisher noch nich gesehen.

Anders isses bei Games mit Color Banding .. da können 8 Bit schlechter aussehen als 10 Bit .. aber eben auch
andersrum .. wenn man auf 8 Bit + 2 Bit FRC Dithering zockt kann das Dithering die Farbverläufe besser aussehen
lassen als 10 Bit Nativ.... nich immer und auch nich muss aber kann.
 
Zuletzt bearbeitet:
Natürlich muss der Content kompatibel zu 10 Bit sein :d. Ansonsten hat man von der zusätzlichen Abtastung nichts.
 
Natürlich muss der Content kompatibel zu 10 Bit sein :d. Ansonsten hat man von der zusätzlichen Abtastung nichts.

Kannst du mal ein Paar Games aufzählen die 10 Bit Kompatible sind und auch mit 10 Bit dann besser aussehen ?
Mir is halt leider bisher keins bekannt.

Mir gehts wie gesagt um Games !!
Und dann eben Games die man in SDR zockt da HDR das Bild dann verfäscht und die Lichtstimmung ändert sodass ein Vergleich nich zu 100 % machbar is

Keine Filme oder Test Patterns !!

Oder ums Einfacher zu sagen :

Welches SDR Game sieht mit 10 Bit besser aus als mit 8 Bit ?
 
Hdr Games müssten zu mindestens 10 Bit Farbtiefe supporten.

Ich würde mal Shadow Warrior 2 testen.
 
Zuletzt bearbeitet:
Hdr Games müssten zu mindestens 10 Bit Farbtiefe supporten.

HDR Games brauchen 10 Bit Nativ oder 8 Bit + 2 Bit FRC Dithering ( Fake 10 Bit ) um sie in HDR zu zocken nur so kann man HDR nutzen im Generellen.
Aber Profitieren sie halt auch von 10 Bit ? Sieht dann die Textur eines Wagens dadurch besser aus ? Oder die Blaue Farbe des Wagen sieht mit 10 Bit besser aus ?
Oder eine Rote Blume sieht dadurch noch besser aus wenn man es in 10 Bit zockt anstelle von 8 Bit ?

Das bezweifel ich nämlich ... was eher eben dann einen unterschied macht is das HDR aber nich die 10 Bit an sich.

Währe ja Cool wenn uns hier jemand dann ein HDR Game nennen könnte was dann in SDR von 10 Bit Profitiert ... weil der Content ja dann gleich bleibt wenn
man das HDR Game von HDR auf SDR Stellt .. und somit müsste das HDR Game in SDR mit 8 Bit ja dann in irgendeiner Weise schlechter aussehen als mit 10 Bit in SDR.

Nur meine bisherigen Tests konnte diese These nich bestätigen.

Was nich heissen soll das ich 10 Bit generell anzweifel .. sondern eher das unsere Games von 10 Bit Profitieiren und eben 8 Bit genauso aussieht bei Games wie 10 Bit.
Man brauch halt nur die 10 Bit oder 8 Bit + 2 Bit FRC Dithering um HDR nutzen zu können .. und damit man im Spiel HDR auf "AN" stellen kann.
 
Zuletzt bearbeitet:
Wenn du keinen Unterschied siehst musst du schon 10 Flaschen Bier von der Marke "Performer" intus haben:

8 Bit + FRC:


10 Bit:


Das sind Synthetische Test Patterns aber kein Real Scenario in eine Game ... das is ja unser Punk hier.
Klar sieht man bei diesen Patterns einen Unterschied .. weils sie eben genau für diesen Grund gemacht wurden.
Aber man sieht das eben nich beim Zocken in einem Real Existierenden Game.


Wenn es das Game 10 Bit supported dann wird man einen wesentlich weicheren Farbverlauf sehen. Z.B. bei Himmeln.

Warum grade im Himmel ? Und nich an einer schönen Roten Blume die auf der Wiese wächst ?

Ich find den Himmel als Schwächsten Vergleichspunkt ... da dieser oft Color Banding auffweist .. ganz Stark zum Beispiel bei Battlefield 5
und dies mit 10 Bit oder 8 Bit oder auch 6 Bit + 2 Bit FCR ( mein alter BenQ ) Games nutzen meist schlechte Himmelstexturen die sich
auch mit einer höheren Bit Stufe nich verbessern. Da hilft nur Dithering oder eben Reshade mit "Deband"
 
Man sieht es auch bei Spielen:


Eine Blume wird wohl zu klein sein um es zu sehen und ich kann mir auch nicht vorstellen, dass eine Blume über so viele Farbtöne verfügt :d.
 
Man sieht es auch bei Spielen:

Das sieht mir in dem Video eher wie 10 Bit HDR Vs 8 Bit SDR aus.

Er sagt auch das man da den Unterschied zwischen den Nit Ranges sieht ( bei 3:11 )
Das Video dreht sich somit mehr um Bildhelligkeit

Und es sind Unterschiedliche TVs die er da vergleicht. .. Da gehts mehr um die Nits des einen TVs gegen die Nits des Anderen TVs und weniger um 8 Bit Vs 10 Bit

Man könnte das auch einfach : "Click Bait" nennen was er da macht.

2.jpg
 
Zuletzt bearbeitet:
Habe ich nachher auch gesehen, da sieht mans schlecht mit dem Banding.

Hier ist es offensichtlicher was 10 Bit bewirkt.

 
Habe ich nachher auch gesehen, da sieht mans schlecht mit dem Banding.
Hier ist es offensichtlicher was 10 Bit bewirkt.

Wir wissen hier alle was 10 Bit bewirken kann !

Unser Punkt is das mit 10 Bit bei den Games die wir zocken aber mit den 10 Bit als solche eben nichts bewirkt wird

Und es geht um Games !!

Keine Videos/Filme/Test Patterns.

Nun weiss ich wie du auch auf Shadow Warrior 2 kammst du schlingel .. hast mal google angeschmissen 8-)

"
Shadow Warrior 2 in HDR: Erstes PC-Spiel mit 10 Bit pro Farbkanal "

"Der First-Person-Shooter Shadow Warrior 2 ist das erste PC-Spiel, welches einen erhöhten Kontrastumfang nutzt. Mit einer höheren Auflösung von 10 statt 8 Bit pro Farbkanal ermöglicht HDR (High Dynamic Range) die Darstellung eines erweiterten Farbraum, wodurch der Kontrast verbessert wird und Farben stärker strahlen."



Farben Strahlen also Stärker .. so so ... kein besserer Farbverlauf wie man es eigentlich denken würde .. sondern sie strahlen halt einfach nur heller... dass das aber mehr mit HDR und weniger mit 10 Bit zu tun
hat schreiben sie aber nich.


Ich werds mir mal anschauen.


Und weil du oben grade Banding geschrieben hast .. ich sagte weiter oben schon : Abgesehen von HDR und Color Banding !!
Und Color Banding tritt eben meisst nur im Himmel auf .. is aber auch nun egal ob mit 8 Bit oder 10 Bit immernoch vorhanden was eben an den verwendeten Texturen liegt.
Und genau das sagte TZGamer vorhin ja auch .. das die Games halt Texturen nutzen die von 10 Bit eben nich Profitieren .. was wiederrum mein Punkt is das man bei
Games von 10 Bit nich Profitiert und es kein Unterschied macht ob man 8 Bit oder 10 Bit nutzt.
 
Zuletzt bearbeitet:
Teste das Spiel doch erstmal selber, auch wenn heise einen besseren Farbverlauf als Vorteil von 10 Bit nicht erwähnt hat. Ich weiß wie 10 Bit aussieht. Selbst den Unterschied zwischen 8 Bit und 8 Bit + FRC kann man sehen. Ein smootherer Farbverlauf scheint für dich persönlich nicht von Vorteil zu sein. Wie du in dem Video gesehen hast, findet die Veränderung im Detail statt. Unerfahrene werden sicherlich den Unterschied zwischen 8 Bit, 8 Bit + FRC und 10 Bit nicht sehen, wenn man sie nicht darauf aufmerksam macht bzw. sie nicht zwischen den Modi wechseln um den Unterschied zu sehen. Ich gehe aber nicht davon aus, dass hier nur solche die zu o.g. Gruppe gehören unterwegs sind.

Es ist müßig darüber zu reden ob mehr Details oder eine realistischere Farbwiedergabe einen Vorteil haben. Für Profis ja, für Ottonormalo ist es egal. Die verdrehen die Farben sowie so gerne selbst mit falschen Einstellungen. Farben müssen knallen wie ein Marvell Comic. Wer von diesen Leuten kalibriert seinen Monitor mit einem Colorimeter? Niemand.
 
Zuletzt bearbeitet:
[…] auch wenn heise einen besseren Farbverlauf als Vorteil von 10 Bit nicht erwähnt hat.
Was willst Du damit inplizieren? Dass heise-Mitarbeiter von der bösen bösen 8Bit-Lobby bezahlt werden?

Ich weiß wie 10 Bit aussieht.
Erinnert mich an 'Good Moning Vietnam' wo der Typ sagte: "Tief in meinen Herzen weiß ich, dass ich witzig bin'.

HDR steckt im Quelmaterial.
https://de.wikipedia.org/wiki/High_Dynamic_Range_Image
Auszug aus diesen wiki: 'Höhere Farbtiefen werden üblicherweise kaum verwendet, da Bildschirme und Druckmedien zu deren Darstellung ohnehin nicht fähig sind.'

Wenn SW+GraKa das HDR-Quelmaterial nicht tauglich aufbereitet haben, isses am Moni auch zu spät. Der Moni kann bestenfalls ein Logoritmus drüber laufen lassen um Fake-HDR zu simulieren.
 
Zuletzt bearbeitet:
Ein smootherer Farbverlauf scheint für dich persönlich nicht von Vorteil zu sein

Auf jedenfall is das ein Vorteil .... aber das is eben nur ein Vorteil wenn es vorher einen unsmoothen Farbverlauf gibt.

Und den hat man mit 8 Bit nicht in Games ... ausser eben im Himmel bei einigen Games ( weshalb du auch vorhin den Himmel als Beispiel genommen hast )
.. aber da liegt es an der Himmels Texture die die Entwickler verwenden ( sieht man zb sehr gut bei Battlefield 5 ) da gibts üblses Color Banding im Himmel ..
aber da isses auch egal ob man in SDR oder in HDR zockt oder mit 6 Bit + 2 Bit FRC oder 8 Bit Nativ oder mit 8 Bit + 2 Bit FRC oder mit 10 Bit Nativ oder mit 10 Bit + 2 Bit FRC
man sieht das Color Banding im Himmel immer dort wenn man darauf achtet.


Und ja .. mich nervt Color Banding auch .. und daher is mir ein Smother Farbverlauf auch wichtig ... aber den kann man eben auch mit 8 Bit haben
wenn die Entwickler wert darauf legen Gute Himmelstexturen zu nutzen.

Aber fernab von diesen schon seit Jahren leider genutzten Himmelstexturen hat man in Games eigentlich kein Color Banding ausser bei manchen Ausnahmen die ich aber grad nich kenne.
Da liegt es dann aber eben auch an den Texturen die verwendet werden und währe vermeidbar auch unter 8 Bit

Nur wie gesagt .. es geht hier weniger ums Color Banding oder HDR sondern um 8 Bit Vs 10 bit in Spiel X unter SDR
und da man ja mit 10 Bit mehr Farben hat sollten die Farben ja unter 10 Bit in einem HDR Game welches 10 Bit Content aufweisst
ja auch in SDR mit 10 Bit die Farben prächtiger erscheinen weil man ja mehr Farben zur verfügung hat mit 10 Bit.

Es geht nich um HDR Vs SDR sondern um 8 Bit Vs 10 Bit unter SDR im Game.



. Wie du in dem Video gesehen hast, findet die Veränderung im Detail statt. Noobs werden sicherlich den Unterschied zwischen 8 Bit, 8 Bit + FRC und 10 Bit sehen, wenn man sie nicht darauf aufmerksam bzw. sie nicht zwischen den Modi wechseln. Ich gehe aber nicht davon aus, dass hier nur solche die zu o.g. Gruppe gehören unterwegs sind.

Ne du .. wir sind hier alle Noobs .. nur du bist der Seehende unter den Blinden wie es scheint.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh