[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

@ssj3rd ich denke mir gerade soll ich mit dir Internet Rambo diskutieren aber mit dir möchte ich mich besser nicht anlegen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hier ein schönes Nintendo Switch Forum für dich:
 
Bezüglich ruckeln, ich habe bei mir festgestellt, dass die GeForce Experience dafür verantwortlich war.
Hatte bei Warzone umd PubG über 1 Jahr lang Framedrops im Startmenü sobald eine Eingabe von der Maus registriert wirde, ging von 120FPS auf unter 100 und sofort wieder rauf.
Dachte die Razer Software sei Schuld, auf Logitech geswitched, genau gleich.
Hab dann mal versucht die GeForce Experience zu löschen und plötzlich waren die Framedrops und Microruckler (trotz +/- 100fps im Spiel!) weg!
Freund hatte dasselbe Problem, hat dann auf meinen Rat hin auch die GeForce Experience deinstalliert und seitdem auch keine Probleme mehr, meint auch dass es sich jetzt viel flüssiger anfühlt (hat noch eine 1080ti).

Habe und hatte ich bisher nicht installiert.
 
Na PC geb ich nicht auf,Konsole da bekomm ich pusteln vom Pad.
2Wochen COD im MP mit Pad,das war reinste Folter mach ich nie wieder^^
Am schlimmsten ist noch die Aim hilfe...

Zumal gibts auch viele spiele nicht auf der Konsole.

PC ist halt generell ein viel besserer allrounder das will ich einfach nicht missen,zumal man sich alles auch nach seinen wünschen basteln kann was bei Konsole halt auch nicht geht.
 
Antwort vom Rasmus von Flatpanels zum zum Elec Artikel:
I don't think The Elec's sources are right this time. But wait until CES and we'll talk again :-)
Ist wohl alles noch nicht in trockenen Tüchern, mal sehen wer recht behält.

Jo währe ja cool auch wenn das MLA wohl erst in den größeren TVs zu finden sein wird und später in den Folgejahren dann in den kleineren
aber dennoch bin ich tierisch gespannt wie LGs MLA sich bei der HDR Helligkeit / ABL agressivität und der Farbe auswirkt das sind ja die Punkte wo Samsungs QD-OLED vorne liegt
und daran könnte MLA vielleicht was ändern

storyMichigan-OLED-microlens-array-img_assist-400x283.jpg
 
Zuletzt bearbeitet:
Nabend in die Runde, ich besitze einen LG G9 und habe seit dem Umstieg auf die RTX 3080TI extreme Probleme mit meinem TV. Habe dazu auch einen Beitrag geschrieben, aber leider keine Resonanz erhalten.


Ich habe jetzt einige Seiten hier im Beitrag gelesen, aber bin leider nicht fündig geworden, ob mein Problem bereits gelöst werden konnte.

Weis jemand ob es zum Problem HDR und HDMI Deep Color eine Lösung gibt?

Allen erstmal einen guten start in die neue Woche.
 
Nabend in die Runde, ich besitze einen LG G9 und habe seit dem Umstieg auf die RTX 3080TI extreme Probleme mit meinem TV. Habe dazu auch einen Beitrag geschrieben, aber leider keine Resonanz erhalten.

angeschlossen sind zwei Fujitsu b24-8 TE pro (1 DP FHD & 1 DP FHD über einen DVI Adapter) und ein Dell S2721 DGFA (DP WQHD) diese funktionieren auch, jetzt habe ich aber auch noch einen LG 65 Oled G19 TV (HDMI 2.0 Kabel WQHD zukünftig 4K) und diesen bekomme ich nicht mehr als 4. Monitor erweitert.


Soweit ich weiss ( muss nichts heissen ) is bei 3 Geräten ende 4 gehen glaub ich nicht ... sprich steck mal einen der anderen drei ab und probier dann nochmal den G9

Scheint aber doch irgendwie zu gehen .. verrückte Sache :


Ihr kommt aber auch manchmal auf ideen ... 4 Monitore ... wofür eigentlich ? Börse Bebachten und Porn schauen und Youtube Video schauen und Zocken gleichzeitig ?

Ich hab jetzt schon mehrfach versucht den Nvidia wie auch die AMD Treiber zu deinstallieren

??? in deinem PC steckt also eine Nvidia GPU und gleichzeit eine AMD GPU oder wie darf man das verstehen ??
 
Zuletzt bearbeitet:
Soweit ich weiss ( muss nichts heissen ) is bei 3 Geräten ende 4 gehen glaub ich nicht ... sprich steck mal einen der anderen drei ab und probier dann nochmal den G9
Also vielleicht ist es ja ein Nvidia Thema, aber mit meiner alten RX 580 gab es diese ganzen Probleme nicht, da gingen ohne Probleme alle vier angeschlossenen Geräte gleichzeitig.
Ihr kommt aber auch manchmal auf ideen ... 4 Monitore ... wofür eigentlich ? Börse Bebachten und Porn schauen und Youtube Video schauen und Zocken gleichzeitig ?
Grundlegend geht es ja nicht um das warum, aber es geht ums zocken. Es bedeutet auch nicht das alle 4 Bildschirme gleichzeitig an sind, aber ständig die Eingangskanäle umstecken ist auch keine Lösung
??? in deinem PC steckt also eine Nvidia GPU und gleichzeit eine AMD GPU oder wie darf man das verstehen ??
In meinem PC steckt inzwischen eine RTX 3080 Ti, vorher hatte ich eine RX 580 mit der es diese Probleme nicht gab, die Karte hat ohne zicken 4k mit 60hz, HDR, VRR und AMD Freesync wiedergeben. In 2K sogar mit 120 hz, die RTX hat diesbezüglich aktuell noch große Herausforderungen.



.
 
Also vielleicht ist es ja ein Nvidia Thema, aber mit meiner alten RX 580 gab es diese ganzen Probleme nicht, da gingen ohne Probleme alle vier angeschlossenen Geräte gleichzeitig.

Das kann sein das es ein Nvidia Thema is ... Heute gibts ja die Reviews für die 7000er AMD Karten die dann Morgen bestellbar sind schlag doch dann bei AMD zu
dann dürfte ja wieder alles laufen deiner Meinung nach :d

Grundlegend geht es ja nicht um das warum, aber es geht ums zocken. Es bedeutet auch nicht das alle 4 Bildschirme gleichzeitig an sind, aber ständig die Eingangskanäle umstecken ist auch keine Lösung

Das Stimmt aber zb nur 1 oder 2 Geräte nutzen währe ne Lösung machen viele hab ich gehört :d
Und nunja 4 bzw 3 weil du ja 1 Doppelt hast unterschiedliche Monitore fürs Zocken nutzen is auch nich die beste Idee da nimmt man eigentlich dann 3 mal den gleichen bzw bei dir ja dann 4 mal den gleichen.

In meinem PC steckt inzwischen eine RTX 3080 Ti, vorher hatte ich eine RX 580 mit der es diese Probleme nicht gab ... Ich hab jetzt schon mehrfach versucht den Nvidia wie auch die AMD Treiber zu deinstallieren"

OK aber wenn in deinem PC nun ne 3080 Ti steckt warum installierst du dann noch nen AMD Treiber ?

Also ich kann dir da bei deinem Prob nich weiterhelfen fand nur den Umstand recht merkwürdig
 
Das kann sein das es ein Nvidia Thema is ... Heute gibts ja die Reviews für die 7000er AMD Karten die dann Morgen bestellbar sind schlag doch dann bei AMD zu
dann dürfte ja wieder alles laufen deiner Meinung nach :d
Das wäre eine Möglichkeit, aber wenn du dir einen Audi kaufst und dann feststellst das du dein Smartphone aufgrund eines unbekannten Fehlers nicht verbinden kannst, dann kaufst du dir ja nicht einfach einen BMW, sondern suchst na einer Lösung. Im übrigen ist das nicht meine Meinung, sondern eine Feststellung. Das internet ist voll von Problemen der 3080er Serie in Verbindung mit LG Oled TVs, Hdmi Deep Color, 4k 120hz ect...
Das Stimmt aber zb nur 1 oder 2 Geräte nutzen währe ne Lösung machen viele hab ich gehört :d
Und nunja 4 bzw 3 weil du ja 1 Doppelt hast unterschiedliche Monitore fürs Zocken nutzen is auch nich die beste Idee da nimmt man eigentlich dann 3 mal den gleichen bzw bei dir ja dann 4 mal den gleichen.

Ich nutze beruflich 3 Monitore am meinem Computer und manchmal sogar privat, häufig reicht aber auch nur ein Bildschirm oder wie im genannten Fall der TV, wenn ich was mit dem Controller spielen möchte. Anschliessen könnte ich 5 Geräte also verstehe ich das Problem nicht.

OK aber wenn in deinem PC nun ne 3080 Ti steckt warum installierst du dann noch nen AMD Treiber ?

Also ich kann dir da bei deinem Prob nich weiterhelfen fand nur den Umstand recht merkwürdig
Vielleicht habe ich mich einfach ungünstig ausgedrückt oder du solltest dir beim überfliegen anderer Beiträge mehr Zeit nehmen.

Die Geschichte mit dem AMD Treiber beruht darauf, das ich vorher eine AMD Karte (RX 580 8GB) in meinem Rechner hatte.

Trotzdem danke für deine Umstände, auch wenn nichts bei rumgekommen ist 👍🏻
 
Die Geschichte mit dem AMD Treiber beruht darauf, das ich vorher eine AMD Karte (RX 580 8GB) in meinem Rechner hatte.

Aber auf deiner AMD Karte lief es doch somit brauchtest du doch nich den AMD Treiber mehrfach deinstallieren um zu schauen obs dann geht

Zitat : "Ich hab jetzt schon mehrfach versucht den Nvidia wie auch die AMD Treiber zu deinstallieren"

Macht halt kein Sinn für mich diese ausssage aber sei es drumm

Trotzdem danke für deine Umstände, auch wenn nichts bei rumgekommen ist 👍🏻

Vielleicht kann dir ja jemand anderes bei deinem Problem helfen (y)
 
Zuletzt bearbeitet:
ok, dann wäre das ja gut. Ich bin der Meinung, dass vor kurzem hier im Forum noch ein User dies behauptet hat.

Jup, hier wird in letzter Zeit recht viel Mist erzählt. Hat man gar keine Lust das alles zu korrigieren…

Ich hatte das Thema vor einiger Zeit angesprochen, falls ihr das meint. Dabei ging es aber explizit darum, dass im 21:9 Mode des C2 nur noch 60hz verfügbar sind, wenn man das Bild per Game Optimizer noch oben oder unten verschiebt. Ist es zentral, kann man auch die vollen 120hz nutzen.
 
Ah ok danke dir für die Aufklärung.
Trotzdem eine Einschränkung, die ich bei Nutzung etwas schade finde, da man damit den nicht vorhandenen Standfuß gut ausgleichen könnte.
Aber irgendwie mag ich den Gedanken nicht, ein solch großes Display zu haben und dann nicht auszunutzen und sich einen künstlichen Riesenrahmen zu schaffen.
 
21:9 kommt schon gut ab und zu, was ich nicht nutze ist das hoch oder runterschieben bei 21:9 oder 32:9.
wüsste nicht was mir das bringen sollte.
 
Aber auf deiner AMD Karte lief es doch somit brauchtest du doch nich den AMD Treiber mehrfach deinstallieren um zu schauen obs dann geht

Zitat : "Ich hab jetzt schon mehrfach versucht den Nvidia wie auch die AMD Treiber zu deinstallieren"

Macht halt kein Sinn für mich diese ausssage aber sei es drumm



Vielleicht kann dir ja jemand anderes bei deinem Problem helfen (y)
Wenn man ein Umstieg von AMD zu Nvidia macht ist es schon durchaus sinnvoll, die alten Treiber zu deinstallieren.

Da man durch einfache deinstallation nicht alles rausbekommt, gibt es so Tools wie DDU, um alles restlos zu entfernen. Das habe ich dann mehrfach probiert da der Fehler bestehen blieb, inzwischen bin ich etwas schlauer und vermute das es an der Kombination mit Windows 11 liegt, da ein komplette Neuinstallation wieder den selben Fehler zeigt.

Nichtsdestotrotz danke für den Versuch, ich werde mal warten ob jemand die Thematik kennt.
 
inzwischen bin ich etwas schlauer und vermute das es an der Kombination mit Windows 11 liegt, da ein komplette Neuinstallation wieder den selben Fehler zeigt.

Möglich .. vielleicht hast du ja auch ein Kumpel der ne neue AMD Karte ( 6000er oder ab Morgen die 7000er ) hat damit du die mal bei dir testen kannst obs an der Nvidia Karte liegt.

Da sei dann aber bei der 7000er gewarnt :

1670857481581.jpeg


Nichtsdestotrotz danke für den Versuch, ich werde mal warten ob jemand die Thematik kennt.

(y) Jup wir haben hier ja sicherlich ein paar Profis die sich mit Gemischten 4 Monitor Setups auskennen.
 
Hat jemand mal einen Asus ROG PG42UQ probiert?
Überlege ob sich der Aufpreis zu einem LG C2 lohnt.
 
Hat jemand mal einen Asus ROG PG42UQ probiert?
Überlege ob sich der Aufpreis zu einem LG C2 lohnt.
Na, wenn Du mit dem Teil Deine Produktivität um -sagen wir- 2% steigern kannst und Dein täglicher Gewinn (allerdings vor Steuern) bei rund 500 Euro liegt, beginnt er sich bereits nach rund einem halben Jahr an 'lohnen'.
Das hängt natürlich auch davon ab, welchen Gewinn Du mit dem Verkauf Deines Altgerätes erzielen kannst. Aber Obacht! Ist Dein bisheriger Moni noch nicht vollständig abgeschrieben, musst Du den Restwert wiederum versteuern, was den Zeitpunkt des 'sich lohnens' u.U. verlängern könnte.
 
Zuletzt bearbeitet:
Hab krasses Black Flickering beim Dell
 
Bei meinem 42c2 fällt es mir auch mehr auf als beim 48c1, muss man einfach ausblenden
 
Du hast natürlich recht. Ich habe es eben getestet und das schwarze "flackern" bleibt auch, wenn ich VRR deaktiviere (nur etwas weniger)!
Demzufolge müsste das noch irgendwas anderes sein?

Das ist sehr merkwürdig. Denn genau so geht es mir auch. Hab VRR / Gsync deshalb am C2 ausgestellt. Sether 0 Flackern.
 
Antwort vom Rasmus von Flatpanels zum zum Elec Artikel:
I don't think The Elec's sources are right this time. But wait until CES and we'll talk again :-)
Ist wohl alles noch nicht in trockenen Tüchern, mal sehen wer recht behält.

Da war Flatpanels wohl wirklich besser Informiert als The Elec :

""The result of exchanges, once again, with our Korean colleagues, one of the big novelties of the Oled LG 2023 TV range concerns the LG G3 series which will inaugurate MLA (Micro Lenses Array) technology, resulting in a bright peak in increase of +70%. No doubt this will be one of the highlights of the LG stand at the CES show in Las Vegas 2023 which will open its doors on January 5th.""


Also 2023 gibts dann wohl bei der G3 Serie das MLA ... bringt aber wohl wieder nur mehr Peak der ja eh schon ausreichend is ... +70 % is ne Ansage auch wenn es beim Peak unnötig is die sollten lieber mal am ABL
arbeiten statt sich immernur am Peak aufzuhängen ... aber mal schauen vielleicht schaffen sie ja überall mehr Nits bzw damit das ABL abzuschwächen

Weil das währe ja schon läherlich wenn man dann bei einem 10 % Fenster so 1700 Nits hat aber bei einem 20 % Fenster nur noch 400 Nits da müssten die anderen % Bereiche auch mit hochgehen
bzw das ABL mit abgeshwächt werden sonst is das ja echt lächerlich

Wobei hier relativieren sie wieder :

"Please note, this figure of +70% for the peak light of a TV equipped with the MLA process is understood to be compared to the Oled LG A3 or LG B3 TV series, more or less identical to the Oled LA A2 and LG B2 TV series. This means about a gain of +20% compared to an LG G2 equipped with an EX panel, a value far from low."

Also nur +20 %

" classic OLED panel displays a luminous peak of approximately 800 nits and an OLED EX approximately 1,000 nits, a panel equipped with micro‑lenses should reach a peak of 1,100/1,200 nits. Another positive point, this better luminous efficiency would also have repercussions on energy efficiency, again improving,see our news published last May, already: LG Display is experimenting with a process to increase Oled brightness by 20% . Slightly negative point, these micro‑lenses, directives, imply a lesser angle of vision. But nothing too bad according to our information."

Aber alle labern da immer nur von Peak dabei is der doch ok mit so 1000 Nits das ABL is eher das Problem von OLED weils zu Agressiv abdimmt und dann von den 1000 Nits nix mehr übrig bleibt
 
Zuletzt bearbeitet:
Aber alle labern da immer nur von Peak dabei is der doch ok mit so 1000 Nits das ABL is eher das Problem von OLED weils zu Agressiv abdimmt und dann von den 1000 Nits nix mehr übrig bleibt
Wenn sie ABL grossartig abschwächen könnten ohne großartig das Burn In Risiko zu erhöhen würden sie es wohl tun. Es geht wohl technisch einfach nicht, egal wie sehr Du es dir wünschst.

Die anderen sind da ja auch nicht wirklich (viel) besser unterwegs seit vielen Jahren.
Manche Lmitationen brauchen (sehr viel) Zeit um sie aus der Welt zu schaffen.
Sie machen es ja nicht um ihre Kunden zu ärgern…
 
Zuletzt bearbeitet:
Die anderen sind da ja auch nicht (viel) wirklich besser unterwegs seit vielen Jahren.

Bei den anderen gibts 200 Nits mehr bei 25 % zb ( also 50 % heller als der LG ) und das in Generation 1 ... jedenfalls können sie nich jahr für jahr den Peak steigern aber den Rest auslassen da das Gefälle immer und immer größer wird ... is doch lächerlich wenn man bei 10 % seine 1200 Nits hat und bei 20 oder 25 % nur noch 400 Nits


Manche Lmitationen brauchen (sehr viel) Zeit um sie aus der Welt zu schaffen.
Sie machen es ja nicht um ihre Kunden zu ärgern…

Ich denke Spätestens mit Phosphor Blue könnte das dann klappen.
 
+70 % is ne Ansage auch wenn es beim Peak unnötig is die sollten lieber mal am ABL
arbeiten statt sich immernur am Peak aufzuhängen ...
Damit kann man halt viel besser werben. 1500Nits Peak wie beim QD-OLED liest sich halt besser als effektiv 300Nits bei durchschnittlich hellem Content.

Der Stromverbrauch ist einfach zu hoch, schon heute werden OLEDs bei hohem Weißanteil zu echten Stromfressern.
Du musst mal bedenken, der 65" QD-OLED verbraucht bei Vollweiß (ja, klar, ist nicht realistisch, aber es zeigt die Richtung) unglaubliche 380Watt. Und das für lächerliche 200Nits.
Ein vergleichbarer LCD leistet hier 800Nits und verbraucht dabei nicht mal die Hälfte. Und die LCD-Panels schlucken ja an sich schon 95% des Backlights.
Da wird auch keine 20% Erhöhung der Effizienz groß was ändern bei OLED.
Schau dir die Handys an, die leisten seit Jahren 1000Nits+ ganz ohne auffälliges Burn-In? Warum? Weil da der Stromverbrauch bei der kleinen Fläche noch beherrschbar ist.
Bei Tablets und Notebooks gehen dann aber plötzlich nur noch rund 400Nits...
jedenfalls können sie nich jahr für jahr den Peak steigern aber den Rest auslasse da das Gefälle immer und immer größer wird
Klar können sie das, denn der erhöhte Peak wirkt sich kaum auf den Stromverbrauch aus.

Es geht wohl technisch einfach nicht
Genau so ist es. Wer kein ABL mag muss ein LCD nehmen, so wie ich es ja z.B. aus diesem Grund auch mache.
 
Warten kann man immer (und ewig) 😏

bleibt einem ja nix übrig wenn sich nix bewegt oder nur das falsche ( der Peak Bereich 1-10 % ) sich bewegt .. bei LG stagniert ja alles über 10 % schon seit 4 jahren oder so

Stell mal vor AMD oder Nvidia würden GPUs rausballern die 4000mhz können ... aber nur bei Solitär ... und zockt man dann n Game wie zb Doom hat man nur noch 1000 mzhz und gurckt mit 10 FPS rum
Und dann sagt AMD und Nvidia : Hier schaut her unsere GPU kann 4000mhz und die is ganz schnell !!! .... will doch auch keiner sowas.

Beitrag automatisch zusammengeführt:

Genau so ist es. Wer kein ABL mag muss ein LCD nehmen, so wie ich es ja z.B. aus diesem Grund auch mache.

Der Punkt is nich das ich es nich mag .. also schon aber ich weiss das es da is und da sein muss aber das is doch garnich der Punkt .... der Punkt is dass das ABL zu Agressiv abdimmt mehr nich
einfach weniger agressiv machen bzw alle Prozent Bereiche um 200 -400 Nits anheben reicht doch schon statt dessen gehen sie jahr für jahr nur auf den Peak Bereich der seit 2022 scho völlig ausreicht
Beitrag automatisch zusammengeführt:

Der Stromverbrauch ist einfach zu hoch

Genau und deswegen kommen ja die ganzen Sachen wie MLA und Phosphor Blue .. effizienter und heller .. nur leider immer nur heller beim Peak

2023 wird das aber alles noch nix ... MLA kommt eh erst nur in die G Serie und bringt auch nur 20 % und dann auch nur beim Peak und Phosphor Blue kommt erst 2024 ... nun heisst es also warten auf 2024
vielleicht gibts ja dann mal ein 4K QD-OLED unter 50"
 
Zuletzt bearbeitet:
der Punkt is dass das ABL zu Agressiv abdimmt mehr nich
einfach weniger agressiv machen bzw alle Prozent Bereiche um 200 -400 Nits anheben reicht doch schon statt dessen gehen sie jahr für jahr nur auf den Peak Bereich der seit 2022 scho völlig ausreicht
Ja aber das habe ich doch gerade erklärt, dass das eben nicht einfach ist, satte 200-400Nits in den höheren Bereichen würde mal eben eine Verdoppelung der Effizienz bedeuten. Du hoffst aber auf eine 20%-Erhöhung durch MLA irgendwann im nächsten Jahr. Bei dem Tempo kannst du doch noch 10 Jahre warten.

Wie gesagt, es wird am Peak-Bereich gearbeitet weil das am werbewirksamsten geht. 400-600Nits bei den hohen Prozenten wirst du auch in 5 Jahren noch lange nicht sehen bei OLED.

nur leider immer nur heller beim Peak
Ja weil OLED bei hohen Prozenten wie bereits erklärt jetzt schon viel zu viel Strom verbraucht. Man wird wohl eher den Verbrauch erstmal senken wollen, auch in Anbetracht der Energieeffizienzklassen, also mehr Helligkeit rauszuholen.
Nochmal 380Watt bei 65"!! Das ist schon Plasma-Niveau. (100% 200Nits entsprechen der Einfachheit halber mal 50% 400Nits)
Beitrag automatisch zusammengeführt:

vielleicht gibts ja dann mal ein 4K QD-OLED unter 50"
Der ist dir hell genug?
 
Ja aber das habe ich doch gerade erklärt, dass das eben nicht einfach ist, satte 200-400Nits in den höheren Bereichen würde mal eben eine Verdoppelung der Effizienz bedeuten.

Samsungs QD-OLED hat in Gen 1 schon das Geschafft woran LG seit Jahren scheitert warum kann LG das nich wenn Samsung das kann ?

Zwar nich in allen Bereich aber is dennoch 100-200 Nits überall heller ... Und Phosphor Blue könnnte nochmal so 100 - 200 nits bringen und dann sind wir auch schon solangsam da wo ich hin will.

Du hoffst aber auf eine 20%-Erhöhung durch MLA irgendwann im nächsten Jahr. Bei dem Tempo kannst du doch noch 10 Jahre warten.

Knapp 3 Jahre hab ich ja schon hintermir :ROFLMAO:

Nochmal 380Watt bei 65"!!

Nochmal .. MLA und Phosphor Blue !! ... Beides is Effizienter sprich vverbraucht weniger und gleichzeitig aber heller

Is egal .. lass uns mit dem Thema nun aufhören .. hab Heute eh wenig Zeit .. wollte auch garnich wieder so ein Rant starten das kamm nun aus dem afekt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh