ASUS ROG SWIFT PG32UQ: 32-Zoll-Display mit 4K, 144 Hz und HDMI 2.1

@fullHDade

Stagefire hat einen Oled der beherrscht Hdr ;).

@Stagefire

Alien: Isolation kannst du auch testen. Ich habe keine Fotos die 10 Bits vs. 8 Bits in Games zeigen. Bin noch nicht auf die Idee gekommen den Unterschied festzuhalten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@fullHDade

Stagefire hat einen Oled der beherrscht Hdr ;).

Das hat "er" .. aber hier gehts grad nich um HDR sondern SDR wie schon mehrmals erwähnt

Es geht einfach und simple um :

"8 Bit Vs 10 Bit unter SDR bei PC Games"

@Stagefire

Alien: Isolation kannst du auch testen. Ich habe keine Fotos die 10 Bits vs. 8 Bits in Games zeigen. Bin noch nicht auf die Idee gekommen den Unterschied festzuhalten.

Ich denke ich bleib bei deinem ersten Vorschlag .. es reicht doch wenn man 1 Game hat wo man unter SDR einen Unterschied zwischen 8 Bit und 10 Bit sehen kann
du hast gesagt ich solle Shadow Warrior 2 testen weil man dort einen Unterschied sieht und das mach ich nun.
Und dann sieht man ja was Sache is.


Hier auch nochmal das Color Banding mit 10 Bit bei Battlefield 5 .. ging auf der letzten Seite eventuell unter.
Da hilft halt auch nich 12 Bit .. das liegt an der Himmelstextur.

321rkte.jpg


1zpj97.jpg
 
Zuletzt bearbeitet:
10 Bit hat auch Colorbandinung nur nicht so stark wie 8 Bit. Ich sage ja man kann sich sicher Vergleiche zwischen 8 Bit, 8 Bit und FRC und 10 Bit anfertigen, wenn man dazu Lust hat. Du kannst ja mal deine Games durchgehen und auf die Farbverläufe achten. Ich bin mir sicher dass du bei genauer Betrachtung Unterschiede ausmachen wirst.
 
10 Bit hat auch Colorbandinung nur nicht so stark wie 8 Bit.

Wie gesagt ... die Bit Stufe spielt in dem Beispiel Battlefield 5 keine Rolle .. das is alles gleichschlimm weil die Textur scheisse is.
Und genau das sagte TZGamer vorhin auch schon das es oft an zu schlechte Texturen liegt.

Du kannst ja mal deine Games durchgehen und auf die Farbverläufe achten. Ich bin mir sicher dass du bei genauer Betrachtung Unterschiede ausmachen wirst.

Genau das hab ich ja schon getahn .. wie ich auf der letzten Seite ja auch geschrieben habe.
Und genau deswegen schreibe ich ja die ganze Zeit das man dort kein Unterschied sieht.

Das Blaue Auto sah mit 8 Bit genauso schön Blau aus wie mit 10 Bit. ( um mal bei diesem Beispiel von vorhin zu bleiben )

Du hast nun gesagt das man aber bei Shadow Warrior 2 einen Unterschied sieht unter SDR zwischen 8 Bit und 10 Bit ... dem gehe ich nun nach... ich bin sehr gespannt.
Währe auch schön wenn das mehrere machen würden damit nich gesagt wird das ich absichtlich Parteiisch bin oder so.
Denke aber das wird nich passieren das es noch jemand bei Shadow Warrior 2 ausprobiert und ich teste es als EInzigster und wir sind dann auch nicht weiter als jetzt.
 
Zuletzt bearbeitet:
Klar .. die sind ja auch genau darauf ausgelegt sowas aufzuzeigen .. nur eben die Realen Games nich.

Ja und nein.
In Games siehst du es auch, sofern diese eben entsprechende Texturen verwenden
und die Szenerie eben so ist.

Warum grade im Himmel ? Und nich an einer schönen Roten Blume die auf der Wiese wächst ?

Wieso wohl? Weil deine Wiese eben keine glatten Verläufe zeigt. Guckt dir eher großflächigere Texturen an.
Da ist der Himmel eben das beste Beispiel. Ansonsten können aber auch glatte Wände usw. das Problem deutlich zeigen.
Nur ist hier eben wieder zu bedenken, dass viele Spiele eben keine 10 Bit Texturen einsetzen. Das macht es eben schwerer passende
Games zu finden. Gerade der Himmel ist da immer so ein negatives Beispiel, wo die Devs "sparen". Deswegen sieht der auch oft kacke aus.


Welches SDR Game sieht mit 10 Bit besser aus als mit 8 Bit ?

Erneut: SDR = 8 Bit. Nur weil du in deinem Treiber 10 Bit einstellst, wird der Kram nicht plötzlich vom Spiel in 10 Bit ausgegeben. Da wirst du
also immer einen Schritt haben, wo die Engine den Kram als 8 Bit weitergibt. Ohne die HDR Flag wird da einfach 8 Bit von der Engine in den 10 Bit Container gestellt. Der einzige Vorteil wäre dann wohl wieder der, den du mit 12 Bit auf einem 10 Bit Display hast. Kein großer Unterschied.

Was man auch ganz klar sagen muss im Falle von Games:
HDR gibt es so richtig erst seit ~2015/2016. Üblicherweise haben Spiele ja nun eine relativ lange Entwicklungszeit. Insbesondere Spiele, die also gegen Ende des letzten Jahrzents erschienen sind, hatten HDR wohl erst im Laufe der Entwicklung intergriert bekommen. Aber eben nicht von Anfang an. Was wohl eben auch ein Grund ist, wieso sehr viele Spiele in HDR einfach so kacke aussehen. In den kommenden Monaten und Jahren sollten dann aber wohl Spiele kommen, wo HDR nochmals deutlich besser integriert ist. Entsprechend sollten da die Texturen auch in besserer Qualität vorliegen (z. B. native 10 Bit Texturen auch für den Himmel). Ergo sollte es dann zukünftig auch noch einfacher sein entsprechende Unterschiede auszumachen.

Was Games angeht mit ordentlichem HDR würde ich jetzt speziell Ratchet & Clank Rift Apart einfallen. Das sah durch und durch ziemlich gut aus und müsste sich für denen Vergleich sehr gut eigenen. Nur bringt dir das für den PC eben nichts. Ansonsen bietet Kena - Bridge of Spirit wohl auf den ersten Blick Potenzial entsprechende Unterschiede zu zeigen. Habe da aber bisher nur kurz in HDR gezockt und kann da keine Garantie für geben, dass da wirklich durch die Bank weg 10 Bit Texturen zum Einsatz kommen. €: The Falconeer soll sich wohl auch noch anbieten.
 
Zuletzt bearbeitet:
TZGamer hats gut beschrieben, man weiß leider nicht ohne eine entsprechende Info welche Games wirklich 10 Bit Texturen verwenden. Da muss man leider testen.

Hdr sieht für viele beschissen aus, weil die wenigsten einen wirklich Hdr fähigen Monitor haben.

Wer nutzt schon einen Oled Fernseher oder einen Fald Monitor?

Du siehst u.a. in Foren wo drauf der Fokus gelegt wird. High refresh VA oder IPS und eine bestimmte Größe und das wars bei den meisten auch schon. Und natürlich so wenig Geld wie möglich ausgeben. 200-300 Euro ist bei der breiten Masse der Sweetspot. Ein paar kaufen für 700 - 1000 Euro. Und danach gibt es nur noch ein paar Enthusiasten die mehrere tausend Euro raushauen.

Die meisten wissen nicht wie gut Hdr gegenüber SDR aussieht. Weil null Erfahrung. Ist für sie auch besser. Ansonsten würden sie nur noch schwer zufriedenzustellen sein.
 
Ja und nein.
In Games siehst du es auch, sofern diese eben entsprechende Texturen verwenden
und die Szenerie eben so ist.

Dann hatten somit alle Games die ich bisher getestet hatte also die entsprechenden Texturen nicht

Hans hatte ja nun gesagt das man bei Shadow Warrior 2 von 2016 nun solche Texturen findet wo man einen Unterschied sehen würde zwischen 8 Bit und 10 Bit.
Habs mir gestern noch geladen und werd es nacher mal ausprobieren.

Du hast nun genannt :

Ratchet @ Clank Rift Apart .. gibts leider nur auf Konsolen .. aber falls man dort auf Konsolen in SDR von 8 Bit auf 10 Bit umstellen kann kann das ja jemand mal testen der das Game und die Konsole hat.

Kena .. hab ich leider nich aber das kann ich dann mal testen wenn ich es für ein 5er bekomme .... alleridings bei der Grafik ... is ja eher so Comic Anime Styl
ich denke da würde es schwer werden überhaupt einen Unterschied zu sehen durch ebend en Grafik Stil .. aber du wirst dir da schon was bei gedacht haben.

Tha Falconeer hat halt auch wieder son Comic Look und is leider auch nich so ein Game was anpacken will .. aber vielleicht jemand der es hat und liebt und es am PC Spielt.

Aber zumindest haben wir ja dann nun 4 Games wo man laut eurer Aussagen einen Unterschied sehen wird bei den Texturen und Farben wenn man von 8 Bit auf 10 Bit umstellt

Es geht ja um den Farbverlauf ... 10 Bit hat ja mehr Farben als 8 Bit ... das muss man ja dann eben auch in diesen Games sehen können.

Wieso wohl? Weil deine Wiese eben keine glatten Verläufe zeigt. Guckt dir eher großflächigere Texturen an.
Da ist der Himmel eben das beste Beispiel.

Find ich eben nicht ... Beispiel Battlefield 5 .... wenn es ne Scheiss Himmelstextur is dann bleibt die scheisse .. egal ob mit 8 Bit , 10 Bit oder 12 Bit.
Habs ja selbst bei BF5 getestet.

Bei der Himmelstextur hilft nur Dithering oder Reshade in verbund mit Deband

Und sieht die Himmelstextur mit 8 Bit gut aus sieht sie auch mit 10 Bit gut aus.
Nur sieht sie eben mit 8 Bit scheisse aus sieht sie auch mit 10 Bit und 12 Bit scheisse aus.

Nur ist hier eben wieder zu bedenken, dass viele Spiele eben keine 10 Bit Texturen einsetzen. Das macht es eben schwerer passende Games zu finden

Eben das is ja mein Punkt .. und auch wenn wir nun 1 Game Finden wo man davon Profitiert ... die anderen 99,8 % der Games auf der Welt Profitieren eben nich von 10 oder 12 Bit.
Und das passt eben zu Meiner Aussage das man von 10 Bit beim Zocken nich Profitiert .. man brauch halt nur 10 Bit damit man HDR auf "AN" scchalten kann aber das wars dann auch schon
den Rest der Magie macht dann HDR aber nich eben die 10 Bit.

. Gerade der Himmel ist da immer so ein negatives Beispiel, wo die Devs "sparen". Deswegen sieht der auch oft kacke aus.


Jup wie gesagt .. BF5 .. da hilft aber selbst 12 Bit nich wie gesagt


Erneut: SDR = 8 Bit. Nur weil du in deinem Treiber 10 Bit einstellst, wird der Kram nicht plötzlich vom Spiel in 10 Bit ausgegeben. Da wirst du
also immer einen Schritt haben, wo die Engine den Kram als 8 Bit weitergibt. Ohne die HDR Flag wird da einfach 8 Bit von der Engine in den 10 Bit Container gestellt. Der einzige Vorteil wäre dann wohl wieder der, den du mit 12 Bit auf einem 10 Bit Display hast. Kein großer Unterschied.

Erneut : SDR : wenn das Game 10 Bit Texturen nutzt nutzt es die auch mit 8 Bit ... Sonst müsste ja alles in 2 Facher Ausführung da sein an Texturen ... und die Games währen nun doppelt so Groß von den GB her als jetzt schon. Weil man dann 1 Set 8 Bit Texturen bräuchte und dann nochmal 1 Set 10 Bit Texturen .. was niemand machen würde. Es würde nur 1 Set 10 Bit Texturen geben für das Spiel.
Und sollte es 1 Game geben welches eben 10 Bit Texturen nutzt sollte man da eben einen Unterschied sehen wenn man das Game dann auf 8 Bit zockt.
Und wie gesagt .. ich zweifel an das man da diesen Unterschied sehen wird weil bisherige Tests bei Games zeigten da bisher kein Unterschied

Aber ich Lade gerne Leute ein mit zu testen ... denke aber mal das interessiert eh keine Sau .. daher is die bisherige Beteiligung auch so Mau .. weils eben kein unterschied macht ob 8 Bit oder 10 Bit.

So und HDR kann man halt leider nich vergleichen ... da geht nur 10 Bit vs 8 Bit + 2 Bit FRC Dithering ( Fake 10 Bit ) ... und das macht nun für meine Geschichte die ich aufzeigen will eben 0 SInn zu vergleichen.
Weil man da dann 10 Bit Vs. 10 Bit vergleicht.

Daher SDR weil dann die 8 Bit eben auch 8 Bit bleiben und dann kann man auch 8 Bit Vs 10 Bit vergleichen ohne das aus 8 Bit eben 8 Bit + Dithering ( Fake 10 Bit ) wird.

Wer nutzt schon einen Oled Fernseher oder einen Fald Monitor?


Ich hab nen Kumpel .. der wollte erst kein OLED weil zu groß .. aus Mangel an Alternativen hat er sich den dann doch geholt ... aber HDR nutzt er beim Zocken bei dem 0
 
Zuletzt bearbeitet:
AUO Panel aus den USA. Das ist ähnlich als wenn man sich einen Revolver mit 5 Patronen in der Trommel an den Kopf hält, die Trommel dreht, abdrückt und hofft das sich kein Schuss löst.
 
Joa, werde mir das Teil auch erst beim Deutschland Release holen und dann natürlich bei Amazon und so lange tauschen bis es gut ist.
 
Warum willst du dir den antun? Review von hardwareunboxed gesehen? Die Reaktionszeiten sind für 144 Hz unbrauchbar. Das Teil schmiert heftig.
Ich hatte PG32UQX sogar mit variable overdrive und der lcd cell und dann noch zwei Monitore mit dem Innolux Panel. Das Innoluxpanel ist deutlich schneller. Gucke dir mal die Schaltzeiten vom FI32U auf rtings an ;). Bei Innolux hat man auch keine extreme Staublotterie und das Coating ist auch nicht stark angeraut und unscharf.
 
Zuletzt bearbeitet:
Beispiel Battlefield 5 .
Ja, das liegt dann aber eben schon daran, dass die Textur von Anfang an kacke ist.
Wir gehen hier doch aber von einem Best-Case aus. Und da sieht man dann eben den Unterschied.

wenn das Game 10 Bit Texturen nutzt nutzt es die auch mit 8 Bit ...
Das nützt dir aber nichts, wenn die Engine den Kram dann doch nur in einen 8 Bit Container stopft, bevor das Signal rausgeht.
Das ist dann quasi der umgekehrte Fall von der Problematik, dass LG OLEDs 444 nur im PC Modus korrekt ausgeben. Einfach weil ohne PC Modus
der Kram ja vom TV in 422 gewandelt wird. Hier ist es jetzt eben nicht 444 und der TV, sondern die Seite der Quelle und die Bit.

€: Besseres Beispiel: Nur weil du ein SDR Signal in ein HDR Container steckst, ist der Content kein HDR.
 
HDR 600 ist doch dann auch nicht viel besser?
 
Ja, das liegt dann aber eben schon daran, dass die Textur von Anfang an kacke ist.
Wir gehen hier doch aber von einem Best-Case aus. Und da sieht man dann eben den Unterschied.

Jup .. nur haben wir bisher noch kein Best Case sondern eben nur Bad Cases was eben für mein Punkt Spricht.

Und auch wenn wir 1 oder 2 Best Cases haben haben wir noch immer 99,8 % an PC Games die Bad Cases sind.
Und das Spricht auch für mein Punkt.

Das nützt dir aber nichts, wenn die Engine den Kram dann doch nur in einen 8 Bit Container stopft, bevor das Signal rausgeht.
Das ist dann quasi der umgekehrte Fall von der Problematik, dass LG OLEDs 444 nur im PC Modus korrekt ausgeben. Einfach weil ohne PC Modus
der Kram ja vom TV in 422 gewandelt wird. Hier ist es jetzt eben nicht 444 und der TV, sondern die Seite der Quelle und die Bit.

Nunja .. wenn das der Fall is werden wir aber nie zu einem Ergebniss kommen
 
@ssj3rd

Das sind die richtigen Reaktionszeiten:


Hdr 600 mit Edge Led ist trozdem unbrauchbar. Du hast elende, vertikale Lichtbahnen ohne Fald. Kannst du also direkt auslassen.

@Nozomu

Es ist teilweise funktional. Bei Hdr 400 ist in jeder Situation eine Verschlimmbesserung. Hdr 600 mit ein paar Dimmingzonen stellt Hdr Highlights heraus. Jedoch wird die gesamte Atmosphäre durch die von unten und oben einstrahlenden Leds zerstört ;).

AW3821DW 12 Zonen Edgeledbacklight:

 
Zuletzt bearbeitet:
Für HDR Content schon.
Für SDR halt nicht.

Eben ... und wie ich ja schon sagte unter HDR kann man eben nich Vergleichen was ich als Punkt gebracht hab.
Der da war 8 Bit vs 10 Bit weil unter HDR aus den 8 Bit halt 8 Bit + Dithering ( Fake 10 Bit ) wird und wir hätten dann 10 Bit Vs "10 Bit"

Unter HDR kann man eben höchstens 10 Bit Nativ Vs. 8 Bit + Dithering ( Fake 10 Bit ) vergleichen.
Und ich glaub das wird even ausgehen. Bzw mal tendenz dahin und mal dort hin.

Ich denke mal damit kann man das Thema nun auch abharken.

Ausser uns beiden redet nun ja auch schon keiner mehr darüber 😂

Unter SDR sieht 8 Bit jedenfalls gleich zu 10 Bit aus und man hat keinen Vorteil von 10 Bit oder gar 12 Bit

Und sollte es 1 oder 2 Games geben wo man doch einen Unterschied sieht stehen denen 99,8% der Restlichen Games gegenüber die nich davon Profitieren .. und das spricht halt für meinen Punkt.
Alleine die Tatsache das wir hier schon ins schwimmen gekommen sind um überhaupt mal ein paar Games aufzuzählen wo man Vielleicht einen Unterschied erkennen könnte spricht schon für sich bzw für mich.

In der Zukunft mag sich die Situ ändern .. aber mometan ist sie eben so wie von mir aufgezeigt.
 
Zuletzt bearbeitet:
HDR 600 ist doch dann auch nicht viel besser?
Man nimmt was man kriegt 😉

HDR 1000 gibts bei 32 Zoll und 4k144 nicht, außer eben beim krank teuren UX.
Und ja, 600 ist auch Mist, aber eben noch besserer Mist als 400.

Ein 32er OLED gibts ja leider nicht auf dem Markt, alles über 40 kommt mir aber sicher net auf dem Schreibtisch.
Das ist völlig gaga, dafür habe ich den 77er im Wohnzimmer.
 
Wenn etwas nicht nutzbar ist, dann ist es für mich nicht vorhanden bzw. nichts worauf ich wert legen würde. AW3821DW habe ich nur aufgrund seiner Größe bzw. der erweiterten Höhe gekauft.
 
Das sind die richtigen Reaktionszeiten:
Der Link geht nicht,zumindest bekomm ich nen Error.

Ich würde den Asus auch nicht kaufen,und HDR600 taugt genauso wenig wie HDR400.
Ich würde den M32U kaufen,was man so lesen tut ist er wohl noch nen Tick besser als der FI32U.
Zumindest soll das OD besser taugen und der lag nach Update bei 4MS liegen.
 
Vielleicht ist deine Ip bei Cloudflare auf der Blacklist. Bei mir gehts.

Meinst du beim M32U wurden die Overdrivesettings verbessert? Oder ist es nur die Propaganda der Unerfahrenen die durch diverse Foren kursiert? So in der Art: "Mein G9 Neo ist fehlerfrei!" auf reddit.
 
Jeder hat eh andere Prioritäten, war schon immer so und ist auch gut so.

Komisch das ihr den Monitor absolut nicht haben wollt, aber in dem Thread unterwegs seid wo es eigentlich ausschließlich um das Teil geht.
Ein „Oxymoron im Verhalten“ wie mein Alter Professor immer zu sagen pflegte 😃
 
Ach, ich bin hier nur um die Leute vor einem Fehlkauf zu bewahren. Wie Blood sagte, der M28U ist günstiger und hat das für Spiele und 144 Hz besser geeignete Panel.

Wenn du Wert auf ansehnliches Hdr legst kommst du bei Monitoren um einen G9 Neo aktuell nicht herum. Nur leider hast du die SVA Nachteile mit an Bord. Als Officemonitor würde ich den nicht gerade empfehlen, alleine Knack- und Knistergeräusche die auftreten können sind ein Nervenkiller. Und auch beim Gaming gibt es Gespacke wie Flackern, sichtbares Faldgrid und sichtbaren Overshoot. Ist nur Betaware für early adaptor. Von den Kompatibilitätsproblemen des Seitenverhältnises 32:9 fange ich gar nicht erst an. Dann wird deine Abneigung nur noch größer.
 
Zuletzt bearbeitet:
Haben der FI32U und der M32U eigentlich DSC beim DisplayPort wie der Asus?

Mein HDMI 2.1 Anschluss an meiner Graka geht nämlich zum OLED im Wohnzimmer und ist daher belegt.
Und ohne DSC kriegst du 144hz bei 4K nicht beim DP 1.4.
 
Ja, haben sie. HDMI 2.1 hat nur halbe Bandbreite soweit mein Kenntnisstand. Vielleicht wurde es durch eine neue Firmware mittlerweile behoben? Ich habe an meiner 3090 FE nur einen HDMI 2.1 Port. Und der wird vom Oled genutzt. Von daher wäre mir das egal. Der HDMI Port hat sowie so DSC. Also 144 Hz bei voller Auflösung und 8 Bit + FRC laufen. Habe ich selbst getestet :d. Weil ich ein sehr langes Glasfaser HDMI 2.1 Kabel zu meinem Testplatz verwende, musste ich den HDMI 2.1 Port nutzen.
 
Meinst du beim M32U wurden die Overdrivesettings verbessert?
Das OD ist zumindest ab Werk auf on, was beim FI nicht der Fall ist.
Aber die voreingestellte OD Stufe soll wohl auch Ghosting zeigen beim M32U,eine Stufe drunter soll aber taugen und kein Ghosting mehr zeigen.

Also gehe ich mal von aus das die Schaltzeiten auch besser sind.(wenn schon ne OD stufe taugt)

Und der Lag wie gesagt ist auch besser,das hatte jemand schon gemessen.

Aber mal schauen was Tests sagen,Rtings hat schon ein bestellt.
 
Die Bildwiederholfrequenz ist interessant. Deutliches Inverseghosting bei der ersten Overdrivestufe hatte der FI32U auch erst bei unter 100 Hz. Der XB323QKNV hatte das gleiche Problem. Den Spagat mit einem Overdrivesetting schafft man nur wenn man die Reaktionszeiten bei der top end Frequenz opfert.

Mir war der FI32U auch bei 144 Hz zu langsam. Den Unterschied zu Nano Ips hat man direkt gesehen. Wer Uhd auf 32" unbedingt braucht solls kaufen. Die Farben sind bei Nano Ips auch besser. Der FI32U und der Acer XB323QKNV hatten beide auch zu viel Ips glow. Der milchige Schleier war sehr deutlich. Fand die Farben auch nicht ansprechend.

FI32U:


AUO ist noch schlechter. Also friss oder stirb. Ich würde gar nichts derartiges kaufen. Ist nur Geldverbrennung.
 
Zuletzt bearbeitet:
Mit deinen Ansprüchen kommst du beim Monitor Markt nicht weit, da wie du selbst ja feststellst dann gar nichts mehr kaufen kannst.
(Und der Markt ist seit bestimmt 10 Jahren so völlig kaputt mit den Panels, bei TVs/OLEDs zb absolut das gleiche Trauerspiel)

Und soo anspruchsvoll sind die meisten User gar nicht, da wird nicht der IPS Monitor ausgepackt und nach Glow oder Ähnlichem gesucht.
Tote Pixel in der Mitte fallen da schon eher auf 😉

Bei Fernsehern und OLEDs habe ich im HiFi Forum aber auch solche Leute kennengelernt.
Da werden erst mal zig Testpattern gefahren und dann redet man sich seinen eigenen TV in Grund und Boden.
Und manche Sachen siehst du gar nicht, wenn du nicht vorher danach gesucht hast.
Unwissenheit ist hier manchmal ein Segen 😃
 
Zumindestens nicht ohne ausgedehnte Panelselektion. Natürlich sind die meisten Nutzer nicht besonders anspruchsvoll, ansonsten würden die Hersteller diesen qualitativ ungenügenden Mist gar nicht anbieten. Jedoch fallen selbst den Unerfahrensten grobe Mängel wie z.B. Flackern oder black smearing auf, um die hakelige Schrift bei SVA zu erkennen muss man auch nicht gerade eine Lupe verwenden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh