LG 34GK950F-B im Test: Ungleiches Schwestermodell mit Nano-IPS und FreeSync

das display ist beim f und g das gleiche. das g hat nur 120hz max, weil das die vorgabe von nvidia ist mit gsync oder man (also lg) eine teurere lizenz braucht. gibt leute, die haben diese sperre überwunden und das g modell auf 144 hz gebracht. ob man es braucht steht auf nen anderen stück papier.

hdr 400 ist nutzlos, da so gar kein "überstrahlen" zustande kommt. das rgb ist kein pling pling sondern kann zb im dunkeln den schreibtisch etwas ausleuchten, so das man vl nicht im ganz stockdunkeln sitzt. gsync hat mit ner nividia karte gewaltige vorteile, gerade wenn man keine 1000€ grafikkarte sein eigen nennt und eh immer und überall 100hz+ hat.

am ende geht es im prinzip nur übern preis. ich habe mir die g variante für 1050€ gekauft. den aufpreis von 150-200€ wäre mir das aber auch nicht wert gewesen. bei gleichen preis ist die gsync variante wohl besser.

Über welchen Eingang hast du denn die 144Hz realisiert? Rein mathematisch können da keine 144fps über die Anschlüsse rein kommen :)

habe ich was anderes gesagt? die g variante ist zum teil allerdings günstiger, weshalb man auch darauf zurückgreifen kann. damit freesync gut funktioniert, brauchste halt etwas mehr power. gsync läuft auch bei 40fps sehr gut, was in strategiespielen zb locker reichen kann.



der bildschirm leuchtet normal schon mit 300. das überstrahlen ist also gerademal 100 :) das sieht man vielleicht im sehr dunklen raum, sonst ist das eher ein feuchter pfurz. echtes hdr wird wohl noch etwas dauern, bis es wirklich am markt angekommen ist. die 2-3 richtigen hdr 1000 monitore sind noch sehr teuer.
da in beiden geräten das gleiche panel ist, kann die g variante das im prinzip auch. hat sicherlich wieder lizenzrechtliche gründe mit nvidia.

Ja, HDR ist ein absolut nutzloses Feature. Freesync hat auf lange Sicht aber den Vorteil das man die GPU absolut frei wählen kann, während man bei G-Sync dauerhaft an Nvidia gebunden ist. Zum gleichen Preis ist die FreeSync Variante klar vorzuziehen, alleine auch schon wegen der Farben. Warum G-Sync aber bei geringen FPS besser sein sollten bleibt mir ein Rätsel. Ich konnte hier absolut keinen Unterschied feststellen.

Bullshit. Hatte beide Modelle und das G Modell hat erheblich weniger Bewegungsunschärfe als das F Modell. Adaptive overdrive von G-Sync ist immer noch beim Gaming absoluter Trumpf.

HDR 400 ist nur ansehnlich, wenn man helle Szenen betrachtet, bei allem anderen ergibt sich ohne local dimming (welches der Monitor nicht hat) eine flächendeckende Aufhelllung des Bildes, welche extrem grässlich aussieht.
Auch ich hatte beide da, das G-Sync Modell ist genau wie das erste FreeSync Modell wegen des BLB zurück gegangen. Deine Aussage kann ich absolut nicht nachvollziehen, nach dem Update habe ich absolut keinen Unterschied zum 34GK950G feststellen können. Weder mit der Vega VII noch mit der GTX 1080.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Den erweiterten Farbraum hat man auch ohnne HDR, also hat auch das G-Sync Modell diesen Farbraum.

Der wird aber in Spielen nicht dargestellt. Mein Samsung kommt auch kaum über 300 nits in den meisten Szenen, dennoch sieht das HDR-Bild in Spielen besser aus als das SD-Bild.
 
@Chanks

Das Update reduziert nur den Inputlag. Nicht mehr ;). Die Schaltzeiten vom F Modell bleiben besch..... und der Overshoot ist massiv. Keine Ahnung warum das viele Neulinge immer durcheinander werfen.

Ich habe mal ein Video für Neulinge die nicht kapieren warum G-Sync Free-Sync massiv überlegen ist:

Look what we found in NVIDIAs Top Secret Gaming Monitor Lab - YouTube

Die gammeligen FS Monitore haben nur eine Overdrivestufe. G-Sync Monitore haben pro Hz eine neue, angepasste Overdrivestufe.


@ColinMacLaren

Warum sollte der erweiterte Farbraum in Spielen nicht dargestellt werden ? Abgesehen davon ist der HDR Modus vom F Modell absoluter Bullshit, da er bei fast allen Inhalten zu einer Verschlechterung der Bilddarstellung führt.

Ich hatte hier vor Tagen hier einen HDR 600 Monitor, mit ca. 12 Dimmingzones. Selbst der war Lichtjahre von einem X27 oder PG27UQ bei HDR entfernt. Der gammelige LG 34GK950F hat keine einzige Dimmingzone. Nur global dimming. Kann also nur das gesamte Bild erhellen oder abdunkeln.

Es gibt nur 2 HDR Gaming Monitore auf dem Markt, die HDR ordentlich darstellen können und das ist der X27 und der PG27UQ.
 
Zuletzt bearbeitet:
@Chanks

Das Update reduziert nur den Inputlag. Nicht mehr ;). Die Schaltzeiten vom F Modell bleiben besch..... und der Overshoot ist massiv. Keine Ahnung warum das viele Neulinge immer durcheinander werfen.

Ich habe mal ein Video für Neulinge die nicht kapieren warum G-Sync Free-Sync massiv überlegen ist:

Look what we found in NVIDIAs Top Secret Gaming Monitor Lab - YouTube

Die gammeligen FS Monitore haben nur eine Overdrivestufe. G-Sync Monitore haben pro Hz eine neue, angepasste Overdrivestufe.


Mhm, danke für die nette Annahme die mich als Neuling brandmarkt :) Woran machst du das fest, an der Anzahl meiner Beiträge hier im Forum? Ist nicht so das es noch andere Plattformen gibt, aber egal. Ich merke direkt warum dir so ein guter Ruf voraus eilt.

Dieses Video ist mir durchaus bekannt. Auch habe ich niemals behauptet, das es genauso wenig Overshoot wie beim 34GK950G gibt, sondern lediglich dargelegt das ich persönlich keine Verschlechterung der Bildqualität feststellen konnte. Das ist übrigens auch das was zB TFTcentral beschreibt.

Anbei mal eine Frage, du brüstest dich als gerne als Monitorguru mit enorm vielen Tests, wo kann ich denn mal ein Test von dir lesen, oder eigene Testergebnisse von dir finden? Wäre mal spannend neben den klassischen Quellen noch andere fundierte, mit nachvollziehbare Testmethodik fundierte und Belegbare Ergebnisse zu sehen.

Edit.: Ok, das Overshoot ist nachvollziehbar. Wenn ich bei AC:O die Einstellungen so übertreibe das ich auf etwa 50FPS komme und mir aktive eine Szene suche wo ich auf ein Seil achte und die Kamera wie ein irrer Drehe sieht das nicht besonders schön aus. Allerdings kommen mir dann real immer noch 2 Fragen auf.

1. Wo ist das Problem wenn ich es nur merke wenn ich darauf aktiv achten muss?
2. Warum kaufe ich mir ein 100Hz+ Panel um mich dann bei Overshoot bei <60Hz aufzuregen?
 
Zuletzt bearbeitet:
Ich habe die andere Version : LG 34GK950G-B

verstehe echt nicht wie man behaupten kann das man da zuviel bezahlt und bla bla bla

Fact ist :

Der Monitor gepaart mit RTX 2080TI und i7 9er Serie bekommt man auf der 3440 x 1440 Auflösung bei:

Monster Hunter Online Max Settings incl. Texturen pack für 4k auf 80-90 FPS in Game / Gruppe auf dem Schiff bekomme ich 100-120 FPS
AC: O 75-90 FPS

kann da weitere aufzählen...

Zum Foto Bearbeiten ist er aus sehr zu empfehlen ( bin kein Foto Profi ) Farbtiefe / schärfe extrem gut.


Einzig Manko für mich ist das er kein HDR hat.... !

Sonst hat es sehr viel einstell Möglichkeiten und jeder wird die Settings die am besten für ihn ist rausfinden :)


Wenn ihr wirklich vergleicht müsste man mit zusätzlicher HW diese test machen und beide vergleichen....

Meine Meinung... ^^

Cheers
 
@Chanks


Um den enormen Unterscheid F vs. G beim motion blur und overshoot, selbst @ max. frequency, nicht zu sehen muss man schon Tomaten auf den Augen haben oder das G Modell nie getestet haben.

Chanks schrieb:
1. Wo ist das Problem wenn ich es nur merke wenn ich darauf aktiv achten muss?
2. Warum kaufe ich mir ein 100Hz+ Panel um mich dann bei Overshoot bei <60Hz aufzuregen?

1. Wenn du es nicht merkst, dann gibt es zwei Erklärungen, s.o. .

2. Auch hierfür siehe oben.

@Devjam

HDR 400 und nur global dimming ist in vielen Fällen eine Verschlechterung ggü. SDR, von daher eh Latte.

Genau behaupten kann man viel. Und die die sagen dass das F Modell genauso gut ist wie das G Modell, haben leider keinen Plan.

Hier noch mal für die Neulinge, die Erklärung bezüglich der response time und dem overshoot vom F Modell.
 
Zuletzt bearbeitet:
man kann beim monitorkauf auch ne wissenschaft draus machen. asus ist mit seinen tests schon extrem pingelig dabei. selbst die besten monitore kommen am ende eigentlich nur mittelmäßig davon.


während man bei G-Sync dauerhaft an Nvidia gebunden ist.

was gibts denn neben nvidia überhaupt noch an wirklich brauchbaren grafikkartenherstellern? ^^ du meinst doch nicht amd, dessen karten irgendwo im mittelfeld rumgammeln und für solche auflösungen mit 100hz+ nicht im geringsten ausreichen.

ich habe die gsync variante und bin davon absolut begeistert. wer die f variante möchte, kann das gerne tun. der test hier ist allerdings quatsch, wie asus schon richtig erklärt hat. das f modell lohnt halt nur dann, wenns im verkauf auch günstiger ist als das g modell und man wirklich vorhat, keine nvidia karte einzusetzen. da beide geräte im absoluten luxus segment senieren, kommt es hier am ende auf den letzten hunni auch nicht mehr an.
 
damit freesync gut funktioniert, brauchste halt etwas mehr power. gsync läuft auch bei 40fps sehr gut, was in strategiespielen zb locker reichen kann.

Nö, wieso!? Der hat FreeSync 2 und somit auch LFC. Ich kann auch kein Flimmern am LFC Übergang feststellen. Alles bestens.

der bildschirm leuchtet normal schon mit 300.

Viel Spaß, sich da dauerhaft 300 Nits reinzupfeffern... Ich habe ihn Arbeitsplatzkonform auf 120Nits eingestellt und so passt das auch. (Einstellung 15/100) Für HDR nutze ich eine höhere Maximalhelligkeit (75/100) und es sieht gut aus. Klar ist es kein 1000 Nits FALD oder gar OLED. Aber es ist trotzdem eine Verbesserung der Bildqualität die ich gerne mitnehme.


Was ich von deiner Meinung halte, kennst Du ja. Bist ja nicht umsonst im CB gegangen worden.
 
@Chanks


Um den enormen Unterscheid F vs. G beim motion blur und overshoot, selbst @ max. frequency, nicht zu sehen muss man schon Tomaten auf den Augen haben oder das G Modell nie getestet haben.



1. Wenn du es nicht merkst, dann gibt es zwei Erklärungen, s.o. .

2. Auch hierfür siehe oben.

@Devjam

HDR 400 und nur global dimming ist in vielen Fällen eine Verschlechterung ggü. SDR, von daher eh Latte.

Genau behaupten kann man viel. Und die die sagen dass das F Modell genauso gut ist wie das G Modell, haben leider keinen Plan.

Hier noch mal für die Neulinge, die Erklärung bezüglich der response time und dem overshoot vom F Modell.

Auch das Video ist mir wohl bekannt. Nochmal, scheinbar bist du ein Neuling in Sachen Texte richtig lesen. An keiner Stelle habe ich behauptet das der F besser als der G wäre, beide haben ihre Vor- und Nachteie. Als reiner Gamingmonitor ist bestimmt der G besser. Für 99% der Menschen wird aber der F auch mehr als ausreichend sein. Bei dir wirkt es immer so als wäre der F ein absolut unbrauchbares Gerät, welches neben dem G überhaupt gar keine Daseinsberechtigung hat.


man kann beim monitorkauf auch ne wissenschaft draus machen. asus ist mit seinen tests schon extrem pingelig dabei. selbst die besten monitore kommen am ende eigentlich nur mittelmäßig davon.

was gibts denn neben nvidia überhaupt noch an wirklich brauchbaren grafikkartenherstellern? ^^ du meinst doch nicht amd, dessen karten irgendwo im mittelfeld rumgammeln und für solche auflösungen mit 100hz+ nicht im geringsten ausreichen.

ich habe die gsync variante und bin davon absolut begeistert. wer die f variante möchte, kann das gerne tun. der test hier ist allerdings quatsch, wie asus schon richtig erklärt hat. das f modell lohnt halt nur dann, wenns im verkauf auch günstiger ist als das g modell und man wirklich vorhat, keine nvidia karte einzusetzen. da beide geräte im absoluten luxus segment senieren, kommt es hier am ende auf den letzten hunni auch nicht mehr an.
Du, die Vega VII ist deutlich besser als ihr Ruf, wenn man gewillt ist etwas zu basteln und Zeit zu investieren. Auch glaube ich nicht, das AMD Karten die nächsten 4-5 Jahre im Mainstream unfähig für 3440x1440 oder 4K bleiben werden, so lang nutzen aber die meisten eben doch ihren Monitor. Mit dem Freesync Modell habe ich eben die Flexibilität meinen Hersteller frei zu wählen, ohne auf Adaptive Sync verzichten zu müssen. Besonders da ich auch OS X nutze war Nvidia einfach aktuell überhaupt keine Option.
Meinen 34GK950F habe ich für 749€ bei Amazon gekauft den 34GK950F hatte ich da, auch für 930€ gekauft. Wäre der G auch nur real spürbar besser gewesen und nicht nur in einem Bereich wo ich Unterschiede suchen muss, hätte ich diesen behalten. Ich komme von einem Acer XB270HU, also ist jetzt nicht so das mein Panel davor schlecht gewesen wäre oder so und eigentlich merkt man Verschlechterungen ja doch immer sehr direkt.
 
750€ bei amazon? wann war denn das fürn tag ?!

Unbenannt.JPG
 
Zuletzt bearbeitet:
Auch das Video ist mir wohl bekannt. Nochmal, scheinbar bist du ein Neuling in Sachen Texte richtig lesen. An keiner Stelle habe ich behauptet das der F besser als der G wäre, beide haben ihre Vor- und Nachteie. Als reiner Gamingmonitor ist bestimmt der G besser. Für 99% der Menschen wird aber der F auch mehr als ausreichend sein. Bei dir wirkt es immer so als wäre der F ein absolut unbrauchbares Gerät, welches neben dem G überhaupt gar keine Daseinsberechtigung hat.

Warum sollte man denn das F Modell kaufen, wenn es vielfach sogar noch deutlich teurer ist als das G-Modell (das G-Modell gab es (gebraucht) für 800 Euro vor ein paar Tagen bei Cyberport). 750 Euro bei Amazon ? Wie denn ? Als WHD mit Support bequatschen 20 % Rabatt oben drauf zu gewähren ?
 
Zuletzt bearbeitet:
750€ bei amazon? wann war denn das fürn tag ?!

Anhang anzeigen 467532

Warum sollte man denn das F Modell kaufen, wenn es vielfach sogar noch deutlich teurer ist als das G-Modell. 750 Euro bei Amazon ? Wie denn ? Als WHD mit Support bequatschen 20 % Rabatt oben drauf zu gewähren ?

Als Warehouse Deal ist korrekt, allerdings ohne das Support zu bequatschen. Eigentlich hatte ich keine Lust auf WHD, aber bei der anfänglichen Verfügbarkeit war es mir dann einen Versuch wert und bei dem Preis gab es wenig flasch zu machen. Das Angebot kann auch tatsächlich vor meinem Kauf maximal 15 Minuten online gewesen sein, da ich recht frequent aktualisiert habe.
Auf die Frage warum man das F-Modell kaufen sollte -> wie bereits erwähnt die Flexibilität seitens der GPU. Sollte G-Sync irgendwann mit AMD laufen sieht es schon wieder anders aus.
 
Über welchen Eingang hast du denn die 144Hz realisiert? Rein mathematisch können da keine 144fps über die Anschlüsse rein kommen :)
Rein theoretisch passt das noch.
Wäre aber auch stark an der maximalen Bandbreite.
 
Nen "Tabellendokument" was aber viel näher an der Realität ist als die meisten Testportale, die fast alles schön reden und viele Defizite verschweigen ;). Wenn ich jemand wäre, ohne dieses großen Überblick, über fast alle Gamingmonitore (WQHD aufwärts), würde ich über solch eine Tabelle sehr froh sein ;).
 
Zuletzt bearbeitet:
Was bringt mir so eine Tabelle wenn ich nichts über die Qualität der Quelle weiß. Man könnte dir auch unterstellen das du nen Hobbyist mit zuviel Zeit bist, der sich Monitore nach Hause bestellt und nach subjektiven Vorgaben Monitore testet.
 
@Chanks

Das Update reduziert nur den Inputlag. Nicht mehr ;). Die Schaltzeiten vom F Modell bleiben besch..... und der Overshoot ist massiv. Keine Ahnung warum das viele Neulinge immer durcheinander werfen.

Ich habe mal ein Video für Neulinge die nicht kapieren warum G-Sync Free-Sync massiv überlegen ist:

Look what we found in NVIDIAs Top Secret Gaming Monitor Lab - YouTube

Die gammeligen FS Monitore haben nur eine Overdrivestufe. G-Sync Monitore haben pro Hz eine neue, angepasste Overdrivestufe.
Das wird noch Jahrzehnte dauern, bis Leute das kapiert haben. Die G-Sync Steuer ist nunmal nicht nutzlos wie es alle immer behauptet haben.
Ich werde mir auch keinen Monitor ohne GSync mehr kaufen.
 
Was bringt mir so eine Tabelle wenn ich nichts über die Qualität der Quelle weiß. Man könnte dir auch unterstellen das du nen Hobbyist mit zuviel Zeit bist, der sich Monitore nach Hause bestellt und nach subjektiven Vorgaben Monitore testet.

Jeder der nur ein Fünkchen Ahnung hat, weiß das diese Tabelle sehr nah der Realität ist und sich sehr gut für die Auswahl von Monitoren eignet ;). Bei jemandem der keine Ahnung von Monitoren hat und jeden 0815 Monitor, trotz eklatanter Fehler, geil findet, würde diese Tabelle natürlich nicht besonders gut ankommen.
 
Wenn deine Fähigkeit Monitore objektiv zu beurteilen mit deiner Art "Argumente" vorzubringen etwas gemeinsam hat, kann ich gut und gerne verzichten.
 
Leider ist es bei Leuten, die bewusst rumtrollen, nicht anders möglich verbal zu reagieren. Man muss bei diesen Sachverhalte mit weniger Continence vermitteln, damit andere nicht auf das Getrolle reinfallen. Ich würde es auch begrüßen, wenn es Foren keine Trolle geben würde, dann würde es deutlich weniger dieser Situationen geben.

Es gibt genug Beispiele, wo Forenteilnehmer gegen allgemein anerkannten Tests, trotzdem behaupten dieser und jener Monitor, welcher deutlich schlechter bei Reaktionszeiten und Overshoot abgeschnitten hat, sei zum Gamen besser. Meistens haben diese jedoch nicht mal beide Monitore getestet.

Exemplarisch dafür steht dieser Thread, wo LG 34GK950F mit dem LG 34GK950G verglichen werden. Ich hatte beide Monitore hier und kann die Tests von tftcentral.co.uk absolut nachvollziehen. Die Schaltzeiten des F Modells liegen zum großen Teil weitab der für 144 Hz geforderten max. Schaltzeiten von 6,94 ms.

Dies spiegelt sich eklatant bei der Bewegtbilddarstellung wieder. Das G Modell verfehlt die für 120 Hz geforderten 8,33 ms, nur bei wenigen Übergängen und ist zum Gamen deutlich besser geeignet. Dazu muss man nur mal einen Shooter starten und beide gegeneinander testen. Ich habe zuerst das G Modell getestet und dann das F Modell, mir sind fast die Augen rausgefallen. So schlecht war das F Modell ggü. dem G Modell.
 
Zuletzt bearbeitet:
Hmm, interessantes Video.
Hab ich sofort wieder ausgeschaltet, weil sponsored by Nvidia.
Ist dann sehr objektiv das Ganze.
 
Das Video zeigt den Aufwand der bei G-Sync betrieben wird. Bei FS werden nur mal eben schnell die Paramter gesetzt und das wars und adaptive overdrive gibt es nicht. Dein XV272UP ist dafür das beste Beispiel. Eine absolut grausige Schlierenschleuder.
 
Achja, immer noch die gleiche Persönlichkeit.
Hauptsache versuchen anderen Leute ihre Sachen schlecht zu reden und nicht verstehen können, warum man manche Sachen kauft.
 
irgendwie dreht es sich im kreise. soll doch jeder kaufen was er für richtig hält. der suchende potentielle käufer muss am ende eh selber entscheiden, was er aus den informationen hier im test und aus den kommentare wie interpretieren möchte.
bei gleichen preis ist die g variante wohl die bessere wahl, bei günstigeren preis oder den kauf oder besitz einer amd grafikkarte könnte die f variante halt ggf. auch lohnend sein.
man muss da kein glaubenskrieg draus machen und der voll informierte wird auch differenzierter gucken, während der laie lieber eine pauschale antwort möchte. pauschale antworten haben die schwäche, das es immer irgendeine ausnahme gibt, wo die antwort dann nich richtig ist.
 
Nen "Tabellendokument" was aber viel näher an der Realität ist als die meisten Testportale, die fast alles schön reden und viele Defizite verschweigen ;). Wenn ich jemand wäre, ohne dieses großen Überblick, über fast alle Gamingmonitore (WQHD aufwärts), würde ich über solch eine Tabelle sehr froh sein ;).

Das wird noch Jahrzehnte dauern, bis Leute das kapiert haben. Die G-Sync Steuer ist nunmal nicht nutzlos wie es alle immer behauptet haben.
Ich werde mir auch keinen Monitor ohne GSync mehr kaufen.

Jeder der nur ein Fünkchen Ahnung hat, weiß das diese Tabelle sehr nah der Realität ist und sich sehr gut für die Auswahl von Monitoren eignet ;). Bei jemandem der keine Ahnung von Monitoren hat und jeden 0815 Monitor, trotz eklatanter Fehler, geil findet, würde diese Tabelle natürlich nicht besonders gut ankommen.

Leider ist es bei Leuten, die bewusst rumtrollen, nicht anders möglich verbal zu reagieren. Man muss bei diesen Sachverhalte mit weniger Continence vermitteln, damit andere nicht auf das Getrolle reinfallen. Ich würde es auch begrüßen, wenn es Foren keine Trolle geben würde, dann würde es deutlich weniger dieser Situationen geben.

Es gibt genug Beispiele, wo Forenteilnehmer gegen allgemein anerkannten Tests, trotzdem behaupten dieser und jener Monitor, welcher deutlich schlechter bei Reaktionszeiten und Overshoot abgeschnitten hat, sei zum Gamen besser. Meistens haben diese jedoch nicht mal beide Monitore getestet.

Exemplarisch dafür steht dieser Thread, wo LG 34GK950F mit dem LG 34GK950G verglichen werden. Ich hatte beide Monitore hier und kann die Tests von tftcentral.co.uk absolut nachvollziehen. Die Schaltzeiten des F Modells liegen zum großen Teil weitab der für 144 Hz geforderten max. Schaltzeiten von 6,94 ms.

Dies spiegelt sich eklatant bei der Bewegtbilddarstellung wieder. Das G Modell verfehlt die für 120 Hz geforderten 8,33 ms, nur bei wenigen Übergängen und ist zum Gamen deutlich besser geeignet. Dazu muss man nur mal einen Shooter starten und beide gegeneinander testen. Ich habe zuerst das G Modell getestet und dann das F Modell, mir sind fast die Augen rausgefallen. So schlecht war das F Modell ggü. dem G Modell.

Das Video zeigt den Aufwand der bei G-Sync betrieben wird. Bei FS werden nur mal eben schnell die Paramter gesetzt und das wars und adaptive overdrive gibt es nicht. Dein XV272UP ist dafür das beste Beispiel. Eine absolut grausige Schlierenschleuder.

OK, eigentlich wollte ich das Thema ruhen lassen, weil es einfach sinnlos ist. Aber diese Arroganz ist einfach zum kotzen.

Also nochmal, es wurde nirgendwo behauptet das G-Sync generell nutzlos oder der 34GK950G schlechter als der 34GK950F ist. Es geht lediglich um die Darstellung von Asus das der 34GK950F absolut schlecht ist und eine Schlierenschleuder. Ich meine mal sein Ruf eilt ihn nicht umsonst sogar bis Mydealz voraus.

Aber mal zu deiner großartigen Liste, ich finde es wirklich toll das du dir privat so eine Mühe gibst und helfen magst, aber von einem wissenschaftlichen Standpunkt ist deine Tabelle einfach nur wirklich schlecht.
Es gibt keine Testmethodik, es gibt keine Messwerte, sondern ausschließlich rein subjektive Schulnoten. Auch diese Schulnoten sind schon nicht nachvollziehbar. Es gibt keine Referenz, oder eine Erklärung was für welche Note erfüllt sein muss, noch gibt es irgendwie generell mal einen Monitor, der bei dir mit 1 abschneidet.
Um einen Vergleich zu führen braucht man auch ein Beispiel was alles richtig macht, nur weil dir Störfaktoren bei den Geräten auffallen bedeutet das nicht das diese direkt scheiße sind. Du kannst mir erzählen was du willst, aber anhand deiner Schreibe und auch Argumentation merkt man einfach das du ein Mensch bist, welcher fernab jeglichen akademischen Niveaus großgeworden ist (oder dies gut verstecken kann) und scheinbar einfach real zu wenig Anerkennung bekommt und dies nun online kompensieren musst. Real würde sich glaube ich kaum jemand Diskussionen auf diesem Niveau geben^^.
Du bist bestimmt generell kein schlechter Kerl, hast auch hier und da mehr Ahnung als der Durschnitt. Es ist jedoch sehr unprofessionell einer Person direkt Kompetenzen abzusprechen ("Neulinge") aufgrund einer anderen (subjektiven!!!) Meinung. Generell sind deine Beharrlichkeit bei der eigenen Meinung und Ignoranz gegenüber jeder anderen Meinung sehr bedenklich, das hat PayDay z.B. deutlich besser drauf als du.

Es ist normal das, wenn man bessere Qualität gewohnt ist sensibel gegenüber Verschlechterungen ist, jedoch sollte man sich auch seine eigene Position bewusst machen. Nicht alles was für dich ungenügend ist, ist auch für 99% der anderen User ungenügend. Nehmen wir mal ein Beispiel abseits der Monitore, Autos, ich finde Audi und VW wirklich zum kotzen, für mich wird es erst ab Mercedes oder BMW überhaupt ein Auto. Sind die Autos die ich als schlecht empfinde jetzt generell schlecht? Für mich ja, aber das bedeutet nicht, das sie somit auch für alle anderen schlecht/ungenügend sind.

Generell bist du übrigens der, der ständig gegen anerkannte Tests schießt, hier mal ein Zitat von TFTcentral zum 34GK950F: "At the maximum 'Faster' mode there was a more significant improvement in response times, now measured at 7.7ms G2G. In practice a lot of the blurring and smearing had been removed, and there was no real overshoot evident either which was good news. We would recommend using the 'Faster' response time setting and will do some more thorough testing in a moment."
Ja, der Monitor ist zu lahm für 144Hz, allerdings reichen bereits 8,3ms für 120Hz aus. Diese schafft auch der 34GK950F, bei deinem ganzen Fachwissen hattest du doch bestimmt auch die Idee das Panel mit 120Hz zu betreiben. Dies würde allein schon eine bessere Vergleichbarkeit zum 34GK950G schaffen, denn dessen Reaktionszeiten reichen auch nicht für 144Hz (genau wie die Inputs^^)
Was ist für dich eigentlich ein Troll? Für mich ist das jemand, der aktiv, abseits jeder belegbaren Grundlage seine Meinung, über die von anderen stellen muss und auch nicht nachgeben kann. Weiterhin erfreut er sich daran, wenn sich Leute über diese Äußerungen aufregen. Betrachten wir dein Verhalten auf anderen Plattformen so kommt man nicht umhin dir selbst eine gewissen Affinität zum Trollen zu unterstellen.
Nun wirst du sagen das du z.B. nicht auf MyDealz bist und nichts mit den anderen dir zugeschriebenen Accounts zu tun hast, aber sowohl deine Rechtschreibung, genereller Schreibstil sowie die Art der Argumentation sind bei dir unverwechselbar (zufällig haben diese Personen auch alle noch den gleichen Wohnort^^).
 
Die Liste deckt sich auch mit Testergebnissen von professionellen Testportalen wie z.B. tfcentral.co.uk oder auch pcmonitors ;).

Das du keine Ahnung hast siehst du schon an deiner Interpretation der Messwerte von tftcentral. Die g2g response times sind gemittelt, es gibt aber leider beim F Modell etliche Ausreißer die leider absoluter Abfall sind, sprich weit die für 144 Hz erforderlichen Reaktionszeiten überschreiten ;). Abgesehen davon ist die bei 144 Hz angewandte Overdrivestufe nicht für die restlichen Bildwiederholfrequenzen innerhalb der FS Range repräsentativ ;). Ein Betreiben mit 120 Hz nützt beim F Modell auch nicht viel. Das starke Geschliere gegenüber dem G Modell bleibt.

Für mich ist ein Troll, jemand der unbelehrbar ist und trotz zig facher Widerlegung seiner Ansichten, weiterhin darauf beharrt Recht zu haben und stetig mit seinem Unfug bewusst provozieren will.
 
Zuletzt bearbeitet:
Die Liste deckt sich auch mit Testergebnissen von professionellen Testportalen wie z.B. tfcentral.co.uk oder auch pcmonitors ;).

Das du keine Ahnung hast siehst du schon an deiner Interpretation der Messwerte von tftcentral. Die g2g response times sind gemittelt, es gibt aber leider beim F Modell etliche Ausreißer die leider absoluter Abfall sind, sprich weit die für 144 Hz erforderlichen Reaktionszeiten überschreiten ;). Abgesehen davon ist die bei 144 Hz angewandte Overdrivestufe nicht für die restlichen Bildwiederholfrequenzen innerhalb der FS Range repräsentativ ;). Ein Betreiben mit 120 Hz nützt beim F Modell auch nicht viel. Das starke Geschliere gegenüber dem G Modell bleibt.

Für mich ist ein Troll, jemand der unbelehrbar ist und trotz zig facher Widerlegung seiner Ansichten, weiterhin darauf beharrt Recht zu haben und stetig mit seinem Unfug bewusst provozieren will.

Mhm, wirkliche Unterschiede sehe ich eigentlich nur bei 50->150, 150->50, 255->50. Allerdings gibt es auch Bereiche wo der 34GK950G langsamer als der 34GK950F ist. Und ja, im Durschnitt ist der 34GK950F sogar unerheblich schneller als der G, da dort das Faster Setting aufgrund des Overshoot quasi nicht nutzbar ist. Aber du kannst mit bestimmt fachlich erklären warum der 34GK950F abseits des Adaptive Overdrive trotzdem besser als der F ist :) Ich spiele nämlich nicht bei unter 70 FPS :)

Edit.: Das meine ich übrigens mit Behauptungen ohne Belege. Ich zeige dir ein Zitat von tdtcentral, was für meine Aussage spricht, du gehst darauf nicht ein und stellst einfach wieder Behauptungen auf. Ich nenne konkrete Punkte auf die ich mich aus dem Review beziehe, von dir kommt wieder allgemeines, persönliches Gebrappel. Daran merkt man echt dein massives Defizit beim Argumentieren und wissenschaftlichen Arbeiten (falls du damit mal zutun hattest :rofl:)

Edit. Edit.: Na guck, beim Troll sind wir uns doch einig :) Wie hebst du dich denn deiner Meinung nach von diesem ab? ;)
 
Zuletzt bearbeitet:
Gucke dir die Werte noch mal genau an und überdenke deine Aussagen:

LG 34GK950G vs. F.jpg

Das Zitat bezieht sich auf einen Mittelwert ;). Habe ich dir schon im letzten Post mitgeteilt. Mein "persönliches Gebrabbel" hat aber Hand und Fuß im Gegensatz zu deinen Neulingsinterpretationen und Aufgreifen von bestimmten Sätzen ohne den Inhalt zu verstehen ;).
 
Zuletzt bearbeitet:
Gucke dir die Werte noch mal genau an und überdenke deine Aussagen:

Anhang anzeigen 467568

Das Zitat bezieht sich auf einen Mittelwert ;). Habe ich dir schon im letzten Post mitgeteilt. Mein "persönliches Gebrabbel" hat aber Hand und Fuß im Gegensatz zu deinen Neulingsinterpretationen und Aufgreifen von bestimmten Sätzen ohne den Inhalt zu verstehen ;).

Dann belehre mich als Neuling doch mal mit konkreten Messwerten welche das Problem darstellen, die Bilder kann ich mir selbst raus suchen. Übrigens niemals die Quelle solcher Bilder vergessen, da sind manche schon böse auf die Nase gefallen. Und hier mal ein genereller Tipp für dich, damit dein Gebrappel Neulingen auch wirklich helfen kann: Wie schreibe ich eine Argumentation?

Ich sehe 14 kritische Schaltvorgänge auf Seiten des F und lediglich 5 auf Seiten des G. Das spricht im Ansatz erstmal für deine Aussage. Jedoch ist auch der G nicht Fehlerfrei. Du stellst es so hin als gäbe es beim G kein Smearing, dem ist aber offensichtich nicht so. Auch ist es beim F einfach nicht so das er nur am schmieren ist...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh