Freesync auf Nvidia Karten: Lohnt sich noch der Ultragear 34GK950G ..

Omg, bitte erspare dir diese Behauptungen.

Ob 900 oder knappe 1000:1 der Unterschied ist nicht der Redet wert, beides crap.

10 Bit hat die F Version auch nicht sondern nur 8 Bit + FRC, also auch crap colorbanding.

G-Version teurer aber auch viel besser. Siehe Übergänge die das refreshwindow von 120/144 Hz erfüllen.

G-Sync Modell erfüllen 25 / 30 Übergänge @ 120 Hz die Anforderungen des Zeitfensters.

Beim FS Modell nur 13/30 Übergänge @ 144 Hz und 15/30 @ 120 Hz ;).

Performer einfach mal die Schnute halten, wenn man keine Ahnung hat worüber man gerade quatscht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Unterschied von G to F ist minimal, das sieht man kaum:

Vergleich LG 34GK950G vs. F contrast ratio.jpg

TN sieht nicht nur schlechter aus wegen dem geringen Kontrast sondern wegen der missratenden Blickwinkelstabilität.
 
Der Acer Z35 ? Der Z35P ist nicht der Z35, du hast einfach keinen Plan von Monitoren und blubberst den ganzen Tag nur Bullshit. Wie kommst du einmal auf den. Das Ding hat massive Probleme mit Overshoot. So schnell wie TN sind die Monitore nicht, aber trotzdem noch sehr gut fürs Gaming geeignet:

Z35P vs. GB2760.jpg
 
Zuletzt bearbeitet:
Ne, die F Version nicht.

Z35P vs. 34GK950F.jpg

Performer, du solltest langsam gemerkt haben das du bei Monitoren nicht mitreden kannst.
 
Zuletzt bearbeitet:
Z35 ? Noch mal für performer, Z35 ist ein uralter WFHD AMVA Monitor, der Z35P hat ein UWQHD viel neueres AMVA Panel ;).

Du bist nicht in der Lage zu verstehen was ein refreshwindow ist. Peinlich.
 
Zuletzt bearbeitet:
Das was ich gut finde ist auch das beste was es aktuell gibt, wenn man möglichst störungsfrei zocken will.
 
Doch anhand von meiner Erfahrungen tue ich das. Du hingegen redest häufig über Monitore die du noch nie gehabt hast. Außer deinem Steinzeit Y27G hast du persönlich nicht viel getestet.

Dich nimmt hier sowie so niemand für voll, wenn du meinst etwas über Monitore zu wissen.
 
Jeder LCD Monitor am Markt ist nur Kompromiss und es gibt unterschiedliche persönliche Präferenzen. Der Sinn eines Forums ist es nicht Anderen das aufzudrängen,
was man selbst gut findet oder sogar das Andere schlecht zu reden sondern herauszufinden, was dem Anderen am besten gefallen würde. Das musst du noch lernen.
Gut dass du trotzdem versuchst jemandem einzureden er bräuchte sich keinen 144hz Monitor zu kaufen wenn er aktuell nur max 70fps hat...
Wer im Glashaus sitzt ...
 
Genau, so etwas zum Beispiel. Einfach nur absurd. Denn es gibt immer Spiele wo man auch mit schlechteren Grafikkarten über 100 FPS oder gar 144 FPS schafft.
 
Nie in der Lage, es gibt auch anspruchslosere Multiplayergames bei denen man auch ohne Top-Hardware viel FPS schafft, deswegen ist dein tägliches Geblubber vollkommen fehl am Platz.
 
Wenn jemand nicht viel Geld ausgeben möchte, nur eine Mittelklasse Grafikkarte hat, in seinen Spielen nie über 70FPS kommt
und ein 144Hz Monitor durch Adaptive Sync bei 70FPS nur mit 70Hz läuft, welchen Sinn hätte dann die Investition in 144Hz ?
Kaufst du in anderen Lebenslagen auch Dinge von denen du kein Nutzen hast ? Das nennt sich Persönliche Präferenzen. ;)

Ach stimmt, und mit der nächsten GPU hole ich mir dann wieder einen neuen Bildschirm. stimmt ja...
 
Guck dich doch an. Du spielst auch nur alte kamellen damit du dsr nutzen kannst. Hast aber wahrscheinlich selbst nie 144fps. Oder die spiele sind so uralt dass du die doch irgendwie zusammen bekommst.
 
Jetzt hast du es aber performer gegeben, der Spam lässt länger als üblich auf sich warten :).
 
Du erzählst ja hier den gleichen "Wenn man immer nur max 75fps hat" Blödsinn wie auch im anderen Forum.
Weil ja Leute auch immer nur ein Spiel spielen und keiner mit den Reglern im Spiel umgehen kann.
Und was der, der bei deinem verlinkten 75Hz Monitor unter 48fps fällt, muss er dann wieder mit tearing leben?
Oder sollte man beim Monitor auch mal lieber mehr Geld ausgeben und sich weniger Sorgen machen?
Besorg dir erstmal nen ordentlichen Monitor, dann verstehst vielelicht auch mal, warum andere Leute mehr Geld für einen Monitor ausgeben.
 
Oder er stellt die Grafik einfach runter? Oder spielt CSGO?

Die Leistungsansprüche schwanken doch je nach Spiel massiv.
 
Kapiert performer nicht. Kannst du so oft versuchen zu vermitteln, kommt immer der gleiche copy paste Dung.
 
Vergiss es einfach, du wirst es nie verstehen.
Zudem gibt es keine WQHD 240Hz Monitore.

Um es mal ganz einfach zu sagen, nicht das Spiel gibt dir die fps vor.
Du selber bestimmst was deine Ansprüche sind und danach kauft du deine Hardware und stellst die Regler so ein, dass du dein Ziel möglichst erreichst.
 
Zuletzt bearbeitet von einem Moderator:
Weil 75FPS auf 144Hz trotzdem besser ist als 75/75.

Allein die direktheit ist besser.

Ein 75Hz Monitor kaufen weil man nur 75FPS schafft ist einfach bullshit.
 
Performer, noch mal für ganz Begrenzte, weil es auch Spiele gibt wo man 100 - 144 FPS oder zumindestens mehr als 75 FPS erreicht.
 
Selbst da hat man in Overwatch und CSGO mehr als 75FPS ;) Letzteres ist mit das beliebteste Spiel auf Twitch.
 
Was ne sinnlose Diskussion.
in erster linie muss jeder selber wissen was ihm wichtig ist und was er erwartet.
Ich habe 3 Monitore und jeder hat seine Vor und nachteile.

Früher habe ich immer drauf geachtet das der Monitor möglichst schnell ist aber als ich dann mal einen IPS Glossy Monitor gesehen habe hat sich das Blatt total gewendet und mein Letzter Monitor ist nun der Philips Momentum 43" 4K HDR Monitor welcher einfach ein Mega Bild macht aber eben auch nur max 60Hz liefert.
Mein 1080p Monitor mit 144Hz ist zwar super schnell aber dafür ist der kontrast einfach so schlecht das ich da keine lust drauf habe.
Selbst mein 1440p Monitor@ S-IPS 100Hz welcher super gut ist macht mir einfach nicht so viel freude wie der 4K HDR Monitor.

Was Freesync/G Sync angeht da finde ich das es optisch halt super gut aussieht aber man spürt eben das man dann weniger FPS/Hz hat beim zielen weil dann die Maus anders reagiert.

wie hier schon gesagt 75FPS@ 144Hz ist von der Maus direkter als 75FPS@75Hz

Mein Kumpel z.B. hat sich so sehr an seinen 165Hz Monitor gewöhnt das er sich die 60Hz dinger garnicht mehr antun kann.
Kann ich auch absolut nachvollziehen weil wenn man immer mit 165Hz/FPS zockt dann sieht 60Hz wie eine Diashow aus
 
Zuletzt bearbeitet:
Warum sollten dann Leute die in ihren Spielen nicht über 75FPS kommen (was ihnen aber ausreicht), unnötig Geld für 144Hz ausgeben ?
Dann läuft der 144Hz Monitor durch Adaptive Sync bei 50-75FPS mit 50-75Hz und ein 75Hz Monitor reicht für den eigenen Anspruch aus.
Oh man, das ist wie mit einer Hauswand zu reden.
Egal was man schreibt, du drehst es dir immer wieder so hin, dass es dir gerade passt.
Wahrscheinlich redest du dir so selber ein, dass dein FHD Monitor eine bessere Bildqualität hat als ein UHD Monitor.
Nur so nebenbei, auch mit adaptive sync läuft der eigentliche Bildaufbau bei einem 144Hz Monitor weiterhin in 6,94ms ab, auch bei 75fps.
 
Jetzt weiss ich warum eine Diskussion mir die unmöglich ist, du kannst einfach nicht lesen.
Zudem scheinst du immer noch nicht zu verstehen, wie adaptive Sync funktioniert.
 
@JoM79

Einfach auf ignore und gut ist. Du kannst performer alles x-fach erklären, es nützt nichts.

1. Weil er von seinen Statements nicht abrücken will

2. Weil er keinen Vergleich außerhalb seines fehlerhaften Y27G (bei dem nicht mal G-Sync ohne Geflacker funktioniert => deswegen der permanente G-Sync Hate) zu anderen Monitoren hat

3. Weil er keinen neuen Informationen zugänglich ist

4. Wenn er merkt das er Bullshit labert, sofort unter die Gürtellinie schießt => unbelehrbar
 
Standard Freesync auf Nvidia Karten: Lohnt sich noch der Ultragear 34GK950G ..

..nur um euch allen nochmal den Titel dieses Threads in Erinnerung zu rufen.

Ich für mich habe diesen Punkt bereits geklärt:

Hatte dieses Wochenende jetzt noch die G-Sync (Bildschirm 1) Variante parallel neben der F-Sync Variante Bildschirm (2) stehen und am laufen.
Beide waren zugleich an der RTX TI angeschlossen.
Folgende Applikatonen und Spiele liefen und wurden bei "alles rechts" jeweils auf dem einen und auf dem anderen Bildschirm getestet:

Adobe Premiere
Adobe Photoshop Elements
Citrix Workspace ;)
Netflix
AC-Origins (ca. 100 Frames die Sekunde plus minus 10)
Metro Exodus (70 bis 110 Frames - je nach Szene und Gebiet. Einstellungen Ultra, what else!)
CIV 6 (144 Frames bzw. 120 Frames )
Vermintide 2 (144 bzw. 120)
Fortnite (144 bzw. 120 - vom Sohnemann getestet :) )

MEIN bzw. UNSER Fazit: die F-Sync Variante produziert in jeglicher Hinsicht und in allen Applikationen das bessere Bild! (Ich habe auch meine bessere Hälfte und meinen Sohnemann - auch beide Nichtexperten - das Bild beurteilen lassen. Auch sie beide kamen einstimmig zum Urteil die F-Sync Variante produziere das "bessere und ruhigere" Bild! Und bei Ihnen beiden weiß ich dass sie kein Geld von Nvidia bekommen um für die G-Sync Variante Werbung zu machen ;) )
ICH konnte beim Framesync keinen Unterschied zwischen F-Sync und G-Sync feststellen. In meinen Augen sind beide gleich gut!
ICH bzw. wir konnten kein "Geschliere" oder mit was auch sonst immer hier herumgworfen wird feststellen. Weder auf dem einen noch auf dem anderen Bildschirm.
Die F-Sync Variante bietet in MEINEN(!) Augen definitiv mehr "Bang for the Bucks"!
Die G-Sync Variante geht morgen wieder zurück!
G-Sync ist tot!

Vielleicht noch erwähnenswert und interessant für den einen oder anderen da draußen: ein paralleler Betrieb beider Bildschirme mit unterschiedlichen Frequenzen war bei mir ohne Probleme möglich.

So ganz nebenbei ein kleiner Hinweis für alle "Nicht-Experten" da draußen: Hört weniger auf die "Experten" hier im Forum und probiert die Bildschirme selber aus ;)!
 
Zuletzt bearbeitet:
Standard Freesync auf Nvidia Karten: Lohnt sich noch der Ultragear 34GK950G ..

So ganz nebenbei ein kleiner Hinweis für alle "Nicht-Experten" da draußen: [...] probiert die Bildschirme selber aus ;)!

Würd ich ja liebend gern, wenn man die F-Variante bestellen könnte. Scheint aber grad nirgens bestellbar zu sein :shake: Würd das vor allem gerne machen, so lange ich meinen X34P noch zurückgeben kann. Der gefällt mir zwar, aber so richtig glücklich macht er mich auch irgendwie nicht.
 
Zuletzt bearbeitet:
@ArminL

Lol. Dann hast du wohl ein Problem mit den Augen. Das Teil produziert massiv Ghosting und Overshoot.

Siehe auch hier.

Ist ja auch normal da das Overdrive nur auf 144 Hz optimiert wurde und keinerlei adaptive overdrive hat. Sprich das Overdrive für 144 Hz wird für die gesamte FS Range angewendet.

Bei G-Sync gibt es für jede Wiederholfrequenz innerhalb der Range eine eigene Overdrivestufe, deswegen ist G-Sync immer noch die erste Wahl. Verstehen aber Neulinge nicht.



So ganz nebenbei ein kleiner Hinweis für alle "Nicht-Experten" da draußen: Hört weniger auf die "Experten" hier im Forum und probiert die Bildschirme selber aus ;)!

Hört lieber auf Experten als irgendwelche Neulinge, die nicht mal die Monitore korrekt einordnen können.

@ prayer

Würde auf keinen Fall den X34P zurückgeben. Die F Variante hat zu schlechte Schaltzeiten für 120/144 Hz. Die Bildqualität ist auch kaum besser beim LG 34GK950F.
 
Zuletzt bearbeitet:
Standard Freesync auf Nvidia Karten: Lohnt sich noch der Ultragear 34GK950G ..

..nur um euch allen nochmal den Titel dieses Threads in Erinnerung zu rufen.

Ich für mich habe diesen Punkt bereits geklärt:

Hatte dieses Wochenende jetzt noch die G-Sync (Bildschirm 1) Variante parallel neben der F-Sync Variante Bildschirm (2) stehen und am laufen.
Beide waren zugleich an der RTX TI angeschlossen.
Folgende Applikatonen und Spiele liefen und wurden bei "alles rechts" jeweils auf dem einen und auf dem anderen Bildschirm getestet:

Adobe Premiere
Adobe Photoshop Elements
Citrix Workspace ;)
Netflix
AC-Origins (ca. 100 Frames die Sekunde plus minus 10)
Metro Exodus (70 bis 110 Frames - je nach Szene und Gebiet. Einstellungen Ultra, what else!)
CIV 6 (144 Frames bzw. 120 Frames )
Vermintide 2 (144 bzw. 120)
Fortnite (144 bzw. 120 - vom Sohnemann getestet :) )

MEIN bzw. UNSER Fazit: die F-Sync Variante produziert in jeglicher Hinsicht und in allen Applikationen das bessere Bild! (Ich habe auch meine bessere Hälfte und meinen Sohnemann - auch beide Nichtexperten - das Bild beurteilen lassen. Auch sie beide kamen einstimmig zum Urteil die F-Sync Variante produziere das "bessere und ruhigere" Bild! Und bei Ihnen beiden weiß ich dass sie kein Geld von Nvidia bekommen um für die G-Sync Variante Werbung zu machen ;) )
ICH konnte beim Framesync keinen Unterschied zwischen F-Sync und G-Sync feststellen. In meinen Augen sind beide gleich gut!
ICH bzw. wir konnten kein "Geschliere" oder mit was auch sonst immer hier herumgworfen wird feststellen. Weder auf dem einen noch auf dem anderen Bildschirm.
Die F-Sync Variante bietet in MEINEN(!) Augen definitiv mehr "Bang for the Bucks"!
Die G-Sync Variante geht morgen wieder zurück!
G-Sync ist tot!

Vielleicht noch erwähnenswert und interessant für den einen oder anderen da draußen: ein paralleler Betrieb beider Bildschirme mit unterschiedlichen Frequenzen war bei mir ohne Probleme möglich.

So ganz nebenbei ein kleiner Hinweis für alle "Nicht-Experten" da draußen: Hört weniger auf die "Experten" hier im Forum und probiert die Bildschirme selber aus ;)!

danke fuer das feedback !
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh