Tearing, Input-Lag und Ruckler adé dank NVIDIA G-SYNC (Update)

24 fps sehen aber auf 24 Hz bestimmt besser aus als auf 60 Hz. Dass 24 fps den meisten zu wenig für ein flüssiges Spielgefühl ist, ist eine andere Sache. Ein Fortschritt ist es trotzdem. Ob der einem die zusätzliche Investition wert ist, kann man ja frei entscheiden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Spiel mal bei 24Hz und erzähl mir das das flüssig ist :wink:
Da brauch ich kein G-Sync, der das Tearing verhindert. Das ruckeln stört mindestens genau so, eher mehr als das nicht zerhackstückelte Bild...

Was bringt das jetzt, so zu übertreiben? Von 24 fps spricht doch keiner, sondern z.B. von 40-60. Meine Güte...Videos überhaupt mal angeschaut? Das, was man dort sieht, widerspricht deiner Behauptung, "es ändert am Ruckelfeeling doch nix" ziemlich deutlich.
 
Zuletzt bearbeitet:
Irgendwie habe ich immer den Eindruck, alles was NV macht muss primär gut sein... :fresse:
Denn jedesmal wenn man was dagegen sagt, wird man hier angepflaumt.

Ich kritisiere nur die Diskussion, nicht dich als Person. Ich versuche sachlich zu bleiben und würde mir das auch von dir wünschen.

Das ist überhaupt nicht böse oder herablassend gemeint, aber du hast das ganze halt wie mir scheint nicht ganz verstanden. Das ist selbstverständlich nichts schlimmes oder etwas was man jemand anderem vorwerfen könnte, warum auch, nur macht mir mittlerweile die Diskussion keinen Spaß mehr weil du offenbar unbedingt recht haben willst. Ich muss jedes mal eine riesige, teils vom Thema abschweifende, Textwand lesen um dann ernüchtert festzustellen, dass wir uns doch nur wieder im Kreis drehen. Es wäre schön könntest du dich einfach, präzise, themenbezogen ausdrücken.
So vergeht mir halt die Lust, ich meine was soll z.B. dieser Mist mit 4K bei 120 Hz? Was hat das mit G-Sync zu tun? Das ist eine Limitierung von Displayport und hat nichts mit G-Sync zu tun. Und dann muss ich mich x-mal wiederholen, ich habe nun schon mehrfach dargelegt, weshalb es für alle Frameraten einen Vorteil darstellt und z.B. auch die von dir eingebrachten 50 FPS flüssiger macht. Stattdessen wird permanent darauf rumgeritten, dass 24 FPS rucklig bleiben. Ja, und? Hat jemand gesagt, dass das dann butterweich läuft? Hat Nvidia das versprochen? Geht es überhaupt um diese Extreme? Nein.
 
Ich finds super.
Der Ansatz, das Prinzip ist absolut richtig: Der Monitor passt seine Frequenz an die Framerate der Grafikkarte an und nicht andersrum.
So sollte es sein. Der einzige Grund warum wir feste Hz Zahlen am Monitor vorschreiben während die Frames der Grafikkarte der offensichtliche dynamische Faktor ist, ist die historischen Abstammung der ganzen Technologie von den Röhrenmonitoren. Rein technisch ist das heute nicht mehr sinnvoll.
Man spielt einen Film mit 24 Frames ab? Monitor gibt dir 24Hz. Dein Spiel schwankt zwischen 30 und 90 FPS? Der Monitor schwankt mit zwischen 30 und 90 Hz.

Probleme sehe ich auch jede Menge und das oben beschriebene Ideal ist mit GSync vlt auch nicht erreichbar, aber die Richtung stimmt schonmal.
 
Zuletzt bearbeitet:
G-Sync und zukünftige Techniken sind doch die Lösung für das Problem: Der Monitor wird nun Sklave der GPU und nicht andersrum.

Das 33FPS sich schlechter anfühlen als 66FPS, sollte wohl jedem klar sein. Aber das wiederrum ist ein Resultat aus aus der Tatsache, bei 66FPS eben zweimal soviele Frames erstellt und angezeigt werden. Und bestimmt kein Nachteil der Technik von G-Sync und co.
 
Stattdessen wird permanent darauf rumgeritten, dass 24 FPS rucklig bleiben. Ja, und? Hat jemand gesagt, dass das dann butterweich läuft? Hat Nvidia das versprochen? Geht es überhaupt um diese Extreme? Nein.

Die 24 FPS sind ein Beispiel. Da kann auch 33, 37 oder 46 stehen oder sonstwede andere Zahlen. Subjektives Rückelgefühl setzt doch sowieso bei jedem anders ein. Und der Trend geht eher zu mehr als weniger Hz/FPS.

Zum anderen dann ist aber der Mehrwert auch weg...
Wie du selbst oben aufgezeigt hast -> Post 56.
Die Frames kommen gleich mäßig, ja, aber es ist immernoch nicht flüssig...
Das Tearing mag ebenso weg sein... Aber das gleiche Ergebnis bekomme ich stand heute mit VSync hin, oder etwa nicht!?

Was bringt das jetzt, so zu übertreiben? Von 24 fps spricht doch keiner, sondern z.B. von 40-60. Meine Güte...Videos überhaupt mal angeschaut? Das, was man dort sieht, widerspricht deiner Behauptung, "es ändert am Ruckelfeeling doch nix" ziemlich deutlich.

24 war ein Beispiel. Nimm halt andere Werte...
Das gleiche Ergebnis erreichst du VSync... Und das kostenfrei ohne Zusatzhardware.
Bleibt unterm Strich, ob die Flexibilität hier durch G-Sync die Kosten aufwiegt!? Für mich persönlich nicht :wink:
 
Du schreibst ein Quatsch, das ist unglaublich. Wie bei Kepler. Du scheinst nicht über das technische Verständnis zu verfügen vernünftige Aussagen zu treffen.

Ich meine, wenn du wirklich nicht den Unterschied zwischen 50-G-Sync und 30-V-Sync-FPS verstehst, dann solltest du nach den Anmerkungen der anderen einfach nichts schreiben.
 
24 war ein Beispiel. Nimm halt andere Werte...
Das gleiche Ergebnis erreichst du VSync... Und das kostenfrei ohne Zusatzhardware.
Bleibt unterm Strich, ob die Flexibilität hier durch G-Sync die Kosten aufwiegt!? Für mich persönlich nicht :wink:

Man muss sich aber schon fragen, warum du gerade dieses Extrembeispiel gewählt hast...das ist wie wenn ich hergehe und sage SLI/CF ist scheiße, weil es bei 25 fps unspielbar ruckelt. Macht doch auch keinen Sinn.
Und nein, das gleiche Ergebnis erreichst du NICHT mit VSync - zum dritten Mal: Videos angeschaut? Ich erkenne ganz deutlich das Stottern auf der linken Seite trotz VSync bei 40 und 50 fps. Bevor du hier weiterdiskutierst, solltest du dir vielleicht erstmal alle Informationen reinziehen, und dazu gehören auch die Videos.
 
Zuletzt bearbeitet:
@sontin und box
bitte nochmal lesen was ich schrieb.
Es spricht niemand von 30 FPS im VSync vs. 50 im G-Sync. Wenn dann bitte gleich mit gleich gegenüberstellen!

Ich sagte, bei unter 60 FPS setzt ein Ruckelgefühl ein, das G-Sync nicht verhindern kann.
Und ich sagte ebenso, will ich das verhindern, brauch ich mehr FPS auf dem Schirm. Beispielsweise min 60. Das heist auch, ich kann bei 60 FPS und 60 Hz VSync aktivieren. WO ist jetzt der Vorteil von G-Sync?
Das gleiche geht zweifelsfrei auch bei mehr oder weniger FPS/Hz stand heute. Ich kann 50Hz/50 FPS im VSync betreiben, genau so wie man oftmals mit 120Hz+ Monitoren eben 70, 75 usw. Hz/FPS fixen kann...
Das was hinten über bleibt ist der Mehraufwand in Kosten und Hardware und die Flexibilität das G-Sync nicht gefixte FPS/Hz Raten vorraus setzt...
 
Zuletzt bearbeitet:
Kannst du das bitte auch begründen? Bei 40 oder 50 fps ruckelt nichts, wenn die fps perfekt ausgegeben werden synchronisiert mit der Anzeige. Meinst du vielleicht Inputlag - der ist natürlich umso größer, umso geringer die fps sind. Das ist aber nun nicht wirklich das Thema, zumal das auch arg subjektiv ist.

Und was machst du mit deinen 50Hz/50 fps im VSync, wenn die fps mal niedriger sind oder höher sein könnten? Im ersten Fall ruckelt es wieder und im zweiten Fall verschenkst du Potential.

4. Video angeschaut?
 
@sontin und box
Ich sagte, bei unter 60 FPS setzt ein Ruckelgefühl ein, das G-Sync nicht verhindern kann.
Und ich sagte ebenso, will ich das verhindern, brauch ich mehr FPS auf dem Schirm. Beispielsweise min 60. Das heist auch, ich kann bei 60 FPS und 60 Hz VSync aktivieren. WO ist jetzt der Vorteil von G-Sync?

Ganz einfach: Es ist eine generelle Lösung.

GSync funktioniert in der Theorie immer (generischer Ansatz): Alle Frameraten, alle Auflösungen, alle Bildqualitäten.
Deine Lösung funktioniert nur wenn man eine stabile minimale Framerate hinbekommt, die auch vom Monitor unterstützt wird.
D.h. du must alle oben genannten Punkte daran anpassen und darauf ausrichten, zwingend 59 ,60, 75 oder 120 FPS hinzubekommen. Das heißt für jeden Einzelfall (Spiel) eine eigene Lösung entwickeln.
 
Zuletzt bearbeitet:
Was soll ich da begründen!?
Du verlangst was von mir, was ich nicht belegen kann...

Aber das da was ruckelt, steht doch zweifelsfrei außer Frage!? ;)
Das Extrembeispiel habe ich oben gebracht... 24Hz. Auch Syncron ruckelt das. Da sind wir uns wohl einig... Um so höher die FPS Rate (von mir aus auch Syncron zur Hz) desto weniger stark fällt das auf... Ab wann die Unterschiede so gering werden, das es nicht mehr auffällt!? Definiert wohl jeder anders. Ich kann also auch schlecht was belegen, was subjektiv ist...
Fakt ist aber, bei schnellen Bewegungen helfen mehr FPS ungemein... So scheinen zumindest aus meiner Sicht schnelle Shooter weit mehr anfällig auf Ruckler zu sein, als langsame und gemächliche Strategietitel.

PS: nein ich meine nicht Inputlag. Und ja, ich hab die Videos gesehen ;)

Zu den 50 FPS/50 Hz... Ja das ist das Problem. Aber das sagte ich doch!? Warum muss ich immer alles doppelt und x fach sagen!? Und mir dann noch vorwerfen lassen, die Beiträge währen zu lang!?
Die Flexibilität fehlt bei der Methode zweifelsfrei... Dafür kost es auch nix ;) und geht imho ohne Zusatzhardware oder speziellen Monitor.
Ob es einem das wert ist!? -> mir stand heute nicht. Da lieber Geld in 4k und/oder 120Hz investieren... Da sehe ich persönlich einen deutlicheren Mehrwert.

Ganz einfach: Es ist eine generelle Lösung.

Schön und gut, aber auch das schrieb ich schon... Stichwort Flexibilität :wink:
DAFÜR kostet es aber auch nix!
 
Zuletzt bearbeitet:
Ich finde den Ansatz von Nvidia ehrlichgesagt super, allerdings treten da schon eine Probleme auf und auch Fragen nach dem Sinn.

Denn die Tatsache dass das ganze nicht ganz billig ist, Herstellergebunden, Monitorgebunden ( Displayport), macht das leider schonmal ziemlich uninteressant, wenn ich mit 60 FPS und Adaptivem V-sync im Grunde das selbe erreiche, natürlich halbieren sich die FPS, wenn ich unter 60 FPS falle, bzw habe wegen dem Wegfall von V-sanc ab und zu mal Tearing, je nach Spiel.

Eigentlich dürfte es sich nur lohnen, wenn ich primär kein V-sync einstellen kann oder habe ich da einen Denkfehler? Denn bei mehr als 60 FPs, oder meinetwegen bei 144FPS oder bei 120 Hertz Schirmen, fallen Inputlag etc... für den Gamer sowieso weg, weil nicht bemerkbar.

Der Ansatz, dass ein Bildschirm sofort mit der eigentlichen FPS/Hertz zahl die Bilder ausgibt, ist ja toll, aber was bleibt da in der Praxis übrig?

Sontin schrieb:
Du schreibst ein Quatsch, das ist unglaublich. Wie bei Kepler. Du scheinst nicht über das technische Verständnis zu verfügen vernünftige Aussagen zu treffen.

Halte dich doch mal ein bisschen zurück. Du flamest generell nur gegenüber AMD und redest jede Entwicklung dort schlecht, also muss du auch selbst mit etwas Kritik umgehen können und Personen ertragen die nichta alles von Nvidia als den heiligen Gral ausweisen.

Ich sehe hier nur eine kleine Zielgruppe die das kaufen soll.
Wen überhaupt dann muss Nvidia das ganze im Bundle anbieten.
 
Zuletzt bearbeitet:
fdsonne:

Du kannst doch nicht einfach irgendwas behaupten ohne es zu begründen, so führt man keine anständige Diskussion.
Du gehst her und behauptest erstmal pauschal, dass bei unter 60 fps ein Ruckelgefühl eintritt. Jetzt ruderst du zurück und sagst, es ist subjektiv. Na immerhin etwas Einsicht.
Weiterhin hast du G-Sync noch nicht ausprobiert - wie kannst du bitte schön wissen, dass es damit nicht besser wird? Du propagierst ja schließlich später deine Methode mit den fixen Hz, 50 im Beispiel. Warum denn, wenn 50 (synchron oder asynchron) generell zu wenig sind laut dir? Entweder hü oder hott, beides geht nicht.

Über die Sinnhaftigkeit von 4k habe ich mich ja schon öfters ausgelassen - so weit sind wir noch lange nicht von der GPU-Leistung her, auch nicht mit MGPU.
Vom Preis sprechen wir mal gar nicht. Oder doch: die 180 Dollar extra für G-Sync sind natürlich schlimm, aber ein 4k-Monitor, der mindestens 10x soviel kostet wie 1080p/1440/1600p-Display, ist ok, das wird als "Argument" angeführt (dazu kommt noch die entsprechende GPU-Power)...da fasst man sich doch an den Kopf. Zudem G-Sync ja erst gerade vorgestellt wurde, das kriegst du später ja auch mit 4k, nur keine Panik. Mit dem Thema hat 4k daher nicht wirklich was zu tun - es ist und bleibt momentan ein völlig theoretischer Einwand.

Zu deinen 120 Hz:
G-Sync geht bis zu 144 Hz, sogar noch mehr theoretisch. Die CPU muss halt mitmachen bei diesen hohen fps, aber das weißt du ja auch selbst.
 
Denn die Tatsache dass das ganze nicht ganz billig ist, Herstellergebunden, Monitorgebunden ( Displayport), macht das leider schonmal ziemlich uninteressant, wenn ich mit 60 FPS und Adaptivem V-sync im Grunde das selbe erreiche, natürlich halbieren sich die FPS, wenn ich unter 60 FPS falle, bzw habe wegen dem Wegfall von V-sanc ab und zu mal Tearing, je nach Spiel.

Naja das dürfte wie AMDs True Audio wohl auch eher was für die Zukunft sein. ;)
 
Naja das dürfte wie AMDs True Audio wohl auch eher was für die Zukunft sein.

Die Entwicklungen aktuell sind eigentlich haarsträubend.

AMD: Mantle, True Audio
Nvidia: Physx, Gsync

Und alles Herstellergebunden, fraglich, ob sich da überhaupt mal was weiternetwickelt daraus.
 
Ich seh G-Sync eigentlich eher als eine Art Zwischenschritt.
Wenn sich das bewährt kann ich mir gut vorstellen dass das mal Standard wird und sich kein Mensch mehr drüber den Kopf zerbricht.
Da stellt sich natürlich die Frage nach Patenten etc., aber wenn irgendein Hersteller das im Alleingang anfangen will kommt man kaum drumrum das in ein Produkt zu gießen und entsprechend zu vermarkten.
Andererseits wollen die natürlich auch einfach Geld verdienen.

Was fdsonne mit der Zwickmühle meint kann ich nachvollziehen. Mir geht's mit 60 Hz vs. TN vs. 4k so. Ich will halt lieber PVA, mehr als 60 Hz, keinen Inputlag und gerne auch 4k.
Hoffentlich tut sich in Sachen OLED mal was, vielleicht ist das auch bei Computermonitoren auf Dauer eine gute Alternative.
Man muss halt leider kaufen was der Markt hergibt und dabei oft einen Kompromiss machen.
 
OLED Dislpays haben ja diese Eigenschaften, fragt sich halt nur wie lange es dauert bis diese Technik auch bei normalen Bildschirmen einzug hält.
 
Die Entwicklungen aktuell sind eigentlich haarsträubend.

AMD: Mantle, True Audio
Nvidia: Physx, Gsync

Und alles Herstellergebunden, fraglich, ob sich da überhaupt mal was weiternetwickelt daraus.

Naja was erwartest du von Hardware-Herstellern? Die sind auch nur auf ihren Vorteil bedacht, selbst BluRay hat sich über den Markt-Kampf als Standard etabliert. Konsens Entscheidungen über offene Standards sind in der Realität eher selten, wenn sie nicht von irgendwelchen höheren Orgnisationen durchgedrückt werden.
 
Ich finde den Ansatz von Nvidia ehrlichgesagt super, allerdings treten da schon eine Probleme auf und auch Fragen nach dem Sinn.

Denn die Tatsache dass das ganze nicht ganz billig ist, Herstellergebunden, Monitorgebunden ( Displayport), macht das leider schonmal ziemlich uninteressant, wenn ich mit 60 FPS und Adaptivem V-sync im Grunde das selbe erreiche, natürlich halbieren sich die FPS, wenn ich unter 60 FPS falle, bzw habe wegen dem Wegfall von V-sanc ab und zu mal Tearing, je nach Spiel.

Eigentlich dürfte es sich nur lohnen, wenn ich primär kein V-sync einstellen kann oder habe ich da einen Denkfehler?

Ja hast du gewissermaßen, schau mal in meinen Posts weiter oben wo ich versucht habe den technischen Ablauf und seine Auswirkungen zu erklären.

Um es nochmal ganz einfach runter zu brechen ...

VSync: Man hat kein Tearing, muss aber beim Beispiel eines gewöhnlichen 60 Hz-Monitors immer die 60 FPS erreichen, verschenkt FPS die darüber hinausgehen und hat einen höheren Inputlag.
Adaptive VSync: Deaktiviert VSync, wenn die 60 Hz unterschritten werden. Man kann dann weiterhin Tearing haben, man hat kleine Ruckler wenn das Verhältnis aus FPS und Hz nicht genau aufgeht (siehe Posts oben) was dann auch in einem etwas höheren Inputlag resultiert da die Frames ja sozusagen nicht direkt in einem Hertz umgesetzt werden.
G-Sync: Die Hertz entsprechen immer den FPS. Es ist im Prinzip so als hätte man immer VSync an, also kein Tearing, aber ohne das man dafür eine bestimmte Framerate bräuchte oder den höheren Inputlag in Kauf nehmen muss. Ist also sowohl technisch als auch in seinen Auswirkungen nicht mit Adaptive VSync vergleichbar.
 
Zuletzt bearbeitet:
Was habt ihr denn alle mit 4k, ernsthaft? Der billigste 4k-Monitor auf geizhals kostet 3000 Euro. Das disqualifiziert sich doch von selbst - zumindest auf absehbare Zeit.
Das einzige Problem, was ich mit dem G-Sync habe ist, dass es vorerst nur für TN zu sein scheint. Aber ich habe auch etwas über 1440p 120Hz IPS gelesen...
 
Die Flexibilität fehlt bei der Methode zweifelsfrei... Dafür kost es auch nix ;) und geht imho ohne Zusatzhardware oder speziellen Monitor.
Ob es einem das wert ist!? -> mir stand heute nicht. Da lieber Geld in 4k und/oder 120Hz investieren... Da sehe ich persönlich einen deutlicheren Mehrwert.

120Hz muss man auch erstmal erreichen. Wenn erst bei 120Hz alle Probleme gelöst werden ist dein "Dafür kost es auch nix" Argument auch für die Katz. Um bei einem modernen Titel 120Hz zu realisieren muss man sehr viel Tiefer in die Tasche greifen als 180€ . Wie war das nochmal??? Du wartest auf 4K??? bei 120Hz??? Viel Spass.

Ich wage mal zu behaupten, das man mindestens eine weitere Graka für SLI kaufen muss, um sich von 60 auf 120Hz zu verbessern. Und jetzt kommt die entscheidende Frage:
Wenn ich 60Hz schaffe und die Wahl habe zwischen einem SLI System (+ allen Problemen) oder diesem Monitor Chip, der mir offensichtlich alle Probleme von Input Lag und Tearing für jetzt und später löst, kaufe ich dann wirklich die SLI Karte???

Wenn ichs so sehe gibt es doch 2 Vorteile: Es ist generisch und billig :)
 
Zuletzt bearbeitet:
@box
moment das sind drei paar Schuhe...


Zum ersten, wie soll ich etwas belegen, was jeder subjektiv anders empfindet!? Erklär mir das bitte...
Das ist wie, wenn du sagst (wo ich vollkommen konform gehe), das 24 FPS/Hz ruckeln. Hätte ich jetzt gesagt, liefer mir den Beleg dazu, ich seh da nix ruckeln, wie belegst du mir das bitte!?
Oder noch ein Beispiel, wenn ich sage, Titan ist teuer. Wie soll ich das belegen!? Für dich mit zwei Titanen wird das anders aussehen, als vielleicht bei jemandem, der vielleicht 100€ pro Monat über hat :wink:
Das ist schlicht nicht belegbar.
Mal ganz davon ab, finde ich ja diese Diskusionskulti echt abartig. Man drängt damit den Gegenüber in eine Ecke, die alles andere als sachlich ist...

Und nein, ich ruder da gar nicht zurück... Ich vertrete seit Anfang an hier die Auffassung, das niedrige FPS Raten ruckeln. Und habe vorsichtig einfach unter 60 geschrieben. Das kann erst bei 59 eintreten, das kann aber auch schon bei 30 eintreten. Oder 24 oder 33 oder oder oder. Spielt doch aber auch keine Rolle, wo der Punkt absolut liegt, denn es ist subjektiv. Will ich davon weg, brauch ich mehr GPU Power. Habe ich aber genügend GPU Power, kann ich auch VSync als Alternative nutzen. Nämlich weil es nix kostet und mir im Endeffekt je nach vorhandenem Monitor ein ähnliches Ergebnis liefert.
Und auch propagiere ich nicht!? Ehrlich was sollen immer diese "Kraftausdrücke"?
Ich sagte, es geht auch mit VSync, für lau ein ähnliches Ergebnis, halt ohne die Flexibilität. Nicht mehr und nicht weniger...


Zum zweiten, 4k. Wer spricht von Sinn und Unsinn!? Das doch gar nicht Thema...
Zum dritten, das es theoretisch fast keine Grenzen bei G-Sync gibt, mag ja sein. Habe ich auch nicht angezweifelt ;) Es geht eher um den Mehrwert. Ich sehe keinen greifbaren Mehrwert bei syncronen FPS/Hz. Wohingegen ich einen echten Mehrwert durch 120Hz+ oder auch 4k Auflösung sehe... Es bleibt die Frage über, was man sich diese mehr Flexibilität kosten lassen will.
 
Vor Jahren wurde ja mal über SED gesprochen, das kam dann nie.
Ich denke OLED ist das neue SED, wäre vermutlich wünschenswert das im PC-Bereich zu sehen.

Auf alle Fälle soll(te) OLED in den nächsten Jahren deutlich günstiger werden.

Für mich persönlich steht das Thema Monitorkauf im Moment nicht wirklich zur Debatte weil ich mit meinem Dell 2408 WFP (S-PVA Panel, WUXGA) und meinem Fujitsu P24W-5 ECO (IPS Panel, WUXGA) zufrieden bin.
Mit ersterem trotz lt. vielen Testberichten enormem Input-Lag auch beim zocken, wobei ich mich nicht zu den absoluten Hardcore-Gamern zähle. Vermutlich merke ich es einfach nicht weil ich nie auf einem schnellen TN TFT gezockt hab. Beim Wechsel von der Röhre vor 6 Jahren ist mir aber nichts negativ aufgefallen.

Ich hatte mir einen 27 Zöller mit 2560x1440 überlegt, habe aber aktuell schlicht nicht den Eindruck einen TFT zu bekomme der mich wirklich glücklicher macht als der Dell.
Also hoffe ich dass so etwas auf den Markt kommt und bezahlbar ist bevor mein Dell kaputt geht. Und da sehe ich einfach 3 Trends die mir gefallen könnten:
- 4k
- OLED (u.a. weil selbstleuchtende Pixel)
- G-Sync? (wir werden sehen wie gut es ankommt und es muss meinetwegen weder von Nvidia sein noch einen besonderen Namen haben, mir gefällt nur der technische Ansatz die Bildwiederholrate von einem Display an das zu koppeln was die GPU hergibt)
 
Die Entwicklungen aktuell sind eigentlich haarsträubend.

AMD: Mantle, True Audio
Nvidia: Physx, Gsync

Und alles Herstellergebunden, fraglich, ob sich da überhaupt mal was weiternetwickelt daraus.

Wir sehen hier live eine Technologieschlacht. Das gabs seit Jahren nicht mehr. Der Anreiz für Herrsteller offene Technologien zu entwickeln ist offenbar geringer Ausgeprägt als in geschlossene. Sobald die Konkurrenz was macht muss ja gekontert werden. Trotzdem ist das wirklich interessant. So viel technologisch interessantes (im GraKa Sektor) wie in den letzten 2 Monaten ist in den letzten 3 Jahren nichts gekommen.
 
120Hz muss man auch erstmal erreichen. Wenn erst bei 120Hz alle Probleme gelöst werden ist dein "Dafür kost es auch nix" Argument auch für die Katz. Um bei einem modernen Titel 120Hz zu realisieren muss man sehr viel Tiefer in die Tasche greifen als 180€ . Wie war das nochmal??? Du wartest auf 4K??? bei 120Hz??? Viel Spass.

??
Wo steht, das erst ab 120Hz alle Probleme gelöst werden!? Mal ganz davon ab, das du wohl selbst bei 120Hz ohne G-Sync und ohne VSync immernoch Tearing haben wirst...

Es ging eher darum, das mit dem 120Hz Monitor Luft nach oben ist. Dem jenigen, dem FPS Raten unter 60 nicht reichen, bzw. der "gevsyncte" 60 FPS/Hz als zu wenig empfindet, kommt nur mit 120Hz oder mehr weiter. Das heist nicht, das er auch 120Hz fahren muss. Da können 70 reichen, oder auch 110. Spielt doch keine Rolle dabei... Denn der Sinn hinter dem Argument ist, das es bei 120Hz Geräten eben mehr Luft nach oben gibt.
120Hz nutzen mir freilich weniger, wenn ich in 30 oder 40 FPS unterwegs bin. Denn dann habe ich ein ruckliges Spielgefühl, das nicht durch die unsyncronität des Monitors kommt. Und selbst wenn ich beispielsweise 80Hz fixe (wozu ich eben einen Monitor brauch, der mehr als 60Hz kann) und normales VSync nutze komme ich auf syncrone Bilder auf dem Schrim. Ganz ohne G-Sync :wink:
Rucklig ist es deswegen zwar immernoch je nach Empfinden und Spiel... Aber das bekommt man nur mit mehr GPU Power weg und eben nicht mit G-Sync.

Für mich persönlich steht das Thema Monitorkauf im Moment nicht wirklich zur Debatte weil ich mit meinem Dell 2408 WFP (S-PVA Panel, WUXGA) und meinem Fujitsu P24W-5 ECO (IPS Panel, WUXGA) zufrieden bin.

Ähnliches bei mir auch, ich hätte gern groß. Sprich 30+".
Mein nächstes Modell wird 4k haben, sofern mein TV nicht irgendwie in Rauch auf geht und ich gezwungen bin, irgendwas zwischen zu kaufen... ;)
Einen Zwischenschritt auf 1440p und 120/144Hz könnte ich zwar einlegen, aber mir ist es den Kaufpreis nicht wert, da der Kompromiss zu ungunsten der Bilddiagonale für mich nicht aufgeht... Dann lieber noch etwas mehr warten und eher auf 4k setzen ;)
Und hier habe ich die Hoffnung, das in nicht all zu langer Zeit 4k eben in bezahlbare Regionen wandert. Sprich 800-1000€ wären für ~35" durchaus OK ;)
Mit ~3000€ sind wir da aktuell auch nur noch dreimal drüber. Entgegen den Modellen vor nem halben/dreiviertel Jahr mit 20k€+ :wink:
 
@box
moment das sind drei paar Schuhe...

Zum ersten, wie soll ich etwas belegen, was jeder subjektiv anders empfindet!? Erklär mir das bitte...
Das ist wie, wenn du sagst (wo ich vollkommen konform gehe), das 24 FPS/Hz ruckeln. Hätte ich jetzt gesagt, liefer mir den Beleg dazu, ich seh da nix ruckeln, wie belegst du mir das bitte!?
Oder noch ein Beispiel, wenn ich sage, Titan ist teuer. Wie soll ich das belegen!? Für dich mit zwei Titanen wird das anders aussehen, als vielleicht bei jemandem, der vielleicht 100€ pro Monat über hat :wink:
Das ist schlicht nicht belegbar.
Mal ganz davon ab, finde ich ja diese Diskusionskulti echt abartig. Man drängt damit den Gegenüber in eine Ecke, die alles andere als sachlich ist...

Dann behaupte es nicht pauschal und/oder drück dich einfach besser aus. Und nochmal: Woher willst du wissen, dass G-Sync nicht auch das Spielgefühl trotz für dich zu niedrigen fps verbessert? Du behauptest, es bringt da nichts, das kannst du aber doch gar nicht wissen ohne es probiert zu haben.

Und nein, ich ruder da gar nicht zurück... Ich vertrete seit Anfang an hier die Auffassung, das niedrige FPS Raten ruckeln. Und habe vorsichtig einfach unter 60 geschrieben. Das kann erst bei 59 eintreten, das kann aber auch schon bei 30 eintreten. Oder 24 oder 33 oder oder oder. Spielt doch aber auch keine Rolle, wo der Punkt absolut liegt, denn es ist subjektiv. Will ich davon weg, brauch ich mehr GPU Power. Habe ich aber genügend GPU Power, kann ich auch VSync als Alternative nutzen. Nämlich weil es nix kostet und mir im Endeffekt je nach vorhandenem Monitor ein ähnliches Ergebnis liefert.
Und auch propagiere ich nicht!? Ehrlich was sollen immer diese "Kraftausdrücke"?
Ich sagte, es geht auch mit VSync, für lau ein ähnliches Ergebnis, halt ohne die Flexibilität. Nicht mehr und nicht weniger...

Wie gesagt, drück dich besser aus, dann haben wir kein Problem.
Der Stein des Anstoßes ist dieses Zitat von dir hier:
Das G-Sync nur dann effektiv auch ein flüssigeres Spielgefühl bieten kann, wenn die FPS entsprechend hoch sind...

Und das ist einfach Unsinn! Es kann sein, dass trotz G-Sync das Spielgefühl für dich noch nicht flüssig genug ist, falls die fps zu niedrig sind. Aber das ist etwas völlig anderes als zu behaupten, dass G-Sync hier nichts bringt. Es könnte durchaus besser sein. Und zum x-ten Mal: Diese (unbewiesene) Behauptung von dir wurde mit den Videos ja schon widerlegt. Du könntest einfach mal zugeben, dass du dir hier nicht genug Gedanken gemacht und voreilig formuliert hast. Ich weiß inzwischen schon, was du eigentlich gemeint hast, aber das ist halt nicht das, was du gesagt hast. Ist es wirklich sooo schwer zu sagen "da hab ich mich vertan"?

Zum zweiten, 4k. Wer spricht von Sinn und Unsinn!? Das doch gar nicht Thema...
Zum dritten, das es theoretisch fast keine Grenzen bei G-Sync gibt, mag ja sein. Habe ich auch nicht angezweifelt ;) Es geht eher um den Mehrwert. Ich sehe keinen greifbaren Mehrwert bei syncronen FPS/Hz. Wohingegen ich einen echten Mehrwert durch 120Hz+ oder auch 4k Auflösung sehe... Es bleibt die Frage über, was man sich diese mehr Flexibilität kosten lassen will.

Natürlich ist es ein Thema, weil du 4k eingebracht hast, um die aktuellen Grenzen von G-Sync zu zeigen. Bloß wie relevant soll das überhaupt sein? Du willst mir nicht erzählen, dass das Fehlen von 4k-Monitoren mit G-Sync aktuell ein Problem darstellt? Da beisst dich deine eigene Argumentation in den Hintern, weil mit 4k hast du so niedrige fps, dass es ja wieder ruckelt...und der horrende Preis (und immer noch ist G-Sync zu teuer???) kommt noch dazu, am besten noch für neue GPUs. Der Mehrwert von 4k ist also miese Performance und hohe Kosten. Ja, kann ich nachvollziehen, dass man das besser als G-Sync findet...

Und was willst du mit 120Hz? Alle G-Sync Monitore haben 120-144 Hz so wie ich das verstanden habe. Deine angesprochenen 4k gibts nicht mit 120 Hz, das nur so am Rande. Daher ist dein Einwand hier völlig irrelevant.
 
Zuletzt bearbeitet:
Richtig, ich sehe 4k auf dem Schreibtisch in greifbare Nähe rücken.
Das einzige das mir zu meinem Glück dann noch fehlt ist ein Panel das bei anständiger Farbtreue und sattem schwarz auch noch mehr als 60 Hz mitmacht.
Der Fujitsu P27T-7 LED scheint immerhin 75 Hz zu können. Der kommt für mich zwar jetzt weniger in Frage, zeigt aber dass man anscheinend auch mit IPS Panel nicht dauerhaft auf 60 Hz stehen bleiben muss.
OLED würde mich halt noch mehr reizen, allerdings weiß ich gar nicht wie es da mit Schaltzeiten, Input-Lag und der Farbtreue aussieht. Hab ich mich noch nicht wirklich mit beschäftigt. Wird sich aber hoffentlich in den nächsten Monaten mal zeigen.

EDIT:
Ich sehe übrigens nicht wo uns TrueSound hin bringen soll wo Creative nicht schon vor Jahren gewesen wäre. Aber das nur am Rande.
 
Zuletzt bearbeitet:
OLED würde mich halt noch mehr reizen .... der Farbtreue aussieht. Hab ich mich noch nicht wirklich mit beschäftigt. Wird sich aber hoffentlich in den nächsten Monaten mal zeigen.

Wenn OLED am Monitor so bunt leuchtet wie auf den Samsung Smartphones, dann gute Nacht. Die Farbtreue ist gleich null. Aber selbst im Vergleich, waren die gleichkalibrierten Smartphones LCD / OLED noch sehr weit auseinander. Vorteil bei OLED ist nur der Schwarzwert mMn. Ich kann mit OLEDs aber auch nichts anfangen. Sind mir insgesamt zu dunkel die Displays.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh