GPU und Display laufen synchron - AMDs FreeSync ausprobiert

Egal ob proprietär oder offen, es sieht so aus:

- NV G-Sync: NV Graka, CPU egal - G-Sync Monitor
- AMD FreeSync: AMD Graka, AMD CPU - FreeSync Monitor

--> Richtig ?
[...]
Nein.

Es sieht so aus:

- NV G-Sync: NV Graka, CPU egal - G-Sync Monitor
- AMD FreeSync: FreeSync fähige Graka (zz nur AMD, aber vielleicht steigt Intel ja mit ein), CPU egal - irgendein Monitor mit DP1.2a
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
thema 1: also da muss ich einhaken, wir haben vor kurzem darüber diskutiert das man bei 1440p keine 144FPS durchgängig schafft, und hier regen sich einige auf das zurzeit freesync nur bei 40FPS beginnt.

böse ward ihr!

thema 2: die frage ist ob du 0 Inputlag brauchst, da gibts ja ganz andere Faktoren (zB .Eingabegeräte) die Inputlag erzeugen. Die summe ist wichtig bevor wir weiter diskutieren!.
 
Zuletzt bearbeitet:
AMD's Grafikkarten haben keine schlechte Energieeffizienz per se. Der Punkt ist einfach, AMD entwickelt seine Architektur nicht nur für Spiele. Deshalb sollte man auch nicht nur auf Spiele schauen. Basierend auf Hawaii stellt AMD schon seit einiger Zeit den effizientesten Supercomputer der Welt. Ich gehe auch davon aus, dass man gegenüber Maxwell keinen Effizienznachteil hat. Man hat hier erst mal nur einen Zeitnachteil und ist mit dem Release neuer Karten später dran, da man in den letzten Jahren viele Ressourcen in andere Designs gesteckt hat, wie die Konsolenchips. Bei Nvidia ist das anders. Die entwickeln ihre Architektur fast nur noch für Spiele bzw für Workloads mit einfacher Genauigkeit. Die miserable DP Performance der Titan X und Quadro M6000 zeigt das recht gut.

Wobei ich das zweigleisig fahren gar nicht mal so schlecht finde. Warum sollten Gamer für etwas bezahlen, was sie nicht brauchen? Wahrscheinlich ist die Trennung auch dem alten 28nm Prozess geschuldet, aber grundsätzlich halte ich die Idee je einen spezialisierten Chip für SP und DP anzubieten nicht für komplett verkehrt. Man scheint damit bei nVidia auch Erfolg zu haben. Bei der Eierlegendenwollmilchsau müsste man nämlich immer Kompromisse eingehen. So hätte man immer einen gut optimierten Chip für ein bestimmtes Aufgabengebiet.

Mal schauen wie das bei Fiji aussehen wird. Ursprünglich hat man diesen auch nur mit 4GB HBM geplant gehabt, was ihn für den professionellen Markt weniger interessant gemacht hätte. Auf 8GB HBM ist man dann auch eher kurzfristig umgestiegen. Vielleicht hat AMD hier auch die DP-Leistung zugunsten der SP-Leistung geopfert. Zumindest erscheint es mir nicht logisch einen Chip zu entwickeln, der maximal nur 4GB besitzen soll und bei diesen die DP-Leistung weiter auszubauen. Es sei denn, man plant Fiji erst später ins professionelle Umfeld zu bringen, sobald man mit HBM Gen.2 auch entsprechende Kapazitäten beim Speicherausbau bieten kann.
 
Nein. Mit konkreten Frequenzen hat das nichts zu tun. Bzw das Thema ist, was passiert wenn die Framerate die Bildschirmfrequenz übersteigt?

V-Sync on -> kein Tearing (Input-Lag möglich) -> gleiches Verhalten wie bei Nvidia
V-Sync off -> kein Input-Lag (Tearing möglich) -> bei Nvidia hast du diese Option nicht

Der User hat also die Möglichkeit, zu entscheiden, was ihm lieber ist. Wenn du das Verhalten immer so haben willst wie bei Nvidia, dann lasse V-Sync halt an und fertig.

Das kannst du sehen wie du willst, es ist definitiv ein Feature. ;)

ja verstanden ;)

aber nochmal: ich NIE V-Sync
 
thema 1: also da muss ich einhaken, wir haben vor kurzem darüber diskutiert das man bei 1440p keine 144FPS durchgängig schafft, und hier regen sich einige auf das zurzeit freesync nur bei 40FPS beginnt.
Wobei FreeSync selbst runter bis 9 Hz geht. Es sind eher die aktuellen Adaptive Sync Monitore, die ab 40 Hz beginnen. Scheinbar bedingt durch die Panel-Technik und Scaler. Bei P3D gibt's dazu einen interessanten Beitrag.


aber nochmal: ich NIE V-Sync
Kann man das auch in einen sinnvollen und verständlichen Satz umformulieren? Falls das heissen soll, dass du bisher nie V-Sync genutzt hast, dann musst du sowieso umdenken. Das bisherige Verhalten ohne V-Sync ist eben nicht das gleiche wie das Verhalten mit G-Sync. Daran ändern auch die Unterschiede zwischen FreeSync und G-Sync nichts.
 
GhostSync geht nicht runter auf 9. Es sind 40Hz. Ob mehr geht, wird die Zeit zeigen.

/edit: BTW: Nach PCPer.com arbeitet G-Sync jetzt schon unter 30Hz mit Bildverdopplung. Genauso also wie TVs, die bei 24Hz Bilder doppelt oder dreifach ausgeben.
 
Zuletzt bearbeitet:
Die Grafikkarte kann das benötigte Signal auch bis zu 9Hz tief an den Monitor senden. Das Problem ist nur ob dessen Hardware das auch tatsächlich umsetzt.
Ich verstehe dass sich deine Ghosting anspielung auch auf den Artikel bei PCPer.com bezieht, aber das ist eine "Eigenschaft" des Monitors, nicht von Freesync und tritt danns owieso bei hohen herz-Zahlen auf.
Es wurden eine ganze Reihe von FreeSync fähigen Monis vorgestellt bzw. für Kürze angekündigt. Darunter auch höherwertigere. Warten wir also mal ab was die so können.
 
Wozu hat man denn den tollen neuen Scaler? Dann lässt man unter 72 fps eben jedes Bild doppelt darstellen, unter 48fps 3x usw...
(also jetzt bei einem 144Hz Monitor)
 
Zuletzt bearbeitet:
GhostSync geht nicht runter auf 9. Es sind 40Hz. Ob mehr geht, wird die Zeit zeigen.

/edit: BTW: Nach PCPer.com arbeitet G-Sync jetzt schon unter 30Hz mit Bildverdopplung. Genauso also wie TVs, die bei 24Hz Bilder doppelt oder dreifach ausgeben.

Der Mehrfach Pulldown macht aber nur Sinn bei Impulsbildverfahren wie im Kino durch Rolling Shutter oder bei PLasma Tv, um die FLimmerneigung zu verringern. Bei Hold Type Bilderzeugern wie LCD tritt dieses Flimmern nicht auf da die einzelnen Bilder nicht durch Dunkelphasen getrennt werden, sondern so lang angezeigt werden, bis das nächste Bild erscheint während das Backlight konstant durchleuchtet. Allein schon die Bewegungsschärfe bei 30fps auf einem LCD ist exorbitant schlecht, das man diesen Bereich absolut nicht empfehlen kann.
Selbst bei 60hz bleiben von 1080p gerade mal 300Linien Bewegtbildauflösung übrig. Nicht ohne GRund setzen TV Hersteller auf Motion Interpolation und Dark Frame Insertion, ganz einfach um der lausigen LCD Bewegtbildschärfe entgegenzuwirken. Von daher können mir angeblich flüssige Bereiche von 30fps getrost gestohlen bleiben, zumal selbst VIdeos mit gleichmäßigen Frametimes mit 30hz deutlich ruckeln. VOn daher wird gaming bei 30fps nicht angenehm sein, außer die eigene WAhrnehmung ist stark eingeschränkt.
 
Zuletzt bearbeitet:
*aufgeräumt*... Bitte auf die wortwahl achten und wie ihr euch ausdrückt... Das betrifft zumindest die, die immer wieder mal aus der reihe tantzen hier ;-)
 
GhostSync geht nicht runter auf 9. Es sind 40Hz. Ob mehr geht, wird die Zeit zeigen.
Ist G-Sync die Kurzform von GhostSync? Habe ich noch nicht gehört. Egal. Die Rede war von FreeSync, nicht G-Sync. Und FreeSync geht runter bis auf 9 Hz. Der Rest liegt wie gesagt an der verwendeten Panel-Technik und den aktuellen Scalern.
 
Verstehe ich auch nicht, warum Sontin so krass gegen Nvidia wettert. Ständig G-Sync als Ghost-Sync zu bezeichnen. So schlecht ist G-Sync, nach Sontin also Ghost-Sync nun auch nicht. Aber klar ist doch, dass wegen dem Ghost-Sync Modul im Asus G-Sync Monitor, dieser reihenweise abraucht. Deswegen muss man aber nicht Nvidia so extrem runter machen. So schlecht ist Nvidia nun auch nicht.
 
Verstehe ich auch nicht, warum Sontin so krass gegen Nvidia wettert. Ständig G-Sync als Ghost-Sync zu bezeichnen. So schlecht ist G-Sync, nach Sontin also Ghost-Sync nun auch nicht. Aber klar ist doch, dass wegen dem Ghost-Sync Modul im Asus G-Sync Monitor, dieser reihenweise abraucht. Deswegen muss man aber nicht Nvidia so extrem runter machen. So schlecht ist Nvidia nun auch nicht.

Nvidia verlangt immer etwas mehr!
 
Ich verstehe hier nicht das krampfhafte festhalten an den Frequenzzahlen. Was will ich als Gamer mit 30 FPS oder weniger ? Erst ab 40-50 FPS wird ein Spiel erst so richtig spielbar auch wenn 30Hz filmischer sein sollen. ;)
AMD hat jetzt einen Kooperation mit Samsung eingegangen, die wohl FreeSync vermarkten werden und die Scaler auch besser arbeiten werden.
Ich bin auf diese Monitor gespannt, die 4k und IPS/PLS können. :)
 
G-Sync treats this “below the window” scenario very differently. Rather than reverting to VSync on or off, the module in the G-Sync display is responsible for auto-refreshing the screen if the frame rate dips below the minimum refresh of the panel that would otherwise be affected by flicker. So, in a 30-144 Hz G-Sync monitor, we have measured that when the frame rate actually gets to 29 FPS, the display is actually refreshing at 58 Hz, each frame being “drawn” one extra instance to avoid flicker of the pixels but still maintains a tear free and stutter free animation. If the frame rate dips to 25 FPS, then the screen draws at 50 Hz. If the frame rate drops to something more extreme like 14 FPS, we actually see the module quadruple drawing the frame, taking the refresh rate back to 56 Hz. It’s a clever trick that keeps the VRR goals and prevents a degradation of the gaming experience. But, this method requires a local frame buffer and requires logic on the display controller to work. Hence, the current implementation in a G-Sync module.
Ziemlich interessant!
Aber wieso muss dafür zwingend ein Modul im Monitor her?
Theoretisch könnte auch die Grafikkarte das Bild einfach im Hintergrund speichern und zwei mal ausgeben, anstelle nur ein mal. Wäre denkbar dass AMD sowas per Treiber nachreicht...
 
Ziemlich interessant!
Aber wieso muss dafür zwingend ein Modul im Monitor her?
Theoretisch könnte auch die Grafikkarte das Bild einfach im Hintergrund speichern und zwei mal ausgeben, anstelle nur ein mal. Wäre denkbar dass AMD sowas per Treiber nachreicht...

Zwingend ist ein Modul wahrscheinlich nicht. Aber eine solche Zwischenbildberechnung kostet Leistung. Wenn das AMD also per Treiber nachreicht, dann wahrscheinlich nicht ohne einen Leistungsverlust.
 
Zwingend ist ein Modul wahrscheinlich nicht. Aber eine solche Zwischenbildberechnung kostet Leistung. Wenn das AMD also per Treiber nachreicht, dann wahrscheinlich nicht ohne einen Leistungsverlust.
Das ist aber ja keine Berechnung. Es muss nur gespeichert und einfach noch ein zweites mala usgegeben werden, während noch das neue Frame berechnet wird. Das sollte höchstens etwas Vram kosten.
 
Dass das per Treiber nachreichbar ist vermutet auch pcper im Video.
 
Das ist aber ja keine Berechnung. Es muss nur gespeichert und einfach noch ein zweites mala usgegeben werden, während noch das neue Frame berechnet wird. Das sollte höchstens etwas Vram kosten.

So leicht ist es denke ich nicht, denn genau das muss doch auch durch eine CPU irgendwie gemanged werden.
 
Freesync speichert die Bilder doch auch zwischen, sonst würde der Bildschirm schwarz bleiben bzw. flackern, wenn die FPS unter 40Hz fallen. Das macht es aber wohl nicht, sonst hätten sich wohl alle Tester drüber beschwert ;)
Der einzige Unterschied ist, dass bei Freesync die Frequenz eben bei 40Hz bleibt und bei G-Sync höher ausfallen kann.
Für den User wird es keinen Unterschied machen, denn Inputlag wird wird sich gleich verhalten, hängt ja an den FPS und nicht an der Refreshrate des Monitors.
 
Ich denke nicht das da irgendwas gespeichert wird. Es fängt an zu tearen wie es sonst bei einen normalen 60 Hz Monitor passiert wenn die fps unter 60 fallen.
Genau deswegen wird AMD Freesync wohl so ein grossen Spielraum von 9-240 Hz spendiert haben.

Dieses verdoppeln von Hz würde sowieso kaum funktioneren wenn die Hersteller den Monitoren soviel Hz verpassen wie sie grad lustig sind.
Sieht man ja schon an den LG´s. 48 Hz minimum, verdoppeln liegt man aber auserhalb ma Hz von 75.
Hier liegt den Vorteil wohl bei Gsync da man einfach die Kontrolle darüber hat was da für Screens verbaut werden.
 
Theoretisch hört sich eine einfach Verdopplung großartig an. Aber praktisch gibt es da gewisse Probleme.
Das Problem mit der Verdopplung ist, das man nur zu bestimmten Situationen einen Verdopplung machen kann, also wenn der Monitor die Verdopplung auch anzeigen kann.
Hat ein Monitor 60Hz, so kann man nur eine Verdopplung bei 30 Frames und Abwärts der 30 Frame machen. Wenn jetzt aber plötzlich 31 Frames dargestellt werden, so würde das Bild von vorher vielleicht 60 Hz auf 31 Hz springen, was sehr wohl auffallen würde, besonders in Szenen, wo die Framerate öfters zwischen 25 und 35 Frames schwankt. Das würde das Bild sehr unruhig machen.

30 Hz wäre für mich eh das aller aller Mindeste was das Flimmern angeht. Die 30 Frames werden zwar gleichmäßig dargestellt, aber der Monitor flimmert bei 30 Hz schon recht sichtbar. Dann lieber 40 Hz.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh