GPU und Display laufen synchron - AMDs FreeSync ausprobiert

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.060
<p><strong><img src="/images/stories/logos-2015/freesync.jpg" width="100" height="100" alt="freesync" style="margin: 10px; float: left;" />Seit einigen Monaten ist es angekündigt, heute nun startet der Support von FreeSync alias Adaptive Sync. Wir hatten die Gelegenheit, die Technik mit zwei Monitoren auszuprobieren. Bevor wir allerdings zu einigen Praxis-Tests kommen, schauen wir uns die Theorie dazu noch einmal etwas genauer an. Die Probleme, die FreeSync beseitigen soll und der Ansatz sie zu reduzieren oder gar zu entfernen, sind identisch zu G-Sync. Allerdings hängt G-Sync der Makel des proprietären Standards an und entsprechende Monitore sind mangels Marktvielfalt deutlich zu teuer. Daran hat sich auch ein Jahr nach dem Start von G-Sync nichts geändert.</strong></p>
<p>Die Video...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/34551-gpu-und-display-laufen-synchron-amds-freesync-ausprobiert.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Keine 280X Unterstützung? Schade :(
 
Die Geschichte Free Sync vs. G-Sync wird noch interessant. Ich beobachte das ganze schon eine Weile und habe etwas Erfahrung mit G-Sync (ASUS Swift). Fakt ist, ich will wenn ich neu Kaufe und damit meinen jetzt drei Jahre alten BenQ 2420T ersetze, wieder 120Hz oder mehr, ein ordentliches IPS Panel und vor allem ein nicht glänzender Rahmen/Panel und VESA Mount ist ebenso pflicht. Ob jetzt 24" oder 27", FHD oder QHD ist mir dabei erstmal egal. Und diese "Ansprüche", werden aktuell von keinem Monitor erfüllt. Wobei da das neue Acer Predator G-Snyc Modell, natürlich am nähsten ran kommt.

Darum warte ich da momentan noch ab. Auch bleibt abzuwarten ob AMD mit der neuen GPU Serie der Große Wurf gelingt. Denn ich wechsle meinen Monitor ungern so oft wie meinen Grafikkarten und wenn ich mich jetzt für einen Monitor entscheide, entscheide ich mich im Endeffekt für AMD oder Nvidia. Und gerade letzteres, ist bei der ganzen Free Sync vs G-Sync Sache die größte Problematik. Das ein offener Standard kommen wird, den beide Unterstützen können wir uns aber auch abschminken.
 
NVIDIA wird G-Sync auf absehbare Zeit nicht durch einen offenen Standard ersetzen. Ich bin gerade auf der GTC und habe gestern Abend mit dem Kopf hinter G-Sync gesprochen. Er betonte mehrfach, dass NVIDIA an G-Sync festhalten wird und das es in Kürze auch ein paar Neuigkeiten geben wird.
 
Besser als G-Sync. Wer hätte das gedacht. ;)

Quatsch.

Schade, dass die erste Monitor-Generation nur ab 40/48 FPS FreeSync unterstützt. In grafisch aufwendigen Spielen fällt man schnell mal unter diese Marke, und gerade solche Situationen sollte die Technik dann eigentlich abfedern.

NVIDIA wird G-Sync auf absehbare Zeit nicht durch einen offenen Standard ersetzen. Ich bin gerade auf der GTC und habe gestern Abend mit dem Kopf hinter G-Sync gesprochen. Er betonte mehrfach, dass NVIDIA an G-Sync festhalten wird und das es in Kürze auch ein paar Neuigkeiten geben wird.

Vielleicht ist es ja doch irgendwie möglich G-Sync und ULMB unter einen Hut zu bringen? Das könnte für Nvidia als Argument für G-Sync herhalten.
 
Zuletzt bearbeitet:
in dem man kein Monitor mit Kinderkrankheiten auf Teufel komm raus als erster bringt sondern erst zu Ende entwickelt ? :fresse2::fresse2::fresse2:

@MysteriousNap Freesync ist ein offener Standard , nur das Nvidia sich weigert den zu unterschtützen. Wohin so was führen kann hat man ja an IE6 gesehen

Nach letztes doch paar schlechten Gerüchten zu Freesync habe ich eigentlich 1-2 Härchen in der Suppe erwartet, scheint wohl nicht so zu sein
 
aber wie kann es denn besser als G-Sync sein wenn G-Sync doch nur freesync mit DRM Modul sein soll?

1. G-Sync kostet deutlich mehr, wegen dem unnützen DRM-...alias G-Syncmodul
2. G-Sync kann je nach Situation (wegen dem DRM-Modul) ein paar Prozent Leistung kosten, was bei Freesync nicht der Fall ist.
3. G-Sync reicht nur von 30-144Hz, Freesync hingegen von 9-240Hz. Dummerweise gibt es für letzteres bis jetzt noch keine Monitore mit gescheiten Scalern, die unter 40 Hz kommen, obwohl es möglich ist.

Wer nicht auf Nvidiakarten angewiesen ist, oder sich schon mit G-Sync versorgt hat, ist objektiv mit Freesync besser dran - sofern die Hersteller die unnötige untergrenze von 40Hz überwinden, wovon auszugehen ist.
 
Ich bin gerade auf der GTC und habe gestern Abend mit dem Kopf hinter G-Sync gesprochen. Er betonte mehrfach, dass NVIDIA an G-Sync festhalten wird ...

Und da hast du ihm nicht direkt spontan lauthals ins Gesicht gelacht? Der muss doch angesichts der offensichtlichen Sinnlosigkeit dieser proprietären Modulkacke völlig unglaubwürdig sein.
Was wollen sie da noch großartig Neuigkeiten bringen? Irgendein Zaubermittel, was G-Sync völlig überlegen macht?

NVidia geht es mal wieder nur darum, ihre Kunden bis zum letzten Geldschein zu melken. Schade, dass das viele entweder gar nicht mitbekommen, oder es schlicht nicht wahr haben wollen.
 
1. G-Sync kostet deutlich mehr, wegen dem unnützen DRM-...alias G-Syncmodul
2. G-Sync kann je nach Situation (wegen dem DRM-Modul) ein paar Prozent Leistung kosten, was bei Freesync nicht der Fall ist.
3. G-Sync reicht nur von 30-144Hz, Freesync hingegen von 9-240Hz. Dummerweise gibt es für letzteres bis jetzt noch keine Monitore mit gescheiten Scalern, die unter 40 Hz kommen, obwohl es möglich ist.

Wer nicht auf Nvidiakarten angewiesen ist, oder sich schon mit G-Sync versorgt hat, ist objektiv mit Freesync besser dran - sofern die Hersteller die unnötige untergrenze von 40Hz überwinden, wovon auszugehen ist.

weiss ich alles, er wollte aber was ganz anderes mit seinem Posting ausdrücken

ich finde das hier witziger:


AMD gibt dem Anwender die Wahl. Ist V-Sync im Spiel aktiviert, setzt auch FreeSync auf diese Technik und verhält sich wie G-Sync. Alternativ kann V-Sync im Spiel aber auch deaktiviert werden. Das reduziert den Input-Lag, führt allerdings zu Tearing.

Quelle: Cumputerbase

G-Sync funzt mit V-Sync aus (das ist der Sinn dahinter)
 
NVidia geht es mal wieder nur darum, ihre Kunden bis zum letzten Geldschein zu melken. Schade, dass das viele entweder gar nicht mitbekommen, oder es schlicht nicht wahr haben wollen.

Das haben Gewinnorientierte Unternehmen nun mal an sich, man muss halt nicht alles 4free anbieten und irgendwann daran zugrunde gehen wie gewisse Konkurrenten.
 
G-Sync funzt mit V-Sync aus (das ist der Sinn dahinter)

Da verdrehst du aber etwas gewaltig, wenn du damit sagen willst, dass Freesync NUR mit eingeschaltetem V-Sync funktioniert. Wenn du nämlich ein paar Zeilen drüber liest, wirst du merken, dass es darum geht, was passiert, wenn die FPS die Bildwiederholrate des Bildschirms übersteigt. (z.B 180 FPS auf einem 144 Hz Monitor)

Und da macht G-Sync genau das selbe automatisch, bei Freesync kannst du dieses Verhalten noch zusätzlich unterbinden...

Computerbase.de schrieb:
Weitere Unterschiede

Weitere Unterschiede zwischen FreeSync und G-Sync betreffen das Verhalten außerhalb der Bildwiederholfrequenz, in denen Grafikkarte und Monitor simultan laufen.

G-Sync verhält sich wie V-Sync, wenn die Grafikkarte mehr Frames rendern kann, als die maximal möglich Bildwiederholfrequenz des Monitors beträgt. Die Framerate wird also bei der Bildwiederholfrequenz gekappt, sodass bei einem 60-Hertz-Monitor nicht mehr als 60 Bilder pro Sekunde dargestellt werden. Dies ist für die Bildqualität die optimale Lösung (kein Ruckeln, keine Bildfehler), hat jedoch den Nachteil, dass der Input-Lag zwischen Steuerbefehl und Umsetzung auf dem Display ansteigt. Je schneller die Grafikkarte rendert, desto größer wird dieser Lag gegenüber einer ungebremsten Ausgabe.

AMD gibt dem Anwender die Wahl. Ist V-Sync im Spiel aktiviert, setzt auch FreeSync auf diese Technik und verhält sich wie G-Sync. Alternativ kann V-Sync im Spiel aber auch deaktiviert werden. Das reduziert den Input-Lag, führt allerdings zu Tearing.
 
NVIDIA wird G-Sync auf absehbare Zeit nicht durch einen offenen Standard ersetzen. Ich bin gerade auf der GTC und habe gestern Abend mit dem Kopf hinter G-Sync gesprochen. Er betonte mehrfach, dass NVIDIA an G-Sync festhalten wird und das es in Kürze auch ein paar Neuigkeiten geben wird.

NV...umdenken bitte, auch bei physics...
AMD ist da um Welten besser.

Intel und AMD treffen ja auch sinnvolle Abkommen.
 
Da verdrehst du aber etwas gewaltig, wenn du damit sagen willst, dass Freesync NUR mit eingeschaltetem V-Sync funktioniert. Wenn du nämlich ein paar Zeilen drüber liest, wirst du merken, dass es darum geht, was passiert, wenn die FPS die Bildwiederholrate des Bildschirms übersteigt. (z.B 180 FPS auf einem 144 Hz Monitor)

Und da macht G-Sync genau das selbe automatisch, bei Freesync kannst du dieses Verhalten noch zusätzlich unterbinden...


ne ich weiss schon was ich meine :)
ich hab ja schon 2 G-Sync gehabt.. du kommst gar nicht erst über die Frequenz des Monitors, egal ob du V-Sync an oder aus hast, du musst mit G-Sync gar nichts machen
120 Hz = 120 FPS Cap, 144 Hz = 144 FPS Cap

nur das habe ich gemeint, man muss nichts/braucht nichts machen
 
ich hab ja schon 2 G-Sync gehabt.. du kommst gar nicht erst über die Frequenz des Monitors, egal ob du V-Sync an oder aus hast, du musst mit G-Sync gar nichts machen
120 Hz = 120 FPS Cap, 144 Hz = 144 FPS Cap

nur das habe ich gemeint, man muss nichts/braucht nichts machen

G-Sync setzt da bei einer FPS-Überschreitung automatisch das Limit äquivalent zur Bildwiederholrate, was übrigens nicht deaktivierbar ist und deshalb kommst du auch nie über 144 FPS mit deinem Bildschirm. Bei Freesync das selbe, aber im Gegensatz zu G-Sync kannst du diese Funktion auch manuell abstellen, indem du im Spiel V-Sync deaktivierst.

Und bevor Fragen aufkommen: Das bedeutet übrigens nur, dass V-Sync (das FPS Cap) aktiviert wird, wenn die von der Grafikkarte ausgegebenen FPS die Bildwiederholrate des Monitors übersteigen und nicht, dass V-Sync mit all seinen Nachteilen auch tatsächlich immer eingeschaltet bleibt/wirkt. ;)

Also ja, man hat es bequemer, wenn man so will.
 
is schon klar

und warum soll ich nochmal wollen mehr FPS als mein Bildschirm Hz hat?
damit ich Tearing habe oder damit ich manuell V-Sync einschalte?

sinnloses Feature meinst nicht auch?
 
Man sollte einfach einen FPS-Limiter einsetzen, dann ist das egal.
 
Ich finde es immer gut, wenn man die freie Wahl hat. Kostet dich ja bloß einen Mausklick.

Einen Sinn hat das ja auch, manche geben nichts auf die Bildqualität (professionelle Spieler) und wollen keinerlei zusätzlichen Inputlag durch V-Sync haben. Durch die freie Wahl wird auch dieser Personenkreis zufriedengestellt, ohne dass dieser auf zusätzliche Software zurückgreifen muss.
 
Zuletzt bearbeitet:
ja aber ist ja eigentlich gegen den Sinn von Sync der beiden markterhältlichen Möglichkeiten

also so sehe ich das, kann auch sein das ich das mißverstehe, aber ich seh das nicht unbedingt als Feature an
 
Ja da bin ich bei dir, ich will auch kein Tearing haben.

Die besagte Profispieler die auf niedrigen Auflösungen und ohne Kantenglättung usw. Counterstrike o.ä auf höchstem Niveau spielen möchten werden sich darüber freuen.
 
is schon klar

und warum soll ich nochmal wollen mehr FPS als mein Bildschirm Hz hat?
damit ich Tearing habe oder damit ich manuell V-Sync einschalte?

sinnloses Feature meinst nicht auch?
Nein, natürlich nicht sinnlos. Du hast den Sinn nur noch nicht verstanden. AMD gibt dem Nutzer die OPTION, zwischen Input-Lag und Tearing zu wählen, je nachdem was in der jeweiligen Situation bevorzugt wird. Bei Nvidia hast du diese Option NICHT. Da musst du mit dem Input-Lag leben, selbst wenn dieser störender ist als Tearing.
 
welcher Inputlag?
 
sorry, nochmal

ich nix V-Sync ;)
 
Du doch V-Sync, da G-Sync es praktisch unwiederruflich aktiviert, sobald du die Bildwiederholrate deines Monitors überschreitest. ;)

-> Kein Tearing, dafür mehr Inputlag, was je nach Spiel deinen Aim äußerst verschlechtern kann. Bei AMD kannst du zum Glück immer individuell entscheiden.
 
ich spiele 1440P mit 1 GPU

1. habe ich immer V-Sync aus, ich habe mein ganzes Leben noch nie mit V-Sync gezockt (wegen Inputlag)
2. habe ich G-Sync genau aus diesem Grund gekauft (Sync ohne V-Sync Nachteile)
3. erreiche ich in meiner Kombination niemals die 144 FPS und wenn doch sind es 6,9ms Inputlag ...

daher frage ich nach dem Sinn, dann entweder mit Tearing zu zocken oder mit Inputlag?!
 
3. erreiche ich in meiner Kombination niemals die 144 FPS und wenn doch sind es 6,9ms Inputlag ...

Das ist genau der Knackpunkt.

Es gibt sehr wohl einen haufen (alter) Spiele bei denen man nunmal mit einer halbwegs neuen Karte durchgehen über 200 FPS hat. Wenn man dann G-Sync nutzt, muss man den höheren Inputlag in Kauf nehmen oder Tearing. Bei letzterem müsste man dann ständig G-Sync im Treiber ein und ausschalten, denn es gibt einfach Menschen, die wollen jeden noch so kleine Verzögerung eliminieren. Bei Freesync setzt du einen Haken im Spiel oder eben nicht.

Die "Bequemlichkeit" ist also stark standpunktabhängig.
 
ich bleibe dabei das es kein "Feature" ist

wenn du bei Freesync nichts machst hast du ab 144? Hz Inputlag, machst du was hast du 200 FPS und Tearing
sorry?!


und der maximale Inputlag ist bei 144 Hz/FPS 6,9ms.. das ist weniger als manche Monitore von Haus aus haben ^^

Edit: für mich kein Feature :)

#nohate
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh