Polaris 30 als Re-Refresh wird immer konkreter

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gut, Quellen braucht man wohl immer nur, wenn man AMD nicht lobhuldigt, also dann:

Dissecting G-Sync and FreeSync - How the Technologies Differ | PC Perspective
Let's talk about V-Sync, Free-Sync, G-Sync, Adaptive-Sync and Fast-Sync. : buildapc

Nur FreeSync ist auf FPS Fenster beschränkt.
Nvidia G-sync
G-sync is a hardware and software solution to allow tear free gaming through the entire refresh rate range of the monitor regardless of the VRR window(example 0-165hz).

But what happens with this FreeSync monitor and theoretical G-Sync monitor below the window? AMD’s implementation means that you get the option of disabling or enabling VSync. For the 34UM67 as soon as your game frame rate drops under 48 FPS you will either see tearing on your screen or you will begin to see hints of stutter and judder as the typical (and previously mentioned) VSync concerns again crop their head up. At lower frame rates (below the window) these artifacts will actually impact your gaming experience much more dramatically than at higher frame rates (above the window).

The main point of Fast-sync is that is allows the game engine to run its physics engine at a high frame rate (example 300fps) while the game only displays on your display at a lower frame rate(example 120Hz).

G-sync falls back onto either Fast-sync or V-sync when the FPS goes above the refresh rate of the monitor.

Und "Inputlag aus der Hölle" bei V-Sync ist wohl Definitionssache.
Da ich keine Shooter spiele, ist mir noch nie aufgefallen, dass ich durch V-Sync irgendwelche Probleme bekomme.

Oh und ein weiteres "Schmankerl":

G-sync works in both windowless and windowed modes.
Dabei findet man dutzende Artikel wenn man FreeSync Borderless sucht, wie: Freesync borderless/windowed mode doesnt work (Acer XF240H) | guru3D Forums

Ich weiß, als Fanboy hört man es nicht gerne, aber es gibt Qualitätsunterschiede.
Ob die für jemanden relevant sind, muss jeder selber entscheiden. Das bedeutet aber nicht, dass sie nicht da sind.
Für mich wäre fehlendes Borderless direkt ein absolutes NO WAY. Ich habe immer zwei Screens laufen und immer Borderless in Spielen. Das alleine wäre also schlicht der Showstopper der mich zu G-Sync zwingt.
 
Zuletzt bearbeitet:
Selbstverständlich funktioniert Freesync sowohl im borderless (windowed)Fullscreen als auch im "richtigen" Fenstermodus. Erzähl doch hier nicht wieder irgendwelche Lügenmärchen und saug dir irgendwas aus den Fingern...
 
Wieso ist Gsync Placebo? Du hattest es wohl noch nie vor Augen. Für 4K ist es aktuell praktisch Pflicht. Mit einer 1080 Ti dropt man da permanent knapp unter die 60 FPS, was ohne Sync absolut grottig aussieht. Mit Sync bemerkt man diese Drops zudem ohne FPS-Counter nicht mehr, das Spielgefühl ist genauso flüssig wie über 60 FPS.

Natürlich würde ich kein Sync bei einer Mittelklassekarte kaufen. Da ist das optional. Dann lieber eine bessere Grafikkarte. Wenn man schon die beste GPU/Monitor-Kombo hat ist das Sync noch das i-Tüpfelchen, weil eben nicht mehr geht.
 
Schön, nur als ich es gekauft habe gab es keine 2080 Ti. Und selbst die droppt noch auf unter 60 FPS.
 
Selbstverständlich funktioniert Freesync sowohl im borderless (windowed)Fullscreen als auch im "richtigen" Fenstermodus. Erzähl doch hier nicht wieder irgendwelche Lügenmärchen und saug dir irgendwas aus den Fingern...

Google "Freesync Borderless".
Dutzende Topics scheinen Dir zu widersprechen.
Es wird wohl unterstützt seit einer Weile, aber funktioniert eben nicht sauber.

Kann es selber nicht testen, da ich keine AMD Karte habe. Aber wenn auf Anhieb so viele Topics zu einem Problem auftauchen, dann glaube ich eher an das Vorhandensein des Problems, als einer Einzelperson die einfach mal die dutzenden Topics von Leuten die Hilfe und Erklärungen suchen als "fake" darstellt.
Sind wir wieder bei dem Thema von ein paar Replies vorher: Sobald man AMD die Eier schauckelt sind keine Nachweise nötig. Aber wehe man sagt etwas Neutrales, oder gar Negatives. Dann muss das nicht nur belegt werden, sondern jeder Beleg ist auch noch automatisch irrelevant, weil "ist halt so".
Tolle Diskussionsgrundlage! :-)

- - - Updated - - -


Danke für den Link.
Hatte das Video irgendwie nicht mitbekommen, obwohl ich den Channel abonniert habe, hmm.

Erklärt sehr schön wieso ich sowas wie Inputlag noch nie bemerkt habe. Scheint echt so simpel zu sein wie erwartet: Wer keine Shooter spielt, merkt es nicht.
Zumal "inputlag" fast noch unglücklich gewählt ist als Term ansich. Es ist ja eher "InputAnzeigeLag", weil die Inputs durchaus instant reagieren und auch ausgeführt werden, man sieht sie halt worst case 16ms später.
Aber auch ohne VSync ist Inputlag ja vorhanden. Vor allem wenn man am oberen Ende des Bildschirms einen Input ansetzt, dann kann genau die selbe Verzögerung entstehen.
Wenn ein Bildschirm halt nur 60hz hat, dann kann kein Sync der Welt mehr als diese 60 Bilder anzeigen. Und ohne Sync hat man die zerissenen Bilder.

Ernstgemeinte Frage an die Shooter Spieler:
Empfindet Ihr den Inputlag OHNE V-Sync angenehmer als mit?
Mit V-Sync ist der inputlag ja berechenbar sozusagen, da die Anzeige in jeder Situation gleich reagiert. Ohne V-Sync kann der Lag variieren, je nachdem wo man gerade mit dem Cursor ist.
Wenn man wirklich ms Intervalle bemerkt, dann müsste diese Unberechenbarkeit doch auch auffallen. Stelle mir das gerade vor und glaube, dass mir ein berechenbares Delay lieber wäre als ein unberechenbares delay, dass nicht nur an der Situation, sondern auch noch an der Position des Cursors hängt.

Um die Kurve zum Topic nochmal zu schlagen:
Ich hoffe, dass der Refresh der 580 kein Sync braucht. Das wäre weiterhin die bessere Variante als irgendwie den Monitor mit zu geringer Leistung zu syncen.
Wenn der Preis bleibt, dann ist das sicher ein Verkaufsschlager.
 
Hä ? Gehts in dem Video nicht darum, daß man mit V-Sync sehr wohl Input Lag merkt aber man diesen ohne Sync bzw. mit Fast Sync / Enhanced Sync durch mehr FPS als Hz senken kann !?

Ja natürlich. Wo habe ich was anderes behauptet? Das Video selber habe ich schon verstanden. War ja sehr gut präsentiert.
Meine Fragestellung baut darauf auf. Es ist ja offensichtlich kein Schwarz / Weiß Thema, sondern explizit ein "Choose your Poison" Thema.
Wenn man wirklich Lags im ms Bereich bemerkt, vor allem so isoliert wie ein Input, dann hat man ja so und so das Problem. Man hat dann nur die Wahl zwischen kürzeren, dafür Random lags, oder längeren, dafür fixen lags.
 
Ich sage nicht man merkt es nicht, ich sage ICH bemerke es nicht.
Es gibt immer Leute die viel sensibler sind als andere. Oder sich das einreden. je nachdem. ;-)

Würdest Du also die unberechenbaren Lags von V-Sync-off als weniger störend bezeichnen als die berechenbaren lags von V-Sync-on?
Mit V-Sync sieht man bis zu 60 Inputs pro Sekunde, immer. Mit V-Sync off kann das schwanken zwischen keine Ahnung,... 0 bis beliebig viele.
Wenn ich so sensibel für lags wäre, würde mich das unberechenbare sicher mehr stören.
 
Mit mehr FPS als Hz z.B. 120FPS@60Hz ist der Input Lag noch geringer aber das geht aber nur ohne Sync
oder mit Nvidia Fast Sync und AMD Enhanced Sync aber so schön es sich in der Theorie anhört ist es nicht denn diese Methoden verursachen leider auch Mikroruckler.
Ich nutze Sync-Schnell jeden Tag bei fast allen spielen (inklusive 120FPS-Begrenzer), Mikroruckler (und zerreißen des Bildes) werden dadurch effektiv beseitigt, Mikroruckler merke ich nur wenn ich normales V-Sync oder Adaptives-Sync nutze.
 
Zuletzt bearbeitet:
Wer derartige Beiträge verfasst, hat entweder ein erzieherisches Problem oder Spiele sind einem schlichtweg nicht wichtig, wenn man nicht mal 15min am Tag für sein Hobby findet hat man aber andere Probleme...
 
Zuletzt bearbeitet:
Das denke ich mir aber auch. Ich spiele zum Teil mehr als 8 Stunden am Tag wenn ich Zeit und Lust habe, ein Suchtproblem hätte ich aber trotzdem nur wenn ich wichtige Dinge aufgrund der Sucht aus den Augen lassen würde oder zwanghaft spielen müsste. Viel schlimmer finde ich Leute die permanent an Handy oder TV hängen und dann über PC-Spiele herziehen.

Mit Performer kann man nicht diskutieren, aber der erzählt einem eh in einem Thread dass er nie unter 144 Hz zocken würde, erwähnt dann aber in einem anderen seine Konsole... Hahahaha!!!
 
Ja, das ist so als wenn ich meine GT 530 daran anschließen würde, dann macht die plötzlich magischerweise 4K maxed out mit 120 FPS.
 
Google "Freesync Borderless".
Dutzende Topics scheinen Dir zu widersprechen.
Es wird wohl unterstützt seit einer Weile, aber funktioniert eben nicht sauber.

Kann es selber nicht testen, da ich keine AMD Karte habe. Aber wenn auf Anhieb so viele Topics zu einem Problem auftauchen, dann glaube ich eher an das Vorhandensein des Problems, als einer Einzelperson die einfach mal die dutzenden Topics von Leuten die Hilfe und Erklärungen suchen als "fake" darstellt.
Sind wir wieder bei dem Thema von ein paar Replies vorher: Sobald man AMD die Eier schauckelt sind keine Nachweise nötig. Aber wehe man sagt etwas Neutrales, oder gar Negatives. Dann muss das nicht nur belegt werden, sondern jeder Beleg ist auch noch automatisch irrelevant, weil "ist halt so".
Tolle Diskussionsgrundlage! :-)

Schau mal in meine Systeminfo. Ich kann dir aus eigener Erfahrung bestätigen dass es so ist, da ich es quasi täglich Tag nutze (WoW hat seit Patch 8.0 keinen exkl. Vollbildmodus mehr sondern nur noch borderless windowed; Witcher 3 spiele ich im 1080p Fenster da meine GPU da für 1440p zu schlapp ist). It just works!

Natürlich mags immer mal einzelne Probleme bei Usern geben (wie den Thread den du da irgendwo ausgebuddelt hast), das aber als allgemeingültig hinzustellen ist halt falsch. Du selbst kannst es nicht testen, behauptest aber dass es generell nicht funktioniert. Ich kann es testen und sage dir es geht problemfrei. Ja,
tolle "Diskussionsgrundlage" deinerseits! :shake:

Bin mir sicher ich finde auch "12" Topics in irgendwelchen Foren wo es Probleme mit GSync gibt, aber das ist doch witzlos und auf solchen Schmarrn lasse ich mich sicher nicht ein.

Zum Topic: mal sehen ob man tatsächlich vielleicht etwas Leistung auf eine 580 drauflegen kann, dann wär so eine tatsächlich ganz interessant wenn der Preis stimmt. Bräuchte halt etwas mehr Power für WQHD, vor allem wirds aber mit nur 4GB vRam mittlerweile echt knapp. Ansonsten wirds wohl demnächst eine
Vega 56, mittlerweile sind die Preise ja wieder in annehmbaren Regionen angekommen.
 
Zuletzt bearbeitet:
Mit Usern wie Rattenmann brauchste nicht zu diskutieren. Ignore und gut. Ich habs ja auch probiert.
 
Mit Usern wie Rattenmann brauchste nicht zu diskutieren. Ignore und gut. Ich habs ja auch probiert.

Richtig. Du hast aufgegeben nachdem ich zu jedem Detail einen Link mit Fakten geliefert habe, nachdem Du jegliche Realität verweigert hast.
Dieses Fanboygetue im Forum ist echt nervig. Was hast Du davon die Augen zuzumachen vor der Realität? Davon ändert sie sich nicht. Gerade AMD leidet unter solchen Leuten am stärksten, obwohl sie echt jedenrichtigen Fan brauchen könnten.
Einfach traurig.
 
Verstehe die ganze Diskussion nicht. Wenn AMD nen Refresh seiner 580 rausbringt und das minimalen Performancegewinn bei gleichzeitig deutlichem Effizienzgewinn bedeutet, ist der Mainstream doch perfekt bedient. Wäre dann ein gelungener Refresh für die FHD Kampfklasse die immer noch den Markt dominiert.
 
Verstehe die ganze Diskussion nicht. Wenn AMD nen Refresh seiner 580 rausbringt und das minimalen Performancegewinn bei gleichzeitig deutlichem Effizienzgewinn bedeutet, ist der Mainstream doch perfekt bedient. Wäre dann ein gelungener Refresh für die FHD Kampfklasse die immer noch den Markt dominiert.

Absolut.
Die 580 ist bereits ein heißer Kandidat für jede Empfehlung in dem Leistungsbereich.
Das Ding zu verbessern ist ein verdammt guter Schritt von AMD und wird NVidia aus dem Leistungsbereich komplett verdrängen (von Fanboys abgesehen, wie immer), außer sie droppen Preise gewaltig.
Also ein win für alle Seiten, minus Nvidia. :-)

- - - Updated - - -

Du brauchst schon mindestens konstante 30FPS in UHD/4K also GTX1060/RX580 aber besser wären konstante 60FPS weil je höher die Basis desto weniger Bildfehler der Zwischenbildberechnung.
Trotzdem sieht es schon verdammt geil aus wenn The Witcher 3 in UHD/4K auf einmal mit 120FPS@120Hz läuft obwohl der PC eigentlich nur 60FPS schafft. Einfach mal ausprobieren und staunen.

Habe jetzt spontan nichts gefunden was das belegt was Du hier ansprichst.

Du redest von Zwischenbildberechnung. Das wird meist gar nicht "berechnet", sondern einfach ein Frame kopiert.
Man hat dann zwar offiziell 120fps, aber in der Realität ist einfach jeder Frame nur 4x kopiert und wird 4x angezeigt. Das Ergebnis ist dann eine 120fps Anzeige, die aber nur 30fps berechnet hat. Und auch wie 30fps aussieht (das ist der Kicker hier).
Du kannst ja auch nicht einfach 1 FPS berechnen, den 60x kopieren und dann von einer 60fps Erfahrung reden. Es bleibt 1 Frame, der einfach öfter angezeigt wird. Augenwischerei im wahrsten Sinne des Wortes in dem Fall.

Da ich davon ausgehe, dass Du das so nicht gemeint haben kannst, würdest Du uns einen Link geben um nachzulesen was Du meinst?
Zwischenbildberechnung gibt es ja über MachineLearning durchaus, aber das ist nicht viel performanceschonender als einfach die Bilder zu berechnen. Wenn man also 30fps Leistung hat, wird damit bestenfalls 40-45fps hochgerechnet. In keinem Fall 120fps.
Zudem entsteht eine deutlich höhere Verzögerung als die meisten leute bereit wären zu akzeptieren.
 
Ob eine Zwischenbildberechnung nur Frames vervielfacht oder tatsächlich neue Frames errechnet kann ich dir nicht sagen aber da es um Bilder pro Sekunde geht ist das wohl egal.

Ehm, wenn die Frames nur kopiert werden, dann merkst Du sicher keine 120fps. Es sind weiterhin 30fps. Wenn Du da 120fps meinst zu bemerken, dann ist das ein Wahrnehmunsfehler.
Ob ein Frame nun 4x länger angezeigt wird (30fps), oder der Frame in 4 facher Kopie angezeigt wird (120fps), ändert absolut gar nichts am Ergebnis. Es sind 30 verschiedene Bilder pro sekunde und Du siehst genau 30 unterschiedliche Bilder pro Sekunde.
Ob es eine kopie ist, oder der selbe Frame länger da ist, ändert gar nichts. Darum sagst Du wohl auch, dass 60fps min sind damit es gut wirkt. Weil 60 halt besser aussieht als 30. Aber in keinem Fall ist das von Dir beschriebene Szenario ein 120fps Erlebnis.
Es ist schlicht Augenwischerei.
 
Egal ob die Frames nur vervielfacht oder tatsächlich neu berechnet werden, es sind letztendlich trotzdem mehr FPS und die Bewegung wird dementsprechend flüssiger
also die 30 oder 60FPS mit Zwischenbildberechnung auf 120FPS wirken genauso flüssig wie echte 120FPS, die aber keine Bildfehler und keinen Input Lag verursachen.
Hast du keinen Fernseher mit dieser Technik ? LG TruMotion, Sony MotionFlow, Philips ClearMotion, usw. gibt es bereits sei 10 Jahren, zumindest in teureren Geräten.

Das Stichwort ist hier Interpolierung, also das Einfügen eines weiteren Wertes zwischen zwei bestehenden. Bedeutet im Fall der Bildwiederholungsrate, dass ein weitere Bild zwischen zwei bestehende Bild eingefügt wird. Das berechnete Bild ist dabei aber zu keinem anderem Bild identisch, weder zu dem davor noch zu dem danach. Also insgesamt wirkt die Darstellung tatsächlich flüssiger. Der Nachteil wie immer bei der Interpolation: Die Genauigkeit. Genauso wie beim Anti-Aliasing das Bild unter Unschärfe leidet, so leidet auch bei der künstlichen Anhebung der Wiederholungsrate, wie es bei LG truMotion, Sony MotionFlow usw. es der Fall ist, die Darstellungsschärfe des Bilds.
Bei der Hochskallierung von 30 Hz auf 120 Hz wird also nicht jedes Bild 4 mal so lange dargestellt, sondern es werden zwischen zwei bereits bestehenden Bildern drei weitere berechnete (interpolierte) Bilder eingefügt.
Deswegen ist auch immer Abstand zu nehmen von Werbeversprechen wie "echte 600 Hz Wiederholungsrate". Das stimmt eben nicht. Es wird eben nur extrapoliert auf Kosten der Bildschärfe.
 
Zuletzt bearbeitet:
Interpolation ist aber auch nicht ohne Performance zu lösen. Man braucht weniger performance, aber eben doch auch. Man wird nicht 60fps bewerkstelligen und dann auf 120 hochcheaten können.
Dafür müsste man ja erst mal Performance freimachen. Also auf z.B. 50fps reduzieren. Und die freigewordene Performance in Interpolation stecken. Das dabei aber mehr als die doppelte fps Zahl rauskommen soll, das ist nur schwer vorstellbar ehrlich gesagt.
Gibt es da entsprechende Paper zu?

- - - Updated - - -

Hast du keinen Fernseher mit dieser Technik ?

Ich habe gar kein TV Gerät.
Sogar die Konsolen sind am PC angeschlossen. ;-)
 
Ihr seid schon wieder massiv off-topic, wärs möglich vielleicht mal halbwegs beim Thema zu bleiben? Es nervt wenn man jedesmal eventuell was zum Thema lesen möchte erstmal 20 Beiträge sieht (oder auch nicht) die völlig dran vorbei sind. Wie mit dem Freesync/GSync Gequake und jetzt
seid ihr ihr bei Fernsehern. Nehmt euch ein Zimmer oder macht das doch bitte per PN aus!
 
@topic
Mich stört ein ReRefresh nicht. Die Leistung der 585/680 (oder wie das Modell dann heißen soll) dürfte auf jeden Fall etwas über der GTX 1060 liegen. Somit Ideal um im Bereich wo hohe Stückzahlen abgesetzt werden, weiter Boden gut zu machen. Den Gerüchten nach soll der Nachfolger der GTX 1060 erst im Q1 oder Q2/2019 kommen. Sobald dieser dann da ist, werden die Karten eh neu gemischt. Bin mal gespannt, ob GDDR6 zum Einsatz kommt.

Edit: Eine Navi GPU muss also schonmal mehr als Polaris 30 leisten. ;)
 
Zuletzt bearbeitet:
Kannst du mir gerne schenken... Allerdings ist das fernab jeder Logik dieses Universums, da man 30 oder 60 FPS nicht in 120 FPS umwandeln kann, es sei denn man hat die entsprechende Grafikkarte dafür. Alles andere ist ******. Entweder Auflösung verringert oder irgendwelche Interpolation.

Wie Rattenmann schon sagt, ist das absoluter Bullshit. TVs haben meist so einen Gamingmode, genau wie manche mit 1000 Hz werben, letztlich ist das aber völlig unnötig wenn das Bildmaterial mit 24, 30 oder gar 60 Hz kommt. Interpoliert ist eben nicht nativ und echt von der Grafikkarte berechnet.

Gibt es mittlerweile Fernseher die echte 120 Hz liefern? Meines Wissens doch nur diesen Wasabi Mango. So ein Teil zu ordern wäre mir zu riskant, 1K und dann weiß man nicht wie er ist und wie es mit Garantie aussieht.

Back@Topic: Es ist eventuell erfreulich für Neukäufer, obwohl ich es jetzt etwas deplatziert finde, da wir ja bald schon Jahresende haben und Navi vor der Tür steht. Eventuell macht AMD das um ein gewisses "Neu"-Feeling zu suggerieren. Navi soll auf jeden Fall schneller sein, alleine schon da GDDR6. Ich denke ich werde damit meine 480 ersetzen. Letztes Mal habe ich es bereut mir keine neu zu kaufen als sie so günstig waren. 1070-1080-Leistung ist durchaus realistisch für die Navi, es sind ja nun auch drei Jahre vergangen.

Die 2060 können sie behalten, an sich hätte ich gern eine sparsame Karte, aber ich bezahle keine 400 € für einen 107-Chip. Und wenn das so weitergeht wird der so viel kosten. Die verlangen jetzt ~650 € für einen Midrange (106)-Chip. Ich finde die 1050 Ti schon überteuert, die ist zwar sparsam aber auch bedeutend langsamer als eine Polaris, die dasselbe kostet und nach Undervolting ebenfalls sehr effizient sein kann.
 
Freue mich schon drauf, wollte mir ein kleines Linux KVM System zusammen bauen, zur Überbrückung bis was starkes von AMD rauskommt perfekt.
 
Hast du keinen Fernseher mit dieser Technik ? LG TruMotion, Sony MotionFlow, Philips ClearMotion, usw. gibt es bereits sei 10 Jahren, zumindest in teureren Geräten.
Interessant, eigentlich spielt man auf TVs im Gaming Mode und da wird die ZBB deaktiviert und auch soviel anderes Gedöns wie möglich um den Inputlag zu verringern.
Du als der größte Inputlag-Freak, der zT mit Unterschieden von ein paar ms argumentiert, spielst aber im Modus mit ZBB und 50ms InputLag.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh