[Sammelthread] ASUS ROG SWIFT PG27AQ, UHD-Gsync-Monitor mit 10 Bit IPS-Panel

Na also ;)
Bin auch sehr zufrieden mit dem Pg279AQ wie auch schon mit dem PB278Q.
Mit Asus hatte ich bisher zum Glück noch keine Probleme.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Noja sieht so aus als wenn der erste den ich hier hatte wirklich ein B-Ware Gerät war.....allein schon wieviele Kratzer auf dem Panel sind, unglaublich !!!


andere Frage: reicht das DisplayPort Kabel von ASUS völlig aus oder kann man wie bei HDMI KAbel auch höherwertige kaufen irgendwo ?? macht das überhaupt Sinn ??
 
Zuletzt bearbeitet:
Ich betreibe ihn mit dem mitgelieferten Kabel und habe keinerlei Probleme.
 
Zwei Fragen zum Monitor:

1.Allgemein wie ist die Bildschärfe ?
2.Wie ist das Bild in 1080P und 1440P?
 
Ähm habe da mal kurz eine Frage, wenn ihr GSYNC an habt, macht ihr dann im NV Menü VSYNC auf on oder auf off?!
Und geht GSYNC überhaupt mit gleichzeit aktivierten VSYNC?!

Liebe Grüße
Sharie
 
Soo hab heute meinen Monitor bekommen.

Keine Pixelfehler, Keine Staubenschlüsse, Ips Glow bzw. BLB an allen 4 Ecken welches jedoch nur bei komplett Schwarzem Bildschirm auffällt. Die Schärfe ist ggü. Full HD auf 27" *hust* ein Traum.

Habe ein einige Fotos des BLB bzw Ips Glow's (bin mir da nie sicher was es genau ist) gemacht. Ich war erschreckt wie grauslich das auf einem Foto wirkt. Ist auf keinem Fall mit der Realität zu vergleichen.

Hier ein Bild: index.jpg
 
Ähm habe da mal kurz eine Frage, wenn ihr GSYNC an habt, macht ihr dann im NV Menü VSYNC auf on oder auf off?!
Und geht GSYNC überhaupt mit gleichzeit aktivierten VSYNC?!

Jap, geht gleichzeitig.
Ich verwende aber Vsync aufgrund des höheren inputlags idR. nicht.
Daher Gsync on und ggf. framelimiter.

Soo hab heute meinen Monitor bekommen.

Keine Pixelfehler, Keine Staubenschlüsse, Ips Glow bzw. BLB an allen 4 Ecken welches jedoch nur bei komplett Schwarzem Bildschirm auffällt. Die Schärfe ist ggü. Full HD auf 27" *hust* ein Traum.

Habe ein einige Fotos des BLB bzw Ips Glow's (bin mir da nie sicher was es genau ist) gemacht. Ich war erschreckt wie grauslich das auf einem Foto wirkt. Ist auf keinem Fall mit der Realität zu vergleichen.

Schön, viel Spaß mit dem Teil :wink:
 
Zuletzt bearbeitet:
Jap, geht gleichzeitig.
Ich verwende aber Vsync aufgrund des höheren inputlags idR. nicht.
Daher Gsync on und ggf. framelimiter.



Schön, viel Spaß mit dem Teil :wink:


Okidoki dankeschön, hat es sonst vor und nachteile bzw wo ist genau der unterschied zwischen GSYNC+VSYNC und GSYNC-VSYNC?!

Liebe Grüße
Sharie
 
Ich glaube das G-Sync dafür sorgt das V-Sync gar nicht an ist. Auch wenn im Treiber beides an ist glaube ich das nur G-Sync in echt an ist. V-Sync braucht ja auch keiner der G-Sync hat.
 
Soweit ich das verstehe, sorgt VSync dafür, dass die FPS nicht über 60 Hz (bzw. dem jeweiligen Max-Wert des Monitors) gehen, was ja sonst auch wieder zu Tearing führen würde. Sobald die FPS unter die 60 Hz fallen, greift dann automatisch GSync ein.
Ob GSync jetzt automatisch VSync mit einschaltet oder nicht, weiß ich aber auch nicht. Auf jeden Fall macht GSync ohne VSync nicht viel Sinn, ansonsten müsste man die FPS anders (z.B. über einen Frame-Limiter) begrenzen...
 
Okidoki dankeschön, hat es sonst vor und nachteile bzw wo ist genau der unterschied zwischen GSYNC+VSYNC und GSYNC-VSYNC?!

Liebe Grüße
Sharie

V-Sync an:

bis 60 FPS hast du G-Sync, ab 61 FPS V-Sync

V-Sync aus:

bis 60 FPS hast du G-Sync, ab 61 bis 345824369537693146796517396571329067 FPS haste nix
 
Also ich hab in der NVidia-Systemsteuerung bei mir Vsync Ein ( flüssig ) und läuft in WOT absolut perfekt.....lasse ich da Vsync aus springt der in WOT auf über 80 Fps und es ruckelt und zuckelt......also hab ich es wieder auf Ein ( flüssig ) gestellt.....
 
Mal zur erleuterung:

Wird V-Sync aktiviert, stellt die Grafikkarte dem Monitor ein fertiges Bild immer dann zur Verfügung, wenn er ein neues Bild darstellen muss. Bei einem 60-Hz-Monitor liefert die Grafikkarte also maximal 60 Bilder pro Sekunde. Alle 16 Millisekunden genau ein Bild, das der Monitor daraufhin vollständig darstellt. Braucht die Grafikkarte weniger als 16 Millisekunden für das nächste Bild, hält sie es so lange zurück, bis der Monitor wieder bereit ist. Braucht sie länger, stellt der Monitor das letzte Bild noch einmal dar. Das fertige Bild wird einen Zyklus später ausgegeben. Sollte die Grafikkarte bis dahin ein neues erstellt haben, verfällt es.

Wird V-Sync deaktiviert, gibt es keine Synchronisation zwischen der Bildwiederholfrequenz des Bildschirms und der Auslieferung der Bilder durch die Grafikkarte mehr. Die Grafikkarte erstellt Bilder, so schnell sie kann. Sobald ein neues Bild fertig ist, geht es an den Monitor. Ist der gerade dabei, den Bildschirminhalt mit einem Bild zu erneuern und erhält er währenddessen das nächste Bild, stellt er dieses noch im selben Aktualisierungsvorgang dar. Ohne V-Sync können so innerhalb einer Aktualisierung des Bildschirms mehrere Teilbilder gleichzeitig auf den Monitor gezeichnet werden.

Die nicht synchronisierte Zusammenarbeit bei deaktiviertem V-Sync führt über die Darstellung von Teilbildern innerhalb eines Refresh-Zyklus zum so genannten „Tearing“: Das auf dem Monitor dargestellte Bild hat an der Stelle, an der ein neuer Frame beginnt, einen „Riss“ („Tear“).
Ein weiterer Nachteil der Verarbeitung fertig gerenderter Bilder als Teilstücke: Obwohl die FPS der Grafikkarte hoch liegen, fängt das Bild an zu stottern, weil mehrerer Bilder für nur eine Aktualisierung des Monitors verwendet werden. Die effektiv sichtbaren FPS auf dem Monitor liegen niedriger.

Der große Vorteil der deaktivierten Synchronisation ist, dass die Verzögerung zwischen der Interaktion des Spielers (Input) und der Darstellung des darauf basierenden Bildes so wenig Zeit wie möglich vergeht. Der so genannte „Input Lag“ ist minimal.

Wird V-Sync aktiviert, verschwindet „Tearing“. Denn es wird immer genau ein vollständiges Bild je Aktualisierung des Bildschirminhalts wiedergegeben. Das Bild ist ruhig und zeigt keine unschönen Versatzstücke.
Dafür steigt der Input Lag. Zum einen bereits dadurch, dass Bilder nur alle 1 Sekunde / 60 Hz (abhängig von der Bildwiederholfrequenz des Monitors) und nicht sofort dargestellt werden. Zum anderen dadurch, dass der Monitor der Grafikkarte den Takt vorgibt. Wenn die Grafikkarte neue Bilder schneller berechnet als der Monitor den Bildschirminhalt aktualisiert, muss der Pixelbeschleuniger Bilder zurückhalten. Die diesen Bildern zugrunde liegende Eingabe des Anwenders „altert“. Berechnet die Grafikkarte neue Bilder hingegen langsamer als der Monitor zwischen zwei Aktualisierungen benötigt, verpasst sie den Zeitpunkt für die Auslieferung. Der Monitor stellt in diesem Fall noch einmal das alte Bild dar und der neue Frame wird erst einen Zyklus später verwendet – auch in diesem Fall liegt die Eingabe des Nutzers bereits länger zurück.

Im Extremfall fängt die Grafikkarte kurz nach der letzten Aktualisierung auf dem Bildschirm mit dem Bild an, verpasst die nächste Aktualisierung allerdings knapp. Das Bild wird deshalb erst eine weitere Aktualisierung später ausgegeben; es sei denn, bis dahin liegt bereits ein neues vor.

Je nach Engine und FPS-Rate reicht der Input-Lag von „kaum zu spüren“ bis hin zu „unspielbar“. Die Verzögerung von Bildern beziehungsweise die Ausgabe identischer Bilder führt darüber hinaus auch hier dazu, dass das Bild anfängt zu stottern, weil die Bilder trotz offensichtlich hoher FPS in unregelmäßigen Abständen an den Monitor wandern.

Nvidias G-Sync soll wie aktiviertes V-Sync „Tearing“ verhindern, ohne den Input Lag durch das Verzögern oder mehrfache Darstellen von Bildern zu erhöhen.

Der Trick: G-Sync-Monitore arbeiten nicht mehr mit einer festen, sondern mit einer variablen Bildwiederholfrequenz, die sich nach der Grafikkarte richtet: wenn die Grafikkarte 50 Bilder pro Sekunde liefert, läuft der Monitor mit 50 Hertz. Sind es 40 FPS, liegen beim Display 40 Hz an.
In der Praxis bedeutet das: die Grafikkarte stellt einen Frame fertig, danach sendet sie das Bild an den Monitor und teilt zugleich mit, dass es dargestellt werden kann. Erst auf diesen Befehl hin leitet der Monitor einen Refresh-Zyklus ein. Danach pausiert das Panel und wartet, bis das nächste Frame von der Grafikkarte kommt – und erst dann findet der nächste Refresh statt.

Tearing durch das gleichzeitige Darstellen mehrerer Bilder in einem Refresh-Zyklus und Stottern durch das Aufschieben von Bildern werden durch G-Sync effektiv verhindert. Auch der Input-Lag sinkt. Allerdings ist er höher als bei abgeschaltetem V-Sync, da die Frames nicht immer sofort nach der Fertigstellung dargestellt werden können. Denn ist der Monitor gerade noch damit beschäftigt, den letzten Frame zu zeichnen, lässt er die Ausgabe eines weiteren nicht zu – andernfalls würden sich Konditionen wie bei V-Sync aus einstellen, inklusive Tearing.
G-Sync funktioniert nicht unterhalb von 30 FPS. Liegt die Geschwindigkeit oberhalb der Bildwiederholfrequenz des Monitors, arbeitet G-Sync identisch zu V-Sync.

Die untere Grenze ist eine manuell gesetzte. Würde G-Sync auch unterhalb funktionieren, würde der Monitor in Szenen, in denen weniger als 30 Bilder pro Sekunde berechnet werden, seltener als 30 Mal pro Sekunde den Bildschirm aktualisieren. Der Bildschirm würde zu flimmern beginnen. Bei unter 30 FPS liefert ein G-Sync-Rechner alle 1/30 s = 32 ms ein Bild an den Monitor – bei unter 30 FPS mitunter dasselbe Bild wie vorher –, das daraufhin sofort dargestellt wird, während der Monitor weiterhin mit 30 Hz betrieben wird. Bei einem Rechner mit V-Sync arbeitet der Monitor hingegen weiterhin mit 60 Hz und die Grafikkarte sendet alle 16,7 ms ein Bild an den Monitor – häufiger als bei G-Sync dasselbe Bild wie das vorherige. Kommt der 3D-Beschleuniger über die Grenze von 30 FPS, wird bei G-Sync die Bildwiederholfrequenz wieder angepasst.
Die obere Grenze ist technisch bedingt. Liefert die Grafikkarte mehr FPS als der Monitor Hertz aufweist, limitiert der Monitor. Die Aufforderungen der Grafikkarte, ein fertiges Bild sofort auszuliefern, kann er nicht mehr nachkommen, da die Abfolge zu eng getaktet ist. Die Grafikkarte muss – wie bei V-Sync an – mit der Aussage warten und rendert zwischenzeitlich bereits am nächsten Frame. Sie wird bei FPS = Hertz gedeckelt.

Der beste Weg ist mMn. Gsync in Kombination mit einem Treiberbasiertem- Framelimiter.
 
Zuletzt bearbeitet:
Der beste Weg ist mMn. Gsync in Kombination mit einem Treiberbasiertem- Framelimiter.

nein?

wozu Framelimiter?

du hast von X bis 120/144 FPS/Hz G-Sync und darüber eben V-Sync

wann überschreitest du diese 120/144 überhaupt? und wenn, dann hast du maximal 8 bzw 7 ms Inputlag

Framelimit heisst, egal wie genau du es anpasst, einige Frames werden doppelt angezeigt
 
Kommt halt darauf an, was einem wichtiger ist bzw. was einen mehr stört.
Wenn man mit dem durch Vsync erhöten inputlag leben kann, ist das nat. auch in Ordnung.
 
da kommst du ja außer in CS GO selten hin ;)
 
Ergo ist für einen PG27AQ die beste Treibereinstellung nun wie?

G-Sync im Treiber an und vertikale Synchronisierung auf Ein, da das Panel ja eh nur bis 60Hz kann? Denn G-Sync geht ja auf jeden Fall bis 60Hz, was heißen würde, V-Sync geht eigentlich niemals an? Richtig so?
 
Die "beste" Einstellung ist wohl eher eine Geschmacksfrage.

Ich persönliche präferiere G-Sync mit V-Sync ON.

Bis 99 FPS arbeitet G-Sync und in den paar Szenen, in denen ich bei 3440x1440 an das FPS Cap meines Monitors komme, also 100 FPS habe, greift dann V-Sync.

In der Theorie ist natürlich G-Sync ohne V-sync die "bessere" Einstellung, denn sie reduziert den Lag (und das soweit ich mich erinnere sogar schon unter Hz Cap).
Hier hat man halt ab Hz Cap das Problem mit Tearing. Ein FPS Limit wäre dann eine Lösung mit Vor- und Nachteilen.
 
Zuletzt bearbeitet:
Ergo ist für einen PG27AQ die beste Treibereinstellung nun wie?

G-Sync im Treiber an und vertikale Synchronisierung auf Ein, da das Panel ja eh nur bis 60Hz kann? Denn G-Sync geht ja auf jeden Fall bis 60Hz, was heißen würde, V-Sync geht eigentlich niemals an? Richtig so?

Vsync begrenzt halt deine FPS, so dass diese nicht über 60 gehen.
Alles darunter bzw. bis 30Fps wird via Gsync verarbeitet.

Die "beste" Einstellung ist wohl eher eine Geschmacksfrage.

Absolut richtig.
 
Zuletzt bearbeitet:
Könnt ihr im nVidia Control Panel die Farbtiefe auf 10 Bit stellen? Sollte der Monitor doch eigentlich können oder? Bei mir geht maximal 8 Bit. Habe eine GTX 780ti.
 
es ist aber kein native 10bit sonder nur 8bit+FRC Dithering.

Danke, so eine Aussage habe ich auch gerade in einem englischem Forum gefunden.

"achieves 10-bit color by using 8-bits with FRC". It is not a true 10 bit panel, ASUS made a mistake intentionally or unintentionally with that description.
 
Habt ihr in den Spielen im Grafikmenü dann V-Sync an oder aus? Ich schalte das immer aus, dafür habe ich doch G-Sync dachte ich eigentlich.
 
Wenn du im Nvidia Treiber V-Sync fest auf "Ein" stellst, wird die Einstellung in Games immer ignoriert, es ist dann quasi egal, was in den Games eingestellt ist. Zwischen 30 - 59 Frames hast du dann G-Sync, bei 60 Frames V-Sync. Wenn ich das so richtig ausdrücke, das macht einen ganz kirre, dieses ganze Sync-Zeugs. ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh