[Sammelthread] ASUS ROG Swift PG278Q

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich verstehe deine Frage nicht. Es gibt keine Karte, die Far Cry 4 mit sämtlichen Einstellungen bei 1440p mit 144fps darstellen kann.
 
Ich meinte ob die Graka für solche Auflösungen mit Ultradetails reicht. Oder braucht man eine GTX 980 bzw. SLI :)
 
Also eine 970er kannst du vergessen.

eine 980er BF4 alles auf Ultra 80-100 FPS je nach Map. 980 SLI ist natürlich richtig geil, möchte auch nicht mehr von weg. Aber 970er SLI würde auch schon reichen.
 
CPU nicht vergessen :wink:
 
Habe einen 4790K. Würde dann erstmal auf eine GTX 980 umrüsten. Vielen Dank erstmal für die freundliche Unterstützung :d
 
Ich weiss nicht, ob ein Upgrade auf die 980 lohnt. Ich persönlich würde es nicht tun. Ob du nun mit 100 fps oder mit 110 fps spielst, macht mit G-Sync keinen Unterschied ;)
 
was heißt lohnt sich nicht, wenn man auf die nächste Generation wartet kommen paar Monate später eh wieder schneller Karten auf den Markt. Da kommt man eh nicht hinter her.
 
Es lohnt halt meiner Meinung nach nicht, für maximal 10 fps 600€ auszugeben, weil man den Unterschied bei G-Sync nicht sieht.

Steht doch da!
 
Es ist immer etwas Luxus mit im Spiel :) Ich hoffe man merkt da noch etwas Unterschied zu 1920x1080 !
 
Keine Angst, will dich nicht vom Geldverbrennen abhalten, wollte nur meine Erfahrung mitteilen ;)

Und wenn du schon Geld ausgeben willst, dann nimm noch eine zweite 970 dazu. Da würdest du den Unterschied in der Leistung merken :)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Weder eine 970 noch eine 980 reichen für den Monitor konstant mit annähernd 144fps zu befeuern. Da muss quasi schon ein SLI her. Was viele vergessen, es sind fast 80% mehr Pixel zu berechnen (1920x1080 auf 2560x1440) und das ist nicht ohne!

Wenn du schon eine GTX970 hast dann Kauf dir lieber noch eine zweite. Das haste zwar SLi aber wenn dich die "Nachteile" davon nicht stören dann hast du davon definitiv mehr als auf ne GTX980 umzusteigen.
 
Zuletzt bearbeitet:
So sehe ich das auch. Jo der Swift nimmt sich schon was er brauch, wenn ich nicht schon eine 980er hätte, würde auch zu 970er SLI greifen.
 
Für SLI bräuchte ich bestimmt auch noch ein neues NT. Soviel umrüsten wollte ich jetzt auch nicht. Schade das man sich so einen Bildschirm nirgends in Echt vorher anschauen kann und dann entscheidet ob sich der Wechsel lohnt.

Die Zeiten für ständiges umbauen ist bei mir vorbei :d
 
Also ich hab ein Seasonic 760W und das reicht dicke für 980 SLI und Co.
 
hi, ich habe mal zwei Frage wegen

G-Sync vs. ULMB
G-Sync & ULMB geht ja leider gleichzeitig nicht. Black Octagon schreibt hier, dass er bei abgestimmter Framerate(matching framerate) bei 144Hz/144FPS bzw. 120Hz/120FPS ULMB G-Sync vorziehen würde.

Hier mal das Zitat:
I think it's more a matter of ULMB being all-round better in terms of motion blur, but ONLY if you're matching frame rate for refresh rate (solid 120fps@120hz or 144fps@144hz). In the 45-90fps range, however, G-Sync is the better solution.

ULMB is only really worth it for folks who:
1) Will willingly sacrifice eye candy for MAXIMUM smoothness, or
2) Are rich enough to afford the 2-4 Titans needed to maintain 120 or 144fps in-game while keeping settings at near-maximum

Both categories of people are pretty rare. Compared to those who game in the 45-90fps ballpark, ideal ULMB candidates are very rare. Hence ULMB is more for the niche, whereas G-Sync can deliver significantly for a much wider potential customer base.

That, in my opinion, is one reason why press coverage has focused on G-Sync itself

Ich hoffe hier von uns im Forum hat Jemand sowohl Englischkenntnisse als auch Wissen über G-Sync :-)

1. Was meint er genau mit matching framerate? Wenn ein Spiel eine Option bietet, diese festzusetzen oder Vsync(wenn man sich sicher ist, dass die Grafikkarte genug FPS liefert)?

2. Meist hat man ja tatsächlich nicht mehr als 90 FPS - und 90-120 FPS ist Grauzone.. also lieber G-Sync immer einstellen als ULMB?

danke

Julia :)
 
Zuletzt bearbeitet:
1. V-Sync bietet ja meines Wissens nur max 60fps. Daher meint er wohl, dass die fps auf 120/144 festgesetzt werden sollen.

2. Für mich klingt das auch so, als sei G-Sync meist besser.

Kenne mich mit G-Sync aber nicht wirklich aus.
 
1. Was meint er genau mit matching framerate?
Das bedeutet nur, das deine Grafikkarte stabile z.B. 120FPS bei eingestellten 120Hz liefert.
Wenn dies nicht der Fall ist, lieber G-Sync anschmeisen.

2. Meist hat man ja tatsächlich nicht mehr als 90 FPS - und 90-120 FPS ist Grauzone.. also lieber G-Sync immer einstellen als ULMB?
So ist es. Nur wenn man stabile 120FPS schafft, kann man auf G-Sync verzichten und ULMB nutzen.
Um dies bei aktuellen AAA-Titeln zu erreichen, benötigt man halt massiv Grafikpower. Daher mindestens ein SLI aus aktuellen Topmodellen :)
 
Zuletzt bearbeitet:
matching framerate meint, dass du bei 120 hz, auch IMMER 120 fps hast. und IMMER ist hier auch schon das zauberwort. dabei gehst du halt auch davon aus, dass alle 6.9 ms ein bild fertig berechnet zur ausgabe vorliegt. ist das der fall, wird sauber synchronisiert ausgegeben. bild/monitor refresh/bild/monitor refresh/bild usw. jeder zyklus hat hier genau 8.3 ms. hier KANN ulmb sinnvoller sein, weil es keine rücksicht auf sauber synchronisierte ausgabe nimmt (nehmen kann) und quasi schon einen schritt weiter denkt. je nach leistung des computers und den grafikeinstellungen, kann es bei schnellen shootern ala couterstrike evtl sinnvoller sein, denn hier ist ja quasi garantiert, dass man IMMER 120+ fps hat.

droppst du nämlich unter 120 fps bei eingestellten 120 hz, oder eben unter 144 fps bei eingestellten 144 hz, wird g-sync das problem der nicht-synchronisierten ausgabe lösen, indem es den monitor refresh an die bildausgabe anpasst. so bleibt das bild quasi immer flüssig, wohingegen bei 120 vsync dropps sofort spürbare lags oder zuckler entstehen lassen, weil die bilder nicht mehr in einem zyklus fertig zur ausgabe vorliegen und dann erst mit dem nächsten zyklus ausgegeben werden könnnen. es kann also sein, dass deine bilder dann zb. so ausgegeben bekommst: 8.3ms/8.3ms/16.6ms/16.6ms/16.6ms/8.3ms. diese sprünge zwischen 8 und 16 ms lassen das bild unflüssig wirken.

hast du also IMMER 120+ fps, dann kann ulmb (mit vsync) sinnvoller sein, als gsync. hast du nicht immer 120+ fps, dann wirkt gsync seinen zauber und das bild ist immer super smooth.
 
Zuletzt bearbeitet:
besser und vor allem ausführlicher kann man es best. formulieren, ich habe nur keine zeit hier eine abhandlung zu schreiben.
 
Das wäre dann nur unnötig kompliziert und mit zahlreichen, uninteressanten Details aufgeblasen.
Du hast es mMn. in den Kerneigenschaften genau auf den Punkt gebracht und leicht verständlich umschrieben.
 
..wenn sogar ich es verstehe :) - danke. Eine Frage habe ich dennoch hierzu:
hast du also IMMER 120+ fps, dann kann ulmb (mit vsync) sinnvoller sein, als gsync. hast du nicht immer 120+ fps, dann wirkt gsync seinen zauber und das bild ist immer super smooth.
Vsync ist ja auch 60Hz beschränkt, evlt. 80Hz. Dann machen 120+ FPS ja mit ULMB trotzdem keinen Sinn, weil ich ja nicht über 90Hz bzw. über der Grauzone von 91-119Hz liege. Also wenn, dann Vsync aus & nur Gsync bis 119Hz - oder nehmen wir den Mittel bis 105Hz. Generell wäre G-Sync ja dann ab 105Hz eine Bremse - also auch ohne ULMB das Deaktivieren zu empfehlen.

G-Sync-Empfehlung:
FSP: bis 105Hz = G-Sync an
FPS: ab 105Hz = G-Sync aus (als Bonus ULMB an)
 
vsync ist überhaupt nicht beschränkt. vsync richtet sich nach der maximal verfügbaren hz zahl des monitors. vsync ist halt statisch, entweder 60hz/120hz/144hz und damit auch IMMER mindest 60fps/120fps/144fps, sonst zuckler. zwischendrin gibts in der regel nichts bei vsync, der monitor aktualisiert in diesem festen zyklus.

totaler quatsch was du da schreibst :d

konstant hohe fps (IMMER min. 120+ fps) = vsync + ulmb zur blur reduzierung (eigtl nur bei schnellen shootern sinnvoll)
variable fps = gsync für konstant smoothes gameplay (von 30fps bis 144fps wird der monitor adaptiv aktualisiert)

diese grauzone von der du da redest ist auch totaler quatsch. bei vsync wenn du nur ein fps unter der hz des monitors liegst, verdoppelt sich die ausgabezeit bereits, was zu unschönem stotterndem gameplay führt. vsync muss IMMER 120+ haben, sonst werden aus alle 8ms/8ms/8ms/8ms dann 16ms/16ms/16ms/16ms (stark vereinfacht) und das merkt man sehr schnell. bei gsync ist es egal wie viel fps du hast, weil es keine festen 8ms/8ms/8ms/ oder 16ms/16ms/16ms zyklen für eine aktualisierung des bildes gibt. gsync aktualisiert das bild immer genau dann, wenn ein bild von der gpu berechnet wurde. das kann dann 7ms/8ms/9ms/7ms/ sein, somit bekommst du die bilder quasi konstanter btw flüssiger ausgegeben, was in einem meiner meinung nach brutal flüssigem gameplay endet.
 
Zuletzt bearbeitet:
Also ich weis echt nicht was ihr mit dem ASUS Support habt...

15.01.15 RMA Antrag gestellt für neues Netzteil und heute hab ich es bekommen :bigok:
 
Also ich weis echt nicht was ihr mit dem ASUS Support habt...

15.01.15 RMA Antrag gestellt für neues Netzteil und heute hab ich es bekommen :bigok:
Wenn so viele Monitore defekt zurück gehen, sind ja auch genug Netzteile über.
Die stapeln sich wahrscheinlich bei denen. ^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh