GPU für QHD+

DonUschi

Enthusiast
Thread Starter
Mitglied seit
23.10.2005
Beiträge
1.382
Ort
Hamburg
Moin,
ich bin aktuell auf Sweetspot 27" WQHD unterwegs. Betrieben mit ner Vega 56. Ich bekomme in ersten Spielen Probleme mit der Framerate.

Wunschvorstellung Monitor ist nun endlich nach nem Jahr Wartezeit verfügbar:
LG Electronics UltraGear 38GL950G-B, 37.5"

Weitere Modelle mit dem Panel sollen unterwegs sein. Nun habe ich leider kaum verwertbare Benchmarks gefunden. Schon garnicht zu allen in Frage kommenden GPUs. (5700 xt, 2070 SUPER, 2080 TI)
Ich werde definitiv intensivere Reviews vom Monitor abwarten. Ich wollte schon zum Kauf des 27" eigentlich was weites mit 34" aber alle getesteten hatten immer zu gravierende Mängel. Ungleichmäßige Panels mit übermäßigem Bleeding. Ungenügende Latenz, keine ausreichende Abdeckung von G-Sync/Freesync oder schlicht ne zu geringe Refreshrate. Theoretisch erfüllt er das alles. Bei 2000€ Produktpreis soll das Ding aber natürlich hervorragend abliefern.

Mit QHD+ wird aber auch der Betrieb kaum einfacher. Das erste Spiel wo ich an die Grenzen komme ist Assetto Corsa Competitione. Aber auch das neue Anno und Tomb Raider stehen auf der Liste und die Benchmarks sehen schon bei 4k selten rosig aus für Panels die 144-175hz liefern. Budget ist so flexibel wie sinnvoll. Ich will gute Produkte und n gut abgestimmtes System. Die Anforderung wird durch den Monitor und die Spiele gesetzt. Bei einer TI hätte ich einfach das Gefühl n abgelaufenes Produkt zum Releasepreis zu kaufen den es einfach nicht wert ist (was schwer zu argumentieren ist ohne verfügbare Alternativen). Ein Entschluss kann auch sein, dass keine der Karten sinnvoll reicht für die angemessene Auslastung des Monitors und ich warte auf die nächste Generation und hab dann vielleicht auch bis dahin mehr erfolg mit besserer Verbreitung des Wunschpanels oder Alternativen mit Freesync. (ich mag offenen Standard prinzipiell lieber - muss aber auch sagen, dass Freesync bei der Vega 56 und dem BenQ eher unzuverlässig läuft. Überall steht Freesync ON - tearing hab ich trotzdem). Auf dem TN Panel bleiben nervt mich aber auch. Kann diese verwaschenen Farben langsam nicht mehr sehen und nur für das olle Panel zwischendurch ne 5700 XT nehmen ist auch irgendwie fragwürdig auch wenn es die Wartezeit verkürzen würde.

Freue mich über ein wenig Input von euch.

Gruß,
Uschi

PS: Plattform ist n 3700x und B-Die RAM.
PPS: Weitere gespielte Spiele: Dirt 1+2, CoD MW (das aktuelle), Hellblade, Assetto Corsa, ARMA (da sind die Specs eher mit der Grundplattform bedient als mit irgendeiner GPU ;)), Civ 6, Stellaris, Elite Dangerous, Star Citizen, geplant ist MS FLight Simulator 2020, Cyberpunk 2077 und Diablo 4
PPPS: Gerade die Simulationstitel sollen auch VR packen (hab aktuell ne Occulus Rift)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Uff, 3840x1600 @ 144Hz (OC bis zu 175Hz), deswegen und die Spiele die du darauf betreiben willst muss da aber zwingend eine HighEnd Karte hinein, alles unter einer RTX2080Ti macht da keinen Sinn, da braucht man sich keine Illusionen machen.
Ich würde da eher auf die neue AMD HighEnd Karte und Nvidias neue Generation warten, bei beiden steht (nach den Gerüchten) ein sehr großer Leistungsschub an.
Bezüglich Free/Adaptive Sync, das kann man auch mit einer Nvidia Karte offiziell nutzen, dahingehend musst du dich nicht einschränken.
 
Ja, das matcht eben auch mit dem Gefühl, dass es die 2080 TI eben nicht wert ist. So viel Geld für ne Karte die bei entsprechenden Spielen den schon ziemlich lange auf dem Markt existierenden nächsten Auflösungsschritt kaum über 60fps berechnen kann um auch nur nen 60hz Monitor zuverlässig auszulasten mit 1% lows.

Grafikkarten kaufen hat die ganzen letzten 4-6 Jahre keinen Spaß gemacht. Die Industrie hat sich extrem lange ausgeruht auf der fehlenden Gegenwehr von ATI/AMD und noch viel schlimmer dem großen Erfolg der Entwicklung primär for Konsolen. Auch meine Zwischenschritte r9 290 und die Vega 56 für WQHD fühlten für sich eher wie faule Eier an. Mining hats natürlich auch nicht besser gemacht mit dem Frustrationspeak der letzten zwei Jahre.

Ich hatte auch schon News über große Verbesserungen in den nächsten Generationen gesehen. kA ob sich AMD trotz der guten CPUs noch so n laues GPU Jahr leisten kann. Die ersten Leistungsprognosen klingen auf jeden Fall nicht nach nem Riesensprung für mich. Eher nach "wir machen gerade eben so viel wie nötig um zu verkaufen und mit geringer Forschungs-/Innovationsleistung Marktführer zu bleiben". 3070 auf 2080 TI Niveau und 2080 etwas drüber. Das klingt wie ne 3080 schafft 4k in 80 statt 60fps avg. Nicht wie 120-140 avg was endlich mal ne angemessene Ansage wäre. =/

Was Freesync auf Nvidia angeht ist mein Stand alt. Also die ersten 10 offiziell unterstützten Monitore und ne ganze Liste die explizit ausgeschlossen ist und von denen einige ok laufen aber viele auch richtig mies. Das beruhte aber auch noch auf Treiberversionen direkt nach Launch des Features. Das Fazit schien immer zu sein: So richtig richtig gut läuft es eben doch nur bei GSync. Allein schon die tatsache, dass die Minimum Frequenz bei GSync besser ist was bei 4k absolut unverzichtbar wäre. Gerade bei Drops unter 40 soll Sync ja helfen! Schwer zu testen. Das bräuchte im Realversuch zuhause ne Ganze menge teurer Hardware. ^^ Und die Ausgabe für den Wunschmonitor und die nächste GPU sind ja schon bei 3300+€. Deshalb tendiere ich da gerade eher zu "better safe than sorry".
 
Zuletzt bearbeitet:
In der Regel hat man es doch selbst in der Hand ob 144 oder 28 FPS.
Der User will es nur nicht.

Jeder
der irgendwas von "schafft sowieso keine 144 FPS" erzählt, vergisst dabei zu erwähnen, das er nix anderes als Ultra akzeptiert. Das alles aus dem Ultra-Standpunkt heraus gesehen ist und auch nur einen kleinen Teil seiner Software betrifft.
Dann frage ich mich allerdings doch immer wieder, warum gerade diese User keinen 17" TFT mit 1280er Auflösung fahren, denn das wären dann wohl die einzigen die ihren Ultra-Trieb eventuell auch befriedigen können^^

Bewusst überspitzt formuliert 8-)

SOTTR_2020_01_27_12_53_22_693.jpg


SOTTR_2020_01_27_12_54_43_824.jpg


Ein vernünftiger Monitor hält 10 Jahre (oder mehr) durch. Da wird es schon irgendwann eine Graka geben, die das gebacken bekommt was Du haben möchtest.
Derweil machst Du halt ein paar Abstriche hier und da und genießt den Monitor bei allem anderen :-)
 
Zuletzt bearbeitet:
Kann ich dir ganz einfach erzählen warum. ^^
Weil du recht hast. Es gibt Titel da macht man das, es gibt Titel da ist egal ob 60 oder 100fps. Es ist ne Mischung aus Faulheit, fehlende Akzeptanz für "zu weit runter drehen", fehlende Akzeptanz überhaupt was runter zu drehen "weil ich so viel bezahlt habe, da muss das klappen" und eben die Fälle wo man es doch tut weil es anders nicht geht oder man doch gerade die Lust entwickelt sich im Detail mit den Features auseinander zu setzen die kaum optische Verluste bringen aber viel Performance fressen.

In diesem Speziellen Fall hast du natürlich nicht nur überspitzt formuliert sondern auch überspitzt konfiguriert. Die Einschnitte sind zwischen den beiden Screens echt extrem. Aber oft ist das gar nicht nötig wenn 100 fps auch reichen würde. Und das tun sie.
 
Hehe, eine CPU die in Anno1800 100 FPS im Lategame liefert müsste dann auch erst noch erfunden werden^^

anno1800_2019_05_01_0jck9u.jpg
anno1800_2020_01_21_2qzkog.jpg


Kompromisse 8-)


SOTTR_2020_01_27_13_14_26_569.jpg
 
Zuletzt bearbeitet:
Alternativ kann man seinen UHD-Monitor natürlich immer noch in 3840x1648 (oder 1600) betreiben. Also 21:9.
Spart 25% Pixel und gibt entsprechend mehr Performance. Man bekommt dafür nur ein paar Balken (die man bei einem Monitor mit gutem Schwarzwert sowieso nicht sieht bzw. gewohnt ist durch die Glotze).
Nervig sind dann nur die doppelten schwarzen Balken bei 16:9 Cutszenen^^.

 
Es gibt Titel da macht man das, es gibt Titel da ist egal ob 60 oder 100fps. Es ist ne Mischung aus Faulheit, fehlende Akzeptanz für "zu weit runter drehen", fehlende Akzeptanz überhaupt was runter zu drehen "weil ich so viel bezahlt habe, da muss das klappen" und eben die Fälle wo man es doch tut weil es anders nicht geht oder man doch gerade die Lust entwickelt sich im Detail mit den Features auseinander zu setzen die kaum optische Verluste bringen aber viel Performance fressen.
Auf dieser Basis kann dir aber niemand sagen, welche Grafikkarte du für diesen Monitor bräuchtest, weil keiner weiß was du spielst und vorallem nicht, welche Anforderungen du an das jeweilige Spiel hast.
Mit der Auflösung steigen halt die Anforderungen an die GPU und gerade für Auf-Ultra-Besteher gibts mMn aktuell keine Grafikkarte, die mehr als WQHD@60fps verlässlich hinkriegt. Wenn die Mindestanforderung gar noch höher wird als 60fps, dann wirds wohl je nach Spiel bei "nur" WQHD schon dünn. Und da ist dann noch nichtmal Luft für die Zukunft. Neue Spiele werden auch ohne gesteigerte Auflösung mehr von den Grafikkarten verlangen. Du bräuchtest also sogar eher ein Doppelplus an Performance.
Oder man gibt sich mit Upscaling-Techniken zufrieden... aber ist das dann noch "Ultra"?

Grafikkarten machen übrigens seit ziemlich genau 4 Jahren keinen Spass. Vor 4 Jahren kamen nämlich NVidias 10er raus und die waren noch recht gut und hatten auch eine vernünftige Leistungssteigerung zur Vorgängergeneration. Was die nächsten Grafikkarten bringen werden, kann man aktuell nur orakeln. Ich vermute aber wir bewegen uns mal wieder auf eine Feature-Periode zu. Also nicht unbedingt gewaltige Leistungssprünge bei etablierter Technik, sondern eher neue Technik wie Raytracing, erstmal ggf. sogar verbunden mit Performanceeinbußen. Glaube nicht, das sich da mit der nächsten Gen schon was dran ändern wird.
Wenn man jetzt parallel dazu auch noch die Auflösung steigern will und dann auch noch zusätzlich gerne mehr als 60fps hätte, dann steht man jetzt aktuell mMn ziemlich ungünstig.
 
Puh ein Monitor für 2000€ der nur HDR400 "kann", sehe nicht warum der das doppelte der aktuellen 34" wert sein soll für ein bisschen größer und übertaktetes Panel. 175Hz schafft der auch nur wenn du den Farbraum reduzierst (chroma subsampling), "echtes" 8bit geht nur 160Hz und 10bit 120Hz.

Du sagtest, dass bisher kein Monitor überzeugen konnte... warum soll dieser dich jetzt überzeugen und die 34" Modelle von LG konnten es nicht? Der Unterschied zwischen dem Monitor und seinen Vorgängern ist meines Erachten ehr gering. Der LG 38WN95C sieht da schon interessanter aus, da hier zumindest local dimming und damit HDR600 möglich ist, aber wer weiß wann der im Handel erhältlich sein wird.

Der Monitor ist native G-Sync aber laut reviews FreeSync compatible, also du legst dich dabei nicht auf einen Hersteller fest. Aber wie du merkst ist es aktuell schwer eine GPU zur Aufrüstung zu empfehlen. Das Beste was du machen kannst ist eine Karte im Ausverkauf zu schnappen oder einfach auf die nächste Generation warten. Zum Thema FreeSync auf wie viel FPS zockst du denn mit deiner Vega? Du musst immer bedenken dass FreeSync nicht bis 1Hz funktioniert, sondern eine mindest Wiederholungsrate hat, die von deinem Monitor abhängt.
 
@HisN Guter Kompromiss. Das meine ich. Aber ist halt schwer in der Kommunikation rüber zu bringen, dass man prinzipiell bereit ist. Es ist einfacher alle Tests und alle Fragen erstmal von Ultra ausgehen zu lassen. Und die Performance Richtung muss trotzdem erstmal stimmen. Die ist halt High End. Könnte jetzt natürlich auch nochmal für n Jahr ne 5700XT holen. Dann hätte ich in WQHD wieder n gutes Polster für die Spiele die gerade an der Grenze sind. Die Preise für Vegas sind auch nochmal wieder ein klein wenig hoch gegangen und ich muss ne ein Jahr alte Karte nicht für unter 50% Anschaffungswert verkaufen.

PS: selbst wenn es so ne CPU gibt würde ich mir die nicht holen. Hatte schon überlegt ob es unbedingt der 3700x sein muss oder ob der 3600 reicht. Zocke halt wirklich nur und es gibt nie viele Spiele die ernsthaft skalieren auf CPUs die über der unteren und mittleren Mittelklasse sind. ^^ Mein einziger Sonderposten für den ich noch immer besondere Anstrengungen unternehme ist ARMA. Da überlege ich auch gerde nochmal meine B-Dies gegen besser selektierte zu tauschen. Nicht aus Notwendigkeit sondern einfach nur um was zu haben das im Default so gut rennt wie meine übertaktet. Ich muss die Tage nochmal gucken ob es mittlerweile Sinn macht jetzt doch noch auf 32gb zu gehen. Wären dann leider über 500€. Da muss man die Augen und das Gehirn schon ganz doll zumachen um das vor sich selbst zu rechtfertigen.

@Liesel Weppen Ich weiß, intiuitiv wusste ich das, hätte es ne gute Antwort gegeben wäre sie mir über den Weg gelaufen und ich hätte nicht n bisschen Ziellos herum gefragt. Das ist eher um Gedanken zu sortieren rund um "dann lass ichs halt lieber", "ich hol mir doch nochmal ne Ausweichlösung um Zeit zu überbrücken", "ich warte, aber wie lange?".
Bin nicht ganz sicher, ob ich dich richtig lesen, aber mehr als WQHD schafft ne 2080 TI ja schon stabil auf 60hz. 4k geht schon auf 60hz. Wobei es natürlich sein kann, dass du mit Stabil "schafft ausnahmslos jedes Spiel in 0,01% low min 60fps. Dann hast du recht. Das schafft auch die 2080ti nur für WQHD. Ansonsten schaffen auch gleich mehrere Karten WQHD in anspruchsvollen Spielen zuverlässig 80-140fps je nach Spiel mit 1% low.

Ne Feature Periode hatten wir mit RTX gerade erst. Und nen guten Sprung von gabs auch mit den 1000/2000ern. Nur halt lang nicht so viel wie sie gekonnt hätten und zusammen mit den zwei extremen Preisverschiebungen UVP 1000er/UVP 2000er und dann noch Mining wurde es absolut absurd.

@mehx Da hast du recht. Das war auch gleich mein erster Gedanke. Und es gibt keinen Beweis, dass diese beiden viel geeigneter sein werden als die 34er. Erst hatte ich mich über den Acer gefreut. Aber alle Berichte waren ernüchternd und Bewertungen. Dann beim Alienware dachte ich mir "endlich einer mit etwas besserer Fertigungstoleranz und 100+hz und vor allem einem G-Sync mit ner ansprechenden Range. Nicht nur 48-75 was ich für nen Witz halte. Dazu kam dann, dass eben auch der Alienware miese Lichthöfe hat und einfach viel "blutet". Ist halt n IPS aber da will man natürlich nur das beste was aus der Fabrik kommen kann. Und kein OK Modell oder ein "gut" Modell. Allerdings wollte ich auch eigentlich etwas, dass in der höhe nochmal merkbar größer ist als 27". Da sind 34" nicht überragend. Ich möchte damit halt Simulationen abdecken ohne Triple Setup. Dann dachte ich mir aber: solange es kein OLED ist will ich kein Local Dimming. Also lieber HDR400 was quasi zu vernachlässigen ist als so ein HDR 600/800. Local Dimming sieht echt scheiße aus mit diesen springenden Coronas. Wir werden sehen wie diese beiden werden. Ich bin immer noch fürs Gaming Modell. Ich hatte beim Lesen von Labormessungen immer das Gefühl, dass Inputlag und Reaktionszeit nur in Übertakteten Modi Richtig gut funktionieren und in die Nähe der Werksangabe kommen. Deshalb verspreche ich mir von dem 38WN95C nicht mehr als vom 38GN950. Auch wenn er auf dem Papier erstmal besser aussieht und einem das OC unnötig vorkommen kann. Für die Refreshrate ist sie das. Für den Rest eher nicht.
 
@Liesel Weppen Ich weiß, intiuitiv wusste ich das, hätte es ne gute Antwort gegeben wäre sie mir über den Weg gelaufen und ich hätte nicht n bisschen Ziellos herum gefragt. Das ist eher um Gedanken zu sortieren rund um "dann lass ichs halt lieber", "ich hol mir doch nochmal ne Ausweichlösung um Zeit zu überbrücken", "ich warte, aber wie lange?".
Bin nicht ganz sicher, ob ich dich richtig lesen, aber mehr als WQHD schafft ne 2080 TI ja schon stabil auf 60hz. 4k geht schon auf 60hz. Wobei es natürlich sein kann, dass du mit Stabil "schafft ausnahmslos jedes Spiel in 0,01% low min 60fps. Dann hast du recht. Das schafft auch die 2080ti nur für WQHD. Ansonsten schaffen auch gleich mehrere Karten WQHD in anspruchsvollen Spielen zuverlässig 80-140fps je nach Spiel mit 1% low.
Genau da kommt es eben drauf an, ob man so ein Ultra-Mensch ist und von welchen Spielen man spricht. Natürlich schafft die 2080ti einige Spiele in 4K@60fps. Bei manchen wohl sogar auf Ultra, bei anderen mit reduzierten Einstellungen. Oder eben mit Upscaling. DLSS soll ja auch der letzte Schrei sein. ;)
Ich cappe aktuell bei 60fps wegen 60hz. Aber selbst da hab ich Spiele bei denen ich die Einstellungen reduzieren muss, damit meine 1070 in FullHD einigermaßen zuverlässige 60fps schafft. Und soooo viel schneller ist die aktuelle 400€-Klasse auch nicht. Daher interessiert mich auch nicht, ob die Karte zwischen drin mal 80 oder far 140fps schaffen könnte, mich interessiert nur das untere Ende. (mehr als 60 interessiert mich auch in Zukunft nicht, weil MIR reichen 60fps, ich sehe und spüre bei mehr keinen Vorteil, und ja, ich habs schon zigmal getestet und selbst die 60 sind auch nur, weil der Monitor halt 60Hz hat. Hätte er 50Hz würden mir wahrscheinlich sogar 50fps reichen).
1% Low wäre theoretisch alle 100s ein Drop... Kommt natürlich drauf an, wie weit der Drop dann nach unten geht, aber sowas ist für mich nicht akzeptabel.
Deswegen kaufe ich mir aktuell auch keine neuen Monitore, ich warte auf die nächste Gen für "nur" den Sprung zu WQHD.

Ne Feature Periode hatten wir mit RTX gerade erst. Und nen guten Sprung von gabs auch mit den 1000/2000ern. Nur halt lang nicht so viel wie sie gekonnt hätten und zusammen mit den zwei extremen Preisverschiebungen UVP 1000er/UVP 2000er und dann noch Mining wurde es absolut absurd.
Die Feature-Periode RTX ist mMn noch nicht abgeschlossen, deswegen meinte ich wir haben gerade eine. Wieviel die Karten ohne RTX hätten bringen können, weiß ich nicht. Vielleicht nähert man sich ja auch GPUs langsam so Grenzen an, wie wir sie bei CPUs schon länger haben. Afaik sind die Chipgrößen bei GPUs auch langsam ein Problem.
Mining war schon lange durch als RTX rauskam. NVidia hat sich nur RTX gut bezahlen lassen und auch bezahlen lassen können, weil sie keine wirkliche Konkurrenz auf dem Markt haben. Das ist auch der Grund, warum es keine 1680 gibt. Wenn du mehr Leistung als x60(ti) willst, sollst du RTX mitkaufen MÜSSEN und das kostet dann halt Geld.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh