Ja, ich habe keine wirkliche Ahnung von Bildschirmen und?
Gut. Dann möchte ich mich entschuldigen. Ich fand es nur nicht so gut, dass Du mich so sehr angegriffen hast, wenn ich das Gefühl habe, dass Du vielleicht selbst noch etwas dazulernen könntest. Wenn Du aber einsichtig bist, möchte ich meine Entscheidung auch gerne begründen:
Zur Reaktionszeit von Monitoren: Diese gibt an, wie schnell ein Pixel seine "Farbe" ändern kann, und nicht, wie schnell das Bild zum Bildschirm kommt. Farbe steht absichtlich in Anführungszeichen, weil die Werte, die bei Displays zumeist dran stehen, normalerweise Grauton zu Grauton beschreiben. Das geht natürlich schneller, als Farbton x zu Farbton y. So muss man bei 2-4ms angegebener Reaktionszeit davon ausgehen, dass der Bildschirm eigentlich ca. 10-20ms Farbe zu Farbe hat. Wenn man sich jetzt mal überlegt, dass 16ms ungefär 60Hz sind, dann dürfte klar sein, dass die Reaktionszeit der Pixel über 16ms nicht mehr reicht, um von einem zum nächsten Bild jeweils den richtigen Farbton zu treffen, sondern die Farben nur noch so halb in die gewünschte überlaufen. Somit verschwimmen die Farben bei schnellen Bewegungen(=starke Farbwechsel), was man als "Schlieren" bezeichnet. Folglich sollte man bei 60Hz darauf achten, dass der Monitor höchstens 4ms Reaktionszeit von Grau zu Grau hat(netter wäre es, wenn die F2F angegeben würde, aber so nett sind die Hersteller dann doch nicht).
Wenn man das nun auf 144Hz umsetzt, sind wir bei 6,94ms, also grob 7ms Farbe zu Farbe. Wie viel das etwa Grau in Grau entspricht, ist für mich schwer einzuschätzen, aber wenn man es ummünzt, bleibt eigentlich nur alles unter 2ms übrig. Deshalb braucht man zur
optimalen Darstellung eben doch 1ms Reaktionszeit, wenn der Bildschirm 144Hz oder 165Hz oder meinetwegen auch 200Hz
macht.
Die Hertz- Zahl ist auch entscheidend. So etwa ab 24 Bildern pro Sekunde, oder auch etwas mehr - das hängt vom Betrachter ab - geht unser Gehirn davon aus, dass es eher keine Einzelbilder mehr sind, sonder eine relativ flüssige Bewegung. Wenn unser Auge mit dem Bildschirm synchronisiert wäre, wäre es mit ca. 70Hz wahrscheinlich ziemlich zufrieden. Auch das ist natürlich unterschiedlich. Da wir unser Auge nicht synchronisieren können, treffen viele Bilder aber zu Zeitpunkten auf unser Auge, die unregelmäßig in der Bildfolge sind, sodass das Auge sagt: "Hey, das sieht aber irgendwie nicht absolut flüssig, wie in Echt aus". Deshalb sieht man auch noch bei deutlich höheren Bildraten, meinetwegen auch bei 144Hz ganz deutlich Unterschiede zu 70Hz. Diese Unterschiede werden aber erst durch schnelle Bewegungen deutlich. Zum Beispiel wenn man mit einem Auto fährt oder mit einem Schiff an Häusern vorbeidüst, dann sieht man, dass die Dachgiebel abgehackt, wie Einzelbilder wirken. Zudem sinkt durch eine höhere Refreshrate natürlich auch die Wahrscheinlichkeit, dass einem das Tearing auffällt(Es geht dadurch nicht weg, aber ist weniger deutlich).
Beim Stichwort Tearing sind wir nun bei "Sync". Das ist natürlich ein riesen Vorteil, weil es eben Tearing völlig zunichte macht und das Bild selbst bei niedrigeren Bildraten auch flüssiger wirkt.
Kommen wir jetzt zur CPU. Neuere Blockbuster- Spiele setzen alle auf sechs bis acht Rechenkerne. Wenn man jetzt Heroes of the Storm zockt, hat man vielleicht mit einem Quadcore, der pro Kern mehr Takt hat, etwas mehr FPS im Durchschnitt. Man muss aber bedenken, dass eigentlich nur wichtig ist, wie viele FPS man
mindestens hat und bei solchen Games wie GTA V, Fallout 4, um nur ein paar zu nennen, brechen dann natürlich mit dem Quadcore deutlich ein, weil er 2 Threads auf einen Kern legen muss, der dafür dann einfach zu schwach ist:
http://media.gamersnexus.net/images/media/2015/game-bench/fallout-4-cpu-benchmark-1440-u.png
Der 4790K, der ja bekanntlich bis 4,4GHz Turbo und Hyperthreading hat, bricht hier einfach gnadenlos auf 41FPS runter, wenn es brenzlig wird, während mit dem 5930K trotz nur 3,7GHz durchweg mindestens 57FPS machbar sind. Im Durchschnitt hat der 4790K zwar mindestens gleich viele FPS, das möchte ich nicht abstreiten, aber davon hat man ja beim Zocken nichts, außer wenn man nur mit FPS- Zahlen angeben möchte.
Um zum RAM zu kommen: Das Spiel, was mir meinen 16GiB RAM so voll gemacht hat, dass es nicht mehr erträglich war, war GTA V. Und mir wurde erst nach dem Upgrade überhaupt klar, dass auch andere Games teilweise leichte Ruckler und Texturaufploppen hatten, die dann verschwunden sind. Wenn man nur 900€ für sein System ausgeben kann, keine Frage, dann empfehle ich auch nur 16GiB. Dann kann man auch mal ein bisschen die Texturauflösung runterstellen. Aber wir reden hier über 2.000€. Da will man nichts runterstellen. Die 32GiB sind gerade ziemlich knapp ausreichend dafür, dass man eigentlich jedes Spiel (Edit: zurzeit
) voll ausreizen kann. Ich will nur mal ein kleines Beispiel nennen: CoD: BO3 macht die 32GiB RAM sogar ganz voll!
Wichtig ist, dass man im Taskmanager nicht auf die Idee kommt, dass das, was als "In Verwendung" bezeichnet wird, schon der gesamte RAM- Verbrauch wäre. Das ist nämlich nur der Verbrauch von Programmen(.exe des Games zum Beispiel). Den wesentlichsten Anteil nehmen Spielinhalte wie Texturen ein, die für die Grafikkarte im RAM zwischengespeichert(gecached) werden und die werden als "Standby" bezeichnet. Der RAM ist also viel voller, als die meisten überhaupt meinen. Das heißt nicht, dass mit 16GiB Spiele wie GTA V gleich unspielbar wären. Es kann aber eben je nach Spiel zu Engpässen kommen(das kann man nicht voraussagen), wenn zum Beispiel die benötigte Textur jetzt gerade nicht mehr in den "Standby", also den Cache, gepasst hat.
Jetzt zur Grafikkarte:
Ich will die 980Ti nicht kaputt reden. Es ist nur so, dass die neue Grafikkartengeneration (Polaris) bald kommt. Das wird zwar nur die Mittelklasse sein, aber AMD hat ja keine andere Wahl: besser als die 980Ti wird sie deshalb denke ich trotzdem sein. Das heißt natürlich, dass die 300€ mehr, die man dann investiert hat, mit hoher Wahrscheinlichkeit innerhalb von Monaten ein heftiges Minusgeschäft sind. Wenn man noch den G- Sync Aufpreis von 150€ dazu nimmt, kommen wir auf 450€ für 30% mehr
Durchschnittsleistung, denn auch hier ist zu beachten, dass wir 8GiB vs 6GiB haben, die in entsprechenden Games dann entweder die Minimum- FPS der 980Ti drücken, sodass die 390 mindestens gleich schnell wird, oder, bzw. zugleich noch Texturen aufploppen, Texturen nicht geladen werden, sodass einzelne Elemente in der Spielwelt Texturmatsch sind, oder auch schon geladene, benötigte Texturen durch ein kurzes Ruckeln rausgeschmissen werden müssen.
Das beispielsweise kann man ebenfalls bei CoD: BO3 sehen. Für näheres möchte ich auf diesen Thread verweisen:
http://www.hardwareluxx.de/communit...-pc-fuer-wqhd-uwqhd-1112739.html#post24425420 , wo das glaube ich verständlich erörtert wird.
Dass die 980Ti also, wenn man alles zusammen nimmt, einer 390 wirklich
deutlich überlegen wäre, halte ich für fraglich und es kommt auch ein Stück weit auf das Spiel und die jeweiligen Einstellungen an. Auf jeden Fall sind die Vorzüge einer 980Ti keine 450€ wert und auch nicht, dass man dafür in der Zukunftssicherheit des PCs einbüßt. Denn wenn wir mal beiseite lassen, wo man jetzt schon 32GiB RAM oder 6 Kerne etc. braucht, ist auf jeden Fall klar, dass immer mehr Spiele von mehr Kernen und größerem RAM profitieren werden - wann es wirklich zum Mainstream wird, ist also ohnehin nur eine Frage der Zeit.