Morpheus2200
Semiprofi
- Mitglied seit
- 04.08.2001
- Beiträge
- 30.945
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Es gibr auch framerate target auch eine schöne option im treiber.Adaptive Vsync ging auch früher bei AMD - mit Radeon Pro. Im Crimson ist es bisher leider nicht.
Die bessere Alternative ist allerdings auch Freesync/Gysync.
Was Frametimes angeht ist mir nicht bekannt dass AMD da irgendwo generell hinterher wäre...
Hattest du Grakas der selben Leistungsklasse zum Vergleich?
Der Platz zwischen bei den Chips entsteht durch die masse an Leiterbahnen wo man nur noch schwer was dahin klatschen kann. Zumal die Leiterbahnen selber auch wiederstände darstellen. Sehr geringe, aber notwendige. Deswegen sieht man auf manchen PCB's bei den Leiterbahnen auch lustige Kringel und Wellen die auf den ersten Blick unsinnig erscheinen. So spart man auch Bauteile.
Die Arbeiten am grafischen Schnickschnack sind noch lange nicht fertig. Die fangen jetzt an mit Wolken/Nebeleffekten, Wasser, neuen Lichtrendering-Methoden, neue Reflexionen - bisher haben sie nur das Skelett und ein paar Dummy-Effekte benutzt, die noch weit vor "fertig" sind. Da kommt noch einiges. Und das ist nur die Grafische Schiene.Naja, so wie sich die Entwicklung bzw auch der Hunger von SC ist, kann da durchaus noch einiges passieren. Immer neues Geld für immer neue Ideen von Chris und co.
Meine Radeon 7970 machts ja auch noch. Außer bei SC.Ich mein, bei mir werkeln 2 GTX680. Sicher nicht mehr so Krass wie früher. Aber können tun sie noch einiges. Witcher 3 konnt ich gut in Vollen Details zocken (Außnahme besondere Features wie die Haare).
Kann ich nicht bestätigen. Es fehlen halt noch einige Effekte, aber das was sie haben, ist top notch. Keine verwaschenen Texturen, keine Nebel-in-grau Filter um Dinge zu verbergen, die weiter weg sind, keine Widerholungen, die Meshes gehen in die Millionen, die Texturen sind eh über alle Dinge erhaben. Es ist eigentlich ein wunder, dass ich nicht mit 5 FPS durch die Gegend ruckle.Die bisherigen Alphas sah es echt mau aus.
Ich denke, da hast du evtl. was falsches aufgeschnappt. Chris sagte "Content-Phase" - also, dass die jetzt mit den Kerntechnologien so weit sind, dass sie ihre Art-Designer vollständig von der Leine lassen können. Außer beim Netzwerk-Code erwarte ich keine Optimierungen - und beim Netzwerk-Code wirds auch nur gemacht, weil der einen Blocker darstellt. Sobald du Multiplayer-Modus anschaltest, sind deine FPS auf max. 30 gelocked, weil die Refresh-rate vom Server abhängig ist, während sind deine CPU und GPU langweilen. Der Blocker muss weg, um besser testen zu können.Und wie bei der Gamescom berichtet Arbeiten die Jungs jetzt schon stark auf Optimierungen obwohl das Spiel nicht im Ansatz fertig ist.
Das Zauberwort ist halt Skalierung. Ich denke auch, dass ein mittelklasse-Rechner das auch noch "schön" darstellen wird, aber ich will mir keinen Ferrari mit einem 60 PS Motor anschaffen, genausowenig will ich SC mit weniger als "Very high/Ultra" spielen.Auch wenn SC noch so einige Optimierungen drinnen haben wird die Performance verbessert, schätze ich das es zwar gut auf nem zukünftigen Mittelklasse Gaming PC aussehen und laufen wird.
4K bin ich mir nicht so sicher, LOD: Jupp. Auch einige Lichteffekte werden umschaltbar sein, zwischen "normal" und der "Raytracing Methode". Du kannst damit, wenn du alles ausreizt gefühlt jedes System an die Wand fahren.Aber volle Pracht. Ich glaub da wird um einiges mehr drin sein müssen. Nicht vergessen. Zur vollen Pracht zählt auch 4K, extrem hohes LOD. Wahrscheinlich auch einige INI Tweaks oder was man in dem Fall alles ändern kann.
Als ich die Smartphone-Demo von Vulkan gesehen hab, ist mir klar geworden, dass du eigentlich mit der CPU nur die GPU befeuerst. Die braucht halt nur eine Minimal-Performance, alles darüber wird dann auf der GPU gemacht. Natürlich ist SC nicht nur Vulkan, sondern auch gefühlt 20.000 Scripte, die ebenfalls alle parallel ausgeführt werden wollen. Aber generell spielt die CPU eine wesentlich geringere Rolle als heutzutage mit DX11, wo ab einem bestimmten Draw-Call Durchsatz einfach Schluss ist.Vulkan ist zudem auch eine Software welche unter anderem auch auf der CPU ausgeführt werden muss. Man darf nicht annehmen das die CPU kaum eine rolle Spielt um die Grafikkarte zu füttern.
Bei schlechten Konsolenports bin ich mit dabei, aber nicht bei SC. Könnte sogar eines der ersten Spiele werden, wo der Unterschied zwischen HT und nicht mehr als 10% ausmacht - natürlich unter der Vorraussetzung, dass du ans CPU Limit kommst. Wenn, nicht, isses eh egal und du wirst es nicht merken.HT ist auch Fraglich. Bei dem einen Spiel und Programm hilft es, bei dem anderen schadet es der Performance sogar noch.
Deswegen die Netcode-Optimierung. Die (nicht vorhandene) verhindert grad, dass du das ordentlich evaluieren kannst. Generell zählt SC aber im Hinblick auf CPU/GPULast zu den eher CPU-lastigen Spielen.Muss man abwarten wie es sich bei SC verhält.
Puh... schwieriges Thema. Zu erst einmal bauen die Jungs von SC die Engine so um, dass sie so parallel und entkoppelt wie möglich läuft. Die bauen eines der ersten Spiele, wo jetzt schon einige der Kernkomponenten NICHT mehr von Main-Thread abhängig sind - und das ist auch zwingend erforderlich für Sachen wie Vulkan. Natürlich stoßen die da auf neue Probleme, wie Sync-Sachen. Generell wollen die halt so viel wie möglich in kleine, unabhängige Prozesse berechnen lassen, anstatt einen großen. Auf Grund möglicher Sync-Probleme wirst du aber trotzdem noch eine starke pro-Kern-Leistung benötigen, damit eben nicht alle anderen Prozesse auf dich warten müssen. Wobei du auch hier mit intelligenter Programmierung und dem sinnvollen Setzen von Prozessreihenfolgen einiges bewirken kannst, so dass eine solche Problematik selbst bei geringer IPC-Leistung nur gering ausfallen sollte. Das braucht aber eben alles Zeit, muss evaluiert werden und wenn ich mir die Dev-Kisten so angucke, auf denen die das machen, sind das alles Rechner mit 6C/12T und ner 980TI als "Standard" - Chris hat wohl ne Titan-Maschine mit wasweißich für Komponenten. Kann natürlich zu Problemen führen, wenns auf der Dev-Kiste läuft, aber dein schnuckeliger 4-Kerner auf einmal sync-Probleme bekommt, weil er eben nicht 12T hat, sondern nur 4.Zudem sind ja nicht zwingend die Kerne Entscheident. Hilfreich, aber die Leistung der Kerne spielt auch eine starke Rolle. Mehr Kerne zu Implementieren ist ja nicht das große Problem für die Hersteller. Intels Larrabee zeigt das ja ganz gut. CPU und GPU in einem. 60 Kerne schon vor knapp 4 Jahren. Intel hat ja auch aktuell eine Server CPU mit 22 Kernen draußen.