Bezieht sich das auf einen FHD 60Hz Monitor von damals ? Wenn ja würde ich zustimmen weil die CPU eine Minimalframerate von 60FPS schaffen sollte.
Wurde aber zwischenzeitlich ein 144Hz Monitor und eine fette Grafikarte wie GTX1080(Ti) angeschafft dann könnte die CPU in zum Flaschenhals werden.
Ich finde diese Kombi für einen Gaming PC unausgewogen. Bereits vor 20 Jahren galt, daß die Grafikkarte 50% des Wertes vom PC ausmachen sollte.
Weil warum kauft man eine CPU die mindestens 100FPS schafft während die Grafikkarte in aktuellen Spielen auf hohen Details bis auf 30FPS abfällt !?
Zum ersten ja, bzw schaue Dir meinen Link im Eingangspost an.
Das kann ich Dir beantworten.
Ich kenne einige Leute, denen nicht daran gelegen ist alles immer zu minmaxen. Die wollen ein Spiel einfach spielen. Und die wollen, im Gegensatz zu vielen von uns hier nehme ich an, nicht dauernd an ihrem Rechner die kompletten Innereien rauspulen. Bei der Bandbreite an Spielen, die erscheinen, gibt es nicht viele Spiele, in denen man tatsächlich Einbußen hat. Und in zwei Jahren hat man dann ja wieder im Mid-Range eine Grafikkarte gekauft, die dann in etwa das Niveau der aktuellen Speerspitze hat. Nicht jeder spiel Spiele direkt zum Release. Ich habe mir Witcher 3 auch erst vorgenommen, nachdem die GotY für 30 Euro zu haben war. Wenn man zum Zeitpunkt des Releases von AAA Titeln immer sofort alles hochstellen können, muss man eben dauerhaft zu hohen Preisen mitrüsten.
Wer nach meiner Strategie fährt, muss langfristig seine CPURAMOBO nicht austauschen, hat 2 Jahre lang eine Midrange GPU, für sagen wir 250 Euro, nach zwei Jahren verkauft er die, bekommt 100 Euro wieder. Für weitere 250 Euro kauft er nun die zweite Midrange GPU, liegt nun bei 400 Euro Gesamtausgaben.
Wer stattdessen HighEndGPU für sagen wir mal 600 Euro gekauft hat, bekommt für die in 2 Jahren unter 250 Euro, da ja jetzt die aktuelle MidrangeGPU für dieses Geld zu haben ist und wenn nur marginal langsamer ist, aber vermutlich effizienter und auch sonst aktueller. Er verliert also schonmal 350 Euro statt 150 Euro. Natürlich kann er nun auch wieder die HighEnd Variante kaufen und wird ähnlichen Werteverlust haben. Ab einem gewissen Zeitpunkt wird nun aber ihn vorallem seine ehemals HighEnd CPURAMOBO ausbremsen und er muss da auch schon wieder nachrüsten. Der erstere wird länger im Mirrange bleiben und weniger Wertverlust einfahren. Und wenn er sich in seiner Spieleauswahl ein bisschen gedulden kann, wird er dabei wenig verpassen. Dafür spricht nämlich außerdem, dass man gerade auf dem PC, bereits wenige Monate nach Release einen deutlichen Preisverfall hat. Ich warte für meinen Teil gerne auf ein Spiel, wenn ich dafür den aktuellsten Patch, alle DLCs und eine Preiskorrektur nach unten mitnehmen kann.
- - - Updated - - -
Nach Geld sollte man nie ausgehen
Wäre der markt so geworden wie erwünscht 2012 amd gpju gleichstark wie nvidia gk100
hätten wir heute noch die klare trnung von high end zu mittelklasse gp104 =gtx 1060 und gp100 =gtx 1080/70
ist aber nicht Und intel hätte schon 2012 angefangen eine neue arch zu entwickeln
Amd fail zu gcn und cpu linie bulldozer hat erst diese situation erschaffen
zwr hat amd dafür gesorgt das Micrososft eine neue api entwickelt hat aber mehr aus not als durch müssen
mantle opensource hat deutlich gezeigt das die gpu leistung von der CPu limitiert wird
Amd hardware ansatz funktioniert nur durch vulkan und dx12 ansatz
Nvidia hat sich stattdessen schon 2012 vor dem ankündigen eienes wundertreibvers und später api auf einen software sheduler für die gpu gemacht
eben weil viele entwickler sich stur auf den abwärtskompatiblem pfad von dx9 zu dx11 was stur einen thread für das rasterizimng verwendet wird.
man kann heute keine gtx460(560) verwenden nicht weil die Gpu zu schwach wäe sondern weil schlicht der vram ausgeht
Vieles in games wird gestreamt vom ram in den vram
Die rasterleistung ist kaum gestiegen dafür aber die vram geschwindigkeit sowie die shader leistung die immer mehr zum entscheidenen punkt wird.
Durchd en wechsel von dx9 rasterizing fokus auf die Bildauflösung hin zu shader programmierung mit mehr effekten durch dx11
Deutlich die shader takt soiwe shader anzahl beschleunigt wird.
Und hier ommt der nächste Problem mit dx9. Durch die api ist man limitiert auf eine cpu kern um ale shader aufgaben parralell abzuarbeiten
in dx11 kann man aber direkt die shader progrmmieren und bis zu 192 thread zuweisen.
macht nur keiner man verlässt sich auf die api bzw compilern
Ab dx12 übernimmt die api die threadaufteilung bei rasterizing und multi cpu cores werden optimal addiert.
das geht aber nur wennein game engine auf dx12 basiert und die api voll unterstützt ansionsten grift hier wieder der abwärtskompatibilität zu dx11
Was wieder einen CPu Kern takt auf alle CPu kerne verteilt.wen der GPU hersteller dazu einen übersetzer einbaut amd direkte dx12 hardwae kann das nicht und ist auf die max CPu takt fixiert und kann unter umständen einfach die shader nicht auslasten
Was nützen einen 4096 shader wenn diese brach liegen
AMD lösung hier hoher gpu takt. Und da kommen wir zum Produktionsdefizit von samsung vs tsmc
dazukommt das amd die pro Karten nicht consumer Karten trennen kann, was die shaderleistung zwar hoch ist aber wegen der besseren douple Genauigkeit die GPU deutlich aufheizt was den Takt senkt.
Im Gegensatz zur CPU hat amd hier ganz klar den Markt falsch eingeschätzt
Es hat sich nicht neue api mit hardware sheduler durchgesetzt sondern die software sheduler und dx11 sich etabliert.
Schöne Erläuterung, das war mir in dem Detail nicht klar, aber gehst Du davon aus, dass sich das nun ändern wird mit der Entwicklung der GPUs? Glaubst Du meine aus Jucks ersonnene Strategie könne doch etwas wasserdurchlässiger sein als von mir behauptet? Tolle Diskussion! Gefällt!