...
Und das ist das Problem im Preisbereich der Sparfuchs/Kompromiß-Zockern. Da gibts dann keine 2080Ti, sondern maximal ne 2070 Super/5700XT. Das ist okay für bis zu 1440p mit ~90FPS. Mehr muss die CPU da auch nicht können und da paßt der 3700X noch gerade so eben mit ins Budget.
Naja der 3700X ist da schon Hart an der Grenze, selbst bei "Kompromiß-Zockern" wie Du sie nennst, so wie Du schreibst wäre
...
Sparfuchs wäre dann alles in Richtung Ryzen 3600.
Mein Punkt war jedoch auf 144Hz bezogen und daß unter Umständen die leichte Mehrleistung die ein 9900K ggü. einem 3700X schon einen Unterschied machen kann.
An diesem Punkt angekommen beißt sich halt der 9900k mit den angeblichen "Mehrleistungen". Ich kenne niemanden bei Sinnen, der sich nen 9900k für 1080p kauft.
Ich kenne sogar einige die 1080p eben mit 120, 144 oder mehr Hz haben. Und da kann wie gesagt je nach Spiel, Einstellungen und GPU die flotteste Spiele CPU Sinn machen.
...
Yo, das wäre dann 1440p auf 144Hz - wo wir dann schon im Bereich der 2080 Super wären. Das macht zusammen schon 1.500€ - da ist das Mainboard, der RAM und die NVMes noch nicht mit drin. Was Preis/Leistung angeht, haben wir hier schon den "sinnvollen" Bereich verlassen.
"Sinnvoll" liegt immer in den Augen des Betrachters. Es gibt doch einige die bereit sind höhere 4 stellige Beträge für ein Gaming System hinzulegen, sonst gäbe es kaum Kunden für Titan oder eben 2080Ti GPUs (früher vor allem teils mit mehreren Karten) sowie die meisten HEDT Kunden - siehe Skylake-X Cascade Lake-X.
Und gerade wenn man die Gesamtkosten vergleicht wie Du sie beschreibst, ist jetzt ein gut ausgestattetes 9900K System mit eben passender GPU und passenden Monitor, NVMes etc. nicht weit entfernt von einem gut ausgestatteten 3700X System (vor allem mit X570 Board was man dann ja wohl haben will) sowie eben der Rest der gleich teuer ist wie RAM, SSD, Monitor, Netzteil, bliblablo.
HEDT legt halt nochmal etwas drauf da die CPUs (wenn man mehr Kerne will) nochmal teurer sind und die Boards auch. Ist aber auch bei Threadripper so. Der Rest kostet wieder gleich viel (auch RAM in 4 Modulen ist nicht wirklich teurer als in der 2 Modul Ausführung). Wobei HEDT für's Gaming sowieso nicht (mehr) das Nonplusultra darstellt. Für Gaming war man mit Mainstream eigentlich so gut wie immer besser und schneller dran und das ist auch jetzt so. Solange Spiele nicht von den vielen Kernen/Threads Gebrauch machen hat HEDT hier Nachteile. Skylake-X und bestimmt auch Cascade Lake-X ist hier langsamer als Coffee Lake aufgrund des Mesh Designs, und auch Threadripper hat das Nachsehen ggü. den AM4 RyZen CPUs aufgrund des NUMA Problems. Ob die 3000er Threadripper Serie das wesentlich besser macht muß sich erst mal zeigen. Allerdings ist ein Threadripper in meinen Augen sowieso kein Gaming System.
...
Ja - und was ist dann gekommen? Der gleiche Aufguss - 8 Jahre lang ohne irgendwelche nennenswerte Mehrleistung, dafür aber mit Inflationsaufschlag. Intel hat dort die Margen optimiert, nicht die Produkte.
Zwischen Sandy Bridge und dem 6 Kern Coffee Lake waren 6,5 Jahre. Aber ja - ist ne lange Zeit in der sich wenig getan hat.
Nicht "nennenswert" ist jetzt vielleicht übertrieben denn Sky Lake hat ggü. Sandy Bridge wohl etwa 20% mehr IPC, dazu dann halt einige andere technologischen Fortschritte in Sachen AVX, iGPU, PCI-E 3.0, DDR4, nativen Support für USB 3.x, M.2 NVMe, PCI-E 3.0 über Chipsatz und DMI etc. Taktmäßig (gerade inkl. OC) hat sich natürlich nicht viel getan und 6,5 Jahre ist ggü. damals eine lange Zeit wo sich jährlich die MHz verdoppelt haben.
Mehrleistung gab es schon - genauso wie mehr Kerne, aber eben nur im HEDT. Und ja die Preise waren dort immer recht saftig. Wer es brauchte und/oder wollte musste halt tiefer in die Tasche greifen.
Und nochmal, wer hat denn damals 2011 und danach unbedingt viele Kerne benötigt? Gamer? Nein, sogar heute nutzen bei weitem noch nicht sehr viele Spiele mehr als 4 Kerne und mit eben einem 2600K 4C/8T kann man heute auch noch ganz brauchbar spielen. Streamer? Damals? sehr wenige ... die meisten haben aufgezeichnet und "Let's Play" Videos gemacht. Hobby Renderer, Videoeditoren, Schachspielexperten, etc. gibt es wohl nicht unmengen, und wenn dann ist es dort auch sonderlich schlimm wenn ein Render-/Konvertier-/Berechnungsvorgang 3 Std. statt 1,5 dauert.
Und jemand der professionell oder beruflich Mehrkerner benötigt hat wohl sowieso ne Workstation oder Server die im Hintergrund laufen.
Und zu guter letzt - Inflationsaufschlag. Ist doch in 6,5 Jahren auch gerechtfertigt, oder? Zahlst Du heute noch den Preis von anderer Ware von vor 6,5 Jahren?
Der 2600K ist wie gesagt mit knapp 320 EUR released worden und hat sich kurz darauf bei 260 EUR eingependelt. Ein 7700K ist mit knapp 380 EUR released worden (die Mondpreise einiger Anbieter der ersten Tage/Wochen mal weggelassen) und hat sich dann langsam runter entwickelt.
Ist in meinen Augen also etwa der gleiche Preis (Dollar Kurs auch beachten!). Ja klar auch in etwa für das gleiche Produkt, also 4C/8T, aber immerhin schon ~ 20% mehr IPC, mehr standard Takt, eine bessere iGPU (wer's braucht), und halt neue Plattform Features siehe oben.
Ich möchte Intel hier nicht verteidigen und bestimmt haben die da nicht viel gemacht aufgrund fehlender Konkurrenz, aber ich bin gespannt wie es jetzt weiter geht, mit Intel und AMD. In zwei Jahren erwarte ich mir dann von beiden mindestens einen 32 Kerner am Mainstream mit mind. 20% mehr IPC und natürlich auch sehr hohen Taktraten (5+ GHz zumindest im Boost/Turbo). Ach und das alles natürlich im üblichen Bereich der 100W TDP. Danke. Ach und nicht über 400-500 EUR. Ach und die Boards sollen trotzdem billig sein, 60-70 EUR tun's bestimmt. Ach und PCI-E 5.0 und DDR5 (vielleicht gleich Quad Channel, wozu hab ich denn 4 Slots am Board?) natürlich auch gleich.
...
Es ging ja darum, dass Intel das mal konnte und dann haben sie halt nur noch gemolken.
Sie hätten es eher gekonnt, ja. Vielleicht nicht gleich nach Sandy Bridge denn in 32nm mehr als 4 Kerne mit hohen Takt waren auch nicht so leicht zu bändigen/Kühlen und die Boards müssen das ja auch erst mal standhalten.
Sie haben halt dort wo es tatsächlich Sinn machte viele Kerne und RAM Channels sowie PCI-E Lanes zu haben (Server) weiterentwickelt und das ohne viel Aufwand als HEDT verkauft. Für den normalen Mainstream Desktop hätte das wohl mehr Geld gekostet als es eingebracht hätte dafür Produkte zu entwickeln.
...
Wie viele Leute wollen Videobearbeitung machen und konnten sich bis dahin so eine Kiste nicht leisten, weil die einfach mal so viel wie ein Auto gekostet hätte? Dreh den Schuh um: Jetzt, wo die Preise halbwegs normal sind, kommen die ganzen Semi-Pros raus und schlagen zu.
Und mit den günstigeren Kisten damals konnte man keine Videobearbeitung machen, oder wie? Wie schon geschrieben für alle Hobby Pros sollte es doch egal sein ob ein Video jetzt 5 Stunden oder 2,5 Stunden rendert. Und so viel wie ein Auto ist übertrieben.
Ich denke eher jetzt werden auf einmal alle zu Semi-Pros und meinen das zu benötigen
...
Na ja, da ich eh ein Sonderling bin der Star Citizen zockt, hab ich mir den 3950X ausgeguckt. Aber: Wenn ich da nicht so ein Fanatiker wäre, würde ich zum 3700X greifen. (Vom 4-Kerner kommend) Logo.
Gut das ist wohl eine Ausnahme. Aber wie oben etwas überspitzt dargestellt ... warte doch 2 Jahre dann kannst Dir gleich einen 5+ GHz 32 Kerner kaufen, für unter 500 EUR. Die braucht man dann definitiv, kannst ja heute nicht mal Star Citizen mit einem lausigen 8 Kerner spielen und Videobearbeitung geht schon mal gar nicht.
...
Fast. Du bekommst mehr Leistung fürs gleiche Geld und die Option nach oben steht jetzt auch. 16 Kerne auf ner Mainstream-Kiste.
AMD erweitert die Palette nach oben und will dafür mehr Geld haben. Hat Intel im kleineren Stil (7700er -> 8700er -> 9700er) auch so gemacht.
...
Ich sehe schon die Downloadserver von Videoverarbeitungstools rauchen.
Ich nicht, wie gesagt wenn wer Videos bearbeiten wollte konnte er das vorher auch schon. Es ist nicht erst jetzt mit den CPUs mit mehr Kernen möglich und zuvor nicht.
...
Die 5700XT knackt die Vega 64. Aus *heutiger* Sicht isses "nur" ne (gute) Mittelklassekarte - aber mit der doppelten Leistung im Vergleich zu einer 580'er ist sie schon sehr attraktiv.
Doppelte Leistung ... bei aktuell mehr als den doppelten Preis
Merkste was?
Nein im Ernst, die 580er (8G Version) kam im April 2017 um 269 EUR auf den Markt. Die 5700 XT nun im Juni 2019 um 419 EUR.
Lt. Computerbase Test (leider ist da ne 580er nur bei den 1080p Benches dabei) sind die Frametimes (99,8 Percentile) einer 5700XT um 173% besser. (FPS wären es 188%)
Tja dann rechne ... 269 EUR x 1,73 = 465 EUR. Also ist die 5700XT etwas günstiger als Ihre Mehrleistung. Aber das nach gut 2 Jahren! Und wenn man es genau nimmt ist ja ne 580er eigentlich nur eine höher getaktete 480er welche Juli 2016 um 269 EUR in der 8G Version auf den Markt kam.
Also 3 Jahre! In 3 Jahren haben sie es geschafft die doppelte Leistung (bei der 480er müsste es gut hinkommen mit doppelter Leistung) zu liefern bei 56% Aufpreis. *golf clap* [Men at work falls das noch wer kennt]
Men at Work Golf Clap - YouTube
...
Nein, ab 50% Marktanteil müsste Intel dann billiger sein als AMD, weil AMD sich dann nicht mehr vor den Karren spannen lassen muss. Und das kann Intel dann machen oder nicht, mit den entsprechenden Konsequenzen. Bis dahin ist es aber noch etwas hin...
Warum müsste Intel dann billiger sein? Falls Intel schnellere Produkte hat können sie ja nach wie vor teurer sein, oder?
Und falls AMD dann schnellere Produkte hat, hat auch AMD höhere Preise. Ich sehe da nicht direkt eine Abhängigkeit von Marktanteilen.
...
Marktanteil bedeutet, dass bestimmte "nur Intel" Optimierungen rausfliegen und AMD auf Augenhöhe entwickeln kann, ohne dass jemand durch Marktmacht bescheißen kann.
Wo gibt's die denn?
Ich denke eher wenn AMD mehr Marktanteile hat daß besser für AMD optimiert wird.
...
Bis zum Desktop brauchen die mindestens so lange, wie AMD für Zen 3.
Und dann sind bei beiden wieder die Karten gemischt ... ist das nicht schön?
...
Und wenn nicht, bleiben sie für die meisten Leute das schlechtere Produkt. Außer für ein paar hardcore-Jünger, die mit ner 2080Ti auf 1080p zocken.
... und dort Ihre 144+ Hz ausfahren wollen.
Als Zocker (zumindest schneller FPS oder Actionspiele) würde ich mir eher einen 1080p mit 144Hz kaufen als einen 1440p mit 60Hz.
Das ist auch der Grund warum ich aktuell niemanden aus dem Bereich einen UHD Monitor empfehle. Aktuell nur 60Hz bezahlbar und selbst da schwitzt eine Top GPU bei einigen Games.
Lt. Geizhals gibt es aktuell von ca. 2025 gelisteten Monitoren 517 die 1440p oder mehr haben.
Ebenfalls von diesen 2025 gibt es 278 die 144Hz oder mehr haben. So wenige sind das also im Vergleich gar nicht. Und die 144Hz zu befeuern ist je nach Spiel nicht einfach, weder für die GPU noch für die CPU.
...
Ähm... Star Citizen macht das schon. Nur ist der Aufwand halt exorbitant hoch. Nur AAA Engines der großen Publisher machen sowas nicht "mal eben", da dort mehrere Spiele parallel angebunden sind. Das geht da nur in Tippelschritten.
Star Citizen ist wie schon erwähnt wohl eines der ganz wenigen die jetzt schon gut mit vielen Kernen skalieren.
Aber gerade AAA Engines großer Publisher haben doch das Potential auf Optimierung für viele Kerne/Threads. Kleine Publisher/Entwickler können sich sowas ja kaum leisten.
Das Problem liegt da wohl eher daß die Publisher/Entwickler von AAA Games auf eine breite Masse abzielen. Möglichst viele Kunden. Und da kann man nicht mal eben 6+ Kerne voraussetzen (daß das Spiel überhaupt oder annehmbar läuft).
Bis wirklich mal mehr Leute 4+ Kerne haben dauert es noch lange.