AMD zeigt DOOM auf RYZEN und Vega – CPU-Takt bei 3,6 GHz

Wann werden die neuen Zen Prozessoren denn erhältlich sein? Ich hoffe doch 4 Kerne mit SMT. Was will ich mit einem 8 Kerner?
Zum Zocken und für 0815 Aufgaben ist das Overkill.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Immer noch Q1, also spätestens am 31. März. Gerüchteweise ist von einem Launch Ende Februar die Rede.
Zen wird es natürlich nicht nur als Octa Core geben, aber mit dem Top-Modell wirbt man natürlich lieber, als einfach "nur" einen schnöden Quad Core zu nehmen. ;)

Ich selbst halte einen 8C nicht unbedingt für "too much". Einserseits, weil ich auch sehr viel multitaskingmäßig unterwegs bin, andererseits weil ich bereits einen Quad Core habe (und da gibt's klügeres, als erneut auf einen zu wechseln :d ) und, für mich persönlich am wichtigsten, weil meine nächste CPU langfristig in meinem Rechner werkeln soll. CPUs sind ja idR doch nochmal eine ganze Ecke langlebieger als Grafikkarten.
 
Zuletzt bearbeitet:
Wenn man bei einem 4kerner, von HT profitiert (und grade behaupten ja alle in dem anderen thread ein i5 wäre nicht mehr gamingtauglich (bezweifle ich persönlich auch etwas, aber naja)), dann profitiert man auch von einem nativen 8Kerner, denn dieser kann mehr "Leistung" an 8 Threads liefern als ein 4kerner+HT.
 
Und wenn man nicht jährlich upgradet machen mehr Kerne auch Sinn
Denn langfristig gesehen werden wohl die meisten Games und Programme mehr oder weniger gut auf mehr Kerne
skalieren
Vermute mal das sich dies bei Games durch DX12 jetzt langsam aber doch noch zunehmend beschleunigt
 
Zuletzt bearbeitet:
hoffe sehr das RyZen wirklich Ende November erscheinen wird....
Kann mal einer den Bot updaten? Danke!

Weil 7700k im gleichen takt genauso schnell ist wie 6700k.

Gut man kann den 7700k höher takten als nen 6700k aber die paar mehr fps machen nicht viel aus.
Der i7-7700K hat aber mehr Takt und ist besser übertaktbar, die Listenpreise sind auch gleich und wenn der Ansturm auf die ersten Exemplare vorbei ist und die alten CPUs in den Lagern weniger werden, dürften die Preise auch gleich sein, von daher lohnt es sich bald nicht mehr noch auf die alten Skylake CPUs zu setzen. Die Ryzen CPUs werden den Händlern aber am Anfang sicher aus den Händen gerissen werden und daher dürfen deren Preise im Handel am Anfang auch total überzogen sein.
ARM Server werden dieses Jahr vorgestellt
Es gibt schon einige ARM Server, nur der Durchbruch blieb bisher aus um nicht zu sagen, die haben dafür gesorgt, dass die Erwartungen in diese Richtung massiv gedämpft wurden. Für einzelne Anwendungen werden sie vermutlich ihre Nische finden, aber in der Breite kann man zumindest den ersten Angriff als gescheitert ansehen.
Bin mal schwer gespannt ob auch AMD bei ARM aufspringt.
Die AMD Opteron A Reihe gibt es doch schon und die werden seit fast genau einem Jahr ausgeliefert, kennt eben keine die Dinger. Selbst innerhalb der Konkurrenz von ARM Server CPU ist AMD unbedeutend, da gibt es z.B. von Cavium mit dem ThunderX 48 Kerner ganz andere Kaliber und trotzdem sieht der in den allermeisten Tests und Anwendungen gegen Intel CPUs wie den 10 Kerner Xeon E5-2640 v4 kein Land und braucht auch obendrein mehr Leistung. ARM funktioniert toll bei kleinen Mobilgeräten, aber zumindest bisher nicht bei großen Systemen wo eine hohe Leistung gefragt ist. Cavium positioniert den ThunderX daher auch als CPU für Load Balancer, Web Cache oder CDN server, also wo viele Kerne auch genutzt werden und die Leistung pro Kern keine Rolle spielt, weshalb Gaming Rechner oder Workstations mit ARM CPUs wohl noch in sehr weiter Ferne sind, denn dort spielt die Singlethread Leistung immer noch eine sehr große Rolle und daran hapert es den einfach aufgebauten ARM Kernen eben am meisten. Im Gegenzug bekommt man halt mehr von denen auf einem Die unter als von dem komplexeren x86 Kernen.

Aber zum Thema, die Taktraten klingen doch sehr gut, nur fehlen eben noch immer viele Details zu den CPUs und der Plattform, denn Fotos von Mainboards sagen eben leider noch wenig über die technischen Details und die Optik ist mir persönlich total egal, die sieht man im geschlossenen Gehäuse ja nicht. Wobei es mich natürlich skeptisch macht was AMD nun wirklich zeigt, wenn sogar alle Ritzen verschlossen sind um ja keine Einblicke zu erlauben.
 
denn dort spielt die Singlethread Leistung immer noch eine sehr große Rolle und daran hapert es den einfach aufgebauten ARM Kernen eben am meisten. Im Gegenzug bekommt man halt mehr von denen auf einem Die unter als von dem komplexeren x86 Kernen.
Wobei das nicht unbedingt eine grundeigenschafft von ARM ist. Apple macht das ja vor. Sie sind bei 2 Kernen geblieben aber haben die Leistung stetig steigern können.
Leider sind ausgerechnet sie diejenigen die Ihre Technologie nicht in Lizenz geben oder für externe Kunden produzieren würden.
Es stimm dass ARM bzw. dessen RISK Prinzip zur Vereinfachung neigt, allerdings waren auch X86 Chips von vor 15 jahren viel einfacher aufgebaut als die heutigen...
 
Zuletzt bearbeitet:
Hm, bei dem TDP/Temp Boost wirds ja richtig interessant mitm Noctua NH-9a im Dan A4. :fresse:

Ich glaube ich werde doch mein aktuelles System mal da reinpflanzen um zu schauen was für Bedingungen und Probleme konkret da auftreten, um bei der Umrüstung auf RyZen entsprechend nicht ins kalte Wasser zu fallen.

gesendet via mTalk @Lumia 640 DS
 
Zuletzt bearbeitet:
@Dragon
Jeder heutige CPU ist eine RISC seid dem P2!
Nach dem die Befehle dekodiert sind wird es in einfache RISC Befehle übersetzt. Und den Rest erledigen RISC Rechenwerke. Der Compiler arbeitet weiter in typischen 5 Bit und speichert die Infos für die PreFetch.
Im Grunde sind heutige Prozessoren x86 Emulatoren.
Intel selbst gehört zu den größten RISC Fertiger.
Und man muss sich bei Intel,Sun, SG und DEC bedanken das man in diesen x86 Dilemma stecken.
Alles muss im Homebereich(alles was nicht mit SuperComputer zu tun hat) zu x86 kompatibel sein.....
Aber all das ist OT


Gesendet von iPhone mit Tapatalk
 
@Dragon
Jeder heutige CPU ist eine RISC seid dem P2!
Nach dem die Befehle dekodiert sind wird es in einfache RISC Befehle übersetzt. Und den Rest erledigen RISC Rechenwerke. Der Compiler arbeitet weiter in typischen 5 Bit und speichert die Infos für die PreFetch.
Im Grunde sind heutige Prozessoren x86 Emulatoren.
Intel selbst gehört zu den größten RISC Fertiger.
Und man muss sich bei Intel,Sun, SG und DEC bedanken das man in diesen x86 Dilemma stecken.
Alles muss im Homebereich(alles was nicht mit SuperComputer zu tun hat) zu x86 kompatibel sein.....
Aber all das ist OT


Gesendet von iPhone mit Tapatalk
Allle sollen RISC sein? Ich glaube das Thema ist komplexer als angenommen.
OffTopic:
Die Liste der SPEC (Standard Performance Evaluation Corporation) mit den schnellsten Prozessoren ist mittlerweile sehr heterogen. Man findet „RISC-Prozessoren“ wie „CISC-Prozessoren“ wie auch Prozessoren, die von Grafikprozessoren abstammen. Wichtig für Supercomputer ist die Skalierbarkeit der Architektur für den parallelen Betrieb zehntausender bis hunderttausender Kerne. Mittlerweile sind die überwiegende Anzahl der Prozessoren der TOP500 x64-kompatible „CISC-Prozessoren“ (76 Prozent: Intel Xeon und AMD Opteron). Als „RISC-Prozessor“ steht der IBM Blue Gene (PPC) mit 18 Prozent ganz vorn.
Bei aktuellen Großrechnern sind reine/weitgehende RISC-Chips inzwischen jedoch fast vollständig von den Mikroprozessoren der Intel x86-Linie verdrängt, die einen RISC-Kern mit einer CISC-Emulationsschicht verbinden. Deren Ursprung aus dem erfolgreichen Massenmarkt-Einsatz macht die Kleinserien der Großrechner-RISC-Chips unrentabel. DEC Alpha wurde eingestellt, ebenso HPs PA-RISC, Suns SPARCs werden nicht mehr produziert, PowerPC-Chips fertigt nur noch IBM selbst, Renesas SuperH hat kaum mehr Verbreitung, XScale, MIPS und StrongARM sind in Großrechnern selten oder verschwunden. (Stand 2011)
RISC-Prozessoren bilden das Gegenstück zu CISC-Prozessoren. Heutige RISC-Prozessoren überschreiten die Grenzen der engen Definition und enthalten auch komplexere Befehle. So wurde der Befehlssatz des PowerPC-Prozessors, der von IBM und Freescale (ehem. Motorola) hergestellt wird (und beispielsweise bis zum Wechsel zu Intel-CPUs in den Computern von Apple Verwendung fand), durch eine Befehlserweiterung namens „AltiVec“ ergänzt, die in den PowerPC-Prozessoren spezielle Multimediafähigkeiten nachrüstet (vgl. MMX bei x86-Prozessoren). Allerdings folgt auch AltiVec den RISC-Eigenschaften.
Ende der 1980er-Jahre brachte der britische Hersteller Acorn den Heimcomputer Archimedes mit einem speziell konzipierten RISC-Prozessor auf den Markt, dessen Leistungsfähigkeit die der damals in Heimcomputern eingesetzten Prozessoren weit in den Schatten stellte. Diese Acorn Risc Machine war der Ursprung der heutigen ARM-Prozessoren, die in eingebetteten Systemen (zum Beispiel Mobiltelefonen) sehr verbreitet sind.
 
AMD will mit ihrem 8-Kerner und dezent gestiegener Performance auf ganz viele Spiele und Anwendungen warten, die das auch nutzen können. jaja, Konsolen haben auch ...

... nur 30 FPS mit ihren 2GHz- Jaguar- Achtkernern. Was eine HighEnd- GPU wie die GTX 1080 mit einem lächerlichen i7-4790 in 1080p macht, sieht man hier am besten: Frust auslösen :d.

Gerade die ganz schlechten Ports, wo die CPU- Auslastung noch fast 1:1 mit den FPS skaliert, schreien geradezu nach einer mindestens doppelt so guten CPU auf dem PC, wenn man auch mindestens doppelt so viele FPS und keine 30FPS- Ruckelpartie möchte. Mal ganz abgesehen davon, dass heutzutage eine große Nachfrage nach Bildschirmen besteht, die über 100Hz darstellen und entsprechend hohe Anforderungen an die GPU und CPU gestellt werden, denn spätestens ab 100FPS ist in den meisten 8 Thread- Spielen mit einem Quadcore der Spaß zuende, es sei denn, man versucht alles CPU- Lastige komplett abzustellen, aber selbst das wird für 144 oder 165 Hz um Längen nicht reichen.
 
Ich glaube für die normalen User wird in Zukunft ARM eingesetzt werden, Microsoft hat (oder ist noch daran) Win10 ARM "kompatibel" gemacht. Habe mich nur grob eingelesen, aber ARM ist effiziennter da die Programmierung auch dementsprechend "ordentlich" vorgekaut wird. Der neue Snapdragon sollte für Office, Sufen und Video vollkommen reichen, auch Photoshop ist damit ordentlich nutzbar.
Insgesamt brauch man nicht aufrüsten solang man nur Office und dergleichen benutzt, da reicht auch weniger, will jetzt aber nicht zu weit abdriften :d

Freu mich allerdings schon riesig auf Zen, wenn er das hält wovon jeder derzeit munkelt (4.2-4.4ghz) und nicht all zu teuer ist wird bei mir definitiv ein Upgrade in Betracht gezogen. Es wird auch bestimmt nicht mehr all zu lang dauern bis man in Spielen von 8 Kernern profitiert :d

Ich dachte eher an Mainstream Spieler als Office. :-)
 
[...]
Ich glaube ich werde doch mein aktuelles System mal da reinpflanzen um zu schauen was für Bedingungen und Probleme konkret da auftreten, um bei der Umrüstung auf RyZen entsprechend nicht ins kalte Wasser zu fallen.

Genau das habe ich auch vor :)

Wobei der L9a keine Probleme mit meinem X4 860K@stock hat :d
 
... nur 30 FPS mit ihren 2GHz- Jaguar- Achtkernern. Was eine HighEnd- GPU wie die GTX 1080 mit einem lächerlichen i7-4790 in 1080p macht, sieht man hier am besten: Frust auslösen :d.

Gerade die ganz schlechten Ports, wo die CPU- Auslastung noch fast 1:1 mit den FPS skaliert, schreien geradezu nach einer mindestens doppelt so guten CPU auf dem PC, wenn man auch mindestens doppelt so viele FPS und keine 30FPS- Ruckelpartie möchte. Mal ganz abgesehen davon, dass heutzutage eine große Nachfrage nach Bildschirmen besteht, die über 100Hz darstellen und entsprechend hohe Anforderungen an die GPU und CPU gestellt werden, denn spätestens ab 100FPS ist in den meisten 8 Thread- Spielen mit einem Quadcore der Spaß zuende, es sei denn, man versucht alles CPU- Lastige komplett abzustellen, aber selbst das wird für 144 oder 165 Hz um Längen nicht reichen.
Ist schon lange so das die grakas den CPUs voraus sind
Daher sieht man besonders bei CF und SLI benches im extrembereich kaum noch LN2 gekühlte Grafiken
 
Stimmt, da gab es mal was mit Windows RT :d
Das Problem war dass sie sich falsch aufgestellt haben. Es muss von Anfang an ein kompletten "Ökosystem" vorhanden sein, egal ob für Firmen oder Verbraucher, sonst steigt da niemand um.
Das mit VISC hört sich sehr interessant an, sogar einiges besser als ARM RISC. Nur leider wird das bestimmt noch einige Jahre(zehnte) dauern, bis eben CICS in diesem Fall komplett ausgelutscht ist und ein Architekturswechsel benötigt wird um bessere Ergebnisse zu erziehlen - leider.

So ein kleiner ARM HTPC soll nur an einen 4k Fernseher angeschlossen werden um Filme/Musik abzuspielen und zu surfen. 300€ ist für sowas auch eine kleine Ansage, zudem hat man dann wieder einen großen Kasten rumstehen, ARM wäre eher Raspi größe ;)

Dass die Intels schneller sind ist klar, ich habe mich nur immer gefragt wie es ausschauen würde, wenn ARM die gleiche GHz hätte und die Programmierung auf solche Aufgaben angepasst würde. So wie ich mitbekommen habe, hat CISC überwiegend den Vorteil dass man weniger "Speicher" benötigt, was natürlich auch darin resultieren kann, Aufgaben in weniger Schritten abzuarbeiten.
Also kurzum einen ARM mit gleicher TDP :d

@ Jaimewolf3060
Viele CISC CPU's haben inzwischen teile zur Verabeitung von RISC miteingebarbeitet (habe ich zumindest so verstanden).


Jedenfalls hoffe ich, dass der Ryzen solange gut hält, bis sich mal was an den Architekturen ändert. Die Alten werden immer nur noch aufgeblähter und schleppen Altlasten mit sich rum. Aber selbest das wird für den Ryzen ein Kinderspiel werden :bigok:
 
... nur 30 FPS mit ihren 2GHz- Jaguar- Achtkernern. Was eine HighEnd- GPU wie die GTX 1080 mit einem lächerlichen i7-4790 in 1080p macht, sieht man hier am besten: Frust auslösen .

Gerade die ganz schlechten Ports, wo die CPU- Auslastung noch fast 1:1 mit den FPS skaliert, schreien geradezu nach einer mindestens doppelt so guten CPU auf dem PC, wenn man auch mindestens doppelt so viele FPS und keine 30FPS- Ruckelpartie möchte. Mal ganz abgesehen davon, dass heutzutage eine große Nachfrage nach Bildschirmen besteht, die über 100Hz darstellen und entsprechend hohe Anforderungen an die GPU und CPU gestellt werden, denn spätestens ab 100FPS ist in den meisten 8 Thread- Spielen mit einem Quadcore der Spaß zuende, es sei denn, man versucht alles CPU- Lastige komplett abzustellen, aber selbst das wird für 144 oder 165 Hz um Längen nicht reichen.

Obwohl er schon extrem wenig FPS hat. Und das sich Quadcore immer noch sehr sehr gut verkaufen sieht man am i7 7700k. Wenn Quadcore tot wären würde den keiner kaufen. Ist aber immer ausverkauft. :)
 
Das 4 Kerner nicht mehr Gaming Tauglich sein sollen, finde ich etwas lächerlich, es mag bei MAX Einstellungen mit einem 8 Kerner vielleicht Vorteile, aber bei Hohe Einstellungen dürfte ein 4 Kerner Locker reichen. Wenn ich bei meinen Eltern zu Besuch bin, zocke ich ab und an Black Ops 3 auf einem i3-4130/GTX 760, und auf mittleren Details ist das immer noch sehr gut Spielbar, der hat sogar nur 2 Logische Kerne. Man sollte nicht meinen das die High-End Spieler Basis so groß ist das sich jeder gleich die beste erhältliche CPU holt, daher denke ich das 4 Kerner noch eine ganze Weile ausreichen und tauglich sein werden.
 
Das 4 Kerner nicht mehr Gaming Tauglich sein sollen, finde ich etwas lächerlich, es mag bei MAX Einstellungen mit einem 8 Kerner vielleicht Vorteile, aber bei Hohe Einstellungen dürfte ein 4 Kerner Locker reichen.
Ist es nicht eher andersherum. Bei max einstellungen spielt die CPU weniger ne Rolle, wenn ich die Grafikeinstellungen runternehme muss die CPU mehr leisten und kann nur bis zu einer bestimmten FPS Zahl liefern.
 
..., es mag bei MAX Einstellungen mit einem 8 Kerner vielleicht Vorteile, aber bei Hohe Einstellungen dürfte ein 4 Kerner Locker reichen...

Ist es nicht eher andersherum. Bei max einstellungen spielt die CPU weniger ne Rolle, wenn ich die Grafikeinstellungen runternehme muss die CPU mehr leisten und kann nur bis zu einer bestimmten FPS Zahl liefern.

Ihr habt beide recht. Verändere ich die Grafikpracht (Auflösung, Texturen, Details), interessiert das die CPU nicht wirklich. Ändere ich Objektanzahl, Schattendetails, Spiegelungen, etc. ist die CPU stark betroffen.

Grüße :wink:
 
Doom schaut aus, wie ein völlig verkacktes Left 4 Dead auf dem Mars.
Richtig gruselig was ID da abliefert.
 
Je weniger Auflösung, Details etc. für die Grafikkarte, umso mehr FPS kann sie machen, umso mehr muss die CPU arbeiten. Je mehr Physik, Explosionseffekte, Schatten etc, umso mehr muss die CPU rechnen. Beides kann man also belasten, und wenn die Grafikkarte stark genug ist, bekommt man selbst auf Ultra extrem viele FPS, sodass die CPU dann keine guten Schatten/Physikberechnungen mehr packt, und evtl. sogar mit Schatten etc. auf niedrig Ruckler, kurzzeitig geblockte Steuerung oder Mikroruckeln verursacht.

Man kann da also vieles optimieren, zum Beispiel, um 144FPS zu bekommen, wo es mit ausgewogenen Einstellungen(Niedrig, Mittel, Hoch, Ultra) nicht gehen würde, aber irgendwann zwingt eine zu starke GPU die CPU trotzdem in die Knie.

Zu den ausverkauften 7700K: Ich kenne jemanden, der sieht das so: "Die Grafikkarte macht das Bild, also kann mein 10 Jahre alter Quadcore nicht zu langsam sein."
Es gibt eben Leute, die aus irgendwelchen Gründen ihre eigenen Ansichten haben, wie die Welt funktioniert, und somit wird es auch viele geben, die trotzdem den 200€- Quadcore kaufen und sich eine 1.000€- Karte reinbauen. Alleine schon aus Bequemlichkeit, und weil es vielleicht primär auch eher ums Protzen mit der GPU geht.

Trotzdem gibt es auch genug, die mehr Hintergrundwissen haben und beispielsweise die Benchmarks kennen, wo seit ca. 2 Jahren ein 5960X/6900K@4.5GHz meistens vor dem entsprechenden Quadcore -i7 auf gleichem Takt steht(Edit: Hier sogar auf Standardtakt), was automatisch beweist, dass ein Quadcore eben teilweise die FPS drückt, was natürlich irgendwann auch als Ruckeln empfunden wird, auch wenn die durchschnittlichen FPS sich nur geringfügig unterscheiden. Dass die aktuellen Achtkerner häufig eher hinter den Quadcores landen, oder gleichauf sind, liegt eher daran, meistens pro Kern fast 1 GHz Unterschied dazwischen liegt. Mit der richtigen Kühlung ist es aber kein Problem, das fast komplett auszugleichen.
 
Zuletzt bearbeitet:
Doom schaut aus, wie ein völlig verkacktes Left 4 Dead auf dem Mars.
Richtig gruselig was ID da abliefert.

Und das juckt wen?

Wenn's dir nicht passt, schau es nicht an, spiel es nicht - aber hör auf solchen OT-Rotz zu posten. :rolleyes:

Es war gerade mal Ruhe in diesem Forum, nachdem hier son paar Nasen zu jedem Thema solchen Hirnsülz verfasst haben.
 
Und das juckt wen?

Wenn's dir nicht passt, schau es nicht an, spiel es nicht - aber hör auf solchen OT-Rotz zu posten. :rolleyes:

Es war gerade mal Ruhe in diesem Forum, nachdem hier son paar Nasen zu jedem Thema solchen Hirnsülz verfasst haben.
Zumal das völlig an den Haaren herbeigezogen ist, DOOM 2016 mit id6 Engine sieht echt "gruselig" aus, Albtraum Garantie bei richtiger Hardware Nutzung!
Mit den Einstellungen hier: Doom - Systemvoraussetzungen, Hardware-Anforderungen, Performance und Grafik - Fazit - GameStar
Sind es bei mir minimum 60FpS, Avg 100FpS (ohne Input Lag @ 2750MB VRAM ständig belegt) ;)
 
Warum geht ihr überhaupt wieder auf so einen Kommentar ein, ignoriert ihn doch einfach. Sein Kommentar hat so gut wie nichts mit dem Thema zu tun, soll nur wieder ansticheln :wall:

@Merkor1982
Ja, 4Kernen reichen im Schnitt gut, allerdings kanns sich das recht schnell ändern. Mieße Konsolenports, 8C verfügbar, neue Spiele die massiver sind, DX12. Kommt meist immer nur auf die Optimierung an, und man benötigt ja nicht alle Einstellungen auf MAX ;)
 
Wobei das nicht unbedingt eine grundeigenschafft von ARM ist.
Zwischen RISC und CISC Prozessoren wird heute aus gutem Grund nicht mehr getrennt, da sich beide Konzepte vermischt haben und natürlich ist es nicht in Stein gemeißelt, dass ARM CPUs eine schlechte Singlethreadperformance haben, was eben an der IPC und den Takten liegt. Die Taktraten zu erhöhen geht ab einem bestimmten Punkt überproportional auf die Leistungsaufnahme und die IPC zu steigern geht auch im wesentlichen nur auf Kosten der Komplexität der Schaltungen und damit auf den Platz den ein Kern auf dem Die einnimmt und auch auf die Leistungsaufnahme. Wenn man also die Singlethreadperformance der ARM Kerne steigern will, dann hat man am Ende einen x86er Kern mit ARM Befehlssatz und damit nichts gewonnen, sondern immer noch den Nachteil der schlechteren Unterstützung durch für Server (und auch für Heimanwender) relevante SW.

Es gilt also für die Hersteller von ARM CPUs für Server die Nachteile zu verringern ohne zu viel von den Vorteilen zu verlieren, nur versucht vor allem Intel (aber sicher auch AMD) genau dies auch bei den x86er CPUs.
allerdings waren auch X86 Chips von vor 15 jahren viel einfacher aufgebaut als die heutigen...
Eben und die Entwicklung ist ja in die Richtung gegangen in die sie gegangen ist, weil dies eben zu der Zeit die besten Lösung war, vor allem für PCs und Server, wo diese CPUs vor allem eingesetzt werden. Damit wurde für den mobilen Markt in dem andere Anforderungen gelten der Platz für ARM frei, nur muss dies eben nicht bedeuten, dass die ARM CPUs eben auch in anderen Bereichen dann erfolgreich sein werden, schon gar nicht in den Bereichen auf die die x86er CPUs seither optimiert wurden. Je größer der Spagat ist, umso schwerer wird es ihn zu machen.

Das alle quadcores kaufen liegt allein am Preis
Nicht nur, denn man sollte auch nicht vergessen, dass es gerade bei Heimanwendern noch viel SW (auch Games) gibt, die vor allem von der Performance bei einem oder sehr wenigen Threads abhängt und man kann nicht jede SW auf parallele Algorithmen umschreiben, einige Probleme lassen sich nicht parallel abarbeiten und selbst solche bei denen es möglich wäre, werden oft wegen des Aufwandes (also der Kosten) nicht umgeschrieben. Auch wenn die Technologie der flexiblen Taktraten immer besser wird, so war es zumindest bisher eben doch nicht möglich einem 8 oder 10 Kerner bei Nutzung nur weniger Kerne die gleiche Performance wie einem 4 Kerner zu entlocken, außer man übertaktet und geht bei der Leistungsaufnahme massive Kompromisse ein.

Dann wollen so viele Kerne auch mit Daten und Programmcode gefüttert werden, daher braucht man auch ein entsprechendes RAM Interface, die großen Sockel von Intel haben ja nicht aus Spaß erst Tripple und dann Quadchannel RAM bekommen und werden demnächst sogar 6 RAM Kanäle haben und AMD wird bei Naples vermutlich sogar 8 RAM Kanäle realisieren. Nur erfordert dies viele Pins im Sockel und viele Layer der Boards, was diese entsprechend teuer macht und der User muss eben auch entsprechend viele RAM Riegel einbauen.

So einfach ist es also nicht, es reicht nicht viele Kerne in die CPU zu bauen um in jedem Fall die schnellste CPU zu bekommen und daher sind eben bisher 4 Kerne offenbar der besten Kompromiss für die Bedürfnisse der meisten Heimanwender. Ob und wenn ja wie weit sich dies ändern wird, werden sie ja dann sehen wenn AMD mit RYZEN dann wirklich 8 Kerner für die Massen bringt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh