madpenguin
Semiprofi
Ich will bis Zen kommt einen FX-8370e in FM2+ Package. Wann ich ihn will? JETZT!
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Wie willst du einen FX-8370 auf einem FM2+ Board anständig mit Strom versorgen?
Die Boards sind definitiv nicht darauf ausgelegt. Selbst mit den grössten APUs gibt es teilweise Probleme. An Overclocking kann man da gar nicht denken.
FM2+ ist ideal in ITX für kleine HTPC und BD Untouched / 3D Wiedergabe. Da braucht man aber auch nicht die grösste APU und hat trotzdem genügend Leistung.
Immer langsam mit den jungen Pferden!Ich will bis Zen kommt einen FX-8370e in FM2+ Package. Wann ich ihn will? JETZT!
Zen ist doch eine ganze Europalette, nicht nur eine "Quad Family".Wenn Zen wirklich erst so spät 2016 kommt, will ich mir nicht vorstellen, dass da nichts neues kommen kann. Am3+ ist als Plattform uralt und Fm2+ kriegt nur 2Moduler...Bis 95W sind sie doch locker ausgelegt. Warum also keinen 8Kerner wie den Fx8320? Von mir aus einen Fx-6xxxx. Aber etwas sollte unbedingt kommen....vor allem auf Hinblick von Directx12. Ein kleines Plattform Refresh und ab geht die Post
Das dort dort Widersprüche sind, hatte ich doch schon geschrieben. So fehlt in der zweiten Spalte von oben zwischen Haswell / Hasswell Refresh und Skylake auch der Broadwell, der ja nun bekanntlich z.B. als i7 5775C doch noch für den S. 1150 erschienen ist.Und die Roadmap ist eh total veraltet und für die Tonne.
Genau das widerspricht auch allen bisherigen Angaben, wonach der noch kommen wird. Wenn die 10nm CPUs wirklich auf 2017 verschoben werden, was dann immer noch der Vorgaben von 18 Monaten für ein Tick und nochmal 18 Monaten für ein Tock entsprechen würde, dann wäre es auch ungewöhnlich, wenn der Broadwell-E wegfallen täte, die Enthusiasten und Server CPU kommen ja immer deutlich später als der Mainstream und wäre Broadwell nicht verspätet, hatte es den Haswell-E auch erst gegeben, wenn Braodwell den Haswell im Mainstraam schon komplett abgelöst hätte. Mit wäre es aber recht, wenn man Skylake-E vorziehen würde.Interessant an der Roadmap ist die Information, dass Broadwell-E gecancelt wurde.
Wollen kann man viel, bekommen tut man es deswegen noch lange nicht. Es reicht auch nicht mehr nur die CPU zu betrachten, man muss schon die ganze Plattform in die Erwägungen mit einbeziehen und da ist der AM3+ eben uralt, die 900er Chips sind umgelabelte 800er die Anfang 2010 erschienen sind. FM2+ ist deutlich aktueller, aber eben nur für CPUs bis 2 Module / 4 Kerne.Ich will bis Zen kommt einen FX-8370e in FM2+ Package. Wann ich ihn will? JETZT!
Klar, eine CPU mit 8 Kernen skaliert bei bis zu 10 Threads Auch ein Einkerner skaliert sogar bei bis zu 100 Thread, wenn jeder davon nur 1% der verfügbaren Leistung braucht.Bis 10 Threads skaliert mein FX-8350 auch mit mehr Leistung, oder Gummipunkte..
Was willst Du uns damit sagen? Ich kann jederzeit ein Progamm schreiben welches noch mehr viel mehr Thread als nur 31 öffnet und das läuft sogar auf einem Einkerner, was soll das also bitte aussagen?Moderne Diagnose Software mit Windows 7 64Bit Professional zeigt mir bis zu 31 Threads für eine .exe Datei an.
@BlackFlag
Man sollte den Leutens chlicht das empfehlen was für sie am besten ist. Und wenn jemand nach Gaming fragt (das tun ja ~80% aller User in diesem Forum), dann kommt man ganz sicher nicht mit nem Passmark Score, um damit die CPU auszuwählen
Naja, die Summe der OS-Threads ist nicht gerade klein: http://abload.de/img/dvdfab9_bd_mp4_fx-959ivx6y.pngKlar, eine CPU mit 8 Kernen skaliert bei bis zu 10 Threads Auch ein Einkerner skaliert sogar bei bis zu 100 Thread, wenn jeder davon nur 1% der verfügbaren Leistung braucht.
Was willst Du uns damit sagen? Ich kann jederzeit ein Progamm schreiben welches noch mehr viel mehr Thread als nur 31 öffnet und das läuft sogar auf einem Einkerner, was soll das also bitte aussagen?
Die kerne sind ja auch nicht alle ausgelastet, damit bleibt ja noch genug für den Brower übrig. Und 10GByte I/O sagt nichts aus, 10GB/s sind es nicht und damit ist es egal, wie viele GB bewegt werder / wurden, wenn die Zeit nicht mit angegeben ist.Bei 10GByte I/O lässt sich das System noch normal bedienen, während ich hier schreibe...
Die 5.44GByte .mp4 nochmal mit dem VLC Player konvertiert: http://abload.de/img/vlc_konvertierungw0ll0.pngDie kerne sind ja auch nicht alle ausgelastet, damit bleibt ja noch genug für den Brower übrig. Und 10GByte I/O sagt nichts aus, 10GB/s sind es nicht und damit ist es egal, wie viele GB bewegt werder / wurden, wenn die Zeit nicht mit angegeben ist.
Erstens ist das kein Thread für Empfehlungen. Und es ist auch kein Thread explizit für Gaming. Wann kapiert auch der letzte mal, dass es hier um Zen geht (gehen soll). Es wurde eine pauschale Aussage gemacht. Und die ist eben falsch gewesen, wie klar belegt wurde. Punkt und aus. Da braucht man jetzt nicht versuchen, irgendwelche Ausreden zu suchen. Selbst wenn man es auf Spiele reduziert, war die Behauptung völlig übertrieben.
Werkeln nicht in beiden aktuellen Konsolen AMD APUs? Kann mir nicht vorstellen, dass die Entwicklung für AMD zum Verlustgeschäft geworden ist.
Ich zähle mal auf.
1. Massiv Geld in die Bulldozer entwicklung stecken, und dann bei der 2ten Gen Fallen lassen zu Optimieren und nur noch Halbherzig weiter entwickelt für Notebooks um sie dann sterben zu lassen.
2. APU,s erforscht haben, wo die bis heute immer noch viel zu wenig einbringen. Die hätten sich den ganzen aufwant sparen können. Es gab die Option für GPU,s auf Mainboards, wozu also Millionen ausgeben um die gpu zu verschieben, wenn man kein Geld hat und sein ganzes geld lieber in die CPU entwicklung stecken sollte ?
3. Das Große Zeitlassen mit Zen. AMD hätte Zen lieber direkt dieses Jahr mit 28nm bringen sollen, selbst wenn das bedeutet das man auf 10% IPC verzichtet.
Einfach weil AMD in der zeit wo sie Zen weiter entwickeln wenigstens mehr verkaufen können als die jetzigen Bulldozer welche seit Vishera (2012) nicht mehr schneller wurden.
Zumal es Absatzmärkte dafür gibt. Siehe Konsolen...
Hätte man auch mit GPU,s Klassich wie in laptops lösen können.
Somit hätte man sich Millionen von Dollars und Jahren an Arbeitszeit gespart, die sie woanders reinstecken hätten können (CPU).
Offenbar ist aus dem Konzept nicht mehr rauszuholen...
Wir werden es wohl nie erfahren...Ist doch Unsinn.
Ist doch Unsinn.
Und die 5% IPC vom Excavator sind wohl nicht das, was Ursprünglich geplant war. Die haben die Arbeit am Excavator klar auf Notebook und Effizienz ausgerichtet, von daher nur 5% mehr IPC.
Hätten die diesen Fokus nicht gehabt, hätten wir wohl wieder mindestens 10% mehr Leistung Pro Takt wie schon bei Vishera und Kaveri erlebt.
Eine hohe IPC und damit eine höhere Effizienz im ~3Ghz Range ist gerade für Notebook und Designs mit vielen Kernen interessant.
Und damit verdienen sie dann wieder kein Geld, wenn die Preise aufgrund mangelnder Leistung / Effizienz entsprechend niedrig gewählt werden müssen um am Markt bestehen zu können. Wer soll auf Dauer für die Verluste auskommen, die AMD dann wohl weiter einfahren wird? Igrendwo muss das Geld herkommen, wenn man mehr ausgibt als einnimmt und ewig gibt es keine Kredite wenn keine Hoffnung auf eine Besserung der Lage besteht.Wenn Zen Schwächer wird als Skylake (was es 100% werden müsste), muss AMD eben wieder über Preise Arbeiten wie schon beim Phenom und Bulldozer.
1. Massiv Geld in die Bulldozer entwicklung stecken, und dann bei der 2ten Gen Fallen lassen zu Optimieren und nur noch Halbherzig weiter entwickelt für Notebooks um sie dann sterben zu lassen.
Die Chips für die Konsolen haben Geld eingefahren, aber auch das geht ja nicht ewig so weiter, die hängen ja auch an der Technologie der CPUs und GPUs bzw. APUs und wenn die nicht mehr wettbewerbsfähig sind, wird es auch schwer bei künftigen Konsolen zum Zug zu kommen.Werkeln nicht in beiden aktuellen Konsolen AMD APUs? Kann mir nicht vorstellen, dass die Entwicklung für AMD zum Verlustgeschäft geworden ist.
Das ist richtig, trotzdem bleibt die Frage ob man diese Entwicklung nicht viel früher hätte absehen können und müssen und lieber eine Verzögerung wegen einer größeren Designänderung hätte in Kauf nehmen sollen, zumal BD ja sowieso schon mit mächtig Verspätung auf den Markt gekommen ist. Da hat also entweder die Simulation bzgl. der Performance mit realen Anwendungen komplett daneben gelegen oder die Chefetage hat "Augen zu und durch" entschieden, statt rechtzeitig eine Kehrtwende einzuleiten.Wenn das Ding einmal Formen angenommen hat, kannst du es nicht einfach fallen lassen, wenn so viel Arbeit und Geld da rein geflossen ist, wenn man nix anderes in der Hinterhand hat... Und das hatte AMD einfach nicht.
Intel hat sowas damals auch erlebt und lässt in der Folge jetzt immer zwei Thema unabhängig an der nächsten Architektur entwickeln, so dass man eben im Zweifel eine Alternative hat, sollte ein Design daneben gehen. Das sich AMD so einen Aufwand nicht leisten konnte bzw. geleistet hat obwohl sie eine zeitlang frührend waren, ist auch eine Fehlentscheidung der Chefetage. Ohne ein Backup ist das Risiko eben ungleich höher.
Das war aber doch wohl abzusehen, weil einmal die SW immer schon Jahre hinter der HW Entwicklung herhängt, die ganze SW kann ja nicht über Nacht neu entwickelt werden (wie lange die Programme teilweise laufen, konnte im Zusammenhang mit den Vorbereitungen auf den y2k Bug ja gut sehen) und dann lassen sich einfach nicht alle Algorithmen parallelisieren. Daran wird man auch nie etwas ändern können, wenn immer zwei es Abhängigkeiten von den vorherigen Ergebnissen gibt, dann der nächste Schritt erst gemacht werden, wenn diese vorliegen.aber die Software ist/war einfach noch nicht so weit.
Kettenrechnungen wie sie bei einem MD5 Hash erfolgen, kann man also niemals parallel ausführen, nicht für einen Hash. Was geht ist viele MD5 Hash für unterschiedliche Codes parallel zu erstellen, was diese MD5 Hashtools für Codeknacker auch machen und teisl auch auf GPUs, aber den MD5 einer großen Datei kann immer nur ein Thread errechnen. Daher wird die Singlethreadperformance niemals egal sein, sondern im Alltag immer eine Rolle spielen, gerade bei einem Einplatzrechner.
Sorry, aber da liegst Du sehr weit daneben. Selbst die Transistoren sind für CPUs und GPUs anders designt um optimal zu sein und es war ein gewaltiger Aufwand die Designanforderungen von CPUs und GPUs zu vereinen. AMD hat dabei sehr viel Rücksicht auf die Belange einer GPU genommen und offenbar die CPU versucht daran anzupassen. Intel hatten keine GPUs und der Versuche mit den Larrabee-Grafikkarten ist ja auch gescheitert, also dürfte Intel immer noch dabei sein eine möglichst optimale GPUs mit CPU Technologie zu entwickeln, ohne die CPU Performance und Effizienz zu opfern.2. -> APUs sind ja nun nicht sooo extrem zu erforschen. Es ist ne Kombi aus CPU und GPU.
Das Ergebnis zeigt sich bis heute, die CPUs von AMD können denen von Intel nicht das Wasser reichen und umgekehrt betreibt Intel bei der GT3e regelrecht eine Materialschlacht um nun endlich mal mit der iGPU an der Grafikleistung der APUs von AMD vorbeizuziehen, nach wie vielen Generationen von iGPUs?!
Der Grundgedanke hinter den APUs ist ja korrekt, der Aufwand beides zu vereinigen ist trotzdem gewaltig und bis heute bleibt es auf der einen oder anderen Seite ein fauler Kompromiss.Wenn man beides baut, liegt die Kombination dieser Dinge durchaus nahe...
Das ist ja nicht einmal das Problem, sondern das Grundproblem ist das Marktsegment in dem man mit einer APU unterwegs sein kann. Da eine APU niemals die Liestung einer High-End CPU mit der einer High-End GPU verbinden kann, alleine die nötugen Resoursen wie Chipfläche und TDP verbieten das einfach, wird man auch immer nur in dem Marktbereich agieren können, der besonders preissensibel und damit margenschwach ist.die potentiellen Kunden stellen sich die Frage, wozu APU, wenn CPU + dGPU schneller und teils gar günstiger kommen.
Das war aber vorher absehbar und damit eine bewusste Entscheidung des Managments, gleichzeitig ein Desgin zu wählen welches den Zugang zum margenstarken High-End CPU (und damit auch Server-)Segment verbaut, eine komplett Fehlentscheidung. Da hat man offenbar irgendwelche Prognosen geglaubt nach denen in Zukunft niemand noch mehr Performance brauchen wird und es schon heute keine Gaming Desktops mehr geben dürfte.
Das ist richtig und das Konzept an sich auch genial, denn bei separaten Grakas lohnt sich die Auslagerung wegen der Ziet für die Kommunikation und Datentransfers braucht, nur wenn die Aufgabe umfassend genug ist, bei einer APU lohnt es auch bei kleineren Dingen. Nur hängt die SW eben auch hinterher, weil auch die Umsetzung und SW-Unterstützung durch AMD hinterher hängt. Eben ein Fall von "zu wenig, zu spät", das gab es ja schon öfter in der Geschichte bei genialen Erfindungen, die eingentlich das Potential hatten um das Blatt wenden können.-> zumal AMD mit den APUs ja auch ein gewisses Ziel verfolgt. Nämlich die GPU als "Partner" neben der CPU für gewisse Aufgaben ranzuziehen, welche der GPU gut liegen und somit den Speed drastisch erhöhen können. Das geht schon auf, wenn man es genau nimmt. Nur ist auch hier die Software nicht so weit, dies flächendeckend zu nutzen...
So ist es, aber es gibt eben wohl zwei Voerwürfe die sich immer halten werden:3. -> großes Zeitlassen würde ich das nicht nennen... Woher soll denn Zen auf einmal kommen?
1.) Die Hersteller haben schon die übernächste Generation fertig entwickelt in der Schublade liegen, woll sie aber nicht rausbringen um uns schrittweise immer noch im Grunde schon alten Mist anzudrehen. Wäre da was dran, wenn nicht wann dann würde AMD wohl Zen bringen? Ob die Firma bis Ende 2016 noch existiert, ist bei den Geschäftszahlen nicht als gesichert anzunehmen.
2.) Die Hersteller bringen immer unausgereifte Technik und machen die Kunden zu Betatestern. Eigentlich das glatte Gegenteil der ersten Behauptung, aber das hält manche nicht davon ab je nach Situation beides zu behaupten. Sicher hat nicht jeder Hersteller eine gleich gut funktionierende QC, aber da jedes kleinere und erst recht größere Problem auch immer Kosten und vor allem einen Imageschaden bedeuten kann, versuchen die Hersteller schon nach Kräften dieses zu vermeiden. Nur ist die Komplexität der System bei den Kunden gerade bei PCs extrem groß, es gibt ja eine fast unendliche Anzahl an Kombinationen auf HW und SW (OS, Treiber, Programme, Einstellungen), dass diese niemals mit vertretbarem Aufwand in einer überschaubaren Zeit auch nur halbwegs getestet werden können. Dies zwangsläufig mangelhafte Testabdeckung muss also dazu führen, dass Fehler niemals ausgeschlossen sein können und in komplexer HW oder SW gibt es immer auch unzählige potentielle Fehlerquellen.
So ist es, zumal es auch unmöglich ist Prototypen zu erstellen, solange der Fertigungsprozess noch nicht so weit ist. Intel hat seine Tick-Tock Strategie ja auch nicht wegen des lustigen Namens eingeführt, sondern weil es viel einfacher ist eine neue Architektur für einen bekannten Fertigungsprozess zu entwickeln als für einen neuen und es ist auch einfach einen neuen Fertigungsprozess mit einer bekannten Architektur zu beginnen. Den Luxus hat AMD auch nicht, womit das Risiko steigt dort nicht das optimale Ergebnis zu bekommen oder Verzögerungen zu erleben.Es ist ja bei weitem nicht so, dass man einfach mal ein Jahr Entwicklung einkürzt und mit etwas weniger IPC leben kann.
Das alles sehr viel Wunschdenken. Gerade AMD mit seinen begrenzten Resourcen wird sich lange überlegt haben, was besser ist: Bulldozer weiter zu entwickeln oder neu zu starten. Die Entscheidung hängt dabei vor allem von dem Potential ab, welches man der jeweiligen Variante zugesteht und dem Aufwand dafür. Da der Aufwand für jede Steiterung bei einer bekannten Architektur auch mit jedem Schritt steigt, ist irgendwann auch ein Neuanfang unumgänglich.Dann hätten wir letztes jahr Bulldozer Mk5 haben können, dieses jahr MK6, und nächstes Jahr Zen.
Da SW nicht beliebig parallelisiert werden kan, wäre die schwache Singlethreadperformance immer ein Hemmschuh geblieben.Bulldozer wäre aus meiner Sicht zum Erfolg geworden, wenn der Mainstream Markt nicht bei vier Cores stehen geblieben wäre, sondern weiter nach oben gestreut hätte.Das hat AMD aber nicht anders gemacht, auch dort ist der AM3+ zum High-End Sockel geworden als man ihm die FM Sockel zur Seite gestellt hat. Der Unterschied ist allerdings, dass man bei Intel die S. 115x eher als Nachfolger des alten Einheitssockels 775 ansehen kann und die Enthusisaten einen neue Sockel bekommen haben, während man bei AMD dem AM3+ die einfacheren CPUs entzogen und die neuen FM schon von Anfang an darunter positioniert hat. Dazu kommt, dass der AM3+ nie wirklich gepflegt wurde und selbst die 900er Chipsätze nur 800er Chips mit neuen Labels sind.Allerdings muss man Intel diesen Schachzug auch klar anrechnen, den Markt in Mainstream und HighEnd zu splitten um so die Preise für Otto Normalo Bürger gering zu halten und oben richtig in die vollen gehen zu können.
Die Chipsätze sind auch noch ein weiteres Problem, denn seid man die Drittanbieter aus dem Markt verdrängt hat, muss man zu jeder neuen CPU entweder neue Chipsätze bauen oder sich den Gegebenheiten der Chipssätze anpassen und damit auch mit deren Limitierungen leben.