AMD,s Gaming Zukunft 2015-2017

Boards die den FX 8350 packen sind aber auch noch etwas teurer, d.h. man muss von Anfang an ein entsprechendes Baord nehmen.
Außerdem ist bei dem Benchmark, mit der alten Ares II das GPU Limit nahe...


Deine Gründe zum Thema ZEN habe ich jedenfalls bisher nicht verstanden. Ich bin der Meinung man kann nicht im Entferntesten abschätzen welche Leistung die bringen wird...
Man weiss doch nicht mal auf welchen Markt ZEN abzielen wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso? Der FX8350 ist doch standard... Du meinst die FX9er CPUs. Die laufen nur bei manchen Boards, die für 220W TDP Modelle freigegeben wurden! Oder gibts auch Boards, die den 8350 nicht stämmen?

Zu Zen/K12, ja da gebe ich dir recht... Realistisch betrachtet kann man aber die Lücke als Basis nutzen. Die Lücke ist da... Und die Lücke wird durch bessere Fertitigung nicht kleiner, wenn die Technik nicht besser wird. Die gut 50% pro Core Performance, die da aktuell als Unterschied zu Haswell stehen, muss AMD erstmal aufholen. Selbst wenn hier einige behaupten, dass die Kerne/Module selbst intern schnell und konkurenzfähig wären. Interessant wird, wie AMD diese Performance an den Endkunden bringt. Lässt man wieder irgendwie massiv Performance liegen durch "Kleinigkeiten" wie irgendwelche nicht sauber funktionierenden Caches oder ähnliches, dann wäre es aus meiner Sicht schon enttäuschend.

Zumindest ich denke, dass eine Firma durchaus in der Lage ist mit der richtigen Idee zum richtigen Zeitpunkte da anständig auf den Markt zu drängen... Mit dem Plan mehr auf MT zu gehen (angefangen mit dem Phenom II X6) und dem Plan auf APUs anstatt "klassischen" CPUs zu setzen, hat AMD den Spielern unter uns aber faktisch keinen Gefallen getan ;) Das neue Konstrukt sollte sich also eher an den "klassischen" Wurzeln orientieren anstatt irgendwelche Nieschen aufzumischen. Die Nieschen kann man nämlich später immernoch bedienen... Erstmal gilt es wohl, den Desktop/Mobilemarkt aufzumischen. Und das klappt nur durch Performance und Effizienz sowie eine dann aktuelle Platform...
 
Zuletzt bearbeitet:
Wieso? Der FX8350 ist doch standard... Du meinst die FX9er CPUs. Die laufen nur bei manchen Boards, die für 220W TDP Modelle freigegeben wurden! Oder gibts auch Boards, die den 8350 nicht stämmen?
Wie ich grad sehe hast du recht.. Dachte das sei immernoch wie zu AM2 und Phenom zeiten wo es Boards mit 95W, 125 oder 140W Klassifizierung gab.

Allerdings gab es hier schon Threads wo rauskam dass die Spannungswandler von den Billigboards <60Eur überhitzten!
 
Außerdem ist bei dem Benchmark, mit der alten Ares II das GPU Limit nahe...

72 min fps eines 4670k vs 90 min fps eines 4 Modulers ist eindeutig und liegt nicht an der Grafikkarte.

Deine Gründe zum Thema ZEN habe ich jedenfalls bisher nicht verstanden.

Hab ich schon erklärt. Zen Quad Core wird nicht auf Haswell Niveau kommen. Das ist total auszuschließen.

Wenn Zen auf die IPC eines Sandy Bridge kommt, wäre das schon Toll, aber wie man am BF4 bench zb sieht, ist ein FX6300 ohne OC und ohne NB OC schon genau so schnell wie ein 2500k Sandy Bridge.

Jetzt suchst du aber genau so Rosinen ;)

Diese Rosinen werden im laufe der Jahre aber immer mehr :)

Mit dem Plan mehr auf MT zu gehen (angefangen mit dem Phenom II X6) und dem Plan auf APUs anstatt "klassischen" CPUs zu setzen, hat AMD den Spielern unter uns aber faktisch keinen Gefallen getan ;) Das neue Konstrukt sollte sich also eher an den "klassischen" Wurzeln orientieren anstatt irgendwelche Nieschen aufzumischen.

Naja 4 Kerner werden immer mehr Notwendig, und immer mehr spiele profitieren von 6 und 8 Kernen.

Klar war Der Bulldozer im Jahre 2011 noch gut 5 Jahre zu Früh mit 8 Kernen dran, aber gerade für 2016 & 2017 sollte man doch wenigstens wieder auf 6 Kerne gehen, gerade weil AMD ja auch nicht auf die IPC von Intel kommen wird.
 
Das hast du bei anderen Boards auch :d
Bspw. bei FM2+... Wollte mir anfang des Jahres mal ein mITX System mit FM2+ bauen. Das ausgesuchte Board hatte Erfahrungen zur Folge Probleme mit den Wandlern, die dann irgendwie in einer zweiten Revision behoben wurden.

Man muss aber auch sagen, das gerade bei den "günstig" Boards oftmals da einige Sachen auch unschön laufen. Aber das ist halt der Preis, wenn es günstig sein soll. Zeigt aber eigentlich, dass der ganze Markt, fast flächendeckend über viele Hersteller hinweg, auch nur alles "Schweine" sind. Solange die Dollars blitzen, tut man nur das absolut notwendigste um ja den höchsten Gewinn am Ende rauszukloppen... Qualität lässt es häufig sogar auf den teuren HighEnd Geschichten missen.

Diese Rosinen werden im laufe der Jahre aber immer mehr :)

Naja 4 Kerner werden immer mehr Notwendig, und immer mehr spiele profitieren von 6 und 8 Kernen.

Diese Aussage lese ich nun schon seit keine Ahnung, fast 10 Jahren in immer wiederkehrerender Ausführung.
Wir hatten hier 2009 glaube ich war das einen Thread, da gings darum, wann Quadcores zu spielen notwendig werden. Jetzt haben wir fast 2015 und es ist immernoch nicht der Fall. Ja es gibt einige Titel die es erfordern und ja es gibt einige Titel, die auch nur mit vier Threads zu laufen scheinen. Die Masse allerdings nutzt das immernoch nicht.
Dazu kommt, das ist idR auch nur Beiwerk... Nicht das Spiel als Unterbau erfordert es häufig. Sondern das Beiwerk wie KI Berechnung, Physikberechnung usw.
Sprich verzichte auf dieses Beiwerk und die Anforderungen gehen in den Keller. Oder andersrum gedreht, erhöhe diese Beiwerkanforderungen und du bringst auch deutlich breitere CPUs als heute in die Knie. -> nur das braucht halt keiner und kann auch keiner nutzen. Die Software richtet sich wohl in erster Linie nach dem, was am Markt an Technik vorhanden ist. Vor 2-4 Jahren Spiele zu releasen, die gar nicht mit nem Dualcore laufen hätte zur Folge gehabt, das die Spiele sich nicht verkaufen, wenn die Leute noch eben mit jenen Dualcores unterwegs sind/waren.

Klar war Der Bulldozer im Jahre 2011 noch gut 5 Jahre zu Früh mit 8 Kernen dran, aber gerade für 2016 & 2017 sollte man doch wenigstens wieder auf 6 Kerne gehen, gerade weil AMD ja auch nicht auf die IPC von Intel kommen wird.

Man geht immernoch auf Threads... Wo die Threads herkommen, ist völlig hupe. Entscheidend ist, was die Technik aus den Threads am Ende für Leistung rausholt... Kann die Software die Threads anständig befeuern, dann wird am Ende immer mehr Performance raus kommen. Oder besser, es wird mehr zur gleichen Zeit berechnet werden können. Ob das dann schneller bedeutet oder mehr "Details/BQ/Intelligenz" oder ähnliches, spielt wohl keine Rolle.

Die Frage ist eher, wo ist schluss?
Nimm dir Intel als Hersteller von CPUs und schau auf den Markt. Da kannst du heute 18 Core/36 Thread CPUs kaufen. Die takten zwar "nur" mit um die 2,5GHz + Turbo, aber immerhin...
Es ist also nicht so, dass der Markt da nix im Angebot hätte.
Wenn der Markt es erfordert, werden auch die Hersteller nachlegen (müssen und können). Das Problem entsteht viel eher dann, wenn sich Hersteller auf Nieschen konzentrieren oder mit Produkten vorbei am Markt hantieren... Dann geht die Nachfrage in den Keller, der Absatz stagniert und es ist niemanden geholfen.
 
Zuletzt bearbeitet:
Naja es gibt schon nicht wenig nachfrage nach 6 kernern von Intel im Desktop segment.

Klar kann man sich auch einen Xeon kaufen, aber Intel verlangt dafür auch viel Asche.

Das rentiert sich von daher für die meisten noch nicht.

Würde Intel einen 6 Kerner für 90 Euro anbieten so wie AMD, wären Garantiert viele davon im Umlauf, vorallem wenn dieser dann auch noch Freien Multi hätte :drool:
 
Du bekommst heute den kleinen Hexacore für S2011-3 für ~350€, wenn ich das richtig sehe. Es läuft sogar aktuell eine Cashback Aktion, wo du 80€ für den Kleinen wieder bekommst. Oder damit dem Boardmehrpreis umrechnen kannst...

Das Problem an so einer Denkweise ist schlicht und ergreifend, dass das wirtschaftlich nicht funktionieren kann. 90€ für nen Hexacore, der gute 50% schneller als die AMD Lösung ist. Wie soll das preislich gehen? Da müssten die AMD Modelle sich dann im Bereich 10-60€ irgendwo einfinden... Manchmal hab ich so bisschen das Gefühl, ich wollt immer das Beste vom Besten, dafür aber absolut gar nix ausgeben ;) Nimms mir nicht übel. Aber auch die Unternehmen müssen "leben". Ich meine damit freilich keine überzogenen Margen oder ähnliches... Aber für gewisse Sachen gehört das einfach dazu.

Nimmt man es genau, ist das doch alles nur ein Luxusgut. Die Basisanforderungen für bisschen INet und bisschen Officearbeiten packt auch ne 50€ CPU. Alles obendrüber ist quasi Luxus. Und Luxusgüter kosten Geld... Das schnellste und neueste für quasi Lau gibts da nicht...

Aber ja, garantiert wären viele 90€ Hexacores im Umlauf, wenn es das geben würde. Entscheidender dürfte aber wohl eher sein, wer kann die Mehrleistung am Ende ausfahren? Die Masse der Endkunden wohl eher nicht... Selbst wenn du Spiele mit einrechnest. Für normalen Workload scheint alles ab vier Threads heute deutlich über dem Bedarf zu liegen.
Wenn ich mir mein Surface 2 Pro ansehe, das hat nen läppischen Dualcore mit SMT und unter 2GHz Takt. Damit läuft die Masse der getätigten Arbeiten für so ein Gerät absolut ohne Schmerzen... Für was hätte ich da einen Hexacore gebraucht? Der Bedarf scheint mir da absolut nicht bei der Realität.
 
fdsonne da stellt sich die frage wo Luxus anfängt? Das ziemlich subjektiv.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Mir nicht unbedingt... Denn es ist doch für die Argumentation egal. Mir gings eher darum, das es eben diesen "Luxus" nicht für lau gibt... Ne 90€ Hexacore CPU ala i7-5930K wäre Luxus für lau aus meiner Sicht. Denn das Teil lasten 95% der Privatkunden wohl gar nicht aus. Nichtmal ansatzweise. Es wäre mehr oder weniger spezielle Software notwendig, die allgemein gut über die CPU Breite skaliert. Und dabei meine ich nicht primär irgendwelche Benchmarks von x264 Encodern oder irgendwelche Photoshop Filter. -> das macht doch die Masse idR gar nicht.

Wenn ich mal ganz nüchtern mein Arbeitsverhalten tag täglich auf dem Arbeitsnotebook bewerten soll, dann stehen da im Mittel keine 10-15% CPU Load ;) (Mobile Intel Quad auf Ivy Basis)
Da gibts ein paar Tools die brauchen mal was mehr Power, andere dafür weniger... Aber Volllast hat das Teil wohl bis jetzt nie gesehen. Ich wäre auch voll und ganz mit dem i5 Dualcore + SMT zufrieden, wenn nicht hätte damals eben jene Premium Version für vergleichsweise günstig die SSD + 8GB RAM gehabt im Vergleich zur HDD + 4GB RAM bei der "normalen" Version mit dem i5 DC.

Und die Marktausrichtung der Unternehmen scheint mir zumindest dahingehend klar zu sein -> das was die Basis abdeckt (und ein bisschen mehr) verkauft man "relativ" günstig mit wenig Marge dafür auf Absatzmenge getrimmt. Und das was die speziellen Fälle abdeckt (MT Software) verkauft man teuer mit viel Marge, dafür wenig absoluter Absatzmenge.
Und wer MT heute will, der kauft auch für 500€ ne CPU ;) Oder sogar noch mehr, wenn wir in den OEM Bereich gehen... Oftmals ist da die Hardware als solches gar nichtmal das Hauptproblem in den Kosten.
Wenn ich sehe, das bei uns auf der Arbeit letztes Jahr gute 170.000€ an einen Dienstleister gezahlt wurden, damit die eine Softwarelösung für uns in Betrieb nehmen. -> da wirken die gut 100.000€ für die Hardware unten drunter doch schon fast lächerlich. Und ja, da sind Lizenzen und Co. sogar inkludiert :fresse:
 
Zuletzt bearbeitet:
Diese Aussage lese ich nun schon seit keine Ahnung, fast 10 Jahren in immer wiederkehrerender Ausführung.
Wir hatten hier 2009 glaube ich war das einen Thread, da gings darum, wann Quadcores zu spielen notwendig werden. Jetzt haben wir fast 2015 und es ist immernoch nicht der Fall. Ja es gibt einige Titel die es erfordern und ja es gibt einige Titel, die auch nur mit vier Threads zu laufen scheinen. Die Masse allerdings nutzt das immernoch nicht.

Die Next-Gen Konsolen sind erst 1 Jahr raus und wir werkeln am PC immer noch mit DirectX 9 und 11.

Klar war Der Bulldozer im Jahre 2011 noch gut 5 Jahre zu Früh mit 8 Kernen dran, aber gerade für 2016 & 2017 sollte man doch wenigstens wieder auf 6 Kerne gehen, gerade weil AMD ja auch nicht auf die IPC von Intel kommen wird.

Genauso wie Sandy-Bridge E zu früh war :wall:
 
Die Next-Gen Konsolen sind erst 1 Jahr raus und wir werkeln am PC immer noch mit DirectX 9 und 11.

Mit was sollen wir sonst werkeln? DX12 gibts nicht stand heute.
Und mit den Konsolen selbst hat das wohl eher weniger zu tun... Auch ne XBox360 oder PS3 war in Sachen Threadanzahl schon weit vor dem, was wir bis vor wenigen Wochen noch als "Standard" im PC Bereich hatten...
Viel eher sehe ich nach wie vor das Problem des notwendigen Aufwands. Wie schon mehrfach angesprochen, mehr Threads eins Prozessors durch mehr Arbeit zu füllen ist vergleichsweise einfach. Das was die Masse hier aber scheinbar will ist doch das dieser mehr Threads für mehr Speed sorgen. -> das sind aber zwei grundverschiedene Schuhe.
Heute geht der Trend eher darin, diese mehr Threads durch mehr Arbeit zu belegen und daraus mehr greifbares/sichtbares für das Spiel zu generieren. Wie bspw. Physikberechnungen oder KI Berechnungen... Und das ist dann auch maßgeblich dafür verantwortlich, das zu schmale CPUs nicht mehr funktionieren. Aber der Markt muss halt auch diese Basis abdecken. Vor 5 Jahren noch waren Quadcores wohl eher "Randerscheinungen" würde ich meinen.
 
Jetzt mal langsam

Die alten Konsolen hatten kein x86 und mussten komplett anders Programmiert werden um diese Effizient ausnutzen zu können. Desweiteren hatte die Xbox360 "nur" 3 Kerne mit SMT, von denen wohl einer für das OS + Kinect zuständig ist. Also im Übertragenen Sinne ein i3.
Die PS3 ist nochmal was ganz anderes und mit nem PC mMn. nicht zu vergleichen.

Bei den Aktuellen Konsolen haben wir aber 8 x86 Kerne, von denen menes Wissens 6 frei genutzt werden können. Dass sind komplett andere Vorraussetzungen als bei der Alten Generation.

Den Speedvorteil durch Multithreading, den du ansprichst, der ist aktuell auf dem PC durch DX11 limitiert (Masterthread mit DX overhead) durch Mantle und später DX12 wird dieser Flaschenhals beseitigt [siehe diverse Mantle news].

Mit was willst du die Threads eigentlich sonst noch füllen? Physik, KI, Pathfinding sind alles dinge, die sich gut Parallelisieren lassen und evtl jetzt etwas übertrieben gesagt der Großteil eines Spiels.
Ansonsten gibts im Hintergrund je nach spiel noch Netzwerk, Wirtschaft und geskriptete Aktionen. Was sich auch alles auf einzelne Threads verteilen lässt.

Aber wirklich interessant wird das ganze erst, wenn die GPU für einen Teil dieser Berechnungen verwendet wird, deswegen kann ich nicht ganz verstehen, warum hier alle eine APU nicht toll finden, die iGPU der APU als Physik Co-Prozessor oder für das Pathfinding verwenden, oder die KI mittles OpenCL.

Ich denke wir werden da in der Zukunft noch einige Dinge sehen, die heute aufgrund von Limitierungen noch nicht möglich sind. Durch Mantle/DX12 wird jetzt erst einmal das Drawcall Limit aufgehoben, dadurch sind mehr Details in den Spielen möglich... die müssen aber auch berechnet werden und gerade da werden die CPUs dann früher oder später an Grenzen stoßen, denn endlos in die Breite bauen kann man bei CPUs nicht und dann kommen die GPUs ins spiel.
 
deswegen kann ich nicht ganz verstehen, warum hier alle eine APU nicht toll finden, die iGPU der APU als Physik Co-Prozessor oder für das Pathfinding verwenden, oder die KI mittles OpenCL.

Zur Zeit ist es aber (noch?) leider so dass es schlichtweg umständlicher ist, für eine GPU zu programmieren als für eine CPU.
Ist ja auch logisch. Du hast das ja auch angedeutet dass GPUs viel mehr in die Breite gehen. Dafür sind die einzelnen Recheneinheiten auch viel, viel einfacher als der Kern einer CPU.

Solange sich dieser Sachverhalt nicht ändert, werden die Programmierer in aller Regel bei der CPU bleiben.
 
Jetzt mal langsam

Die alten Konsolen hatten kein x86 und mussten komplett anders Programmiert werden um diese Effizient ausnutzen zu können. Desweiteren hatte die Xbox360 "nur" 3 Kerne mit SMT, von denen wohl einer für das OS + Kinect zuständig ist. Also im Übertragenen Sinne ein i3.
Die PS3 ist nochmal was ganz anderes und mit nem PC mMn. nicht zu vergleichen.

Jep die PS3 hat einen echten Kern und 7 Co-Prozessoren.

Bei den Aktuellen Konsolen haben wir aber 8 x86 Kerne, von denen menes Wissens 6 frei genutzt werden können. Dass sind komplett andere Vorraussetzungen als bei der Alten Generation.

Zumal diese schön Langsam sind was zur Multithreadoptimierung zwingt. Die PS4 ist ja ne HSA Konsole mit gemeinsamen Speicher.
 
Zuletzt bearbeitet von einem Moderator:
Das find ich so klasse, schau mal hier ins Zusammenstellungsforum, da empfehlen sie bei begrenztem budget <500€ immer einen Pentium, weil der is ja eine so tolle spiele CPU und wenn man mim Athlon oder FX6 kommt wird man blöd angemacht... :fresse:

Also ich empfehle bei begrenztem Budget eher den i3 für einen Gamer PC - eine AMD CPU würde ich höchstens meinen Feinden empfehlen. Der Grund ist recht einfach:


Quelle

Klar, wenn man auf HD spielt, limitert am Ende eh die Grafikkarte - aber das wäre für mich kein Grund zur schlechteren CPU zu greifen. Denn eine schnellere Graka kauft man sich ja eher als eine neue CPU.
 
Zuletzt bearbeitet:
Hab mich verkuckt :)

Aber mich würde einfach mal interessieren wie der i3 z.B. im Vergleich mit nem FX6 oder 8 aufm 64er BF3 oder BF4 Server performt.
 
Zuletzt bearbeitet:
Jetzt mal langsam

Die alten Konsolen hatten kein x86 und mussten komplett anders Programmiert werden um diese Effizient ausnutzen zu können. Desweiteren hatte die Xbox360 "nur" 3 Kerne mit SMT, von denen wohl einer für das OS + Kinect zuständig ist. Also im Übertragenen Sinne ein i3.
Die PS3 ist nochmal was ganz anderes und mit nem PC mMn. nicht zu vergleichen.

Wieso mussten die Konsolen anders programmiert werden? Ich seh das klar nicht so...
Falls du damit dran anspielen willst, dass ggf. eine andere Programmiersprache zum einsatz kam/kommt, mag sein. Wobei auch das nicht sicher ist... Oder darauf, das womöglich Optimierungen speziell auf die Hardware anders von statten gehen, ja auch das mag sein. Deswegen wird aber nicht anders programmiert...
Was ich dir aber definitiv sagen kann, das sich das Programmieren selbst (in der jeweiligen Programmiersprache) nicht sonderlich voneinander unterscheidet.
Der Programmcode bleibt der Programmcode, und das was irgendwelche Compiler usw. draus machen ist dann auf die jeweilige Hardware zugeschnitten.

Aus "(A + B) / C" wird mit anderer Hardware auch nix Anderes. Und im Endeffekt ist das alles nur Zahlenschubserei, nicht mehr und nicht weniger...
Du kannst also den Code via x86 Hardware abfackeln, genau so wie es potentiell möglich ist, diesen auf anderer Hardware (ARM, PowerPC, whatever) abzufackeln. Was potentiell problematisch ist, sind Librarys, die ggf. nicht verfügbar sind, aber Anwendung finden oder spezielle Befehlserweiterungen, die nicht verfügbar sind. Selbst ne GPU würde das können, wenn man sie anspricht.

Worauf willst du also hinaus?
Aber ja, 3 Kerne + SMT sind bei mir immernoch min. 6 Threads.
Und die PS3 hat 7 SPEs, was wohl durchaus als "Cores" bezeichnet werden kann.

Den Speedvorteil durch Multithreading, den du ansprichst, der ist aktuell auf dem PC durch DX11 limitiert (Masterthread mit DX overhead) durch Mantle und später DX12 wird dieser Flaschenhals beseitigt [siehe diverse Mantle news].

Das ist aber der Marketingquatsch, den die Kunden glauben, der aber eben auch nur die halbe Wahrheit erzählt.
Siehe obiges Beispiel. Aus "(A + B) / C" wird auch mit Mantle oder DX12 keine "Arbeit" die du auf zwei (oder mehr) Threads verteilen kannst.
Was aber heute völlig ohne jegliche DX Geschichten funktioniert ist einfach mehrfach Berechnungen ausführen oder eben Komplexere davon zu nutzen. "(A + B) / C" sowie "(D + E) / F" kannst du wunderschön gleichzeitig abfackeln. Es wird aber nicht schneller! Das ist der Unterschied, den ich oben ansprach. Du bekommst mehr Berechnungen zur gleichen Zeit getätigt. Aber diese werden nicht schneller berechnet.

Was ihr (oder besser, die Leute hier) aber wollen ist nicht nur mehr zur gleichen Zeit, sondern das was berechnet wird, eben schneller. Zwei völlig grundverschiedene paar Schuhe...

Mit was willst du die Threads eigentlich sonst noch füllen? Physik, KI, Pathfinding sind alles dinge, die sich gut Parallelisieren lassen und evtl jetzt etwas übertrieben gesagt der Großteil eines Spiels.
Ansonsten gibts im Hintergrund je nach spiel noch Netzwerk, Wirtschaft und geskriptete Aktionen. Was sich auch alles auf einzelne Threads verteilen lässt.

Aber wirklich interessant wird das ganze erst, wenn die GPU für einen Teil dieser Berechnungen verwendet wird, deswegen kann ich nicht ganz verstehen, warum hier alle eine APU nicht toll finden, die iGPU der APU als Physik Co-Prozessor oder für das Pathfinding verwenden, oder die KI mittles OpenCL.

Deswegen sagte ich ja, die Sachen, die heute primär breite CPUs vorraussetzen bedienen sich eben dem Konstrukt, dass man einfach "mehr" komplexere Berechnungen einbaut.

Und ja, die APU wäre dafür durchaus in der Lage. Für mich bleibt am Ende dabei nur das Problem, dass es auch funktionieren muss. Und vor allem, was ist mit der Leistung? Ne APU ohne dGPU dazu hat sich doch heute schon "schwer" das Spiel als solchen zu stämmen. Noch mehr drauf abladen? Ne... Das kann nicht zielführend sein.
Was ich dabei auch noch äußerst wichtig finde, der Nutzer sollte die Wahl haben ;) Gutes Beispiel ist TressFX vs. PhysX (auch wenn es nicht ganz vergleichbar ist). Bei PhysX per GPU kannst du die GPU wählen, die die Berechnungen tätigt. Bei TressFX funkt das nicht. Heist, TR läuft halt wie es läuft. Mit ner zweiten GPU aber hätte man die Berechnungen auslagern können um mehr Luft für das eigentliche Spiel zu haben. Geht aber nicht. PhysX kann das als Beispiel...

Zumal diese schön Langsam sind was zur Multithreadoptimierung zwingt. Die PS4 ist ja ne HSA Konsole mit gemeinsamen Speicher.
Was hat das eine mit dem anderen zu tun??
 
Zuletzt bearbeitet:
deswegen kann ich nicht ganz verstehen, warum hier alle eine APU nicht toll finden

Weil es eben noch Jahre dauert bis genug title von Mantle/Direct X 12 Profitieren.

Allein die tatsache das die meisten noch Windows 7 nutzen, wird Direct X 12 noch länger hinauszögern.

Welche Spieleschmiede Programmiert schon ein Spiel in Direct X 12, wenn es 50% mehr Kunden erreichen kann wenn es Direxct X 11 nutzt ?

Aber mich würde einfach mal interessieren wie der i3 z.B. im Vergleich mit nem FX6 oder 8 aufm 64er BF3 oder BF4 Server performt.

Auf nem 64er Online Server werden die CPU,s alle einfach noch krasser belastet. Ein i3 bricht da Total weg.

Aber wie man hier sieht, ist ein i3 auch im Singleplayer schon deutlich schwächer als ein Phenom II X4 und gerademal so gut wie ein Alpha Bulldozer FX4100 von 2011.

http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_4-test-bf4_proz_2.jpg

Daher verstehe ich leute wie den TARDIS nicht welche so schlechte CPU,s empfehlen.

Ein 100 Euro i3 ist in Battlefield 4 deutlich schwächer als der 56 euro FX4 Vishera.

Hinzukommt das man aus dem Vishera dann noch 30% mehr Leistung mit NB OC & OC erreichen kann (Mit Luftkühlung).
 
Zuletzt bearbeitet:
Also ich empfehle bei begrenztem Budget eher den i3 für einen Gamer PC - eine AMD CPU würde ich höchstens meinen Feinden empfehlen. Der Grund ist recht einfach:

Wundert mich bei dir aber auch nicht, du schaffst es ja kaum, AMD ohne mindestens 3 abwertende Adjektive in einem Satz zu nennen :fresse:

Das Rating wundert mich bei den Spielen aber auch garnicht. Bis auf BF4 und Crysis profitiert keins der anderen Spiele stark von mehr als 2 Kernen.

Ob das Angesichts von AC Unity, Dragon Age und Far Cry 4 Zeitgemäß ist? Immerhin geht es hier ja auch um die Spiele von 2015-2017 ;)
 
Richtig, Tardis ist einfach nur n Intel Fanboy der leuten lieber für fast 100% Aufpreis CPU,s andreht die in Modernen Spielen unterlegen sind.

Das Extra Geld könnte man lieber in ne Fettere Grafik Karte stecken.
 
Aber wie man hier sieht, ist ein i3 auch im Singleplayer schon deutlich schwächer als ein Phenom II X4 und gerademal so gut wie ein Alpha Bulldozer FX4100 von 2011.

Bedenke das die beiden aufgeführten i3 CPUs "nur" der ersten und zweiten Core i Generation entsprechend ;)
Ich seh keinen i3 Haswell bspw. Wohl aber einen den Unterschied zwischen einem 2500K und einem 4670K.
Der Sandy i3 hat 3,1GHz und keinen Turbo... Ein aktueller Haswell i3 hätte aber mehr Takt + Turbo. Da sind durchaus 15% drin. Eher mehr (~20% mehr Takt inkl. Turbo + besagte pro Takt Leistung), wenn der Quadcore schon bei fast gleichem Takt schon gute 10% skaliert. Damit erreichst du das Leistungslevel des i5-760K/FX6100 als drei Moduler... Für nen i3 durchaus OK würde ich sagen ;)
 
Bedenke das die beiden aufgeführten i3 CPUs "nur" der ersten und zweiten Core i Generation entsprechend ;)

Schon Klar, der Sandy hat aber auch 20% weniger FPS als der Kleinste Vishera. Ein Haswell also ca genau so gut.
Nur dann hätte man beim FX4 noch fast 50€ gespaart und kann mal eben 30% Leistung durch OC rausholen. Dafür benötigt man nichtmal einen guten Kühler.
Mein FX4 läuft mit Undervolting @4,6 ghz und würde nichtmal nen Boxed Kühler von 2011 ins schwitzen bringen.

Der Sandy i3 hat 3,1GHz und keinen Turbo... Ein aktueller Haswell i3 hätte aber mehr Takt + Turbo. Da sind durchaus 15% drin. Eher mehr (~20% mehr Takt inkl. Turbo + besagte pro Takt Leistung), wenn der Quadcore schon bei fast gleichem Takt schon gute 10% skaliert. Damit erreichst du das Leistungslevel des i5-760K/FX6100 als drei Moduler... Für nen i3 durchaus OK würde ich sagen ;)

Nur das man für das Geld von einem Haswell i3 schon einen FX6300 + OC Kühler bekommt und den i3 dann wieder um Welten hinter sich lässt, selbst ohne OC schon.
Mit NB OC & bischen CPU Takt OC würde man dann schon Haswell Quad Core Niveau erreichen, und das alles bei ner 86€ cpu.
 
Zuletzt bearbeitet:
Nighteye, das sind Rosinen ;)

Es gibt nicht nur ne Hand voll Titel... Du weist doch selbst wie es bei SC2 und WoT ausschaut... Was in einem Game gut geht, muss in dem anderen Game nicht genau so gut funktionieren.

Und selbst die hier genannten Titel wie FC4 und AC:Unity scheinen nicht sonderlich brachial über die Breite zu skalieren. PCGH misst für FC4 ne Skalierung von 2 auf 4 Module im Promillebereich. AC:Unity scheint etwas besser zu gehen, aber, wenn die Werte stimmen, allgemein arsch lahm auf AMD CPUs zu laufen. (keine Ahnung ob das so ist)
Assassin
 
Nighteye, das sind Rosinen ;)

Es gibt nicht nur ne Hand voll Titel... Du weist doch selbst wie es bei SC2 und WoT ausschaut... Was in einem Game gut geht, muss in dem anderen Game nicht genau so gut funktionieren.

Du hast natürlich recht.

Aber wenn man ein Laie ist, wird man auch mit nem FX6300 bei Wot glücklich.

Und wenn man das Spiel Professionell spielen will, und bereit ist, zeit in OC Know How zu stecken, wird er auch mit nem FX6300 genug Power herausholen können, um 1080p High Details immer Flüssig Spielen zu können.

Das Erfordert einfach ein bischen HT Link OC, NB Takt Erhöhung, den Ram an sein Limmit Ocen, und die CPU auf ca 4,3-4,5 ghz Ocen jeh nach Kühler.

Damit läuft jedes Aktuelle Game flüssig genug um es genießbar zu machen (in 1080p).
 
Damit läuft jedes Aktuelle Game flüssig genug um es genießbar zu machen (in 1080p).

Jupp, nur genau an diesem Punkt unterscheidet sich dann halt auch Intel von AMD. Wo es bei Blau noch weiter nach oben skalieren kann (je nach Spiel, Szene, Anforderungen usw.) ist dann bei Grün irgendwo schluss...
Willst du mehr, musst du entsprechend auch mehr zahlen. Reicht es dir aber, dann spricht auch nix gegen Grün... Außer vielleicht das Alter des Sockels.
Das System muss halt zu den Anforderungen passen...
 
Das Rating wundert mich bei den Spielen aber auch garnicht. Bis auf BF4 und Crysis profitiert keins der anderen Spiele stark von mehr als 2 Kernen.

Bei dem Spiel F1 steigt die FPS Leistung durch das Anschalten von SMT bei einem i3 um über 40%, wenn ich mich recht entsinne. Steht auch irgendwo auf PCGH.

Es ist also nicht so, wie die AMD Drohnen hier immer wieder gerne kolportieren, dass der Benchmark nur auf Single Thread Spiele ausgerichtet ist. Aber was kann man von euch Fanboys auch schon an sachlichen Argumenten erwarten...

- - - Updated - - -

Richtig, Tardis ist einfach nur n Intel Fanboy der leuten lieber für fast 100% Aufpreis CPU,s andreht die in Modernen Spielen unterlegen sind.

Und wovon träumst du nachts?

- - - Updated - - -

Bedenke das die beiden aufgeführten i3 CPUs "nur" der ersten und zweiten Core i Generation entsprechend ;)

Es ist sinnlos mit AMD Drohnen zu diskutieren. Die drehen sich die Realität so zurecht, wie es ihnen gefällt. Alle Leser mit Sachverstand werden eh nur den Kopf über das schütteln, was die AMD Fanboys hier versuchen.

Leid tun mir nur die, die sich dann wirklich eine AMD CPU kaufen, denn meist tauchen die dann nach 1-2 Jahren wieder im Forum auf, um die CPU aufzurüsten.

- - - Updated - - -

Nur das man für das Geld von einem Haswell i3 schon einen FX6300 + OC Kühler bekommt und den i3 dann wieder um Welten hinter sich lässt, selbst ohne OC schon.

Für diese Welten muss man schon eine ganz spezielle Brille aufhaben:



Ach, ich vergas, du vergleichst die CPU Leistung ja gerne im Grafikkarten Limit; warte, ich passe den Benchmark für dich an:



Nun sind alle Balken gleich lang. Glücklich? Die Höchstgeschwindigkeit eines Autos würdest du vermutlich auch in einer Tempo 30 Zone messen. Dann sind die (AMD) Trabbis auch genauso schnelle "Sportwagen" wie die (Intel) Porsche. Lol.

Ich würde trotzdem den i3 jederzeit einem FX6 vorziehen - ja sogar einem FX8, denn Single Thread Leistung ist beim Gaming und CPUs mit 4 oder mehr Threads nun mal nur durch noch mehr Single Thread Leistung zu ersetzen, aber nicht durch mehr Threads.

- - - Updated - - -

Jupp, nur genau an diesem Punkt unterscheidet sich dann halt auch Intel von AMD. Wo es bei Blau noch weiter nach oben skalieren kann (je nach Spiel, Szene, Anforderungen usw.) ist dann bei Grün irgendwo schluss...

Genau so ist es.
 
Zuletzt bearbeitet:
Nighteye, das sind Rosinen ;)

Es gibt nicht nur ne Hand voll Titel... Du weist doch selbst wie es bei SC2 und WoT ausschaut... Was in einem Game gut geht, muss in dem anderen Game nicht genau so gut funktionieren.

Und selbst die hier genannten Titel wie FC4 und AC:Unity scheinen nicht sonderlich brachial über die Breite zu skalieren. PCGH misst für FC4 ne Skalierung von 2 auf 4 Module im Promillebereich. AC:Unity scheint etwas besser zu gehen, aber, wenn die Werte stimmen, allgemein arsch lahm auf AMD CPUs zu laufen. (keine Ahnung ob das so ist)
Assassin
WoT und SC2 sind Rosinen. Alle anderen Spiele sind zwar auf dem i3 evtl. schneller, aber es ist nicht relevant, weil die sowieso schnell genug laufen. Relevant wird es eben bei modernen Spielen, weil da der i3 regelmäßig viel zu langsam wird und in kaum noch spielbare Bereiche abfällt (egal ob Haswell oder nicht). SMT kann eben zwei echte Kerne einfach nicht mal ansatzweise ersetzen, da funktionieren AMDs Cluster tatsächlich erheblich besser. Zudem sind ACU, DAI, Crysis3, Ryse und wie sie alle heißen ja erst der Anfang, aber sie zeigen doch sehr eindeutig, was man in Zukunft zu erwarten hat. Einige der Titel nehmen ja immernoch Rücksicht auf die alten Konsolen, bei den neuen fällt diese Unterstützung raus - damit steigen die Anforderungen noch mal deutlich.

Nur um auch mal die Preissituation etwas auseinanderzuziehen (alles über 4 Threads, 2 sind unbrauchbar heute mMn):
2 Module-Vishi: 67€ http://www.mix-computer.de/html/product/detail.html?articleId=705525
3 Module-Vishi: 88€ http://www.mix-computer.de/html/product/detail.html?articleId=705535
4 Module-Vishi: 122€ http://www.mix-computer.de/html/product/detail.html?articleId=705587

passendes sinnvolles 970-Board: 76€ http://www.mix-computer.de/html/product/detail.html?articleId=687175
(Die Finger von billigen Asrocks lassen! Die Dinger haben durch die Bank eine viel zu schwache Stromversorgung!)

i3 4130: 101 € (!) http://www.mix-computer.de/html/product/detail.html?articleId=774227
i5 4440: 155 € http://www.mix-computer.de/html/product/detail.html?articleId=774259

passendes sinnvolles Brett: 76€ http://www.mix-computer.de/html/product/detail.html?articleId=878538

Weil ja Alternate zu teuer war nehm ich den kleinen Bruder MIX :d
Wer bei den Preislagen einen i3 zum Spielen empfiehlt hat mMn einfach überhaupt keinen Überblick über die Situation.
 
Zuletzt bearbeitet:
Mir ist das durchaus bewusst... Die Rosinen deswegen um Nighteye zu signalisieren, dass er mit seinen Rosinen eben auch nur bedingt weiter kommt.

Ansonsten was auch nicht zu vernachlässigen ist, ist die Tatsache der GPU Treiber und dessen Skalierung auf die CPU Breite bzw. CPU Performance allgemein.
PCGH hat bspw. in Watchdogs ermittelt, das SMT bei nem i7 mal gute 20% skaliert, wenn man ne große NV GPU nutzt. Wärend die 290(X) bei AMD mit läppischen ~1FPS mal gar nicht von SMT profitiert.
Was will ich damit sagen, man sollte klar auch auf die verwendete GPU schauen. Leider testen nur die aller wenigsten Seite beide GPU Hersteller in ihren CPU-Spieletests. :( Häufig wird das genommen, was gerade da ist... Und wenn das dann NV ist, schneiden oft die breiteren CPUs besser ab als unter einer AMD GPU :wink:

PS: ich finde aber genau so, dass du mit der "i3 ist regelmäßig viel zu langsam" Aussage doch schon etwas übertreibst... SMT kann klar zwei echte Kerne nicht ersetzen, soll es aber auch gar nicht, dafür gibts den i5 oder i7. Auch funktionieren AMDs "Cluster" da nicht unbedingt besser... Sondern es ist nun einfach mal so, dass CMT deutlich stärker auf die Breite skaliert und vor allem auch, das es (zum Teil) dedizierte Einheiten in den Modulen pro Thread gibt. Belegt man also den SMT Thread eines Intel Cores gewinnt man im höchstfall um die 25% im Schnitt an Gesamtperformance. Dafür sinkt aber die pro Thread Performance ab. Wärend du bei AMD eben mit CMT deine Skalierung von 60+% hast ohne dass der andere Thread davon irgendwie arg in Mitleidenschaft gezogen ist. Mit besser oder schlechter funktionieren hat das nix zu tun, sondern das ist einfach technisch bedingt und vor allem auch einfach mal so "gewollt", wer Ressourcensharing betreibt, der geht genau diesen Umstand ein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh