AMD,s Gaming Zukunft 2015-2017

Allerdings sieht man in Benchmarks dass der Unterschied zwischen einem Pentium und einem i3s, in Games oft deutlich größer ist (die 40% sind da nicht unrealistisch)!
Woran liegt das, wenn nicht an HT?
Ein Pentium ist nicht besonders geeignet für einen Vergleich mit einem i3. Bei Pentiums wurde nicht nur HTT gestrichen. Dem fehlen auch Cache, ISA Erweiterungen, Turbo und wer weiss was sonst noch. Der einzig sinnvolle Vergleich ist das selbe i3/i7 Modell zu nehmen und HTT zu deaktivieren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, aber mit einem bis dato unerprobten Clusterdesign, entwickelt in Zeiten wo verschiedene Fahrpläne über den Haufen geworfen werden mussten.
Inzwsichen weiß jeder das die Cluster nichts taugen, sogar ein AMDler hat das bestätitgt.

Feldman candidly acknowledged that the Bulldozer failure cost AMD some credibility in servers. But the company is looking to rebound with a revamped management team led by CEO Rory Read and a new server roadmap comprising x86 and ARM chips for multiple server categories.

“Bulldozer was without doubt an unmitigated failure. We know it,” Feldman said.

“It cost the CEO his job, it cost most of the management team its job, it cost the vice president of engineering his job. You have a new team. We are crystal clear that that sort of failure is unacceptable,” Feldman said.

Der ursprüngliche Bulldozer sah ganz anders aus.
Bei 3DCenter hat mal jemand eine AMD Folie von 2001 gepostet, darauf war ein Modul abgebildet, das Konzept war fast genau wie heute, kann leider die Folie nicht mehr finden, schon damals zu K7 Zeiten hat man solche Pläne gehabt, AMD hat die falsche Strategie verfolgt, inzwischen ist der Server Markt gegen null, da gibt es leider noch kaum was zu holen.
Diesmal schaut das alles deutlich "sicherer" aus. Mit Keller hat man wieder jemanden, der eine klare Strategie hat. Mit AArch64 gibt's neue Impulse für Verbesserungen. Aus Bulldozer wird man auch viel gelernt haben. Und die Fertigung sollte dank der Zusammenarbeit mit Samsung diesmal auch klapppen.
Leistung über den Takt zu holen ist, als wenn man einen Fehlschlag im Vorhinein plant, das Grundprinzip ist das gleiche wie Netburst.
Heute liegen die Bulldozer Kerne bei der IPC ziemlich weit hinten, Haswell hat 75 % mehr IPC. Netburst war doch um einen ähnlichen Prozentsatz hinten was bezüglich IPC angeht.
Nicht wirklich. Im Schnitt ist das immer noch verdammt wenig und nicht vergleichbar mit CMT oder gar einem vollwertigen Kern. Dass Haswell dort hinzugewonnen hat, liegt auch nur daran, dass man das Backend mit zwei zusätzlichen Ports aufgepumpt hat, also Richtung CMT mit mehr Ausführungseinheiten entwickelt hat. ;)
Dafür hat Intel IPC 2 :)
 
Zuletzt bearbeitet:
Ex-CEO Rory Read sagte das hier:

Everyone knows that Bulldozer was not the game changing part when it was introduced three years ago. We have to live with that for four years [...]
http://seekingalpha.com/article/248...-technology-conference-transcript?part=single

EDIT
Der ursprüngliche Bulldozer sah ganz anders aus.
Wie denn?

AMDs Sandtiger mit BD-Cores sah auf dem FAD 2007 so aus:

.jpg khkz.jpg

Und dann kam FAD 2008 nichts und dann FAD 2009 das hier:

2015-01-30_000147_cr.jpg 2015-01-30_000149_cr.jpg
 
Zuletzt bearbeitet:
Ja, schon klar. Auf einmal. Ansonsten verteufelst du AMDs Management doch nur. Halt wie es dir gerade passt. Heuchelei pur. Letztendlich ist das auch belanglos. Feldman hatte mit Bulldozer genauso wenig zu tun wie Read. Daher kann der den technisch auch gar nicht beurteilen. Wie ich bereits sagte, maximal wirtschaftlich. Vielleicht solltest du mal richtig lesen. Stechpalme schrieb "ist die Bulldozer Architektur von AMD selbst als Fehlschlag bezeichnet worden". Von Architektur steht in deiner zitierten Aussage kein Wort. Insofern bleibt Stechpalmes Aussage einfach nur falsch dargestellter Unfug. Und damit ist dein verzweifelter Versuch wieder mal als billiges und armseliges AMD Gebashe entlarvt worden. Wie so oft. Leider.

Es ist schon erschreckend dass du alles, was dir nicht in den Kram passt einfach mit "belanglos" wegwischen kannst.
Read drückt sich imho diplomatischer aus, nichts weiter.

Und Feldman kann wie Read das technisch nicht beurteilen? Wieso ist es dann nur wichtig was Read sagt? Du widersprichst dir selbst im eigenen Post.
Letztendlich kann man nur konstatieren dass deine ständige Beschwichtigung und absurd selektive Wahrnehmung eher den Tatbestand von Unfug erfüllt.

Man merkt dass es bei dir wie bei den US Amerikanern ist. Jeder ist ein potenzieller Terrorist.
Und bei dir ist jeder der sich zum Thema AMD auch nur etwas kritisch äußert ein potenzieller AMD Basher, der natürlich in einer Art und Weise entlarvt wird, die an Diagnose Mord erinnert.

Und Bulldozer ist ja der Begriff für die Kernarchitektur. Es deutet vieles darauf hin, dass er Bulldozer ganz allgemein meinte und sicherlich nicht die erste Ausbaustufe.
Die Zweite ala Piledriver ist kaum besser und Steamroller ist was CPU Desktop Performance angeht, nochmal ein Stück schlechter als der erste Bulldozer im Vergleich zur Konkurrenz.

Die einzige sinvolle Weiterentwicklung von der CPU Seite her war Piledriver, alles danach war unnötig.
Steamroller, Excavator. Das wird alles nix gutes werden.
 
Zuletzt bearbeitet:
Haswell hat 75 % mehr IPC.

waren das nicht weniger ? oder besser gefragt, im vergleich zu Bulldozer oder Piledriver oder Steamroller ?

Steamroller, Excavator. Das wird alles nix gutes werden.

Wieso denkst du das Excavator nichts gutes wird ?

Steamroller hat ja gut 10% draufgelegt, nur sieht man davon in spielen wenig weil der L3 Fehlt. Mal ganz abgesehen davon das die fertigung blöd ist weils die nur als APU gibt was die Taktfreudigkeit reduziert.

Wenn Excavator wieder 10% drauflegt, und mit L3 kommt, so hätte man mal eben 20% mehr IPC als mit den jetzigen Vishera.
Dazu werden die mit sicherheit auch viel sparsamer sein als die Vishera.
 
Ein Pentium ist nicht besonders geeignet für einen Vergleich mit einem i3. Bei Pentiums wurde nicht nur HTT gestrichen. Dem fehlen auch Cache, ISA Erweiterungen, Turbo und wer weiss was sonst noch. Der einzig sinnvolle Vergleich ist das selbe i3/i7 Modell zu nehmen und HTT zu deaktivieren.

Ein i3 hat auch keinen Turbo, der "kleine" i3 (z.B. 4150) hat auch nur 3MB L3 Cache wie der Pentium G und an Befehlen wurde eigentlich nur AVX2 und ein paar Grafikfunktionen beschnitten. Also sooo schlecht kann man die beiden nicht vergleichen.
Aber ja, als besten Vergleich sollte man natürlich den gleichen i3 mit und ohne HTT bzw. i7 mit und ohne heranziehen.

...
Leistung über den Takt zu holen ist, als wenn man einen Fehlschlag im Vorhinein plant, das Grundprinzip ist das gleiche wie Netburst.
Heute liegen die Bulldozer Kerne bei der IPC ziemlich weit hinten, Haswell hat 75 % mehr IPC. Netburst war doch um einen ähnlichen Prozentsatz hinten was bezüglich IPC angeht.

Zu Beginn der Netburst Zeit hat Intel ja noch daran geglaubt tatsächlich 6-10 GHz irgendwann damit erreichen zu können. Wie sich dann herausgestellt hat gab' es aber schon damals die "magische Grenze" um die 5GHz die bis jetzt keine CPU oder Architektur unter normalen Bedingungen durchbrochen hat.
75% mehr IPC von Haswell zu Bulldozer ist viel zu hoch angesetzt, selbst wenn man diese mit der ersten Gen Bulldozer vergleicht. Ich hätte da eher 40-50% gesagt.
Auch Netburst lag' etwa um 40-50% zu der Core Technologie oder AMDs K8 zurück. Bei einigen Anwendungen jedoch auch deutlich weniger.

@Topic
Interessante Gerüchte die da über Zen in den letzten Tagen geposted wurden.
Wen Zen tatsächlich 8 echte Kerne hat und in 14nm gefertig wird kann dieser durchaus interessant werden. Wenn eine ähnliche Technik wie Hyperthreading dazu kommt und er dann 16 Threads gleichzeitig abarbeiten kann wäre er durchaus auch im HighEnd interessant.
8 echte Kerne sollte er zumindest im Vollausbau auch haben, da kann man ja dann immer noch welche wegkastrieren um kleinere Modelle zu erhalten. Wenn es nur 4 echte plus HTT sind finde ich das etwas schwach. Vor allem muß man bedenken daß er ja erst frühestens 2016 kommt, und wer weiß ob nicht Intel doch endlich mal den Schritt geht und auch 6 Kerne auf den Mainstream Sockel bringt. Bei Skylake und Sockel 1151 sieht es ja nach wie vor nach max. 4 Kernen aus.
 
SMT bringt bei einem Mobile-Core-iX etwa ein Drittel und benötigt als 2C + SMT weitaus weniger Platz als 3C/4C oder ein CMT-Design mit 2M/4C.

Der Vergleich hinkt total. Wenn man sowas vergleichen wollte, müsste man das bei einger ähnlichen Architektur vergleichen, ansonsten ist diese Aussage nonsens. Core-Architektur -> Äpfel, BD-Archtiektur -> Birnen.
 
Ein Haswell SMT Kern sieht gegenüber 2 A8 Kernen bei gleichem Takt kein Land.

Ernsthaft? Auf welchem Planeten?



Oder meinst du mit 2 A8 Kernen 2 Module? Nur warum sollte man 2 Module mit einem einzelnen Intel Kern vergleichen.

Der einzig sinnvolle Vergleich ist das selbe i3/i7 Modell zu nehmen und HTT zu deaktivieren.

Genauso hat es Gamestar ja gemacht. Ergebnis: teilweise über 40% mehr FPS durch das Aktivieren von HT beim i3.
 
ich denke du hast ihn schon richtig verstanden, also mit einem modul.
Dein Bench ist aber nicht gültig um seine these zu widerlegen, denn ein vollwertigen i3 mit einem 2 modul A8 zu vergleichen ist out of kontext.
Am besten wäre es, die fps mit einem i3 Kern und einem Modul bei BF3 oder BF4 zu testen um zu sehen ob er im recht ist, oder nicht.
 
TARDIS, erst denken und dann besser doch nicht Posten ;)

A8 bezieht sich auf ARM genauer apples 64bit design.

PS: deine sinnlosen pcgh Bilder kannst du dir eigentlich sparen, da belanglos und die kosten nur traffic.
 
Inzwsichen weiß jeder das die Cluster nichts taugen, sogar ein AMDler hat das bestätitgt.
Nö, hat er nicht. Da steht kein Wort von Clustern oder der Architektur im allgemeinen. Sehr wahrscheinlich hat der das lediglich aus wirtschaftlicher Sicht gesagt. Feldman ist (war) ein Marketingmensch bei AMD, der von der Bulldozer Technik keine Ahnung hatte. Das Clusterdesign von Bulldozer ist definitiv sehr gut. Das Drumherum ist eher hinter den Erwartungen zurückgeblieben.

Bei 3DCenter hat mal jemand eine AMD Folie von 2001 gepostet, darauf war ein Modul abgebildet
In Patenten kann viel stehen. Das muss noch lange nichts für konkrete Produkte bedeuten. Die frühesten Patente, die meines Wissens klar Bulldozer zugeordnet werden können, stammen aus 2006/2007. Das war nach dem ursprünglichen Plan einer Nachfolgearchitektur von Stars.

Leistung über den Takt zu holen ist, als wenn man einen Fehlschlag im Vorhinein plant, das Grundprinzip ist das gleiche wie Netburst.
Das ist doch völliger Unsinn. Niemand hat irgendwas davon erzählt, Leistung nur über den Takt zu holen. Takt gehört aber nun mal dazu. Ein Cyclone @ 4 GHz würde Haswell versenken. Mit 1,4 GHz hat er hingegen nichts zu melden. Netburst war was völlig anderes und von dir wieder mal völlig deplatziert in den Raum geworfen.

Heute liegen die Bulldozer Kerne bei der IPC ziemlich weit hinten, Haswell hat 75 % mehr IPC.
Genauso solcher Unsinn. Haswell hat im Schnitt <40% mehr IPC.

Dafür hat Intel IPC 2
Was soll das sein? Der Nachfolger von IPC?


Der "ursprünglicher Bulldozer" war vielleicht keine gute Bezeichnung. Den Namen gab es damals meines Wissens noch nicht. Also sagen wir eher "Stars Nachfolger". Und davon gab es meines Wissens sogar mindestens zwei. Einen von Andy Glew, ua mit SpMT. Der von den AMD Verantwortlichen letztendlich aber abgelehnt wurde. Und einen mit extrem breiter Pipeline, 12-issue, IIRC.


Ein i3 hat auch keinen Turbo, der "kleine" i3 (z.B. 4150) hat auch nur 3MB L3 Cache wie der Pentium G und an Befehlen wurde eigentlich nur AVX2 und ein paar Grafikfunktionen beschnitten. Also sooo schlecht kann man die beiden nicht vergleichen.
Stimmt, die i3 haben keinen Turbo. Aufpassen sollte man trotzdem. Es gibt auch 2C/4T Modelle mit Turbo. Die laufen dann allerdings unter i5. AVX fehlt den Pentiums meist auch, nicht nur AVX2.


Ernsthaft? Auf welchem Planeten?
Auf diesem. Ein Cyclone Kern (1T) schafft fast die Performance von Haswell (2T) auf der Hälfte der Fläche. ;)

Genauso hat es Gamestar ja gemacht. Ergebnis: teilweise über 40% mehr FPS durch das Aktivieren von HT beim i3.
Teilweise ist aber noch lange nicht im Schnitt. Und wenn man eine neue Architektur entwickelt, wie bei K12 und Zen, dann zählen auch nicht nur Spiele. Du solltest dir den Schnitt über alle möglichen Anwendungen anschauen. Und da liegen wir deutlich unter einem Drittel.



TARDIS, erst denken und dann besser doch nicht Posten ;)
Das liegt halt daran, dass er glaubt, ich rede immer von AMD. Schliesslich arbeite ich ja für AMD und mache Werbung für die. :rolleyes: Da weiss man echt nicht, ob das lustig oder einfach nur traurig ist, wenn Leute so verkrustet in ihren Denkweisen sind.
 
Zuletzt bearbeitet:
mr.dude schrieb:
Teilweise ist aber noch lange nicht im Schnitt. Und wenn man eine neue Architektur entwickelt, wie bei K12 und Zen, dann zählen auch nicht nur Spiele. Du solltest dir den Schnitt über alle möglichen Anwendungen anschauen. Und da liegen wir deutlich unter einem Drittel.

Was deine Aussage von 10 bis 20% trotzdem hinfällig macht.
 
Meine Fresse, könnt oder wollt ihr nicht das gelesene Verstehen. Da oben steht im Schnitt über alle Anwendungen!!!!!! Klar kann SMT bis zu 40% und mehr bringen in manchen Anwendungen aber eben nicht im Durchschnitt.

Langsam reicht es echt, es wird nie richtig Gelesen, Sätze aus dem Zusammenhang gerissen oder absichtlich falsch verstanden, nur damit man Person X etwas reinwürgen kann. Das ist doch nicht mehr Normal Leute, geht doch mal zu nem Arzt.

Lernt bitte mal die Grundlagen.
- IPC und Anwendungsleistung sind z.B. zwei verschiedene Dinge. IPC ist ein Rein theoretischer Wert und die Anwendungsleistung kann sich von Anwendung zu Anwendung teils Drastisch unterscheiden.
- Das gleiche gillt für die A8 Kerne, warum sollte man speziell auf 2 AMD A8 APU Kerne eingehen? Die sind von A4 bis A10 gleich und werden Steamroller, Piledriver o.ä. genannt und nicht A8 Kerne.
- Skyrim, Starcraft, und Anno sind keine Spiele, um die Zukunftsfähigkeit von Prozessoren zu Testen. Die sind alle auf 2 Threads ausgelegt. Mittlerweile gibt es spiele, die nicht mal mehr bei 2 threads starten.
....

Ich würde mich ja mal gerne auf einem technischen Niveau unterhalten, aber für mehr als dumme Stammtischparolen scheint hier in der letzten Zeit kein Platz mehr zu sein, was eigentlich schade ist. Versucht man auf der Technischen Seite zu argumentieren, wird man gleich als Fanboy abgestempelt oder weil sie es nicht kapieren können(?) einfach ignoriert und es wird der selbe Bullshit, der gerade wiederlegt wurde, weiter verbreitet. Nach dem Motto, wenn man es 11 mal brüllt und es nur 10 mal wiederlegt wird, wird es schon wahr sein.

Und Schaffe lern endlich Quoten, deine meist aus dem Zusammenhang gerissenen Quotes kann man nicht mal zurück verfolgen und nachfolziehen, was eigentlich gemeint war.
 
SMT kann bei richtig sauber optimierten Spielen auch ziemlich hinderlich sein, ich war noch nie ein Freund von SMT im Spielebereich.
Grey Goo im Benchmark-Test: Ordentliche Echtzeitstrategie mit vorbildlicher CPU-Optimierung

Am besten wären für künftige Games ziemlich sicher einfach 8 Kerne mit ordentlich Leistung (müssen keine IPC-Wunder sein, das halte ich für Unsinn, aber ne ordentliche I/O-Leistung bieten wär nett) und maximal optionalem SMT, damit wird man auf sehr lange Sicher sehr gut fahren. AMD wird SMT auch nur deshalb implementieren, weil man damit im Serverbereich sehr gut punkten kann. Ich wär mir nicht mal sicher, ob es überhaupt sinnvoll wäre, einen 8-Kern-Prozessor mit SMT im Consumerbereich zu bringen.
 
Zuletzt bearbeitet:
Was deine Aussage von 10 bis 20% trotzdem hinfällig macht.
Nein, macht sie nicht. Schau dir doch entsprechende Benchmarks mit beliebiger Threadskalierung an. Da liegen wir im Schnitt bei <=20%. Bei Haswell aufgrund des aufgebohrten Backends mit mehr Ausführungseinheiten (CMT lässt grüssen) eher bei 20%, bei den älteren Cores eher bei 10-15%. 30-40% sind lediglich Best-Case-Szenarien. Gibt genauso Szenarien, wo es <10% sind.
 
Dann erklär mir bitte mal, was eine A8 CPU von AMD bitte sein soll.
Und wenn du die APU meinst, was unterscheidet diese von der A10 Variante oder den Athlons?
Und warum sollte man die Kerne nicht beim Namen (zB. Steamroller) nennen?

Wenn man zwischen Screenshot, auf PCGH machen, mit paint bearbeiten und hochladen sich nur mal ein paar Gedanken gemacht hätte, hatte einem das auffallen müssen, dass das was man gerade macht Stuss ist....

ach warum versuch ichs überhaupt?

PS: Apropos Screenshot, da fehlt was bei deinem Post ;)
 
Zuletzt bearbeitet:
mr.dude schrieb:
Nein, macht sie nicht. Schau dir doch entsprechende Benchmarks mit beliebiger Threadskalierung an. Da liegen wir im Schnitt bei <=20%. Bei Haswell aufgrund des aufgebohrten Backends mit mehr Ausführungseinheiten (CMT lässt grüssen) eher bei 20%, bei den älteren Cores eher bei 10-15%. 30-40% sind lediglich Best-Case-Szenarien. Gibt genauso Szenarien, wo es <10% sind.

Wenn man die HAswell Pentiums gegen die Haswell i3´s stellt, sehe ich einen Vorteil von 30% und nicht 10 bis 20%, alleine durch SMT.

Intel Pentium G3258

Guck mal auf die Anwendungen.
Wenn man auf Spiele schaut sind es 51%, bei syntethischen Tests über 40%.
 
Zuletzt bearbeitet:
Dann erklär mir bitte mal, was eine A8 CPU von AMD bitte sein soll.

Bitteschön: AMD A8-7600, 4x 3.10GHz, boxed

Ich bitte noch einmal ausdrücklich um Entschuldigung, dass ich nicht wusste, dass es eine A8 CPU von Apple gibt. Mir war halt nicht bewusst, dass es in diesem Thread um Apple CPUs geht. Keine Ahnung wie ich darauf gekommen bin, dass es in diesem Thread um AMD CPUs geht... mea culpa, mea maxima culpa.

- - - Updated - - -

PS: Apropos Screenshot, da fehlt was bei deinem Post ;)

Dieser hier?



Aber da fehlt jetzt natürlich die Apple CPU. Sorry, ich wusste echt nicht, dass dies ein Apple Thread ist. Ich muss das "Apple" im Titel und in den vorherigen Posts total überlesen haben... mea culpa, mea maxima culpa.
 
Zuletzt bearbeitet:
Ich habe heute mal ne Folie gesehen über die Intel Produkte für dieses Jahr.

Der Skylake welcher anfang 3Q kommen soll, wird auch direkt als K Version kommen, also auch mit freiem Multi.

Er wird aber Only DDR4 Ram supporten, weshalb es für viele wohl schlauer wird auf die Broadwell zu setzen wenn sie noch DDR3 Rams zuhause haben oder geld sparen wollen.

Ich hab mir daher gedacht dass es eigentlich auch sinniger wäre, nicht dieses jahr einen Skylake zu kaufen, weil DDR4 das erste Jahr total überteuert sein wird, und Frequenztechnisch eh noch in den anfangsschuhen steckt.

Auch habe ich erfahren, dass Skylake vom selben Team entwickelt wird, welches für Sandy Bridge und Core 2 zuständig war. (nehalem und Haswell kamen vom schwächeren team aus amerika).

Das ist jetzt mal ein punkt warum ich glaube, das Skylake ca 10% schneller wird als Broadwell. Der andere Punkt wäre DDR4 vs DDR3 welches ja auch locker mindestens 5% mehr IPC Garantiert.
Ich denke wegen DDR4 und der Architekturverbesserung werden wir defenetiv 10% mehr IPC sehen, vielleicht sogar 15% aber ich gehe absichtlich vom kleinsten wert aus.

Jetzt mal folgende Berechnung.

Haswell ist IPC Technisch 50% schneller als Vishera.
Broadwell ist 5% Schneller als Haswell.
Windows 8.1 bringt gegenüber windows 7 auch ca 5% mehr Leistung. Mit Windows 10 wird dies höchstwarscheinlich wieder der fall sein.
Demnach wird der Skylake mit 10% mehr IPC gegenüber Broadwell, IPC technisch mindestens 75% schneller, als mein Zambezi FX4 sein.
Dank wechsel von windows 7 auf 10 werde ich wohl nochmals locker 10% rausholen. Das wären im Worst Case mal eben über 85% Leistungssteigerung bei gleicher taktfrequenz.
Wenn Skylake auf Broadwell nur 5% mehr IPC bringt, hab ich immernoch gut 80% mehr leistung, wenn Skylake 15% mehr IPC bekommt, wäre ich bei 90% :d
Von DX12 und dem wechsel von HDD auf SSD mal ganz abgesehen wird das ja mal total der überkrasse Quantensprung.
 
Wenn man die HAswell Pentiums gegen die Haswell i3´s stellt, sehe ich einen Vorteil von 30% und nicht 10 bis 20%, alleine durch SMT.

Intel Pentium G3258

Guck mal auf die Anwendungen.
Wenn man auf Spiele schaut sind es 51%, bei syntethischen Tests über 40%.

I3 -> AVX, Turbo
Pentium -> kein AVX, kein Turbo

SMT bringt auch auf dem I3 nicht so viel.
 
@TARDIS
hehe .... musste schon bei Deiner allerersten Entschuldigung wg. Apples A8 schmunzeln. Leider ist diese CPU nicht im Benchmark dabei weil die geplanten Ports von Battlefield 4, Crysis 3, Adobe Lightroom etc. noch nicht erhältlich sind, haha.

@NightEye
Deine Rechnungen sind teils etwas zu optimistisch. DDR4 ist von Haus aus mal nicht automatisch schneller als DDR3. Hängt ganz von der Geschwindigkeit und den Timings ab. Sieht man auch recht schön bei den ersten Haswell-E Reviews daß DDR4-2133 mit CL15/16 oft schlechtere Ergebnisse liefert als ein SandyBridge-E/IvyBridge-E mit DDR3-1866 und z.B. CL10 und das trotz besserer Haswell CPU dahinter.
Ich vermute daß DDR4 bis Ende des Jahres im Preis purzeln wird und immer mehr Hersteller immer mehr Modelle bringen werden. Aktuell ist der (Desktop) Markt ja ziemlich überschaubar für die Hersteller. Sobald aber wie gesagt Skylake mit DDR4 Support daherkommt bewegt sich bestimmt etwas. Wenn AMD dann Ende 2015? Anfang 2016? auch APUs und/oder CPUs mit DDR4 support bringt sowieso.

Deine Rechnungen sind bei den Shrinks auch immer etwas zu gutgläubig angesetzt. Rein IPC technisch haben diverse Shrinks eher so max. um die 5% gebracht. Egal ob es da von Core2 (z.B. Conroe auf Wolfdale), Nehalem (z.B. Bloomfield auf Gulftown), SandyBridge auf IvyBridge oder jetzt eben Haswell auf Broadwell gegangen ist.
Ab und zu wurde das durch mehr Cache (Core2), oder zusätzlichen Befehlen o.Ä. erreicht. Im Grunde brachte ein Shrink aber nur weniger Verbrauch und dadurch höhere mögliche Taktraten sowie wie gesagt die ein oder anderen Features neu dazu (eben CPU Befehle, mehr Cache, neues PCI-E Interface, mehr mögliche Kerne etc.)

Windows 8/8.1 profitiert bzw. nutzt aber auch AMDs Modultechnik besser als Windows 7. Somit würde ich das nicht als Gewinn auf IPC Seite sehen. Und es lässt auch keine Rückschlüsse darauf zurückführen daß Windows 10 ebenfalls die CPUs besser nutzen kann und dadurch mehr Leistung erziehlt. Oft war es ja in der Vergangenheit eher so daß ein neues Windows in einigen Benchmarks erst mal schlechter abgeschnitten hat als das alte. Erst durch bessere Treiber, Service Packs etc. konnten die neuen Betriebssysteme aufholen/überholen oder gar durch neue Features etwas bieten was unter dem alten OS nicht möglich war.

Wenn man rein CPU technisch (in ähnlicher Klasse) aufrüstet ist der Leistungsgewinn in den letzten paar Jahren wohl eher gering. Nachdem viele (wie Du ja dann anscheinend auch) aber auch auf z.B. eine SSD auf/umrüsten (und das meist gleichzeitig zu neuer restlicher Hardware) kommt einem der Leistungsgewinn natürlich groß vor.

Diese Woche werde ich das bei einem Kumpel mal testen ... er hat einen i5-750 (leicht übertaktet) und 4GB DDR3 sowie ein Raid0 aus zwei Intel X25M G2 Postville 80GB SSDs und einer HD4670 (spielt aber kaum) sowie Windows 8.1.
Nun hat er sich von mir ein neues Sys bestehend aus i7-4790K, Z97 Board, Cruical M550 512GB SSD und 16GB DDR3-1866 RAMs zusammenstellen lassen. Nachdem er kaum spielt gebe ich Ihm eine alte HD5750 die ich hier rumliegen habe da diese noch aktuelle Treiber für Win8.1 hat und DX11 kann.
Das neue Sys wird erstmal nicht übertaktet. Klar wird es schneller sein, aber soooo irre viel daß er es wirklich großartig merkt? Immerhin arbeitet er zu 99% mit dem System. Er programmiert viel, entwickelt Software (für Android, iOS, Weboberfläche) und nutzt demnach auch virtuelle Systeme. Ursprünglich habe ich Ihm zu KEINEM Upgrade empfohlen da sein altes Sys einwandfrei läuft und für seine Anforderungen nach wie vor ausreicht.
Er wollte es aber unbedingt weil er nach etwa 5 Jahren endlich wieder was neues will. Dann habe ich ihm zu einen non-K i5 oder Xeon geraten sowie B85 oder H87/97 Board und 8GB DDR3-1600. Er wollte aber gleich was besseres auch wenn es viel mehr kostet.

@Hot
i3 hat keinen Turbo! Wie oft den noch.
Und AVX wirkt sich genau wo aus? Soviel ich gesehen habe sehr stark beim Verschlüsseln/Entschlüsseln. Und sonst? Bei Spielen wird es glaube ich gar nicht genutzt und bei den meisten Anwendungen ebenfalls nicht.

Klar bringt dem i3 SMT nicht "so viel" wie z.B. 4 echte Kerne oder gar Kerne der Modulbauweise von AMD (wenn alle 4 Threads optimal genutzt werden). Aber mehr als nur 2 Kerne ist es allemal.
 
SMT kann bei richtig sauber optimierten Spielen auch ziemlich hinderlich sein, ich war noch nie ein Freund von SMT im Spielebereich.
Grey Goo im Benchmark-Test: Ordentliche Echtzeitstrategie mit vorbildlicher CPU-Optimierung

Am besten wären für künftige Games ziemlich sicher einfach 8 Kerne mit ordentlich Leistung (müssen keine IPC-Wunder sein, das halte ich für Unsinn, aber ne ordentliche I/O-Leistung bieten wär nett) und maximal optionalem SMT, damit wird man auf sehr lange Sicher sehr gut fahren. AMD wird SMT auch nur deshalb implementieren, weil man damit im Serverbereich sehr gut punkten kann. Ich wär mir nicht mal sicher, ob es überhaupt sinnvoll wäre, einen 8-Kern-Prozessor mit SMT im Consumerbereich zu bringen.
Mit einer ordentlichen I/O Leistung wäre ich auch schon zufrieden.
Das wurde die letzten Jahre immer dünner, die Anbindung an den Rest des System, eigentlich war man gezwungen dadurch APUs zu bauen :fresse:

So ein Systemringbus wäre was tolles, wie es bei GPGPU Berechnungen genutzt wird: http://abload.de/img/sandra_gp_membw_ocl_m40qrb.jpg
Mein FX-8350 steuert hier 43GByte/s mehr Bandbreite bei als nur mit den zwei HD 7970. ;)
 
SMT kann bei richtig sauber optimierten Spielen auch ziemlich hinderlich sein, ich war noch nie ein Freund von SMT im Spielebereich.
Grey Goo im Benchmark-Test: Ordentliche Echtzeitstrategie mit vorbildlicher CPU-Optimierung

...

Um auch nochmal das aufzugreifen ...
Also ja, SMT kann bei einigen Anwendungen hinderlich sein. Sauber optimierte Spiele? Das Grey Goo sieht mir aber nicht direkt danach aus. Es dürfte bis/auf 4 Kerne optimiert sein. Sieht man doch schön daß 2 Kerne + HTT mehr bringt als nur 2 Kerne.
Wenn es sauber optimiert wäre dann würde das Spiel auch mit mehr als 4 Kernen gut klarkommen, oder zumindest nicht langsamer sein, in dem Fall stellt es sich aber anscheinend mit 4 Kernen und HTT selbst ein Bein. Nachdem HTT jedoch sehr wohl bei einigen Anwendungen und Spielen etwas bringt (wenn auch teils nicht viel) denke ich daß hier das Spiel schuld ist.

Mit einer ordentlichen I/O Leistung wäre ich auch schon zufrieden.
Das wurde die letzten Jahre immer dünner, die Anbindung an den Rest des System, eigentlich war man gezwungen dadurch APUs zu bauen :fresse:

Ähhh ... whut?

Was meint Ihr mit I/O Leistung? Wo seht Ihr denn hier einen Flaschenhals??? Der Arbeitsspeicher ist doch zumindest für CPUs eh schon schnell genug angebunden. So gut daß man in den meisten Anwendungen kaum einen Unterschied zwischen DDR3-1333, 1600, 1866 oder gar viel schneller sieht/merkt. Und auch zwischen Single Channel, Dual Channel und Quad Channel sind in der Praxis kaum Unterschiede zu sehen.
Wenn Ihr Anwendungen habt die kaum Berechnungen benötigen (<- CPU) aber massiv Daten im Speicher herumbewegen (<- wozu wenn da kaum was berechnet wird?) dann kann sich eine schnelle Speicheranbindung auszahlen.

Was mir sonst noch bei I/O einfallen würde wäre PCI-Express, da sind wir aber ja auch ganz gut ausgestattet. Wenn man mehr braucht -> Sockel 2011/2011-3.
Dann wäre da noch die Massespeicheranbindung, da schwächelt SATA schon etwas, gibt aber auch schon M.2 und in absehbarer Zeit kommen da wohl auch richtig gute SSDs dafür.
Na und sonst ... Netzwerk? 10GBit gibt es ja auch schon, allerdings ist da die Infrastruktur dahinter noch recht teuer. Thunderbolt? Auch gut, aber noch kaum genutzt.
Bis auf PCI-E sind das aber alles Sachen die die CPU nicht direkt etwas angehen.

So ein Systemringbus wäre was tolles, wie es bei GPGPU Berechnungen genutzt wird: http://abload.de/img/sandra_gp_membw_ocl_m40qrb.jpg
Mein FX-8350 steuert hier 43GByte/s mehr Bandbreite bei als nur mit den zwei HD 7970. ;)
Tja für's "Numbercrunchen" ist das bestimmt was nettes. Macht man aber ohnehin nicht mit einer normalen CPU. Wie Ihr schon richtig erkannt habt nutzt man dafür spezialisiserte Lösungen wie z.B. GPGPU. And guess what? - die haben auch meist eine weit höhere Speicheranbindung ;)
 
@Bucho
Mit I/0 meint man alles was von der CPU raus und rein geht.
Spiele sind doch nichts anderes als Numbercrunchen, ständig wird deine Eingabe (Tastatur & Maus) im 3D Modell nachberechnet.
Mir geht es nicht um mehr oder schneller Hardware, sondern mal das ausnutzen was vorhanden ist. ;)
 
Ach so, ich dachte es geht hier um AMD CPUs
Und trotzdem hält dich das nicht davon ab, in jedem AMD Thread immer die gleichen Diagramme mit Intel CPUs zu posten. :rolleyes:


Wenn man die HAswell Pentiums gegen die Haswell i3´s stellt, sehe ich einen Vorteil von 30% und nicht 10 bis 20%, alleine durch SMT.
Wie gesagt, Pentium und i3 führt zu keinem aussagekräftigen Vergleich, da sich beide in mehr als nur HTT unterscheiden. Man kann hier selbst nicht ausschliessen, dass Anwendungen aufgrund des unterschiedlichen ISA Supports unterschiedliche Codepfade ausführen. Ein i3 Vergleich mit und ohne HTT ist der einzig sinnvolle. Und selbst da kann es Fallstricke geben. Und bitte lasst endlich mal die Rosinenpickerei, sondern schaut euch den Schnitt über alle möglichen Anwendungen an, die HTT auch nutzen. Da wirst du wie gesagt bei Haswell nicht mehr als etwa 20% sehen. Bei älteren HTT Kernen entsprechend weniger.
 
Und trotzdem hält dich das nicht davon ab, in jedem AMD Thread immer die gleichen Diagramme mit Intel CPUs zu posten. :rolleyes:

In den anderen Threads geht es halt in der Regel um Vergleiche von AMD und Intel CPUs, also wo ist das Problem? In den Diagrammen sind die AMD CPUs ja auch mit drin - du musst halt nur unten bei den kurzen Balken gucken.

Jetzt geht es in diesem Thread gerade um den i3 - ist damit der Intel i3 oder der BMW i3 gemeint? Na also.

Beim Intel i3 finde ich das HTT super. In Spielen teilweise über 40% mehr Leistung ist schon ein Wort (natürlich ein Vergleich i3 mit aktiviertem vs desaktiviertem HTT - kein Vergleich mit einem Pentium). In Spielen, die eh nur zwei Kerne belegen, bringt es natürlich nichts. Aber da hat man ja noch die sehr hohe Basisleistung pro Kern, auf die man sich verlassen kann.

Was würde einem eine höhere Steigerung von 50%-60% bringen, wenn sich diese Steigerung auf einen viel kleineren Basiswert bezieht? Richtig. Nichts.
 
Zuletzt bearbeitet:
Allen Isolation:

Average Frame Time(ms),Min Frame Time(ms),Average FPS,Max FPS,Benchmark Name
7.11,5.57,140.58,179.40,tessellation
9.08,7.73,110.19,129.32,lab_room_flyby
5.97,5.04,167.46,198.57,volumetric_light
6.42,4.95,155.70,202.18,large_shadowcaster
8.72,7.66,114.61,130.48,lab_room
,,,,
,,,,
7.46,4.95,137.71,202.18,Summary
Bei 3D-center.org@Benchmarks gibt es weitere Ergebnisse.
Riecht nach 200FPS Limiter...
 
Nö, hat er nicht. Da steht kein Wort von Clustern oder der Architektur im allgemeinen. Sehr wahrscheinlich hat der das lediglich aus wirtschaftlicher Sicht gesagt. Feldman ist (war) ein Marketingmensch bei AMD, der von der Bulldozer Technik keine Ahnung hatte. Das Clusterdesign von Bulldozer ist definitiv sehr gut. Das Drumherum ist eher hinter den Erwartungen zurückgeblieben.
Sowas bezieht sich natürlich auf die Architektur, Marketing hin und her, scheiss drauf, er hat trotzdem recht!
AMD ist mit dieser Architektur gescheitert, Server Markt ist auf null, im APU Markt nur Verluste damit (Kaveri, Trinity, Lllano > Nur Verluste & Strafzahlungen in den Bilanzen), Desktop geht gerade ziemlich weit nach unten, nur noch das Konsolen Geschäft läuft.

Niemand hat irgendwas davon erzählt, Leistung nur über den Takt zu holen. Takt gehört aber nun mal dazu. Ein Cyclone @ 4 GHz würde Haswell versenken. Mit 1,4 GHz hat er hingegen nichts zu melden. Netburst war was völlig anderes und von dir wieder mal völlig deplatziert in den Raum geworfen.
Hör auf ständig von Cyclone zu reden, das ist keine x86 Architektur.

Genauso solcher Unsinn. Haswell hat im Schnitt <40% mehr IPC.
Hör auf ständig zu lügen, bereits Sandy Bridge hat >50% mehr IPC als K10, Bulldozer ist damals mit weniger IPC als K10 gestartet.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh