Benchmarkergebnisse eines Haswell-Prozessors aufgetaucht

Ich finds auch eigenartig, da wo die PS4 und Xbox.8 kommt das alle auf Nvidia und Intel aufmerksam machen, dabei kommt man ja preislich sehr gut mit einem AMD-System weg,

der 750k kostet ja 65Euro
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ Haswell
Die Konsolen werden 8 Kerne haben. Der IPC-Sprung müsste schon gewaltig sein, dass ich mir da noch einmal einen QuadCore zulege. HT ist und war nie eine richtige Konkurzenz zu einem Kern und von daher auch keine Option.

Werden sie das denn? Die PS4 setzt zumindest auf eine APU von AMD und die bestehen auf der CPU-Seite ja doch aus einer Bulldozer-Architektur. Und ob man bei der von einem Octacore sprechen kann, ist fraglich, zumindest scheiden sich hier die Geister. AMD selbst nennt das Gebilde zumindest Quadcore.
 
@ pajaa Also wie ich das sehe, ist der Jaguar-Kern doch komplett anders.
 
@CyLord
Wenn die PS4 einen echten Octacore hätte, dann wäre das ein echter Vorsprung und käme auch PC-Spielern zugute. Ich hoffe es, aber bezweifle es irgendwie auch.
 
Dass Haswell von der CPU-Leistung her deutlich zulegen würde hat ja nicht ernsthaft jemand erwartet, oder?
 
Das was von DX 11 zu DX 11.1 bei Nvidia fehlt, sind keinerlei optische Features sondern Optionen für Programmierer. den Einsatz dieser wird gar niemand mitbekommen...

Zu deinem Future-Is-now-Crysis 3-Link habe ich auch einen Link von der selben Seite: Crysis 3, neue Überraschungen: Weitere CPU-Tests zeigen SMT-Bremse und FX-Schwäche
Hm, zuviel Thread-Kohärenz -> SMT = Schrott. Die Nachteile von SMT schlagen ja oft nur deshalb nicht durch, weil der Scheduler erst mal die Kerne alle auslastet, erst danach kommt SMT überhaupt zum Einsatz.

Der FX sieht immer noch sehr gut aus, aber realistischer sind die FPS alle mal jetzt.
 
Zuletzt bearbeitet:
Das was von DX 11 zu DX 11.1 bei Nvidia fehlt, sind keinerlei optische Features sondern Optionen für Programmierer. den Einsatz dieser wird gar niemand mitbekommen...

Zu deinem Future-Is-now-Crysis 3-Link habe ich auch einen Link von der selben Seite: Crysis 3, neue Überraschungen: Weitere CPU-Tests zeigen SMT-Bremse und FX-Schwäche

Das behauptet Nvidia richtig? DX-Features sind immer Optionen für Programierer in der Regel aber auch Optimierungen.

Zu deinem Link bestätigt er meine Aussage doch nur. Klar ist die Intel-Architektur noch die bessere Wahl, aber bei den Konsolen wird man die Hardware voll auslasten.

3D-Center schrieb:
VGLeaks haben mal wieder etwas neues zur Technik der Xbox 720 – in diesem Fall zu verwendeten CPU. Wie bekannt, setzt die Xbox 720 (wie auch die Sony PS4 sowie AMDs Temash- und Kabini-APUs) auf die Jaguar-Architektur in Nachfolge der Bobcat-Architektur von AMD – in den Ausführungen von VGLeaks wird dies zwar nicht explizit erwähnt, ergibt sich jedoch ganz automatisch durch die vorgebrachten Technik-Punkte, welche die Jaguar-Architektur beschreiben. Interessant ist, daß die Xbox-720-CPU als aus zwei QuadCore-Modulen mit einer unified Northbridge bestehend beschrieben wird. Dies würde die getrennte Chipfertigung beider Module sowie der Northbridge ermöglichen, selbst wenn diese dann am Ende auf das selbe Trägermaterial gepresst werden. Sollte dies so sein, würde sich die Xbox 720 in diesem Punkt deutlich von der PS4 unterscheiden, wo CPU, Chipsatz und GPU als ein großer Chip gefertigt werden.

Es ist auch egal ob das Ding nun Module hat oder Kerne. Fakt ist die Rechenleistung eines Modulkerns kommt nahe an die eines vollwertigen Kerns herran. Native-Kerne wären zwar die beste Wahl, aber gibt es eben noch nicht als 8-Kerner im Desktopbereich. Man sieht ja schön wieder bei dem Link wie HT total einbricht. Seit Pentium 4 ist die Technik doch Schrott und es hat sich nicht viel geändert.

Nur eine Vermutung von mir:
Die Kerne der Konsolen wird man mit Physikberechnungen voll auslasten können. Das skalliert hervorragend. Interessant wird nur, ob beim PC dies die GPU via DirectCompute übernimmt (Titan und 7970 lassen Grüßen), oder eben auch die CPU. In jedem Fall sind 4 Kerne, mit oder ohne HT durch die Konsolentechnik nicht zukunftssicher.
 
Zuletzt bearbeitet:
Das behauptet Nvidia richtig? DX-Features sind immer Optionen für Programierer in der Regel aber auch Optimierungen.

Zu deinem Link bestätigt er meine Aussage doch nur. Klar ist die Intel-Architektur noch die bessere Wahl, aber bei den Konsolen wird man die Hardware voll auslasten.

Natürlich sagt Nvidia das, aber ich weiß auch wie voll APIs mit Dingen sind die nicht gebraucht werden oder keinen Nutzen für den Endanwender bringen... ;)

Der Link bestätigt nur erstmal die Tatsache, dass Crysis 3 kein Beispiel für die Zukunft ist. Es gib Indizien wie es bei den Konsolen aussehen könnte, wie in den Gras-Leveln und beim Wetter(??? irgend ein andere Effekt war da noch...), aber das Spiel an sich ist nicht auf acht Threads oder Multithreading optimiert, oder schlecht optimiert...

Wir werden Spiele bekommen, wo das anders wird, aber die kommen erst um den Konsolen-Launch, wenn nicht später. Richtig gehändelt bekommen haben sie die Xbox 360 udn die PS3 bezüglich des ausreizens der HArdware nicht direkt zum Launch meine ich.
 
In jedem Fall sind 4 Kerne, mit oder ohne HT durch die Konsolentechnik nicht zukunftssicher.
Ohne Angabe von Zeitraum ist die Aussage zwar sicherlich richtig, aber halt eben auch total sinnfrei.

Es wird ja nicht so sein, dass die Entwickler mal kurz einen Schalter umlegen und die Engines dann auf einmal wie durch Zauberhand super mit vielen Kernen umgehen können. Es wird vielmehr ein stetiger Prozess sein.
 
Ohne Angabe von Zeitraum ist die Aussage zwar sicherlich richtig, aber halt eben auch total sinnfrei.

Es wird ja nicht so sein, dass die Entwickler mal kurz einen Schalter umlegen und die Engines dann auf einmal wie durch Zauberhand super mit vielen Kernen umgehen können. Es wird vielmehr ein stetiger Prozess sein.

Da gebe ich dir vollkommen recht. Daher sind aktuell alle Produkte ziemlich schlecht. AMDs CPUs aufgund der geringen IPC und des Verbrauchs. Intels auf grund der Kerne und des Preises. Ich sehe nicht ein nach so langer Zeit 500€ für 6 Kerne auszugeben.

Die AMD CPUs könnten trotzdem besser dastehen einfach weil die Konsolen nun viel PC-ähnlicher sind. Mit OC wäre die IPC ausgeglichen. Der Takt wird sowieso nicht so hoch sein auf Grund des Verbrauchs. Zudem ist es eben die AMD-Archtitektur welche verwendet und auf welche hin optimiert wird.

Zukunftssicher sind bei mir mindestens 3-4 Jahre. Gerne auch mehr. Für den PC wird man immer etwas finden um die Hardware klein zubekommen. Sowas wie Tesslation heute werden wahrscheinlich Physikberechnungen sein.
 
Zuletzt bearbeitet:
Gibt es Info darüber ob der hier gebenchte Haswell die gleiche Anzahl an Cores/Threads und Cache hat wie der I7, der zum Vergleich rangezogen wurde?

für die hoax balkendiagramme gibts keine info.
aber ich verlinke hier zum 3.mal screenshots mit haswell cpu-z drauf.
wenn sich das keiner anschaun will... selber schuld

Intel Haswell ES benchmark

@Timbaloo
laut fritzchess benchmark hat haswell um einiges zugelegt.
 
@Timbaloo
laut fritzchess benchmark hat haswell um einiges zugelegt.
Das erste Bild von Haswell in deinem Link ist bei 2600MHz, richtig? Und der Vergleich mit dem 3770@2600MHz ergibt dann ein Performanceplus von ~9%. Bei einer einzigen Anwendung. Einer recht syntetischen noch dazu. Selbst wenn es 10% im Schnitt über alle Anwendungen sind, dramatisch ist das nicht. Die wirklichen Vorteile von Haswell sind woanders zu suchen.
 
wir befinden uns bei 2,6ghz.
wenn du recht siehst, kommt der 3770k auch mit 2,8ghz nicht an den haswell ran. ich lehne mich mal aus dem fenster und behaupte, fritzchess ist nicht halb so synthetisch wie super-pi, wovon wir nichtmal screenshots, sondern nur billig dahingemalte balkendiagramme gesehen haben. ~9% mehrleistung bei einer neuen prozessor generation ist doch nicht zu verachten, davon kann amd nur träumen.
 
@CyLord
Wenn die PS4 einen echten Octacore hätte, dann wäre das ein echter Vorsprung und käme auch PC-Spielern zugute. Ich hoffe es, aber bezweifle es irgendwie auch.

soweit ich weiss wird die PS4 einen echten octacore besitzen, allerdings keinen FX, sondern den weiterentwickeltern Bobcat --> Jaguar und zwar mit jeweils 2 GHz CoreClock
 
@CyLord
Wenn die PS4 einen echten Octacore hätte, dann wäre das ein echter Vorsprung und käme auch PC-Spielern zugute. Ich hoffe es, aber bezweifle es irgendwie auch.

Sorry für OT AMD in einem Intel thread (aber das ist doch umgekehrt schon normal): das ist doch schon vor Monaten als Gerücht herausgekommen und seit der offiziellen Sony PS4 Präsentation offiziell bestätigt worden. Es handelt sich um KEINE Bulldozer Architektur (schau mal unter Jaguar/Kabini im inet nach). Laut Gerüchte laufen die 8 Kerne mit 2 Ghz. Nur um dir ein winzig kleines bißchen recht zu geben: es ist kein nativer Oktacore, sondern 2 mal (zusammengepappte) 4 Kerner :fresse:
 
Es kann auch sein das nicht eine sehr starke CPU gefordert wird. Ich hätte mir gewünscht mehr über die Auslastung der PS3 zu erfahren.
 
Laut Gerüchte laufen die 8 Kerne mit 2 Ghz. Nur um dir ein winzig kleines bißchen recht zu geben: es ist kein nativer Oktacore, sondern 2 mal (zusammengepappte) 4 Kerner :fresse:
8 Kerne sind 8 Kerne.

Und ich habe durchaus schnell recherchiert, war dabei aber nicht besonders sorgfältig und habe einfach etwas, was ich über Trinity gelesen habe, auf Jaguar übertragen. Zurück zum Thema?
 
tinity is die falsche schiene :P

du musst nach bobcat suchen und das auf 8 Kerne und 2 GHz übertragen

@Topic:

wurden bei den Benchmakrs eigentlich die unterschiedlichen Cache-größen von i7 und i5 berücksichtigt?
 
Ich nehme mal an, dass man da i7 gegen i7 hat antreten lassen. Da steht zumindest nichts gegenteiliges und wäre der Haswell ein i5 gewesen wäre es möglich gewesen gegen einen i5 gegenzubenchen. ;)
 
laut fritzchess benchmark hat haswell um einiges zugelegt.
Verwunderlich wäre es nicht aufgrund des zusätzlichen Port 6, an dem eine weitere ALU und Branch Einheit hängt. Genau das mag Fritz Chess. Ich wäre also vorsichtig mit allgemeinen Schlussfolgerungen.


/offtopic

HT ist und war nie eine richtige Konkurzenz zu einem Kern und von daher auch keine Option.
Real men use real cores! :d Sag ich ja schon lange. SMT mag ein nettes synthetisches Feature sein, was durchaus seine Anwendung findet, wie bei grossen Clustern bzw HPC. In der Praxis ist es aber speziell für Clients meist nutzlos. Deshalb mag ich das Bulldozer Konzept, auch wenn es einige nicht sehen wollen oder bis heute nicht verstanden haben. Ein Bulldozer Modul strebt kompromisslos die Performance von zwei vollwertigen Kernen an, aber ohne deren Redundanzen. Für die Performance benötigte Einheiten werden notfalls auch dupliziert und nicht wie bei SMT einfach nur geteilt. Haswell weicht in dem Sinne das SMT Konzept auch etwas auf, indem nicht nur geteilt wird, sondern die EU um zwei Ports mit zusätzlichen Einheiten erweitert wird.


Werden sie das denn? Die PS4 setzt zumindest auf eine APU von AMD und die bestehen auf der CPU-Seite ja doch aus einer Bulldozer-Architektur.
Nicht ganz richtig. AMDs APUs basieren auf der Bobcat oder Bulldozer Architektur. Der Prozessor der PS4 basiert auf einem speziellen Design, welches 8 Jaguar Kerne beherbergt, der Weiterentwicklung von Bobcat. Kabini besitzt eine Jaguar CU mit 4 Kernen. Bei der PS4 werden vermutlich einfach zwei dieser CUs genutzt. Letztendlich bleibt Jaguar trotzdem ein Low-Power Core, der aufs Stromsparen getrimmt ist und nicht auf maximale Performance. Ich denke, er kann trotzdem nahe an die K10 IPC rankommen. Taktraten liegen vermutlich bei 1,6-2 GHz. Also erwartet keine Wunderdinge, trotz der 8 Kerne. 4 Jaguar Kerne @ 1,4 GHz kommen angeblich auf 1,39 Punkte in Cinebench. Rechnen wir das mal auf 8 Kerne @ 2 GHz hoch, kommen wir auf 3,97 Punkte. Eher etwas weniger aufgrund von Skalierungsverlusten. Das wäre lediglich etwa X4 955 Niveau. Also noch deutlich unter den aktuell schnellsten Desktopprozessoren. Auch wenn man eventuell noch was mit Softwareoptimierungen rausholen kann. Jaguar wird ja zB auch AVX unterstützen. Interessant wird bei der PS4 allerdings die direkte GDDR5-Anbindung. Das könnte einen ordentlichen Leistungsschub bringen.
 
Jaguar ist kein HTT und CMT oder APU.Einfach 4 Kerne(Max) und gut (Low Power CPU).:cool:
 
Real men use real cores! :d Sag ich ja schon lange. SMT mag ein nettes synthetisches Feature sein, was durchaus seine Anwendung findet, wie bei grossen Clustern bzw HPC. In der Praxis ist es aber speziell für Clients meist nutzlos. Deshalb mag ich das Bulldozer Konzept, auch wenn es einige nicht sehen wollen oder bis heute nicht verstanden haben. Ein Bulldozer Modul strebt kompromisslos die Performance von zwei vollwertigen Kernen an, aber ohne deren Redundanzen. Für die Performance benötigte Einheiten werden notfalls auch dupliziert und nicht wie bei SMT einfach nur geteilt. Haswell weicht in dem Sinne das SMT Konzept auch etwas auf, indem nicht nur geteilt wird, sondern die EU um zwei Ports mit zusätzlichen Einheiten erweitert wird.

Nutzlos würde ich SMT nun nicht nennen ;)
Das Feature hatte über die Jahre nie den Anspruch, vollwertige Cores zu ersetzen. Viel eher bekommt man damit die Möglichkeit, noch ein paar Prozente Leistung aus der Hardware zu quetschen. Was mal mehr, mal weniger gut funktioniert.
Und unterm Strich ist es auch vollkommen wurscht, wie die Leistung erziehlt wird. Kann die Anwendung mit 8 Threads umgehen, wird SMT idR auf nem Quad seine Fähigkeiten ausspielen. Genau so wie "echte" Cores oder eben auch CMT beim Bulldozer (und Ablegern) erst dann richtig performt, wenn die Threads mit Berechnungen gefüttert werden.

Die Singlecore Performance ist zwar lange nicht mehr so essentiell wichtig, wie zu SingleCorezeiten noch, dennoch besteht auch heute noch ein enormer Bedarf an anständiger Performance für wenig Threadoptimierte Software. Hier hat Intel aktuell nach wie vor die Nase vorn. Bulldozer Konzept, anstreben von der Performance zwei vollwertiger Cores usw. hin oder her. Mir persönlich aus Anwendungssicht nutzt ein CMT Modul nix, wenn bei halber Auslastung auch nur halbe Leistung bei rum kommt, wärend die Konkurenz bei halber Auslastung (Core + SMT) deutlich mehr umsetzen kann. Denn genau solche Lastszenarien dürften vermehrt die Regel sein. Solange die Sache für Intel aufgeht, wird sich daran wohl vorerst nix ändern. Gerade der Mainstream Bereich macht aktuell nicht den Eindruck, als würde sich an der reinen Threadanzahl deutlich was ändern in den nächsten Jahren.

PS: ein zwei Moduler mit doppelter Bulldozer IPC wäre durchaus interessant ;) Aber da darf ich wohl noch länger drauf warten...
Somit wird wohl Haswell erstmal zeigen müssen, was aktuell machbar ist. Und ggf. kann das geänderte SMT ja durchaus punkten.
 
Zuletzt bearbeitet:
Obwohl CMT gar nicht so schlecht sein kann.(die zweite Integer-Einheit kostet nur 12% mehr Transistoren).:bigok: fdsonne schwenkt Intel bei der Problematik Integer core nicht um bei Haswell.

Fdsonne mehr lesen weniger 20 Zeiler verfassen.Bescheidenheit ist die Tugend der Könige.
 
Zuletzt bearbeitet:
Obwohl CMT gar nicht so schlecht sein kann.(die zweite Integer-Einheit kostet nur 12% mehr Transistoren).:bigok: fdsonne schwenkt Intel bei der Problematik Integer core nicht um bei Haswell.

Am SMT-Konzept ändert sich nichts. Haswell bekommt eine breitere Execution Engine, die aber auch einem einzelnen Thread komplett zur Verfügung gestellt werden kann. Hier liegt der grundlegende Unterschied zu CMT: Dort liegt der 2. Int Kern brach, wenn kein zweiter Thread läuft.

Letztlich sind es zwei verschiedene Design-Ansätze, welche je nach Situation ihre Vorteile haben. Übrigens: Leistungsverluste in all jenen Fällen, wo nicht genügend Threads zur Verfügung stehen, gibt es sowohl bei SMT als auch bei CMT.
 
Bei Computerbase ist man sehr pro Nvidia. Beim Titantest kein Wort zum fehlenden DX11.1 (Konsolen) und kein Wort zum überzogenen Preis. Da ist alles toll an der Karte.

Öhm, da lese ich aber was anderes. "der Preis ist mit 950 Euro unglaublich hoch, sodass kaum jemand den Kauf in Betracht ziehen wird." Zitat CB.
Einen Halbsatz zu 11.1 hätte man vieleicht bringen können, schon um die VTler ruhig zu stellen.Mehr Erwähnung brauchts dann aber nicht, denn ob und wann das eine Rolle spielt steht in den Sternen(siehe das Geschrei um 10.1).

Jetzt aber zurück zum Thema.
 
Zuletzt bearbeitet:
Fdsonne mehr lesen weniger 20 Zeiler verfassen.Bescheidenheit ist die Tugend der Könige.

Das ist der Fluch, wenn man ~500 Anschläge die Minute blind auf der Tastatur hämmern kann :fresse:
Wo andere eben nur zwei drei Zeilen schaffen, schaff ich deutlich mehr. Das spiegelt sich auch in den postings wieder.

PS: du brauchst nen anständigen Monitor, ich sehe genau 11 Zeilen, und das auch nur, weil hinten umgebrochen wird :fresse2:

@Undertaker 1
über Vor/Nachteile von den jeweiligen Designs lässt sich natürlich streiten. Wobei es ja eben typische Anwendungsfälle gibt.
Bei Volllast ist es eher wurscht, ob nun SMT, CMT oder gar nix von beiden.
Der aktuelle CMT Ansatz bei AMD hat für mich aber den gravierenden Nachteil, eben bei wenigen Lastthreads deutlich im Nachsehen zu sein. Da hilft auch der hohe Turbotakt nicht, dies zu kompensieren. Und leider scheint diese Art der Belastung aktuell viel zu häufig noch anzuliegen. CMT vor 7 Jahren wäre interessant gewesen. Also zu Zeiten, wo der zweiter Core noch deutlich die performance verbessert hat, weil mehr Luft ist.
Heute bekommt man alltäglichen Aufgaben die 8 Threader nur extrem gering ausgelastet. Die punktuelle Spitzenbelastung durch einen einzigen Thread bremst aber hier und dort doch noch merklich. -> Meine Meinung.

Um so löblicher finde ich es bei Intel, die IPC Leistung für genau diesen Bereich mit jeder Generation zu steigern. Kleinvieh macht auch Mist :fresse: Und zwischen Core2 und Ivy, bald Haswell liegen Welten in diesem Bereich.
 
Um so löblicher finde ich es bei Intel, die IPC Leistung für genau diesen Bereich mit jeder Generation zu steigern. Kleinvieh macht auch Mist :fresse: Und zwischen Core2 und Ivy, bald Haswell liegen Welten in diesem Bereich.

CMT hat aber auch keinen Nachteil von hoher IPC, ganz im Gegenteil, es profitiert sogar doppelt davon. Klarer Nachteil ist der höhere Stromverbrauch durch die doppelten Einheiten, aber darüber müssen wir hier nicht diskutieren.
 
Nein, das sicher nicht...
Nur anhand aktueller Umsetzungen lässt sich ein dezenter Nachteil erkennen.

Das ist somit extrem Betrachtungsabhängig. 60+60 sind in Summe zwar genau so 120 wie beispielsweise 100+20. Nur besteht der gravierende Nachteil, eben genau mindestens zwei Threads zu benötigen. Wärend die 100+20 Version mit nur einem den deutlich besseren Job machen kann. Dafür bringt die zwei Threadbelastung in Summe aber weniger, weil SMT eben nur weniger Performance absolut dazugewinnt.

Um mal einen Vergleich zu wagen...
Was nutzen mir zwei Kaffeemaschinen, die doppelt so viel Kaffee zur selben Zeit kochen können, wenn ich nur eine Kanne benötige?
Erst wenn zwei Kannen benötigt werden, geht das Konzept auf. -> nur ist der Markt aktuell dort noch nicht angekommen -> Meine Meinung.
Bei Intel kocht die Maschine die eine Kanne Kaffee eben deutlich flotter, dafür benötigt sie für zwei Kannen aber auch klar länger. In Summe ist sie aber immernoch ~15-25% schneller, als zwei Kannen sequenziell hintereinander zu kochen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh