Ivy Bridge-Nachfolger Haswell mit verdreifachter 3D-Leistung?

Kriegt Intel, dann seinen eigenen APP-Store für die CPUs? :d
Ja, und wennst dir aus versehen dann eine osteuropäische, gecrackte Drittfreischaltungslizensierungs App von unter der Ladentheke für 80% billiger als aus den Intel App-Store für deinen Haswell aufspielst, dann hast dir aus deinen Intel einen AMD-FX geflasht! :haha:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nö, wiederlegt wird das erst, wenn man Benchmarks sieht. Intels 10% sind schon sehr niedrig gegriffen, mMn sind ggü Ivy aber die Schwankungen wesentlich höher, weil es sich um eine neue Architektur handelt.

Wir werden eine weitere Evolutionsstufe der Core-Architektur sehen und kein radikal neues Konzept, das ist bereits bekannt. Auch Sandy Bridge war formal eine neue Architektur, letztlich aber nur ein optimierter Nehalem/Westmere (einen nativen 4-Kern-Die in 32nm gab es ja afair nicht). Es wird mit hoher Wahrscheinlichkeit wieder auf leicht gesteigerte IPC + Taktraten und eine Mehrleistung im Bereich von 10-15% hinauslaufen. Das mit der IPC kam ja schon von Fudzilla, dazu werden noch geringfügige Taktsteigerungen kommen.

Dass Haswell-Kerne kleiner sind, kann man schon daran sehen, dass Ivy-E 10 Kerne bekommt und Haswell-E 14, bei gleichem Fertigungsprozess - Sprung Sandy-E auf Ivy-E mit shrink 2 Kerne mehr, Sprung Ivy-E auf Haswell-E 4 Kerne mehr ohne shrink.

In dem Vergleich sehe ich keine Kausalität. Die Die-Size ist keine Konstante und zudem die letzten Jahre sowohl im Desktop als auch im Server-Bereich stetig gesunken - kann also problemlos auch mit einer Generation wieder anwachsen.

Das Die kann auch nicht so furchtbar groß werden, da das Gehäuse sowieso schon sehr klein ist, aber noch ein 32nm-Cache-Die mitbekommt und MCM wird. Bei Broadwell hat man dann die Option auf 6 Kerne im Consumer-Bereich.

Package Size sind 37,5 x 37,5mm = >1400mm². Selbst als BGA - GT2+ muss nicht im BGA-Package kommen - noch 31 x 24mm = >740mm². Ivy Bridge ist als 4C+GT2 ~160mm². Dazu kommt übrigens voraussichtlich ein 128MB DRAM-Chip (32nm-Fertigung??), der ebenfalls ziemlich winzig ist. Da gibt's keinerlei Platzprobleme, selbst mit großzügigen Freiräumen. Bei weiteren IPC- und Taktsteigerungen dürfte es übrigens selbst bei Broadwell kaum Anlass geben, dem Consumer mehr als 4 Kerne zu verkaufen.

Imo: Haswell 4C/GT2+ wird durch leicht wachsende Kerne sowie den kräftig wachsenden GPU-Part auf vielleicht ~200-220mm² kommen, dazu der DRAM-Chip. Es gibt ja einen älteren Leak der von 185mm² spricht, dabei könnte es sich um einen kleineren GPU-Ausbau handeln.
 
Zuletzt bearbeitet:
Wir werden eine weitere Evolutionsstufe der Core-Architektur sehen und kein radikal neues Konzept, das ist bereits bekannt. Auch Sandy Bridge war formal eine neue Architektur, letztlich aber nur ein optimierter Nehalem/Westmere (einen nativen 4-Kern-Die in 32nm gab es ja afair nicht). Es wird mit hoher Wahrscheinlichkeit wieder auf leicht gesteigerte IPC + Taktraten und eine Mehrleistung im Bereich von 10-15% hinauslaufen. Das mit der IPC kam ja schon von Fudzilla, dazu werden noch geringfügige Taktsteigerungen kommen.
Auch jetzt haben wir eine neue Archtektur, nämlich Sandy in effizienter, das bedeutet kleiner aber mit möglichst wenig IPC-Verlust. Dafür wäre er dann besser an den Fertigungsprozess angepasst und es wären endlich höhere Takte möglich. Setzt man die richtigen Programme und Compiler ein, wird man sicherlich auch eine IPC-Steigerung erreichen, aber eben auch nur dann.

In dem Vergleich sehe ich keine Kausalität. Die Die-Size ist keine Konstante und zudem die letzten Jahre sowohl im Desktop als auch im Server-Bereich stetig gesunken - kann also problemlos auch mit einer Generation wieder anwachsen.
Wen interessiert die Die-Size? Es geht um Abwärme. Da war Sandy-E schon sehr heftig, Ivy ist vllt. 15% effizienter in der Praxis aufgrund der relativ hohen benötigten Spannung für 22nm. Die 2 Kerne mehr werden also voll aufgefressen. Wenn Haswell jetzt weniger verbrauchen soll, dass sogar 14 Kerne möglich sind, muss Haswell effizienter und kleiner werden oder wir haben 200W TDP bei der neuen Plattform.
Package Size sind 37,5 x 37,5mm = >1400mm². Selbst als BGA - GT2+ muss nicht im BGA-Package kommen - noch 31 x 24mm = >740mm². Ivy Bridge ist als 4C+GT2 ~160mm². Dazu kommt übrigens voraussichtlich ein 128MB DRAM-Chip (32nm-Fertigung??), der ebenfalls ziemlich winzig ist. Da gibt's keinerlei Platzprobleme, selbst mit großzügigen Freiräumen. Bei weiteren IPC- und Taktsteigerungen dürfte es übrigens selbst bei Broadwell kaum Anlass geben, dem Consumer mehr als 4 Kerne zu verkaufen.
Der Platz ist dennoch begrenzt, da es ein MCM ist. Die Dies müssen auch möglichst latenzarm verbunden werden, das kostet Platz. Es ist was anderes einen RAM-Chip anzubinden (low-level) oder eine Northbridge über QPI wie beim Clarkdale. Zudem verwenden auch die Consumerprogramme immer mehr Threads. Es ist eben ab einem Punkt effizienter, mehr Kerne zu verbauen als die Kerne immer fetter zu machen, weil ab einem gewissen Punkt Multithreading mehr Befehlsdurchsatz ermöglicht. Deshalb haben wir ja überhaupt DualCores, deshalb gibt es Techniken wie SMT.
Imo: Haswell 4C/GT2+ wird durch leicht wachsende Kerne sowie den kräftig wachsenden GPU-Part auf vielleicht ~200-220mm² kommen, dazu der DRAM-Chip. Es gibt ja einen älteren Leak der von 185mm² spricht, dabei könnte es sich um einen kleineren GPU-Ausbau handeln.
Die Kerne werden kleiner, das halte ich für absolut sicher...

Ich frag mich auch, warum jetzt jeder von Intel erwartet, dass sie die pro-Kern-Leistung bis zum sonstwohin treiben. Das ist technisch völlig sinnlos, man braucht das beste Produkt. Darum auch die Fixierung auf die GPU beim Haswell. Intel hat es einfach nicht nötig, die CPU-Kerne immer dicker zu machen. Irgendwann muss man den Absprung hinkriegen und zu Multithreading bei möglichst effizienter IPC-Ausnutzung hinzukommen.
 
Zuletzt bearbeitet:
Auch jetzt haben wir eine neue Archtektur, nämlich Sandy in effizienter, das bedeutet kleiner aber mit möglichst wenig IPC-Verlust. Dafür wäre er dann besser an den Fertigungsprozess angepasst und es wären endlich höhere Takte möglich. Setzt man die richtigen Programme und Compiler ein, wird man sicherlich auch eine IPC-Steigerung erreichen, aber eben auch nur dann.

"Neue Architektur" ist Marketing-Jargon. Prinzipiell sehen wir eine weitere Evolutionsstufe der Core-Architektur. Bei den verkündeten (und ohnehin erwarteten) IPC-Steigerungen sehe ich kein Indiz dafür, dass diese sich nur auf neue Befehlssätze und damit einzelne Fälle beschränken sollten. Ganz im Gegenteil: Spekuliert wird eine kürzere Pipeline und weiter optimierte Caches, dass schlägt sich nahezu überall durch. Ich erwarte, ähnlich wie bei den letzten Neuvorstellungen, eine durchgänig gesteigerte IPC - 10% klingen zunächst ziemlich viel, gemessen am aktuellen Niveau wären auch >5% aber schon beachtlich.

Wen interessiert die Die-Size? Es geht um Abwärme. Da war Sandy-E schon sehr heftig, Ivy ist vllt. 15% effizienter in der Praxis aufgrund der relativ hohen benötigten Spannung für 22nm. Die 2 Kerne mehr werden also voll aufgefressen. Wenn Haswell jetzt weniger verbrauchen soll, dass sogar 14 Kerne möglich sind, muss Haswell effizienter und kleiner werden oder wir haben 200W TDP bei der neuen Plattform.

Vorsicht mit solchen Pauschalisierungen. Der 22nm-Prozess ist vor allem bei niedrigen Spannungen und damit Taktraten im Vorteil, das siehst du z.B. im Notebookbereich, speziell bei den ULV-Modellen. Gleiches wird für die niedrig taktenden Server-Ableger gelten. Haswell-E, der im übrigen noch ewig weit in der Zukunft liegt, muss mit 14 Kernen nicht zwangsläufig höher takten als Ivy-E und profitiert zudem von einem zu dem Zeitpunkt perfekt ausgereiften Prozess.

Der Platz ist dennoch begrenzt, da es ein MCM ist. Die Dies müssen auch möglichst latenzarm verbunden werden, das kostet Platz. Es ist was anderes einen RAM-Chip anzubinden (low-level) oder eine Northbridge über QPI wie beim Clarkdale. Zudem verwenden auch die Consumerprogramme immer mehr Threads. Es ist eben ab einem Punkt effizienter, mehr Kerne zu verbauen als die Kerne immer fetter zu machen, weil ab einem gewissen Punkt Multithreading mehr Befehlsdurchsatz ermöglicht. Deshalb haben wir ja überhaupt DualCores, deshalb gibt es Techniken wie SMT.
Ich frag mich auch, warum jetzt jeder von Intel erwartet, dass sie die pro-Kern-Leistung bis zum sonstwohin treiben. Das ist technisch völlig sinnlos, man braucht das beste Produkt. Darum auch die Fixierung auf die GPU beim Haswell. Intel hat es einfach nicht nötig, die CPU-Kerne immer dicker zu machen. Irgendwann muss man den Absprung hinkriegen und zu Multithreading bei möglichst effizienter IPC-Ausnutzung hinzukommen.

Zunächst einmal stehen maximal 4 Kerne für Haswell im Consumer-Bereich bereits fest. Wie gering der Vorteil von mehr als 4 bzw. 8 Threads im Desktop ist, zeigen unzählige Reviews eindrucksvoll auf. Zudem ist Multithreadleistung/Watt nur einer von vielen Teilaspekten des Begriffes "Effizienz". Dazu gehört auch die Performance bei wenigen Threads sowie die Die-Size. Hinsichtlich der Gewinnmaximierung gibt es keinen Anlass, mehr Kerne als nötig zu verbauen. AMD peilt für die nächsten Jahre Steigerungen von je 10-15% an - solange man dies mit Takt und IPC kompensieren kann gibt es keinen Anlass, hier mehr anzubieten. Ein überwiegender und weiter wachsender Chipanteil wird zudem in Notebooks verbaut, ein weiterer Grund, noch länger mit 4 Kernen auszukommen - auch wenn wir Freaks mehr wollen und die Kerne nicht wirklich viel Fläche einnehmen.

Hier haben wir gleich den nächsten Punkt: Wie groß sind 4 Kerne bei Ivy Bridge - zusammen vielleicht 50mm² inkl. L2-Cache? Wie stark möchtest du diese verkleinern, welches Einsparpotential soll hier überhaupt bestehen wenn gleichzeitig die IPC mit Haswell steigt? Wie oben beschrieben, bietet das Package über 1400mm². Wenn es Platzprobleme für das MCM-Modell GT2+ gäbe, dann sicher nicht wenigen <10mm² CPU-Fläche. Hier redest du ein Problem völlig aus dem Nichts herbei.

Auch die wachsende GPU hat mehrere Gründe. Wie du bereits genannt hast, hält man CPU-seitig einen komfortablen Vorsprung. Speziell im mobilen Sektor gibt es aber die Nachfrage nach schnelleren IGPs um zusätzliche GPUs überflüssig zu machen (-> Stichwort dünne Ultrabooks), gerüchteweise wollte Apple bereits bei Ivy Bridge eine "GT3-GPU". Zudem muss man sich langfristig darauf vorbereiten, die GPU auch für non-3D-Zwecke einzusetzen, egal ob per OpenCL oder "nativ". Das geht nicht von heute auf morgen, sondern wird über mehrere Generationen vorbereitet. Noch liegt AMD GPU-seitig in Führung, das wird Intel so schnell wie möglich aufholen wollen. Eine überlegene GPU-Architektur stampft auch Intel nicht mal eben aus dem Nichts hervor, zunächst geht das nur mit entsprechendem Transistoraufwand und Extras wie dem zusätzlichen DRAM.

Die Kerne werden kleiner, das halte ich für absolut sicher...

Dann hat Intel gezaubert. Höhere IPC, mehr CPU-Leistung, neue Instruktionen und das alles bei sinkender Fläche - nein, das macht bei logischer Überlegung keinerlei Sinn.
 
Zuletzt bearbeitet:
Das schreien nach Achtkernern geht ja auch immense am Markt vorbei, wie viele Anwendungen gibt es die auf Multi-Core optimiert sind? 5% Im Moment?



Wie viel Dualcore Programme gab es als die ersten Dualcores kamen? oder wie viele Quadcores?

Die Programmierer richten sich an den Markt für den sie Programmieren und solange dort kein signifikanter Teil auf 6 oder 8 Kerner setzt ...

Da ist Intel im Zugzwang
 
Wie viel Dualcore Programme gab es als die ersten Dualcores kamen? oder wie viele Quadcores?

Die Programmierer richten sich an den Markt für den sie Programmieren und solange dort kein signifikanter Teil auf 6 oder 8 Kerner setzt ...

Da ist Intel im Zugzwang

Guck dir mal an wie viele Programme heute Quad-Cores brauchen, die gibt es schon seit 5-6 Jahren. Der Prozentsatz ist ähnlich niedrig und dann wird eine weitere Kern/Thread-Erhöhung gefordert. Wir reizen heute im normalen Desktop-Bereich zu 90% nicht mal die Quad-Cores ansatzweise aus, nach wie gesagt 5-6 Jahren. Und Intel ist bestimmt nicht im Zugzwang mit seinem Quasi-Monopol...
 
100% wird es nie geben aber zB in games ist man inzwischen bei über 90% die einen deutlich messsbaren vorteil aus 4 cores ziehen.
was brauch auch ein editor oder word 8kern unterstüzung ...

abgesehen davon das bei Steam noch über 50% der CPUs 2 Kerner sind
und das eben nach 5 Jahren ( Q6600 ist genau 5 Generationen her ), das zeigt doch erst recht das man nicht früh genug anfangen kann

teilweise auch 6 kerne aber schon deutlich seltener weill es sich eben für die paar 600€+ Cpus und amd nicht lohnt

wobei 6 threads ja auch aktuell schon von der xbos kommen ( wobei meistens nur 5 genutzt werden, wegen os und bei kinect spielen sogar nur 4 )

ausserdem kommen wir so nur in einen unnötigen teufelskreis, dadurch das beim pc bei den kernen nichts vorwärts geht werden auch die konsolen nicht auf deutlich mehr kerne setzen was dann wieder die nächsten jahre den pc ausbremst ...
 
Zuletzt bearbeitet:
Hört sich zwar nicht schlecht an, für HighEnd SPiele auf maximum ist das aber nichts. Für mich also kein Kaufargument. Dennoch interessiere ich mich für die neuen CPUs allerdings sollte da der Leistungsunterschied zum Sandy i2500K schon etwas mehr sein also werd ich wahrscheinlich noch länger warten ausser die bringen echt so eine tolle Leistung, mal abwarten.
 
90% ziehen ein deutlich messbaren Vorteil von vier Kernen? 90% der Spiele sind Konsolen-Ports und ignorieren alles über 3 Threads. :d Und genau über 50% haben auch heute noch Dual Cores, weil es schlichtweg meistens ausreicht. Man braucht in den nächsten paar Jahren keine Achtkerner in der breiten Masse im Desktop-Bereich, das wird auch erst kommen von Intel, wenn sie es nicht mehr schaffen die Leistung in die Spitze starkt zu erhöhen, dann wird in die Breite gegangen.

Und der letzte Satz ist ein immenser Trugschluss, die Konsolen bremsen da eher die PC-Entwicklung aus. ;)
 
Das bleibt ja nicht so. Die neuen Konsolen stehen ja in den Startlöchern und zumindest die M$-Variante soll ja sogar nach oben hin skalierbar deisgnt werden (in Sachen Grafikleistung zumindest). Die neuen Konsolen werden mMn aber nicht mehr als 6 Threads weiterhin haben, wahrscheinlich sogar eher 4, weil es sich jeweils um 2 oder 3 BD-Module der Steamroller-Generation handeln dürfte. Es kann ja auch garnicht anders sein, weil bei beiden Herstellern mit AMD-SoC-Hardware und x86 gerechnet wird. Bei Sony ist diese Info als halboffiziell zu betrachten, bei M$ ist es Spekulation. Aber die letzten Dev-Kits bei M$ sind alle x86 gewesen und Intel scheidet sicher als Konsolenlieferant aus, da das M$ einfach zu teuer kommen würde. M$ möchte das Design sicher wieder gerne selbst fertigen wie bei der XBox2, das wäre mit einem Intel-Deisgn nicht möglich. Zudem ist die AMD-Grafik bei der neuen XBox auch ziemlich sicher, sodass ein SoC mit Intel-CPU und AMD-Grafik eher unwahrscheinlich sein dürfte :d. Auch wenn das ein echt cooles Konstrukt wär.
 
Zuletzt bearbeitet:
Meiner Meinung nach haben sehr viele deswegen DualCores weil sie einfach nicht das Geld für einen Quadcore ausgeben wollen. Acht Kerne sind aber dennoch zuviel und braucht keiner zum Zocken. In manchen Games ist es halt schon unsinnig wenn man einen Quad hat aber man will ja etwas Zukunftssicherheit haben.
 
@ [Hot]: Ich bestreite ja weder die Richtung noch, die Entwicklung als solches. Nur Achtkerner braucht man die nächsten zwei bis drei Jahre nicht dringend. Die Entwicklung ist halt relativ langsam in der Software, acht Kerne klingt halt einfach cool, aber nutzlich wärn sie für die wenigsten. ;)
 
Also ich finde die Idee mit der stärker werdenden IGP gut, zwar nicht im Desktop bereich dafür aber im mobilen Einsatz für extrem leichte Lappies.
 
ja man braucht sie nicht da sie niemand hat da niemand für was programmiert das kaum ein mensch hat ne selbsterfüllende prophezeiung sozusagen ...

und bei dem kann eigentlich nur Intel mal ausbrechen aber dazu sind die ja zu sehr auf Gewinn Maximierung fixiert, lieber durch die immer kleineren jegliches OC quasi ausrotten

@ Mick bitte zeig mir eine benchmarkliste wo 90% der games nur von max 3 kernen profitiert da bin ich nämlich echt gespannt ^^

ich sehe in den meisten Benchmarks 20% Unterschied zwischen 2C/4T und 4C/4T
zB
Intel Pentium G840, 2C/2T, 2,8 GHz
Intel Core i5-2300, 4C/4T, 2,80 GHz
2terer ist im Schnitt ca 50% schneller
und
AMD Phenom II X4 975, 4C/4T, 3,60 GHz,
AMD Phenom II X6 1075T, 6C/6T, 3,00 GHz
sind meisten gleich auf obwohl ersterer 20% mehr Takt hat
 
Zuletzt bearbeitet:
Ich finde auch gut was Intel zurzeit macht. Ich hätte nichts gegen einen 16 Kerner Haswell im Mainstream Sockel, aber in Notebooks sind mehr als 4 Kerne zurzeit nicht machbar und hier müssen sie Vorallem die iGPU stärker machen, und das läuft doch Super!

Ich bin erstaunt wie leistungsstark die 17 Watt Ultrabook Prozessoren inzwischen sind. Und die Leistungssteigerungen im hinblick auf die iGPU sind enorm.

Ich werde mir bald das macbook air holen, und denke das das ein toller Prozessor ist, auch wenn ich lieber noch auf Haswell warten würde, da ich nichts gegen eine 3 mal schnellere GPU hätte :-)
 
ja man braucht sie nicht da sie niemand hat da niemand für was programmiert das kaum ein mensch hat ne selbsterfüllende prophezeiung sozusagen ...

und bei dem kann eigentlich nur Intel mal ausbrechen aber dazu sind die ja zu sehr auf Gewinn Maximierung fixiert, lieber durch die immer kleineren jegliches OC quasi ausrotten

@ Mick bitte zeig mir eine benchmarkliste wo 90% der games nur von max 3 kernen profitiert da bin ich nämlich echt gespannt ^^

ich sehe in den meisten Benchmarks 20% Unterschied zwischen 2C/4T und 4C/4T
zB
Intel Pentium G840, 2C/2T, 2,8 GHz
Intel Core i5-2300, 4C/4T, 2,80 GHz
2terer ist im Schnitt ca 50% schneller
und
AMD Phenom II X4 975, 4C/4T, 3,60 GHz,
AMD Phenom II X6 1075T, 6C/6T, 3,00 GHz
sind meisten gleich auf obwohl ersterer 20% mehr Takt hat

Ich sagte drei Threads, der Pentium hat sogar nur zwei und selbst die i3 haben nur zwei logische Threads zusätzlich, welche maximal 25% zusätzliche Leistung bringen. Aber auch egal weil ich sagte nicht mehr als drei Threads, also ringt in 90% mehr als ein Quad-Core gar nichts, und sag du kannst ja mal selber zählen wo hier Ivy Bridge im Test: Intel Core i7-3770K und alle i5-Modelle der Intel Sechskerner, bei niedrigen Auflösungen, um seine 33% mehr Leistung, die er bietet, vorne steht. er steht meistens unter dem 3770k in einem sehr gedrängten Feld.

Aber wenn ich hier Benchmarks liefern soll möchte ich gerne mal sehen wo ein die beiden Phenoms immer gleich auf sind?
 
ich sehe in den meisten Benchmarks 20% Unterschied zwischen 2C/4T und 4C/4T
zB
Intel Pentium G840, 2C/2T, 2,8 GHz
Intel Core i5-2300, 4C/4T, 2,80 GHz
2terer ist im Schnitt ca 50% schneller
und
AMD Phenom II X4 975, 4C/4T, 3,60 GHz,
AMD Phenom II X6 1075T, 6C/6T, 3,00 GHz
sind meisten gleich auf obwohl ersterer 20% mehr Takt hat

Deine Berechnungen sind Falsch ^^ Wenn Du schreibst : "ich sehe in den meisten Benchmarks 20% Unterschied zwischen 2C/4T und 4C/4T" und dann ein Beispiel nennst mit einen P-G840 der keine SMT-Einheit hat, dann passt das nicht, wenn nimm einen i3-2120 : Test: Intel Core i7-3820 (Seite 3) - ComputerBase Der ist laut CB 18% langsamer als der i5-2300, da würde ich den i3 einen verkrüppelten 3Kerner nennen, rechnen wir noch einen Kern dazu, was dann 25%wäre ( 4K 100%- 1Kern 25% ) aber er ist halt nur 18% schneller da passt das wieder nicht ^^

Bei Deinen AMD -vergleich ist der 6er immer dann schneller als der höher getaktete 4K wenn alle Kerne genutzt werden, dass Gesamtergebnis bei zbs. CB verzehrt natürlich auch, wenn man die Benchmarks vergleicht die eine MultiCore Unterstützung haben, in selbigen ist der niedriger getaktete 6er fasst immer 20% schneller, im Gesamtergebnis aber nur 5% auseinander ^^

Noch ein Beispiel für MC-Spieleunterstüzung bei F1-2010 CB: Test: Intel Core i7-3820 (Anhang 29) - ComputerBase
Der AMD 6er 20% schneller als der 4er, noch schlimmer ist es wenn die Multicores dann von einen i3-2120 vernascht werden .

Also die Rufe nach immer mehr Kerne und auch deren Software Unterstützung ist im Grunde lächerlich, wenn ältere oder viele Kerne eines Konkurrenten nicht in der Lage sind neue mit weniger Kernen in der Leistung zuschlagen - ein Hypothetischer Q6660x2 ( 8Kerner ), wäre Heute vllt. sofern die Software sie nutzt so schnell wie ein 25K/3450 - Wenn man jetzt noch die Effizienz mit dazu nimmt, sieht es richtig übel aus ;)

Meine Prognose, bis 2020 hat MC-Soft die max. 2-4Threads nicht zu 50% abgelöst .....

Btw. Ist es nachzuvollziehen das Intel mittlerweile den Fokus mehr auf die iGPU legt, denn nur da sind noch Riesen Sprünge zu erwarten, als in der IPC mit max. 4kerne im DT-Umfeld ;)
 
Zuletzt bearbeitet:
Btw. Ist es nachzuvollziehen das Intel mittlerweile den Fokus mehr auf die iGPU legt, denn nur da sind noch Riesen Sprünge zu erwarten, als in der IPC mit max. 4kerne im DT-Umfeld ;)

Intel muss als GPU-Weltmarktführer, ja auch seine Position behaupten. :d
 
perönlich wären mir ja 2 unterschiedliche architekturentwicklnugen von intel lieb, wenig bis garkeine gpu, dafür hammerstarke cpu im desktop bereich.
und sehr flotte apu im norebookbereich
 
Musst du dir einen Xeon kaufen, die gibt es ohne iGPU. ;) Und ohne OC-Möglichkeiten. :d
 
Also die Rufe nach immer mehr Kerne und auch deren Software Unterstützung ist im Grunde lächerlich, wenn ältere oder viele Kerne eines Konkurrenten nicht in der Lage sind neue mit weniger Kernen in der Leistung zuschlagen - ein Hypothetischer Q6660x2 ( 8Kerner ), wäre Heute vllt. sofern die Software sie nutzt so schnell wie ein 25K/3450 - Wenn man jetzt noch die Effizienz mit dazu nimmt, sieht es richtig übel aus ;)

Das bezweifel ich stark... 22nmvs65nm ist nicht gerade fair. 22nm und aktuelle Fertigungstechnik würden diesem doppeltem q6600 automatisch Effizenz mitbringen. Der Takt war damals schon problemlos Richtung 3ghz zu heben. Den Turbokram gab es ebenfalls nicht. Ein doppelter Q6600 wäre wenn die Software mitspielt ziemlich stark.

Zuviel Marketing ist ungesund. ;)

Fazit : Prozessorkerne analysiert: Ein Performance-Vergleich bei 3 GHz mit einem Kern
 
mir wärs lieber die verschwendette gpu fläche würde für mehr cpu power genutzt..

Nur wozu? Hast du schon mal eine Sandy Brdge oder Ivy Bridge CPU gehabt? Leute wie UHJJ36 müssen die zwar noch OCen, aber für die Normalsterblichen bieten die im Standardtakt schon brachiale Leistung, ich hab meine GTX 580 zu letzt mit einem 2600k in Standardtakt betrieben...
 
ich habe pcs für freunde und bekannt gebaut mit 3570 und 3770k und GTX 670 sowie smasung ssd 830 und auch gebencht und getestet ,also ja.

Wills ganz einfach aus dem grund weil ich weiss es wäre viel mehr möglichu nd es nicht einsehe das es nicht gemacht wird weil opa Hans-Rudolp ja unbedingt sein Word 2000 mit einem 3770 betreiben muss..
 
Intel muss als GPU-Weltmarktführer, ja auch seine Position behaupten. :d
genau ^^
Das bezweifel ich stark... 22nmvs65nm ist nicht gerade fair. 22nm und aktuelle Fertigungstechnik würden diesem doppeltem q6600 automatisch Effizenz mitbringen. Der Takt war damals schon problemlos Richtung 3ghz zu heben. Den Turbokram gab es ebenfalls nicht. Ein doppelter Q6600 wäre wenn die Software mitspielt ziemlich stark.

Zuviel Marketing ist ungesund. ;)

Fazit : Prozessorkerne analysiert: Ein Performance-Vergleich bei 3 GHz mit einem Kern

Natürlich ist das nicht fair, was ist heutzutage denn Fair ? Außerdem hab ich nur ein wenig philosophiert und einen hypothetischen Vergleich genommen, Sandy/Ivy lässt sich auch clocken, macht aber weit über 90% nicht ;)

Nebenbei bemerkt, kauft man ja auch keine MultiCore-CPU auf Vorrat oder für kommende MC-Soft und auch nicht für die Zukunft, ein 2120 ist über 40% schneller als ein q6660, ein q9550 ist nochmal 18% langsamer auf den i3 gerechnet, Grundlage mein CB Link und das bei 45nm auf 32nm ;)

P.S. Wobei man ganz klar festhalten kann, wenn jemand anfangs einen Q6600 gekauft und geclockt hat, hat er fasst 5Jahre ganz weit oben mitgespielt und das teilweise für einen recht fairen Preis ;)

ich hab meine GTX 580 zu letzt mit einem 2600k in Standardtakt betrieben...
Ich hab 2xGTX460 mit einen 2120 befeuert :d
 
Zuletzt bearbeitet:
Wills ganz einfach aus dem grund weil ich weiss es wäre viel mehr möglichu nd es nicht einsehe das es nicht gemacht wird weil opa Hans-Rudolp ja unbedingt sein Word 2000 mit einem 3770 betreiben muss..

Nö das wird nicht gemacht, weil Malte, Tobjörn, Justin und die restlichen 70% der PC-Gamer 400€-PCs betreiben. ;) Opi hat da gar nicht so viel mit zu tun. :d Und das wird auch nicht besseren werden, bei den Preisen die die GPU-Hersteller inzwischen für ihren Elektro-Schrott verlangen...
 
Naja selbst die unbedarften daus die ich kenne geben min 600 euro aus fürn pc, und die meisten wissen auch das man mit ner onboard grafik wenn dann mehr schlecht als recht zocken kann.

ich sag eben nur das in nem 3770k ne hd4000 sinnlos platz wegnimmt da kaum wer das gteil mit der igpu nutzt, anders sieht es dann bei I3s und den klenien I5ern aus
 
Aber genau das ist es ja, da fließt oft schon ein viertel der Summe in eine dezidierte GPU. Intel würde für einen 4770k mit 60% mehr Leistung und ohne iGPU bestimmt nicht nur 290€ verlangen, da läufst du dann geschmeidig auf die 400€ zu und das bau mal in einen 600€ Rechner. ;) Intel hat zum Bedienen von Rand-Gruppen-Wünschen bereits seine Enthusiasten-Plattform, übrigens auch ohne GPU onboard. ;) Dieses Forum ist nicht gerade repräsentativ für die durchschnittliche Desktop-Kundschaft, das sollte man nie vergessen. :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh