Intels "Ivy Bridge" angeblich 20 Prozent schneller als "Sandy Bridge"

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
3.900
<p><img style="float: left; margin: 10px;" alt="intel3" height="100" width="100" src="images/stories/logos/intel3.jpg" />Erst Anfang des Jahres hatte <a target="_blank" href="http://www.intel.com/index.htm?de_DE_03">Intel</a> seine neue Plattform "Sandy Bridge" offiziell vorgestellt. Nun wollen die Kollegen von <a target="_blank" href="http://www.fudzilla.com/">Fudzilla.com</a> bereits erfahren haben, dass der Nachfolger "Ivy Bridge" bis zu 20 Prozent schneller rechnen soll. Bekannt und als sicher gilt bisher nur, dass Intel die neue Plattform in der 22-nm-Technologie fertigt und ebenfalls auf den Sockel LGA 1155 setzt. Dabei sollen die neuen Prozessoren eine ähnliche TDP erreichen dürfen wie ihre Vorgänger. Die 20 Prozent mehr Leistung will Intel durch die kleinere Strukturbereite und...<p><a href="/index.php?option=com_content&view=article&id=18284&catid=34&Itemid=99" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Sandy Brdige"

wäre echt heftig, wie stark die Sprünge zwischen den ganzen Gens sind...
 
Zum Vergleich, brachte der Sprung von der "Nehalem"-Plattform zu Sandy Bridge ebenfalls eine gesteigerte Leistung von etwa 20 Prozent. Dadurch ist diese Leistungssteigerung durchaus realisierbar.
nur mit dem Unterschied das Nehalem Tock & Sandy Bridge Tock waren ;)
Sandy Bridge = Tock
Ivy Bridge = Tick

Tock = Architektur Update
Tick = kleinere Strukturen, DIE Shrink

Ivy Bridge ist nur ein Sandy Bridge shrink, 32 > 22nm, also keine IPC steigerungen, die mehrleistung kommt nur durch mehr Takt zustande, hier sind 20% schon sehr optimistisch gesehen.

Haswell ist wieder Tock, der kommt 2013, dann gibt es auch Bulldozer3 22nm.
 
Zuletzt bearbeitet:
Wenn jetzt welche wegen Bulldozer Sandy Bridge nicht kaufen, vielleicht ist da die Hoffnung,
dass dann welche wegen Ivy Bridge Bulldozer nicht kaufen
 
nur mit dem Unterschied das Nehalem Tock & Sandy Bridge Tock waren ;)
Sandy Bridge = Tock
Ivy Bridge = Tick

Tock = Architektur Update
Tick = kleinere Strukturen, DIE Shrink

Ivy Bridge ist nur ein Sandy Bridge shrink, 32 > 22nm, also keine IPC steigerungen, die mehrleistung kommt nur durch mehr Takt zustande, hier sind 20% schon sehr optimistisch gesehen.

Haswell ist wieder Tock, der kommt 2013, dann gibt es auch Bulldozer3 22nm.

klingt logisch :wink:
 
Die Angabe halte ich nicht für unrealistisch. Intel könnte sicher jetzt schon den Großteil seiner Sandy Bridges mit 20% mehr Takt verkaufen, wenn sie wollten - wenn man sich die OC-Ergebnisse so anguckt, und den Fakt, das selbst ie gelockten Modelle ohne Probleme 4 Multistufen hochschaltbar sind (was bei um die 3 bis 3,5 GHz Basistakt schon über 10% sind).

Der neue, kleinere Prozess wird extra Spielraum geben, dies komfortabel zu tun. Wahrscheinlich werden wir zum ersten mal seit dem Pentium 4 eine CPU auf dem Endkundenmarkt sehen, die einen Basistakt von 3,8 GHz und mehr aufweist.
 
Die Angabe halte ich nicht für unrealistisch. Intel könnte sicher jetzt schon den Großteil seiner Sandy Bridges mit 20% mehr Takt verkaufen, wenn sie wollten - wenn man sich die OC-Ergebnisse so anguckt, und den Fakt, das selbst ie gelockten Modelle ohne Probleme 4 Multistufen hochschaltbar sind (was bei um die 3 bis 3,5 GHz Basistakt schon über 10% sind).

Du kannst aber irgendwelche Otto Normalo OC Listen nicht als Basis für Stabilität ranziehen...
Von den Ergebnissen kannst du wohl getrost 75% wegschmeißen, denn die sind auf biegen und brechen mit möglichst hohem Takt bei möglichst wenig VCore gerade so weit stabil, das es für die Liste reicht...

Ne Stock CPU von Intel oder auch AMD wirst du wohl auch über Wochen Dauerlast nicht aus dem Tritt bekommen. Die Ergebnisse in den Listen schaffen teils nichtmal nen popligen vollständigen LinX oder Prime Custom run...
 
Da hat fdsonne natürlich recht, trotzdem machen fast alle 2500k/2600k Modelle noch 4,0 Ghz mit der Spannung/VID mit, die eigentlich für den normalen Multi x33/x34 vorgesehen ist... und damit mein ich nen Full Custom Run in Prime, also rockstable.

Meine CPU z.B. hat ne VID von 1,200V und packt damit sogar 4,3Ghz. Ist zugegeben schon eine der besseren und auch nicht meine erste, aber 4,0 schaffen sie fast alle... und das sind ja dann schon 600-1000 Mhz ;)
 
Das mag durchaus sein... Aber hier zu pauschalisieren ist sogut wie unmöglich...
Der Hersteller muss die Stabilität quasi garantieren. Denn er weis nicht, was die CPU irgendwann mal berechnen wird... Und auch weis er nicht, wie lange dort hohe Last anliegt.
Man denke nur mal daran, was passieren würde, wenn gewisse CPUs einfach mal ihren Stock Takt mit Stock Spannung nicht machen würden und hier und da instabil währen? Der Imageschaden wäre für den Hersteller enorm...

Und das selbst ein Prime Custom Run noch nicht für 100% Stabilität steht, zeigen einige Beiträge im Netz. Welche eben in Gewissen Situationen dennoch Instabilitäten bemerkt hatten... Wie gesagt, so ein Maß kann sich der Hersteller quasi nicht erlauben...

Auch scheint die Fertigung teils etwas zu schwanken... Manche CPUs aus Herstellungswoche x gehen gut, aus Woche y hingegen eher schlecht...

Wenn Intel gewollt hätte, hätten die sicher auch 5GHz SB CPUs bringen können. Dann halt Handselektiert usw.
Nur steht dann halt wohl die Produktion in keinem Verhältnis mehr zum Ertrag. Weil einfach nur ein winziger Teil diese Taktrate schafft... Mal so mir nix dir nix 20% mehr Takt auf die CPUs zu geben ist flächendeckend über die ganze Palette so einfach nicht machbar. Auch wenn so manche OC Liste da augenscheinlich das Gegenteil vermitteln mag.
 
Zuletzt bearbeitet:
Ich schau auf keine OC-Listen. Ich geh nach dem, was ich über viele Monate in vielen Threads und Signaturen so mitbekommen habe, was Leute sich so als 24/7-Settings einrichten. Und das liegt eigentlich immer so 20%-30% über normal.

z.B.: Core i5-2500K mit Standard 3,7 GHz max Turbo übertaktet auf 4,5 GHz max Turbo. Das sind 800MHz mehr, was schon 21,62% entspricht.

Ich halte es also für durchaus realistisch, dass Intel mit Ivy Bridge ein Nachfolgemodell auf diesem Preispunkt anbieten kann, welches schon @Stock auf deutlich über 4,0 GHz Turbo hochgeht (ob sie es tun werden, steht natürlich in den Sternen).

Und pauschalisiert habe ich auch nicht wirklich... ich habe schließlich "den Großteil der Sandy Bridge CPUs" und nicht "alle Sandy Bridge CPUs" gemeint ;) Es ist mir vollkommen klar, dass immer ein guter Sicherheitspuffer vorhanden sein muss. Ich wollte damit nur ausdrücken, dass 20% mehr Basistakt kein so großer Schritt von den jetzigen Gegebenheiten ist, wie man meinen könnte.
 
Zuletzt bearbeitet:
Und wer garantiert die Stabilität für die dort zu lesenden Werte?
Du sicher nicht...
Reinschreiben kann jeder viel um den längsten zu haben...

Ich wurde auch bisschen komsich angeschaut, mein 2600K braucht ~1,375V für 4500MHz... Und man meinte, die CPU wäre äußerst schlecht... Kann gut sein, das sie nicht die beste ist... Aber ich garantiere mir selbst mit den Settings für mich absolute Stabilität in meinen Anwendungsfällen und das auch über Tage Dauervolllast (Raytracing, Rendering usw.)
Ich glaube solche Tests fahren die wenigsten... Für mal ne Stunde irgend ein Game kann ich getrost auch 0,100V weniger geben...
 
Schön für dich, dass du die Stabilität deiner Übertaktung garantieren kannst. Ist das aber ein Grund, gleich abfällig zu werden, Herr Moderator? Und wie war das noch mit dem pauschalisieren? :rolleyes:

Ich klink mich dann hier mal aus.
 
Da der 2600K inkl. Turbo nach HT4U Messungen unter CPU-Last bereits rund 80W real verbraucht, ohne dass die IGP belastet wird, welche unter Last auch noch rund 15W benötigen dürfte, sind 20% Takterhöhung beim 32nm Sandy Bridge mit den üblichen Hersteller-Sicherheitsspielräumen völlig utopisch, unter Beibehaltung der 95W TDP. Entweder müsste Intel deutlich höhergetaktete CPUs ohne IGP ausliefern oder den TDP-Rahmen erweitern. Und ein 2600K mit HT und stärkster IGP dürfte schon zu den bestselektiertesten Sandy-DIEs gehören, abgesehen vom Xeon-Modell mit 3,5GHz (welches allerdings keine GPU besitzt).
 
Zuletzt bearbeitet:
Schön für dich, dass du die Stabilität deiner Übertaktung garantieren kannst. Ist das aber ein Grund, gleich abfällig zu werden, Herr Moderator? Und wie war das noch mit dem pauschalisieren? :rolleyes:

Ich klink mich dann hier mal aus.

WO bin ich "abfällig"?
Ich bitte um Erläuterung... Gern auch per PM... ;)
 
80W für den CPU-Teil dürften knapp hinkommen, wohl knapp darunter da auch das Xeon Modell ohne IGP noch mit 80W TDP auskommt (selektieren kann man Topmodelle ja auch weiterhin). Den Verbrauch von reiner CPU-Last und reiner GPU-Last kannst du übrigens nicht einfach addieren, die jeweils maximalen Turbomodi springen bei maximaler Belastung nunmal nur an, wenn noch Platz im TDP-Budget ist - also nicht zwangsläufig, eine einfache Addition ist da eine Milchmädchenrechnung.

Weiterhin wüsste ich gerne, wo 15W für die IGP ermittelt wurden sein sollen. HT4U misst ~15W für eine HD5450 im Furmark. Jetzt vergleiche man, wie groß der Verbrauchsunterschied zwischen dem System mit HD5450 und IGP im Furmark ist. Oder rechnet hier jemand einfach mit der Verbrauchsdifferenz zwischen idle und Furmark? Das wäre wiederum vollkommen unsinnig, da Furmark natürlich auch zu einer teilweisen Auslastung und zum Hochtakten des CPU-Teils führt.
 
Zuletzt bearbeitet:
Da hat fdsonne natürlich recht, trotzdem machen fast alle 2500k/2600k Modelle noch 4,0 Ghz mit der Spannung/VID mit, die eigentlich für den normalen Multi x33/x34 vorgesehen ist... und damit mein ich nen Full Custom Run in Prime, also rockstable.
Wie kommst du darauf, dass Prime "rockstable" wäre? Prime als Stabilitätstest ist eigentlich Müll. Damit muss noch lange nichts "rockstable" sein.
 
@Undertaker 1
Die 15W für die IGP waren eine ganz harmlose Schätzung aufgrund von TDP-Werten (2600K 95W TDP <-> Xeon E3-1270 80W TDP), keine Rechnerei aufgrund von Gesamtsystemmessungen.

Interessanter aber dein Vergleich zwischen der 2600K IGP und der HD5450, demnach dürfte die HD3000 eine Art Perpetuum Mobile sein oder gar knapp an der Stromerzeugung dran sein. :d
 
Zuletzt bearbeitet:
Da der 2600K inkl. Turbo nach HT4U Messungen unter CPU-Last bereits rund 80W real verbraucht, ohne dass die IGP belastet wird.

Kannst du mir den Test mal verlinken? Die GPU kannst du nicht so einfach aufrechnen aufgrund des Turbos und der TDP. Das ist ein Zusammenspiel zwischen beiden.


Entweder müsste Intel deutlich höhergetaktete CPUs ohne IGP ausliefern oder den TDP-Rahmen erweitern. Und ein 2600K mit HT und stärkster IGP dürfte schon zu den bestselektiertesten Sandy-DIEs gehören, abgesehen vom Xeon-Modell mit 3,5GHz (welches allerdings keine GPU besitzt).


Ohne IGP wäre eine Möglichkeit. Ich glaube trotzdem, dass es für Intel kein Problem wäre mit dem Basistakt 200-300 Mhz höher zu gehen. Es ist noch nicht einmal gesagt, ob Intel die Spannung beibehält für den Fall. Momentan besteht allerdings kein Bedarf dafür. Was im Notfall noch beim Takt rausgeholt wird sieht man aktuell am X4.
 
@Undertaker 1
Die 15W für die IGP waren eine ganz harmlose Schätzung aufgrund von TDP-Werten (2600K 95W TDP <-> Xeon E3-1270 80W TDP), keine Rechnerei aufgrund von Gesamtsystemmessungen.

Da TDPs nunmal nur die Obergrenze, aber nicht gleich dem realen maximalen Verbrauch sind - gerade bei vielen Intel-Modellen mit teils extrem großzügiger TDP - ist das nicht zielführend. Der Vergleich mit der HD5450 schon eher. :)

Interessanter aber dein Vergleich zwischen der 2600K IGP und der HD5450, demnach dürfte die HD3000 ein Art Perpetum Mobile sein oder gar knapp an der Stromerzeugung dran sein. :d

Nö, aber denk mal drüber nach was noch reinspielt:

- Karte im HD5450 Test war direkt von AMD, im i7 Test von Sapphire - da kann mal schnell ein Mehrverbrauch von 5W oder auch mehr auftreten, die Referenzmodelle sind meist die sparsamsten
- Netzteilwirkungsgrad
- evntl. leicht höhere CPU-Auslastung, der Furmark könnte auf der HD5450 besser performen (liegt der Architektur traditionell sehr gut, keine Ahnung wie das bei der GMA ist)

Aus den 23W Differenz werden damit rein auf die GPU zurückgeführt unter Umständen noch 10W, was die Verbrauchsregion der IGP abschätzbar macht. Ich hoffe ja, wie sehen mittelfristig noch ein umgebautes Board, das die IGP einzeln vermessen kann. Bei der alten GMA HD im i5 661 waren es noch 15W maximal, wenn man jetzt sieht wie viel sparsamer der i7 2600K im aktuellen Test im Furmark ist - 8W weniger trotz deutlich verbrauchsstärkerem CPU-Teil - sind wir da wohl in ganz anderen Dimensionen.
 
Der Vergleich mit der HD5450 schon eher. :)
Ja wirklich toller Vergleich :) Ich glaube du merkst langsam selbst, das er entweder nicht wirklich schlüssig für deine Argumenation ist oder dass meine 15W für die HD3000 IGP gar nicht so utopisch sind (2-3 Watt mehr oder weniger geschenkt).


Nö, aber denk mal drüber nach was noch reinspielt:

Genau das habe ich bereits gemacht ;)


- Karte im HD5450 Test war direkt von AMD, im i7 Test von Sapphire - da kann mal schnell ein Mehrverbrauch von 5W oder auch mehr auftreten, die Referenzmodelle sind meist die sparsamsten
Richtig, und dann greift auch deine Argumentation mit den 15W für die HD5450 unter Furmark nicht mehr.

- Netzteilwirkungsgrad
Der steigt im dem Bereich eher, man kann stark davon ausgehen dass er bei der HD5450-Messung etwas höher lag.


- evntl. leicht höhere CPU-Auslastung, der Furmark könnte auf der HD5450 besser performen (liegt der Architektur traditionell sehr gut, keine Ahnung wie das bei der GMA ist)

Jetzt hast du einen ganz springenden Punkt genannt, der allles verzerrt. Ich brauch gar keine Argumente liefern, die aufzeigen dass eine Ableitung von den HT4U-Gesamtsystemmessungen kaum machbar ist oder diese mehr als wage ist. Du lieferst sie gerade selbst.

Ein weiterer Faktor können die PCIe-Lanes in der CPUs sein, die auch nicht von Luft und Liebe leben, wenn eine Karte gesteckt wird.


Ich hoffe ja, wie sehen mittelfristig noch ein umgebautes Board, das die IGP einzeln vermessen kann. Bei der alten GMA HD im i5 661 waren es noch 15W maximal, wenn man jetzt sieht wie viel sparsamer der i7 2600K im aktuellen Test im Furmark ist - 8W weniger trotz deutlich verbrauchsstärkerem CPU-Teil - sind wir da wohl in ganz anderen Dimensionen.

Ich glaube du machst es dir mit deinen Schlussfolgerung etwas zu einfach, der Sandy Bridge Quad-Core mag unter Vollast deutlich mehr ziehen als der Clarkdale Dual-Core, das muss unter Teillast (afaik belastet Furmark nur einen Kern voll) nicht zwangsläufig auch so sein. Was ich bisher gesehen habe, deutet stark daraufhin dass selbst der Sandy Bridge Quad unter Teillast sparsamer agiert als der Clarkale Dual. Ich hoffe auch, dass wir von HT4U eine Messung an der GPU-Phase sehen, das letzte Mal bem Clarkdale musste man sie ja darauf hinweisen, das eine solche auf den H-Chipsatz-Boards existiert, um korrekte Messungen zu erhalten.
 
Zuletzt bearbeitet:
Ja wirklich toller Vergleich :) Ich glaube du merkst langsam selbst, das er entweder nicht wirklich schlüssig für deine Argumenation ist oder dass meine 15W für die HD3000 IGP gar nicht so utopisch sind (2-3 Watt mehr oder weniger geschenkt).

Genau das habe ich bereits gemacht ;)

Richtig, und dann greift auch deine Argumentation mit den 15W für die HD5450 unter Furmark nicht mehr.

Argumente anywhere? Ich habe Punkte vorgelegt, die in Summe vielleicht gut 10W Differenz erklären können. Wenn du spekulierst, die IGP liegt bei 15W, müsstest du 23W Verbrauchsdifferenz zur HD5450 begründen. Davon habe ich bisher nichts gesehen.

Der steigt im dem Bereich eher, man kann stark davon ausgehen dass er bei der HD5450-Messung etwas höher lag.

Davon sprach ich nicht. Ich rede davon, dass das Delta einer Verbrauchsmessung hinter dem Netzteil um den prozentualen Verlustanteil des Netzteils über der realen Differenz liegt. Ganz einfach in Beispielzahlen: 20W Differenz hinter dem Netzteil bedeutet 16W Differenz vor dem Netzteil bei 80% Wirkungsgrad.

Jetzt hast du einen ganz springenden Punkt genannt, der allles verzerrt. Ich brauch gar keine Argumente liefern, die aufzeigen dass eine Ableitung von den HT4U-Gesamtsystemmessungen kaum machbar ist oder diese mehr als wage ist. Du lieferst sie gerade selbst.

Ich stelle keinen Perfektionsanspruch, den können wir ohne isolierte IGP-Messung nicht hegen. Wenn ich aber einen erheblich niedrigeren Verbrauch sehe als bei einem System mit einer ~15W HD5450 und du sogar eine Rechnung auf Basis von TDP-Werten(!!!, und da willst du Gesamtsystemmessungen verurteilen?) begonnen hast, ist das momentan das Beste was wir haben und reicht für eine Grundtendenz. Ob wir jetzt über 3W, 5W oder 8W Realverbrauch reden, will ich gar nicht weiter erörtern. 15W und damit das Niveau der HD5450 sehe ich bei so eklatant abweichenden Messwerten als nicht begründbar, wenn auch du anscheinend keine schlüssige Theorie für 23W Abweichung vorweisen kann - widersprich mir, wenn dies anders ist.

Ich glaube du machst es dir mit deinen Schlussfolgerung etwas zu einfach, der Sandy Bridge Quad-Core mag unter Vollast deutlich mehr ziehen als der Clarkdale Dual-Core, das muss unter Teillast (afaik belastet Furmark nur einen Kern voll) nicht zwangsläufig auch so sein. Was ich bisher gesehen habe, deutet stark daraufhin dass selbst der Sandy Bridge Quad unter Teillast sparsamer agiert als der Clarkale Dual.

Ein i7 2600K ist durchaus sparsam, weniger als ein ebenfalls in 32nm gefertigter Clarkdale-Dualcore verbraucht er aber auch bei Teillast nicht. ;) Ungenutzte Kerne schlafen legen kann dieser bei Teillast bereits genauso. Messungen der Leistungsaufnahme bei verschiedenen Threadzahlen sind z.B. bei Notebookcheck zu finden (dort für Mobilversionen, das sollte für den Eindruck allerdings reichen). Du kannst ansonsten natürlich erläutern, aus welchen Werten du entnimmst, dass der i7 2600K bei einem Thread weniger verbraucht als der i5 661.

Ansonsten bleiben wir doch gerne beim Vergleich zur ~15W HD5450, welche einen eklatanten Mehrverbrauch zur Sandy Bridge IGP aufweist. Noch dazu, darauf solltest du nach mehrfacher Erwähnung nun auch mal eingehen, lassen sich Maximalverbräuche von CPU und GPU nicht addieren - der Turbo wird nur aktiv, wenn noch TDP-Reserven bestehen. Es spräche nichts gegen ein Modell, dass z.B. nur bei nicht-Nutzung der IGP überhaupt den CPU-Turbo zündet - dafür aber mit deutlich höherem Ausgangstakt kommt.

Ich spekuliere, dass wir ähnlich wie bei Lynnfield, dabei sicherlich in Abhänigkeit von der Stärke der Konkurrenz, noch stärkere Modelle als den i7 2600K bis zum Start von Ivy Bridge sehen werden. Ob man ein bestehendes Potential von mehreren 100MHz innerhalb der 95W TDP-Klasse auch wirklich vollständig ausnutzen wird, bleibt ein anderer Punkt. Die 20% Zuwachs für Ivy Bridge von Fudzilla dürften sich dann auch auf dieses kommende Topmodell beziehen.

Im GPU-Part gab es afair bereits Gerüchte zu einer weiteren Leistungsverdoppelung - mal schauen, ob es 16 oder 24 EUs werden, so die Spekulationen bisher.
 
Zuletzt bearbeitet:
+20%, nicht schlecht. Die Sandys gehen ja ab wie ein Zäpfchen.

Ich hoffe nur, dass sie sich dann erst einmal darauf konzentrieren, die IGPs zu verbessern. Da sehe ich derzeit ein weitaus größeres Verbesserungspotenzial.
 
Bleibt zu hoffen, dass dabei auch der IGP Treiber verbessert wird.
 
Was mich allerdings zunehmend wundert, warum legt man auf einmal primär so viel Wert auf die IGP?

Ich mein zum zocken ist das Teil so oder so ungeeignet. Und für den Desktop Betrieb reicht es aus... Da reicht selbst die "kleine" Version der Sandy aus.
Videobeschleunigung geht imho wohl auch recht brauchbar...
Warum also mehr? Was bringt es für einen Vorteil? Es geht doch alles?
 
Wie kommst du darauf, dass Prime "rockstable" wäre? Prime als Stabilitätstest ist eigentlich Müll. Damit muss noch lange nichts "rockstable" sein.

Muss nicht, aber ist doch meist so, zumindest meiner Erfahrung mit 5 SB Cpus nach.

Prime Custom durch = Keine Probleme mit Linx, allen Spielen, Encoding, Torrent (und das u.A. auch gleichzeitig).

Mehr kann ich hier nicht testen und brauch ich auch nicht.

Aber der Unterschied ist enorm, wie fdsonne schon meinte. In der OC Liste steh ich mit 1,092V für 4,0Ghz. "Rockstable" war er dann bei 1,14V. Selbiges gilt für 4,2, würde auch mit 1,14V laufen in Spielen, hab aber 1,176V anliegen.
 
Zuletzt bearbeitet:
Wie oben ergänzt, IGP wird wohl wieder etwa verdoppelt werden:

Verdoppelt Intel die Shadereinheiten bei


Ne, die letzte Meldung geht von 16 EUs aus, also einer 33% Prozent Steigerung der Ausführungseinheiten. Fudzilla hat sich da selber korrigiert. Klingt auch realistischer. Darauf kann man trotzdem nicht auf die performance schließen. Die letzten Generationen kamen alle mit 12 EUs aus.


Was mich allerdings zunehmend wundert, warum legt man auf einmal primär so viel Wert auf die IGP?

Sprichst du vom Desktop oder allgemein von der IGP? In Notebooks ist das doch eine gefragte Sache. Es gab immer schon Notebooks mit integrierter Grafik und die wird es auch immer geben. Wenn die Leistung dann steigt kann das nur gut sein. Für HTPCs auch ganz gut. Mit der DX11 Generation, ob Llano oder Ivy Bridge, kann man sicherlich billige OEM Rechner zusammenstellen anstatt einer billigen Einstiegskarte. Als ambitionierter Spieler braucht es eine dedizierte Karte, das ist klar.
 
Die IGP Leistung soll nach wie vor doppelt so schnell werden.

Ihr dürft nicht vergessen das Ivy's IGP die erste GPU in einem 22nm Prozess wird. Vllt dreht Intel diesmal heftig am Takt. Die IGP bei Sandy war ja nur sehr schwach getaktet und sogar sehr unterschiedlich, je nach Version.

Aktuelle dedizierte Grafikkarte schaffen 900-1000 Mhz.

Intel könnte somit Waferarea sparen und gleichzeitig doppelt so schnell sein. Zumal man die Geschwindigkeit nicht nur durch die Anzahl der Einheiten und dem Takt sondern auch durch die Architektur erhöhen kann. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh