Intels "Ivy Bridge" angeblich 20 Prozent schneller als "Sandy Bridge"

Sprichst du vom Desktop oder allgemein von der IGP? In Notebooks ist das doch eine gefragte Sache. Es gab immer schon Notebooks mit integrierter Grafik und die wird es auch immer geben. Wenn die Leistung dann steigt kann das nur gut sein. Für HTPCs auch ganz gut. Mit der DX11 Generation, ob Llano oder Ivy Bridge, kann man sicherlich billige OEM Rechner zusammenstellen anstatt einer billigen Einstiegskarte. Als ambitionierter Spieler braucht es eine dedizierte Karte, das ist klar.

Neja eigentlich egal ob Notebook oder Desktop...
Vllt denk ich auch nur zu kurzsichtig... Ich hab ein Intel i5 Notebook der alten Generation (für die Arbeit) und die Leistung der IGP reicht vollkommen aus.
Gleiches gibt für ne normale Officekiste als Desktop PC... Die IGP Leistung macht alles das, was man braucht... Gehts in Richtung 3D (Games oder anderes) so Bedarf es so oder so ner dedizierten GPU. Und ob da nun ne horn alte IGP aus Core2 oder Core Zeiten im Notebook steckt, oder ne aktuelle IGP aus SB Notebooks ist irgendwie rein vom subjektivem Arbeitsgefühl ziemlich egal...

Im HTPC brauch ich auch keine "starke" GPU. Das einzige was sie halt können sollte, wäre aktuelle Videoformatbeschleunigung... (aber das hat ja mit der absoluten Leistung weniger zu tun, sondern eher mit dem Featureset)

Mir erschließt sich also der Vorteil nicht, den quasi damals geführten Schritt (eben Grafikberechnungen von der CPU zu trennen) nun wieder zurück zu gehen... Und das auch noch als gut zu verkaufen.
Ich würde viel eher einen anderen Weg für gut befinden... Weil du Notebooks angesprochen hast, dort läuft das zum Teil schon. Nämlich ne ganz kleine IGP für wirklich die Basis und bei Bedarf die Möglichkeit zum umswitchen auf ne "starke" Zusatzkarte für 3D und sonstige GPU basierte Software.



Mein weiteres persönliches Bedenken an der Geschichte ist einfach, der der ne dedizierte GPU verwenden will, der wird trotzdem gezwungen die IGP mitzukaufen (welche es sicher nicht für Lau gibt)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Neja eigentlich egal ob Notebook oder Desktop...
Vllt denk ich auch nur zu kurzsichtig... Ich hab ein Intel i5 Notebook der alten Generation (für die Arbeit) und die Leistung der IGP reicht vollkommen aus.
Gleiches gibt für ne normale Officekiste als Desktop PC... Die IGP Leistung macht alles das, was man braucht... Gehts in Richtung 3D (Games oder anderes) so Bedarf es so oder so ner dedizierten GPU. Und ob da nun ne horn alte IGP aus Core2 oder Core Zeiten im Notebook steckt, oder ne aktuelle IGP aus SB Notebooks ist irgendwie rein vom subjektivem Arbeitsgefühl ziemlich egal...


Muss ich widersprechen. Ich finde nicht das es so oder so eine dedizierte braucht zum gamen. Es gibt auch Leute die einfach nur mal gelegentlich Spielen wollen, auch wenn das Spiel nur mit niedrigen Details läuft. Man glaubt gar nicht was auf IGPs manchmal so alles läuft. Mein Bruder hat auf dem Notebook mit einer ollen GMA950 Stalker oder Trackmania gespielt. Da wäre schon eine HD3000 eine massive Verbesserung. Und ich glaube die Zielgruppe der "casual gamer" ist sehr hoch.
 
Was mich allerdings zunehmend wundert, warum legt man auf einmal primär so viel Wert auf die IGP?

Ich mein zum zocken ist das Teil so oder so ungeeignet.

Zeitgeist. Sie sind stromsparend, absolut geräuschlos, erzeugen wenig Abwärme, kosten nicht viel und man kann mit ihnen sehr wohl zocken.

Nicht jeder muss mit höchsten Details in 1080p zocken - manchen reicht auch 720p und dann reichen die IGPs bereits für endlose Stunden Alien Swarm, Sauerbraten oder ältere Spiele wie Bioshock, Half-Life 2, Doom 3, Gothic 2 etc.

Und für einen HTPC reichen sie sowieso in allen Belangen.

Die IGP war bei mir z.B. der Grund, warum ich zu einer vergleichsweise lahmen AMD CPU gegriffen habe. Lieber wäre mir eine schnelle Intel CPU gewesen - aber dazu müsste Intel halt erst einmal ihren IGP Treiber ordentlich hinkriegen.

Wenn ich das aus den Tests richtig in Erinnerung habe, gibt es Spiele, da bleibt das Bild einfach schwarz, weil die Intel IGP das nicht darstellen kann. So etwas geht natürlich gar nicht.

Aber ich denke es besteht Hoffnung, denn über den 1156 und 1155 hat die Treiberunterstützung von Intels IGP gewaltige Fortschritte gemacht. Wer weiß, vielleicht ist die IGP in der Ivy Bridge dann endlich treibertechnisch voll auf der Höhe der Zeit.
 
Wie kommst du darauf, dass Prime "rockstable" wäre? Prime als Stabilitätstest ist eigentlich Müll. Damit muss noch lange nichts "rockstable" sein.

Endlich schreibt jemand was ich seit Wochen im OC Thread schreibe ,danke


@ralle_h .die ganzen Listen sind doch Mumpitz ,ausser die max Liste ,weil da tweakt keiner das er den vcore drücken kann ,sondern man tweakt um mehr Takt zuschaffen
 
Zuletzt bearbeitet:
Ja ihr mögt da zwar recht haben... Aber die IGP ist ganz klar nicht für den Gamermarkt gemacht. Und dementsprechend kann man auch die Softwareunterstützung/Treiberunterstützung für diese nicht auf die Goldwage legen. (sehe ich zumindest so)


Ich störe mich an dem Punkt auch nicht irgendwie darin, jetzt umbedingt die IGPs Gamerready machen zu müssen, sondern viel eher daran, das eben jetzt der Anwender eine CPU kauft wo ne vergliechsweise (zum CPU Teil) großer GPU Teil drin steckt, der ihm teils gar nix nutzt...
Der in meinen Augen deutlich bessere Weg wäre doch, ein nahezu komplettes Abschalten von dedizierten Grafikkarten zu ermöglichen und für den Officebetrieb einfach ne IGP zu nutzen. So kann die IGP schön klein gehalten werden, der User nutzt für mehr eben auch wie sonst üblich dedizierte Karten und alle sind glücklich.

Oft kommt bei dem Thema Stromverbrauch dedizierter Karten ja der Umwelt Aspekt ins Spiel. Die Frage ist doch aber, was schadet mehr, das Herstellen der IGP für jedermann (wo viele diese gar nicht nutzen können/wollen) oder der Mehrverbrauch durch dedizierte Karten.
Auch muss ich ehrlich zugeben begrüße ich den Schritt GPU in CPU nicht sonderlich. Eben weil mir als Endkunde die Entscheidungsfreiheit genommen wird, ob ich ein System mit OnBoard Grafik will oder nicht.
Und das letzte ist eben so ne Sache, vor allem wenn man noch die Zeiten erlebt hat, wo teils CPU/RAM fix aufs Board gelötet war und man quasi nix Aufrüsten/wechseln konnte, was die Kernkomponenten angeht.
 
Zuletzt bearbeitet:
kann Ivy Bridge DX11? dann könnte es vllt. wegen GPGPU sein.

Klar hat der DX11 Support oder soll man 2012 noch auf DX11 verzichten :fresse2:

intel_ivy_bridge_pcie3lfxx.jpg


33% mehr EUs als Sandy Bridge wird für Llano aber nicht ausreichen

Sandy Bridge = 12 EUs
Ivy Bridge = 16 EUs

444wdu2zpmb.jpg
 
Zuletzt bearbeitet:
Sandy Bridge hat identisch viele EUs wie Clarkdale - und die GPU-Leistung dennoch verdoppelt. Wie schonmal geschrieben: Eine Leistungsverdoppelung der IGP ist zu erwarten, ob dies über 16 EUs mit mehr Takt oder Durchsatz oder auf anderem Wege geschieht, ist dabei erstmal nebensächlich. Wie das dann gegen Llano aussehen wird, kann man wohl frühestens nach ersten unabhänigen Benches zu diesem sagen.
 
Und das selbst ein Prime Custom Run noch nicht für 100% Stabilität steht, zeigen einige Beiträge im Netz. Welche eben in Gewissen Situationen dennoch Instabilitäten bemerkt hatten... Wie gesagt, so ein Maß kann sich der Hersteller quasi nicht erlauben...

.

Dazu braucht man nichtmal weit weg zu gehen mit Folding werden Lastzustände hergestellt bei denen die CPUs zu 90% mindestens eine wenn nicht gar 2 Stufen mehr Vcore für den selben Takt wie unter Prime zugeben müssen um Zero Error zu erreichen
 
33% mehr EUs als Sandy Bridge wird für Llano aber nicht ausreichen

Die EUs sagen nichts über die Leistung aus. Beim Takt ist die GPU sehr variabel. Wenn Llano wirklich nur die 80% Voraus ist, könnte Intel das unter Umständen kontern.
 
Die Radeon IGP bei Llano kann Grün auch höher takten, man darf nicht vergessen das die Radeon GPU Shader auch noch durch die K10 CPU limitiert werden.
 
Zuletzt bearbeitet:
Die Radeon IGP bei Llano kann Grün auch höher takten, man darf nicht vergessen das die Radeon GPU Shader auch noch durch die K10 CPU limitiert werden.

Hast du Llano schon ausprobieren dürfen? Wie willst du denn jetzt das Taktpotenzial der Llano GPU abschätzen können?
 
Unterschätze nicht die 32nm SOI Fertigung (inkl. HighK / ULK), das ist kein bulk Prozess wie bei Zacate, auch die GPU hat durch 32nm SOI Vorteile, Grün wird mit sicherheit selektierte Chips aussortieren und nachträglich Modelle mit mehr GPU Takt nachschieben.

amd-fusion-llano-09cr5npj1.jpg
 
Zuletzt bearbeitet:
Wenn Llano nur knapp doppelt so schnell wie die Intels HD3000 wäre (bzw. AMDs HD5450), spricht das für eine extreme Bandbreitenlimitierung. Nur mal zum Vergleich: Eine 320 Shader starke HD5570 ist bereits 3x so schnell wie HD3000/HD5450, eine 400 Shader und GDDR5-bestückte HD5670 bereits 4x so schnell. Entweder sind die Werte der Folie also viel zu defensiv (unwahrscheinlich), die GPU-Taktraten des "Llano 1,8GHz" werden extrem niedrig (<400MHz? Ebenfalls sehr unwahrscheinlich), oder aber das Speicherinterface für eine GPU dieser Rechenleistung ist einfach viel zu schmal. Sandy/Ivy Bridge haben da den Vorteil des mitgenutzten L3-Caches, wobei zumindest bei Sandy Bridge noch die Rechenleistung für eine wirkliche Konkurrenz zur Spieleleistung von Llano fehlen wird. Bei Ivy Bridge möchte ich wie gesagt jetzt noch keine Prognosen wagen.
 
Unterschätze nicht die 32nm SOI Fertigung (inkl. HighK / ULK), das ist kein bulk Prozess wie bei Zacate, auch die GPU hat durch 32nm SOI Vorteile, Grün wird mit sicherheit selektierte Chips aussortieren und nachträglich Modelle mit mehr GPU Takt nachschieben.


Ich unterschätze hier gar nichts. Problem ist halt das niemand weiß wie nah die Taktraten am möglichen sind die AMD für Llano wählt. Ich bin davon ausgegangen, das für die Benchmarks auf der Folie ein Llano mit finaler Taktrate gewählt wurde, um Llano bestmöglich darzustellen. Und nachschieben wird AMD gewiss, ich glaube es gab dahingehend schon Gerüchte für ein Update in Q4 (oder war es Zacate?) Für AMDs GPU hängen die Trauben aber nunmal sehr hoch, wenn die nicht mindestens doppelt so schnell wie Intels IGP rechnet wäre das erstaunlich.
 
@Undertaker
Ich zieh mir bestimmt nicht diesen Schuh an einerseits die kuriosen IGP-Messwerte von HT4U und anderseits deine Interpertation dazu plausibel hinzubiegen.
Man muss doch bei dieser Messung festhalten, dass die IGP des i5-661 nach Messungen von HT4U wie die HD5450 real 15W unter Furmark verbraucht, dieses Clarkdale-System liegt dabei allerdings nur einige Watt vom Sandy Bridge-System unter Furmark entfernt.

Und deine Annahme ein i7 2600K würde unter Teillast mehr verbrauchen als ein i5 661 scheint alles andere als haltbar zu sein:

Power Consumption Results : Efficiency Comparison: Sandy Bridge Vs. Intel And AMD CPUs
Integrated Graphics Efficiency Results : Efficiency Comparison: Sandy Bridge Vs. Intel And AMD CPUs

Sowohl der i7 2600K als auch der i5 661 haben eine System-Idle/Load-Delta von ~25W. Bei Auslastung eines Kerns verbrauchen also beide CPUs gleich viel.

Hier sieht es ebenfalls für einen Sandy Bridge unter Teillast besser aus als für einen Clarkdale: Sandy Bridge, Part 1: Intel GMA HD 3000/2000 Graphics | silentpcreview.com

Auch ist die Prime95/Prime95 + Furmark-Delta bei Sandy Bridge und Clarkdale bis auf +/-1 Watt identisch. Demnach dürften die IGPs beider CPUs ähnlich viel verbrauchen: Sandy Bridge, Part 1: Intel GMA HD 3000/2000 Graphics | silentpcreview.com

Man muss aber auch in Frage stellen ob Furmark die Intel-IGPs überhaupt richtig bzw. maximal auslastet. c't beispielsweise ermittelt folgende Werte ohne aber das Auslastungs-Tool zu nennen (ich zitiere Mondrial):

System der c´t: Intel DH67BL, 4GB RAM, SSD, 80+ NT, Maus+Tastatur

Verbrauch idle: 24W
" CPU-load: 101W
" CPU+IGP-load: 129W

Hier ist zwar das NT mit drin, aber es wurde ein kleines effizientes 80+ Bronze NT verwendet (Wirkunsgrad ca. 85% bei dieser Auslastung) und ein Intel-eigenes Board mit gewöhnlich sehr guter Effizienz und idealen Spannunsganpassungen verwendet. i5 661-Systeme mit diversen H-Chipsatz-Boards hatten in der Vergangenheit bei c't auch eine CPU-Load/CPU+GPU-Load-Delta von ca. 30W (beim MSI-LGA1156-Board lag die Delta sogar nur bei 25W(!), HT4U hat übrigens auch ein MSI-LGA1156-Board umgebaut zur Clarkdale-IGP-Verbrauchsermittlung).

Die HD3000 des 2600K kann demnach unmöglich nur wenige Watt verbrauchen, eher wird der Verbrauch bei Maximalauslastung (Furmark ist da zweifelhaft als Mittel, da GPU-Hersteller per Treibertricks die Auslastung bei dem Tool nicht zum erstemal begrenzen) nur knapp unter einer i5-661 IGP liegen, ich gehe von ca. 12-13 Watt real aus, was gut zum 15W TDP-Spielraum, den sich Intel mit dem Weglassen der IGP beim Xeon erkauft, passen würde.


Nun will ich noch auf diesen Punkt von dir eingehen:

Noch dazu, darauf solltest du nach mehrfacher Erwähnung nun auch mal eingehen, lassen sich Maximalverbräuche von CPU und GPU nicht addieren - der Turbo wird nur aktiv, wenn noch TDP-Reserven bestehen

Wenn noch genug Reserven da wären vom 2600K ausgehend, dürfte doch keine Befürchtung bestehen, das sowohl CPU als auch GPU gleichzeitig per Turbo voll ausgefahren werden können. Also entweder ist dann tatsächlich kein Spielraum innerhalb der TDP mehr vorhanden oder die Temperatur steigt zu sehr an bei gleichzeitiger intensiver Auslastung von CPU+GPU (afaik wird der Turbo temperaturanhängig zugeschalten oder gedrosselt). Wenn also der Turbo nicht mehr greifen kann, warum sollte dann ein genereller Taktanstieg (Grundtakt) möglich sein?

Ein Modell ohne IGP (wie der Xeon) oder eines das nur den CPU-Turbo aktiviert wenn keine IGP genutzt wird, wäre zwar eine Lösung, aber letztendlich auch ein Eingeständnis, das erst Spielraum geschaffen werden muss. Wobei im Laufe der Zeit immer wenigstens 100-200MHz Mehrtakt gehen, das sieht man auch am Beispiel AMD (allerdings ist der 32nm Prozess bei Intel vermutlich schon sehr weit fortgeschritten in seiner Optimierung, das war der 45nm Prozess bei AMDs Deneb am Anfang nicht).
 
Zuletzt bearbeitet:
Wenn also der Turbo nicht mehr greifen kann, warum sollte dann ein genereller Taktanstieg (Grundtakt) möglich sein?


Mit dem Turbo erhöht sich auch die Spannung leicht. Ein leicht erhöhter Grundtakt dagegen setzt die Annahme einer unveränderten Spannung voraus. Dann sollte sich der Verbrauch kaum steigern. Das gleiche beim Turbo in grün. Die 15 Watt Mehrverbrauch mit aktivem Turbo kommen fast nur von der geringfügig höheren Spannung. Solange Intel also Modelle mit mehr Takt und gleichbleibender Spannung selektieren kann, solange sollte das möglich sein.
 
Und deine Annahme ein i7 2600K würde unter Teillast mehr verbrauchen als ein i5 661 scheint alles andere als haltbar zu sein:

Power Consumption Results : Efficiency Comparison: Sandy Bridge Vs. Intel And AMD CPUs
Integrated Graphics Efficiency Results : Efficiency Comparison: Sandy Bridge Vs. Intel And AMD CPUs

Sowohl der i7 2600K als auch der i5 661 haben eine System-Idle/Load-Delta von ~25W. Bei Auslastung eines Kerns verbrauchen also beide CPUs gleich viel.

Entweder du wolltest etwas anderes schreiben, oder aber hast den falschen Link gebracht. Ich sehe da 58W Volllast-Delta beim i5 661 und 104W Differenz für das 2600K System. Aha. Und das bedeutet jetzt was? Oder möchtest du jetzt etwa behaupten, dass man die Werte jetzt einfach durch 2 bzw. 4 teilt und den Verbrauch bei 1-Kern Belastung herausbekommt? Das ist hoffentlich nicht ernst gemeint.

Edit: Und doch liefert uns dein einer Link eine sinnvolle Information:

http://www.tomshardware.com/reviews/sandy-bridge-efficienct-32-nm,2831-8.html

Im Efficieny Run Singlethread ist der 2600K knapp 13% besser als der i5 661. Nun ist der 2600K Singlethreaded aber weitaus schneller als diese 13% - ergo der i5 sparsamer. Damit hättest du meine Aussage bewiesen.

Auch ist die Prime95/Prime95 + Furmark-Delta bei Sandy Bridge und Clarkdale bis auf +/-1 Watt identisch. Demnach dürften die IGPs beider CPUs ähnlich viel verbrauchen

Die Argumentation klappt nur, wenn mit deaktiviertem Turbo getestet wird. Ansonsten beeinflusst sowohl bei Clarkdale als auch Sandy Bridge die Auslastung der CPU den GPU-Takt und umgekehrt - somit kommt auch bei einer architekturübergreifenden Verbrauchsanalyse nur noch Unfug heraus. War hier Turbo deaktiviert?

Wenn noch genug Reserven da wären vom 2600K ausgehend, dürfte doch keine Befürchtung bestehen, das sowohl CPU als auch GPU gleichzeitig per Turbo voll ausgefahren werden können.

Der Turbo ist nicht umsonst kein garantiertes Feature für jeden Belastungszustand. Die TDP muss für Standardtaktraten bei paralleler CPU+GPU-Last genügen - mehr nicht! Ein Modell, dass beispielsweise jeglichen CPU-Turbo ausschließlich bei dezidierter Grafikkarte nutzen kann, würde jeglichen Designrichtlinien genügen.
 
Zuletzt bearbeitet:
Wow, laut Benchmark scheint Ivy Bridge ja ein echter Knaller zu werden.

An welchem Benchmark ich das erkenne? An der Anzahl der AMD Reklame Folien, die im Ivy Bridge Thread gepostet werden. :fresse:
 
Mit dem Turbo erhöht sich auch die Spannung leicht. Ein leicht erhöhter Grundtakt dagegen setzt die Annahme einer unveränderten Spannung voraus. Dann sollte sich der Verbrauch kaum steigern. Das gleiche beim Turbo in grün. Die 15 Watt Mehrverbrauch mit aktivem Turbo kommen fast nur von der geringfügig höheren Spannung. Solange Intel also Modelle mit mehr Takt und gleichbleibender Spannung selektieren kann, solange sollte das möglich sein.

Wie bereits gesagt, 100-200MHz CPU-Mehrtakt könnten im Laufe der Zeit/nach einer gewissen Optimierungsphase immer mal drin sein. Die ursprüngliche Infragestellung bezog sich auf 20% Taktsteigerung.

Was die Selektion von sehr guten DIEs betrifft, hier sollte man noch berücksichtigen, dass der Aufwand und damit die Kosten steigen, je höher die Ansprüche (an Takt/Leistungsaufnahme) hochgeschraubt werden. Intel wird im Mainstream-Massenmarkt vermutlich möglichst wirtschaftlich bleiben wollen, Margen und Aktionäre dürfte Priorität haben.

Als Kampfmittel gegen AMDs 4 Modul-Bulldozer hat Intel momentan ja eh noch den Westmere Hexa-Core (den man preislich noch stärker anpassen kann, wenns nötig wird). Intel muss mit Sandy Bridge-Steigerung ohnehin aufpassen, sonst attackiert man die eigenen Hexa-Cores zu sehr. Das bereits der i7 2600K den i7 980X in Spielen schlägt, dürfte für einige LGA1366-Enthusiasten/Gamer ohnehin schon ein nicht ganz leicht zu verdauender Brocken sein.


Entweder du wolltest etwas anderes schreiben, oder aber hast den falschen Link gebracht. Ich sehe da 58W Volllast-Delta beim i5 661 und 104W Differenz für das 2600K System. Aha. Und das bedeutet jetzt was? Oder möchtest du jetzt etwa behaupten, dass man die Werte jetzt einfach durch 2 bzw. 4 teilt und den Verbrauch bei 1-Kern Belastung herausbekommt? Das ist hoffentlich nicht ernst gemeint.

Den Verbrauch bei Teillast (1-Kern Belastung) sieht man doch im 2. Link:

i7 2600K-System -> 57W (bei 32W Idle) -> Idle/1 Kern-Last-Delta = 25W
i5 661-System -> 55,6W (bei 31W Idle) -> Idle/1 Kern-Last-Delta = 24,6W


Edit: Und doch liefert uns dein einer Link eine sinnvolle Information:

Integrated Graphics Efficiency Results : Efficiency Comparison: Sandy Bridge Vs. Intel And AMD CPUs

Im Efficieny Run Singlethread ist der 2600K knapp 13% besser als der i5 661. Nun ist der 2600K Singlethreaded aber weitaus schneller als diese 13% - ergo der i5 sparsamer. Damit hättest du meine Aussage bewiesen.

Sieht so aus als hättest du nochmal nicht genau hingeschaut:

Das i7 2600-System hat währende der Single-Thread Applikation eine Leistungsaufnahme von 57W und das i5-661 System von knapp 56W. Das Clarkdale-System hat dabei den Vorteil eines (um 1 Watt im Idle) sparsameren Boards.

Um die Applikation zu durchlaufen braucht das i7 System 8:57 Min (-> 537 Sek.), das i5 661 System benötigt 10:20 Min (-> 620 Sek.).

Dadurch ergibt sich:

i7 2600-System -> 57W x 537 Sek. = 30609 Ws (~8,5 Wh), da 3600 Wattsekunden gleich 1 Wattstunde
i5 661-System -> 55,6W x 620 Sek. = 34472 Ws (~9,6 Wh), da 3600 Wattsekunden gleich 1 Wattstunde

Folglich hat das i7 2600-System weniger Strom verbraucht, da es bei nahezu gleicher Leistungsaufnahme wie das i5 661-System (57W vs. ~56W), aber kürzerer Rechenzeit (537 Sek. vs. 620 Sek.) nur 8,5 Wattstunden verbraucht hat. Das sind 1,1 Wattstunden weniger als beim i5 661 System mit seinen 9,6 Wattstunden.

Das lustige ist aber, darum geht es nichtmal! :fresse:
Ein Video z.B. wird nicht schneller angeschaut nur weil die CPU schneller ist. Es geht schlicht darum was das i5 661- oder i7 2600K-System CPU-seitig an Leistung aufnimmt während es mit Furmark (ebenfalls Single-Thread Applikation) belastet wird, ganz simple. Performance oder Punkte spielen doch überhaupt keine Rolle dabei. Genaus so für deine nun widerlegte Annahme hier:

Bei der alten GMA HD im i5 661 waren es noch 15W maximal, wenn man jetzt sieht wie viel sparsamer der i7 2600K im aktuellen Test im Furmark ist - 8W weniger trotz deutlich verbrauchsstärkerem CPU-Teil - sind wir da wohl in ganz anderen Dimensionen.

Da in Furmark nur CPU-Teillast herrscht (1-Kern Belastung), gilt diese Annahme also nicht! Wie THG und spcr nun auch gezeigt haben. Also bitte keine Nebelkerzen mehr und bleib bei der ursprünglichen/relevanten Argumentation.



Der Turbo ist nicht umsonst kein garantiertes Feature für jeden Belastungszustand. Die TDP muss für Standardtaktraten bei paralleler CPU+GPU-Last genügen - mehr nicht! Ein Modell, dass beispielsweise jeglichen CPU-Turbo ausschließlich bei dezidierter Grafikkarte nutzen kann, würde jeglichen Designrichtlinien genügen.

Naja, aber auch bissl doof wenn ein i7 2600K bei Verwendung der IGP den CPU-Turbo nutzen kann, während ein hypothetischer (stärkerer + teurerer) i7 2700K oder i7 2800K bei Verwendung der IGP seinen CPU-Turbo nicht mehr nutzen kann.
 
Zuletzt bearbeitet:
Den Verbrauch bei Teillast (1-Kern Belastung) sieht man doch im 2. Link:

i7 2600K-System -> 57W (bei 32W Idle) -> Idle/1 Kern-Last-Delta = 25W
i5 661-System -> 55,6W (bei 31W Idle) -> Idle/1 Kern-Last-Delta = 24,6W

Übersehen, danke dafür. Da muss ich also mein "deutlich" korrigieren, der i5 661 ist nur minimal sparsamer - zumindest wäre erwiesen, dass der 2600K nicht wie von dir geschrieben ("Was ich bisher gesehen habe, deutet stark daraufhin dass selbst der Sandy Bridge Quad unter Teillast sparsamer agiert als der Clarkale Dual") weniger verbraucht. Das der 2600K durch seine Mehrleistung im Übrigen zweifelsfrei effizienter ist, ist recht unstrittig - davon war aber gar nicht die Rede. :wink:

Gehen wir also etwas abgerundet davon aus, dass der CPU-Teil des 2600K im Furmark soviel verbraucht wie der CPU-Teil des i5 661, bleiben die 8W Differenz im Furmark. Das sind vor dem Netzteil etwa 7W, was bezogen auf die 15W GPU-Verbrauch des i5 grob 8W für den 2600K ergibt - also ca. die Hälfte. :)

Naja, aber auch bissl doof wenn ein i7 2600K bei Verwendung der IGP den CPU-Turbo nutzen kann, während ein hypothetischer (stärkerer + teurerer) i7 2700K oder i7 2800K bei Verwendung der IGP seinen CPU-Turbo nicht mehr nutzen kann.

Da gibt es gleich zwei Argumente:

1. Ein 2600K wird in den seltensten Fällen ohne dezidierte GPU genutzt, und wenn doch, dann nicht um mit der IGP hauptsächlich zu spielen.
2. Wir reden über die Kombination von Furmark und Linpack. AMD schließt solche Anwendungen von vornherein aus der TDP-Definition aus, Intel nutzt ähnliche Klauseln. Selbst wenn ein 2800K mit Furmark und Linpack auf volle 95W käme und keinen Turbo mehr nutzen kann, werden da in Cinebench + Crysis (oder ähnlichen realen, wenn auch ebenfalls schon sehr abwegigen Szenarien) schnell mal >20W weniger - und der Spielraum für den Turbo ist wieder geschaffen.

Übrigens:

S10481833.jpg


Es wird wohl ab Q3 nicht nur mögliche schnellere Modelle über dem 2600K geben, sondern ab Q4 auch einen SBe im gleichen Preisrahmen. Bis Ivy Bridge steht also im Mainstreamsegment noch einiges an Neuerungen bevor.
 
Übersehen, danke dafür. Da muss ich also mein "deutlich" korrigieren, der i5 661 ist nur minimal sparsamer

Nun bin ich auch mal penibel (ausnahmsweise :d ). Wenn du meinst der i5 661 wäre dennoch minimal sparsamer als der i7 2600K unter Single Thread-Last, wegen den 0,4W Differenz bei den THG Delta-Werten (25W vs. 24,6W), will ich noch zu bedenken geben, dass der i7 2600K laut HT4U im Idle nur 4,2W ink. Wandler (Gigabyte-Board) verbraucht, der i5 661 im Idle aber bereits 6,0W inkl. Wandler (MSI-Board mit DrMos) verbraucht. Davon ausgehend dürfte der i5 661 ingesamt also eine leicht höhere Leistungsaufnahme als der i7 2600K unter Teillast haben.

- zumindest wäre erwiesen, dass der 2600K nicht wie von dir geschrieben ("Was ich bisher gesehen habe, deutet stark daraufhin dass selbst der Sandy Bridge Quad unter Teillast sparsamer agiert als der Clarkale Dual") weniger verbraucht.

Der nächste Punkt ist, das silentpcreview nunmal dem Sandy Bridge eindeutig weniger Verbrauch unter Teillast bescheinigt. Diesen Test hatte ich im Hinterkopf, sonst hätte ich gar keine Aussage diesbezüglich getroffen (einfach ins Blaue raten bringt ja nix) ;) Und da meine Formulierung, vorsichtig wie ich war^^, mit "Sandy Bridge Quad" allgemein gehalten war, ist die Aussage sowieso nicht per se falsch. Siehe neben den spcr-Ergebnissen dazu auch im THG-Test: i5 2500K -> Idle/1Kern-Last-Delta = 21,6W, somit 3W wenig als beim i5 661. Und auch hier kommt noch dazu, dass der i5 2500K im Idle nur 3,8W statt 6W inkl. Wandler verbraucht.


Das der 2600K durch seine Mehrleistung im Übrigen zweifelsfrei effizienter ist, ist recht unstrittig - davon war aber gar nicht die Rede. :wink:

Ich habe nicht diese merkwürdigen Diskussion losgetreten, das warst du (von wegen 13%... etc.). Und ich hatte nach meiner Erläuterung, die nur etwas Licht in die falsche Darstellung und Schlussfolgerungen bringen sollte, ebenfalls darauf hingewiesen, das es gar nicht Thema war.


Gehen wir also etwas abgerundet davon aus, dass der CPU-Teil des 2600K im Furmark soviel verbraucht wie der CPU-Teil des i5 661, bleiben die 8W Differenz im Furmark. Das sind vor dem Netzteil etwa 7W, was bezogen auf die 15W GPU-Verbrauch des i5 grob 8W für den 2600K ergibt - also ca. die Hälfte. :)

Diese Rechnung dürfte nicht ganz aufgehen, da HT4U ein 850W Netzteil verwendet, das lediglich 80Plus (kein Bronze, Silber oder Gold) besitzt. Bei nur rund 6-7% Netzteilauslastung einen Wirkungsgrad von 87,5% zu veranschlagen ist mehr als optimistisch. Wenn man realistisch bleiben will, wird man eher grob 75% NT-Wirkungsrad veranschlagen müssen.
Somit ergeben sich erstmal 6 Watt vor dem Netzteil. Da wir aber auch noch Spannunswandlerverluste (GPU-Phase am Mainboard haben) haben, geht nochmal etwas weg (85% Spawa-Wirkunsgsgrad sollte ein realitischer Wert sein), somit wären wir real bei ca. 5 Watt Differenz zwischen i5 661 GPU und i7 2600K GPU, macht also ~10W für die Sandy Bridge GPU, unter Furmark wohlgemerkt.

Und wenn ich die bisher ignorierten Werte der c't nochmal in Erinnerung rufen darf (101W bei CPU-Last <-> 129W bei CPU+GPU-Last, trotz gut ausgelastetem, kleinen effizienten NT) muss man stark bezweifeln, das Furmark die Intel-GPUs richtig auslastet und 10W das Ende der Fahnenstange bei der HD3000 des i7 2600K sein soll.

Übrigens:

Es wird wohl ab Q3 nicht nur mögliche schnellere Modelle über dem 2600K geben, sondern ab Q4 auch einen SBe im gleichen Preisrahmen. Bis Ivy Bridge steht also im Mainstreamsegment noch einiges an Neuerungen bevor.

Wie schon mehrfach gesagt, ein bisschen Takt-Spielraum für 1-2 Stufen nach oben ist im Laufe der Entwicklung sicher realistisch. Aber große Sprünge sind mit IGP-Sandy Bridge nicht zu erwarten. SB-E der ohne IGP und mit 130-150W? TDP kommt dürfte ohnehin genügend Spielraum mitbringen. Ganz billig werden die Quad-Channel Platinen allerdings nicht.
 
...0,4w unterschied? ihr habt probleme...
 
hm und ich wollte mir nen sandy bridge kaufen ^^
aber ich warte jetzt glaub einfach auf ivy bridge... denke mal so lange hält mein pc noch durch :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh