Intel Sandy Bridge: Integrierte Grafikeinheit doppelt so schnell wie bisher?

SileX86

Enthusiast
Thread Starter
Mitglied seit
02.03.2006
Beiträge
784
Ort
Zelt
<p><img style="margin: 10px; float: left;" alt="intel3" src="images/stories/logos/intel3.jpg" width="100" height="100" />2011 soll <a target="_blank" href="http://www.intel.com">Intel</a>s neue CPU-Architektur namens Sandy Bridge kommen. Die 32-nm-Prozessoren sollen dabei wieder mit einem integrierten Grafikkern ausgestattet sein, wie dies bei den aktuellen Clarkdale- und Arrandale-Chips der Fall ist. Jedoch soll dann eine deutlich stärkere GPU eingesetzt werden, die zudem mit der CPU auf einem Die verschmilzt. Folglich soll der Grafikkern auch über eine Strukturbreite von 32 nm verfügen. Wie fudzilla.com nun erfahren haben will, soll Intel von einer zweifachen Leistungssteigerung im Zusammenhang mit der Grafikeinheit von Sandy Bridge gesprochen haben. Dabei sei aber...<p><a href="/index.php?option=com_content&view=article&id=14348&catid=34&Itemid=99" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja, wenn man es sich mal bildlich vorstellt, dann ist man zwei stockwerke oberhalb vom kellergeschoss immer noch weit entfernt vom penthouse. :fresse:
 
Von der Rohleistung ist Intels aktuelle IGP absolut in Reichweite der Konkurrenz, wenn nicht gar besser. :) Nur die Treiber müssen weiter verbessert werden, da ist auch nach den letzten Verbesserungen noch viel zu tun.
 
Dann liegt man ja eventuell gleich auf mit aktuellen IGPs der Konkurrenz. Dumm nur, dass bis dahin die Konkurrenz die Leistungsfähigkeit der IGPs ebenfalls mindestens verdoppeln wird, eher noch mehr. Und nun Intel? :rolleyes:
 
Man darf auch nicht vergessen, dass der GPU-Kern von der Anbindung zum CPU-Kern profitiert.
 
Zuletzt bearbeitet:
Man darf auch nicht vergessen, dass der GPU-Kern von der Anbindung zum CPU-Kern profitiert.

Genau deswegen ist der IGP von Intel alles andere als beeindruckend. Die Clarkdale-GPU schafft es trotz besserer/direkterer Anbindung nur beinahe das RS780-Niveau zu erreichen. Der AMD-Chip hat aber immerhin schon 2 Jahre auf den Buckel und sitzt noch nicht mal in der CPU bzw. auf dem Package. Wird ne interessante Entwicklung.
 
Zuletzt bearbeitet:
Ist ja eine tolle Ankündigung aber wer soll davon profitieren?
Für Büroarbeiten reicht doch die Grafikeinheit im I3/I5 aus und auch doppelte Leistung davon reicht nicht zum daddeln oder?
Ich hoffe bei dem Einsatz für die Grafikkarte denken sie noch genug an die CPU, denn da spekuliere ich natürlich auch auf mehr power ;-)
 
Ist ja eine tolle Ankündigung aber wer soll davon profitieren?
Für Büroarbeiten reicht doch die Grafikeinheit im I3/I5 aus und auch doppelte Leistung davon reicht nicht zum daddeln oder?
Also für MMOs reichen IGPs eigentlich vollkommen aus. Und da nimmt man dann auch mehr Performance gerne mit, um den einen oder anderen Effekt noch zu aktivieren oder die FPS zu verbessern.
 
Hi,

klingt interessant, dann kann man schöne neue benchrekorde aufstellen :drool:

Das könnte gut sein. Die Konkurrenz schläft weitestgehend, von Nvidia werden wir mangels Lizenz nicht mehr viele IGPs sehen, bei AMD verliert der seit Jahren genutzte RV620 - selbst bei der kommenden 800er Chipsatzgeneration wird er wohl wieder verbaut - immer weiter an Boden.
 
Bis zum Llano 2011 ist AMD auch nicht unter Zugzwang bei den IGPs. Und es macht für AMD mit ihren begrenzten Ressourcen keinen Sinn die vorhandenen IGP weiter aufzubohren oder zu shrinken. Ist vernünftiger die Manpower in Fusion zu stecken.
 
Zuletzt bearbeitet:
Ist ja eine tolle Ankündigung aber wer soll davon profitieren?
Für Büroarbeiten reicht doch die Grafikeinheit im I3/I5 aus und auch doppelte Leistung davon reicht nicht zum daddeln oder?
Ich hoffe bei dem Einsatz für die Grafikkarte denken sie noch genug an die CPU, denn da spekuliere ich natürlich auch auf mehr power ;-)
So siehts aus ... 2x nix bringt nix.

AMD verzehntfacht aller Vorrausicht nach die GPU Leistung im LLano (40 Shader -> 400 Shader); das sind andere Größenordungen.

Da kann man je nach Auflösung schon mal ein Spielchen wagen ;-)

Aber für Bürosachen reicht eine IGP von vor 5 Jahren, Aero hat man dort ja ebenfalls noch nicht ^^

ciao

Alex
 
Von der Rohleistung ist Intels aktuelle IGP absolut in Reichweite der Konkurrenz, wenn nicht gar besser. :) Nur die Treiber müssen weiter verbessert werden, da ist auch nach den letzten Verbesserungen noch viel zu tun.

Darum gehts gar nicht ... Fr@ddy hat den nagel hingegen auf den kopf getroffen.
 
Mehr Rohleistung muss nicht nur für Spiele günstig sein ;) Ein Mehr an Shaderpower kann auch für bessere Deinterlacingqualität genutzt werden, genauso aber für andere Aufgaben, die bereits aktuell oder auch zukünftig von der GPU/IGP zu bewältigen sind: Flash-Beschleunigung, OpenCL, ...

Nicht immer gleich nur an Spiele denken ;)
 
Mir ist bewusst das es außer spielen noch andere Anwendungsbereiche gibt, aber der Aufwand diese zu nutzen (OpenCL unterstützung ist noch das kleinste Übel) und der Performancegewinn sollten doch in einem günstigen Verhältnis zueinander stehen.

Zum flash abspielen sollten die 2-4 Kerne auch so reichen und für richtiges Rechnen ist die Grafikeinheit vermutlich auch wenn sie doppelt so schnell ist immernoch zu langsam.

Was also außer Spielen bleibt da noch an potentiellen Anwendungen die davon profitieren?

Die leistungsfähogere GPU wird vermutlich nur für eine geringfügig höhere TDP sorgen und der Nutzerkreis der von der mehrleistung profitiert ist denke ich eher klein.
Wenns als kleiner Bonus der neuen Prozessorgeneration irgendwo abfällt ists ja schön, aber ich denke nicht das es Aufwand wert ist viel Zeit und Geld in diese weiterentwicklung der IGP zu stecken.

Ist meine persönliche Einschätzung, das es auch andere Ansichten gibt ist mir bewusst.
 
Natürlich ist eine aktuelle CPU schnell genug für die meisten der genannten Fälle - aber zu welchem Preis? Beim Abspielen von 1080p Flash-Videos ist beispielsweise ein 2,0GHz Turion X2 zu nahezu 100% ausgelastet und verbrät wohl über 30W. Wenn eine solche Aufgabe von der IGP gemeistert wird, lässt sich massiv Strom sparen und damit die Akkulaufzeit steigern. Dies gilt auch für andere Bereiche, z.B. Videoencodierung oder Bildbearbeitung. Ist alles von einer CPU zu schaffen, eine GPU kann es aber schneller und effizienter.
 
Und was wird mit der doppelt so schnellen CPU dann neues toller laufen?
Wo die Leistung der aktuellen Intel GPUs nicht reicht wird es auch mit doppelter Leistung meist keinen Sinn machen.

Nur weil die GPU mitrechnet heisst das noch lange nicht das der rest des Rechners sich schlafen legen kann. Gerade bei einer GPU on Die wo der gleiche Speichercontroller (und möglicherweise auch Spannungsversorgung) genutzt wird zweifel ich an riesigen Stromsparpotentialen.

Wenn man aktuelle CPUs ordentlich nutzt rechnen die schon recht effizient. Vieles wo GPU-programme gut wegkommen lässt sich auch sehr effizient mit SIMD Einheiten wie SSE effizient rechnen. Wenn mann denn will...
Vieles was auf dem handelsüblichem Rechner läuft ist noch mit i386 flags kompiliert, (und auch dafür entwickelt) damit es auch ja keine Kompatibilitätsprobleme gibt.

Diese verkrüppelten Implementierungen dann gegen das optimierte GPU-Programm halten und sagen GPUs können das generell viel toller und effizienter als CPUs halte ich für schwachsinn. Gerade bei der Entwicklung hin zu multicore CPUs, wo genug Reserven da sind und die CPU Last meist nicht wesentlich über 1/n bei n-Core CPUs hinausgeht.

Ich finde die Möglichkeiten flexibel operationen über viele Cores auszuführen auch recht interessant, aber wenn man das braucht kann man es als Karte dazustecken und sich über einen dann wirklich großen Performancesprung freuen, dann kann man vielleicht auch effizienter Rechnen.

Aber die CPU auf möglichst viele parallele Threads aufbohren und parallel dazu die Möglichkeit über die GPU massiv parallel (aber auf "nicht ganz so massiv" reduziert) irgendwie mit auf das gleiche Stück Silizium zu quetschen entspringt einer Logik die ich nicht nachvollziehen kann.
 
Schau dir doch als bestes Beispiel mal das Abspielen einer BR auf einem heutigen PC an. ;) Mit GPU-Unterstützung steigt der Verbrauch im besten Fall um gerade einmal 8W an. Ohne GPU-Support springt selbst ein aktueller Quadcore in die höchste P-State und wird je nach Modell, 30, 40 oder vielleicht auch 50W mehr verbrauchen. Ob das wirklich nur daran liegt, dass SSE nicht ordentlich genutzt wird? Selbst wenn, wäre das wohl eine hypothetische Frage.
 
AMD verzehntfacht aller Voraussicht nach die GPU Leistung im LLano (40 Shader -> 400 Shader); das sind andere Größenordungen.

:eek: Das wäre aktuell HD5670-Niveau...

Falls das stimmt, kann man das mit einem lachenden und einem weinenden Auge sehen. Für Gelegenheitszocker (und CPU-Berechnung die auf GPU ausgelagrt werden) ideal, für Stromsparfetischisten overkill und deshalb evtl. zu stromhungrig. Wobei 32nm, HKMG und SOI? (auch beim Llano oder nur Bulldozer?) die Effizienz theoretisch gewaltig erhöhen sollte. Vielleicht gibt es auch noch wirksamere Stromsparmechanismen bis dahin, so dass der Idle-Verbrauch keine Sorgen bereitet.
 
Das wird zwangsläufig über immer effizientere Stromsparmechanismen laufen. Grade beim Einsatz von dedizierten Grafikkarten sollte eine stromhungrige(weil leistungsfähige) IGP auf ein Minimum reduziert werden können. Und wenn das dann noch auf den Idle-Modus übertragbar ist, verkauft sich das auch.
 
für Stromsparfetischisten overkill und deshalb evtl. zu stromhungrig.
Für die Leute gibts dann Ontario :)
Bei dem schätze ich mal auf einen Cedar Grafikteil, also 80 Shader. Wäre immerhin ein bisschen mehr als die aktuelle Chipsatzgrafik (die hat 40).

Wobei man sich bei den Größenordungen auch fragen kann, ob das Aufrüsten von 40 -> 80 Shader spürbare Vorteile bringt.

Naja wie besagt, ist nur meine persönliche Schätzung, vielleicht kommen doch nur wieder 40 Shader, wer weiss.

ciao

Alex
 
Schau dir doch als bestes Beispiel mal das Abspielen einer BR auf einem heutigen PC an. ;) Mit GPU-Unterstützung steigt der Verbrauch im besten Fall um gerade einmal 8W an. Ohne GPU-Support springt selbst ein aktueller Quadcore in die höchste P-State und wird je nach Modell, 30, 40 oder vielleicht auch 50W mehr verbrauchen. Ob das wirklich nur daran liegt, dass SSE nicht ordentlich genutzt wird? Selbst wenn, wäre das wohl eine hypothetische Frage.

Die im Benchmark aufgeführten Grafikkarten sind doch ein ganzes Stück leistungsfähiger (und stromhungriger) als die Intel IGPs.
Auch bei verdoppelter Leistung der i3/i5 GPUs (möglicherweise bezieht sich die Aussage ja auch auf X4500 IGPs) wäre der Abstand noch deutlich. Aus dem verlinkten Test kann ich wirklich keine Informationen ziehen, die meine Einschätzung irgendwie beeinflussen würden.

Zum testen könnte man ja mal eine aktuelle Intel IGP übertakten und dann schauen wie unglaublich die Leistungssteigerung ausfallen wird. Ich behaupte nach wie vor man merkt davon außer der gesteigerten TDP fast nix. Außer vielleicht bei Spielen. Und auch da wird gültig sein, soll es spass machen kommt man um eine seperate Grafikkarte nicht drumrum.
 
Die im Benchmark aufgeführten Grafikkarten sind doch ein ganzes Stück leistungsfähiger (und stromhungriger) als die Intel IGPs.
Auch bei verdoppelter Leistung der i3/i5 GPUs (möglicherweise bezieht sich die Aussage ja auch auf X4500 IGPs) wäre der Abstand noch deutlich. Aus dem verlinkten Test kann ich wirklich keine Informationen ziehen, die meine Einschätzung irgendwie beeinflussen würden.

Öhm, dadurch das die Grafikkarten leistungsfähiger sind, wird diese Problematik doch noch verstärkt! Bei einer IGP wird der Verbrauchsunterschied zwischen idle und load (in Form von z.B. BR abspielen) noch geringer sein als bei einer dezidierten Grafikkarte, die dafür evntl ihren 2D-Modus verlassen muss (siehe z.B. die HD5000er Karten).

Ein Streamprozessor einer GPU ist für bestimmte Aufgaben nuneinmal einfach viel effizienter als eine CPU dies sein kann. ;)

Weiterhin: Wenn die nächste Generation einer IGP statt in 45nm in 32nm kommt, wird auch der Verbrauch bei weiter gesteigerter Leistung nicht sonderlich wachsen, ebenso wie die Die-Fläche.
 
Öhm, dadurch das die Grafikkarten leistungsfähiger sind, wird diese Problematik doch noch verstärkt! Bei einer IGP wird der Verbrauchsunterschied zwischen idle und load (in Form von z.B. BR abspielen) noch geringer sein als bei einer dezidierten Grafikkarte, die dafür evntl ihren 2D-Modus verlassen muss (siehe z.B. die HD5000er Karten).

Ein Streamprozessor einer GPU ist für bestimmte Aufgaben nuneinmal einfach viel effizienter als eine CPU dies sein kann. ;)

Weiterhin: Wenn die nächste Generation einer IGP statt in 45nm in 32nm kommt, wird auch der Verbrauch bei weiter gesteigerter Leistung nicht sonderlich wachsen, ebenso wie die Die-Fläche.

Das HD5xxx Karten nebenbei was ganz tolles können ist ja schön, aber für die IGP des Sandy-Bridge Prozessors in etwa so bedeutend wie der berühmte Sack Reis in China.

Wie kommst du darauf das eine GPU bei bestimmten Aufganben zwingend effizienter ist?
Gerade eine onDie GPU die auf den gleichen Speicher zurückgreifen muss wie die CPU, womit ein großer Vorteil fürs GPU-rechnen (ordentliche Speicherbandbreite und Latenz) wegfällt.
Wir reden in diesem Thread über eine IGP die doppelt so schnell wird wie eine mit 40 Shader-Prozessoren. Machen wir mal über SSE operationen mit Vektoren die 8 Elemente haben. bei 4 SSE Einheiten sind das 4*8=32 operationen wenn sich eien Operation in einem Takt erledigen lässt. Nebenbei gibts ne große überprüfung auf Korrektheit des Ergebnisses.
40 Shadereinheiten erledigen max. 40 operationen in einem Takt. Und jetzt rechne das mal mit den Taktfrequenzen von IGPs und CPUs hoch.

Es gibt durchaus eine Existenzberechtigung für leistungsfähige Grafikkarten. Aber wer hat was davon wenn eine langsame Grafikeineheit schneller aber immer noch für neue Anwendungszwecke zu langsam wird?
 
Nochmal: Thema Stromverbrauch. Was wird ein Quad in deinem Beispiel für so eine Rechnung brauchen? 40, 50W oder noch mehr? Was eine IGP? 5W,6W?

Und dann können wir ja auch noch CPU und IGP kombinieren, um Rechnugen zu beschleunigen.
 
Nochmal: Thema Stromverbrauch. Was wird ein Quad in deinem Beispiel für so eine Rechnung brauchen? 40, 50W oder noch mehr? Was eine IGP? 5W,6W?

Und dann können wir ja auch noch CPU und IGP kombinieren, um Rechnugen zu beschleunigen.

Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.
Ich halte es halt für überflüssig 2 nahezu gleichwertige rechenkerne auf den gleichen Chip zu pressen, die sich auch noch gegenseitig beeinflussen wenn sie zeitgleich genutzt werden.

Laut news auf xtremesystems http://www.xtremesystems.org/forums/showthread.php?t=244879 sollen es auch 2 GPUs werden. Dual GMA4500 ;-)
Na wer da wohl die Ziele vorghibt, Marketing oder ein technisch versierter Kollege? ...
 
Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.
Ich halte es halt für überflüssig 2 nahezu gleichwertige rechenkerne auf den gleichen Chip zu pressen, die sich auch noch gegenseitig beeinflussen wenn sie zeitgleich genutzt werden.

Es muss dabei ja nicht um die identische Rechnungen gehen - vielmehr kann die IGP für diverse Aufgaben genutzt werden (z.B. Flashbeschleunigung beim surfen), während die CPU-Leistung für andere Aufgaben verfügbar bleibt.

Laut news auf xtremesystems http://www.xtremesystems.org/forums/showthread.php?t=244879 sollen es auch 2 GPUs werden. Dual GMA4500 ;-)
Na wer da wohl die Ziele vorghibt, Marketing oder ein technisch versierter Kollege? ...

Ich ergänze mal die originale Newsmeldung:

http://www.fudzilla.com/content/view/17576/1/

Letztlich wäre das keine überraschende Entwicklung - schlicht fortschreitende Modularisierung für eine einfachere Skalierbarkeit des Designs. Interessant wird eher, auf welcher logischen Ebene ein solcher Entwurf basieren würde, ein SLI von Intel brauchen wir nicht wirklich auch noch. Dennoch eine höchstgradig spekulative News. Und das mit der GMA X4500 ist natürlich totaler Unfug.
 
Zuletzt bearbeitet:
Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.

Also beim Viodeorendern kann mit ATI Stream/CUDA schon richtig die Post abgehen. Damit sind die Filme 3x schneller gerendert. Da scheint die Aufgabenteilung zwischen CPU und Stream GPUs sehr gut zu klappen. Nur muss das Programm halt die Funktion unterstützen - leider tun das nicht alle Programme.

Siehe z.B. diesen Test:
http://www.tomshardware.com/de/ATi-Stream-AMD-gpgpu,testberichte-240350-4.html
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh