[Sammelthread] Nehalem - Infos und Fakten

Status
Für weitere Antworten geschlossen.
Nun, sag doch mal etwas zu CPUs wie dem Q8200/Q9300 mit 35-40W Abwärme bei einer TDP von 95W ;) Der Artikel bei Wiki zeigt doch klar, das die TDP sich schlicht nicht zwingend mit der Verlustleistung in Einklang bringen lässt. Denkst du denn, das ein 2,8GHz Deneb 125W brauchen wird, nur weil die TDP so hoch liegt?
Unter Vollast mit Integriertem Memcontroller ist das bei 3,2 Ghz und ordentlichem Ramtackt sicher drinn.
Intel hatte bisher nicht den Memcontroller intergriert das übersiehst Du leider.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal was zu dem Speichercontroller: Der gesammte P35 hat z.B. eine TDP von geradeeinmal 16W, wovon bereits ein großer Teil für die PCIe Lanes drauf geht - wenn der IMC also wenn überhaupt 5W bei einem der High-End-Modelle ausmacht, wäre das schon sehr viel.
Desweiteren wurde der Deneb in einem Test bereits mit knapp über 50W gemessen. Auch ein 3-3,2GHz Modell wird somit kaum die 100W Grenze durchbrechen, eine höhere TDP schafft nur Spielräume für schnellere Modelle oder gewisse Sicherheitsreserven. Gerade die Einstiegsmodelle werden aber kaum die Hälfte davon real benötigen.
 
Mal was zu dem Speichercontroller: Der gesammte P35 hat z.B. eine TDP von geradeeinmal 16W, wovon bereits ein großer Teil für die PCIe Lanes drauf geht - wenn der IMC also wenn überhaupt 5W bei einem der High-End-Modelle ausmacht, wäre das schon sehr viel.
Desweiteren wurde der Deneb in einem Test bereits mit knapp über 50W gemessen. Auch ein 3-3,2GHz Modell wird somit kaum die 100W Grenze durchbrechen, eine höhere TDP schafft nur Spielräume für schnellere Modelle oder gewisse Sicherheitsreserven. Gerade die Einstiegsmodelle werden aber kaum die Hälfte davon real benötigen.
AMD hatte den Integrierten Memcontroller schon lange vor Intel wo AMD da ist muss Intel erst noch hin glaubst Du wirklich das das so einfach ist. Wenns das wäre warum nudelt Intel dann mit Ihren jetzigen 900 Euro extrem Modellen dann noch mit Steinzeit FSB Technologie rum.
 
AMD hatte den Integrierten Memcontroller schon lange vor Intel wo AMD da ist muss Intel erst noch hin glaubst Du wirklich das das so einfach ist. Wenns das wäre warum nudelt Intel dann mit Ihren jetzigen 900 Euro extrem Modellen dann noch mit Steinzeit FSB Technologie rum.

Warum sollte man darüber streiten, was "moderner" ist - das ein IMC irgendwann nötig werden würde, stand seit Jahren außer Frage. Entscheidend ist doch viel eher, das man trotz FSB seit dem Core 2 die schnelleren CPUs auf dem Markt hat, was es eben auch erlaubt, die genannten 900€ für eine CPU zu verlangen und natürlich bezahlt zu bekommen!
Bei 8 (virtuellen) Kernen einer Nehalem-CPU kommt man wohl auch schon mit 1-Sockel Systemen in Bereiche, wo der FSB ein potentieller Bremsklotz werden könnte, was wohl letztlich diesen Schritt nötig machte.
Wenn AMD hingegen mit Deneb endlich die Leistung und vor allem auch die Leistung/Watt des Yorkfield erreichen kann, kann man sich sehr glücklich schätzen und vielleicht auch bald wieder mehr als 150€ für eine Desktop-CPU verlangen. Zu wünschen wäre es, wenn wir nicht in wenigen Jahren ein Monopol haben wollen.

Im Serverbereich sieht das ganze ja zumindest rein auf die Leistung bezogen ein gutes Stück besser aus, je mehr Sockel genutzt werden desto eher kann der IMC hier seine Vorteile ausspielen. Wohl auch der Grund, warum einige hier den Nehalem gerne als "Server-CPU" bezeichnen, auch wenn er auch für Desktopnutzer Mehrleistung bieten wird.
 
Ich bleib dabei wenns so einfach wär hätten sies längst gemacht schon aus kostengründen.
Ein Schelm der da denkt die haben jetzt endlich kapiert wies geht abkupfern ist ja nicht so schwer.:haha:
 
Aus Kostengründen? Der IMC ist natürlich die klar teurere Lösung und lohnt daher nur ab dem Punkt, sobald die Mehrleistung im Verhältnis zu den Mehrkosten steht. Das AMD den IMC im übrigen natürlich auch nicht erfunden hat weißt du bestimmt :)
 
Aus Kostengründen? Der IMC ist natürlich die klar teurere Lösung und lohnt daher nur ab dem Punkt, sobald die Mehrleistung im Verhältnis zu den Mehrkosten steht. Das AMD den IMC im übrigen natürlich auch nicht erfunden hat weißt du bestimmt :)
So ein Witz allein der kleinere L2 cache den der Nehalem hat macht ihn günstiger zu fertigen als
die jetzigen dinger und die Nehalem Boards werden auch günstiger zu produzieren sein.
Ohne Memconroller.
 
Zuletzt bearbeitet:
Da bist du nicht ganz korrekt informiert ;) Cache ist sehr dicht zu packen, wodurch die CPU trotz weniger Transistoren als Yorkfield sogar etwas größer wird, die Boards werden durch eine höhere Anzahl von Layern trotz eines günstigeren Chipsatzes ebenfalls keinesfalls günstiger.
 
So ein Witz allein der kleinere L2 cache den der Nehalem hat macht ihn günstiger zu fertigen als
die jetzigen dinger und die Nehalem Boards werden auch günstiger zu produzieren sein.
Ohne Memconroller.

Genau, die 8mb L3-Cache macht das ganze natürlich billiger als 6-12MB L2, und das monolithische Design erhöht natürlich die Yields.
Nicht zu vergessen das QPI-Interface, daß deutlich mehr Daten mit höherem Takt als der FSB überträgt, das die Sache ja auch deutlich vereinfacht.

Ob der IMC nun auf dem Board ist, oder nicht: Das Routing der Leiterbahnen ist dank QPI und Triple-channel sicher sehr einfach zu realisieren und lässt sich mit den 8 layern, die sie haben werden, gut machen.
Doof nur, daß bislang 4 locker reichen.
 
au man ich kanns kaum erwarten endlich nen system zusammenzubaun und zu testen

schon den 2,66 + x58 + 260GTX gold + 6gb ddr3 1866:banana:

oleole
 
Das es die gibt weis ich aber in der Praxis (dauerbetrieb zb Filme rändern oder Dauerzocken) siehts meist anders aus. Der Nehalem hat als erster Intel den Mem Controller integriert der heizt ganz ordentlich.

Was soll das denn heißen?
Hab hier den ersten AMD mit IMC und der bleibt sehr kühl! Das ist ne Frage der Architektur und nicht der internen Komponenten. Das die TDP != der Verlustleistung/Wärmeabgabe ist steht ja außer Frage, nur betritt man mit Nehalem Neuland und geht vllt auf Nummer sicher.

Für die ersten Core2Duos war mit frühen Samples oft bei 3,2-3,4Ghz Schluss und das mit viel Vcore, wohin die Reise ging ist ja bekannt. Hier haben wir eine völlig neue Plattform, mit vielen Änderungen in der Architektur und haben schon 4Ghz mit Lukü gesehn. Ich bin da eigentlich guter Dinge. Auch wenn es in der Breite vllt nur 3,4-3,6Ghz werden ist, das richtig gut mit Lukü und ein frühes Sample!
 
Ich bleib dabei wenns so einfach wär hätten sies längst gemacht schon aus kostengründen.
Ein Schelm der da denkt die haben jetzt endlich kapiert wies geht abkupfern ist ja nicht so schwer.:haha:
Letztendlich ist Intel mit ihrem Design heute nicht nur finnanziell weiter. Also kann der FSB doch nicht so teuer und schrottig sein ;).
Intel hätte nen IMC schon vor Jahren einführen können. Hat das aber aus finnanziellen und strategischen Gründen nicht gemacht. AMD hats gemacht und das ist ein Grund, warum AMD einfach nicht wirtschaftlich genug ist. So seh ich die Sache.
 
@markox
Ob Intel dies hätte machen können, ist Spekulation. Ich denke eher nicht. Solch ein Schritt braucht sehr viel Vorarbeit. Da die aktuellen CPUs ja praktisch alle auf dem Pentium-M basieren, war dieser Schritt noch einer zu viel. Man war vermutlich genug damit beschäftigt, erstmal von Netburst wegzukommen.
Ausserdem hat das nichts mit geringerer Wirtschaftlichkeit zu tun. Eher im Gegenteil. Warum glaubst du, entwickelt AMD Fusion? Weil man sich technisch so viel davon verspricht? Nein. Man macht das vor allem wegen geringerer Produktionskosten und höherer Wirtschaftlichkeit. Beim IMC und HT hatte das seinerzeit sicherlich noch andere gewichtige Gründe, die man bei Servern mehr als deutlich sehen konnte. Prinzipiell ist es aber das gleiche.

@Undertaker
Anstatt so viel Halbwissen zu verbreiten, wäre es vermutlich besser, du schreibst weniger und liest mehr. Wie oft habe ich nun dein 40 W Q9300 Märchen schon gehört? :rolleyes: Kurzerhand habe ich Google selbst mal bemüht. Herausgekommen ist dabei dieses. Zwischen Idle und Last (Prime95) liegen 57,2 W. Rechne noch vielleicht 10 W für Idle hinzu und du liegst bei 65-70 W. Auch ein Grund, warum der Q9300 nicht mehr in die 65 W TDP Klasse passt. Und diese Werte sind, wenn man Vergleiche anderer Penryn Quads heranzieht, absolut plausibel. Falls du irgendwo 40 W gesehen hast, dann bist du wahrscheinlich Tests aufgesessen, die keine Vollast messen.
Und nun zurück zum eigentlichen Thema.
 
@Undertaker
Anstatt so viel Halbwissen zu verbreiten, wäre es vermutlich besser, du schreibst weniger und liest mehr. Wie oft habe ich nun dein 40 W Q9300 Märchen schon gehört? :rolleyes: Kurzerhand habe ich Google selbst mal bemüht. Herausgekommen ist dabei dieses. Zwischen Idle und Last (Prime95) liegen 57,2 W. Rechne noch vielleicht 10 W für Idle hinzu und du liegst bei 65-70 W. Auch ein Grund, warum der Q9300 nicht mehr in die 65 W TDP Klasse passt. Und diese Werte sind, wenn man Vergleiche anderer Penryn Quads heranzieht, absolut plausibel. Falls du irgendwo 40 W gesehen hast, dann bist du wahrscheinlich Tests aufgesessen, die keine Vollast messen.
Und nun zurück zum eigentlichen Thema.

Eine Gesammtsystemmessung, sehr schön :) Dir ist vermutlich nicht bekannt, dass Bauteile der Chipsatz unter Last ganz erheblich mehr verbrauchen als idle ;) Darum bemühen wir doch mal eine Einzelmessung:

http://ht4u.net/reviews/2008/amd_phenom_x4_x3/index17.php

50W inkl. Spannungswandlern - bei geschätzten 80% Wirkungsgrad, was bei dieser recht geringen Auslastung ziemlich gut wäre, ergibt das 40W Verlustleistung. Und hör bitte auf, alles was du nicht verstehst Halbwissen zu nennen ;)
 
Zuletzt bearbeitet:
Herausgekommen ist dabei dieses. Zwischen Idle und Last (Prime95) liegen 57,2 W. Rechne noch vielleicht 10 W für Idle hinzu und du liegst bei 65-70 W. Auch ein Grund, warum der Q9300 nicht mehr in die 65 W TDP Klasse passt. Und diese Werte sind, wenn man Vergleiche anderer Penryn Quads heranzieht, absolut plausibel. Falls du irgendwo 40 W gesehen hast, dann bist du wahrscheinlich Tests aufgesessen, die keine Vollast messen.
Und nun zurück zum eigentlichen Thema.


Das ist eine Milchmädchenrechnung. Du kannst nicht einfach davon die Differenz ermessen, da spielt noch der Wirkungsgrad mit rein. Rechne mal 80% Wirkungsgrad vom Netzteil in Idle und Last ein, schon ergeben das 45 Watt statt 57W. Und selbst das ist recht wage. Wenn wir bei xbitlabs sind:

http://www.xbitlabs.com/articles/cpu/display/intel-wolfdale_11.html

33W für den E8500. Jetzt schau dir deinen link an, E8500 nur geringfügig unter dem Q9300. Und schon könnten 40 Watt wieder hinkommen. Wobei ich auch denke, dass es eher Richtung 50 Watt sind oder sein könnten. Das hängt immer stark von der Auslastung des Programmes ab.
 
Was soll das denn heißen?
Hab hier den ersten AMD mit IMC und der bleibt sehr kühl! Das ist ne Frage der Architektur und nicht der internen Komponenten. Das die TDP != der Verlustleistung/Wärmeabgabe ist steht ja außer Frage, nur betritt man mit Nehalem Neuland und geht vllt auf Nummer sicher.
Je mehr Komponenten in einen Chip wandern desto mehr Verursacher von Verlustleistung gibts dann auch.

Und ich würde die TPD jetzt nicht komplett von der Verlustleistung und Wärmeabgabe abkapseln. Letztendlich stellt sie Klassen für die Wärmeabgabe dar. Und je weiter die gefasst sind, desto größere Abweichungen gibt es. So rutscht ein Q9300 wohl so grade über die 65W Marke hinaus und wird daher in der 95W Klasse geführt, gibt aber meinetwegen nur 70W bei Vollauslastung ab.
 
@Undertaker
Das ist ja schön und gut. Aber diesen Test hast du schon mal gepostet und auch damals war er nicht aussagekräftig. Da braucht man sich nur mal den ersten Satz durchzulesen. Aber mal abgesehen von der Korrektheit dieser Ergebnisse, interessiert das niemanden. Denn ich bezahle den Strom, den mein kompletter Rechner braucht und nicht nur sezierte Bauteile. Und da sind auch indirekte Komponenten relevant, die die Leistungsaufnahme der CPU beeinflussen. Und dass es genau solche Diskrepanzen zwischen TDP und realer Leistungsaufnahme gibt, sollte einem bewusst sein. Aber genau darauf scheinst du ja mit Vorliebe herumzureiten. Und gerade mit Nehalem wird sich diesbezüglich auch einiges ändern, weil bisher externe Komponenten in die CPU wandern und dann direkt die Leistungsaufnahme beeinflussen.
 
Je mehr Komponenten in einen Chip wandern desto mehr Verursacher von Verlustleistung gibts dann auch.

Da geb ich euch ja auch recht! Nur sagt das Vorhandensein von Komponenten weder was über den Verbrauch noch über die Wärmeentwicklung aus. Nur weil Nehalem einen IMC hat ist er sicher kein Hitzkopf, der IMC trägt dazu bei das die Verlustleistung höher ist, nicht mehr und nicht weniger.
Deswegen mein Beispiel mit dem A64 (K8) der beim besten Willen kein Hitzkopf war.

Eine Grundausage über den Verbrauch anhand der TDP zu treffen ist unseriös. Ich hab das bisher auch nur einmal verwendet um den Kuma(BE) näher zu beleuchten, da er genau wie seine 3-und 4-kernigen Brüder eine TDP von 90W hatte. Und mir das komisch vorkam. Mittlerweile weiß man ja, dass er wohl nur eine so hohe TDP hat, weil es ein BE ist.
Selbst wenn man sich die Highend Phenoms anschaut wird man sehen, dass selbst CPUs mit höherer TDP in Wahrheit weniger verbrauchen als manche Phenoms mit geringerer TDP. Daraus folgere ich TDP != Verbrauch. Allerdings gibt die TDP einen kleinen Fingerzeig wohin es geht mit dem Verbrauch.

Es würde mich allerdings nicht wundern würde, wenn ein Nehalem System gerade im idle weniger verbraucht als ein Penryn System. Denn idle ist mir relativ wichtig.
 
Zuletzt bearbeitet:
Ich weiß nicht warum hier soviele am Verbrauch rumnörgeln.. Anandtech hat doch schon nen
Q9450 mit nen 2.66Ghz Bloomfield verglichen (und das war noch nen B0 sample!)

17021gwu.png


17022ezi.png


Und das mit den TDP´s ist doch auch wumpe, wie wir wissen hatten die High-End Modelle (QX6700, QX6800,
QX6850, QX9650, QX9770, QX9775) immer 130W(+) TDP. Bloomfield = High-End.
 
Mal was zu dem Speichercontroller: Der gesammte P35 hat z.B. eine TDP von geradeeinmal 16W, wovon bereits ein großer Teil für die PCIe Lanes drauf geht - wenn der IMC also wenn überhaupt 5W bei einem der High-End-Modelle ausmacht, wäre das schon sehr viel.

Folglich dürften wir mit dem P45 (65nm) an dem Punkt ankommen, wo der Memory Controller fast in einen negativen Wert rutsch und evtl. Strom erzeugt... :rolleyes:

Die Northbrige bei Intel heisst ja nicht umsonst MCH = Memory Controller Hub. Wenn der MC nicht den Löwenanteil der NB und dere TDP ausmachen würde, würde sie wohl kaum so heißen. 5W für den MC bei Einsatz eines Quad-Core ist mit Sicherheit zu tief gegriffen. Noch absurder wird diese Behauptung wenn man sie auf High-End-Modell bezieht, da ein P35 z.B. nicht mal für 1600MHz FSB spezifiziert ist und das ganze eine Übertaktung darstellt. Dass dabei die TDP ihre Gültigkeit verliert dürfte klar sein, der X48 mit offiziellen FSB1600-Support hat nicht nur zufällig ne höhere TDP.


50W inkl. Spannungswandlern - bei geschätzten 80% Wirkungsgrad, was bei dieser recht geringen Auslastung ziemlich gut wäre, ergibt das 40W Verlustleistung.

Ich finde es zwar auch immer bissl doof sich selber zu Quoten, aber dass ist mir jetzt auch wurst, da ich keine Lust habe immer wieder das gleiche in neue Worte zu packen:

Noch paar allgemeine Anregungen:

- CPUs werden mit sehr unterschiedlichen Default-Vcores ausgeliefert, obwohl die Effizienz der einzelnen CPUs teils (nahezu) gleich ist, wie z.B. beim Brisbane G2 Stepping. So kommt z.B. die CPU A) mit 1,20V daher, modellgleiche CPU B) aber mit 1,25V. Das macht bei einem 45W TDP X2 bereits schon paar Watt aus.

- Hinzu kommt der Umstand dass viele Boards mit der Vcore übervolten, manche die Spannung stabil halten und einige sogar undervolten. Jetzt lasst man Tester 1) mit übervoltendem Board (z.B. Gigaybte +0,03V) die CPU B) messen und Tester 2) mit undervoltendem Board (z.B. Biostar -0,03V) die CPU A) messen.

Das Ergebnis wird sein, dass ein Tester eine deutlich höhere Verlustleistung messen wird, da CPU A) @1,17V und CPU B) @1,28V laufen wird. Was das bei nem Quad ausrichten kann brauch ich hoffentlich nicht zu erklären, selbst bei einem Dual-Core wird der Unterschied 2stellig sein, je nach Taktrate/Modell. Und da sind unterschiedliche Steppings/Revisonen der CPUs und die Spannungsversorung der unterschiedlichen Boards noch nicht mal berücksichtigt!

Suspekt und komisch sind also höchstens Kommentare die von Leuten kommen, die sich nicht praktisch mit den Thema auseinandersetzen und dennoch entweder alles in Frage stellen oder ggf. alles als Gesetz ansehen, je nachdem wie es beliebt. Und nun bitte btt.
 
Zuletzt bearbeitet:
Ich bin ja so gespannt wenn endlich die ersten ernstzunehmenden Reviews auftauchen..
 
Ob da wohl was dran ist?! Würd ich zwar gut finden.. Aber ihr wisst ja, FUD :fresse:

Our sources have confirmed that you will be able to clock the cheapest, $284 priced Nehalem from 2.66GHz all the way to 4GHz.

This is definitely good news for many overclockers and enthusiasts but of course you will need a good board to achieve such an overclock.

When it comes to overclocking whatever rating you’ve seen on Yorkfield 45nm quad core overclocking should be seen with Nehalem, and we all know that Core 2 generation was one of the best thing for overclocking since the beginning of time.

Naturally the unlocked Core i7 Extreme edition at 3.2GHz default clock might be able to clock even more but 4GHz from 2.66GHz is definitely an impressive number.
Quelle FUD
 
Ob da wohl was dran ist?! Würd ich zwar gut finden.. Aber ihr wisst ja, FUD :fresse:
Das erinnert mich irgendwie an AMDs Aussage, dass die 3 GHz K10 in den Spätsommertestsystem letztes Jahr nicht extra selektiert gewesen wären ...

Ok, geht hier um Intel und nicht um AMD ... aber die werden sicherlich auch nicht die schlechtesten Stückchen "leaken" ...

ciao

Alex
 
Naja, wie du selbst schon sagst geht es 1.) nicht um AMD und 2.) kommt die Info wohl nicht von Intel selbst ;)
 
Wäre nett, wenn es so wäre :)
 
Naja, wie du selbst schon sagst geht es 1.) nicht um AMD und 2.) kommt die Info wohl nicht von Intel selbst ;)

Jupp, auf gut deutsch: Man weiss nüscht. Die Meldung ists nichts wert. Selbst wenn die 100 Nehalems @4GHz ankarren, ist nichts bewiesen ;-)

ciao

Alex
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh