Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Nicht nur Idle auch die Last-Werte enthalten nicht den Uncore-Bereich und sind verfälscht. Und unter Last werden erwartungsgemäß noch mehr als nur ca. 6-7 Watt hinzukommen, denn der IMC + L3 Cache werden unter Last bestimmt nicht nur so wenig wie im Leerlauf ziehen. ;)
Ist schon witzig was da zusammengemessen wurde und wieder zugunsten Intels. Schon komisch bin ja gespannt ob da noch ne Richtigstellung kommt.
Besonders von den von Intel gesponserten Konsorten.
 
Zuletzt bearbeitet:
Der Autor und Tester, hat das ja nicht gewusst, also dass der Uncore-Bereich über die 5V bzw. 3,3V Schiene versorgt wird. Intel hat den Testern nicht die nötige Dokumentation gegeben. Schön das es nun so ans Tageslicht kommt. Diese 2-3W (inkl. Wandler lol) Idle-Messungen erschienen ja unglaublich, zumindest bei einer IMC-CPU.
 
Zuletzt bearbeitet:
Gibt ja bis auf ht4u nicht viele die die CPU direkt gemessen haben.

Finde ich auch schön das sich meine Maxime mal wieder bestätigt, dass nur Gesamtsystemsmessungen wirklich zählen.

Prima das jetzt die so niedrigen ht4u Werte sich erklären und relativieren lassen. Da sind die X58 Boards doch nicht so große Stromfresser wie bisher immer behauptet wurde sondern es ist wirklich der Nehalem selber.
 
Ist schon witzig was da zusammengemessen wurde und wieder zugunsten Intels.
Ich würde dem Autor da aber keinen Vorwurf machen. Aus den ihm verfügbaren Unterlagen ging das eben nicht hervor. Und Intel hält sich mit technischen Unterlagen rund um den Nehalem bisher auch noch recht bedeckt.
Interessant finde ich die Ergebnisse aber allemal. Vielleicht öffnet das auch den Leuten die Augen, die immer rigeros verneint haben, dass der 65 nm Phenom bei weitem keine 10 W oder gar mehr für den Uncore Bereich braucht.
 
1. AMD mit DQ6

2. Welches Programm für Vollastmessung? Steht nicht da.

3. War Turbo an? Wohl eher nicht.

Insgesamt wenig brauchbar.

1. Es geht mir ja um den Vergleich mit dem Penryn.

2. Wohl für alle das gleiche, oder weißt du mehr?

3. Link!?
 
Ich vergleiche halt mit den Messungen von Computerbase und wie die in ihrem Test schreiben, gibt es ein CPU Auslastungsprogramm das nur 4 Kerne auslastet und SMT nicht richtig nutzt.

Das würde aber den Verbrauch zugunsten vom Nehalem verzerren da er vollausgelastet mit SMT deutlich mehr verbraucht. Desweiteren ist ja auch der Turbo ein wahrer Stromfresser.

http://www.computerbase.de/artikel/...treme_edition/26/#abschnitt_leistungsaufnahme

Mehr als den Cbase Test brauch man eigentlich nicht. Da ist alles ordentlich beschrieben und ausgemessen.

Bei den Werten ist zu beachten, dass bei den Benchmarks und bei der Leistungsaufnahme der Turbo Modus eingeschaltet war. Beim 920 kostet das abschalten des Turbos etwa 3% Leistung, senkt den Stromverbrauch aber um über 20 Watt.
 
Zuletzt bearbeitet:
Dann ist der Verbrauch ohne Turbo doch voll im Rahmen!?
CB schreibt ja selbst das Turbo nur wenig bringt und beim Übertakten ausgemacht werden sollte. Wenn man sich dazu die Mehrleistung bei zdnet anschaut:
http://www.zdnet.de/i/et/client/cpu/200811/benchmark-grafiken/image002.png

Ist doch alles topi! Verstehe nicht was einige da zu nörgeln haben. Rundes Produkt und das alles trotz fast komplett neuer Plattform, etc. Nichtmal der Penrynlaunch war so unproblematisch. Jetzt noch 1-3 Monate und ich weiß welcher Quad es wird. :)
 

Wenn man den dagegen stellt, fragt man sich schon was die Magazine alles für wilde Ergebnisse beim Nehalem so herausbekommen: http://www.pcwelt.de/start/computer/prozessor/tests/185273/intel_core_i7_prozessor/index3.html

Idle
i7 920 159w
i7 965 163w
QX9770 158w
Q9450 135w
X4 9950 (Gigabyte 790FX DQ6) 185w

100% CPU-Last
i7 920 283w
i7 965 300w
QX9770 222w
Q9450 186w

X4 9950 (Gigabyte 790FX DQ6) 311w


Zdnet hat im Gegensatz zu PCWELT ein Gigabyte X38 statt ASUS X38 verwendet und 4 Riegel statt 2 Riegel. Vielleicht hat Gigaybte trotz Spitzenbauteile auch beim X38 nen Griff ins Klo gelandet? Der QX9770 von PCWELT muss auch ein relativ junger sein, der Verbrauch tendiert eher in QX9650 Richtung. Aber dennoch sind diese krassen Unterschiede zwischen den ganzen Magazinen nur noch schwer nachvollziehbar und rechtzufertigen. So ein widersprüchliches Ergebnisse-Wirrwarr, sei es bei der Performance oder beim Stromverbrauch, habe ich bisher bei noch keiner CPU-Generation erlebt.
 
Zuletzt bearbeitet:
Ja find ich auch sehr komisch.

Naja ich bin ja guter Dinge, dass bald mal gute Reviews kommen, die das ganze weiter beleuchten. CB, HWL und einige andere haben ja schon angekündigt nochmal nachlegen zu wollen.

Aber das der QX9770 nur 64W mehr zieht zwischen idle und Last ist schon sehr wenig, oder!? Nicht desto trotz sieht auch hier der idle Verbrauch relativ gut aus.
Was mich viel mehr interessieren würde wäre der Querschnitt der max Aufnahme in Anwendungen in Bezug auf die darin erreichte Mehrleistung. Obwohl für mich persönlich eigentlich bis zu einem gewissen Punkt nur die Leistung zählt..

Sowas wie 20% schneller 20% mehr Verbrauch (extra neutral gehalten!) in DivX..

Edit: Naja ich nehme mal an das WirrWarr liegt daran, dass die Plattform neu ist und es soviele Möglichkeiten gibt. Das erkennt man ja auch an den Benchmarkversuchen von HWL-Printed, die ab 3,4Ghz von enormen Kühlungsprobs sprechen und nun die Retails eigentlich gut bei 3,8Ghz+ kühlbar sind und die Temps wohl noch zu hoch ausgelesen werden.
Am Ende will ich eben wissen, wenn ich zB. 3,5Ghz fahre, was mir der Turbo bringt, was mir SMT bringt wieviel beides mehr verbraucht, etc. Aber da lass ich erstmal die erste Boardrevision an mir vorbei gehn. Bei den meißten Boards sind ja noch nicht mal die ersten großen Biosupdates rausgekommen. Wenn beim Start des Penryn jmd gesagt hätte, dass es mal möglich wird einen Penryn locker mit 4Ghz unter Luft zu kühlen hätte man ihn ausgelacht! Und heute ist das locker möglich, will sagen abwarten und auf Deneb warten und dann entscheiden..sry for Ot! ;)
 
Zuletzt bearbeitet:
Aber das der QX9770 nur 64W mehr zieht zwischen idle und Last ist schon sehr wenig, oder!?

In dem Fall nicht unbedingt, denn der QX9770 zieht hier im Idle bereits 20W mehr als der Q9450 (wobei auch der FSB 400 statt 333 ist). Scheinbar haben aber die Stromsparfunktionen beim QX9770 nicht gegriffen, so dass die Zunahme zwischen Idle und Last zwangsläufig kleiner ausfällt. Aber es ist immer bissl schwierig das erkären zu wollen was andere (evtl. falsch) gemessen haben.
 
Jop so wirds wohl sein, wobei da eben echt viel mit reinspielt. Im Nehalem Thread haben die ersten 2 jetzt auch welche mit einer Vid von unter 1V. Da würde mich der idle Verbrauch auch mal interessieren.
 
Die unterschiedlichen Messungen beim i7 liegen bestimmt auch an den unterschiedlichen Boards. Beim Phenom wird immer das Gigabyte ä die Stromschleuder benutzt.
 
Meinen die das mit dem Chache wirklich ernst? Klingt wie ein Gag ;)

Größenmäßig kann man das schon so machen, bei Intel könnte man vom L2 sogar noch den L1 abziehen. Aber sind eh nur Peanuts und der Hauptnachteil von AMD ist, dass der Löwenanteil des Caches (die 2MB L3) ein "bisschen" langsamer sind ... aber das ist halt so..

ciao

Alex
 
Mir persönlich fehlt die Stromverbrauchsmessung (mit Gigaybte 790FX DQ6) :lol:

Edit: Der Untertitel... "Fair fight: one core, same memory, same clock rate" :shot:

Ich hätte gerne einen "two cores, halbwegs same cache"-Vergleich gesehen, der wäre zur Abwechslung wirklich halbwegs interessant.
 
Zuletzt bearbeitet:
Das wäre mal echt ein Ding:

Nvidia kauft Redaktionen um mit selektiver Spielauswahl gut dazustehen.

Ein Tag, 3 Redaktionen, immer 4870 1GB vs GTX260 216, immer die gleichen Spiele mit der gleichen Intention: was ist die beste Karte um zu Weihnachten zu spielen. Logischerweise auch bei allen das gleiche Ergebnis: Nvidia ist der klare Sieger. Zufall?

mehr dazu hier:

http://www.computerbase.de/forum/showpost.php?p=5121439&postcount=122

We weren't expecting it, but the Nvidia BFG GTX-260 Core 216 (MaxCore) made it a clean sweep. With every game at every resolution, it took the lead and kept it. If this were a Shootout at the OK Corral the ATI GPU would be sprawled in a pool of blood with five holes in its core and the Nvidia GPU would be left standing unscathed.

You can't get much clearer than that. "The perfect GPU for the 2008 Christmas seasons hottest games, in the $300 dollar price range, is the GTX-260 Core 216." Be sure when you set on Santa's lap you tell him no GTX-260 Core 216 or don't slide down my chimney!

Natürlich werden TWIMTBP Spiele getestet für die ATI noch keine aktualisierten Treiber herausbringen konnte und dementsprechend schlecht abschneidet.

Was mich traurig macht ist, dass Cbase auch beteiligt ist.
 
Zuletzt bearbeitet:
Wo gibts denn da eine Liste? Und ATI hat doch ein ähnliches Programm laufen ohne das mir der Name einfällt, kennst du da evntl auch einen Link?

Übrigens mal als Denkanstoß: Das extreme RV770-Game CoD4 steht ebenfalls auf der Liste. Stalker - ebenso. Crysis mit auch recht brauchbarer Performance genauso. Nur mal so nebenbei...
 
Zuletzt bearbeitet:
Spielen denn ATI-Besitzer diese Games nicht? Von den aktuelleren Blockbustern stehen ja fast alle auf der Liste... Und nochmal, warum war ATI im TWIMTBP CoD4 noch so stark?

Edit: Die Parallelität der Tests ist allerdings merkwürdig, da stimm ich zu - mal sehen wie sich CB dazu äußert.
 
Zuletzt bearbeitet:
anscheinend muss Nvidia ein bisschen den Absatz steigern, die Gewinneinbrüche der letzten Zeit zeigens ja.
 
Hier auch: http://www.bjorn3d.com/read.php?cID=1414

Wird wohl mit dem Treiberrelease 180.48 zusammenhängen, der einige performance Steigerungen verspricht. Sieht man doch daran, dass die Tests mit 180.47 gemacht wurden, dürfte ja im wesentlichen der gleiche sein. NVIDIA hat sich da wahrscheinlich ein paar Vorgaben ausgedacht, im Gegenzug bekamen die reviewer den 180.47 und die reviewer durften loslegen. In den getesteten Spielen sind die NVIDIA Karten dann einfach so schnell wie es aussieht. AMD kann ja gerne das gleiche veranstalten.
 
Die Redaktionen lassen sich hier einfach vor den Karren von Nvidia spannen. Mit einer neutralen und unabhängigen Bericherstattung hat das nichts zu tun.

Vor allem auch noch auf so eine billige Art und Weise:

Ausgesuchte Spiele die ohnehin schon auf Nvidia von den Entwicklern optimiert wurden

Ausgesuchte Einstellungen

Neue und deshalb bei der Konkurenz unoptimierte Spiele, während man für die eigene Karten schon den optimierten Treiber mitliefert.

Das alle Tests am gleichen Tag rauskommen hat auch den Grund, damit ja nicht ATI mit einem neuen Treiber nachlegen kann.
 
Wie billig ist das denn? Vorgegebene Titel (TWIMTBP), vorgegebene Setting (nur 4xAA keine 8xAA)...

Naja man kann es auch so sehen, mit diesem Marketing-Gag trennt sich die Spreu vom Weizen bei den Testmagazinen (in Bezug auf Glaubwürdigkeit, Neutralität und Unabhängigkeit). Wer da mitmacht ist selber Schuld und brauch sich in Zukunft nicht über Gegenwind wundern.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh