Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Mit isolierten (pseudo)Realmessungen tun Magazine weder sich noch den Lesern einen Gefallen. Zu viele Faktoren spielen hier eine erhebliche Rolle und beeinflussen die Messergebnisse.

Erstmal ist es für die Tester bisher unmöglich die reine CPU-Verlustleistung zu messen, die Spannungsversorgung auf den Boards und deren Qualität/Effizienz fließt also immer mit ein. Hinzu kommt dass ein und die selben Modelle mit diversen VIDs ausgeliefert werden (z.B. mit 1,20V oder 1,35V) und die Verlustleistung somit leicht um bis zu 20, 30% oder mehr differieren kann. Das Vcore-Undervolten/Overvolten der Boards hat ebenfalls nen erheblichen Einfluss auf die Endergebnisse. Die Liste ließe sich jetzt noch weiterführen, Stichwort unterschiedliche Revisionen/Steppings, und und und.

Es macht also wenig Sinn solche Ergebnisse auf die Waagschale zu werfen und in einer Diskussion analysieren zu wollen... zumindest wenn wichtige Angaben fehlen, z.B. Default-Vcore, Stepping, Fertigungsverfahren (siehe AMD-CPU), Under/Over-Verhalten des Boards, Effizienz der Spawas...

Edit: Und mal angenommen jemand würde es so genau nehmen wie ich :) Eine speziell selektierte CPU vom Hersteller würde wieder alles auf den Kopf stellen...

Edit2: Übrigens Reviewer sind oft inkompetenter als man denkt, jedenfalls wenn es um das Thema Stromverbrauch geht.

Edit3: Und zu guter Letzt, warum sollten ausgerechnet Tester (die unbestritten einen gewissen Einfluss haben und auch nur Menschen sind) nicht korrupt sein? Um wieder zurück zum Thema zu kommen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Edit2: Übrigens Reviewer sind oft inkompetenter als man denkt, jedenfalls wenn es um das Thema Stromverbrauch geht.
ohne frage...

bug#1
* Actual power consumption for the graphics cards only. Results taken at idle on the Windows desktop and under full load running the Fur benchmark.
:wall: Furmark unterstützt kein CF! Deswegen wundern mich die werte noch mehr ...:shake: (edit/ damit meine ich zb. die 4870X2)

inkompetenz vs. messungenauigkeit:fresse:
 
Zuletzt bearbeitet:
Du willst XBit und Hardtecs unterstellen, die CPUs nicht mit der Standard-Vid betrieben zu haben? Nunja, also das finde ich doch sehr merkwürdig... :confused: Zumal auch Deneb als AMDs 45nm Quad in absolut vergleichbare Verbrauchsbereiche zu rutschen scheint, der Sprung 65->45nm also bei beiden Herstellern vergleichbare Resultate brachte - was für mich deutlich schlüssiger erscheint als den Testern grundlose Manipulationen der Vcore zu unterstellen. Da wäre es genauso möglich, das die Intel-Quads übervoltet und die AMDs undervoltet werden und der Unterschied in Wirklichkeit noch größer ist ;) Das wäre jetzt wohl eine gleichsam unhaltbare Behauptung, darum vergessen wir das wohl schnell wieder :)
Das war nur ein Denkansatz von mir, würde ich sowas denen unterstellen, dann würde bzw müsste ich auch beweisen. ;)
Ich gebe zu, dass "..., die(s) zubeweisen gilt" missverständlich ist, da man es zweideutig auslegen kann.
Einerseit ne Aufforderung zum Beweisen, andererseits, wenn jemand dies behauptet soll er es auch beweisen.
Es wäre wünschenwert, wenn man zum Beispiel wie bei den Verbrauchsmessung sowas wie die Spannung etc. angeben würde, um Unklarheiten zuvermeiden, da es, wie che new schon schrieb, zuviele Faktoren gibt.
 
Zuletzt bearbeitet:
Anand kann es mal wieder nicht lassen und platziert mal unauffällig, quasi subversiv seine Propaganda:

http://www.anandtech.com/casecoolingpsus/showdoc.aspx?i=3413

2tes Diagramm

AMD Athlon 64 X2 6000+ 25W 74W 160W

Tut mir leid aber 160 Watt NUR der Prozessor ohne Board etc. ist absoluter Schwachsinn, selbst wenn man einen alten 90nm testen würde.

Auch der 5000+ ist blödsinn. Von Intel führt er NATÜRLICH nur 45nm Varianten auf, von AMD NUR 90nm Varianten und selbst die mit abenteuerlichen Stromverbräuchen (bezogen auf Dualcore). Ein aktueller 5000+ brauch doch nichtmal 60 Watt.

In dem Artikel geht es natürlich nicht direkt darum, es wird aber mal wieder unterschwellig mit gefaketen Werten und absichtlich ausgewählter peer group ganz nebenbei dem Leser klar gemacht das ein 6000+ von AMD 160 Watt benötigt unter Vollast, dafür aber scheinbar das CnQ vom 6000+ besser ist als das vom 5000+. Da kann ich mir ja selber noch "logischere" Werte Ausdenken.


Die Werte dort sind übrigens abgeschrieben aus der PCGH. Kein Wort von anandtech woher die stammen. Der QX6850 ist eine 65 nm Variante.
 
Die Werte dort sind übrigens abgeschrieben aus der PCGH. Kein Wort von anandtech woher die stammen.

Echt? Ich dachte die Messungen/Werte stammen wie der Artikel selbst von einem deutschen Tester der früher für P3D gearbeitet hat (Netzteiltests) und seit einiger Zeit für Anandtech arbeitet. Hast du nen Links der verdeutlich, dass die Werte von PCGH stammen sollen? Vielleicht stellt der Tester beiden Magazinen seine Ergebnisse zur Verfügung. Kannst ja mal die Namen der Autoren vergleichen...
 
Zuletzt bearbeitet:
Echt? Ich dachte die Messungen/Werte stammen wie der Artikel selbst von einem deutschen Tester der früher für P3D gearbeitet hat (Netzteiltests) und seit einiger Zeit für Anandtech arbeitet. Hast du nen Links der verdeutlich, dass die Werte von PCGH stammen sollen? Vielleicht stellt der Tester beiden Magazinen seine Ergebnisse zur Verfügung. Kannst ja mal die Namen der Autoren vergleichen...


Ja hast recht. Christoph Katzer bei beiden. Die Werte stehen schon fast 3 Monate in einer der letzten PCGH Ausgaben.
 
Apropos PCGH, steht zufällig dort ob der X2 5000+ 90nm oder 65nm ist? Wobei ich bei 33W Idle (C'n'Q) eher auf 130nm o. ä. tippen würde^^.
 
@mirko10
Super danke, im Anandtech-Artikel habe ich das nicht entdecken können, nur beim X2 6000+ (im Fließtext). Die X2-Messungen scheint er dann bereits vor laaaaanger Zeit gemacht zu haben.
 
Mal wieder was zu den Benachteiligungen:

http://www.digit-life.com/articles3/cpu/phenom-x4-matlab-p1.html

Blöd, wenn sich AMD selbst ein Bein stellt ...

ciao

Alex

Hat wohl eher was mit dem alten Drama Intel Compiler und der (nicht vorhandenen) Optimierung der Software für AMD Prozessoren zu tun. Ganz klar ein Programmierfehler der Malab Entwickler denn das Problem hätte man bei einem internen Test problemlos erkennen können. Jedoch findet das scheinbar nicht statt und man liefert Software aus die auf einem AMD Prozessor zwar läuft aber nicht annähernd dessen Potential nutzt.

Die Biblotheken an sich erzeugen ja nicht den Fehler sondern deren Verwendung. Also hat Malab scheinbar mit alten Biblotheken gearbeitet und war zu faul die neuen zu verwenden, das erklärt warum eine alte ACML mitgeliefert wurde und die neue abstürzt.
 
@Opteron
Wie kommst du darauf, dass sich AMD selbst ein Bein stellt? Lediglich der ODE Benchmark schaut seltsam aus. Und ob das an ACML oder MATLAB liegt, kann man anhand der Infos schlecht beurteilen.
Was zu kritisieren wäre, ist, dass hardwareabhängig unterschiedliche Software (Bibliotheken) verwendet werden. Das führt einen Hardware Vergleich praktisch ad absurdum. Aber das kann man schlecht jemandem vorwerfen. Vielleicht maximal den Testern. Dann sollten sie so etwas aus dem Test Parcours einfach rausnehmen. Oder eben grundsätzlich die selben Bibliotheken verwenden. Wobei das auch nicht alle zufrieden stellen wird. Bei MKL beschwert sich AMD, bei ACML Intel.
 
Die Biblotheken an sich erzeugen ja nicht den Fehler sondern deren Verwendung. Also hat Malab scheinbar mit alten Biblotheken gearbeitet und war zu faul die neuen zu verwenden, das erklärt warum eine alte ACML mitgeliefert wurde und die neue abstürzt.

Aber sollten solche Bibliotheken nicht ein stadardisiertes Interface haben ?
Ich meinte mit dem "Bein stellen", dass die aktuelle Version nicht lief.

Ok, wenns mit jeder neuen Version ne Programmanpassung geben muss, dann lag ich falsch, aber bisher war ich eben andres gewöhnt ..

ciao

Alex
 
http://ht4u.net/reviews/2008/amd_phenom_leistungsaufnahme/

Preiset den Herrn, endlich hat sich mal jemand die Mühe gemacht das Phänomen des stromfressenden Phenoms aufzuklären.

Wie ich dieses DQ6 von Gigabyte hasse und alle Redaktionen die ohne drüber nachzudenken dieses verwendet haben.

Edit

Die Seite gefällt mir:

Test zum PR211

http://ht4u.net/reviews/2008/msi_pr211/index10.php

Man beachte den Kontrast zum review von notebookjournal.de vor allem bei den Akkulaufzeiten. Das Puma schafft @ Desktop fast 4 Stunden Laufzeit.

http://www.notebookjournal.de/tests/616
 
Zuletzt bearbeitet:
die messungen dort unterstützen genau das, was ich bei meinem kürzlichen wechsel von nem auf 3GHz gepushten pentium E2140 in verbindung mit ner DQ-6 platine auf nen 9750er X4 anhand der anzeige meines verbrauchmessgerätes beobachtet habe. ich hab jetzt trotz 4 kerne im idle ganze 10watt weniger. es mögen noch faktoren wie das mainboard, chipsatz usw ne rolle spielen aber überrascht war ich allemal. werd nachher nochmal den phenom @ 3GHz nachmessen. übrigens hab ich das komische gefühl, dass mein windows mit dem Phenom ne ecke "spritziger" läuft, insgesamt agiler ist. konnte das noch jemand beobachten? (ich habs mit 2 frischen installationen getestet)
 
Zuletzt bearbeitet:
128,2 Watt für den 9850. Die Messung kann man als genau ansehen. Christoph Katzer hatte da 126,0 Watt gemessen. Das ist natürlich noch um einiges zu hoch.
 
Naja immer noch die Spannungwandler mit drin, die auf AMD-Boards leider oft minderwertiger als bei Intel-Platinen sind, zumindest bei Hersteller wie Gigaybte und ASUS. Ich lesen mir mal den Artikeln erstmal in Ruhe durch, aber einiges ist mir beim drüberfliegen schon aufgefallen.
 
Naja immer noch die Spannungwandler mit drin, die auf AMD-Boards leider oft minderwertiger als bei Intel-Platinen sind, zumindest bei Hersteller wie Gigaybte und ASUS. Ich lesen mir mal den Artikeln erstmal in Ruhe durch, aber einiges ist mir beim drüberfliegen schon aufgefallen.

das ist doch quatsch, man muss nur die Spannungswandler ausreichend dimensionieren.

die ersten AM2+ Boards bzw. die µATX Boards waren eben nur auf kleine CPUs ausgelegt.
Bei Betrieb mit nicht zugelassenen CPUs gibts dann Probleme und nun ist aufeinmal das Mainboard Schuld?

das Verwendete DS6 hat eine 10 Phasige Spannungsversorgung was natürlich übertrieben ist und den Stromverbrauch unnötig hochtreibt.
6 Phasen reichen völlig aus.

Natürlich wollen Premium Boards Protzen mit hohen Zahlen, das sie die Nachteile dabei nicht bedenken.
 
Zuletzt bearbeitet:
Woran erkennt man als geneigter Käufer das auf einer Platine minderwertige Spawas verbaut worden sind? Inwiefern sind Selbige minderwertig?
 
Woran erkennt man als geneigter Käufer das auf einer Platine minderwertige Spawas verbaut worden sind? Inwiefern sind Selbige minderwertig?

es gibt kein minderwertig sondern nur nicht ausreichend dimensioniert.
in den Herstellerangaben steht das in der Regel drin.

ein Indiz ist dafür welche CPUs das Mainboard aufnimmt.

mein altes Asus M2N32SLi Deluxe (Damaliges Premium Board) hat 8-Phasen nimmt aber für ein AM2-Board auch alle aktuellen CPUs auf, verbraucht aber auch etwas mehr Strom.
 
Zuletzt bearbeitet:
Solange AMD und Intel nicht die selben Prozessoren herstellen...

Auch wenn dieser Post schon uralt ist... :lol:

Musste mir das grad irgendwie so vorstellen, Intel und AMD fusionieren unter dem Namen Aimdel und auf ner Aktionärsversammlung steht Vorstandsvorsitzender Honecker am Mikrofon und sagt "Niemand hat die Absicht einen neuen Pentium zu errischten" :stupid: :fresse:
 
So einfach ist die ganze Sache nun wirklich nicht, da Differenziert H4U auch zu wenig und pauschalisiert. Viel Phasen sind unter Last eher von Vorteil (im Idle wenige Phasen), das hat in erster Linie also schlichtweg mit der Effizienz und Qualtität der Mosfets/Spulen zu tun und nicht nur mit der Anzahl. Später wenn ich Ziet habe kann ich mehr dazu schreiben.
 
Zuletzt bearbeitet:
nein es geht mir aber um die Verhältnismäßigkeit

Mehr Wandler bringt mehr Leistung und Stabilität aber auch gleichzeitig Stromverbrauch.

Da muss man abwägen,wieviel und welches Bauteil sinn macht.

Manche Boards bietet es z.b. ein Teil der Spannungswandler abzuschalten im Idle. (Asrock)
 
Zuletzt bearbeitet:
Na mal schauen, ob HT4U dann auch Deneb testet. Wäre auf jeden Fall ein interessanter Vergleich, was sich gegenüber 65nm getan hat. Eine aussagekräftige Basis hätte man ja jetzt erstmal. 80 W für 2,3 GHz und 100 W für 2,6 GHz sind für aktuelle Modelle auf jeden Fall plausibel.
Auch interessant, von 2 auf 4 Kernen sieht man, dass sich die Leistungsaufnahme praktisch verdoppelt. Dh, K10 braucht pro Takt genauso viel Strom wie K8, und nicht mehr, wie hin und wieder kolportiert wird.
 
ich hab gestern das thema VERBRAUCH mal in nem thread auf Computerbase angeschnitten, die CB Testverantwortlichen angesprochen und auch auf den artikel verlinkt ;)

*KLICK*
 
Zuletzt bearbeitet:
Ganz lustig sind auch immer die Grafikkarten Tests mit zig Treibern. Das sieht dann so aus:

* Nvidia ForceWare 174.16
* Nvidia ForceWare 174.53 (9800 GX2, 9800 GTX)
* Nvidia GeForce 177.34 (GTX 280)
* Nvidia GeForce 177.39 (9800 GTX+, GTX 260)
* Nvidia ForceWare 177.72 (9500 GT, 9800 GT)
* Nvidia GeForce 177.92 (9600 GSO)
* ATi Catalyst 8.3
* ATi Catalyst 8.6 Release 5 (HD 4850, HD 4870)
* ATi Catalyst Sample 8-52-2 (HD 4870 X2)
* ATi Catalyst Sample 8.53_RC1 (HD 4670)
http://www.computerbase.de/artikel/...n_hd_4870_pcs_1024_mb/4/#abschnitt_testsystem


Ist dann immer sehr vergleichbar wenn Karten mit Cat 8.3 gemessen wurden und im selben Test mit deutlich aktuelleren verglichen. Und jetzt darf keiner mit zu viel Arbeit kommen, dann muss man das Testprogramm eben halt reduzieren. Eine Vergleichbarkeit sollte immer gewährt sein. Die erreicht man nicht mit hundert verschiedenen Treibern.
 
Ist bei Prozessor Tests teilweise genauso. Ich wäre ja dafür, dass man hier Treiber- bzw Versionsprofile verwendet, wenn man schon nicht alles neu testen möchte. Also dass man zB eine Grafikkarte mit 2 verschiedenen Treibern testet, was ComputerBase ja bereits teilweise macht, und die Unterschiede dann in einem Profil festhält. In einer optionalen Statistik könnte man dann alle Grafikkarten anhand dieser Profile auf einen entsprechenden Treiber normalisieren. Das mag nicht ganz exakt sein und teilweise auch verzerren, aber sofern man dies kenntlich macht, ist es allemal besser als die momentane Vorgehensweise.
 
Hi@all
hab mir jetzt nicht die mühe gemacht den ganze thread hier durch zu lesen.
Habe meinen E8500 @4038Mhz bei vid. bzw. vcore 1.25v zu laufen.
Eist u. C1 angeschaltet und kann mich eigentlich nicht über temp probleme oder
zu hohen stromverbrauch beschweren.
Denke mal das muss jeder selbst wissen was er will.
Viele haben ja mittlerweile schon mehr als einen rechner zu hause stehen.
Den einem zum zocken den anderen für´s net.
Gut mag sein das amd im moment im hintertreffen ist was das technische anbelangt zumindest was den shrink und stromsparfunktionen angeht. Aber
in gewissen bereichen stimmt das ja so auch wieder nicht.
Das sieht man in neutralen cpu benches da hat amd auch positionen wo sie die nase vorn haben.
Hier im anhang mal den pic da zeigt everest was der/die cpu so im idle verbrät.
 

Anhänge

  • E8500.JPG
    E8500.JPG
    83,1 KB · Aufrufe: 49
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh