Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Damit so aus einem Minderverbrauch mit Prime bei HT4U 8W Mehrverbrauch werden? Das ist so nicht möglich, zumal du um bei Prime den Ram zu stressen auf den Blend-Test zurückgreifen musst, der wiederum die CPU deutlich weniger auslastet - ich vermute hier simple Messfehler des günstigen Strommessers, da hat HT4U deutlich mehr Aufwand betrieben.
Ich konnte mit keinem Programm eine höhere Verlustleistung erzeugen als mit Prime!

Core2MaxPerf = 198 Watt
Prime (small FFTS) = 201 Watt
Prime (large FFTS) = 206 Watt
Prime (Blend Test) = 196 Watt
CPU Burn (MMX + 64 MB) = 178 Watt
wPrime (1024M) = 175 Watt
Cinebench 10 = 177 Watt
Fritz Chess Benchmark = 184 Watt

Verbrauch gemessen mit einem Conrad Energy Check 3000 und das ist laut diversen Tests recht zuverlässig.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1. Es steht nicht da welches Strommessgerät von Wiking verwendet wurde. ->Spekulation
2. Wieviel beträgt denn laut dir der genaue unterschied zwischen Prime (small in place) und Core2MaxPerf? Der unterschied den Wiking inkl. Meßungenauigkeit gemacht hat ist doch verschwindend gering...
3. Ständig suggerierst du dinge wo keine fakten zur hand sind



1. Würde mich freuen wenn er das nachträgt :) edit: done
2. Wurde im HT4U Test gemessen, ein paar Seiten vor der eigentlichen Messung - waren knapp 20% meine ich mich zu entsinnen, aber schlag einfach mal nach
3. Nun, ganz einfach: Wurde nicht Blend benutzt, sondern ein anderer Prime Test, ist seine gesammte Argumentation hinfällig, denn nur Blend nutzt nennenswert RAM, kannst du ja gerne mal selbst testen ;)
 
Zuletzt bearbeitet:
Hallo Wiking,
Interessant wäre noch, ob du damals beide Systeme mit dem gleichen Messgerät gemessen hattest, weil dann die Messungenauigkeit in beide Messungen mit eingeflossen ist. Wobei dann die Tendez (mehr - weniger Verbrauch) sehr zuverlässig wäre.
 
Ich verstehe erstmal die Argumentation von Undertaker 1 mit Prime Blend nicht :confused: Wiking hat doch geschrieben, dass er den Prime large FFTs gemacht hat (die Beschreibung dazu lautet übrigens: maximum heat, power consumption, some RAM tested). Bei H4U kann man dagegen überhaupt keine Angabe dazu finden, vielleicht haben die ja den für CPU-Auslastung unsinnigen Prime Blend genommen... wer weiß das schon?

Edit: Sehe gerade Undertaker 1 hat das unsinnige Posting mit Prime Blend gleich wieder gelöscht... besser so.

Deshalb liegt die Benachteiligung für AMD meiner Meinung nach in Folgendem: Bei Intel wurde die CPU exklusive Memorycontroller gemessen, bei AMD inkl.. Darum habe ich auch oben zugefügt: 100%load@AMD ist nicht 100%load@Intel. Darum fordern ja auch die meisten hier Gesamtsystemmessungen von gleichwertigen Systemen mit nahezu gleicher Austattung und gleichem Preisfeld (High-End/Midrange/Low-End)...

Und für die einzig fairen und relevanten Gesamtsystemmessungen hat H4U genau das von Undertaker 1 kritisierte Energy Check 3000 verwendet ;) http://ht4u.net/reviews/2008/intel_core_leistungsaufnahme/index8.php
Also die machen sich da auch nicht mehr "Mühe" (selbst einige User hier habe neben diesem Energiemesser noch etwas genauere wie den Energy Monitor 3000 und ELV EM600), nicht mal bei der Auswahl von vergleichbaren Chipsätzen. Und deswegen sind die Gesamtverbrauchswerte nicht repräsentativ.
 
Zuletzt bearbeitet:
Na überleg mal, was eine Messungenauigkeit jetzt genau darstellt ;) 8W bei 200-300W insgesammt ergibt grob 3%, weit mehr als du mit diesen Dingern zuverlässig messen kannst - wie gesagt, die HT4U Messung ist da auf Garantie aussagekräftiger, zumal es schon rein logisch sehr unsinnig ist, dass bei einem für die CPU deutlich leichterem Test wie Prime Blend ein Mehrverbrauch in einer Größenordnung herausspringen soll, die weit über dem liegt was durch eine Mehrbelastung von Speicher oder MC entstehen kann.

So kann man Messungenauigkeit nicht auslegen. Wenn beide Systeme mit dem gleichen Messgerät gemessen wurden, dann betrift die Messungenauigkeit auch beide Systeme. Insofern stimmt dann aber die Tendenz (mehr - weniger Verbrauch) eindeutig.
 
Zuletzt bearbeitet:
Hallo Wiking,
Interessant wäre noch, ob du damals beide Systeme mit dem gleichen Messgerät gemessen hattest, weil dann die Messungenauigkeit in beide Messungen mit eingeflossen ist. Wobei dann die Tendez (mehr - weniger Verbrauch) sehr zuverlässig wäre.

Ich habs nicht damals gemessen sondern vor ca. einer halben Stunde alle Progs nacheinander und natürlich immer mit den selben System-Einstellungen. ;)
Der EnergyCheck 3000 ist ständig am PC angeschlossen und ich verwende nur dieses eine Messgerät.
 
Fazit: der ht4u Test ist bezüglich der Load Leistungsaufnahme absoluter mist. Können wir es nicht einfach dabei lassen? Die Datenlage ist so schlecht das man da wirklich nichts hinein interpretieren kann, wer nun speziell in diesem einen Punkt benachteiligt wird.
Dann sag das mal Undertaker. Das haben nun schon mehrere Leute gesagt, einschliesslich meiner Wenigkeit. Wiking hat auch ein interessantes Beispiel gebracht. Undertaker kennt aber anscheinend Fakten, die eine Benachteiligung Intels zeigen. Zu dumm nur, dass diese ansonsten keiner sieht. :rolleyes:

Was ich an den Entwicklern zu bemängeln habe ist, dass Sie fast alle Programme auf Intel optimieren
Entwickler optimieren nicht direkt für eine bestimmte Architektur, mal von ganz wenigen Sachen abgesehen. Es ist einfach so, dass oftmals der Intel Compiler eingesetzt wird, der die Möglichkeiten von Nicht-Intel Architekturen (AMD, VIA) nicht gänzlich ausnutzt. Der MS Compiler scheint da auch immer noch in diese Richtung zu gehen. Weiter vorne findest du einen Test zu Lame, wo ich das ganze mal mit einem etwas "neutraleren" Compiler (GCC) gegengetestet habe.
 
So kann man Messungenauigkeit nicht auslegen. Wenn beide Systeme mit dem gleichen Messgerät gemessen wurden, dann betrift die Messungenauigkeit auch beide Systeme. Insofern stimmt dann aber die Tendenz (mehr - weniger Verbrauch) eindeutig.

Die Toleranz kann natürlich grundsätzlich zwischen allen, selbst direkt auf einanderfolgenden Messungen, vollständig ausgenutzt werden, das was du jetzt beschreibst wäre nur eine Eich-Ungenauigkeit - die wäre dann in vergleichbarer Form bei allen Messungen enthalten.

Undertaker kennt aber anscheinend Fakten, die eine Benachteiligung Intels zeigen. Zu dumm nur, dass diese ansonsten keiner sieht. :rolleyes:

Doch, und zwar die Autoren selbst ;) Benötigst du nocheinmal den Link? Geb ich doch gerne :)
 
Zuletzt bearbeitet:
Das Ganze dreht sich doch hier im Kreis. Wo ist der Sinn wenn zig Leute einen lern- und argumenationsresistenten User, der nicht mal eine Praxiserfahrung zum Thema beisteuern kann (im Gegensatz zu anderen), versuchen zu überzeugen?
 
Doch, und zwar die Autoren selbst ;) Benötigst du nocheinmal den Link? Geb ich doch gerne :)
Und hier wird die richtigkeit dieser aussage in frage gestellt. Immerhin wird dort auch cpu only gemessen...
Also kurz gesagt, die kompetenz dieser Autoren ist etwas fragwürdig was schonmal in diesem thread erwähnt wurde ;)
 
Die Toleranz kann natürlich grundsätzlich zwischen allen, selbst direkt auf einanderfolgenden Messungen, vollständig ausgenutzt werden, das was du jetzt beschreibst wäre nur eine Eich-Ungenauigkeit - die wäre dann in vergleichbarer Form bei allen Messungen enthalten.
Mit Eich-Ungenauigkeit hat das gar nichts zu tun.
Wenn ein und daselbe Messgerät bei tatsächlich steigender Last, weniger Last anzeigt (also entgegengesetzt!!! :eek: ), dann hat das nichts mehr mit Messungenauigkeit oder Eich-Ungenauigkeit zu tun, sondern dann wäre das Messgerät kaputt!

Es wurde mit dem selben Messgerät zwei Werte gemessen:

Core2MaxPerf = 198 Watt
Prime (large FFTS) = 206 Watt

Wenn das Messgerät nicht kaputt ist, dann verbraucht Prime mehr als Core2MaxPerf.
 
(Mal davon abgesehen, dass die Messgeräte von den Herstellern kalibriert werden, anstatt ein teures Eichverfahren für jedes Gerät in Kauf zu nehmen)

Wenn Du die 8 W auf 300 W gesamt rechnest kommt man auf 2,66%. Ein typisches Messgerät hat eine Abweichung im max. Messbereich von 1% bei 3000 W. Also selbst bei diesem "billigen" Gerät sollte man den Unterschied im Verbrauch von 8 W klar erkennen können.
 
Wir könnten jetzt einen großen Ausflug in den Bereich elektrische Messtechnik machen, bzw. systematische und zufällige Fehler (auch was "Eichen" und "Kalibrieren" heißt, wiki hilft).

http://de.wikipedia.org/wiki/Klassenzeichen

z.B. das die klassische Messungenauigkeit absolut auf den Messbereich bezogen gleich bleibt, relativ jedoch bei geringer Messbereichsausnutzung sehr groß wird.

Bei dem Voltcraft 3000 sieht das jedoch wieder anders aus, denn eine Abweichung von +-30 Watt dürfte deutlich zu hoch sein. Ich gehe davon aus das das Messgerät intern automatisch die Messbereiche umschaltet und so bei geringen Messwerten den absoluten Fehler verringert.

Zudem dürften die Messwerte i.d.R. reproduzierbar sein, was auch gegen einen großen zufälligen Fehler spricht. Zumindestens trifft das auf mein eigenes billig Messgerät zu das schlechter als das voltcraft sein dürfte.

Zudem sind die angenommenen Messfehler des Messgerätes hauptsächlich systematische Fehler (deshalb auch absoluter Wert über den gesamten Messbereich) jedoch deutlich weniger zufällige Fehler. Merke: systematische Fehler haben Betrag und Vorzeichen und treten bei Wiederholung der Messung immer wieder gleich auf.

Fazit: um die Unterschiede zwischen verschiedenen "Load" Zuständen am GLEICHEN System zu ermitteln, wie es Wiking getan hat, ist das voltcraft 3000 völlig ausreichend und aussagekräftig.
 
Zuletzt bearbeitet:
Ähm... also gerade schlapp, bei dir hätte ich schon erwartet das dir folgendes bekannt sein sollte ;):

Bei Schaltnetzteilen in PCs hast du keinerlei sinusförmigen Spannungsverlauf mehr, sondern einen induktiv verschobenen, gepulsten Dreckhaufen - die 1% Abweichung in der Herstellerangabe beziehen sich dabei nämlich auf rein ohmische Lasten, das ganze in einem Bereich nahe der Maximalauslastung und dann noch ohne die genannten Dreckeffekte ;)
 
Ähm... also gerade schlapp, bei dir hätte ich schon erwartet das dir folgendes bekannt sein sollte ;):

Bei Schaltnetzteilen in PCs hast du keinerlei sinusförmigen Spannungsverlauf mehr, sondern einen induktiv verschobenen, gepulsten Dreckhaufen - die 1% Abweichung in der Herstellerangabe beziehen sich dabei nämlich auf rein ohmische Lasten, das ganze in einem Bereich nahe der Maximalauslastung und dann noch ohne die genannten Dreckeffekte ;)

Dir sollte dann die Bezeichnung PFC was sagen. Bei billigen China-Schaltnetzteilen (zb. Nachbauten von Notebook-Netzteilen) hätt ich dir jetzt recht gegeben. Bei PC-Netzteilen sollte das nicht annähernd so gravierend sein wie von dir beschrieben ;)
 
Ähm... also gerade schlapp, bei dir hätte ich schon erwartet das dir folgendes bekannt sein sollte ;):

Bei Schaltnetzteilen in PCs hast du keinerlei sinusförmigen Spannungsverlauf mehr, sondern einen induktiv verschobenen, gepulsten Dreckhaufen - die 1% Abweichung in der Herstellerangabe beziehen sich dabei nämlich auf rein ohmische Lasten, das ganze in einem Bereich nahe der Maximalauslastung und dann noch ohne die genannten Dreckeffekte ;)

Sorry Undertaker aber du redest hier über dinge, von denen du ganz offensichtlich keine Ahnung hast.
Statt es dann dabei zu belassen machst Du einfach weiter. -Das hat was!
Und nun kannst Du dich wieder bei einem Mod aus heulen gehen, aber wenn ein Mod diesen Beitrag auch noch löscht, dann vereteh ich die Welt nicht mehr.
 
Dir sollte dann die Bezeichnung PFC was sagen. Bei billigen China-Schaltnetzteilen (zb. Nachbauten von Notebook-Netzteilen) hätt ich dir jetzt recht gegeben. Bei PC-Netzteilen sollte das nicht annähernd so gravierend sein wie von dir beschrieben ;)

Das PFC bzgl. der Pulsung nichts ausrichtet ist dir aber schon bekannt ;)
 
Ich quote der einfachheit halber einfach wiki:

wikipedia schrieb:
Die Leistungsfaktorkorrektur behebt die nichtlineare Stromaufnahme von Verbrauchern und bewirkt im Falle der aktiven PFC gleichzeitig eine Kompensation der Blindleistung

Sowohl als auch ;)
 
Da steht aber etwas völlig anderes - nichtlineare Stromaufnahme bedeutet eine fehlende Proportionalität von U und I, gegen das Problem der pulsierenden, das bedeutet nicht über den Verlauf der Sinushalbwelle konstanten, Leistungsaufnahme richtest du damit eben nichts aus...
 
Letzte Warnung! Zurück zum Thema oder hier ist DAUERHAFT dicht.

Mir scheint das Thema ist durchgekaut, wenn hier schon über Apple und deren Preispolitik diskutiert wird. Denkt mal darüber nach ;)
 
http://www.pcgameshardware.de/aid,665002/News/Neue_Catalyst-Treiber_unterschlagen_Grafikdetails/

Man darf bis zur Hälfte durch den Text lesen, bis endlich klar ist, dass hier nicht einfach Details absichtlich unterschlagen werden sondern das

AA und diese Unschärfe Effekte sich bei den aktuellen ATI Treibern ausschließen

Ist es etwa etwas neues das sich gewisse post processing effekte nicht mit AA vertragen?

Mittlerweile haben wir eigene Tests angestellt und können das Problem vollständig reproduzieren. Das Folgende trifft auf eine Radeon HD 4870 unter Windows XP x86 zu, des Weiteren kam ein auf Version 1.3 gepatchtes UT3 zum Einsatz: Aktuelle Catalyst-Treiber erreichen ihre deutliche Leistungssteigerung anscheinend durch das Weglassen der genannten Effekte.

Dummerweise existiert das Problem schon seit dem 8.8er, aber natürlich wird gleich damit versucht der Performancesprung des 8.10er zu erklären, wie jetzt?

Mal wieder zum kotzen wie vorschnell und ohne ordentlich Analyse von PCGH Stimmung gemacht wird. Für eine Richtigstellung interessiert sich dann keiner mehr, ATI ist erstmal für Treibercheaten gebranntmarkt, so das wieder alle Deppen auf Monate hinaus den Mist in diversen Foren nachplappern werden, egal ob es stimmt oder nicht.
 
Interessant finde ich, dass durch das Umbenennen der UT3.exe alles wieder funktionieren soll... Das sieht schon sehr Cheat aus. Machen doch aber alle GPU-Hersteller ab und an, der nachfolgende Aufschrei ist gesund und notwendig, damit die kritisierte Trickserei wieder herausfliegt und dann sind alle wieder froh ;)
Bei Far Cry 2 gibt es wohl ähnliche Probleme:
http://www.elitebastards.com/dw/nV_FC2compare.jpg
Also egal woran es nun liegt, in einem final-Treiber hat soetwas imho nix verloren - als Alternative bleibt eigentlich nur überall dort, wo genug Leistung da ist, mit AI Off zu spielen.
 
Zuletzt bearbeitet:
Naja, auf der einen Seite ist es wohl richtig, auf so etwas hin zu weisen.
Aber ich finde die Ausführungen mangelhaft.
Wie redfirediablo geschrieben hatte, hätte man ne höhere Bandbreite an Treibern testen sollen. Außerdem wäre ein Test unter Vista 64-Bit auch nicht schlecht gewesen.

Wenn die ein wenig professioneller wären, hätte man auf das schwammige Fazit verzichten können. Dort kann man ja auch alles rein interpretieren.
Drüber hinaus bin ich mir nicht im Klaren, was das bei UT3 für einen Nutzen hat. Immerhin läuft das nicht schlecht... selbst meine 2900pro hat da nicht die geringsten Probleme.

Haben die mittler Weile mal nen Test mit NV und CrySis gemacht?
In Crysis hatte NV doch auch "Optimierungen" vor genommen, als es raus kam.
So etwas ist aber weniger interessant, als auf Fehler hin zu weisen.
 
@ undertaker 1:
Ich lese im Text nix vom Umbenennen der UT3.exe...

Mal davon abgesehen: UT3 ist 1 Jahr alt.Warum sollte AMD/ATI bewusst dieses Spiel optimieren? Die Welle geht doch derzeit eher Richtung FarCry2, CoD4 und Crysis (über Sinn oder Unsinn lass ich mich jetzt nicht aus).

Aber mal Offtopic: Warum müssen eigendlich die Grakahersteller ihre Treiber patchen, obwohl in vielen Spielen die Spieleprogrammierer schlampig waren? Ich mein, die testen das Spiel, machen Systemempfehlungen, man kauft danach, nur um dann nen Monat warten zu müssen, weil eben die gemachte Empfehlung nicht zutrifft und es Bildfehler gibt...
 
Zuletzt bearbeitet:
Das man auf sowas aufmerksam macht ist völlig in Ordnung.

Es geht aber gar nicht, das man den Eindruck erweckt, dass nur durch diesen angeblichen "Cheat" würde die zusätzliche Leistung des 8.10 erzeugt.

Das kann gar nicht sein, wenn das Problem schon beim 8.8er bestand. Die Leistungssteigerung kommt nicht durch das weglassen dieser Details, wird aber hier unzulässigerweise impliziert.

Es gab bisher NIE AA UND diese Effekte mit ATI Treibern, insofern wurde hier auch nichts weggelassen. Wenn grundsätzlich diese Effekte fehlen würden, also auch ohne AA, dann wäre es ein Cheat.

Angeblich läßt sich die exe umbenennen und dann funktionieren die Effekte und AA, an dieser einen Stelle. Es kann aber sehr wohl sein das es dadurch an einer anderen Stelle im Spiel zu Grafikfehlern kommt und deshalb diese Funktion standardmäßig nicht so implementiert wurde.

Ich finde es auch sehr witzig das die anti ATI Diskussion im 3DCenter immer wieder von einem nicht registrierten und anonymen "Gast" befeuert wird.
 
Zuletzt bearbeitet:
Und das sogar ziemlich energisch...
 
@ undertaker 1:
Ich lese im Text nix vom Umbenennen der UT3.exe...

Sry das hätte ich dazu sagen sollen, das ein Umbenennen das Problem löst habe ich an anderer Stelle gefunden, wenn es dir wichtig wäre such ich es nochmal heraus.


Mal davon abgesehen: UT3 ist 1 Jahr alt.Warum sollte AMD/ATI bewusst dieses Spiel optimieren? Die Welle geht doch derzeit eher Richtung FarCry2, CoD4 und Crysis (über Sinn oder Unsinn lass ich mich jetzt nicht aus).

Aber mal Offtopic: Warum müssen eigendlich die Grakahersteller ihre Treiber patchen, obwohl in vielen Spielen die Spieleprogrammierer schlampig waren? Ich mein, die testen das Spiel, machen Systemempfehlungen, man kauft danach, nur um dann nen Monat warten zu müssen, weil eben die gemachte Empfehlung nicht zutrifft und es Bildfehler gibt...

Sogenanntes Shader-Replacement ist gerade in der bekannteren Spielen mittlerweile Gang und Gebe, soweit auch nicht zu kritisieren wenn sich dadurch die Bildqualität nicht verschlechtert... Genau das passiert aber letzthin immer wieder, soweit ich mich entsinne auch bei den von dir gerade genannten 3 aktuellen Spielen.
Generell kann man bei ATI eigentlich nur fordern, dass endlich mal die zulässigen Optimierungen von den Trickserein z.B. bzgl. der Texturfilterung getrennt werden und nicht mehr als "AI" untrennbar miteinander verknüpft sind - das ergibt die gleiche flimmernde Sauerei wie der Quality-Modus auf NVidias G70/71. In jetziger Form sind wirklich faire Reviews eigentlich kaum möglich, da das Einstellen der höchsten Bildqualität mit AI off/HQ zwangsläufig auch alle weiteren Tweaks bei den Radeons deaktiviert.

Es gab bisher NIE AA UND diese Effekte mit ATI Treibern, insofern wurde hier auch nichts weggelassen.

Das ist wie von diversen Leuten zu lesen falsch, mit Cat 8.6 oder Exe-Renaming geht es nämlich.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6874285&postcount=665

Der Poster ist soweit ich weiß Praktikant (?) bei der PCGH, sollte also den Einblick besitzen. Ist übrigens selbst ein HD4870 Eigner wie man lesen kann ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh