Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
MMn unterstützt der 05 nichtmal SSE2, sondern nur SSE, gecapt auf Intel und MMX+ gecapt auf AMD, weil der Stammvater der PCMark05 die PCMark2002 war und man sich danach einfach keinen Kopf mehr um Optimierungen gemacht hat.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine simple Erklärungsmöglichkeit:

Der Nano nutzt @def nur SSE1.
Mit AMD-ID kommt SSE2 dazu, kleinere Vorteile.
Mit Intel-ID kommt SSE3 dazu, was hier z.T. große Zuwächse bringen kann.
Nur mal eine Frage nebenbei, kennst du dich überhaupt mit der x86 ISA aus?

SSE(1) ist praktisch das gleiche wie SSE2, nur für doppelte Genauigkeit. Und da es hier um einen reinen Bandbreiten Benchmark ging, und die Pipeline unabhängig von der Version immer 128 Bit breit ist, spielt das auch keine Rolle. Meine Vermutung und plausibler wäre:

VIA - Legacy (eventuell noch MMX)
AMD - SSE, MMX+ oder 3dnow
Intel - NT SSE
 
Zuletzt bearbeitet:
Ich habe mich nicht speziell auf den Bandbreitentest bezogen und auch nicht gesagt, dass dies der einzige Punkt war... In den genauen Ablauf können wir nuneinmal nicht hereinschauen.
 
Sei´s wie es will, die Sache mit dem PCMark verdeutlicht nur zu gut, dass man keiner Testsoftware vertrauen kann die man nicht selbst verfälsch... err programmiert hat.

Wär doch mal was für die OpenSource Community, ein CPU Test der keinen Prozessor benachteiligt und alle technischen Erweiterungen ausnutzt und der Quellcode dazu von allen eingesehen werden kann :)

Ansonsten kann man nach diesem Thread und den neuesten Infos bezüglich dem PCMark nur noch sagen, traue keiner CPU die du nicht selbst getestet hast, hoffe allerdings, dass sich dieser Zustand mal wieder ändert.
 
Wär doch mal was für die OpenSource Community, ein CPU Test der keinen Prozessor benachteiligt und alle technischen Erweiterungen ausnutzt und der Quellcode dazu von allen eingesehen werden kann :)
.

Gibts doch praktisch schon und heißt SPEC kostet nur einiges aber jeder darf so optimieren wie er möchte. ;)
 
Ich schmeiss mal mehr in den Raum:
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3360&p=4
http://www.anandtech.com/weblog/showpost.aspx?i=473


Sie rätseln nach wie vor, ob es der Chipsatz ist der am Ende 3,3ghz erlaubt hat oder ob es das Bios ist. Weiterhin schreiben sie, dass sie die Kombination aus Phenom mit 3,3 und extremer Kühlung jetzt einige Tage stabil hatten, sie posten allerdings nichtmal einen Benchmark....

Ich frage mich ernsthaft, wie man etwas stabil nennen möchte, es allerdings nichtmal schafft den Tlb Bug auszuschalten und in den beiden Artikeln werden keine Benchmarks geposted.... Man könnte ja feststellen, dass der Phenom fast 1:1 zum Yorkfield schafft...
 
Benchmarks unter OC hat man allerdings auch auf Intelseite nicht vorgenommen:

http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3251&p=2

Zum Thema TLB hat ein User darunter was gepostet:

"So how are you disabling the TLB fix with the 9600BE? The TLB fix is automatically enabled in Vista with SP1 regardless if it is disabled in the motherboard's bios."

Da scheint Vista wohl eigenmächtig einzugreifen, aber mal ehrlich: Interessieren die B2 Modelle wirklich noch?
 
So ein inoffizielles Tool kennt wohl nicht jeder ;) Zumindest haben sie ja ausdrücklich erwähnt, das der Bug aktiv war, und es nicht einfach unter dem Teppich gekehrt ohne die schlechte Speicherperformance damit zu erklären.
Letztlich finde ich es in diesem Zusammenhang sogar richtig und objektiv, in dieser Situation keine weiteren OC-Benchmarks zu posten, die so relativ sinnfrei wären und den Phenom schlechter darstellen würden als er es (nach dem Fix) ist.
 
Zuletzt bearbeitet:
Schon hart das mit dem Futuremark. Oo Bin gespannt wann es eine öffentliche Erklärung dafür gibt und wie die lauten wird.
 
Nö, bisher haben die sich doch immer verteidigt, wenn man ihnen etwas angehängt hat.
 
Nö, bisher haben die sich doch immer verteidigt, wenn man ihnen etwas angehängt hat.


genau das ist das Problem, es traut sich anscheinend keiner die mal richtig hart anzugehen.
Das Problem liegt am verwendeten Intel Compiler, und ist im Prinzip schon lange bekannt.
Doch wer will es sich schon mit Intel verderben? Dann bekommt er doch keine Test Samples mehr.
Mit so kleinen "Zuckerchen" wird ein Milliardengeschäft beeinflusst.
 
Mit so kleinen "Zuckerchen" wird ein Milliardengeschäft beeinflusst.

Selbst P3DNow! bekommt solche Zuckerchen. Glaube im AF-Forum hat MusicIsMyLife geschrieben, dass sie einen QX9770 inkl. passendem Untersatz direkt von Intel bekommen haben. Damit sie Referenzwerte für die Phenom-Test-Systeme habe.
 
einfach nur krass die Geschichte mit Futuremark...ts

ich glaub mein nächster könnte (mal wieder) ein AMD werden
 
Ich hab was neues gefunden:

Diesmal geht es um unfaire Benchmarks bezüglich Akkulaufzeit von Notebooks bei Notebookjournal.de


Hier wird die aktuelle Puma Plattform (absichtlich) richtig schön "auseinander" genommen, mit dem griffigen Schlagwort als Eyecatcher:

Puma Office ohne Vorteil

http://www.notebookjournal.de/tests/616/1

Praktisch will der User aber nur eines: eine hohe Laufzeit im Akku-Betrieb. Die ist mit dem PR211 möglich, 147 Minuten im BatteryEater Test. Da dies ein Unter-Last-Test ist, wird die reale Laufzeit beim Web-Surfen oder Texten geringfügig länger sein. Die Tester schätzen auf 160 Minuten.

Fazit: Das große Akku-Wunder bleibt aus. Selbst ein MSI MEGABOOK S310 13" (zirka 600 Euro) mit alter Plattform und AMD Turion 64 X2 TL-56 (1,8 GHz) erreichte im identischen BatteryEater-Test 218 Minuten (5.200 mAh).


Aber stimmt das auch? Wenn man mal den Test des besagten MSI 310 genauer ansieht, bekommt man eine ganz andere Perspektive:

http://www.notebookjournal.de/tests/616/5
http://www.notebookjournal.de/tests/591/5

MSI 310 (Turion alt) Office Verbrauch 32 Watt

PR211 (Puma) Office Verbrauch 25 Watt

Wir sehen also das die Puma Plattform sehr wohl für den Officebetrieb gut geeignet ist und mit 25 Watt in der Größenklasse voll gleichauf liegt mit der aktuellen Intelkonkurenz. Zudem ist sie klar besser als der Vorgänger, 7 Watt bei annähernd gleichgroßem Display.

Die Unterschiede im (Vollast!) Test Battery Eater kommen also nur durch 2 Faktoren:

1. Der schnellere Prozessor saugt vollast natürlich mehr Strom, zudem wirken dann die Stromsparmechanismen der Puma Plattform nicht mehr.

2. Der Akku des MSI 310 ist deutlich leistungstärker: merke, auch Spannung ist wichtig, nicht nur Kapazität und das 310 scheint 8 Zellen zu haben und das PR211 6 Zellen mit zudem geringerer Kapazität.

Ich wage zu behaupten das die Puma Plattform deutlich besser abschneiden würde, wenn man mal einen wirklichen "Office" und nicht "CPU Vollast" Akkulaufzeiten Test durchführen würde.

Fazit: Mit Absicht wird die neue Puma Plattform von AMD als schlecht dargestellt. Wer nach der Artikelzeile noch nicht überzeugt ist, dem wird dann spätestens mit dem Battery Eater Diagramm klargemacht, dass Puma (angeblich) sogar schlechter als der Vorgänger sei.

Methodische Mängel im Test:

1. Akkulaufzeit wird mit einem Vollast(CPU)testprogramm durchgeführt, das darauf ausgerichtet ist, möglichst schnell die Batterie leer zu saugen (Batteryeater)

Mit diesem Programm werden dann die Akkulaufzeiten von OFFICE (!) Notebooks verglichen, die mobil praktisch nur für Word bzw. Surfen verwendet werden und vielleicht mal einem Film.

2. Der deutlich verbesserte und direkt vergleichbare Officestromverbrauch, der übrigens gemessen wurde, wird absichtlich unter den Tisch fallen gelassen. Würde er ja doch den tollen Batteryeater test ad absurdum fühlen.

3. Ergänzend dazu wird zwar die Kapazität der Akkus beider Kandidaten genannt, jedoch vergessen das das MSI 310 einen 8 Zellen Akku hat und deshalb über 33% mehr Energie (wattstunden) speichern kann, bei gleicher Kapazität gegenüber einem 6 Zellen Akku.

Ergänzung: das ganze auch für ein FSC Puma

http://www.notebookjournal.de/tests/600/1

Wieder wird klar, das der einzigste Sinn und Zweck des Testes ist die Plattform niederzumachen. Sehr witzig ist auch die Aussage das es "nicht zum Spielen geeignet" seien soll, begründet wird das damit, das lost planet und WIC nicht richtig laufen. Denen hat anscheinend noch nie jemand erzählt, das man auf so einem Laptop nicht die aktuellsten Spiele spielt sondern sowas wie WC3, WOW oder CS. Aber wenn LP und WIC nicht laufen ist halt der Laptop grundsätzlich nicht zum spielen geeignet, da gibts halt keine Diskussion.

Witzig wirds auch als die "Redakteure" sich wundern warum crossfire nur mit der 3470 unterstützt wird und nicht mit der 3650. Da merkt man mal wieder das die überhaupt keine Ahnung haben wie CF funktioniert und ein CF aus HD3200 onboard und HD3650 dediziert langsamer wäre als HD3650 alleine.

Schade ist bei der Crossfire-Funktion, dass es nur die Kombination aus HD3470 und RS780M Grafikchip geben wird. Der Sinn des Crossfire Betriebs bleibt dadurch offen.

Einleuchtender wäre eine Kombination aus stärkerer dedizierter Grafikkarte, wie die HD3650, mit dem Onboard-Chip. Damit hätte man zum Spielen eine gute Performance und kann gleichzeitig bei Officearbeiten den Akku und die Stromrechnung schonen.

Mit oder ohne Crossfire, Spielen kann man aufgrund der schwachen Leistung der HD3470, mit dem Pa3553 nicht.


Das Fettgedruckte "nicht" ist übrigens eine Hervorhebung, die auch so im Orignaltext steht. Es wird also speziell betont.
 
Zuletzt bearbeitet:
Beim Thema Stromverbrauchstest muss ich mich schon öfter fragen ob die Tester sich nur so doof stellen oder ob sie es wirklich nicht auf die Reihe kriegen den Leser vernünftige Ergebnisse mit den nötigen Informationen zu liefern.

Man merkt einfach, dass die meisten sich schlichtweg zu wenig mit dem Thema auseinandersetzen oder vorsätzlich Werte beeinflussen/hinbiegen um das gewünschte/erwartete Ergebnisse zu erreichen (dann ist allerdings mehr als nur ein Mindestmaß an Verständnis vorhanden).
 
Zuletzt bearbeitet:
Ich hab da mal etwas schönes:
Link zum Artikel

Die abolsute Topkarte von Nvidia gegen ein 4870 Crf. Die Topkarte gewinnt selbst nochmals übertaktet nicht. Insofern stellt das Fazit richtig, dass aktuell folgende performance Paarungen gegeben sind:
4850 vs 9800gtx+, 4870 vx gtx 260 und gtx280 vs 2x4870.
Dazu kommt noch der treffende Satz, dass die Kaufentscheidung also nurnoch von: Beigaben, dem Preis und persönlicher Preferenz ausgemacht wird.

Alles in allem machen die Jungs einen guten Job. zumindest der Benchparcour ist ausgeglichen und das Fazit stimmt.
 
kurze zwischenfrage, was fuer einen sinn machen test @ 640x480 +low settings.

geht mir net in kopf -> klaert mich auf.
 
kurze zwischenfrage, was fuer einen sinn machen test @ 640x480 +low settings.

geht mir net in kopf -> klaert mich auf.

Damit man die Leistung der Intel Prozessoren sieht, denn bei normalen Auflösungen verpufft das ganze und Intel zieht die Gehälter für die Tester zurück :)
Dabei draf man auch nicht vergessen, dass 345FPS enorm besser sind als 250FPS. Zwar sind ~60FPS eh das Maximum für das menschliche Auge, trotzdem sind die Gehälter der wichtigste Anreiz.
 
Zuletzt bearbeitet:
Wenn den Testern keine ausreichend schnelle GPU zur Verfügung steht, um auch wirklich einen CPU Test in hoher Auflösung zu produzieren, was bleibt dann neben dem Absenken der Auflösung noch übrig?

Alternativ wäre es imho eine gute Idee, in einem solchen Falle folgendermaßen vorzugehen: Über den Multiplikator wird die Taktrate der getesteten CPUs so weit abgesenkt, bis die FPS auf ein gewisses Maß unter dem GPU-Limit abgefallen sind. Damit lässt sich dann ganz konkret sagen, welches Modell bzw. welche Taktrate im direkten Vergleich jeweils nötig wäre, um die GPU vollständig auszureizen.

Im übrigen wäre es ratsam, viel stärker mit deutlich CPU-lastigeren Savegames zu arbeiten, man würde staunen welche CPU-Power viele Spiele an gewissen Stellen brauchen - in den Standardbenchmarks erkennt man das oft nicht.
 
Nochmal was neues zum Intel Compiler

http://www.xtremesystems.org/forums/showpost.php?p=3208145&postcount=98

I just tried Intel C++ compiler version 10.1 with option /QxO as you suggested. It generates the following versions of code for common mathematical functions: SSE2, SSE3, SSE4.1 and non-Intel SSE2. It doesn't work on any CPU prior to SSE2. This is the only compiler option that makes it run reasonably on an AMD, but why are there two different SSE2 versions, one for Intel and one for AMD? When I hack the CPU-dispatcher and makes it believe that it is an Intel, it runs 50 - 100 % faster. This means that the Intel-SSE2 version is faster than the AMD-SSE2 version when running on an AMD processor!

There are also options that work on any processor. For example /QaxB. This options runs non-vectorized SSE2 code on Intel processors and old 8087 code on AMD processors. I measured this to be 5-10 times slower than the /QxO option on an AMD Opteron
 
Gibts vllt ne Möglichkeit ohne riesen Aufwand Cinebench z.B. vorzugaukeln, dass grad ne Intel-CPU vorliegt? Ich wär mal auf das Ergebnis dann gespannt :d.
 
Wenn man beim Via Nano die CPUID ändern kann, wäre es dann nicht möglich auch andere Programme neben PCMark05 zu testen?
Falls dann auch dort ähnlich starke Unterschiede zwischen "AMD Nano" und "Intel Nano" herauskämen, kann man spekulieren ob es am ICC liegt (falls er verwendet wurde) oder ob der eine oder andere Entwickler z.B. einfach korumpiert wurde. Eine richtige ("ehrliche") Architektur-Optimierung (wie z.B. angeblich bei CB10 auf Core2) dürfte dann keine anderen Ergebnisse zwischen Intel Nano und AMD Nano liefern, die dürfte es nur geben wenn absichtliche Bremsen eingebaut sind.

Wenn der Nano endlich mal verfügbar ist, könnte das alles noch sehr spannend werden.
 
Zuletzt bearbeitet:
Dürfte ja nur über den Source Code gehen .. da kommt wohl keiner so leicht ran.
 
che new
das wäre echt mal nen Grund sich einen Nano anzuschaffen. Dort kann man ja offenbar die CPUID nach belieben verändern. Ich brauch sowieso noch ne CPU für ein Kleinsystem.
 
Nur was willst du damit beweisen? Das dem Nano die Intel-Optimierungen besser schmecken als die AMD-Optimierungen? Aufklärung könnte nur eine AMD-CPU mit Intel-ID bringen.
 
Könnte man nicht einen Intel über Virtualisierung emulieren ? Ansonsten ->

As to changing of Vendor ID string and other information (Family, Model, Stepping and so on), this trick can be done from within Windows using an HDT USB adapter and HDT software. Below there is a photo of AMD HDT adapter. Unfortunately, I don’t have that device, but it would cool to play with it

http://www.arium.com/products/ecmhdtice.html

Kann jemand so ein Ding besorgen :confused:.
Hinzugefügter Post:
Nur was willst du damit beweisen? Das dem Nano die Intel-Optimierungen besser schmecken als die AMD-Optimierungen? Aufklärung könnte nur eine AMD-CPU mit Intel-ID bringen.

Nein sondern ob der Intel Compiler den AMDs einen anderen SSE2 Code gibt als den Intels und dadurch das Ergebnis künstlich ausgebremst wird (http://www.xtremesystems.org/forums/showpost.php?p=3208145&postcount=98). Bei Cinebench ist die Architektur wohl nur bei Skalierungssachen entscheidend . Die rein Rohpower eines Kernes dürfte da die größere Rolle Spielen. Man könnte soweit feststellen wie das SingleThreaded Ergebnis sich in den verschiedenen CPUID unterscheidet.
 
Zuletzt bearbeitet:
Damit man die Leistung der Intel Prozessoren sieht, denn bei normalen Auflösungen verpufft das ganze und Intel zieht die Gehälter für die Tester zurück :)
Dabei draf man auch nicht vergessen, dass 345FPS enorm besser sind als 250FPS. Zwar sind ~60FPS eh das Maximum für das menschliche Auge, trotzdem sind die Gehälter der wichtigste Anreiz.

naja es sind 24fps um genau zu sein.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh