Wird AMD permanent gegenüber Intel in Reviews benachteiligt? [4] neue Regeln beachten

Status
Für weitere Antworten geschlossen.
Warum wird dann PCGH wegen (dem mittlerweile nicht mehr genutzten) DDR3-1333 bei den Bloomfields kritisiert, das "gute" CB aber nicht, obwohl hier DDR3-1600 genutzt wurde? Das was manche hier betreiben hat nichts mehr mit " auf Fehler, Schlampigkeit, Ungereimtheiten etc. in Reviews diverser Magazine hinweisen" zu tun, sondern ist kranker Fanboimus kombiniert mit Anti-PCGH-Bashs. Das verstehe ich einfach nicht.

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und wer ist deiner Meinung nach dann unabhängig? Ich bin unabhängig, PCGH ist unabhängig.
Mal abgesehen davon, dass ich diese Behauptung für äusserst fragwürdig halte, zumindest was dich betrifft, ausreichend unabhängig bedeutet, dass mehrere unabhängige Printmedien ausreichend Ergebnisse liefern.
Schon seltsam, dass man dir so etwas erst sagen muss. Man sollte eigentlich annehmen, du wüsstest über solche Sachverhalte Bescheid. Aber das passiert wohl, wenn man von den eigenen Ergebnissen zu voreingenommen ist. :rolleyes:

Ich hatte um ein konkretes Beispiel gebeten.
Aber nicht in diesem Kontext.

Du willst also Programme schon abstempeln, nur weil sie z.B. den Intel-Compiler verwenden? Der im übrigen auch auf AMD-CPUs häufig der performanteste ist?
Nicht wirklich. PGI ist zB für AMD idR performanter. Aber darum geht es nicht. Ich habe schliesslich nirgendwo ausschliesslich vom Compiler gesprochen. Es ist letztendlich nur einer von drei relevanten Punkten. Und ja, die Funktionsweise von Compilern lässt sich generalisieren. Erzeugt ein Compiler für einen entsprechenden Prozessor unzureichend optimierten Mikrocode für Anwendung A, tut er das ebenfalls für Anwendung B, C, D, usw. Die Heuristik für die Erzeugung des Maschinencodes bleibt innerhalb einer Version schliesslich die gleiche.

Genau, und was machen wir da? Richtig, wir nehmen gleich die schnellste GPU für alle CPUs. Die passt zu den großen CPUs am sinnvollsten, bremst gleichzeitig aber nicht die kleineren Modelle ein.
Sie passt aber nicht zu den kleineren CPUs und sie ist nicht repräsentativ. Dann streichen wir am besten gleich alle Spiele Test aus Reviews, weil sie keinerlei zuverlässige Ergebnisse für die tatsächliche Performance auf dem jeweiligen System des Lesers liefern. Ausser er besitzt exakt diese Kombination aus CPU, Board und GPU.
Sry, aber deine Argumentation an dieser Stelle ist Unsinn und wieder mal geprägt von Doppelmoral. Auf der einen Seite werden repräsentative Anwendungen verlangt und auf der anderen Seite nicht repräsentative Hardware. :rolleyes: Diskussion beendet.

Die 30-50% waren doch "nur" durchschnittliche Werte (und btw nur auf Spiele bezogen, nichts anderes hat y33h@ gesagt).
Nein. Vielleicht solltest du dich nicht in Diskussionen einmischen, wenn du die ursprünglichen Aussagen nicht mirbekommen hast. ;) Es ging darum, wann Test Setups für Reviews geändert werden bzw wann die Hardware dafür ausreichend Gründe liefert. Und dabei geht es um mehr als nur Spiele. Aber selbst hier halte ich diese Aussage für mehr als zweifelhaft. Vielleicht trifft das auf 2-3 cherry picked Spiele mit cherry picked Savegames zu. Aber nicht auf durchschnittliche Performance über eine breite Anzahl von Spielen. Bei CB liegt der Q9550 zB 7% vor dem i7 920. Lass von mir aus den i5 aufgrund des fehlenden SMT 10% schneller sein. Dann sind es immer noch nur maximal 0-5% mehr. 30-50% Durchschnitt entbehrt jeglicher Logik und bisherigen repräsentativen Reviews.
 
Schon seltsam, dass man dir so etwas erst sagen muss.
Drücke dich diesbezüglich doch einfach präziser aus, dann ist auch klar, was du sagen willst :wink:

Und vll solltest du auch genauer lesen:
mr.dude schrieb:
30-50% Durchschnitt entbehrt jeglicher Logik und bisherigen repräsentativen Reviews.
y33H@ schrieb:
Ein i5 samt DDR3-1333 macht je nach Spiel 30-50% mehr Fps als ein C2Q 12M mit gleichem Takt und gleichem Speicher
Vielleicht trifft das auf 2-3 cherry picked Spiele mit cherry picked Savegames zu
So etwas gibt es nicht. Es gibt nur Saves, die mehr oder weniger CPU- bzw. GPU-lastig sind. Wenn ein Tester nicht in der Lage ist, für CPU-Benches sehr CPU-lastige Saves heranzuziehen und mit Settings und Grafikkarten zu benchen, die ein CPU-Limit verhindern oder verringern, sind die Differenz zwischen den einzelnen CPUs natürlich geringer.
 
Zuletzt bearbeitet:
Aber nicht in diesem Kontext.

Wenn du das so verstanden hast, dann bitte jetzt das Beispiel. :)

Nicht wirklich. PGI ist zB für AMD idR performanter. Aber darum geht es nicht. Ich habe schliesslich nirgendwo ausschliesslich vom Compiler gesprochen. Es ist letztendlich nur einer von drei relevanten Punkten. Und ja, die Funktionsweise von Compilern lässt sich generalisieren. Erzeugt ein Compiler für einen entsprechenden Prozessor unzureichend optimierten Mikrocode für Anwendung A, tut er das ebenfalls für Anwendung B, C, D, usw. Die Heuristik für die Erzeugung des Maschinencodes bleibt innerhalb einer Version schliesslich die gleiche.

Sehr tolles Beispiel. Du könntest erwähnen, dass die GPU-Beschleunigung atm nur Cuda-GPUs unterstützt und nicht für Windows verfügbar ist. Es bleibt dabei, der Intel-Compiler stellt sehr häufig auch für AMDs den schnellsten Compiler dar. Und damit entfällt dieser Punkt für die Beurteilung schoneinmal komplett.

Sie passt aber nicht zu den kleineren CPUs und sie ist nicht repräsentativ. Dann streichen wir am besten gleich alle Spiele Test aus Reviews, weil sie keinerlei zuverlässige Ergebnisse für die tatsächliche Performance auf dem jeweiligen System des Lesers liefern. Ausser er besitzt exakt diese Kombination aus CPU, Board und GPU.

Das sie nur für genau einen Preisbereich repräsentativ ist, trifft auf jede GPU zu. Es geht darum, das kleinstmögliche Übel zu wählen. Und das ist nuneinmal jene GPU, die die geringste Einschränkung der CPU-Ergebnisse bewirkt.

Es ging darum, wann Test Setups für Reviews geändert werden bzw wann die Hardware dafür ausreichend Gründe liefert. Und dabei geht es um mehr als nur Spiele. Aber selbst hier halte ich diese Aussage für mehr als zweifelhaft. Vielleicht trifft das auf 2-3 cherry picked Spiele mit cherry picked Savegames zu. Aber nicht auf durchschnittliche Performance über eine breite Anzahl von Spielen. Bei CB liegt der Q9550 zB 7% vor dem i7 920. Lass von mir aus den i5 aufgrund des fehlenden SMT 10% schneller sein. Dann sind es immer noch nur maximal 0-5% mehr. 30-50% Durchschnitt entbehrt jeglicher Logik und bisherigen repräsentativen Reviews.

Du hast die Aussage von y33h@ immernoch nicht verstanden. Er redet nur von Spielen. Er redet nicht von cherry picked. Ich erwähnte oben die >80% in Anno - die sollen hier nichteinmal verallgemeinert werden, denn das ist vermutlich wirklich ein Optimalfall. Und du hast immernoch nicht bemerkt, dass CB GPU-Limits enthält. Prozentrechnungen sind hier reichlich wertlos.
 
Zuletzt bearbeitet:
Warum wird dann PCGH wegen (dem mittlerweile nicht mehr genutzten) DDR3-1333 bei den Bloomfields kritisiert, das "gute" CB aber nicht, obwohl hier DDR3-1600 genutzt wurde? Das was manche hier betreiben hat nichts mehr mit " auf Fehler, Schlampigkeit, Ungereimtheiten etc. in Reviews diverser Magazine hinweisen" zu tun, sondern ist kranker Fanboimus kombiniert mit Anti-PCGH-Bashs. Das verstehe ich einfach nicht.


Naja, ganz unschuldig seid ihr auch nicht daran, dass ihr euch solche Vorhaltungen machen lassen müsst.
Ist zwar schon älter, aber solche Meldungen haben m.E. mit Objektivität und Neutralität wenig zu tun und haben mit Sicherheit zu eurem negativen Image beigetragen.
Das es die Jungs bei AMD mit der Treiberentwicklung nicht so haben, zeigt sich auch mal wieder bei der neusten Inkarnation des Catalyst-Treibers
http://www.pcgameshardware.de/aid,6...n/AMD-Advanced-Micro-Devices-Inc-US/Download/
 
@mr.dude
@Undertaker_1


Hiermit fordere ich euch auf, eure zweifelslos interessante Diskussion wieder dem Thema anzunähern.
 
Das war vor meiner Zeit :(

Das war auch nicht ausschließlich auf dich gemünzt.
Viele User – wie auch ich – beobachten euer "Treiben" schon seit Jahren.
Dennoch finde ich es sehr positiv, dass ihr viele Kritikpunkte – vermutlich auf Anregung deinerseits – annehmt und auch Veränderungen in euren Testsettings vornehmt.
super.gif
 
Natürlich wird (konstruktive) Kritik aufgegriffen =)
 
mirko10 schrieb:
[...]Eure Alternativen wären folgende:

- Thread für immer schließen
- mr.dude aus dem Thread sperren
- Offtopic Spam löschen (mit am meisten Arbeit verbunden)

Offtopic-Posts entfernt.
 
Die Diskussion der letzten Seite hat keine Auswirkung, da ich sie selbst initiiert habe, um eure Meinungen zu der Zukunft dieses Thread zu hören.

@THG
Sehr seltsame Ergebnisse.
We pulled some fairly interesting results in measuring power consumption. First, it’s worth noting that with our Core i7 965 engineering sample keyed in to replicate the performance of a Core i7 920, SpeedStep was unavailable, locking clock speed in at 2.66 GHz on our Asus P6T reference motherboard. Thus, all of our idle numbers were measured with each platform running at its rated maximum clock. Fortunately, there’s a new retail Core i7 920 (with its unlocked memory multipliers) en route to the lab right now.

That might help explain the wonky idle numbers, which show the X3 720 sucking down more juice than either of the quad-core Phenom IIs, but it can’t account for the load results. Again, the Phenom II X3 is just way above the other two Phenom IIs.
Ich verstehe nicht, wie der obere und der untere Absatz zusammenpassen. Warum hilft es bei der Erklärung des hohen X3-Verbrauchs, daß ihr Core i7 920 kein Speedstep kann?
 
Zuletzt bearbeitet:
Es ist unmöglich, dass aus einem X3 720 so viel mehr als aus einem X4 955 herausquetscht wird, fehlende journalistische Sorgfaltspflicht trifft vermutlich auf Inkompetenz.
 
Zuletzt bearbeitet:
Hmm ein Messfehler kann das nicht mehr sein. Möglicherweise liegts an der Grafikkarte?

Ich glaub solche Ergebnisse würde ich nicht veröffentlichen...schon gar nicht mit solch fadenscheinigen Erklärungen.
 
Sowas kann man vermutlich auch nur bei Merkbefreitheit oder fehlender Scham veröffentlich.
 
Die Diskussion der letzten Seite hat keine Auswirkung, da ich sie selbst initiiert habe, um eure Meinungen zu der Zukunft dieses Thread zu hören.

@THG
Sehr seltsame Ergebnisse.

Ich verstehe nicht, wie der obere und der untere Absatz zusammenpassen. Warum hilft es bei der Erklärung des hohen X3-Verbrauchs, daß ihr Core i7 920 kein Speedstep kann?

Vielleicht haben sie sich ein Dualsocket Board aus AM3 und 1366 gebastelt :d.
 
Zuletzt bearbeitet:
Der 920 verbraucht laut deren Tabelle trotz nicht funktionsfähigen Speedstep weniger als der 965 und gleich viel wie der 9550S.
Sehr unglaubwürdig, nur die extrem hohen Verbrauchswerte des X3 720 leuchten trotzdem nicht ein.
 
Alle Energiesparfeatures waren deaktiviert. Verständlich, dass der höher taktenden i7 965 somit idle wie Last mehr verbraucht als der niedriger taktende i7 920.
Was man nun aber bei den X4 gemessen hat, den X3 zu hoch oder den X4 zu niedrig, ist etwas fraglich... So kann es zumindest nicht hinkommen. Einen wirklichen Bezug zu diesem Thread hier kann ich aber nicht erkennen, da einfach Mist gemessen wurde, ohne aber sagen zu können, ob bei der einen CPU zu viel oder bei der anderen zu wenig. Evntl. ist ja auch alles falsch... THG hat sich da ja schon häufig nicht mit Ruhm bekleckert, egal ob bei AMD oder Intel-Komponenten.
 
Was man nun aber bei den X4 gemessen hat, den X3 zu hoch oder den X4 zu niedrig, ist etwas fraglich...

Es ist mehr als offensichtlich dass das X3-System falsch gemessen wurde und nicht die zwei X4-Systeme. Auch die weiteren Systeme sind von den Werte noch einigermaßen nachvollziehbar (in Relation gesetzt). Dass aber ein X3-System im Verbrauch deutlich ein i7 System überflügeln soll, ist quasi schon ein Wink mit dem Zaunpfahl. Es gibt noch weitere kaum zu übersehende Hinweise wie die 40 Watt Idle zwischen i7 920- und X3-System.

Also manchmal neigt man wirklich dazu sich die Frage zu stellen ob das unterschwellige Provokationen sind. Du hast gerade beim Thema Verlustleistung schon einige Böcke geschossen die widerlegbar waren.
 
Zuletzt bearbeitet:
Es ist mehr als offensichtlich dass das X3-System falsch gemessen wurde und nicht die zwei X4-Systeme. Auch die weiteren Systeme sind von den Werte noch einigermaßen nachvollziehbar (in Relation gesetzt). Dass aber ein X3-System im Verbrauch deutlich ein i7 System überflügeln soll, ist quasi schon ein Wink mit dem Zaunpfahl. Es gibt noch weitere kaum zu übersehende Hinweise wie die 40 Watt Idle zwischen i7 920- und X3-System.

Da ich bisher nichteinmal die Anwendung finden konnte, mit der dort überhaupt der Verbrauch ermittelt wurde, lasse ich mich da zu gar keine Aussage hinreißen. Wer sprach übrigens von Quervergleichen zum i7 System?
Die allgemeine Unsinnigkeit der Messwerte habe ich bestätigt. Von da an würde ich auf die gesamte Messung aller CPUs dort keinen Cent mehr setzen.

Du hast gerade beim Thema Verlustleistung schon einige Böcke geschossen die widerlegbar waren.

Weißt du, genau das sind diese haltlosen, unbelegten Unterstellungen, die immer seitenlange Diskussionen auslösen und dazu führen, dass dieser Thread kurz vor der Schließung steht. Entsprechende Gegenangriffe auf dich, natürlich mit Quelle und Beleg, spare ich mir, da würde ich mich freuen, wenn du ebenfalls sachlich bleibst. :wink:
 
Zuletzt bearbeitet:
Ich bin sachlich, also lass solche unverschämten Unterstellungen. Wenn du es darauf anlegen möchtest, gerne.
 
Zuletzt bearbeitet:
Da ich bisher nichteinmal die Anwendung finden konnte, mit der dort überhaupt der Verbrauch ermittelt wurde, lasse ich mich da zu gar keine Aussage hinreißen.

Eben
"Built in Benchmark" 4x AA, 16x AF können viele Games sein. Bei den getesteten Benchmarks verfügen Far Cry 2, GTA IV und WIC über eine integrierte Bench Funktion. GTA IV könnte man ausschließen, da das Game kein AA unterstützt, bleiben noch Far Cry 2 und WIC.

Es ist aber eh egal, ein X3 kann nicht mehr brauchen als ein X4. Also stimmt das schon mal hinten und vorne nicht und bei Intel behaupte ich als die Core I7 bei abgestellter Sparfunktion mehr brauchen als ein Q9550S.
Den der I7 920 braucht angeblich genau so viel wie der 9550S, was nicht stimmen kann.
 
Also stimmt das schon mal hinten und vorne nicht und bei Intel behaupte ich als die Core I7 bei abgestellter Sparfunktion mehr brauchen als ein Q9550S.
Den der I7 920 braucht angeblich genau so viel wie der 9550S, was nicht stimmen kann.


Die haben dort auch ein X48 Board genommen. Ein Q9550s mit X48 zu bundlen ist sinnfrei. Ein "Spar" Quad kaufen aber beim Board den Verbrauch in die Höhe treiben.
 
Mal wieder was zur Intel - hohe Auflösung (mit nVidia) Schwäche:
http://www.hardware-infos.com/tests.php?test=74&seite=8

Scheint einen neuen Kandidaten zu geben: G.R.A.W. I (noch nie gehört)
Im Test war wohl SMT & Turbo an, dafür wurden aber auch DDR3-1600 Module verwendet, also wieder 3,2 GHz NB Takt beim i7, beim i5 weniger. Bei AMD hatte das aber nur der 965, der 955 wurde mit einem 940 "simuliert", muss also DDR2 sein.

Da dann auch noch FC2 dabei ist, wird das Gesamtrating dann entsprechend "lustig", einfach mal langsam runterscrollen und auf die grünen und blauen Balken in den Bildern achten:
http://www.hardware-infos.com/tests.php?test=74&seite=14

Bin mal gespannt, zu welchen Ergebnissen diverse andere Seiten kommen, da wird schon noch ein Test mit nVidia Karte dabei sein.

ciao

Alex
 
Wobei man sagen muss das der i7 Lynnfield mit DDR3-1600 läuft OHNE NB Übertaktung. Beim i5 ist DDR3-1600 nichtmal drin (denn bei allen S.1156 CPUs ist der Uncore/NB Multi gelocked).
 
Mal wieder was zur Intel - hohe Auflösung (mit nVidia) Schwäche:
http://www.hardware-infos.com/tests.php?test=74&seite=8

Scheint einen neuen Kandidaten zu geben: G.R.A.W. I (noch nie gehört)

Ghost Recon Advanced Warfighter

Im Test war wohl SMT & Turbo an, dafür wurden aber auch DDR3-1600 Module verwendet, also wieder 3,2 GHz NB Takt beim i7, beim i5 weniger. Bei AMD hatte das aber nur der 965, der 955 wurde mit einem 940 "simuliert", muss also DDR2 sein.

Da dann auch noch FC2 dabei ist, wird das Gesamtrating dann entsprechend "lustig", einfach mal langsam runterscrollen und auf die grünen und blauen Balken in den Bildern achten:
http://www.hardware-infos.com/tests.php?test=74&seite=14

Bin mal gespannt, zu welchen Ergebnissen diverse andere Seiten kommen, da wird schon noch ein Test mit nVidia Karte dabei sein.

ciao

Alex

Wobei das AM3 System allerdings auch mit 1600er und gleichen Timings getestet wurde. Was ich allerdings nicht verstehe, warum ist es so schwer alle Modelle mit 6Gb Ram zu testen. Der Core i7 ist nunmal mit seinem Tripplechannel für 3 Module ausgelegt was auf 6 GB hinausläuft. Warum kann man dann nicht Dualchannelsysteme ebenfalls mit 6Gb bestücken?! Es kann doch nicht so schwer sein 2x 2Gb und 2x 1Gb aufzutreiben mit selben Takt und Timings.
 
das wär aber eine Vollbestückung ist ist nicht immer vorteilhaft.
aber sie könnten ja 2x4GB Module nehmen ob nun 6 oder 8 sollte egal sein
 
Zuletzt bearbeitet:
OT Alarm :banana: Der Bloomfield/Lynnfield hat hier im Thread wohl nichts verloren.

Wobei das AM3 System allerdings auch mit 1600er und gleichen Timings getestet wurde. Was ich allerdings nicht verstehe, warum ist es so schwer alle Modelle mit 6Gb Ram zu testen. Der Core i7 ist nunmal mit seinem Tripplechannel für 3 Module ausgelegt was auf 6 GB hinausläuft. Warum kann man dann nicht Dualchannelsysteme ebenfalls mit 6Gb bestücken?! Es kann doch nicht so schwer sein 2x 2Gb und 2x 1Gb aufzutreiben mit selben Takt und Timings.

Damit würden die AMD-CPUs aber klar schlechter darstehen. 4 Module bedeutet den definitiven Verlust von 1T und womöglich auch von scharfen Ramtimings, während 6GB aktuell keinen Vorteil in den Benchmarks bringt. Ein solches Testsetup sollte sich keiner wünschen, der bestmögliche AMD-Ergebnisse sehen will.
 
Zuletzt bearbeitet:
Wer immer noch Sachen wie Super Pi oder Everest in ein Performance Rating aufnimmt, hat echt nicht viel Ahnung von dem, was er da eigentlich tut. Super Pi ist uralt und bei Everest kam auch eine recht veraltete Version zum Einsatz.
Und warum hat man bei "Verlustleistung (CPU-Last)" explizit die Kernspannung hinter die grösseren i7 geschrieben? Wurde dort untervoltet, um die Verlustleistung nicht ganz so dramatisch aussehen zu lassen?
Auch ganz grosses Kino, man hat die CPU Last anhand einer Anwendung ermittelt, wobei nicht mal dasteht, welche es denn war, und daraus Diagramme zur Energieeffizienz anhand der Gesamtperformance der einzelnen Bereiche gebastelt. Weil natürlich auch jede Anwendung gleich viel Strom zieht. Aussagekraft gleich Null. :rolleyes: Und dass die Diagramme etwas völlig falsches implizieren, ist auch wieder nicht ersichtlich. Es ist eben nicht nur die CPU, wie dargestellt, sondern das gesamte System.
Was ebenfalls wieder mal nicht beachtet wurde, das AMD Board hat eine IGP, die Intel Boards nicht. Das macht sich entsprechend auch mit einigen Watt bei der Leistungsaufnahme bemerkbar.
 
Was ebenfalls wieder mal nicht beachtet wurde, das AMD Board hat eine IGP, die Intel Boards nicht. Das macht sich entsprechend auch mit einigen Watt bei der Leistungsaufnahme bemerkbar.

Mit deaktivierter IGP ist ein 790GX Board afair praktisch genauso sparsam wie ein 770er Brett gleicher Ausstattung. Btw, von welchen Test redest du überhaupt?

Edit: 790GX ist auch in 55nm, 790X/770 nur 65nm. Für Verbrauchsmessungen auf AMD-Seite mit Sicherheit eine recht vorteilhafte Wahl.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh