Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bei unterschieden von 1-2 fps rede ich eher von messungenauigkeit.
^^
Ein paar synth. Test gab es auch.
Sandra XII 2008
DDR2-800 5-5-5-18 unganged: 9870
DDR2-1066 5-5-5-18 unganged: 11180 +13%
DDR2-1066 5-5-5-18 ganged: 10040 +2%

Everest 2007 - Speicherlatenz
DDR2-800 5-5-5-18 unganged: 68,1
DDR2-1066 5-5-5-18 unganged: 60,4 -11%
DDR2-1066 5-5-5-18 ganged: 59,5 -13%
 
Na da kann ich ja mal mittesten...

Der Q6600 könnte wohl auch SDR, da der MC nicht in der CPU sitzt ;) Chipsatz und Boards ermöglichen DDR2-1066 bei Defaulttakt im Regelfall problemlos, einen entsprechenden Speicherteiler hat sogar schon mein 30 Monate altes Gigabyte.
Hast du überlesen oder ignorierst du mal wieder, das es um offizielle Unterstützung ging?
 
So mal getestet...

Testsystem:
Asus M3A32
X3 8650 @stock
4GB Crucial Ballistix
Geforce 8800GTS @stock

Tools:
Perfwatch 2.7 - Auslastungsanzeige
Core2MaxPerf 1.3/Prime95 25.7 - Belastung
Energymonitor 3000 - Verbrauchsmessung

Ergebnisse:
Prime95: Auslastung 58/100% Verbrauch 227W
Core2MaxPerf: Auslastung 88/100% Verbrauch 226W

Scheint wohl noch nicht so ganz zu funktionieren...
 
Ergebnisse:
Prime95: Auslastung 58/100% Verbrauch 227W
Core2MaxPerf: Auslastung 88/100% Verbrauch 226W

Scheint wohl noch nicht so ganz zu funktionieren...

nein das heißt eben gerade nur es macht keinen unterschied und das wäre damit auch der Beweis das man es eben nicht übertragen kann.

das der Penryn "benachteiligt" wurde weil der Phenom doch mehr verbrauchen würde...

Bei meinem X2 4850e sinds 125W statt 120W mit Prime
 
Zuletzt bearbeitet:
Hab da nur das ;) vergessen...

Ich teste mal übertaktet...

3000MHz@1.34V (extra etwas mehr VCore)

Ergebnisse:
Prime95: Auslastung 58/100% Verbrauch 287W
Core2MaxPerf: Auslastung 88/100% Verbrauch 285W

Bin gespannt ob Undertaker 1 und Co. jetzt noch auf Waffengleichheit plädieren(jetzt wo der Phenom sogar 2W weniger verbraucht) :)
 
Zuletzt bearbeitet:
Habs auch mal getestet mit Energy Chek 3000 3,2 Ghz 1,375 V Core
Prime In Place Large FFTs 292 Watt
Core2MaxPerf 289 Watt
 
Zuletzt bearbeitet:
Hab da nur das ;) vergessen...

Ich teste mal übertaktet...

3000MHz@1.34V (extra etwas mehr VCore)

Ergebnisse:
Prime95: Auslastung 58/100% Verbrauch 287W
Core2MaxPerf: Auslastung 88/100% Verbrauch 285W

Bin gespannt ob Undertaker 1 und Co. jetzt noch auf Waffengleichheit plädieren(jetzt wo der Phenom sogar 2W weniger verbraucht) :)

THX für den Test
Ich bin mit einem Yorkfield auch zu dem Ergebnis gekommen das Prime mehr Last beim Gesamtsystem verursacht als Core2MaxPerf. Bei HT4U testen die aber nur den Prozessor das macht wahrscheinlich den Unterschied aus.

Interessant finde ich den Vergleich von Mondrials zu Motkachlers System.
Mehr Takt eine höhere VCore ein Kern mehr und zwei Grafikkarten aber trotzdem liegt das X4-Sys beim Verbrauch auf Augenhöhe mit dem X3-Sys. Erstaunlich :eek:
 
Bin gespannt ob Undertaker 1 und Co. jetzt noch auf Waffengleichheit plädieren(jetzt wo der Phenom sogar 2W weniger verbraucht) :)

Waffengleichheit?

Hier wird AMD somit klar benachteiligt da es mit Prime mehr verbraucht als mit CorePerf seine komplette Argumentationsschiene ist damit grad ad absurdum geführt.
und die Aussage im Text von ht4u,das Intel damit benachteiligt sei stimmt damit auch nicht.
Man kann eben so eine Aussage nicht machen ohne die unbekannte X zu kennen.

und ich habe es ihm genau so erklärt ohne den Verbrauch des Phenom mit dem Programm zu kennen kann man keine solche Aussage treffen aber nein, wer nicht hören will. 'Intel wird auf jedenfall benachteiligt etc...'

Da ich mit dem X2 einen höheren Verbrauch habe zeigt, dass das Programm funktioniert, somit kann er sich damit nicht rausreden.

Mal sehn wie sein Kommentar dazu ausfällt.
 
Zuletzt bearbeitet:
THX für den Test
Ich bin mit einem Yorkfield auch zu dem Ergebnis gekommen das Prime mehr Last beim Gesamtsystem verursacht als Core2MaxPerf. Bei HT4U testen die aber nur den Prozessor das macht wahrscheinlich den Unterschied aus.

Interessant finde ich den Vergleich von Mondrials zu Motkachlers System.
Mehr Takt eine höhere VCore ein Kern mehr und zwei Grafikkarten aber trotzdem liegt das X4-Sys beim Verbrauch auf Augenhöhe mit dem X3-Sys. Erstaunlich :eek:
Die 2 3870 takten im 2D auf 300 Mhz Gpu Takt runter die 8800GT nicht die zieht immer voll
an der Dose das wirds sein.
 
Zuletzt bearbeitet:
Hab meinen X2 4400+ (@Default 1,3V) auch mal getestet (aber nur schnell & grob):

Prime Large FFTs:
Anfangs (1. Zeile): 79-80W (47-48%)
Min. später (genau ab der 2. Zeile): 84W (58-59%)

Core2MaxPerf: 89W (ca. 80-85%, kurze Spitzen bis 90%)

Cinebench 10: 77W (37%)

wPrime: 76W (40%)

Was Core2MaxPerf da herausquetsch wird in der Realität nie bei einem X2 erreicht.
 
edit: link gerade gesehen.
 
hier n neuer test bezüglich der nehalem-spieleleistung von Computerbase *KLICK*

Das sieht schon realistischer aus. Bei 3x SLI liegt der i7 965 je nach Auflösung und Quali 2%, 5%, 7% oder 11% vor dem QX9770. Gibts noch Unterschiede bei den PCIe-Slots?

Edit: lol gerade bei der letzten ausgeblendeten Konfig liegt sogar der QX9770 1% vor dem i7 965. Vernichtend! ;o) Auch für Nvidia..
 
Zuletzt bearbeitet:
Das sieht schon realistischer aus. Bei 3x SLI liegt der i7 965 je nach Auflösung und Quali 2%, 5%, 7% oder 11% vor dem QX9770. Gibts noch Unterschiede bei den PCIe-Slots?

Edit: lol gerade bei der letzten ausgeblendeten Konfig liegt sogar der QX9770 1% vor dem i7 965. Vernichtend! ;o) Auch für Nvidia..

Schön, dass du im Stande bist, dir die schlechtesten Ergebnisse herauszupicken. Ich werde dich mal dran erinnern, wenn du über Rosinenpickerei herumjammerst.

Hätte AMD ein derart "vernichtendes" Ergebnis abgeliefert, dann würdest du vor Freude 3 Tage lang jubeln.


@all
Würde mir bitte jemand erklären wieso bei manchen Games die beiden Quad-Core@3,2 GHz bei Verwendung von 3x GTX 280 etwa gleich schnell sind, während die Differenz manchmal sehr groß ist? Sieht man z.B: bei "Assassin's Creed - 1680x1050" sehr deutlich. +41%
 
i7 kann zaubern ;)

Assassins Creed ist einer der wenigen Spiele die von mehr als 2 Kernen gebrauch machen.
 
Das ist halt der Nehalem Effekt bei manchen Spielen, wenn triple SLI zum Einsatz kommt.

Der Cbase test zeigt es aber nochmal schön:

Der Nehalem ist nur dann besser als der Yorkfield, wenn er mit den richtigen Spielen und tripple SLI gefüttert wird. Sonst ist der Unterschied zu vernachlässigen und damit sollte der Preis der Gesamtplatform für 99% aller Nutzer entscheidend sein, für eine Wahl zwischen Yorkfield, Nehalem und Deneb.
 
Zuletzt bearbeitet:
Warum Trible-SLI?
In ua. FC2 ist ein 2*SLI in 1680er Auflösung schneller als ein 3*SLI mit Penryn.

Hehe ich freu mich schon auf mehr Next-Gen Games. :d

Gibt es eigentlich eine Seite die Grid/DIRT! mit anständiger Graka (eine GPU) getestet hat? Hier sollte sich Nehalem genau wie Phenom absetzen können..
 
Schön, dass du im Stande bist, dir die schlechtesten Ergebnisse herauszupicken. Ich werde dich mal dran erinnern, wenn du über Rosinenpickerei herumjammerst.

Das hat weniger mit Rosinenpickerei als mit Realismus zu tun. Ich glaube nicht an Wunder in der IT-Branche und schon gar nicht bei redaktionellen Arbeiten. Wenn man sich in dem Bereich längere Zeit stärker mit einem Thema befasst (bei mir der Stromverbrauch), bekommt man automatisch ein Auge für Unzulänglichkeit bei Tests/Ergebnissen. Ich bin oft sprachlos was den Leuten da verkauft wird. Es ist nunmal so, bei wahnwitzigen Ergebnisse lassen sich idR die Haken aufdecken, vorausgesetzt die Tester betreiben nicht zu viel Verschleiherungstaktik (ob gewollt oder ungewollt ist dabei völlig egal), damit meine ich dass sie vernünftige und vollständige Angaben zum Test(System) machen. Wenn ein Test nicht nachvollziehbar ist, hat der Tester mMn schon versagt.

Naja wenn ich tatsächlich Rosinen herauspicken würde, würde ich jetzt einzelne Über-Ergebnisse herausstellen... Und das "vernichtend" kann man schon als Ironie enttarnen, wenn man etwas Sinn für Humor hat.


Edit: Wenn ich mir dein Posting noch mal durchlese, finde ich es schon ganz schön weit hergeholt. Ich habe alle Gesamtrating-Differenzen erwähnt und zwar wirklich ALLE, und dazu gehört nunmal auch die letzte Konfig mit 1% Differenz, die mir erst im Nachhinein aufgefallen ist (war ausgeblendet im Test). Wenn dir das aufstößt, würde ich mir ernsthaft Gedanken darüber machen wer hier einen selektiven Blick hat.
 
Zuletzt bearbeitet:
Das erklärt aber nicht wieso die Differenz zwischen zwei 2 Quads auf einmal so groß wird.

AC braucht Cache-Kohärenz. Die ist beim Nehalem schneller, deshalb ist er besser. Auch der Phenom ist in AC besser (relativ zum Takt). Bei anderen XBox-Umsetzungen ist das ähnlich, sehr krass sieht man das auch bei Dirt/Grid. Hinzu kommt die Effizienzfrage, die beim NF790 eher kritisch zu sehen ist wegen der verwendeten MCP55.
 
Zuletzt bearbeitet:
er kennst du wenigstens die potenzielle möglichkeit an falsch gelegen zu haben ? ;)

immerhin warst du der jenige der vehement gemeint hat intel wäre benachteiligt worden und es haben hier mittlerweile schon 2 User dies mit dem Phenom bestätigt.

leider hab ich meinen schon wieder verkauft da ich ihn mir nur wegen der Strommessung@sig geholt habe.
 
Zuletzt bearbeitet:
Das hat nix mit Triple-SLI zu tun und der Effekt nennt sich schlicht "CPU-Limit". Und das gibt gerade in realen Spielsituationen so häufig, dass speziell hier der Mehrwert enorm ist. Vielleicht kommt Supreme Commander ja endlich mal der Spielbarkeit auf 8-Spielerkarten näher :d
Die Erklärung von Hot klingt viel plausibler als "CPU-Limit"

AC braucht Cache-Kohärenz. Die ist beim Nehalem schneller, deshalb ist er besser. Auch der Phenom ist in AC besser (relativ zum Takt). Bei anderen XBox-Umsetzungen ist das ähnlich, sehr krass sieht man das auch bei Dirt/Grid. Hinzu kommt die Effizienzfrage, die beim NF790 eher kritisch zu sehen ist wegen der verwendeten MCP55.
Danke.
 
Du siehst schon, dass das beschriebene nichts anderes als ein CPU-Limit ist? Zu den Ursachen hatte ich mich gar nicht weiter geäußert... Und das der 2. Teil seiner Erklärung mit dem Chipsatz Unfug ist wurde doch nun schon mehrfach gezeigt, identische FPS im GPU-Limit bestätigen das es sich um kein Skalierungsproblem des Nvidia-Chipsatzes handelt. Wäre schön, wenn er das endlich mal eingesteht...
 
Krass wie eine Messung die nicht in dem Kram passt gleich wieder mit dem Totschlagargument "Fanboy" diskreditiert wird. Soll das das von Undertaker 1 gewünschte Niveau sein?

Ich hab mir die Mühe gemacht das sofort nach der Arbeit mal in ein paar Runs zu messen und so wird es dann wieder nieder gemacht.

Ich kann gern auch Fotos mit dem Verbrauchsmessgerät und der jeweils laufenden Applikationen + AOD zur Überprüfung der Spannungen und Taktraten machen. Aber halt, die Fotos kann man ja faken...was machen wir nun? Soll ich die Zweifler alle mal nach Jena einladen, oder was?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh