Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte Anfang lesen [2|2]

Status
Für weitere Antworten geschlossen.
Solche Vollast-Messungen machen schon Sinn. Man könnte z.B. messen wieviel KW*min ein System braucht um eine bestimmte Aufgabe (z.B. Video-transkodieren, Numbercrunchen etc.) zu erledigen. Dazu noch den Idleverbrauch des Systems angeben und meinetwegen ein Teillastszenario wie etwa einen Batch der 100 Internetseiten ansurft.

Dann hätte man endlich mal praxisrelevante Messverfahren, anhand derer sich ein User ein relevantes Bild machen kann.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Solche Vollast-Messungen machen schon Sinn. Man könnte z.B. messen wieviel KW*min ein System braucht um eine bestimmte Aufgabe (z.B. Video-transkodieren, Numbercrunchen etc.) zu erledigen.

Volllast in deinen genannten Beispielen ist aber immernoch weitaus weniger als das, was - gerade der i7 - in synthetischen Szenarien wie Prime erreichen kann.

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3453&p=3

Bevor jetzt wieder jemand losschreit, hier gehts nicht um den absoluten Vergleich zwischen den beiden CPUs dort! Der interessante Punkt ist: Verbraucht der Nehalem in einem Fall wie Pov-Ray 10W mehr als der QX9770, kann man noch lange nicht auf einen höheren allgemeinen Energieverbrauch schließen. In Teillastszenarien, die in der Praxis wohl am häufigsten vorkommen, lag der Verbrauch in diesem Test bis zu fast 80W (Fallout 3) unter dem des Core 2!

Der richtige Weg wäre also, wie du richtig sagst, einen Mittelwert (am besten auch den zeitlichen Verlauf) von verschiedenen gebräuchlichen Lastszenarien zu bilden. In einem solch realistischen Szenario würde sich, wie man sieht, ein z.T. völlig anderes Verbrauchsbild bieten.
 
Das SPEC Dokument ist gut! Letzlich die theoretische Beschreibung dessen, was viele Anwender mal interessieren würde. Der von Undertaker verlinkte Test zeigt ja sowas ähnliches, nur dass dort auch Verbrauch und Leistung separat gemessen wurde und die Testbedingungen sicher nicht wissenschaftlichen Maßstäben genügen würden.

Für Desktop-PC Reviews könnte das so aussehen:

Stromverbrauchszählen nullen
PC anschalten und hochfahren lassen
30 min Surfen
ein HD-Video transcodieren
ein Verzeichnis vom AV scannen lassen
ein großes Archiv packen
einen gängigen Game-Benchmark laufen lassen
30 min Idle

dann herunterfahren. Das ganze natürlich per Script, damit die Bedinungen möglichst gleich sind.

Danach hat man zwei Erkenntnisse:

a) wie lange hat das alles gedauert (ggf. + Game-FPS) -> Reallife Performance
b) wieviel Energie hat das Szenario verschlungen

Idealerweise mit verschiedenen Szenarien, damit sich der User irgendwo dazwischen einordnen kann.
 
Zuletzt bearbeitet:
faszinierende Idee, da wäre dann ja auch die Energieverschwendung durch Wartezeiten erfasst... nur dann ist klar, dass du damit die Komponentenkombo testest, weniger die CPU - eigentlich garnicht die CPU als solche sondern vielmehr das Verhalten des Mobo.
 
Besseres AF, SSAA, xS-Modi und vor allem genügend Rechenpower dafür. AMD bietet einzig mit 24x ED-CFAA die bessere Geometrieglättung, welche angesichts der Vollbildglättung von SSAA/xS und dem Shader- sowie Alpha-Test-Content aktueller Titel wenig überzeugend ist in meinen Augen. Hinzu kommt die Platine, bei welcher gerade die Spannungsversorgung im Gegensatz zur HD4870 dem Worstcase gewachsen ist - im Furmark rennt diese nicht am Limit und OCCT produziert keinen Absturz. DX10.1 ist kein Argument, das kam erst, als der GT200 praktisch schon fertig war. ...
Mal abgesehen davon, dass dein Beitrag eine Reihe an Falschaussagen und Fehlinterpretationen enthält, aber das kann ich dir gerne per PN beantworten, du verstehst überhaupt nicht, worum es geht. Du kannst noch so viel verteidigen, es ist DEINE GANZ SUBJEKTIVE Sichtweise. Und das ist nicht unbedingt die ausschlaggebende. Und das solltet ihr bei PCGH begreifen. Es gibt Marktfaktoren, die für euch womöglich nicht wichtig sind, deshalb sind diese trotzdem vorhanden und entscheidend für Hardware. Und das sollte man seinen Lesern auch vermitteln (können). Hersteller wie Intel haben durch jede Menge miese PR leider schon genug Mythen hervorgebracht. Da sollte es eigentlich der Anspruch jedes Printmediums sein, seine Leserschaft kompetenter zu versorgen.

Such dir eine beliebige Anzahl weiterer Reviews und nenn mir ein Beispiel, bei denen Winrar nicht zur absoluten Spitzengruppe bei der Skalierung mit dem Ram zählte.
Dein Beispiel DDR3-1066 CL8 zu DDR3-1600 CL8 ist vollkommen unangebracht. Diese Differenz ist um weiten größer als der diskutierte Fall bei PCGH, außerdem ergeben die identischen relativen Latenzen sehr viel kürzere Absolutlatenzen für den DDR3-1600 Fall. DDR3-1333 CL7 zu DDR3-1600 CL8 bietet da die beste Basis für einen Vergleich, der nur einen 20% höheren Ram- und Northbridgetakt sowie annähernd gleiche Speicherlatenzen betrachtet.
Und das bedeutet auch 20% mehr Durchsatz. Es gibt genügend Beispiele, in denen die Performance mehr als deine 0-2% dadurch steigt. Ich habe mir nicht alle Tests bei PCGH angeschaut, daher kann ich auch nicht beurteilen, welche Taktraten und Timings sie konkret verwendet haben. Aber selbst zwischen DDR3-1333 und DDR3-1600 bei gleichen relativen Latenzen kann der Unterschied durchschnittlich 3-4% betragen. IIRC hatte xbitlabs vor einiger Zeit einen Test mit dem Phenom II dazu gemacht. Und eine höher getaktete Northbridge bringt dementsprechend noch mehr.
Also lass langsam mal gut sein, zu behaupten, ein zusätzlicher Takt von 5% bringt mehr. Ich sehe dafür keine Basis.

Zusammenfassend also: Kein Turbo und 20% mehr Speicher-/NB-Takt ist definitiv kein Vorteil für den i7, speziell wenn wir wie bei PCGH von Spielen reden.
Das habe ich auch nirgendwo behauptet, also bleib beim Thema. Du hingegen hast das Gegenteil behauptet. Und das ist mehr als fragwürdig, wenn nicht sogar falsch.
 
Und das bedeutet auch 20% mehr Durchsatz. Es gibt genügend Beispiele, in denen die Performance mehr als deine 0-2% dadurch steigt. Ich habe mir nicht alle Tests bei PCGH angeschaut, daher kann ich auch nicht beurteilen, welche Taktraten und Timings sie konkret verwendet haben. Aber selbst zwischen DDR3-1333 und DDR3-1600 bei gleichen relativen Latenzen kann der Unterschied durchschnittlich 3-4% betragen. IIRC hatte xbitlabs vor einiger Zeit einen Test mit dem Phenom II dazu gemacht. Und eine höher getaktete Northbridge bringt dementsprechend noch mehr.
Also lass langsam mal gut sein, zu behaupten, ein zusätzlicher Takt von 5% bringt mehr. Ich sehe dafür keine Basis.

Dann bitte endlich mal einen Link. THG zeigt etwas anderes. :) Und natürlich zum i7 und nicht zum PII, denn darum gehts ja.
 
ich finde gernerell zu all euren Thesen, sollte mal ein unabhängiger Link als Quelle dabei stehn. Könnt ihr keine Quelle angeben die das untermauern kann, ist das ja auch erstmal nur
eine Theorie.

Das Einzige was ich hier gelernt habe. AMD hat ein marketing Problem!
Jeder versucht doch seine Ware an den Mann zu bringen und das dabei nicht
immer die Wahrheit gesagt wird is ja auch kein Geheimnis.
Wären die Intel besitzer sounzufrieden würde Intel doch sicher merken,
wenn verkaufzahlen einbrechen.
Dem ist nicht so. Also gehe ich davon aus, dass die Leute zufrieden sind.

http://finanzen.sueddeutsche.de/aktien/news_news?secu=410&dpa_news_id=6126007

Wobei der markt um den hier gesprochen wird sicher nur ein tropfen auf den heissen Stein sind bei den Umsätzen.
 
Zuletzt bearbeitet:
@Undertaker 1

Was genau willst du denn anhand von 3 Spielen und Medium Settings bei THG sehen? Wo zudem alleine die Latenz Unterschiede von teils über 13% ausmacht. Ich glaube eher, bei einem anderen Thema wäre deine Ausrede, die GTX 260 limitiert. :rolleyes:
Gib langsam mal Ruhe. Was wo im Nachteil war, ist reine Spekulation. Das solltest auch du langsam mal einsehen. AMD wurde insofern benachteiligt, dass das Intel System getweaked wurde. Ob das jetzt zu besseren oder schlechteren Ergebnissen führt, sei mal dahingestellt. Ich gehe aber davon aus, PCGH wird schon einige Setups geprüft haben, um am Ende nicht schlechter dazustehen. So naiv bin ich auch nicht.
Dass solche Tests möglichst @ default durchgeführt werden sollten, darüber sind wir uns doch einig.
 
Das Asus P5E3 Premium schluckt nicht viel iirc.
 
@Undertaker 1

Was genau willst du denn anhand von 3 Spielen und Medium Settings bei THG sehen? Wo zudem alleine die Latenz Unterschiede von teils über 13% ausmacht. Ich glaube eher, bei einem anderen Thema wäre deine Ausrede, die GTX 260 limitiert. :rolleyes:
Gib langsam mal Ruhe. Was wo im Nachteil war, ist reine Spekulation. Das solltest auch du langsam mal einsehen. AMD wurde insofern benachteiligt, dass das Intel System getweaked wurde. Ob das jetzt zu besseren oder schlechteren Ergebnissen führt, sei mal dahingestellt. Ich gehe aber davon aus, PCGH wird schon einige Setups geprüft haben, um am Ende nicht schlechter dazustehen. So naiv bin ich auch nicht.
Dass solche Tests möglichst @ default durchgeführt werden sollten, darüber sind wir uns doch einig.

Ist das alles? 3 Spiele sind schonmal besser als gar keines, sofern du also keine gegenteilige Quelle bringst, können wir ersteinmal von der THG-Situation ausgehen. Es gibt noch andere Speichertests zum i7 im Netz, finden wir auch nur einen der da andere Ergebnisse zeigt, können wir gerne darüber reden. :)
Deine weitere Argumentation finde ich sehr abwegig: Ein "Tweak" (schoneinmal eine unpassende Bezeichnung in diesem Zusammenhang), der nach bisher vorliegenden Zahlen (THG, ich warte auf gegenteiliges von dir mit LINK) eher zu einer Benachteiligung der Ergebnisse des i7 im diskutierten Vergleich geführt hat, ist eine Benachteiligung von AMD? Ich bin wohl nicht der einzige, der das äußerst widersprüchlich nennen würde.
 
Das Thema mit den X48 Boards hatten wir doch schon mal. Der X48 ist am ehesten mit dem 790FX vergleichbar, der 790X/790GX mit dem P45/G45 wenn es nach der Anzahl der PCIe Lanes geht. Dem Core i7 kann man wiederum am ehesten mit dem X48 und dem 790FX vergleichen, alles andere läßt den Core i7 unberechtigt schlecht aussehen was Stromverbrauch an geht.
 
Wobei da man dort keine Alternative hat der vergleich zu den anderen auch zulässig ist meiner meinung nach
 
Prinzipiell kann man alles mit allen vergleichen nur muß man eben sehen das der X58 alleine schon 36 PCIe Lanes für 3 PCIe 16x Ports zur Verfügung stellt und somit für SLI und CF prädestiniert ist. Vergleichbar hierzu ist nur der 790FX und der X48, der P45/G45/790(G)X sind für CF eher nicht so gut geeignet.
 
Ja nur meinte nur das jemand der das nit braucht keine möglichkeit hat auf ein sparsameres auszuweichen
Den CF und SLY rate ist bei I7 sicher deutlich höher aber immer noch weit weg von 50%
 
Als Freund starker Single Grafikkarten halte ich CF und SLI für völligen Nonsens, das war auch ein Grund das ich meinen Core i7 wieder verkauft habe. Die X58 Boards sind für die meißten User einfach zu überladen und ziehen deshalb zuviel Strom aus der Steckdose. Ich bin mir ziemlich sicher das der Core i7, nur die CPU, sparsamer (Idle als auch Load) ist als ein Core 2 Quad und ein Phenom II nur sind deren Boards einfach sparsamer als die X58 Boards.
 
hmm bezweifle ich eher der I7 920 zeiht ja ohne uncore bereits 70W was über nem normalen Q9550 ist und in Spielen leistet er nit wirklich mehr
 
Ich muß zugeben das ich mir keine Verbrauchswerte bei Default VCore gemerkt habe sondern nur bei undervolting. Den Core i7 920@TM@SMT hatte ich auf 1.05V untervoltet und meinen aktuellen Phenom II 955 bei Standardtakt auf 1.22V. Der Phenom ist mit 790GX Board ca. 10-20W sparsamer bei LOAD, mit dem 790X Board war der Unterschied 10W geringer. Bei OC steigt die Leistungsaufnahme bei Core i7 als auch beim Phenom II sehr stark an, beim Core 2 Duo/Quad war das vielleicht sogar noch etwas extremer wenn ich dran denke was der E8600@4,5GHz bei 1.3V und der Q9450@3.6GHz aus der Steckdose gezogen hat
 
hmm bezweifle ich eher der I7 920 zeiht ja ohne uncore bereits 70W was über nem normalen Q9550 ist und in Spielen leistet er nit wirklich mehr

Achtung, das ist ein Äpfel-Birnen Vergleich! In Spielen zieht der i7 auch bei weitem nicht die 70W (ohne Uncore), die für ihn in einem Volllastszenario wie Prime oder evntl. auch Povray gemessen wurden! Für einen Effizienzvergleich musst du immer (Leistung in der konkreten Anwendung)/(Verbrauch in der konkreten Anwendung) nehmen, nicht Maximalverbrauchsunterschiede!
 
beim Q9550 gilt das aber auch ;-)

und ein gut programmiertes Speil sollte eigentlich imemr 100% CPU last haben und dafür mehr ( min ) Fps auf den Schirm bringen

UnCore wird von den meisten auf ca 25W geschätzt wa sich bis jetzt an previews und auch hier im Forum gelesen hab wären also min 95W wobei es vermutlich mehr ist wieso sonst sollte es 130 W TDP sein und nit ne Stufe kleiner.

Q9550 ca 60W und ein I7 920 leistet nit ansatzweise das Doppelte eines Q9550



Mir ist klar das das meiste hier nur Vermutungen sind aber sie weissen ne klare tedenz auf


bei deinem beispiel PovRay ist der Q9550 sogar um ganze 15!!% schneller!
 
Zuletzt bearbeitet:
@ KlausW

100% Last sind eben nicht 100% Last. (vergleiche z.B. Prime vs. LinX oder Core2MaxPerf)

Und die TDP ist nur eine KLASSE, oder was meinst du warum der i7-975 (3.33Ghz) ebenfalls nur 130W hat? Zudem hat der Verbrauch NICHTS mit der TDP zu tun.
 
ja und ? habe ja mit 95W gerechnet wo er eigentlich 100% nicht drunter ist

Und habe ich wo gesagt das TDP direkt mit dem verbrauch zusammenhängt?
Es hängt nur indirekt zusammen ( ein CPU der 200W braucht kann keine TDP von 10W haben und umgekehrt )

und ich mit sogar extra aufs beispiel von Untertaker mit PovRay eingegangen wo der Q9550 sogar deutlich schneller ist als ein I7 920
 
beim Q9550 gilt das aber auch ;-)

Nicht in gleich effizienter Form. Schau dir mal meinen Anandtechlink von weiter oben an, der i7 spart bei Teillast weitaus effizienter Energie ein, als dies der Core 2 schafft.

und ein gut programmiertes Speil sollte eigentlich imemr 100% CPU last haben und dafür mehr ( min ) Fps auf den Schirm bringen

Naja, sollte. Erstens gilt das schonmal nur, wenn eine GPU-Limitierung vollständig ausgeschlossen werden kann. Nächste Bedingung ist eine perfekte Parallelisierung für alle 4 Kerne und 8 Threads. Spätestens hier wird es bei der momentanen Situation sehr praxisfern. Im dritten Punkt ist die Frage, was ist 100% Last genau? 100% Last laut Taskmanager können intern auch nur 20% Auslastung der CPU bedeuten, wenn auch nur ein einzelner Teil der CPU am Anschlag arbeitet und somit eine perfekte Auslastung der restlichen Pipeline verhindert.

UnCore wird von den meisten auf ca 25W geschätzt wa sich bis jetzt an previews und auch hier im Forum gelesen hab wären also min 95W wobei es vermutlich mehr ist wieso sonst sollte es 130 W TDP sein und nit ne Stufe kleiner.

Könnte man vermuten, aber du darfst soetwas auf keinen Fall verallgemeinern. Bestes Beispiel: Ein Q8200 mit 95W TDP und real ~40W Verbrauch. Warum der keine 65W TDP bekommen hat, musst du Intel fragen.

Q9550 ca 60W und ein I7 920 leistet nit ansatzweise das Doppelte eines Q9550

Nochmal: Du musst für einen Vergleich der Leistungsaufnahmen auch identische Anwendungen heranziehen! Vergleichst du die Leistungsaufnahme in Prime, musst du auch mit der Leistungsfähigkeit beider CPUs in Prime vergleichen. Vergleichst du die Leistungsfähigkeit in einem Spiel, musst du auch hier die Leistungsaufnahme messen. Kreuz und quer geht hier definitiv nicht, da der i7 bei Teillast weit ausgefeiltere Stromsparmechanismen besitzt.

bei deinem beispiel PovRay ist der Q9550 sogar um ganze 15!!% schneller!

http://www.computerbase.de/artikel/..._950_975_extreme_edition/11/#abschnitt_povray

Bei Povray unterliegt der Q9550 dem i7 920 um etwa 50%.
 
Und habe ich wo gesagt das TDP direkt mit dem verbrauch zusammenhängt?
Es hängt nur indirekt zusammen ( ein CPU der 200W braucht kann keine TDP von 10W haben und umgekehrt )
Du widersprichst dir selbst....
wären also min 95W wobei es vermutlich mehr ist wieso sonst sollte es 130 W TDP sein und nit ne Stufe kleiner.
selbst eine CPU mit nur 80W verbrauch kann eine 130W TDP bekommen.
 
Deine Lieblingsseite HT4u zeigt das genau gegenteil ^^


http://ht4u.net/reviews/2009/intel_q9550_e0_stepping/index10.php

Q8200 ist ebenso wie Q9450 Marketing aber wie gesagt lassen wir das den ich ahbe nei behauptet das es zusammenhängt also hängt euch nit an dieser Sache auf



@ Chrisch nein tu ich nit
Ansonsten erklär mir mal Physikalisch korrekt wie eine CPU die 130W verbraucht 300W an Wärme abgeben soll und umgekehrt dann bekommste sicher den Nobelpreis ;-)
Es hängt aber eben nicht direkt damit zusammen da es nur ne grobe Einstufung ist mit fixen Abstufungen
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh