Wird AMD permanent gegenüber Intel in Reviews benachteiligt? [4] neue Regeln beachten

Status
Für weitere Antworten geschlossen.
Ich kann nirgendwo sehen, dass die GPU für IE, Adobe Reader, iTunes, Excel, Word, Photoshop, Lightwave oder Cinema4D eine entscheidende Rolle spielt. Zudem kam die Release Version von Windows 7 Ultimate zum Einsatz. Aktueller geht es wohl nicht. Ich kann mich auch nicht erinnern, dass AnandTech genau diesen Test schon einmal durchgeführt hat. Ergebnis Recycling ist also unwahrscheinlich. :rolleyes:

CPU-Limit != Best Case Szenario. Best Case ist z.B. DivX (27,8% weniger Takt bei 31% Mehrleistung ohne SMT/Turbo) oder Itunes WAV zu AAC (27,8% weniger Takt bei 56% Mehrleistung ohne SMT/Turbo, beides siehe CB). Wie du schon selbst gesagt hast, ist z.B. das bei Anandtech verwendete Lightwave in aktueller Version keine Intel-Paradedisziplin mehr.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Diese sind denkbar ungeeignet, um reine CPU Performance zu testen.
Diese Aussage ist falsch. Es gibt genügend CPU-limitierte Spiele.
Dort spielen noch ganz andere Faktoren eine entscheidende Rolle.
Diese kann man fast komplett ausschalten. Warum sonst skalieren einige Spiele (fast) linear mit mehr CPU-Takt? Das geht nur, wenn ein CPU-Limit vorliegt :rolleyes
 
Zu Spiele & CPU Limit:
Bin mal gespannt, wie sich das Mutlithreading mit DX11 auswirken wird und ob es dort dann wieder "neue" Testmethoden geben wird ^^
 
Das wird all jenen CPUs mit vielen Kernen, ob virtuell oder physisch helfen - bessere Auslastung bringt eine höhere Performance. Pushen wird das die Performance der günstigen AMD 3/4-Kernern im Einstiegsseqment und den SMT-Nehalems.
 
Darum ging es gar nicht, sollte einleuchten.
Doch, genau darum ging es. Wenn du meine Beiträge nicht verstehst, dann unterlasse es bitte, mich zu zitieren. ;)

CPU-Limit != Best Case Szenario. Best Case ist z.B. DivX (27,8% weniger Takt bei 31% Mehrleistung ohne SMT/Turbo) oder Itunes WAV zu AAC (27,8% weniger Takt bei 56% Mehrleistung ohne SMT/Turbo, beides siehe CB). Wie du schon selbst gesagt hast, ist z.B. das bei Anandtech verwendete Lightwave in aktueller Version keine Intel-Paradedisziplin mehr.
Ich sprach auch gar nicht von CPU-Limit. :rolleyes:

Diese Aussage ist falsch. Es gibt genügend CPU-limitierte Spiele.
Was trotzdem noch keine reine CPU Performance widerspiegelt. Deshalb ist die Aussage völlig korrekt. "CPU-Limit" ist bei Spielen eine virtuelle Grösse, die in der Praxis nicht absolut bewertbar ist. CPU Performance in Spielen wird von vielen Faktoren beeinflusst, wie I/O, GPU Treiber, gewählte Szene und sogar der GPU selbst. Aber diese Diskussion hatten wir schon mal. Vielleicht solltest du das langsam mal akzeptieren. :rolleyes:

Diese kann man fast komplett ausschalten. Warum sonst skalieren einige Spiele (fast) linear mit mehr CPU-Takt? Das geht nur, wenn ein CPU-Limit vorliegt
Nein, eben nicht. Du scheinst nicht zu verstehen, wie die Infrastruktur eines Computers funktioniert und was hier limitieren kann. Ein schönes Beispiel findest du ja auch beim oben verlinkten AnandTech Test. Es sind zwar nur die min FPS, keine Ahnung inwiefern das repräsentativ ist, aber man kann zumindest erkennen, dass das Verhältnis von HD 4890 zu GTX 275 zwischen X4 und i5 nicht konstant ist. Das müsste es aber, wenn CPU Performance in Spielen deiner Meinung nach eine konstante und unabhängige Grösse ist. Das ist sie eben nicht.

Zumal das auch gar nicht das Thema ist. Ich hatte gebeten, auf solche Diskussionen hier zu verzichten. Also halte dich bitte daran. Wenn du darüber reden willst, und das gilt für andere ebenfalls, mache das bitte in einem anderen Thread.
 
Ich sprach auch gar nicht von CPU-Limit. :rolleyes:

Nenn es doch nach belieben, wie wäre es mit "massiver CPU-Auslastung durch mehrere hochparallelisierte Anwendungen"? Es ging mir mehr um den "Best-Case" Punkt. Der ist, vergleichst du mit meinen gebrachten Beispielen oben mit 67%/100% IPC Differenz zuzüglich SMT (sowie Turbo, wobei der ja, sprechen wir von IPC, nicht mit einzurechnen ist), nicht gegeben. Die sehr gute Performance der aktuellen Lightwave-Version auf aktuellen AMD-Modellen im Vergleich zu dem SMT-losen Lynnfield hattest du ja schon selbst erwähnt. :)
 
Was trotzdem noch keine reine CPU Performance widerspiegelt.
Eine Applikation auch nicht - hier muss auch RAM und Chipsatz mitspielen :rolleyes
Nein, eben nicht.
Aha, ich erhöhe den Takt um 20% und Spiel X legt um 20% zu. Dann ist das also kein CPU-Limit? Hallo?!
 
Zuletzt bearbeitet:
Doch, genau darum ging es. Wenn du meine Beiträge nicht verstehst, dann unterlasse es bitte, mich zu zitieren. ;)


Dann solltest du meine Beiträge auch erstmal richtig verstehen, dann würde dir das von Anfang an einleuchten und hättest dir deine Polemik sparen können. Ich habe deinen Beitrag vestanden, du meinen nicht (oder wolltest ihn einfach nicht verstehen.)

Diese sind denkbar ungeeignet, um reine CPU Performance zu testen.

Dann zähl mal ein paar Anwendungen auf, dir nach deiner Meinung nach geeignet sind. Ich bin gespannt.
 
Zuletzt bearbeitet:
Eine Applikation auch nicht - hier muss auch RAM und Chipsatz mitspielen :rolleyes
Mit solchen lächerlichen Versuchen hilfst du deiner Glaubwürdigkeit nicht gerade auf die Sprünge. :rolleyes:

Aha, ich erhöhe den Takt um 20% und Spiel X legt um 20% zu. Dann ist das also kein CPU-Limit?
Du scheinst das Thema immer noch nicht zu verstehen. Du kannst mit Sonderfällen keine Grundsatzdiskussion führen. Oder was glaubst du, dass der hier von dir geschilderte Fall mit jeder beliebigen IGP in einem aktuellen Spiel mit den höchsten Einstellungen realisierbar ist?
Wie wäre es, wie schon mehrfach gefordert, wenn du endlich mal zum Thema zurückkommen würdest und deine sinnlosen Spiele Diskussionen einstellst? :rolleyes:

Dann solltest du meine Beiträge auch erstmal richtig verstehen, dann würde dir das von Anfang an einleuchten und hättest dir deine Polemik sparen können. Ich habe deinen Beitrag vestanden, du meinen nicht
Ich habe deinen Beitrag schon richtig verstanden. Genau wie y33H@ wolltest du das Thema Richtung Spiele abdriften lassen. Dumm nur, dass ich kein einziges Wort darüber verloren habe und dies auch nicht Gegenstand des Beitrages war. Offensichtlich hast du meinen Beitrag doch nicht verstanden. ;)

Dann zähl mal ein paar Anwendungen auf, dir nach deiner Meinung nach geeignet sind. Ich bin gespannt.
Habe ich das nicht schon getan? :rolleyes: Geeignet sind jene Anwendungen, die zu jeder Zeit mit der CPU skalieren. Das ist bei Spielen nun mal nicht der Fall, da es, wie oben bereits erwähnt, Abhängigkeiten gibt.
 
Habe ich das nicht schon getan? :rolleyes: Geeignet sind jene Anwendungen, die zu jeder Zeit mit der CPU skalieren. Das ist bei Spielen nun mal nicht der Fall, da es, wie oben bereits erwähnt, Abhängigkeiten gibt.

Die gibt es auch bei Anwendungen. Lasse ich aktuelle Programme z.B. nur mit 256MB RAM laufen, werden die wenigsten noch brauchbar mit mehr CPU-Leistung skalieren. Ein übrigens ebenso praxisfremdes Beispiel wie deines mit den Spielen mit IGP. Mit Savegames und realistischer Grafikkarte sind CPU-Limits in einer Vielzahl von Spielen beileibe kein Sonderfall.

Im Übrigen ergibt sich aus dem Gedanken der Grafikkartenlimitierung noch ein weiterer Zusammenhang: Selbst wenn diese einmal nicht 100% ausgeschlossen ist, stellt sich der prozentuale Leistungsunterschied zwischen zwei CPUs dadurch nicht zu groß dar, sondern wird ganz im Gegenteil verständlicherweise sogar noch komprimiert. Haben wir also in einem Fall 50% Leistungsdifferenz zwischen diesen beiden CPUs lässt sich problemlos sagen: Das ist der Mindestfall (für dieses Spiel an dieser Stelle). Haben wir kein GPU-Limit, war unsere Schätzung exakt richtig, haben wir eines, war die Schätzung sogar zu konservativ. Eine Abweichung nach oben durch ein teilweises GPU-Limit ist ausgeschlossen.
Die Diskussion über mögliche Limits bleibt zudem eine sehr hypothetische, da entsprechende Tests zur Untersuchung sehr einfach sind. Über Variation von CPU- oder GPU-Takt, y33h@ hatte das schön erklärt, lässt sich die qualitative und quantitative Art eines Limits problemlos herausfinden und bei Bedarf auf vielfältige Art und Weise eliminieren.
 
Zuletzt bearbeitet:
mr.dude schrieb:
Mit solchen lächerlichen Versuchen hilfst du deiner Glaubwürdigkeit nicht gerade auf die Sprünge.
Lächerlich ist einzig deine Aussage, da diese nur Flame, aber keine Argumente enthält.

mr.dude schrieb:
Oder was glaubst du, dass der hier von dir geschilderte Fall mit jeder beliebigen IGP in einem aktuellen Spiel mit den höchsten Einstellungen realisierbar ist?
Mit einer IGP freilich nicht. Das ist genauso, wie wenn ich Lightwave benche und nur 256 MiByte RAM in den Rechner stecke :rolleyes Wie Undertakter 1 schon sagte.
mr.dude schrieb:
Wie wäre es, wie schon mehrfach gefordert, wenn du endlich mal zum Thema zurückkommen würdest und deine sinnlosen Spiele Diskussionen einstellst?
Warum ist sie sinnlos? Nur weil du hierfür keine Argumente hast? Fakt ist, bei einer potenten Grafikkarte und/oder einem extrem CPU-limitierten Spiel/Szene lassen sich CPUs wunderbar benchen, u.a. skalieren sie 1:1 mit mehr Takt.
mr.dude schrieb:
Das ist bei Spielen nun mal nicht der Fall, da es, wie oben bereits erwähnt, Abhängigkeiten gibt.
Diese Abhängigkeit hast du bei Anwendungen genauso. Nur ist es hier eben nicht die Grafikkarte, sondern zB der RAM oder die HDD :rolleyes
 
Zuletzt bearbeitet:
Die gibt es auch bei Anwendungen. Lasse ich aktuelle Programme z.B. nur mit 256MB RAM laufen, werden die wenigsten noch brauchbar mit mehr CPU-Leistung skalieren.
Netter Versuch, aber falsch. Speicher kann dir maximal ausgehen. Und dann erhältst du vom System eine nette Exception. Ist das nicht der Fall, wird die CPU trotzdem skalieren, egal wie viel Speicher.
Anwendungen, die als einzige Leistungskomponente die CPU haben, werden auch immer damit skalieren. Spiele gehören nun mal nicht in diese Kategorie, da die GPU als zweite Leistungskomponente ins Spiel kommt. Dass es auch andere Beispiele geben kann, zB wenn die Festplatte limitiert, habe ich nirgendwo ausgeschlossen. Ende der Geschichte.

Warum ist sie sinnlos?
Weil sie überhaupt nicht das Thema war und ich explizit
Und nein, bitte jetzt nicht wieder Diskussionen über Spiele lostreten.
daran erinnert habe. Erst recht du, da du scheinbar wenig Ahnung von der Infrastruktur eines Rechnersystems hast und wie es funktioniert und Diskussionen somit auch nicht zweckdienlich sind.

Diese Abhängigkeit hast du bei Anwendungen genauso.
Ich habe auch nirgendwo gesagt, dass jede Anwendung abseits von Spielen bedingungslos geeignet ist. Schon dumm, wenn man Beiträge nicht versteht und sein Ego wieder mal nicht im Zaum halten kann. :rolleyes:
 
Netter Versuch, aber falsch. Speicher kann dir maximal ausgehen. Und dann erhältst du vom System eine nette Exception. Ist das nicht der Fall, wird die CPU trotzdem skalieren, egal wie viel Speicher.

Inkorrekt. Massive Plattenzugriffe können ebenso die Folge sein, was zu Performanceeinbrüchen führt, die dir keine CPU beheben kann.

Anwendungen, die als einzige Leistungskomponente die CPU haben, werden auch immer damit skalieren. Spiele gehören nun mal nicht in diese Kategorie, da die GPU als zweite Leistungskomponente ins Spiel kommt. Dass es auch andere Beispiele geben kann, zB wenn die Festplatte limitiert, habe ich nirgendwo ausgeschlossen. Ende der Geschichte.

Ebenfalls inkorrekt. Z.B. jedes Videoprogramm kann auch durch die HDD limitiert werden. Das ist exakt das Gleiche, wie die GPU bei Spielen.
 
mr.dude schrieb:
Erst recht du, da du scheinbar wenig Ahnung von der Infrastruktur eines Rechnersystems hast und wie es funktioniert und Diskussionen somit auch nicht zweckdienlich sind.
Du offenbar weniger als ich. Sonst müsstest du nicht mit dem IGP-"Argument" anrücken :rolleyes Wenn man alle anderen limitierenden Faktoren kennt und minimiert, taugen Spiele wunderbar um die CPU-Leistung zu messen. Ergo idR keine IGP ...
mr.dude schrieb:
Ich habe auch nirgendwo gesagt, dass jede Anwendung abseits von Spielen bedingungslos geeignet ist.
Schön schön. Ich habe auch nie behauptet, dass du behauptest hast, dass jede Anwendung abseits von Spielen bedingungslos geeignet ist um die CPU-Leistung zu messen. Du aber hast behauptet, "Spiele geben nicht die reine CPU Performance wieder" - was genauso falsch bzw. wie richtig ist wie die Aussage, "Anwendungen geben nicht die reine CPU Performance wieder". Natürlich geben beide nur die Performance des gesamten Systems wieder, man kann aber die anderen Faktoren soweit verringern, dass man die Leistung einer CPU in diesem System nahezu 1:1 gegen eine andere CPU bzw. eine andere Taktrate stellen kann.
 
Ich sprach lediglich vom Speicher. Also nix inkorrekt. :rolleyes:

Ebenfalls inkorrekt. Z.B. jedes Videoprogramm kann auch durch die HDD limitiert werden. Das ist exakt das Gleiche, wie die GPU bei Spielen.
Haha, toller Witz. Erst inkorrekt schreien und dann das gleiche nochmal wiederholen. :rolleyes:

Wenn man alle anderen limitierenden Faktoren kennt und minimiert, taugen Spiele wunderbar um die CPU-Leistung zu messen.
Wenn das schöne Wort wenn nicht wäre. Du kannst andere limitierende Faktoren in Spielen nicht ausschliessen, geschweige denn nachweisen. Und nein, daran ändert auch deine These mit 20% mehr Takt gleich 20% mehr FPS nichts. Das sind maximal Indizien. Wer sagt dir, dass die CPU vorher schon an ihrer Belastungsgrenze gearbeitet hat? Grundsätzlich erstmal niemand.
Wie ich schon andeutete, anstatt hier einen auf beleidigte Leberwurst zu machen, beschäftige dich endlich mal mit der Infrastruktur von Systemen, wozu auch Software gehört, Stichwort Stalls und Asynchronitäten. Es gibt nicht nur schwarz und weiss. Hier passiert viel mehr als du glaubst (oder wahrhaben willst). ;)

Und jetzt Schluss mit dem Quark. Spiele sind hier NICHT das Thema. Wie oft denn noch, bis du das endlich mal begreifst? :rolleyes:
 
Zuletzt bearbeitet:
mr.dude schrieb:
Und nein, daran ändert auch deine These mit 20% mehr Takt gleich 20% mehr FPS nichts. Das sind maximal Indizien.
Und bei einer Anwendung, die mit 20% mehr Takt gleich 20% Punkte/weniger Sekunden/whatever zulegt, ist deiner Argumentation nur die CPU beteiligt? Sorry, das ist Quark.
 
Ich sprach lediglich vom Speicher. Also nix inkorrekt. :rolleyes:

Bitte nochmal mein Posting ganz exakt lesen. Ich sprach von der Folge von Speichermangel. Die kann, neben einem Programmabsturz, auch eine massiv höhere Anzahl von Festplattenzugriffen sein, was zu Einbrüchen in der Performance führt, die eine Skalierung mit der CPU-Leistung verhindern. Das ist absolut äquivalent zu deinem Beispiel, ein Spiel mit einer IGP zu benchen.

Haha, toller Witz. Erst inkorrekt schreien und dann das gleiche nochmal wiederholen. :rolleyes:

Nochmal drüber nachdenken. In einem beliebigen Systemumfeld kannst du jede beliebige Anwendung und jedes beliebige Spiel dazu bringen, dass es nicht mehr ausschließlich von der CPU abhängt. Das führt zu rein gar nichts. So wie es in einer realistischen Umgebung viele ausschließlich CPU-Leistungs limitierte Programme gibt, gibt es das auch im Spiele Umfeld.

Und ja, das ist eindeutig feststellbar. Wenn wir bei einer 20%igen CPU-Takterhöhung 20% mehr fps haben, sowie der Tausch der Grafikkarte gegen ein beliebig schnelleres Modell keinerlei Änderung bedeutet, haben wir ein klares, eindeutiges und unwiderlegbares CPU-Limit. Das gibt es, du kannst es leugnen so oft du möchtest, regelmäßig. :)
 
Euren Kleinkrieg könnt ihr auch per PN weiterführen.
Hier geht es um nichts weiteres als das, was auf Seite 1 im ersten Beitrag steht.


@mr.dude
Ignorier-Funktion benutzen und es ist Schicht im Schacht.
Garnicht erst Nahrung für solche Leute anbieten. :kotz:
 
Username ist dein Programm?

Das ist kein Kleinkrieg sondern eine Diskussion!
 
Jup. Was ich auch schon etliche male erwähnt habe. Ich werde zu dem Käse auch nichts mehr sagen. Mit solchen Egomanen wie Undertaker oder y33H@ kann man sich halt nicht vernünftig unterhalten. Gegen Ignoranz gepaart mit Halbwissen und totaler Rechthaberei ist wohl nicht anzukommen. :rolleyes:
 
Zuletzt bearbeitet:
hi,

Für die benachteiligung von AMD in den rewiews (die ja ohnehin alle subjektiv sind ;D) gibt es meiner meinung nach einen wichtigen Grund.

und Das ist, das intel einfach genug geld hat, um mit testmustern um sich zu schmeißen!

ich abe einen freund der für ein computermagazin arbeitet und der sagte mir, dass sobald eine neue prozessorengeneration rauskommt, 'Intel von jedem modell in dieser generation 3 exemplare verschickt. AMD dagegen kann -aufgrund des ja immernoch knappen werbebudgets) nur ein exemplar des spitzenmodells, eins aus der5 mittelklasse und das kleinste modell der reihe zur verfügung stellen

und das auch noch jeweils nur 1 mal.

das denke ich ist einer der hauptgründe, warum intel subjektiv immer etwas besser da steht als AMD was reviews angeht

lg
Gammelfrog
 
Was hat die Anzahl der Samples mit einer Benachteiligung zu tun? Die CPU wird dadurch ja nicht schlechter. Außer AMD liefert keine oder Schrott-Boards. Dann ists klar.
 
angenommen du schreibst ein rewiev beispielsweise zu einem gpukühler

bei firma a machst du die packung auf, räumst tonnen von spannungswandler kühlern, vram kühlern, lüftersteuerungen und bedienungsanlietungen beisete, um den kühler zu begutachten.

danach machst due den karton von firma b auf und drin ist keine bedienungsanleitung, kein spawa kühler und auch kein vram kühler
auch lüfter sind optional erhältlich.

und jetzt erzähl mir nicht, das nach dem erlebnis dein kühlerrewiew objektiv ausfällt

lg
Gammelfrog
 
Im Falle des Kühlers ist der mit weniger Zubehör objektiv im Bereich Ausstattung schlechter - der Kühler selbst kann aber freilich besser sein. Das kannst du aber nicht auf ne CPU übertragen :rolleyes:
und jetzt erzähl mir nicht, das nach dem erlebnis dein kühlerrewiew objektiv ausfällt
Wenn, dann ist das extrem unseriös. Bei mir liegen des Öfteren Kühler vorne, die nicht so viel Zubehör haben *Schulter zuck*
 
Zuletzt bearbeitet:
also mein kumpel hat mir erzählt das amd dann halt als die knauserfirma n°1 dasteht und deshalb die reviews generell etwas besser für intel ausfallen.

lg
Gammelfrog
 
Was hat die Anzahl der Samples mit einer Benachteiligung zu tun? Die CPU wird dadurch ja nicht schlechter.

Natürlich nicht, die wird eher besser. Zum Dank das man z.B. das sparsamste/effizienteste Sample für das Review aussucht, darf man die anderen privat behalten. Und bei Mainboards gibts genung Stellschrauben um die (Verlust)Leistung in in die eine oder andere Richtung zu lenken.

Also ob sich Reviewer nicht wie jeder andere Sterbliche durch Überschüttung mit "Geschenken", ob bewusst oder unbewusst ist irrelevant, beeinflussen ließen.
 
Zuletzt bearbeitet:
3 Samples von jeder CPU halte ich für ein Gerücht ;)

Entweder hast du dir da was zusammen gereimt oder dein "Kollege" erzählt Müll.

Edit: und wer sagt das das alles "Geschenke" sind?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh