Wird AMD permanent gegenüber Intel in Reviews benachteiligt? [4] neue Regeln beachten

Status
Für weitere Antworten geschlossen.
Wenn du mir jetzt auch noch zeigst wo ich dir mit meinem Beitrag aktiv was unterstellt habe, wär ich dir sehr verbunden...
Willst du hier eine benachteiligung AMDs sehen? Da ist ganz klar keine vorhanden...
Soll ich noch mehr dazu sagen? :rolleyes:

Aber es ändert nix an der Tatsache, das der Testsoftware wechsel keine Benachteiligung für irgendjemanden bringt, weil eben nur der Durchschnitt über die getesteten Anwendungen vorliegt.
Das ist doch egal. Es geht darum, wem eine Änderung der Testparcours etwas bringt.
Beispiel ComputerBase. Ist ja schön und gut, dass man endlich Super Pi aus der Wertung raus geworfen hat. Aber was macht man stattdessen? Man nimmt MaxxPi rein. Der Entwickler nutzt handgeschriebenen Assembler Code, welcher auf Intel zugeschnitten ist, und testet das ganze noch mit seinem i7 System. Sehr objektiv. Zumal MaxxPi noch nicht mal auf Multi-Core ausgelegt war, was eines von zwei grundlegenden Problemen bei Super Pi ist. Natürlich ist ein E7200 30% schneller als ein X4 955. Äusserst repräsentativ. :rolleyes:
Jede Architektur reagiert unterschiedlich auf verschiedene Workloads bzw verschiedene Implementationen. Dementsprechend kann man natürlich auch das Testfeld definieren.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit der getesteten Software kann man mögliche (Architektur-)Vorteile einer Hardware hervorheben. Dass nicht beim Start des K10 vermehrt auf multicoreunterstützende Tests umgestellt wurde, sondern erst jetzt, kann man durchaus als Benachteiligung interpretieren.

Da Intel bereits seit Ende 2006 einen Quad im Programm hat, wurde dieser also über 2 Jahre hinweg benachteiligt? Das passt nicht so ganz zusammen.
 
Zuletzt bearbeitet:
Da Intel in dieser Zeit ohnehin mit der EXXX Serie meilenweit vorn lag passt das durchaus.

Es wurden Quads gegenüber Duals benachteiligt aber Intel lag halt trotzdem vorn.

Hätte man mit dem K10 angefangen Multithreaded zu benchen wäre diese klare Dominanz der Duals flöten gegangen, auch wenn Intel wahrscheinlich weiterhin ein Tick vorne gewesen wäre mit den eigenen Quads gegenüber K10.

Erst mit dem Nehalem, der bei Multithreading wieder eine klare Dominanz für Intel zeigt, wurde umgestellt. Also ich finde das durchaus "interessant".
 
Zuletzt bearbeitet:
Nein aber ein nicht nativer quad der über den alhmen FSB miteinander kommuniziert hat eben leichte probleme und kann wenn viel verkehr herscht auch bei perfekten programmen wo der K110 bei doppelte kerne doppelte Leistung erhält niemals die 100% erreichen.

denke zumindest so meint er das wobei mir aber auf die Schnelle kein Reales Beispiel dazu einfällt außerhalb von Wissenschaftlichen Berechnungen, und dadurch nit wirklich relevant.

Edit oki Firediablo war schneller und ich lag daneben :-(
 
Da Intel in dieser Zeit ohnehin mit der EXXX Serie meilenweit vorn lag passt das durchaus.

Es wurden Quads gegenüber Duals benachteiligt aber Intel lag halt trotzdem vorn.

Das passt immernoch nicht. Wenn schon der E8000 meilenweit vorne lag, wären die Quads bei multithreaded Software meilenweit*2 vorne gewesen. Der K10 war weder in seiner Performance noch als Quadcore allgemein ein Ausnahmefall, der alleinig von anderen Programmen profitiert hätte.
 
@ redfirediablo

Nehalem ist auch mit "nur" 4 Cores/Threads je nach Spiel (!) klar vor Yorkfield oder Deneb.
 
@ redfirediablo

Nehalem ist auch mit "nur" 4 Cores/Threads je nach Spiel (!) klar vor Yorkfield oder Deneb.
Immer diese pauschalen aussagen stimmt einfach nicht.
Nur weil der I7 bei einigen Spielen besser ist als der Konkurrent, heißt das noch lange nicht, dass das bei allen anderen Spielen auch so sein muss. Er kostet im Bundle viel mehr als die Konkurenz und bringt einfach nicht die mehrleistung die das rechfertigt darum verkauft er sich ja auch so schlecht.
 
Zuletzt bearbeitet:
Lies doch einfach was da steht :rolleyes:
Er kostet im Bundle viel mehr als die Konkurenz und bringt einfach nicht die mehrleistung die das rechfertigt darum verkauft er sich ja auch so schlecht.
Verabschiede dich von dem Kostenfaktor. Lynnfield und P55 kommen in wenigen Tagen. Und mit GT300 hast du mehr Luft nach oben und der Nehalem setzt sich dank fehlendem Grafiklimit weiter ab. Siehe Tests mit SLI/CF.
 
Zuletzt bearbeitet:
Ja genau kosten fast genausoviel wie der I7 und bringen weniger da schauts auch nicht viel anders aus wer sich da von was verabschieden sollte.:lol:
 
Zuletzt bearbeitet:
Immer diese pauschalen aussagen stimmt einfach nicht.
Und das aus deinem Munde :d

@ Dude
Profitiert AMD etwa nicht von Software, die mit mehr als 2 Kernen skaliert? Wenn ich mir deren momentanes Portfolio anschaue, sehe ich dort ziemlich viele Prozessoren mit mehr als 2 Kernen...

Was zum Release des K10 bei beiden Herstellern noch ganz anders aussah.
 
Soll ich noch mehr dazu sagen? :rolleyes:
Weis ich nicht ob du was dazu sagen musst, aber ich sage dir, schau mal auf das Satzzeichen...
Da ist eindeutig ein Fragezeichen zu sehen, heist soviel wie, keine Unterstellung sondern eine Frage. Ein einfaches Ja oder Nein hätte als Antwort genügt...

Das ist doch egal. Es geht darum, wem eine Änderung der Testparcours etwas bringt.
Beispiel ComputerBase. Ist ja schön und gut, dass man endlich Super Pi aus der Wertung raus geworfen hat. Aber was macht man stattdessen? Man nimmt MaxxPi rein. Der Entwickler nutzt handgeschriebenen Assembler Code, welcher auf Intel zugeschnitten ist, und testet das ganze noch mit seinem i7 System. Sehr objektiv. Zumal MaxxPi noch nicht mal auf Multi-Core ausgelegt war, was eines von zwei grundlegenden Problemen bei Super Pi ist. Natürlich ist ein E7200 30% schneller als ein X4 955. Äusserst repräsentativ. :rolleyes:
Jede Architektur reagiert unterschiedlich auf verschiedene Workloads bzw verschiedene Implementationen. Dementsprechend kann man natürlich auch das Testfeld definieren.

Ja und?
Die Ergebnisse geben den Durchschnittswert über die getesteten Anwendungen wieder! Nicht mehr und nicht weniger... Wer diesen Wert auf alle Anwendungsfälle breit zieht, hat eindeutlich was nicht richtig verstanden...

Man rückt damit auch keinen ins bessere Licht, wenn die CPU in den getesteten Anwendungen schneller ist, dann ist das eben so, warum und wieso das so ist, spielt dabei überhaupt keine Rolle.
Es sind alles frei käufliche Anwendungen oder Freeware Benchtools die sich jeder besorgen kann.

Einziger Punkt wo ich mitgehe, das Fazit könnte oft etwas weniger parteiisch ausfallen. Oft liest man eben, das genau der Redakteur eben diesen ermittelten Durchschnittswert als allgemeingültig hinstellt, was eben nicht stimmt...

Mit der getesteten Software kann man mögliche (Architektur-)Vorteile einer Hardware hervorheben. Dass nicht beim Start des K10 vermehrt auf multicoreunterstützende Tests umgestellt wurde, sondern erst jetzt, kann man durchaus als Benachteiligung interpretieren.

Auch hier, die Anwendungen welche getestet wurden spiegeln doch nur die Leistung der CPU in dieser Anwendung wieder...
Es ist schlicht und einfach nicht möglich einen Durchschnittswert über alle verfügbaren Anwendungen zu legen, das geht nicht.
Heist soviel wie, wenn man sowas fabriziert wird es immer einen Bevorzugten/Benachteiligten geben...

Das ist keine Benachteiligung, sondern ein nachweisbarer Fakt.
 
Motkachler schrieb:
Ja genau kosten fast genausoviel wie der I7 und bringen weniger da schauts auch nicht viel anders aus wer sich da von was verabschieden sollte
Ehhh, ein i5-750 samt nem P55-Platine kostet locker 150-200€ weniger als ein i7-920 samt X58-Board.
 
Man rückt damit auch keinen ins bessere Licht, wenn die CPU in den getesteten Anwendungen schneller ist, dann ist das eben so, warum und wieso das so ist, spielt dabei überhaupt keine Rolle.
Es sind alles frei käufliche Anwendungen oder Freeware Benchtools die sich jeder besorgen kann.

Natürlich spiel das eine Rolle! Erst recht wenn die "Anwendung" ein synthetischer Benchmark ist!

Sorry aber MaxxPi ist ein synthetischer Benchmark der im Vergleich zu z.B. einem Cinebench keinerlei sinnvolle Aussage auf die reale Anwendungsleistung eines Prozessors erlaubt.

Wenn jetzt so ein Benchmark verwendet wird bei dem ein 2,53ghz E7200 30% schneller ist als ein 955 BE macht das verdammt viel aus und verzerrt das komplette Gesamtrating.

Wobei man relativieren muss das scheinbar CB das selber erkannt hat und deshalb MaxxPi gar nicht oder nur gering in die Gesamtwertung eingeht.

Edit:

@ mr. Dude

Wie üblich bieten wir neben dem Ergebnis aus allen Test auch eine gesonderte Aufschlüsselung für die theoretischen Tests, den Office- und Multimedia-Bereich sowie die Spiele. Anhand dieser Diagramme ist zu erkennen, welcher Prozessor wo seine Stärken oder seine Schwächen hat. Nicht berücksichtigt werden in den Diagrammen die Werte von Super Pi, MaxxPi² sowie die minimalen und maximalen Bilder pro Sekunde, die wir in einigen Spielen mit angegeben haben. Insbesondere die minimalen Frames sind in jedem Test eine Geschichte für sich, da ein Nachladeruckler beim Zugriff auf die Festplatte an einer völlig anderen Stelle als üblich das Ergebnis verfälscht. Zudem halten wir es für wenig sinnvoll, das niedrigste Ergebnis entscheidend für einen ganzen Artikel zu machen, da es ohne weiteres sein kann, dass nur innerhalb einer einzigen Sekunde solch' niedrige FPS-Zahlen erreicht werden, während das Spiel ansonsten spürbar flüssiger läuft.

Das Gesamtrating setzt sich schlussendlich nur aus dem Bereichen Office, Multimedia und den Spielen zusammen. Da die theoretischen Tests wie 3DMark, Cinebench, Sandra und die Errechnung der Zahl Pi keine direkte Aussage über die Performance im Alltag zulassen, kann man mit diesen Werten auch kein objektives Ergebnis finden.

Die Diskussion können wir uns sparen, es fließt alles nicht ins Gesamtrating ein. Lest mal bitte erst genau bevor ihr die Hunde scharf macht.
 
Zuletzt bearbeitet:
Synthetische Benchmarks gehen garnicht in die Wertung ein bzw es gibt ja eh nur Gesamtratings für Spiele und Multimedia/noch irgendwas.

Verstehe aber nicht warum das dann überhaupt gestestet wird
 
Weils für einige interessant ist? Was interessiert mich das Ranking, wenn mir (ich nenne mal irgendeine Zahl) 7 von 10 Benchmarks am A**** vorbei gehen? Genau, nichts.
 
@All
Danke, daß ihr so gut mitgearbeitet habt und den Thread nicht mit Offtopic überschwemmt habt, daher haben wir beschlossen, den Thread in seine alte Form zu überführen.

Weiterhin gelten unsere Auflagen, die ihr bislang annehmbar umgesetzt habt:


  • [*]Bleibt beim Thema
    [*]Diskutiert anhand von Beispielen
    [*]Bleibt sachlich

Das Nichtbeachten dieser einfachen Regeln führt zur entgültigen Schließung dieses und jedem zukünftigen Thema, daß in diese Richtung geht.

Kontrolliert euch und eure Diskussionspartner!
Es liegt an euch.


Danke und weiterhin angenehmes Diskutieren!
 
Wir Mods behalten uns vor, einzelne User für diesen Thread zu sperren, wenn diese Auslöser von Spam/Offtopic usw. sind.
 
Profitiert AMD etwa nicht von Software, die mit mehr als 2 Kernen skaliert?
Worauf bezieht sich das? Ich sehe da gerade keinen Zusammenhang zu meiner Aussage.

Weis ich nicht ob du was dazu sagen musst, aber ich sage dir, schau mal auf das Satzzeichen...
Ausreden funktionieren vielleicht bei anderen, aber nicht bei mir. Das solltest du mittlerweile mitbekommen haben. Wenn du die Frage beantwortest, ist sie rhetorisch. Ob da nun ein Fragezeichen steht oder nicht, spielt dann im Endeffekt keine Rolle mehr. Vielleicht solltest du einfach mal zugeben, dass deine Anschuldigung etwas voreilig und falsch war. So viel Einsichtigkeit entspannt die meisten Situation erheblich. ;)

Ja und?
Die Ergebnisse geben den Durchschnittswert über die getesteten Anwendungen wieder! Nicht mehr und nicht weniger... Wer diesen Wert auf alle Anwendungsfälle breit zieht, hat eindeutlich was nicht richtig verstanden...
Du hast überhaupt nicht verstanden, was ich geschriben habe. Lies es dir lieber nochmal in Ruhe durch. Es ging jedenfalls nicht um eine Diskussion über Durchschnittswerte. Du bist damit leicht offtopic. Durchschnittswerte sind weder für AMD noch Intel benachteiligend.

Man rückt damit auch keinen ins bessere Licht, wenn die CPU in den getesteten Anwendungen schneller ist, dann ist das eben so, warum und wieso das so ist, spielt dabei überhaupt keine Rolle.
Doch, genau das tut es, wenn Vorsatz oder Inkompetenz dahinter steckt.


@redfirediablo
Danke für die weiteren Informationen. Es ging mir aber gar nicht um das Gesamtrating, sondern nur um die Einzeltests. ComputerBase schreibt dazu folgendes:
Seit einigen Jahren gehört SuperPi zu Tests wie das Amen in der Kirche. Leider ist der Test aufgrund seines hohen Alters für aktuelle Prozessoren nur sehr bedingt aussagekräftig, weshalb er bei uns in Zukunft nur noch mit zur Schau gestellt wird, aber nicht in die Bewertung mit einfließt. Als Alternative bieten wir wPrime und MaxxPi² an. MaxxPi² ist etwas neuer und genauer, liegt aber noch sehr nah om originalen Super Pi
Toll, man hat nun einen Test genommen, der im Grunde genau so unsinnige Ergebnisse liefert wie Super Pi. Aktion Sinnlos oder wie darf man das interpretieren?
 
Solche Tests können durchaus interessante Aspekte haben (z.B. auch innerhalb gleicher Architekturen), grundsätzlich gibt es auch gar nix dagegen einzuwenden, neben den Benches für das Gesamtrating auch noch andere Anwendungen zu messen. Welche den geneigten Leser davon dann interessieren, sei jedem selbst überlassen. Dich interessiert z.B. SuperPi nicht? Überlies es. Ich werfe gerne mal einen Seitenblick darauf. :)
 
Auch hier, die Anwendungen welche getestet wurden spiegeln doch nur die Leistung der CPU in dieser Anwendung wieder...
Es ist schlicht und einfach nicht möglich einen Durchschnittswert über alle verfügbaren Anwendungen zu legen, das geht nicht.
Heist soviel wie, wenn man sowas fabriziert wird es immer einen Bevorzugten/Benachteiligten geben...
Es geht doch gar nicht um die getesteten Anwendungen, sondern um den Wechsel des Testparcours. Scheinbar hast du dich hier mal wieder in eine Diskussion reingehangen, die du gar nicht richtig nachvollziehen kannst.
 
Solche Tests können durchaus interessante Aspekte haben (z.B. auch innerhalb gleicher Architekturen), grundsätzlich gibt es auch gar nix dagegen einzuwenden, neben den Benches für das Gesamtrating auch noch andere Anwendungen zu messen.
"Interessante Aspekte zu haben" ist trotzdem keine Legitimierung für Sinnlosigkeit. Was ist denn interessanter an den MaxxPi Scores im Vergleich zu SuperPi? Exakt nichts. Wenn MaxxPi relevant oder gar repräsentativ wäre, könnte man es ja verstehen. Aber nichts von beidem ist der Fall. Stattdessen werden wirklich interessante Anwendungen, wie zB Lame, sicherlich einem der bekanntesten MP3 En-/Decoder, aus dem Testparcours gestrichen. Wenn man schon Anwendungen ausserhalb des Gesamtrating testet, dann doch bitte so etwas. Sinnfreie Lückenfüller helfen jedenfalls keinem weiter.
 
Itunes als Software des größten Musikportals überhaupt interessiert nicht? :confused: Das dürfte eine weitaus größere Marktbedeutung haben als Lame. Dennoch verstehe ich deinen Wunsch nach bestimmten Anwendungen, es wird wohl kaum einen Leser geben, der zu 100% genau nur die Benchmarks findet, die ihn interessieren. Auch ich hätte gerne weitere Benches z.B. im Spiele-Bereich, dort erfüllen in meinen Augen alle 1280x1024 Messung den Punkt der Sinnlosigkeit - da GPU-limitiert. Streichen und durch 640x480 max. Details ersetzen, um auch mit der 9800GTX zumindest irgendwie Aussagen über die Leistung der CPU treffen zu können.
An zusätzlichen Benches, nocheinmal, kann man aber nichts kritisieren. Überlies, was dich nicht interessiert. Wo liegt da das Problem? Gerade etwas wie MaxxPi oder SuperPi kostet die Reviewer effektiv keine 30s pro CPU, dafür werden kaum andere Benches gestrichen worden sein.
 
Zuletzt bearbeitet:
Itunes als Software des größten Musikportals überhaupt interessiert nicht?
Wo habe ich etwas derartiges geschrieben? Sprachen wir nicht von Tests ausserhalb des Gesamtrating? Was hindert dich also Lame neben iTunes zu testen? Oder mit anderen Worten, Super Pi, iTunes und Lame im Testparcours ist mit Sicherheit hilfreicher als Super Pi, MaxxPi und iTunes. Was dann ins Gesamtrating kommt, ist wieder eine andere Geschichte.
 
Ich denke nicht daneben zu liegen wenn ich behaupte, SuperPi, MaxxPi und WPrime zusammen machen weniger Benchaufwand als Itunes oder Lame allein. Das wird also eine Zeitfrage sein.
 
Ich denke nicht daneben zu liegen wenn ich behaupte, SuperPi, MaxxPi und WPrime zusammen machen weniger Benchaufwand als Itunes oder Lame allein. Das wird also eine Zeitfrage sein.

man sollte doch aber benchen was sinnvoll ist und nicht wo der aufwand am geringsten ist.
wenn man es so sieht, sollte man das besser gleich lassen...
 
Ach die haben iTunes für Lame ersetzt ? Na Prost Mahlzeit, das Ding ist ja sowas von Intel optimiert ... eins der "schlimmsten" Programme die ich kenne.

Allerdings hat es natürlich durchaus eine sehr große Verbreitung. CB kann man da nur bedingt einen Vorwurf machen. Da müßte wohl AMD mal an Apple herantreten und Codeoptimierungen vorschlagen, würde sich in dem Spezialfall sicher rentieren.

ciao

Alex
 
man sollte doch aber benchen was sinnvoll ist und nicht wo der aufwand am geringsten ist.
wenn man es so sieht, sollte man das besser gleich lassen...

Speziell SuperPi, in gewissem Maße wohl auch WPrime, hat aber nach wie vor eine große Anzahl von Interessenten, man betrachte nur die riesigen Benchthreads in jedem Technikforum. ;) Dennoch verstehe ich den Einwand in gewissem Maße, da ich in Bezug auf die Spieletests CB ähnliche Vorwürfe machen muss - siehe oben.
 
Ausreden funktionieren vielleicht bei anderen, aber nicht bei mir. Das solltest du mittlerweile mitbekommen haben. Wenn du die Frage beantwortest, ist sie rhetorisch. Ob da nun ein Fragezeichen steht oder nicht, spielt dann im Endeffekt keine Rolle mehr. Vielleicht solltest du einfach mal zugeben, dass deine Anschuldigung etwas voreilig und falsch war. So viel Einsichtigkeit entspannt die meisten Situation erheblich. ;)
Was willst du mit Ausreden?
Ich habe dir eine Frage gestellt und hätte einfach eine Antwort erwartet, ohne jegliche Anschuldigung oder ohne jegliche Unterstellung... Wenn du da eine Unterstellung reininterpretierst, dann bitte, aber schiebe das nicht auf mich...

Du hast überhaupt nicht verstanden, was ich geschriben habe. Lies es dir lieber nochmal in Ruhe durch. Es ging jedenfalls nicht um eine Diskussion über Durchschnittswerte. Du bist damit leicht offtopic. Durchschnittswerte sind weder für AMD noch Intel benachteiligend.
Na das sag ich doch, und der gezeigte Wert mit neuem Testparcourse entspricht auch nur einen Durchschnittswert über diese Anwendungen... ergo keine Benachteiligung, also hat diese Diskusion hier nix verloren...

Doch, genau das tut es, wenn Vorsatz oder Inkompetenz dahinter steckt.
Das ist deine Ansicht als wohl voreingenommener User... Kein Mensch interessiert ob die ihre Testsoftware ändern oder nicht, solange alle Systeme neu getestet werden.
Selbst wenn mit Absicht die Testsoftware geändert wurde und meinetwegen nur Intel Optimierte Software zum Einsatz kam spielt das keine Rolle. Nochmal, die Software steht so im Laden, jeder kann sie kaufen oder downloaden sofern Freeware... Warum darf man in einem Review dem unwissenden User nicht zeigen, das diese Software auf Intel besser läuft?
Wo ist da ein Problem? Man rückt da keinen ins bessere Licht, sondern zeigt nur das die CPU in dieser Software schneller als die Konkurenz ist.

Wie schon angesprochen, diese Durchschnittswerte lassen sich nicht auf die breite Masse übertragen... Wenn man diesen Punkt einsieht, dann sieht man hier auch keine Benachteiligung.

Ich sage im übrigen nicht, das es in anderen Bereichen nich gänzlich anders aussehen kann...

Es geht doch gar nicht um die getesteten Anwendungen, sondern um den Wechsel des Testparcours. Scheinbar hast du dich hier mal wieder in eine Diskussion reingehangen, die du gar nicht richtig nachvollziehen kannst.

Dann erklär mir doch mal bitte was der Unterschied zwischen "die getestete Software zu wechseln" und "den Testparcours wechseln" ist!?

Mir gehts nicht um die Software ansich, sondern darum, das hier behauptet wird, der Parcours wurde nur gewechselt um Intel besser da stehen zu lassen...
Und das stimmt defintiv nicht, weil eben genau diese Ergebnisse in diesen Anwendungen auftreten, wenn AMD da langsamer ist (aus welchen Gründen auch immer) das ist das keine Benachteiligung AMDs, sondern zeigt nur genau das sie eben langsamer sind bei dieser Software...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh