Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
@Opteron
Es ging mir eigentlich darum, dass der LGA1366 genauso Server-Sockel ist wie der LGA1567 (nur das der eine 2 CPU und der andere 4 CPUs fassen kann) und Undertaker 1 hier offensichlich von lediglich Workstations in Bezug auf LGA1366 redet um des WIEDERSPRECHENS WILLEN. Oder sind die DP-Opterons 2xxx nun plötzlich auch nur noch mehr Workstation CPUs?

...oh man, jetzt lass ich mich auf diese Sinnfrei-Diskussion auch noch ein.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
*Lach* achso, Danke :)
Naja das ist egal ... je mehr Kerne / Threads in 1 Sockel konzentriert werden, desto mehr verschwimmt die Workstation - Server Grenze.

Danke fürs Erklären :)

Nachdem das jetzt geklärt ist @all:
Btt please :)

Ciao

Alex
 
Zuletzt bearbeitet:
je mehr Kerne / Threads in 1 Sockel konzentriert werden, desto mehr verschwimmt die Workstation - Server Grenze.

Das sehe ich ganz genau so :)
Und deshalb ging mir dieses Ausblenden und Zerreden von solchen Tatsachen bissl auf den Senkel. Das gibst und gabs schon viel zu oft hier...
 
GTX260(Quad) vs HD4870(Phenom), das ist doch relativ ausgeglichen und sollte nicht für die beschriebenen Unterschiede verantwortlich sein...

Na, dass die beiden Grafikkarte insgesamt ungefähr gleich schnell sind, heißt ja nicht, dass die Grafikkarten in jeder Anwendung ziemlich gleich schnell sind ;-). Somit ist ein Vergleich der beiden Systeme eigentlich nichts Wert und überhaupt: Bei der Hälfte aller Alternate-Bewertungen handelt es sich doch sowieso nur um Fakes und Fanboytratsch...
 
Na, dass die beiden Grafikkarte insgesamt ungefähr gleich schnell sind, heißt ja nicht, dass die Grafikkarten in jeder Anwendung ziemlich gleich schnell sind ;-). Somit ist ein Vergleich der beiden Systeme eigentlich nichts Wert
Wie auch schon von whippersnapper gesagt, wenn es bei vielen Einheiten auftritt, scheint trotzdem eher die CPU zu limitieren.

und überhaupt: Bei der Hälfte aller Alternate-Bewertungen handelt es sich doch sowieso nur um Fakes und Fanboytratsch...
Das ist ein ganz anderes Thema. Obs nun eine ernst zu nehmende Usererfahrung oder irgendein Fanboygeschwafel ist, kann man so nicht sagen. Und ich würde mich hüten da zu pauschalisieren.
 
In die der zeitigen Tests kann man fast alles rein interpretieren, da es keine einheitlichen Bedingungen gibt. Jeder testet nach seinem subjektiven empfinden...
Ich wünsche mir eine einheitliche Struktur, welcher alle Seiten unterliegen.
...ähnlich Autotests (NCAP), wo bestimmte Einstellungen vor gegeben sind.
Sicher werden sich dann auch die Hersteller einstellen, um bessere Ergebnisse zu erzielen.
Dazu sollten praxisnahe Applikationen aus gesucht werden, um auch von evtl. Optimierungen zu profitieren.
 
Nun, eigentlich ist es ja nicht schlecht verschiedene Testumgebungen zu sehen, auch wenn momentan realitätsferne Tests mit abartigen Multi-GPU Systemen überwiegen, die für die reale Nutzung bzw. 99% der Leser keinerlei Relevanz haben.

Da sucht sich halt jeder das passende raus.

Das einzigste Problem momentan ist die schlechte Vergleichbarkeit der Tests untereinander. Man weiß nicht ob die Werte so stimmen oder die betreffende Redaktion irgendwo einen Fehler gemacht hat.

Eins merkt man aber sofort: die Testumgebungen und Tests (Far Cry 2, World In Conflict, Crysis Warhead mit Multithreading) werden ziemlich schnell von den meisten Redaktionen so angepasst, das der Nehalem bestmöglich dasteht und der maximal mögliche Leistungsvorteil gezeigt wird, auch wenn die Tests an sich nicht Praxis relevant bezogen auf die Leser sind.

Ein Test wie z.B. "the Witcher", bei dem der Phenom ganz schlecht aussieht, auch im Vergleich zum Brisbane, wird weggelassen. Da wäre ich mal echt gespannt gewesen wie der Nehalem abschneidet.
 
Zuletzt bearbeitet:
Bestmöglich dasteht? Oder dort eben einfach so stark ist? Das die Architektur im Multithreadbereich einen Sprung ähnlich wie damals von Netburst zur Core im Singlethreadbereich bringt, war doch schon Wochen vor dem Launch mehr oder weniger bekannt.

Übrigens können wir hier demnächst einen weiteren Streitpunkt der Vergangenheit begraben:

"Noch einmal gilt ein herzlicher Dank Matthias Withopf, welcher uns durch die Anpassung und Optimierung von Core2MaxPerf behilflich war, den Core i7 entsprechend hoch auslasten zu können, aber auch dafür, dass uns nun eine Version des Tools zur Verfügung steht, mit welcher wir ähnlich hohe Auslastungen auf AMD erzielen können. Wir werden also hier zu gegebener Zeit noch einmal einen Vergleichstest mit den AMD-Prozessoren liefern."

Das verspricht endlich faire Verbrauchstests eines hoffentlich bald erscheinenden Vergleiches aller 3 aktuellen 45nm Plattformen (775/1366/AM2+) bei HT4U, ein Test von dem ich mir viel verspreche :)
 
Zuletzt bearbeitet:
Ist aber schon Interessant das erst jetzt da der Nehalem da ist die Programme angepasst werden. Den Phenom gibts ja schon ne weile da lags natürlich an der fehlenden Peformance. In den meisten Nehalem Reviews kommt schon der Verdacht auf das da im Gamebereich alles versucht wird ihn gut zu benchen. Nur der CB Test zeigt das er eher alt aussieht in den aktuellen Games.
 
Zuletzt bearbeitet:
Bezogen auf die Beispielgames von diablo kann ich das nicht nachvollziehen - WiC war auch in bisherigen Tests vertreten (ohne das der Phenom dort überragend gewesen wäre), FC2 und Warhead sind erst kürzlich erschienen.
 
@Undertaker 1
Was willst du denn jetzt? ...jemanden zu einer Aussage verführen, welche so nicht stimmt?

Falls es dir entgangen sein sollte, lies die Erste Seite.
Niemand hat gesagt, dass der Phenom überragend ist/sein soll.
Er wird nur schlechter dar gestellt, als er in Wirklichkeit ist.
 
@Undertaker 1
Was willst du denn jetzt? ...jemanden zu einer Aussage verführen, welche so nicht stimmt?

Falls es dir entgangen sein sollte, lies die Erste Seite.
Niemand hat gesagt, dass der Phenom überragend ist/sein soll.
Er wird nur schlechter dar gestellt, als er in Wirklichkeit ist.

dein wort in gottes ohr ^^
 
@Undertaker 1
Was willst du denn jetzt? ...jemanden zu einer Aussage verführen, welche so nicht stimmt?

Falls es dir entgangen sein sollte, lies die Erste Seite.
Niemand hat gesagt, dass der Phenom überragend ist/sein soll.
Er wird nur schlechter dar gestellt, als er in Wirklichkeit ist.

Irgendwie hab ich manchmal den Eindruck, ich will falsch verstanden werden ;) Es ging rein darum, dass diablos Post stark danach klang, dass z.B. die Aufnahme von WiC in den Parcour vieler Tests den Nehalem bevorzugen soll - was Unfug ist, da dieser Benchmark auch bereits in vorherigen Tests und zwar auch mit AMD-CPUs zum Einsatz kam.
 
Der Undertaker 1 geht mir auf die Nerven, mit seinen Diskusionen.

Ich kann mich noch gut an die Anfangszeit erinnern...
Phenom-User wollten mal andere Benches, als nur in 800x600.
Was haben da die Intelverfechter gesagt?
Games sind GPU-Limitiert und nur in geringen Auflösungen kann man die CPU-Leistung verdeutlichen. Jetzt gibt es aber den Nehalem... was wurde da zu letzt im Thread diskutiert?
Ach ja... 3x SLi in Auflösungen jenseits der 1680...
Nun kann man auf einmal die CPU-Power auch mit Gamebenches außerhalb der 800x600 sehen? Entschuldige, aber du redest dich um Kopf und Kragen, wenn ich da an frühere Beiträge von dir denke.

Also hatte damals CB im Phenom-Test alles richtig gemacht, und jetzt mit dem Nehalem stimmt da plötzlich was nicht.
 
Der Undertaker 1 geht mir auf die Nerven, mit seinen Diskusionen.

Ich kann mich noch gut an die Anfangszeit erinnern...
Phenom-User wollten mal andere Benches, als nur in 800x600.
Was haben da die Intelverfechter gesagt?
Games sind GPU-Limitiert und nur in geringen Auflösungen kann man die CPU-Leistung verdeutlichen. Jetzt gibt es aber den Nehalem... was wurde da zu letzt im Thread diskutiert?
Ach ja... 3x SLi in Auflösungen jenseits der 1680...
Nun kann man auf einmal die CPU-Power auch mit Gamebenches außerhalb der 800x600 sehen? Entschuldige, aber du redest dich um Kopf und Kragen, wenn ich da an frühere Beiträge von dir denke.

Also hatte damals CB im Phenom-Test alles richtig gemacht, und jetzt mit dem Nehalem stimmt da plötzlich was nicht.

Und wieder wird mir das Wort im Munde herumgedreht - ich denke wirklich, soetwas muss hier nicht sein. Nocheinmal:

Was ich fordere, sind CPU-limitierte Benchmarks. Ob das nun über enorme Grafikpower (SLI), niedrige Auflösungen oder höhere CPU-Last (besonders fordernde Savegames) erreicht wird, ist dabei völlig egal.
Eine Abkehr davon benachteiligt nuneinmal zwangsläufig die schnellste getestete CPU, und das ist seit Sommer 2006 kein AMD-Produkt mehr - das wird doch wohl jeder hier unabhängig der Herstellerpräferenz eingestehen können? Für Deneb fordere ich im übrigen exakt das Gleiche, wird auch der unter GPU-Limits getestet, findet eine Benachteiligung gegenüber langsameren/eine Bevorzugung gegenüber schnelleren CPUs statt.
 
Zuletzt bearbeitet:
Und wieder wird mir das Wort im Munde herumgedreht - ich denke wirklich, soetwas muss hier nicht sein.
Nein! ...ich kann mich ja mal auf die Suche machen.
Ich will dir auch nichts unterstellen, nur um Verständnis bitten.
Versteh ich was nicht, frage ich, bevor eine evtl. nicht passende Antwort gegeben wird. Das versteht sicher ein Anderer nicht und gibt die nächste... dann haben wir 10 Seiten Spam.

Irgendwie hab ich manchmal den Eindruck, ich will falsch verstanden werden ;)
Da es vielen so mit dir geht, würde mir das zu denken geben.
Es ging rein darum, dass diablos Post stark danach klang, dass z.B. die Aufnahme von WiC in den Parcour vieler Tests den Nehalem bevorzugen soll - was Unfug ist, da dieser Benchmark auch bereits in vorherigen Tests und zwar auch mit AMD-CPUs zum Einsatz kam.
Dann Antworte doch nicht einfach, sondern frag nach, wie es genau gemeint ist.
Ich versteh dich auch nicht, sorry.... aber du verleitest einige (auch bei mir hast es schon geschafft) zu übertriebenen Aussagen. Du solltest ruhiger werden. Mir und jedem anderen ist klar, dass der Nehalem die zur Zeit stärkste CPU ist.
 
Und das ist nicht einmal das, worum es mir hier geht - das ist vielmehr der 2. Absatz meines letzten Postings:

Was ich fordere, sind CPU-limitierte Benchmarks. Ob das nun über enorme Grafikpower (SLI), niedrige Auflösungen oder höhere CPU-Last (besonders fordernde Savegames) erreicht wird, ist dabei völlig egal.
Eine Abkehr davon benachteiligt nuneinmal zwangsläufig die schnellste getestete CPU, und das ist seit Sommer 2006 kein AMD-Produkt mehr - das wird doch wohl jeder hier unabhängig der Herstellerpräferenz eingestehen können? Für Deneb fordere ich im übrigen exakt das Gleiche, wird auch der unter GPU-Limits getestet, findet eine Benachteiligung gegenüber langsameren/eine Bevorzugung gegenüber schnelleren CPUs statt.

Evntl. können wir jegliches persönliches Geplänkel, das auch wieder deinen letzten Beitrag ziert, damit jetzt nun endlich mal beenden und beziehen weitere Diskussionen darauf :)
 
Immer diese Liebhaber einer Marke....
Denkt doch mal Logisch!
Intel wird nicht von den Testern bevorzugt.
Das liegt ganz einfach daran das die meisten Spiele, Benchmarks u. Programme mehr richtung Intel optimiert werden.
Was denkt ihr warum MS so lang für 64Bit gebraucht hat?
Ganz einfach Firmen orientieren sich am Markt! Und wenn man unter Zeitdruck ist so wie die meisten Entwickler kann man erst mal nur in eine Richtung optimieren, später werden dann Patches nachgeschoben, oder neuere Versionen....
Wer ist nochmal Marktführer? Was denkt ihr in welche Richtung erstmal optimiert wird?
Na, leuchtet das jetzt ein?
 
Verwunderlich ists halt das beim Phenom immer alles als Katastrophe dargestellt wird ob das der TLB Bug war den niemand jemals bemerkt hat im Desktopbereich.
Der hohe Stromverbrauch und die hohen CPU Temps. Der Nehalem wird bei OC schnell mal 100 Grad warm.
http://www.computerbase.de/forum/showpost.php?p=5051897&postcount=417
Wenn das beim Phenom der Fall gewesen wäre auweia.
 
Zuletzt bearbeitet:
1,35V sind für 45nm 24/7 auch immernoch Werte jenseits von gut und böse... Das ist für mich schon in 65nm die Obergrenze ;) Undervolten geht ja bereits ausgesprochen gut, warten wir mal auf die ersten OC-Listen wie sich die Serienware dann schlägt.
 
Devil Ag
Das stimmt so nicht. Es gibt nur wenige Apps, die wirklich auf irgendwas optimiert sind (so wie Cinebench). Intel wird auch nicht bevorzugt, vielmehr sind viele Tester Intel in gewisser Weise hörig und weniger kritisch. Das hat schon was mit Marktmacht zu tun.

Warum der Phenom so schlecht weggekommen ist hatte vor allem 3 Gründe:
1.) TLB-Bug
2.) unheimlich schlechte Effizienzgrade der beim Test verfügbaren Mobos
3.) C&Q-Problematik.

Der Nehalem hat solche Probleme nicht, da
1.) bisher kein garvierender Bug bekannt geworden ist
2.) die Bretter aufgrund des sehr hohen aber auch teuren 1366-Qualitätsstandards effizient sind (1366 ist schließlich ein Server/WS-Sockel)
3.) Nehalem hat keine Performancehits durch seine Stromspartechniken

Das sind die wirklichen Problematiken des Phenom. Erstere sind aber kein Problem mehr, TLB-Bug ist gefixt und die Boards sind mittlerweile recht effizient. Nur die C&Q-Problematik besteht eben immernoch, das ist auch mehr ein Zusammenspiel zwischen Windows und dieser Technik, also kein wirklicher Fehler. Wenn man darauf eingehen würde in Reviews, wäre ich ja glücklich, dann könnte man absolut nicht meckern. Aber das ist nunmal leider nicht so.
AMD ist zum grossen Teil selbst Schuld an der schlechten Bewertung:

- Man hätte gleich das Referenzboard zum Testen mitgeben können.
- Das C&Q-Problem war bei AMD sicher schon vorher bekannt. Man hätte C&Q2 ignorieren können, und die Funktionsweise auf C&Q1 zurückfahren können.
- Man hätte den TLB-Fix nicht zum Standard machen müssen, und den TLB-Fix-Zwang nur im professionellen Bereich durchsetzen müssen.

Das ändert aber nichts daran, dass von den Reviewern kaum Korrekturen kamen und die Qualität der Reviews z.T. einfach grottenschlecht ist.
 
Zuletzt bearbeitet:
Verwunderlich ists halt das beim Phenom immer alles als Katastrophe dargestellt wird ob das der TLB Bug war den niemand jemals bemerkt hat im Desktopbereich.
Der hohe Stromverbrauch und die hohen CPU Temps. Der Nehalem wird bei OC schnell mal 100 Grad warm.
http://www.computerbase.de/forum/showpost.php?p=5051897&postcount=417
Wenn das beim Phenom der Fall gewesen wäre auweia.

Hast schon recht. Nur liegt das zum großen Teil an den Usern diverser Foren und zu kleinen Kühlern.
User deshalb weil sich jeder schon beschwert wenn seine CPU mal über 40Grad hat...
Kühler? Mit was haben die getestet? Mit dem mitgelieferten? Dann wundert mich nichts...
 
Devil Ag
Das stimmt so nicht. Es gibt nur wenige Apps, die wirklich auf irgendwas optimiert sind (so wie Cinebench). Intel wird auch nicht bevorzugt, vielmehr sind viele Tester Intel in gewisser Weise hörig und weniger kritisch. Das hat schon was mit Marktmacht zu tun.

sehr viele Programme werden mit Intel Compilern geschrieben... Auf was die Optimiert sind darfst du dir dann ja ausrechnen...
 
sehr viele Programme werden mit Intel Compilern geschrieben... Auf was die Optimiert sind darfst du dir dann ja ausrechnen...

Welche denn? Dazu gehört schonmal kein einziges Spiel... Sicher, bei DivX und solchen Sachen kam mit Sicherheit der ICC zum Einsatz. Aber sonst wirds da schon eng. Bei anderen SSE4-fähigen Apps könnte z.B. auch ein PGI-Compiler zum Einsatz kommen. Der ICC ist ja nicht für den Einsatz als Standardcompiler gedacht. Die einzige mir wirklich bekannte Firma, die auf ICC setzt, ist Maxon, vielleicht auch z.T. Adobe, die waren auch immer sehr Intel-treu. Ansonsten kommt der ICC aufgrund seiner Einschränkungen vor allem bei synthetischen Benchmarks und einigen Codierern zum Einsatz.
Heutige Apps sind zu 99% mit dem Standardcompiler von VS2005 kompiliert (vor allem Spiele), der Umstieg zu VS2008 steht jetzt an (unterstützt SSE4, SSE4a und AMB), will heißen, die ersten Apps, die damit geschrieben wurden, erreichen den Markt.
 
Zuletzt bearbeitet:
Hast schon recht. Nur liegt das zum großen Teil an den Usern diverser Foren und zu kleinen Kühlern.
User deshalb weil sich jeder schon beschwert wenn seine CPU mal über 40Grad hat...
Kühler? Mit was haben die getestet? Mit dem mitgelieferten? Dann wundert mich nichts...
CB hat den 120-mm-Noctua NF-12P Premium Lüfter benutzt da erreichte der Nehalem auch ohne OC schon über 70 Grad. http://www.computerbase.de/artikel/...40_965_extreme_edition/6/#abschnitt__kuehlers
Und das ist wohl der beste Lufkühler zur Zeit. Sagt wohl alles.
Heizplatte ist noch gelinde ausgedrückt.
 
Glaubst Du wirklich das 100 Grad für ne CPU gesund sein können.
Ganz zu schweigen von der Effektivität die ja bei steigenden Temps unter aller Kanone ist.
Nicht mal mit Wasserkühlung ist bei solchen Kerntemps viel auzurichten.
Ich würd jedenfalls keine CPU hochtackten die bei Default Clock mit nem Super Luftkühler schon
über 70 Grad bei Load hat.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh