Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte Anfang lesen [2|1]

Status
Für weitere Antworten geschlossen.
Ein einziger Test von THW - sonst nirgends. In GRID etwa herrscht ein i7 alles weg - mit einer GTX200.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du hast es nicht verstanden. Ohne GPU-Bremse zieht der i7 weiter davon - siehe die 800x600-Tests.Treiber beachten ... SO sieht es mit einer GTX285 aus.

nicht verstanden? oder warum sieht der i7 gegen den PII in COD in deinem link den kurzen und das ohne "bremse"

zudem 800x600 interessiert aber kein schwanz mehr

zu grid: WOW DAS ist wirklich der böller:
5% mehr an min-frames, bei 1680 sinds dann 2.5 :haha:

zudem noch mit mehrtakt (per default und turbo), tripple-interface, +4 logischen cpus und vermutlich 500% mehrkosten fürs paket
 
Zuletzt bearbeitet:
Warum meckert eigentlich keiner, wenn Intel benachteiligt wird? CB bencht mit einer 98GTX+, die bremst den Core-i7 massiv. Gemein - oder etwa nicht? :coolblue:

Selbst wenn die Grafikkarte bremst, bedeutet das nicht, das dies ein Grund für das miserable Abschneiden eines Core i7 ist.
Außerdem ist das auch nicht das Thema.
Der i7 performt in seinen Spezialdisziplinen (WiC und dgl.), welche eben "besonders" optimiert wurden. Das wurde aber schon zigfach durchgekaut.
Fakt ist, das man mit einem Q9XXX besser dran ist, wenn man sich nur fürs Spielen interessiert. Ich drifte langsam vom Thema ab....
Und hör auf mit deiner Mär von 800x600. :rolleyes:
Sowas nenne ich Erbsenzählerei, die immer wieder hervorgeholt wird, wenn ein gewisser Prozessor nicht so "toll" ist.
 
Du kennst die 3-Way-SLI samt i7-Tests von CB und PCGH? Da rennt ein i7 einem gleich flotten C2Q 12M um 20-30% davon ... das Ding ist einfach zu fett für aktuelle Single-GPU-Karten.
 
Du kennst die 3-Way-SLI samt i7-Tests von CB und PCGH? Da rennt ein i7 einem gleich flotten C2Q 12M um 20-30% davon ... das Ding ist einfach zu fett für aktuelle Single-GPU-Karten.

Dann schau dir mal die Bandbreite eines i7 an und vermerke es.
Da kommt so gut wie garnichts dran.

Effizient nenne ich das jedenfalls nicht. :fresse:
Jedenfalls wenn es darum geht, unter realen Bedingungen Spiele-Leistung zu bringen.

Und um Himmels Willen, ich verneine nicht, das der i7 bis dato unangefochten auf Platz 1 steht, jedenfalls insgesamt betrachtet.
 
Zuletzt bearbeitet:
Oh mann, Jen-Hsun Huang macht sich ziemlich lächerlich. AMDs Grafiksparte als "Bummler" zu bezeichnen? Nun ja, wenn es ansonsten ziemlich mau aussieht, muss man sich die Welt halt schönreden. :rolleyes: Wer hat nochmal zuerst auf 55 nm umgestellt? Wer hat DX10.1 implementiert? Wer hatte die ersten effektiven Stromsparmechanismen? Etc, etc. Seit AMD ATI übernommen hat, geht es dort permanent aufwärts. Angefangen bei Chipsätzen über Open Source Treiber bis hin zu den GPUs selbst (RV670 ...). nVidia hingegen stagniert oder entwickelt sich gar zurück. Etliche male G80/G92 umbenannt, einen weltfremden Monster Chip (GT200) gebastelt, mit dem man nicht mal 5% des Marktes bedienen kann, fehlerhafte Produkte auf den Markt geworfen, was mit Reparaturzahlungen in dreistelliger Millionenhöhe korrigiert werden müsste, viel Vertauen bei Partnern verloren, usw.
AMD und Intel haben aus den Fehlern der Vergangenheit gelernt (Barcelona, P4). nVidia scheint diese Einsicht zu fehlen. Das ist keine gute Basis für die Zukunft. Und schwierig genug wird diese sowieso schon.


Du hast es nicht verstanden. Ohne GPU-Bremse zieht der i7 weiter davon - siehe die 800x600-Tests.
Wen interessieren solche Auflösungen? :rolleyes: Das ganze Thema ist etwas komplexer, als du dir das in deiner naiven Denkweise womöglich vorstellst. Um mal auf eine schöne Formulierung aus einem anderen Forum zu verweisen:
Let me give you a first-semester lesson on computer performance. The numbers are figurative, but the concept is accurate--
  • At low resolution, computation load of games are 20% GPU, 10% CPU-IO, and 70% CPU-core. Thus a computer with faster CPU cores will see much higher performance improvement.
  • At high resolution, computation load of games become 70% GPU, 20% CPU-IO, and 10% CPU-core. Thus even if a computer has less power CPU cores, if it has a superior graphics and CPU I/O, it will still run faster.
It is not as simple as "low-res is CPU bound, high-res is GPU bound," because when you change resolutions, the "bound" line also changes.
GPU Limitierung mag eine schöne Ausrede sein, ist in der Praxis aber nur die halbe Wahrheit. Aber ich will jetzt nicht weiter darauf rumreiten. Das wurde hier schon vor längerer Zeit alles durchgekaut.
 
Zuletzt bearbeitet:
Warum meckert eigentlich keiner, wenn Intel benachteiligt wird? CB bencht mit einer 98GTX+, die bremst den Core-i7 massiv. Gemein - oder etwa nicht? :coolblue:
Vielleicht weil in diesem Thread die "Benachteiligung" AMDs das Thema ist? Kann man ganz einfach am Threadtitel ablesen...oder willst du etwa nur provozieren? :hmm:
 
Es geht geht bei der Kritik von Huan, um AMDs CPU-Sparte und nicht um die Grafikkerne. Ansonsten würde der Bezug zu Intel fehlen.
 
Nein, es geht explizit um die Grafiksparte.
Mr. Huang often describes Intel in flamboyant language as a lying, cheating rival that abuses its dominant position in the chip business. He criticizes A.M.D. as as a graphics laggard.
 
SO sieht es mit einer GTX285 aus.

Soll der Link jetzt für oder gegen den i7 sprechen?

Crysis (contra i7) -> 3,0G C2Q & 3,2G PhII = doppelte(!) Min-Frames vom 3,33G i7, avg. 3-4 FPS mehr juckt niemand

CoD4 (contra i7) -> 3,0G C2Q & 3,2G PhII = ca. 25-30% schneller als 3,33G i7

WiC (??) -> extra optimiertes Zugpferd für den i7

RD:G (pro i7) -> 3,33G i7 = ca. 5-15% schneller als 3,0G C2Q & 3,2G PhII

Also wenn man mich fragt ist das ne schwache Vorstellung für nen i7 mit 3,33GHz (+Turbo?).
 
Den i7 gabs bei der Entwicklung von WiC noch nicht ...
 
Ich optimiere ein Spiel, welches Ende 2007 erscheint, auf eine CPU-Architektur, welche ein Jahr später auf den Markt kommt? Klingt für mich nach Geldverschwendung und Bullshit.
 
Intel hat mit den WIC-Entwickler eng zusammengearbeitet, das steht fest. Wie die Optimierung nun genau zustandekamen ist irrelevant, durch den ICC hat Intel alle wichtigen Fäden in der Hand.

Übrigens nur nebenbei, bei Crysis kam auch der ICC zum Einsatz.
 
Ich optimiere ein Spiel, welches Ende 2007 erscheint, auf eine CPU-Architektur, welche ein Jahr später auf den Markt kommt? Klingt für mich nach Geldverschwendung und Bullshit.

Dein Beitrag klingt nach Blauäugigkeit.
Man kann sich die Anwendungen herauspicken, bei denen man die jeweiligen Optimierungen auf einen gewissen Hersteller eindeutig herausfiltern kann.
Naiver geht es nicht. :shake:
 
Ich optimiere ein Spiel, welches Ende 2007 erscheint, auf eine CPU-Architektur, welche ein Jahr später auf den Markt kommt? Klingt für mich nach Geldverschwendung und Bullshit.
Was glaubst du denn, wie lange die Spezifikationen vom Nehalem schon feststehen? Oder wie lange man schon am Compiler Support arbeitet? Hast du übrigens mitbekommen, dass Intel bereits Ende 2007 Nehalem Samples öffentlich gezeigt hat? Es ist kein Geheimnis, dass Intel da seine Finger ausgiebig im Spiel hatte. *klick*
Intel hat in enger Zusammenarbeit mit Massive Entertainment* dafür gesorgt, dass die Entwicklung des neuesten Games vollständig mit Blick auf den Intel® Core™2 Extreme Prozessor ausgerichtet ist. World in Conflict basiert auf der neusten Multithread-Programmiertechnik und bietet Dir ein durch und durch fesselndes Gaming-Erlebnis.
Solche Sachen sollte man aus jedem Benchmark Parcous eigentlich ausschliessen oder zumindest ausser Wertung laufen lassen. Rückschlüsse über die Leistungsfähigkeit der Hardware gewinnt man damit jedenfalls kaum.
 
Man soll Spiele von Benches ausschließen, die so im Handel stehen und dem Käufer somit keine Informationen an die Hand geben wie das Spiel auf diversen CPUs performt, nur weil Intel mitgebastelt hat? Neee, so nicht.
 
@ y33H@: Wie wahr.. Und dazu noch Nvidias TWIMTBP, armes AMD. :rolleyes:


Hier gibt es ein Benchmark eines 955 @ 3.6GHz gegen einen Core i7 @ 3.6GHz.

4 Spiele, wo quasi exakt 2 FPS dazwischen liegen? Nur X³ fällt da etwas aus der Rolle..

Graka limitiert und HT ist einfach besser als QuickPath? Also ich glaube irgendwie nicht an Zufälle..


Kann das mal einer mit einen 6.4GB QP nachstellen und/oder einer 2x 4890? Dann wissen wir's.. ;)
 
Zuletzt bearbeitet:
Man soll Spiele von Benches ausschließen, die so im Handel stehen und dem Käufer somit keine Informationen an die Hand geben wie das Spiel auf diversen CPUs performt, nur weil Intel mitgebastelt hat?
Wenn diese nicht repräsentativ sind, ja. Und wenn man Hardware testet, erst recht. Oder was soll der Benchmark Parcours deiner Meinung nach testen, Software oder Hardware? ;)
 
Sorry, aber mache dich doch nicht lächerlich..

Solange das Spiel gespielt wird, ist es repräsentiv!! Und in dem Fall testen man die Software, so oder so.. (Wäre es pro AMD, würde es dir sicher gefallen..)

@ bawde:

Jup. Bei den Dual Cores ist im Moment klar Intel vorne, bei den Quads ist AMD in Front. Gut aufgeteilt. ;)
 
Zuletzt bearbeitet:
Sorry, aber mache dich doch nicht lächerlich..

Solange das Spiel gespielt wird, ist es repräsentiv!! Und in dem Fall testen man die Software, so oder so.. (Wäre es pro AMD, würde es dir sicher gefallen..)

@ bawde:

Jup. Bei den Dual Cores ist im Moment klar Intel vorne, bei den Quads ist AMD in Front. Gut aufgeteilt. ;)

Oder du machst dich lächerlich. Es wird keine Software getestet sondern verschiedene Prozessoren.
Das wäre genauso wie als würde man Prozessoren testen Intel gegen AMD und man lässt Super Pi als Bench laufen.
 
Zuletzt bearbeitet:
So? Wo läuft denn deine Software? Im Kofferradio?

Und womit testest du denn deine Prozessoren? Oder probierst du aus, wer schneller aus 10m Höhe unten ist oder was?


Es ist ja nicht so, dass WiC nur zum Benchen programmiert wurde..
 
Zuletzt bearbeitet:
@ Herby:

Es ist durchaus normal und logisch, gängige Programme zum Vergleich heranzuziehen.

Wogegen aber die meisten sind (und worum es hier im Thread geht), ist dass dann Programme herangezogen werden, von denen jeder weiß, dass Intel-CPUs schneller sind und dann gesagt wird: Ja, diese Intel-CPU ist schneller (und besser) als diese AMD-CPU, weil sie ja in dem und dem Benchmark schneller war.
 
Wogegen aber die meisten sind (und worum es hier im Thread geht), ist dass dann Programme herangezogen werden, von denen jeder weiß, dass Intel-CPUs schneller sind und dann gesagt wird: Ja, diese Intel-CPU ist schneller (und besser) als diese AMD-CPU, weil sie ja in dem und dem Benchmark schneller war.
Glaub mir, dass wissen hier alle. Einige wollen halt nur provozieren ;)
 
Solange das Spiel gespielt wird, ist es repräsentiv!!
Sorry, aber mache dich doch nicht lächerlich. Wenn die Ergebnisse das Rating relevant verzerren, dann ist es nicht repräsentativ. Ich sagte doch, man kann es ausser Wertung laufen lassen. Was ja mittlerweile teilweise gemacht wird, wie zB Super Pi. Wenn jemand seine Kaufentscheidung nur davon abhängig macht, bitteschön. Damit habe ich kein Problem. Nur leider schauen viele nur auf das Gesamtrating und behaupten dann verschiedenes, was aber nur bedingt den Tatsachen entspricht.

Und in dem Fall testen man die Software, so oder so..
Ich höre aber kaum Leute, die sagen, bei dieser oder jener Software profitiert man mehr von einem Intel Prozessor. Es heisst immer, Intel Prozessoren sind besser. Punkt. Findest du das objektiv und sachdienlich? Ich zumindest nicht. Da mag ich als Programmierer aber auch einen anderen Sichtwinkel haben. Und das ist völlig unabhängig davon, welche Hardware benachteiligt wird. ;)
 
Solche Sachen sollte man aus jedem Benchmark Parcous eigentlich ausschliessen oder zumindest ausser Wertung laufen lassen. Rückschlüsse über die Leistungsfähigkeit der Hardware gewinnt man damit jedenfalls kaum.

Was hat eine spekulierte Optimierung mit der Eignung als Benchmark zu tun? Ob eine CPU seine Performance durch Rohpower, Effizienz oder gute Softwareunterstützung gewinnt, kann dem Anwender herzlich egal sein. Eine Hardwareseite könnte beispielsweise schlicht die je 20 meistverkauften Anwendungen und Spiele aus den letzten X Monaten heranziehen und jeder kann nach seinem ganz persönlichen Anwendungsprofil ausrechnen, wo er das beste Angebot erhält.

Es heisst immer, Intel Prozessoren sind besser.

Wenn die getesteten Anwendungen, sofern nicht synthetisch, dies mit den Benchmarkergebnissen belegen, lässt sich dagegen auch nichts einwenden. Schon die Fragestellung "Oder was soll der Benchmark Parcours deiner Meinung nach testen, Software oder Hardware?" ist vollkommen irrelevant, ein Prozessor muss sich in seinem realen Arbeitsumfeld beweisen und nichts anderem.
 
Du redest wieder mal komplett am Kern des Themas vorbei. Ich würde ausserdem empfehlen, die restlichen Beiträge mal zu lesen. Du bist reichlich spät mit deiner Polemik. :rolleyes:
 
Zuletzt bearbeitet:
Mir scheint bei den obigen Beiträgen eher, dass du mit deiner Meinung ziemlich allein dastehst... Die Leistungsbewertung einer CPU von der praktisch immer relevanten Software zu entkoppeln macht für niemanden Sinn. :)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh