Wird AMD permanent gegenüber Intel in Reviews benachteiligt? [7]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das ist doch schwachsinn.....

hier ist ein artikel - ich bin schnell darüber geflogen - wo es um eine AMD graka geht und nvidia im artikel als deutlich langsamer dargestellt wird. diese heulerei ist echt nervig...
Dann schau mal auf den Autor. Merkste was? ;) Bei Michael Günsch kann man eigentlich auch nichts kritisieren. Dessen Artikel sind idR sachlich verfasst, im Gegensatz zu Artikeln von anderen Leuten.


So was in der Art ist im Test von Sandy Bridge drin :) Fünf GraKas, fünf CPUs, zwei Spiele, zwei Settings - und das ist schon ein bestialischer Aufwand.
Und alles für die Katz, falls die zwei Spiele wenig Aussagekraft besitzen. :p


Denn Benches in 800x600 zeigen eine mögliche theoretische Leistung, die mir aber als Gamer nicht wirklich was bringen.
Selbst als theoretischer Test sind sie nur bedingt aussagekräftig. Eigentlich unverständlich, dass sich dieser Irrglaube immer noch hartnäckig hält. Unabhängig von CPU und GPU hat das I/O System bei 800x600 1xAA/1xAF ein anderes Verhalten als zB bei 1920x1080 8xAA/16xAF (höhere Speicherauslastung und generell mehr Durchsatz). Und das ist im Endeffekt neben der GPU entscheidend für die Performance unter praxisnahen Settings.
 
Dann schau mal auf den aktuellen CB-Test mit GTX580 und aktuellem Parcour. Obwohl heute am unteren Ende schnellere CPUs dabei sind als früher (manche CPUs wurden durch entsprechend schnellere Modelle ersetzt), ging die Schere doch deutlich auseinander - in Richtung der Differenzen, die bei früheren Tests mit 800x600 zu sehen waren. Gäbe es noch schnellere GPUs oder hätte man mit SLI gebencht, wäre es noch deutlicher.

Vorher (i5-760 Test von August mit HD5870):

1680x1050, 4xAA/4xAF:
z.B. i5-760 vs X4 965 BE -> 3% zugunsten des i5

800x600: 20% zugunsten des i5

Aktueller Test mit GTX 580:

1680x1050, 4xAA/16xAF:
z.B. i5-760 vs X4 970 BE -> 14% zugunsten des i5

640x480: 19% zugunsten des i5

Es ist exakt das eingetreten, was ich immer gesagt habe:
Mit niedrigen Auflösungen kann man die Performancedifferenzen, die durch Verwendung einer stärkeren Grafikkarte und/oder durch einen CPU-fordernderen Parcour auftreten können, tendenziell gut vorhersagen.

Aber auch hier wirst du wohl wieder ein Haar in der Suppe finden. Frohe Weihnachten :)
 
Zuletzt bearbeitet:
@mr.dude
tu nicht so als ob du die autoren kennst und weißt wie jeder seine artikel schreibt... :hmm:
 
Zuletzt bearbeitet:
Reviews werden hier doch in erster Linie nach dem Ergebnis beurteilt, nicht nach der Vorgehensweise oder Sachlichkeit... Oder aber es kommen fachlich völlig irreführende Pseudoargumente wie den oftmals gelesenen Dauerbrenner der "IO-Performance".
Was ändert sich denn bei identischen Details, aber verschiedenen Auflösungen? Für die CPU rein gar nichts - das kann auch jeder selbst nachmessen*. Einzig der Rechenaufwand für die GPU und VRAM-Auslastung steigt, also nichts, was überhaupt die Grafikkarte verlässt.** Wir lernen: Die Auflösung ist der CPU vollkommen egal. :)

Übrigens: Genau das beweist auch das aktuelle CB-Review. Im Bereich unvermeidlicher Schwankungen von 0-5% ist die Reihenfolge der CPUs in beiden Auflösungen identisch - nur werden die Differenzen im höheren Setting natürlich stark komprimiert.



* Man wähle ein Spiel und zwei verschiedene Auflösungen mit identischem Seitenverhältnis. Nun ist sicherzustellen und zu prüfen, dass in beiden Auflösungen keinerlei GPU-Limitierung herrscht, z.B. durch Wahl einer sehr niedrigen CPU-Taktrate oder eines sehr CPU-lastigen Savegames. Nun kann beide Fälle benchen und wird bemerken, dass die fps praktisch konstant bleiben.

** Ausnahmefall VRAM-Überlauf: In diesem Fall muss vermehrt auf den Systemspeicher zugegriffen werden, was somit auch durch den Speichercontroller in der CPU beeinflusst wird. Durch die um eine 10er Potenz niedrigere Bandbreite zum Hauptspeicher brechen die fps hier aber so oder so in den unspielbaren Bereich ein.
 
Zuletzt bearbeitet:
tu nicht so als ob du die autoren kennst und weißt wie jeder seine artikel schreibt...
Da ich die Artikel lesen kann, kann ich auch beurteilen, wie Autoren die Artikel schreiben. Dafür muss ich die Autoren nicht kennen.


Was ändert sich denn bei identischen Details, aber verschiedenen Auflösungen? Für die CPU rein gar nichts - das kann auch jeder selbst nachmessen*. Einzig der Rechenaufwand für die GPU und VRAM-Auslastung steigt, also nichts, was überhaupt die Grafikkarte verlässt.** Wir lernen: Die Auflösung ist der CPU vollkommen egal.
Aber nicht dem I/O-System. Und die CPU hängt von diesem ab. Das ist der entscheidende Faktor. Ich würde dir echt empfehlen, mal selbst ein Spiel oder zumindest eine Grafik-Engine Demo zu programmieren. Dann merkst du ja vielleicht mal, wie viel Traffic zwischen CPU und GPU stattfindet. ;)
 
*Beiträge entfernt*

Kinder, müsst ihr euch sogar an Weihnachten die Köpfe einhauen? Reicht doch nun auch.
 
beleg doch mal bitte deine io these mr.dude-Carmack

Machen wir es ganz einfach und lassen die Zahlen sprechen:

Test: Prozessoren 2010 (Seite 12) - 24.12.2010 - ComputerBase
Test: Prozessoren 2010 (Seite 20) - 24.12.2010 - ComputerBase

Zwei verschiedene Auflösungen, beide Male nahezu vollständig GPU-limitiert - und *trommelwirbel* praktisch identische fps. ;) Wie man sieht: Ein low-res Benchmark hat genau die gleiche CPU-Anforderung wie einer in höherer Auflösung. Das kann sich auch der Laie rein logisch vorstellen - und dennoch werden auch diese Werte wieder von einigen ignoriert werden. ;) Mit leistungsfähigeren Grafikkarten würden wir genau dieses Bild in jedem Spiel sehen, darum sind GPU-limitierte Messungen in einem CPU Test auch weiterhin vollkommen überflüssig.
 
Genauso schaut es aus. mr. dude kann seine I/O-These nicht belegen, sonst haette er es schon laengst getan.
Wer sich die vergangenen Tests mit schwaecherer Grafikkarte und dann den aktuellen Test anschaut (bei Computerbase, denn nur die haben a. so einen GPU-Wechsel vollzogen und b. gleichzeitig niedrige Aufloesungen mitgebencht), wird klar erkennen, welche Bedeutung diese Benches haben.

Allerdings muss man fairerweise dazusagen, dass mit staerkerer GPU auch wieder GPU-intensivere Settings gefahren werden koennen (SSAA usw.), was den Performanceunterschied zwischen den CPUs in den meisten (nicht allen!) Szenen wieder vernichtet.
Dennoch: Habe ich zwei CPUs fuer einen aehnlichen Preis, warum nicht die schnellere nehmen?
 
Der Low Resolution Benchmark bringt garnix solange man nicht mal die Auslastung der CPU sieht.

Was ist wenn Intel bei Low Resolution auf 80% CPU-Auslastung läuft
und AMD nur auf 20%, wegen der schlechtern Unterstüzung von AMD.
Oder der AMD auf 100 % läuft und der Intel nur auf 60% weil man AMD einfach benachteiligt hat und unnötig Rechenleistung verplempert.
Oder wenn bei Intel 4 Kernen genutzt werden, während bei AMD das Game auf 2 Kerne beschrenkt bleibt.

Die Tests sagen nur aus das die Games auf Intel besser laufen als auf AMD, woran das liegt kann man sich hier den Kopf zerbrechen.
 
Zuletzt bearbeitet:
Was ist wenn Intel bei Low Resolution auf 80% CPU-Auslastung läuft und AMD nur auf 20%, wegen der schlechtern Unterstüzung von AMD. Oder der AMD auf 100 % läuft und der Intel nur auf 60% weil man AMD einfach benachteiligt hat und unnötig Rechenleistung verplempert. Oder wenn bei Intel 4 Kernen genutzt werden, während bei AMD das Game auf 2 Kerne beschrenkt bleibt.
Das was du da postest, ist Unfug. Auslastungsunterschiede gibt's nur, wenn zB der Cache überläuft o.ä. Aber dass bei Intel 4 und bei AMD nur 2 Kerne genutzt werden, habe ich (ich in Spielen) noch nie gesehen - sieht man von Bugs wie bei F1 2010 ab. Die Auslastung lässt sich ohnehin nicht vernünftig als End-User auslesen und das, was PerfWatch oder Taskmanager ausspuckt, hilft auch nur bedingt.

Am besten kommt jetzt noch einer und schreibt wieder den Bullshit, wonach eine AMD-CPU niedrige Auflösungen "erkennt" und die Leistung reduziert ... ja, so einen Müll durfte ich schon mehrfach lesen :shake:

Low-Res taugt wunderbar und wer das nicht schnallen will, weil die AMD-CPUs derzeit halt nicht mithalten können, kann das gerne tun. Dann aber bitte nicht trollen und Schwachsinn posten. Danke.
 
Zuletzt bearbeitet:
Du erzählst bullshit.

http://www.legitreviews.com/article/1484/10/

Da sieht man z.B. das Intel mit dem HT garnix bringt bei Dirt2 und der Phenom x6 darurch auch in den low Reseloutins inführung geht.

Torzdem ist der Phenom noch mit 60% ausgelastet und der Intel mit seinen 4 Kernen (wenn man mal HT weglässt und 4 reale kerne annimmt also 40*8/4=80%) nur zu 80% ausgelastet ist mit HT sogar nur 40% Prozent.

Da merkt man das hier noch erheblicher Optimierungsbedarf offen liegt.


Ach und schau dir hier mal Splintercell an. Ein 4 Core bringt hier bei AMD nichts, bei Intel schon. Seltsam nicht wahr?

http://www.legionhardware.com/articles_pages/gaming_the_core_debate,7.html

und Metro2033 greift gerade mal auf 1 Kern zurück
http://www.legionhardware.com/articles_pages/gaming_the_core_debate,6.html

bei Crysis reichen nur 2 Kerne aus:
http://www.legionhardware.com/articles_pages/gaming_the_core_debate,4.html

Du schnallst einfache den Wirtschafsmarkt nicht. Intel gibt bestimmt umsummen an Geld aus um AMD auzubremsen. Das ist wirtschaft. Das ist genau der sellbe Dreck den sie mit der Milch machen, welches sie ins Meer schütten um die Milchpreise hoch zu halten.

http://www.spiegel.de/spiegel/print/d-13526875.html

Aber du lebst ja noch in einer Wunderwelt wo alles korreckt abläuft. Ja ja Intel ist fair.
 
Zuletzt bearbeitet:
Du erzählst bullshit.

Intel Core I7 950 3.06GHz Quad Core Processor Review - Colin McRae: DiRT2 - Legit Reviews

Da sieht man z.B. das Intel mit dem HT garnix bringt bei Dirt2 und der Phenom x6 darurch auch in den low Reseloutins inführung geht.

Ich sehe hier ein simples GPU-Limit bei ~100fps. Der Rest sind Messschwankungen, siehe die unlogische Reihenfolge der X6.

Torzdem ist der Phenom noch mit 60% ausgelastet und der Intel mit seinen 4 Kernen (wenn man mal HT weglässt und 4 reale kerne annimmt also 40*8/4=80%) nur zu 80% ausgelastet ist mit HT sogar nur 40% Prozent.

Du willst eine Kernauslastung nicht ernsthaft anhand der Anzeige des Taskmanagers beurteilen?


GPU-Limit??? Und damit wird auch das:

Du schnallst einfache den Wirtschafsmarkt nicht. Intel gibt bestimmt umsummen an Geld aus um AMD auzubremsen. Das ist wirtschaft. Das ist genau der sellbe Dreck den sie mit der Milch machen, welches sie ins Meer schütten um die Milchpreise hoch zu halten.

vollkommen unsinnig. Wenn man etwas an der Software beeinflussen könnte, dann wenn überhaupt in der Richtung, dass die CPU-Anforderungen steigen, mehr Threads genutzt werden und damit Intel-CPUs höherer Preiskategorien und mit höheren Threadzahlen besser dastünden. Niedrigere CPU-Anforderungen oder die Nutzung nur weniger Kerne treibt die Leute doch genau in den Low-Cost Bereich. Jetzt erklär mir doch mal, was Intel davon haben sollte. :wall:
 
...
Du schnallst einfache den Wirtschafsmarkt nicht. Intel gibt bestimmt umsummen an Geld aus um AMD auzubremsen. Das ist wirtschaft. Das ist genau der sellbe Dreck den sie mit der Milch machen, welches sie ins Meer schütten um die Milchpreise hoch zu halten.

DER SPIEGEL 48/1987 - Landwirtschaft-der alltägliche Irrsinn

Aber du lebst ja noch in einer Wunderwelt wo alles korreckt abläuft. Ja ja Intel ist fair.

Lol, ein Artikel vom 23.11.1987 - du hast dich wohl mit deiner Tardis verfahren. Wir sind hier in 2010.
 
Ist doch jetzt auch nicht anders.
 
Nur sind die Agrar-Subventionen trotzdem nicht mit dem CPU Markt vergleichbar.
 
vollkommen unsinnig. Wenn man etwas an der Software beeinflussen könnte, dann wenn überhaupt in der Richtung, dass die CPU-Anforderungen steigen, mehr Threads genutzt werden
Achja? Bestes Beispiel dürfte wohl World in Conflict sein, bei dem sogar beworben wird das es von Intel mitprogrammiert und auf Intel CPUs optimiert wurde. Da wurde unter anderem auf den Cache der C2D/Q dahingehend optimiert, da sonst die Performance schlechter wäre.
Für AMD CPUs wurde rein gar nichts optimiert. Wäre aber auch ja schön dumm wenn dann das Intel Logo nicht mehr auf der Homepage hätte.

Jetzt erklär mir doch mal, was Intel davon haben sollte. :wall:
Ernst gemeinte Frage? Schonmal was von Prestige gehört? Marketing? Werbung?

@Grummel
Egal wie alt der Artikel ist, die Geschichte mit den Subventionen ist immer noch aktuell, aber dafür müsste man sich natürlich auch mal mit dem Thema Subventionen befassen.

@Elementarteilchen
Naja, ein Hersteller mit marktbeherrschender(!) Stellung zahlt an Unternehmen Gelder damit die Software auf ihre CPU Architektur hin optimiert werden und die Konkurrenz keinerlei Optimierungen erfährt - auch eine Art von Subvention (der Softwareschmiede), nur keine staatliche.
 
@Elementarteilchen
Naja, ein Hersteller mit marktbeherrschender(!) Stellung zahlt an Unternehmen Gelder damit die Software auf ihre CPU Architektur hin optimiert werden und die Konkurrenz keinerlei Optimierungen erfährt
IMHO ist beides nicht zu vergleichen, da die Gelder von völlig verschiedenen Stellen kommen und auch verschiedene Dinge bewirken.

Außerdem ist es absolut OK, wenn ein Hardwarehersteller, ob es jetzt Intel oder Nvidia mit "The Way it's meant to be played" ist, für zusätzliche Optimierungen bezahlt. Die Konkurrenz erleidet dadurch keinen Schaden.
Ein Softwarehersteller wird seine Software einfach bis zu einem bestimmten Punkt auf die Hardware optimieren, weil sich mehr Aufwand dann nicht mehr lohnt, und für weitere Optimierungen muss dann halt jemand zahlen. Und das ist der Hardware-Käufer, der über den höheren Preis dann diese Optimierungen bezahlt. An dem Punkt, wo man mit Investitionen in die Software mehr Leistung gewinnt als mit der weiteren Optimierung der Hardware, ist alle andere einfach Unfug.
 
Achja? Bestes Beispiel dürfte wohl World in Conflict sein, bei dem sogar beworben wird das es von Intel mitprogrammiert und auf Intel CPUs optimiert wurde.


Erstens hat das noch lange nichts zu sagen und zweitens ist hierbei kein Vorwurf zu machen solange nicht absichtlich Leistung zurückgehalten wird. Beworben wird mittlerweile eine ganze Menge, was aber noch lange nichts garantiert. Intel läuft so oder so schneller im Normalfall, die müssen ganz bestimmt nichts optimieren. Hat aber nicht lange gedauert bis wieder die gekauft Keule hier Einzug hält. Aus genau diesem Grund nimmt euch keiner ernst. Spätestens der neue CB Test ist ein richtiger Augenöffner. Dorthin wurde gerne verlinkt, da die Intels aufgrund der starken GPU Limitierung ihre Mehrleistung gar nicht ausspielen konnten. Es wird nicht überraschend sein, wenn diese Leute jetzt CB nicht mehr verlinken sondern versuchen werden CB in Abrede zu stellen, so wie sie es sonst mit anderen Seiten immer machen wenn die Ergebnisse nicht gefallen.
 
Meine Fresse. Die Entwickler von World in Conflict sagen selber das Intel mitprogrammiert hat und dieses Spiel optimal auf deren CPUs läuft, weil daraufhin optimiert.
Selbst Intel hat damit auf ihrer Homepage geworben. :wall:

In Zusammenarbeit mit Intel optimierten die Spielentwickler von Vivendi/Massive das Computerspiel speziell für die Intel®Core™ Mikroarchitektur mit zwei oder vier Prozessorkernen. Deren Technologie garantiert eine erstklassige Programmausführung, da sich die einzelnen Prozessorkerne die erforderlichen Rechenoperationen
Intel startet World in Conflict Cup-Serie

Aber hättest du mal den Startpost gelesen wäre dir das ja mit Sicherheit aufgefallen.
Wie soll man dich da bitte ernst nehmen? Hauptsache behaupten es würde nicht der Wahrheit entsprechen.

Und Intel würde ja niemals die Konkurrenz absichtlich beteiligen... [/sarkasmus] Es ist ja nur beim Intel Compiler so das CPUs mit einer nicht Intel Vendor ID trotz vorhandener und erfolgreicher Prüfung der SSE Befehlssätze diese nicht nutzen können....

Aber ihr findet es ja auch noch toll das wir, die Kunden, benachteiligt werden. Perfekte Kunden - für zumindestens bestimmte Firmen.
 
Meine Fresse. Die Entwickler von World in Conflict sagen selber das Intel mitprogrammiert hat und dieses Spiel optimal auf deren CPUs läuft, weil daraufhin optimiert.
Selbst Intel hat damit auf ihrer Homepage geworben. :wall:


Genau das ist es doch. Hierbei ist nichts einzuwenden. Und wenn das Teil auf multithreaded hin optimiert wurde, profitiert sogar der Konkurrent.
 
Das Intel da mit dem Compiler beschissen hat, bezweifelt ja niemand, aber grundsätzlich ist es nunmal nicht irgendwie verwerflich Softwarehersteller bei der Optimierung auf die eigene Hardware zu unterstützen. Eine eventuelle Mitarbeit bei World in Conflict ist auch nicht zu beanstanden, sofern da keine zusätzlichen Bremsen für AMD Systeme eingebaut werden. Diese Optimierungen bezahlt schließlich der Intel-Käufer über teurere CPUs.
 
Intel muss ja eine ganz ganz krasse Optimierungsabteilung haben, wenn ein DC+SMT bei gleichem Takt (i5-661) fast mit einem einem Phenom II X4 (970 BE) mithalten kann :fresse2: Kosten ja auch beide grob (!) das gleiche, da kann ergo keiner meckern - der i5 ist teurer, aber sparsamer. Oder hat der pöööhse Volker nur mal wieder AMD benachteiligt und nicht in den Taskmanager geschaut? *SCNR*



@ Turbostaat

Optimierungen sind nichts verwerfliches, solange die Konkurrenz nicht schlechter, sondern die eigenen Produkte nur besser gemacht werden. Siehe Dragon Age oder World in Conflict.
 
Zuletzt bearbeitet:
Nee, das Argument zählt nicht. AMD muss zusehen, dass sie schwarze Quartale schreiben. Ich bin der Meinung, dass Intel sich im Gegensatz weniger erlauben darf als AMD. Nee, das hat nichts mit fehlender Gerechtigkeit zu tun.
 
Die meisten Optimierungen hat World in Conflict erfahren indem auf die C2D/Q Arhcitektur, um genauer zu sein deren Cache, optimiert wurde. Das hat nicht viel mit Multithreading Optimierung zu tun.

Ich frage mich auch warum denn die PCGH World in Conflict aus ihrem Phenom II Review rausgenommen hat, während es beim Phenom I Review drin ist? Muss ja irgendeinen Grund haben.

Und einige haben wohl noch immer nicht mitgekriegt das für Intel, als marktbeherrschendes Unternehmen, andere Wettbewerbsrechts gelten als für Unternehmen die keine marktbeherrschende Stellung haben.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh