Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte Anfang lesen [2|2]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
*OnT wieder hinzugefügt*, bitte Edit beachten :)


Hmm ... also wenn das von Intel erlaubt ist, hat die "Exklusivität" den Beigeschmack einer "Hofberichterstattung".

Ich mein, seit wann stellt Intel NDA Sondergenehmigungen aus ? Umsonst / ohne Gegenleistung machen die sicher nichts. Wenns so wäre, erschiene die heiß diskutierte Bettler Szenenauswahl bei Anno wieder in einem fadenscheinigen Licht.

Man kann vieles glauben, oder annehmen, muss es aber nicht ;)
Wie gesagt, warum diese Szene genommen wurde von PCGH wurde doch nun auch schon mehrfach erwähnt, eben um eine Hohe Auslastung zu erzeugen und somit zu zeigen, das auch bei überdurchschnittlicher Belastung (weil das eben nicht ganz Spielalltag ist, aber dennoch vorkommen kann) die und die CPU so und so schnell ist.

Ich sehe hier ganz klar keine Benachteiligung, was bringt es mir eine Szene zu testen, wo massiv weniger Last erzeugt wird, die CPUs alle schön beieinander liegen aber im Ernstfall ich als Nutzer in den Ofen guck, wenn nur noch 10FPS raus kommen?
Dann komme ich mir ehrlich gesagt viel mehr verarscht vor von dem Review als wenn eine überdurchschnittliche Lastszene getestet wird...

Und das eine derartige Situation künstlich erschaffen wurde kann man so auch nicht sagen, das Savegame steht zum Download, jeder kann nachtesten, und für die KI kann der Spieler wenig, sprich diese Situation kommt in jeder längeren Partie wohl ähnlich vor, man muss nur mal zur KI gucken gehen...
 
Gegen Optimierungen ist ja eigentlich nichts einzuwenden. Und jedem ist klar, dass zum Beispiel der Intelcompiler halt besonders gut mit Intel-CPU klar kommt. Aber einige Indizien sprechen dafür das zum Beispiel bei diesem Compiler eine CPU-ID-Abfrage eingebaut ist, welche bei einem negativen Ergebnis, sprich bei einer Non-Intel-CPU, nicht alle möglichen Funktionen bei der Non-Intel-CPU verwendet. War nicht auch der Intel-Compiler Gegenstand des EU-Kartellverfahrens?

Glaubt ihr Intel arbeitet mit dem CIA zusammen um dann alle AMD-user aufzuspüren und zu eliminieren? :stupid: Ne aber ist dieser Compiler wirklich so inteligent aufgebaut das er erkennt und jenach CPU arbeitet? Würde mich echt interesssieren aber ich finde AMD soll mal ihren eigenen Compiler bringen habe noch nie ein Game gesehen beidem ein AMD oder ATI logo erschien.....

Ich denke wenn das mit dem Compiller wirklich so ist sind die Messergebnisse nicht zu gebrauchen da dann ein AMD nie seine wirkliche leistung erreichen kann da aber wohl sehr viel Software damit hergestellt wird fällt das nicht auf.
Vll. sollte man AMD mal beim Testen einer ihrer neuen CPU im eigenen haus zu gucken und dann mal sehen was bei einem Wurstblatt benchmark rauskommt vll. haben die CPU´s hausintern mehr Leistung??


Naja aber man sollte vll. auch möglichst gleiche vorraussetzungen schaffen auch für Intel:

Intel zb:

I7 9XX

DFI LANPARTY UT X58-T3eH8 X58 express (intel highend chipsatz)


Corsair DIMM 6 GB DDR3-1333 Tri-Kit (6GB für Intel)

Grafikkarte typ X

Netzteil XXXW


AMD

PII 9XX

DFI LANPARTY DK 790FXB-M3H5 (amd´s Highend chipsatz)

Corsair DIMM 6 GB DDR3-1333 trikit (jenachdem also hier wäre es schwer fairness zu finden entweder AMD 4GB oder 8GB oder 6GB dann kann amd aber nicht den dualchannel verwenden was auch nicht gut wäre)

Grafikkarte Typ X (egal welche aber die selbe wie bei Intel)

Netzteil XXXW (selbes Netzteil wie Intel)


Dann sollte man vll. neutrale Software Benches verwenden kein Super Pii oder so ich meine dann hätte man absolute Fairness und würde sehen wer besser ist.
 
Zuletzt bearbeitet:
@Dauerzeitgamer

Den Core i7 kannst du nicht mit einem Phenom II vergleichen, weil der Phenom gegen den Core 2 kokurriert ;)

aber ganz erlich, mein alter AMD X4 955 @3,7 hat die gleiche Leistung in Games wie mein W3520 @4,0 gehabt, vielleicht steig ich wieder auf AMD, weil ich die Leistung des Nehalem nicht brauche, spiele nur high End spiele und rest IE Surfen & Hardware Nachrichten....
 
Zuletzt bearbeitet:
Ja aber der PII hat den I7 920 schon manchmal geschlagen :) war glauber ich in eine CB test ofters in den Gaming teil bei den Benchmarks wie Super Pii etc. hat er natürlich keine chance aber Super Pii machen die nur noch weils nicht viel Zeit braucht kommt am ende nur ganz geringfügig zum tragen suche den Test mal für euch fand den ganz okay.

http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_945_955_black_edition/

Hier ist er der sieht ganz okay aus hoffe ich darf das verlinken.
 
Zuletzt bearbeitet:
Glaubt ihr Intel arbeitet mit dem CIA zusammen um dann alle AMD-user aufzuspüren und zu eliminieren? :stupid: Ne aber ist dieser Compiler wirklich so inteligent aufgebaut das er erkennt und jenach CPU arbeitet? Würde mich echt interesssieren aber ich finde AMD soll mal ihren eigenen Compiler bringen habe noch nie ein Game gesehen beidem ein AMD oder ATI logo erschien.....
Das erscheinen des Intel/NV Logos bei den Games hat aber nix mit dem Compiler zu tun, zumindest nicht primär... Im falle des NV Logos ist das Spiel einfach im NV Programm mit drin, wie und was genau dort an Geld oder anderen Mitteln geflossen ist, sei mal dahingestellt.

Naja eben wurde hier ja auch erwähnt wie viel Geld doch für die übernahme ATI´s verpulvert wurden aber ich meine mit der 4XXX serie hat man wieder etwas Gewinn mit ATI gemacht und sie sind auch schon ein fester teil des AMD Marketings ich meine die Dragon Plattform,AMD Fusion for gaming oder CrossfireX und die AMD Chipsätze welche nun kosten günstig mit einer ATI Grafik bestückt werden können ich denke so ist das auf dauer günstiger den hatten AMD chipsätze nicht schon immer ATI Grafik?
Und ich hoffe sehr das die 5XXXserie wenn sie denn so heißt ein genauso großer erfolg wird denn man sieht ja das einige von Nvidia abrücken ich meine die Karten kosten 40-50% mehr für 10% mehr leistung aber trotzdem haben auch die ab und zu trieber Probleme etc.
AMD Chipsätze mit interner ATI Grafik? Ne sowas gabs nie, wenn dann wurde extern ne Grafikeinheit aufs Board gebracht...
Aber AMD Chipsätze gabs eigentlich nur eher selten, damals zu Athlon Zeiten, war VIA wohl der Topchipsatz bauer, dann zu Athlon XP Zeiten kamen die NForce2 Bretter richtig in Fahrt...
Bei den ersten A64ern war der NForce3/4 das non Plus Ultra... usw. Nach der Übernahme von AMD entwickelten sich erst die Chipsätze mit dem Namen AMD weiter...

Übrigens, es gibt auch Intel Boards mit ATI Grafikeinheit ;)

Ich denke wenn das mit dem Compiller wirklich so ist sind die Messergebnisse nicht zu gebrauchen da dann ein AMD nie seine wirkliche leistung erreichen kann da aber wohl sehr viel Software damit hergestellt wird fällt das nicht auf.
Vll. sollte man AMD mal beim Testen einer ihrer neuen CPU im eigenen haus zu gucken und dann mal sehen was bei einem Wurstblatt benchmark rauskommt vll. haben die CPU´s hausintern mehr Leistung??
Was ist daran nicht zu gebrauchen?
Wenn die Software so im Laden steht, dann sollte man sie auch so testen... Was nutzt mir das Wissen über potentiell schnellere AMD CPUs wenn ichs als Endanwender, der nur diese Software nutzen will/kann/muss nicht umsetzen kann...
 
Glaubt ihr Intel arbeitet mit dem CIA zusammen um dann alle AMD-user aufzuspüren und zu eliminieren? :stupid: Ne aber ist dieser Compiler wirklich so inteligent aufgebaut das er erkennt und jenach CPU arbeitet? Würde mich echt interesssieren aber ich finde AMD soll mal ihren eigenen Compiler bringen habe noch nie ein Game gesehen beidem ein AMD oder ATI logo erschien.....


Demigod ist das aktuellste game mit AMD Logo.
Und ja das macht Intel wurde bereits auf genug bewiesen und wieos sollte das nit möglich sein zu erkennen ob ne amd oder intel cpu drinnen steckt? was macht den sonst cpu-z ?
 
In der Szene laufen viele Bettler herum, wodurch viele Threads erzeugt werden, was AMD benachteiligt und Intel bevorzugt. Kurz: Die Meßmethode.

So rein technisch nebenbei, es wird sicherlich nicht für jeden Bettler ein Thread erstellt ;) Die Szene besitzt vielmehr eine allgemein hohe CPU-Last, was ganz neutral allen schnelleren CPUs die Möglichkeit gibt, ihre Leistung besser zu zeigen. Wir wollen nicht vergessen, dass auch der i5 ohne SMT sehr deutlich vor den bisherigen Quads seiner Preisklasse mit Deneb- oder Yorkfieldkern liegt.

Den Kernpunkt deiner Kritik könnte man weiterhin auch umdrehen: Wenn eine hohe CPU-Last in deinen Augen Intel bevorzugt, bevorteilt eine niedrige dann im Umkehrschluss also auch AMD? Dieser Argumentation nach müsste jedem Review im Internet, dass nicht auf Savegames, starke GPUs und fordernde Spielszenen setzt, die Intention einer Bevorzugung von AMD unterstellt werden.
 
Glaubt ihr Intel arbeitet mit dem CIA zusammen um dann alle AMD-user aufzuspüren und zu eliminieren? :stupid: Ne aber ist dieser Compiler wirklich so inteligent aufgebaut das er erkennt und jenach CPU arbeitet? Würde mich echt interesssieren aber ich finde AMD soll mal ihren eigenen Compiler bringen habe noch nie ein Game gesehen beidem ein AMD oder ATI logo erschien.....

Ich denke wenn das mit dem Compiller wirklich so ist sind die Messergebnisse nicht zu gebrauchen da dann ein AMD nie seine wirkliche leistung erreichen kann da aber wohl sehr viel Software damit hergestellt wird fällt das nicht auf.
Vll. sollte man AMD mal beim Testen einer ihrer neuen CPU im eigenen haus zu gucken und dann mal sehen was bei einem Wurstblatt benchmark rauskommt vll. haben die CPU´s hausintern mehr Leistung??
Bevor du mich als verrückt erklärst solltest du die folgende Antwort von Opteron durchlesen und folgende PDF lesen.
@DrSeltsam:
Das ist aktuell viel lustiger ... die CPU Abfrage nach "IntelInside" bzw. "AuthenticAMD" ist mittlerweile passé. Das hat Intel nach den ersten Beschwerden ausgebaut und durch die Abfrage der erweiterten CPU Familie ersetzt ... ist damit etwas besser getarnt ...
Möglich, zumindest gibts seit der neuesten Compiler Version einen neuen Schalter (/QxO), der auch SSE2 Code auf "non-Intel" Chips generiert. Blöderweise immernoch langsamer als gepatchter Intel Code, aber Intel probierts wohl erstmal damit. Immerhin können sie jetzt sagen, dass "non-intel" CPUs unterstützt werden. Von welcher Qualität diese Unterstützung dabei ist .. ist wohl wieder ne andre Frage :hmm:
Wers ganz genau wissen will, Einzelheiten und Techniken wie man das ganze umgeht gibts hier:
http://www.agner.org/optimize/optimizing_cpp.pdf (Seite 120, Kap 12.1ff)

ciao

Alex

AMD hat nicht die Ressourcen um einen eigenen Compiler zuentwickeln, obwohl dies noch am einfachsten ist. Schwieriger wird es wohl sein diesen gegen 80%-Marktmacht durchzusetzen bzw. zu etablieren.
 
Du stellst dir die Welt etwas zu einfach vor. Ein TWIMTBP-Spiel wie Crysis mit dem Hinweis auf TWIMTBP nur einmal zu benchen und dann in der Versenkung verschwinden zu lassen, funktioniert nicht und wird auch sicher nicht so gehandhabt.
Davon hat auch niemand gesprochen. Aber schön zu sehen, dass dir die Ausreden nicht ausgehen. :rolleyes:

Wo verzerrt ein Worst-Case? Bei PCGH steht (online) dabei, dass es ein solches ist - wenn es eins ist. Anhand der Videos kann sich zudem jeder ein Bild davon machen, der das Spiel mal angezockt hat (zB per Demo).
Du solltest doch clever genug sein, um zu wissen, dass Leute selten lesen, sondern nur auf nichtssagende Balken schauen.

Eine fordernder bis Worst-Case ist besser als eine kaum fordernde Szene, denn so weiß man, was man im Ernstfall braucht. Wird eine nicht wirklich fordernde Szene gebencht, kauft sich jemand HW, weil er meint, Spiel XY läuft darauf und kaum gehts zur Sache, krüppelt derjenige bei 20 Fps rum und verliert den Spielspaß. Und wer ist schuld? Eben, das Mag, welches ihm "vorgaukelt", das Spiel würde flüssig laufen.
Du hast den Kontext überhaupt nicht verstanden. Es geht nicht darum, sich einzelne Szenen herauszupicken, egal ob sie viel oder wenig Last erzeugen, sondern die Anforderungen für durchschnittlich notwendige Performance wiederzugeben. Nur das hilft dem Leser wirklich weiter.

In einigen Spielen ...
Ja und in einigen Spielen ist der i7 langsamer als Yorkfield bei gleichem Takt. Sind wir wieder bei deinem Lieblingsthema der Rosinenpickerei? :rolleyes:

Ein i7-920 bietet in meinen Augen enorm viele Reserven und ist je nach Anwendungen jedem normalen (also non-OC) C2Q oder PII ebenbürtig bis meilenweit überlegen.
Da hast du scheinbar eine recht seltsame Sichtweise. -10% bis +30% würde ich nicht meilenweit überlegen nennen. :rolleyes: In meinen Augen ist deine i7 Glorifizierung sinnfrei. Denn das, was er gut kann, können GPUs oft besser. Und das, was er nicht besser kann, dafür reichen preiswertere Lösungen vollkommen aus.

Du bist doch sonst nicht so engstirnig... Schau dir doch nur mal Benches in Cinema4D an, nur um ein Beispiel zu nennen. Dort dreht der i7 und dessen Serverableger Xeons Kreise um die Konkurenz, egal in welcher Form.
Da schafft ein Xeon 5580er Gespann fast die selbe Leistung wie ein über 4GHz OC'ed S771 Quad Gespann mit ebenso 8 Cores...
Bist du dir sicher, dass du weisst, was "engstirnig" bedeutet? Wir haben von Bloomfield, Yorkfield und Deneb gesprochen. Also nix mit Xeon und dergleichen. Und ja, Rosinen kann ich auch rauspicken. Dass in synthetischen Szenarien der i7 920 auch mal mehr als 10% vorne liegen kann, sollte klar sein. Das war aber ebenso wenig das Thema. Wir sprechen immer über Durchschnittswerte, wenn wir von P/L sprechen.
Und dass der Nehalem Xeon in Cinebench Kreise um die Konkurrenz dreht, kann man auch nicht sagen. Schau dir mal Istanbul an. Oder besser noch den Server Standard Linpack, dann weisst du, wer um wen Kreise dreht. Und die aktualisierte HT3/DDR3 Server Plattform steht bei AMD ja erst noch bevor. ;)

Btw ist der i7 freilich eine Server-CPU oder für Fps-Junkies sowie professionelles Arbeiten. Daher kommt mit i5 ja nun die kaum langsamere, aber viel günstigere Mainstream-Version.
Da täuschst du dich. Soweit ich weiss, ist bei allen i5 SMT deaktiviert. Und das wird sich in diversen Anwendungen natürlich negativ auf die Performance auswirken. Intel spezifiziert den Gewinn durch SMT mit etwa 10-30%.

Was ist gute Hardware?
Sowohl AMDs als auch Intels CPUs basieren beide auf der x86-Architektur, die mit dem 1978 vorgestellten Intel 8086 (16bit) eingeführt wurde und später als IA-32 auf 32bit erweitert wurde. Sowohl Intel als auch AMD produzieren auf Basis dieser Architektur, die sie jeweils um weitere Funktionen erweitert haben. Der in der Hinsicht größte Erfolg, meiner Meinung nach, gelang AMD mit x86-64, was ja auch Intel nun benutzen darf. Die Unterschiede zwischen AMD und Intel sind also in der Hinsicht garnicht mal so groß.
Dass ich von der µArch und nicht von der ISA sprach, sollte klar sein. Gute Hardware war zB der K8, Netburst hingegen war schlecht.

Welchen compiler soll ich denn nun einsetzen? Den vom Marktführer (Intel) oder... ja welchen? AMD selbst bietet, wie meine Kurzsuche ergab, nur Einen für HPC-Entwicklungen an, ebenso wie Sun.
Es gibt für Windows unzählige Compiler, nicht nur den ICC. ;)

kannst du lesen? habe ich sowas geschrieben?!
ist doch logisch das dadurch keine einnahmen gemacht werden...

es gibt online genug AMD PCs zu kaufen, nur hatten die bisher uralt dualcore prozi drinnen. ;)
Erstmal sind die nicht uralt. Und zweitens hat dann Intel "uralt" IGPs. Trotzdem verkaufen sie genügend Mainboards damit. Vielleicht ist dir das nicht bewusst, aber es geht bei Plattformen um mehr als nur CPUs.

weil Mrd. durch den kauf von ATi verbrannt worden sind, falsche entscheidungen im management? ich weiß nicht....
dadurch war AMD im desktop-geschäft nur wenig konkurrenzfähig, wie es auch Mercury Research feststellt.
Weil die leider genauso kurzsichtig sind wie du? Klar hätte man kurzfristig besser dagestanden, langfristig wäre aber sogar nVidia an AMD vorbeigezogen. Die Entscheidung für den Kauf von ATI war absolut richtig. Über den Preis kann man sicherlich diskutieren. Die Früchte siehst du aber schon seit einiger Zeit. Und da wird in Zukunft noch etliches kommen.

Zum Thema Teillast müssen wir natürlich sagen, dass dies in erster Linie den Core i7 benachteiligt, die CPU mit den aktuell effizientesten Energiesparfeatures bei Teillast
Das ist falsch. Shanghai kann sogar die Spannung für einzelne Kerne bei Bedarf absenken, das kann Nehalem nicht. Das einzige, was Nehalem besser kann, ist die Kerne im Idle noch aggressiver schlafen zu legen. Nur nützt dir das nichts bei Teillast.

hinzu kommt der Punkt SMT der speziell bei synthetischer Volllast den Verbrauch erhöht.
Was hier völlig irrelevant ist. Schliesslich erhöht sich dann auch die Performance.

Core 2 und Phenom II nehmen sich in diesem Punkt übrigens nichts:

http://ht4u.net/reviews/2009/leistungsaufnahme_cpus_praxis/index26.php
Gähn ... Weisst du überhaupt, was Teillast ist? Das ist nicht nur maximale Last bezogen auf eine unterschiedliche Anzahl von Kernen. Ausserdem siehst du hier nicht wirklich, wie die Relationen sind, NB und so. ;)

Es geht darum, dass du keine Beantwortung von hätte wäre wenn fragen treffen kannst, wenn es die entsprechende Situation für AMD schlicht nie gab.
Nein, AMD war natürlich noch nie in der Situation, Produkte zu vermarkten und Partner zu finden. Absolut logisch ... :rolleyes:

Hmm, ein 10% höherer PC-Preis bei einem Leistungsvorteil von 30% (nicht taktbereinigt) im CPU-Limit. Du bemerkst die Vielschichtigkeit der Betrachtungsmöglichkeiten?
Du solltest schon beim Thema bleiben. Es ging um i7 vs Yorkfield/Deneb. Da ist diese Rechnung deplatziert.
 
mr.dude schrieb:
Nur das hilft dem Leser wirklich weiter.
Ein Durchschnittswert hilft nicht, da man so nicht weiß, wie mies das Spiel stellenweise läuft. So kommt Frust auf.
mr.dude schrieb:
-10% bis +30% würde ich nicht meilenweit überlegen nennen.
Es sind bis zu +60%. Nur mal am Rande.
mr.dude schrieb:
Ja und in einigen Spielen ist der i7 langsamer als Yorkfield bei gleichem Takt.
In zweien bisher. Dem gegenüber steht mehr als ein Dutzend, wo es anders ist. Zumal sich die Fps-Differenzen bei diesen beiden Titel in einem Bereich bewegen, der in der Praxis vollkommen egal ist.
 
[...]Es sind bis zu +60%. [...]

In der Praxis eher so bei maximal 10%. Es gibt natürlich ausreißer nach oben, aber wenn man sich etliche Reviews anschaut bringt SMT im Allgemeinen nicht viel. Meist bringts was bei Code der nicht synchronisiert werden muss und selbst da meist nicht unbedingt die Welt (Cinebech z.B.), ansonsten wirds ja z.B. bei Spielen, wo die Threadbelastung unterschiedlich ist, für das tolle I7 SMT schon wieder eng.
 
OT beseitigt.

Du solltest doch clever genug sein, um zu wissen, dass Leute selten lesen, sondern nur auf nichtssagende Balken schauen.
Wenn sie nicht lesen sind sie selbst schuld. Mehr als darauf hinweisen kann man sie nicht.

Du hast den Kontext überhaupt nicht verstanden. Es geht nicht darum, sich einzelne Szenen herauszupicken, egal ob sie viel oder wenig Last erzeugen, sondern die Anforderungen für durchschnittlich notwendige Performance wiederzugeben. Nur das hilft dem Leser wirklich weiter.
Wenn mein System im Durchschnitt gut da steht, im Worstcase aber nur 5fps schafft, verliere ich den Spaß und verfluche entweder den Test oder mein System...

Dass ich von der µArch und nicht von der ISA sprach, sollte klar sein. Gute Hardware war zB der K8, Netburst hingegen war schlecht.
Nein, es war nicht klar. War der K8 persé gut, genauso wie die P4 schlecht waren? Reichlich engstirnig. Genug des Exkurses.

Du solltest schon beim Thema bleiben. Es ging um i7 vs Yorkfield/Deneb. Da ist diese Rechnung deplatziert.
Dito: Bleibt beim Thema. Es geht um die Benachteiligung AMDs in Revies.
 
@ [HOT]

Ich spreche nicht von SMT, sondern von der "IPC" gegenüber einem gleichgetakteten Yorkie.
 
Man kann vieles glauben, oder annehmen, muss es aber nicht ;)
Jo, aber es ist per-se erst einmal etwas "merkwürdig".
Wie siehts eigentlich mit den restlichen i5 benches im Heft aus, kann da jemand (Unabhängiges) was dazu sagen ?

Ich sehe hier ganz klar keine Benachteiligung, was bringt es mir eine Szene zu testen, wo massiv weniger Last erzeugt wird, die CPUs alle schön beieinander liegen aber im Ernstfall ich als Nutzer in den Ofen guck, wenn nur noch 10FPS raus kommen?
(...)
diese Situation kommt in jeder längeren Partie wohl ähnlich vor, man muss nur mal zur KI gucken gehen...
Jo ist ok, hängt halt von der Frage ab, wie wichtig das Bettlerszenario ist. Wenn die KI das macht, ist das ein Punkt, aber baut die vielleicht kurz später nicht auch ein Bettlerhaus ? Muss man auch sooft bei KI Spielern nachschauen ?

Geht halt darum, ob das Szenario jetzt eher Regel oder Ausnahme ist. Wenns wirklich die Regel ist, ok.

ciao

Alex
 
Das Bettlerszenario ist trotz evt. geringer Relevanz scheinbar ein Gutes um die Leistungsfähigkeit der jeweiligen Plattform zu messen, nicht? Wir haben es trotz aller Praxisnähe immernoch mit synthetischen Benches zu tun, denn sonst wären sie nicht vergleichbar.
 
Bist du dir sicher, dass du weisst, was "engstirnig" bedeutet? Wir haben von Bloomfield, Yorkfield und Deneb gesprochen. Also nix mit Xeon und dergleichen. Und ja, Rosinen kann ich auch rauspicken. Dass in synthetischen Szenarien der i7 920 auch mal mehr als 10% vorne liegen kann, sollte klar sein. Das war aber ebenso wenig das Thema. Wir sprechen immer über Durchschnittswerte, wenn wir von P/L sprechen.
Und dass der Nehalem Xeon in Cinebench Kreise um die Konkurrenz dreht, kann man auch nicht sagen. Schau dir mal Istanbul an. Oder besser noch den Server Standard Linpack, dann weisst du, wer um wen Kreise dreht. Und die aktualisierte HT3/DDR3 Server Plattform steht bei AMD ja erst noch bevor. ;)

Bitte das nächste mal genau lesen, ich schrieb doch der i7 und dessen Xeon Ableger... Der i7 war also ebenso angesprochen.

Und nein, ich hab dir extra Fett markiert, was du gesagt hast, du sprachst explizit von maximal 10%, egal in welcher Art von Anwendung.
Ich habe dir daraufhin ein Beispiel gegeben, welches deine Verallgemeinerung wiederlegt, wo ist das Problem?
Des weiteren steht dort, das der, der eben in dieser Anwendung die Leistung benötigt, auch durchaus gewillt ist, mehr auszugeben.
P/L gänzlich verallgemeinert ist zwar schön und gut, lässt sich auch klasse vergleichen, aber was bringts dem Kunden, wenn er nur Anwendungen fährt, die gänzlich andere Werte ausspucken... Das aber nur als Hinweis nebenbei.

Im übrigen, der Istambul ist nun mal gar nicht vergleichbar, ich hab exta Corezahlgleichheit gewahrt (und extra ein Intel Vergleichssystem genommen, damit es nicht heist, hier wird Intel bevorzugt) und du kommst mit dem Istambul... (den es nichtmal für den Desktop Bereich gibt)
Aber sei es drum, dann guck halt auf den Desktop Bereich, ein i7 920 ist dort sogar etwas schneller als ein 3,5GHz Phenom II... Interessant wären die Werte zu wissen, von nem Stock Phenom II 940/955.
Danach kannst du immernoch mit P/L kommen, aber wie schon angesprochen, es gibt durchaus Bereiche, wo der i7 schnell unterwegs ist und das P/L bei dieser Anwendung eher beim Intel liegt ob dir das nun passt oder nicht. Musst ja nicht kaufen, wenn du nicht willst...
 
This manual is for advanced programmers and software developers

Nagut dann hat sich das PDF für mich erledigt ^^ ist aber ganz nett. Wusste nicht das es so schwer ist einen Compiller zu entwickeln aber für verrückt erkläre ich niemanden habe dafür nicht den Medizinischen Rang für keine angst ;)

AMD hat nicht die Ressourcen um einen eigenen Compiler zuentwickeln, obwohl dies noch am einfachsten ist. Schwieriger wird es wohl sein diesen gegen 80%-Marktmacht durchzusetzen bzw. zu etablieren.

Wenn der ompiller gut wäre und nicht unfair also für beide cpu marken dass max. raus holt wäre zwar nicht vorteilhaft für amd aber ich denke dann würde der anklang finden.

Das erscheinen des Intel/NV Logos bei den Games hat aber nix mit dem Compiler zu tun, zumindest nicht primär... Im falle des NV Logos ist das Spiel einfach im NV Programm mit drin, wie und was genau dort an Geld oder anderen Mitteln geflossen ist, sei mal dahingestellt.

Klar das Game ist halt sponsored by oder so, dachte ihr könntet euch das herleiten das das deswegen so ist.

AMD Chipsätze mit interner ATI Grafik? Ne sowas gabs nie, wenn dann wurde extern ne Grafikeinheit aufs Board gebracht...
Aber AMD Chipsätze gabs eigentlich nur eher selten, damals zu Athlon Zeiten, war VIA wohl der Topchipsatz bauer, dann zu Athlon XP Zeiten kamen die NForce2 Bretter richtig in Fahrt...
Bei den ersten A64ern war der NForce3/4 das non Plus Ultra... usw. Nach der Übernahme von AMD entwickelten sich erst die Chipsätze mit dem Namen AMD weiter...

Übrigens, es gibt auch Intel Boards mit ATI Grafikeinheit

Klar meinte das so die haben halt ne onboard Grafik drin die AMD chipsätze welche von ATI ist und muss man immer alles hischreiben damit ihr euch das was nicht da steht nicht selber zusammenreimt, klar gibt es auch intel boards mit ATI Grafik kenne mich da nicht so aus aber was soll ich sagen man will halt geld verdienen wo man kann dann gibt man auch seinen erzfeind mal ne onboard GPU ;)

Was ist daran nicht zu gebrauchen?
Wenn die Software so im Laden steht, dann sollte man sie auch so testen... Was nutzt mir das Wissen über potentiell schnellere AMD CPUs wenn ichs als Endanwender, der nur diese Software nutzen will/kann/muss nicht umsetzen kann...

Klar so hab ich es mir teils auch gedacht die oma die abends ihre Mails vom enkel liest ist das egal ob ihr AMD mehr Power haben könnte wenn die Software ander geprogt wäre aber uns interessiert das weil es irgendwie unfair ist das die Software quasi nur für Intel geprogt wird und amd sich selber um optimierungen kümmern muss deswegen denkt fast jeder AMD wäre schlecht weisst du meine Patin hat letztens gemeint sie will einen Laptop kaufen aber mit intel Prozessor warum? Weil sie mal gehört hat AMD ist schlecht.
Das Problem ist teils AMD´s schlechtes image und das wird nicht besser wenn endanwendersoftware für die konkurenz optimiert wird und sie dann besser läuft der Papa merkt das als er seine Fotos am bearbeiten ist und schon bald denkt die ganze Familie Intel ist besser zwar teurer aber soviel besser weil die interesiert es nur ob ihre software läuft und das sie gut läuft das da vll. die Programmierung schuld ist an sowas denken die nochnichtmal.
Ich denke wenn die Software für beide Firmen gleichgut geschrieben werden würde und das mal jemand merken würde der nicht so ein PC Freak wie wir ist der würde sich dann doch bestimmt sagen wenn der unterschied unter 10% also nicht merkbar istwarum teuer Intel kaufen wenn ich AMD haben kann? Und schon könnte man mal mit diesem billig marken image aufräumen mir reicht es schon das diffused in Germany draufsteht.

Das ist falsch. Shanghai kann sogar die Spannung für einzelne Kerne bei Bedarf absenken, das kann Nehalem nicht. Das einzige, was Nehalem besser kann, ist die Kerne im Idle noch aggressiver schlafen zu legen. Nur nützt dir das nichts bei Teillast.

Teillast ist doch so 50% auslastung oder wenn nur ein paar Kerne eines Quads ausgeschöpft werden?

Zitat:
Zitat von mr.dude
Nur das hilft dem Leser wirklich weiter.

Ein Durchschnittswert hilft nicht, da man so nicht weiß, wie mies das Spiel stellenweise läuft. So kommt Frust auf.

Ich finde für einen Bench sollte man die anspruch vollsten szenen nehmen allerdings muss man bei diesem Bench drauf achten das dort die CPU belastet wird nicht die GPU aber bei einem Strategiespiel ist es ja meist eh so das die CPU sich tot arbeitet.

Jo, aber es ist per-se erst einmal etwas "merkwürdig".
Wie siehts eigentlich mit den restlichen i5 benches im Heft aus, kann da jemand (Unabhängiges) was dazu sagen ?

vll. könnte jemand den test einscannen da der wohl nicht im Inet ist oder verlinken falls doch.

@all

Es ging in dem Test doch zu zeigen welche CPU mehr power hat also was soll das? Wenn die Bettler viel CPU Power brauchen kann man die doch holen es ist kein spiele Test der zeigen soll wie das spiel im Spielgebrauch läuft und klar sind die Benches synthetisch bzw. vom Mensch nachgestellte szenen wir haben doh gesehen bei RE5 was passiert wenn ein bot spielt und damit das spielen des spiel simmuliert werden soll aber immerhin ist das ein game und nicht 3dmark oder irgend ein ander nichts sagender Benchmark.
Im allgemeinen ist es doch auch egal ich meine mit den ganzen CPU´s kann man jedes aktuelle spiel spielen wieviel man dafür bezalhen will muss jeder für sich selbst entscheiden und nun hört auf euch zu zerfetzten und überlegt mal wie man den fairer und relistischer die CPU´s vergleichen könnte.

Außerdem will ich wissen was haltet ihr von diesem Test? Ich finde ihn ganz okay auch wenn "viele" von diesen blöden benchmarks dabei sind wie 3dMark etc.

http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_945_955_black_edition/2/

Was ich zwar nicht so gut finde das beim I7 XE 1600er speicher verwendet wurde beim I7 920 aber nur 1066 so kann zumindest ich nicht wirklich darauf zurück schließen das all die mehr leistung auf die CPU zurück zu führen ist.
 
Zuletzt bearbeitet:
Das ist falsch. Shanghai kann sogar die Spannung für einzelne Kerne bei Bedarf absenken, das kann Nehalem nicht. Das einzige, was Nehalem besser kann, ist die Kerne im Idle noch aggressiver schlafen zu legen. Nur nützt dir das nichts bei Teillast.

Deneb als Desktopversion kann Kerne nicht mehr unterschiedlich takten bzw. mit Spannung versorgen, dass wurde in der aktuellen C&Q Version wieder entfernt, da es gerade in Spielen teils nennenswerten Leistungsverlust brachte - diese Diskussion hat wir doch erst. ;)
Weiterhin bist du bei Nehalem nicht korrekt informiert. Power Gating funktioniert auch für einzelne Kerne, selbst wenn die anderen bei absoluter Volllast arbeiten. Das kann bisher keine andere CPU in diesem Marktsegment, auch die über eine Million starke dafür zuständige PCU ist einzigartig.

Was hier völlig irrelevant ist. Schliesslich erhöht sich dann auch die Performance.

In üblichen Teillastszenarien wird SMT zum großen Teil gar nicht genutzt. Ohne Anno konnte man den Spielebereich sogar komplett von SMT-Profiten ausschließen. Das lassen wir sicher nicht unter den Tisch fallen. :)


Gähn ... Weisst du überhaupt, was Teillast ist? Das ist nicht nur maximale Last bezogen auf eine unterschiedliche Anzahl von Kernen. Ausserdem siehst du hier nicht wirklich, wie die Relationen sind, NB und so.

Ähm, natürlich ist Volllast auf n Kernen (mit n<k=Kernzahl) ein Teillastszenario. Das heißt nicht, dass es nicht noch andere Fälle gibt. Wenn du meinst, das mein Link einen Spezialfall darstellt, postet doch einen eigenen, der es anders oder in deinen Augen besser zeigt.

Nein, AMD war natürlich noch nie in der Situation, Produkte zu vermarkten und Partner zu finden. Absolut logisch ... :rolleyes:

Ich denke nicht das AMD bisher je in der Lage war, eine entsprechende Macht auf einen Einzelhändler auszuüben, damit dieser nur noch AMD-Produkte verkauft. Der würde mit den Schultern zucken. ;) Ganz anders bei Intel.

Du solltest schon beim Thema bleiben. Es ging um i7 vs Yorkfield/Deneb. Da ist diese Rechnung deplatziert.

Genau von diesem Fall rede ich auch. :) Die Rechnung ist im übrigen äußerst relevant, denn ein Computer besteht nicht nur aus CPU oder CPU und Board - auf das Gesamtsystem hochgerechnet werden die relativen Preisunterschiede dann ziemlich schnell deutlich kleiner. Gerade du vergleichst doch immer gerne mit den teuren X58 Boards um die i7 Plattform möglichst teuer dastehen zu lassen, da mache ich hier mal einen Gesamtsystemvergleich.

Nocheinmal: Die Vielzahl möglicher Betrachtungsweisen ist enorm.
 
Jo ist ok, hängt halt von der Frage ab, wie wichtig das Bettlerszenario ist. Wenn die KI das macht, ist das ein Punkt, aber baut die vielleicht kurz später nicht auch ein Bettlerhaus ? Muss man auch sooft bei KI Spielern nachschauen ?

Geht halt darum, ob das Szenario jetzt eher Regel oder Ausnahme ist. Wenns wirklich die Regel ist, ok.

ciao

Alex

Das würd ich meinen spielt doch keine Rolle obs die Ausnahme oder die Regel ist, Fakt ist, diese Szene ist nachstellbar und kommt real vor.
Klar kann es sein, das die KI da abhilfe schafft, direkten Einfluss hat man darauf aber nicht...
Und ebenso klar, man brauch nicht zur KI gucken gehen...

Aber ich mein, was soll denn das? Wir brauchen uns doch hier nicht auf biegen und brechen ein Testszenario hinstellen, und sagen, das und das darfst du aber nicht tun sonst geht womöglich die FPS Rate in den Keller usw.
Ist doch unfug, dann doch lieber die Performancefressendsten Szenen Benchen um zu sehen, was im Ernstfall wirklich benötigt wird.

Wie schon angesprochen gewinnt Anno ja auch durch aktives SMT, das lässt auf sehr gute Threadoptimierung schließen, im allgemeinen müssten ebenso der Phenom und die anderen Quadcore CPUs sehr gute Werte liefern, tun sie aber nicht... oder nur bedingt.
 
Wie schon angesprochen gewinnt Anno ja auch durch aktives SMT, das lässt auf sehr gute Threadoptimierung schließen, im allgemeinen müssten ebenso der Phenom und die anderen Quadcore CPUs sehr gute Werte liefern, tun sie aber nicht... oder nur bedingt.

Man sollte erwähnen, dass SMT in Anno nur einen Bruchteil des Vorsprunges ausmacht, den die Nehalem/Lynnfield Architektur in diesem Fall zu Deneb/Yorkfield erreicht. Gut erkennbar am i5 750. Hier spiegeln sich also vor allem ganz allgemeine Vorteile der Architektur wieder. Z.B. der sehr schnelle L3 Cache könnte ein Grund sein.
 
Das Bettlerszenario ist trotz evt. geringer Relevanz scheinbar ein Gutes um die Leistungsfähigkeit der jeweiligen Plattform zu messen, nicht? Wir haben es trotz aller Praxisnähe immernoch mit synthetischen Benches zu tun, denn sonst wären sie nicht vergleichbar.

Aber ich mein, was soll denn das? Wir brauchen uns doch hier nicht auf biegen und brechen ein Testszenario hinstellen, und sagen, das und das darfst du aber nicht tun sonst geht womöglich die FPS Rate in den Keller usw.
Ist doch unfug, dann doch lieber die Performancefressendsten Szenen Benchen um zu sehen, was im Ernstfall wirklich benötigt wird.
Ok, nennen wir das Kind mal Anno "CPU worst case" Szenario, dann ist es ok :)
Wie schon angesprochen gewinnt Anno ja auch durch aktives SMT, das lässt auf sehr gute Threadoptimierung schließen, im allgemeinen müssten ebenso der Phenom und die anderen Quadcore CPUs sehr gute Werte liefern, tun sie aber nicht... oder nur bedingt.
Dazu gibts bei PCGH nen guten Artikel:
http://www.pcgameshardware.de/aid,6...ti-Threading-im-Detail/Strategiespiel/Wissen/

Da werden die 8 Threads eben (ausnahmsweise) voll befeuert. Mit 4 Kernen ist nicht viel Staat zu machen :)

Dazu scheint die Speicherlatenz unter Last noch etwas zu bewirken. Ist zumindest meine Interpretation der i5 750 Werte, der verliert 5% Gegenüber dem gleichgetakteten i7 920. Unterschied ist der L3 Takt und der 3te Speicherkanal. Muss deshalb eins von beiden sein. Der 870 ist von dem Ganzen relativ unberührt, da er durch SMT die Latenzen gut verstecken kann und die Bandbreite ausreicht. Wenn der eine Thread aufs RAM warten, rechnet halt der 2te Thread weiter. Von der Sichtweise her wäre dann SMT bei S1156 sogar wichtiger als bei S1366. Zumindest solange die Bandbreite reicht und man Software hat, die es ausnützen kann :)

Edit:
@Athlon-64:
Alles ^^
Da das aber kaum geht, einfach mal Deinen subjektiven Eindruck :)
Gibts z.B. nen FC2 Bench ?

ciao

Alex
 
Zuletzt bearbeitet:
Dazu scheint die Speicherlatenz unter Last noch etwas zu bewirken. Ist zumindest meine Interpretation der i5 750 Werte, der verliert 5% Gegenüber dem gleichgetakteten i7 920. Unterschied ist der L3 Takt und der 3te Speicherkanal. Muss deshalb eins von beiden sein.


Und SMT! Was ja ausnahmsweise in dem Spiel einen Vorteil bringt.
 
ja FC2 gibts auch:

die wichtigsten Werte

Q9650 - 75,3FPS
P2 X4 @ 3,4GHz - 73,1
i7 975 - 71,7
i7 920 - 71,5
i7 - 860 - 68,7
i5 750 - 66,7

sind nur die (wahrscheinlich) interessantesten - Chipsätze wie immer P45/P55/X58/790FX - i7(s1366) - DDR3 übertaktet auf 1333 - i5/i7(S1156) - 1333 - P2 - 1333 und Core2 DDR2-1066

mfg
 
Zuletzt bearbeitet:
im moment ist Nvidia übigends schon vor ATI/AMD wegen: CUDA, 3D technik und besserer bildqualität, besserer herstellersupport usw..
Das ist falsch. Erstmal reden wir über wirtschaftliche Faktoren. Und AMD macht immer noch fast doppelt so viel Umsatz. Und zweitens liegt nVidia technologisch deutlich hinter AMD zurück. Kaum konkurrenzfähige Chipsätze mehr, schlechtere GPU Technologie (weniger Performance pro mm², öfters schlechtere Effizienz, älteres Feature Set, etc), soweit mir bekannt ist, hat AMD bisher auch als einziger ein SDK für kompletten OpenCL Support bereitgestellt, CUDA ist irrelevant, ein besserer Herstellersupport bei nVidia wäre mir auch neu, ich habe als nVidia Besitzer zumindest noch nichts davon gemerkt, usw.

Ein Durchschnittswert hilft nicht, da man so nicht weiß, wie mies das Spiel stellenweise läuft.
Ach, also sind alle Grafikkarten Tests damit hinfällig? Oder veröffentlicht ihr in Zukunft nur noch Min-FPS Charts? Äusserst einleuchtend ... :rolleyes:
Durchschnittliche Performance hilft dem Anwender mehr als alles andere. Daran kann er grundsätzlich erkennen, was er von der Hardware erwarten kann und ob das Spiel grundsätzlich flüssig läuft. Wenn ihr darüber hinaus noch spezielle Sequenzen testen wollt, die besonders hohe Anforderungen wiedergeben, um in wenigen Situation zu sehen, ob es mehr oder weniger ruckelt, bitteschön, das ist euch freigestellt. Nur darf das nicht die Referenz sein.

In zweien bisher. Dem gegenüber steht mehr als ein Dutzend, wo es anders ist. Zumal sich die Fps-Differenzen bei diesen beiden Titel in einem Bereich bewegen, der in der Praxis vollkommen egal ist.
Schnell mal bei CB geschaut, dort liegt zB der Q9550 immer vor dem i7 920. GRID kannst du von mir aus ausklammern, da dort wohl die Grafikkarte absolut limitiert. Bleiben immer noch 8 Spiele. Ok, gleich kommt wieder, nur 9800 GTX+ bla bla, kein 256475x Hyper-Mega-CF-SLI ... :rolleyes:
So langsam machst du dich mit deiner Parteilichkeit echt lächerlich. Wer will dir denn hier noch eine objektive Sichtweise auf den i7 abkaufen, zumal du selbst ein i7 System besitzt und es ziemlich offensichtlich ist, dass du dieses bis auf Messer verteidigst?

Wenn sie nicht lesen sind sie selbst schuld. Mehr als darauf hinweisen kann man sie nicht.
Macht sie aber nicht gerade seriös. Kennen wir ja auch aus anderen Bereichen der Gesellschaft. ;)

War der K8 persé gut, genauso wie die P4 schlecht waren?
Ja. Wer das anders sieht, dem fehlt entweder das notwendige Fachwissen oder die Einsichtigkeit. Ich vermute mal, du hattest selbst einen P4?
Das perverse an der Geschichte ist eigentlich, dass Intel mit dem Pentium-M sogar gute Hardware im eigenen Hause hatte.

Ich spreche nicht von SMT, sondern von der "IPC" gegenüber einem gleichgetakteten Yorkie.
Davon war aber nie die Rede. Es ging um i7 920 vs Q9550/X4 940/X4 955. Wenn du von gleichem Takt ausgehst, dann solltest du bedenken, dass sich auch das P/L Verhältnis weiter verschiebt. Der i7 920 ist fast doppelt so teuer wie zB der X4 810. Da sind auch bis zu 60% keine Empfehlung. Und je höher die Taktraten werden, umso schlechter wird es für den i7.

Und nein, ich hab dir extra Fett markiert, was du gesagt hast, du sprachst explizit von maximal 10%, egal in welcher Art von Anwendung.
Du hast das aber offensichtlich falsch verstanden. Mit "maximal 10%" habe ich trotzdem von durchschnittlicher Performance gesprochen. So genau lässt sich das bisher schlecht spezifizieren, da es von Plattform zu Plattform teils signifikante Unterschiede geben kann.

P/L gänzlich verallgemeinert ist zwar schön und gut, lässt sich auch klasse vergleichen, aber was bringts dem Kunden, wenn er nur Anwendungen fährt, die gänzlich andere Werte ausspucken... Das aber nur als Hinweis nebenbei.
Das lässt sich in beide Richtungen interpretieren. ;) Daher sind Durchschnittswerte für die meisten Leute am aussagekräftigsten.

Im übrigen, der Istambul ist nun mal gar nicht vergleichbar, ich hab exta Corezahlgleichheit gewahrt (und extra ein Intel Vergleichssystem genommen, damit es nicht heist, hier wird Intel bevorzugt) und du kommst mit dem Istambul... (den es nichtmal für den Desktop Bereich gibt)
Istanbul ist hervorragend vergleichbar. 2 physische Kerne mehr, zwei logische Kerne weniger. Hier treffen zwei Technologien aufeinander, die gleichwertig ausgeprägt sind, aber unterschiedliche Konzepte verfolgen. Nicht vergleichbar hingegen ist Nehalem mit Shanghai/Yorkfield, was hier ja ständig gemacht wird. Das dumme ist nur, Intel hat den i7 für 1% oder weniger des Marktes veröffentlicht und einige glauben, dieser wäre repräsentativ.

Teillast ist doch so 50% auslastung
Genau. Teillast bedeutet, dass die Pipeline zu 5%, 10%, 15% usw ausgelastet wird.

Weiterhin bist du bei Nehalem nicht korrekt informiert. Power Gating funktioniert auch für einzelne Kerne, selbst wenn die anderen bei absoluter Volllast arbeiten.
Ich bin richtig informiert, du hast nur nicht richtig gelesen. Ich sagte doch, das greift nur im Idle. Sobald du Teillast hast, selbst wenn es nur 0,1% sind, nützt dir das nichts mehr.

In üblichen Teillastszenarien wird SMT zum großen Teil gar nicht genutzt.
Teillast ist vollkommen unabhängig vom Threading. :rolleyes:

Ähm, natürlich ist Volllast auf n Kernen (mit n<k=Kernzahl) ein Teillastszenario.
Hier reden wir mehr über Skalierung als über unterschiedliche Auslastung. Es gibt für Teillast übrigens eine eigene Spec Suite, nennt sich specpower. ;)

Ich denke nicht das AMD bisher je in der Lage war, eine entsprechende Macht auf einen Einzelhändler auszuüben, damit dieser nur noch AMD-Produkte verkauft.
Ach, und trotzdem wird behauptet, AMD würde dann zu wettbewerbswidrigen Mitteln greifen? Nicht gerade überzeugend ... :rolleyes:

Genau von diesem Fall rede ich auch. :) Die Rechnung ist im übrigen äußerst relevant, denn ein Computer besteht nicht nur aus CPU oder CPU und Board - auf das Gesamtsystem hochgerechnet werden die relativen Preisunterschiede dann ziemlich schnell deutlich kleiner.
Das glaubst aber auch nur du.

i7 920: 225 Euro
preiswertestes X58 Board (6 Slots): 133 Euro
preiswertester DDR3-1066 (3x 1 GB): 30 Euro
insgesamt: 388 Euro

X4 955: 158 Euro
preiswertestes AM3 Board (4 Slots): 57 Euro
preiswertester DDR3-1066 (2x 1 GB): 20 Euro
insgesamt: 235 Euro

Preisunterschied Prozessor: 42%
Preisunterschied gesamt: 65%

Und das ist mit Yorkfield nicht viel anders. Das einzige, was an deiner Aussage halbwegs stimmt, ist, je mehr der RAM preislich ausmacht, umso mehr rücken die Gesamtkosten zusammen. Für Deneb und Yorkfield gibt es allerdings auch noch preiswertere DDR2 Alternativen. Die fallen für den i7 grundsätzlich weg.
Sry, aber wer den i7 hier wirklich aus P/L Sicht pauschal als konkurrenzfähig hinstellen will, ist einfach nicht objektiv genug.
 
Macht sie aber nicht gerade seriös. Kennen wir ja auch aus anderen Bereichen der Gesellschaft. ;)
Das musst du mir nochmal erklären. Wenn sich ein Leser nur die bunten Balken anguckt und nicht den Text dazu liest, in dem steht, auf welcher Grundlage die bunten Balken entstanden sind, und daraus die falschen Schlüsse zieht, ist derjenige selbst schuld. Was genau macht das Magazin damit in deinen Augen unseriös?


Ja. Wer das anders sieht, dem fehlt entweder das notwendige Fachwissen oder die Einsichtigkeit. Ich vermute mal, du hattest selbst einen P4?
Das perverse an der Geschichte ist eigentlich, dass Intel mit dem Pentium-M sogar gute Hardware im eigenen Hause hatte.
Ich hatte in der Tat einen P4 (mit 2,8GHz, 533MHz FSB), wollte aber sehr wohl mehrmals wechseln, allerdings war Spielen dann nicht mal mehr so wichtig, und der P4 in meiner Windows/Officewelt vollkommen ausreichend.
Übrigens war der P4 gerade wenn seine Pipeline voll war, sehr schnell ;)
Die Spielerei mit dem P-M, der ja erst später kam, war toll, aber das ist OT.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh