ich rede von PitGST androhungen
Das ist keine Drohung, sondern eine bitte an euch, es ist nur zu eurem Wohle.
Des weiteren kommt es von der höheren Hierarchie vom Luxx, es ist also nicht nur mein alleiniger Wunsch.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
ich rede von PitGST androhungen
*OnT wieder hinzugefügt*, bitte Edit beachten
Hmm ... also wenn das von Intel erlaubt ist, hat die "Exklusivität" den Beigeschmack einer "Hofberichterstattung".
Ich mein, seit wann stellt Intel NDA Sondergenehmigungen aus ? Umsonst / ohne Gegenleistung machen die sicher nichts. Wenns so wäre, erschiene die heiß diskutierte Bettler Szenenauswahl bei Anno wieder in einem fadenscheinigen Licht.
Gegen Optimierungen ist ja eigentlich nichts einzuwenden. Und jedem ist klar, dass zum Beispiel der Intelcompiler halt besonders gut mit Intel-CPU klar kommt. Aber einige Indizien sprechen dafür das zum Beispiel bei diesem Compiler eine CPU-ID-Abfrage eingebaut ist, welche bei einem negativen Ergebnis, sprich bei einer Non-Intel-CPU, nicht alle möglichen Funktionen bei der Non-Intel-CPU verwendet. War nicht auch der Intel-Compiler Gegenstand des EU-Kartellverfahrens?
Das erscheinen des Intel/NV Logos bei den Games hat aber nix mit dem Compiler zu tun, zumindest nicht primär... Im falle des NV Logos ist das Spiel einfach im NV Programm mit drin, wie und was genau dort an Geld oder anderen Mitteln geflossen ist, sei mal dahingestellt.Glaubt ihr Intel arbeitet mit dem CIA zusammen um dann alle AMD-user aufzuspüren und zu eliminieren? Ne aber ist dieser Compiler wirklich so inteligent aufgebaut das er erkennt und jenach CPU arbeitet? Würde mich echt interesssieren aber ich finde AMD soll mal ihren eigenen Compiler bringen habe noch nie ein Game gesehen beidem ein AMD oder ATI logo erschien.....
AMD Chipsätze mit interner ATI Grafik? Ne sowas gabs nie, wenn dann wurde extern ne Grafikeinheit aufs Board gebracht...Naja eben wurde hier ja auch erwähnt wie viel Geld doch für die übernahme ATI´s verpulvert wurden aber ich meine mit der 4XXX serie hat man wieder etwas Gewinn mit ATI gemacht und sie sind auch schon ein fester teil des AMD Marketings ich meine die Dragon Plattform,AMD Fusion for gaming oder CrossfireX und die AMD Chipsätze welche nun kosten günstig mit einer ATI Grafik bestückt werden können ich denke so ist das auf dauer günstiger den hatten AMD chipsätze nicht schon immer ATI Grafik?
Und ich hoffe sehr das die 5XXXserie wenn sie denn so heißt ein genauso großer erfolg wird denn man sieht ja das einige von Nvidia abrücken ich meine die Karten kosten 40-50% mehr für 10% mehr leistung aber trotzdem haben auch die ab und zu trieber Probleme etc.
Was ist daran nicht zu gebrauchen?Ich denke wenn das mit dem Compiller wirklich so ist sind die Messergebnisse nicht zu gebrauchen da dann ein AMD nie seine wirkliche leistung erreichen kann da aber wohl sehr viel Software damit hergestellt wird fällt das nicht auf.
Vll. sollte man AMD mal beim Testen einer ihrer neuen CPU im eigenen haus zu gucken und dann mal sehen was bei einem Wurstblatt benchmark rauskommt vll. haben die CPU´s hausintern mehr Leistung??
Glaubt ihr Intel arbeitet mit dem CIA zusammen um dann alle AMD-user aufzuspüren und zu eliminieren? Ne aber ist dieser Compiler wirklich so inteligent aufgebaut das er erkennt und jenach CPU arbeitet? Würde mich echt interesssieren aber ich finde AMD soll mal ihren eigenen Compiler bringen habe noch nie ein Game gesehen beidem ein AMD oder ATI logo erschien.....
In der Szene laufen viele Bettler herum, wodurch viele Threads erzeugt werden, was AMD benachteiligt und Intel bevorzugt. Kurz: Die Meßmethode.
Bevor du mich als verrückt erklärst solltest du die folgende Antwort von Opteron durchlesen und folgende PDF lesen.Glaubt ihr Intel arbeitet mit dem CIA zusammen um dann alle AMD-user aufzuspüren und zu eliminieren? Ne aber ist dieser Compiler wirklich so inteligent aufgebaut das er erkennt und jenach CPU arbeitet? Würde mich echt interesssieren aber ich finde AMD soll mal ihren eigenen Compiler bringen habe noch nie ein Game gesehen beidem ein AMD oder ATI logo erschien.....
Ich denke wenn das mit dem Compiller wirklich so ist sind die Messergebnisse nicht zu gebrauchen da dann ein AMD nie seine wirkliche leistung erreichen kann da aber wohl sehr viel Software damit hergestellt wird fällt das nicht auf.
Vll. sollte man AMD mal beim Testen einer ihrer neuen CPU im eigenen haus zu gucken und dann mal sehen was bei einem Wurstblatt benchmark rauskommt vll. haben die CPU´s hausintern mehr Leistung??
@DrSeltsam:
Das ist aktuell viel lustiger ... die CPU Abfrage nach "IntelInside" bzw. "AuthenticAMD" ist mittlerweile passé. Das hat Intel nach den ersten Beschwerden ausgebaut und durch die Abfrage der erweiterten CPU Familie ersetzt ... ist damit etwas besser getarnt ...
Möglich, zumindest gibts seit der neuesten Compiler Version einen neuen Schalter (/QxO), der auch SSE2 Code auf "non-Intel" Chips generiert. Blöderweise immernoch langsamer als gepatchter Intel Code, aber Intel probierts wohl erstmal damit. Immerhin können sie jetzt sagen, dass "non-intel" CPUs unterstützt werden. Von welcher Qualität diese Unterstützung dabei ist .. ist wohl wieder ne andre Frage
Wers ganz genau wissen will, Einzelheiten und Techniken wie man das ganze umgeht gibts hier:
http://www.agner.org/optimize/optimizing_cpp.pdf (Seite 120, Kap 12.1ff)
ciao
Alex
Davon hat auch niemand gesprochen. Aber schön zu sehen, dass dir die Ausreden nicht ausgehen.Du stellst dir die Welt etwas zu einfach vor. Ein TWIMTBP-Spiel wie Crysis mit dem Hinweis auf TWIMTBP nur einmal zu benchen und dann in der Versenkung verschwinden zu lassen, funktioniert nicht und wird auch sicher nicht so gehandhabt.
Du solltest doch clever genug sein, um zu wissen, dass Leute selten lesen, sondern nur auf nichtssagende Balken schauen.Wo verzerrt ein Worst-Case? Bei PCGH steht (online) dabei, dass es ein solches ist - wenn es eins ist. Anhand der Videos kann sich zudem jeder ein Bild davon machen, der das Spiel mal angezockt hat (zB per Demo).
Du hast den Kontext überhaupt nicht verstanden. Es geht nicht darum, sich einzelne Szenen herauszupicken, egal ob sie viel oder wenig Last erzeugen, sondern die Anforderungen für durchschnittlich notwendige Performance wiederzugeben. Nur das hilft dem Leser wirklich weiter.Eine fordernder bis Worst-Case ist besser als eine kaum fordernde Szene, denn so weiß man, was man im Ernstfall braucht. Wird eine nicht wirklich fordernde Szene gebencht, kauft sich jemand HW, weil er meint, Spiel XY läuft darauf und kaum gehts zur Sache, krüppelt derjenige bei 20 Fps rum und verliert den Spielspaß. Und wer ist schuld? Eben, das Mag, welches ihm "vorgaukelt", das Spiel würde flüssig laufen.
Ja und in einigen Spielen ist der i7 langsamer als Yorkfield bei gleichem Takt. Sind wir wieder bei deinem Lieblingsthema der Rosinenpickerei?In einigen Spielen ...
Da hast du scheinbar eine recht seltsame Sichtweise. -10% bis +30% würde ich nicht meilenweit überlegen nennen. In meinen Augen ist deine i7 Glorifizierung sinnfrei. Denn das, was er gut kann, können GPUs oft besser. Und das, was er nicht besser kann, dafür reichen preiswertere Lösungen vollkommen aus.Ein i7-920 bietet in meinen Augen enorm viele Reserven und ist je nach Anwendungen jedem normalen (also non-OC) C2Q oder PII ebenbürtig bis meilenweit überlegen.
Bist du dir sicher, dass du weisst, was "engstirnig" bedeutet? Wir haben von Bloomfield, Yorkfield und Deneb gesprochen. Also nix mit Xeon und dergleichen. Und ja, Rosinen kann ich auch rauspicken. Dass in synthetischen Szenarien der i7 920 auch mal mehr als 10% vorne liegen kann, sollte klar sein. Das war aber ebenso wenig das Thema. Wir sprechen immer über Durchschnittswerte, wenn wir von P/L sprechen.Du bist doch sonst nicht so engstirnig... Schau dir doch nur mal Benches in Cinema4D an, nur um ein Beispiel zu nennen. Dort dreht der i7 und dessen Serverableger Xeons Kreise um die Konkurenz, egal in welcher Form.
Da schafft ein Xeon 5580er Gespann fast die selbe Leistung wie ein über 4GHz OC'ed S771 Quad Gespann mit ebenso 8 Cores...
Da täuschst du dich. Soweit ich weiss, ist bei allen i5 SMT deaktiviert. Und das wird sich in diversen Anwendungen natürlich negativ auf die Performance auswirken. Intel spezifiziert den Gewinn durch SMT mit etwa 10-30%.Btw ist der i7 freilich eine Server-CPU oder für Fps-Junkies sowie professionelles Arbeiten. Daher kommt mit i5 ja nun die kaum langsamere, aber viel günstigere Mainstream-Version.
Dass ich von der µArch und nicht von der ISA sprach, sollte klar sein. Gute Hardware war zB der K8, Netburst hingegen war schlecht.Was ist gute Hardware?
Sowohl AMDs als auch Intels CPUs basieren beide auf der x86-Architektur, die mit dem 1978 vorgestellten Intel 8086 (16bit) eingeführt wurde und später als IA-32 auf 32bit erweitert wurde. Sowohl Intel als auch AMD produzieren auf Basis dieser Architektur, die sie jeweils um weitere Funktionen erweitert haben. Der in der Hinsicht größte Erfolg, meiner Meinung nach, gelang AMD mit x86-64, was ja auch Intel nun benutzen darf. Die Unterschiede zwischen AMD und Intel sind also in der Hinsicht garnicht mal so groß.
Es gibt für Windows unzählige Compiler, nicht nur den ICC.Welchen compiler soll ich denn nun einsetzen? Den vom Marktführer (Intel) oder... ja welchen? AMD selbst bietet, wie meine Kurzsuche ergab, nur Einen für HPC-Entwicklungen an, ebenso wie Sun.
Erstmal sind die nicht uralt. Und zweitens hat dann Intel "uralt" IGPs. Trotzdem verkaufen sie genügend Mainboards damit. Vielleicht ist dir das nicht bewusst, aber es geht bei Plattformen um mehr als nur CPUs.kannst du lesen? habe ich sowas geschrieben?!
ist doch logisch das dadurch keine einnahmen gemacht werden...
es gibt online genug AMD PCs zu kaufen, nur hatten die bisher uralt dualcore prozi drinnen.
Weil die leider genauso kurzsichtig sind wie du? Klar hätte man kurzfristig besser dagestanden, langfristig wäre aber sogar nVidia an AMD vorbeigezogen. Die Entscheidung für den Kauf von ATI war absolut richtig. Über den Preis kann man sicherlich diskutieren. Die Früchte siehst du aber schon seit einiger Zeit. Und da wird in Zukunft noch etliches kommen.weil Mrd. durch den kauf von ATi verbrannt worden sind, falsche entscheidungen im management? ich weiß nicht....
dadurch war AMD im desktop-geschäft nur wenig konkurrenzfähig, wie es auch Mercury Research feststellt.
Das ist falsch. Shanghai kann sogar die Spannung für einzelne Kerne bei Bedarf absenken, das kann Nehalem nicht. Das einzige, was Nehalem besser kann, ist die Kerne im Idle noch aggressiver schlafen zu legen. Nur nützt dir das nichts bei Teillast.Zum Thema Teillast müssen wir natürlich sagen, dass dies in erster Linie den Core i7 benachteiligt, die CPU mit den aktuell effizientesten Energiesparfeatures bei Teillast
Was hier völlig irrelevant ist. Schliesslich erhöht sich dann auch die Performance.hinzu kommt der Punkt SMT der speziell bei synthetischer Volllast den Verbrauch erhöht.
Gähn ... Weisst du überhaupt, was Teillast ist? Das ist nicht nur maximale Last bezogen auf eine unterschiedliche Anzahl von Kernen. Ausserdem siehst du hier nicht wirklich, wie die Relationen sind, NB und so.Core 2 und Phenom II nehmen sich in diesem Punkt übrigens nichts:
http://ht4u.net/reviews/2009/leistungsaufnahme_cpus_praxis/index26.php
Nein, AMD war natürlich noch nie in der Situation, Produkte zu vermarkten und Partner zu finden. Absolut logisch ...Es geht darum, dass du keine Beantwortung von hätte wäre wenn fragen treffen kannst, wenn es die entsprechende Situation für AMD schlicht nie gab.
Du solltest schon beim Thema bleiben. Es ging um i7 vs Yorkfield/Deneb. Da ist diese Rechnung deplatziert.Hmm, ein 10% höherer PC-Preis bei einem Leistungsvorteil von 30% (nicht taktbereinigt) im CPU-Limit. Du bemerkst die Vielschichtigkeit der Betrachtungsmöglichkeiten?
Ein Durchschnittswert hilft nicht, da man so nicht weiß, wie mies das Spiel stellenweise läuft. So kommt Frust auf.mr.dude schrieb:Nur das hilft dem Leser wirklich weiter.
Es sind bis zu +60%. Nur mal am Rande.mr.dude schrieb:-10% bis +30% würde ich nicht meilenweit überlegen nennen.
In zweien bisher. Dem gegenüber steht mehr als ein Dutzend, wo es anders ist. Zumal sich die Fps-Differenzen bei diesen beiden Titel in einem Bereich bewegen, der in der Praxis vollkommen egal ist.mr.dude schrieb:Ja und in einigen Spielen ist der i7 langsamer als Yorkfield bei gleichem Takt.
[...]Es sind bis zu +60%. [...]
Wenn sie nicht lesen sind sie selbst schuld. Mehr als darauf hinweisen kann man sie nicht.Du solltest doch clever genug sein, um zu wissen, dass Leute selten lesen, sondern nur auf nichtssagende Balken schauen.
Wenn mein System im Durchschnitt gut da steht, im Worstcase aber nur 5fps schafft, verliere ich den Spaß und verfluche entweder den Test oder mein System...Du hast den Kontext überhaupt nicht verstanden. Es geht nicht darum, sich einzelne Szenen herauszupicken, egal ob sie viel oder wenig Last erzeugen, sondern die Anforderungen für durchschnittlich notwendige Performance wiederzugeben. Nur das hilft dem Leser wirklich weiter.
Nein, es war nicht klar. War der K8 persé gut, genauso wie die P4 schlecht waren? Reichlich engstirnig. Genug des Exkurses.Dass ich von der µArch und nicht von der ISA sprach, sollte klar sein. Gute Hardware war zB der K8, Netburst hingegen war schlecht.
Dito: Bleibt beim Thema. Es geht um die Benachteiligung AMDs in Revies.Du solltest schon beim Thema bleiben. Es ging um i7 vs Yorkfield/Deneb. Da ist diese Rechnung deplatziert.
Jo, aber es ist per-se erst einmal etwas "merkwürdig".Man kann vieles glauben, oder annehmen, muss es aber nicht
Jo ist ok, hängt halt von der Frage ab, wie wichtig das Bettlerszenario ist. Wenn die KI das macht, ist das ein Punkt, aber baut die vielleicht kurz später nicht auch ein Bettlerhaus ? Muss man auch sooft bei KI Spielern nachschauen ?Ich sehe hier ganz klar keine Benachteiligung, was bringt es mir eine Szene zu testen, wo massiv weniger Last erzeugt wird, die CPUs alle schön beieinander liegen aber im Ernstfall ich als Nutzer in den Ofen guck, wenn nur noch 10FPS raus kommen?
(...)
diese Situation kommt in jeder längeren Partie wohl ähnlich vor, man muss nur mal zur KI gucken gehen...
Bist du dir sicher, dass du weisst, was "engstirnig" bedeutet? Wir haben von Bloomfield, Yorkfield und Deneb gesprochen. Also nix mit Xeon und dergleichen. Und ja, Rosinen kann ich auch rauspicken. Dass in synthetischen Szenarien der i7 920 auch mal mehr als 10% vorne liegen kann, sollte klar sein. Das war aber ebenso wenig das Thema. Wir sprechen immer über Durchschnittswerte, wenn wir von P/L sprechen.
Und dass der Nehalem Xeon in Cinebench Kreise um die Konkurrenz dreht, kann man auch nicht sagen. Schau dir mal Istanbul an. Oder besser noch den Server Standard Linpack, dann weisst du, wer um wen Kreise dreht. Und die aktualisierte HT3/DDR3 Server Plattform steht bei AMD ja erst noch bevor.
This manual is for advanced programmers and software developers
AMD hat nicht die Ressourcen um einen eigenen Compiler zuentwickeln, obwohl dies noch am einfachsten ist. Schwieriger wird es wohl sein diesen gegen 80%-Marktmacht durchzusetzen bzw. zu etablieren.
Das erscheinen des Intel/NV Logos bei den Games hat aber nix mit dem Compiler zu tun, zumindest nicht primär... Im falle des NV Logos ist das Spiel einfach im NV Programm mit drin, wie und was genau dort an Geld oder anderen Mitteln geflossen ist, sei mal dahingestellt.
AMD Chipsätze mit interner ATI Grafik? Ne sowas gabs nie, wenn dann wurde extern ne Grafikeinheit aufs Board gebracht...
Aber AMD Chipsätze gabs eigentlich nur eher selten, damals zu Athlon Zeiten, war VIA wohl der Topchipsatz bauer, dann zu Athlon XP Zeiten kamen die NForce2 Bretter richtig in Fahrt...
Bei den ersten A64ern war der NForce3/4 das non Plus Ultra... usw. Nach der Übernahme von AMD entwickelten sich erst die Chipsätze mit dem Namen AMD weiter...
Übrigens, es gibt auch Intel Boards mit ATI Grafikeinheit
Was ist daran nicht zu gebrauchen?
Wenn die Software so im Laden steht, dann sollte man sie auch so testen... Was nutzt mir das Wissen über potentiell schnellere AMD CPUs wenn ichs als Endanwender, der nur diese Software nutzen will/kann/muss nicht umsetzen kann...
Das ist falsch. Shanghai kann sogar die Spannung für einzelne Kerne bei Bedarf absenken, das kann Nehalem nicht. Das einzige, was Nehalem besser kann, ist die Kerne im Idle noch aggressiver schlafen zu legen. Nur nützt dir das nichts bei Teillast.
Zitat:
Zitat von mr.dude
Nur das hilft dem Leser wirklich weiter.
Ein Durchschnittswert hilft nicht, da man so nicht weiß, wie mies das Spiel stellenweise läuft. So kommt Frust auf.
Jo, aber es ist per-se erst einmal etwas "merkwürdig".
Wie siehts eigentlich mit den restlichen i5 benches im Heft aus, kann da jemand (Unabhängiges) was dazu sagen ?
Das ist falsch. Shanghai kann sogar die Spannung für einzelne Kerne bei Bedarf absenken, das kann Nehalem nicht. Das einzige, was Nehalem besser kann, ist die Kerne im Idle noch aggressiver schlafen zu legen. Nur nützt dir das nichts bei Teillast.
Was hier völlig irrelevant ist. Schliesslich erhöht sich dann auch die Performance.
Gähn ... Weisst du überhaupt, was Teillast ist? Das ist nicht nur maximale Last bezogen auf eine unterschiedliche Anzahl von Kernen. Ausserdem siehst du hier nicht wirklich, wie die Relationen sind, NB und so.
Nein, AMD war natürlich noch nie in der Situation, Produkte zu vermarkten und Partner zu finden. Absolut logisch ...
Du solltest schon beim Thema bleiben. Es ging um i7 vs Yorkfield/Deneb. Da ist diese Rechnung deplatziert.
Jo ist ok, hängt halt von der Frage ab, wie wichtig das Bettlerszenario ist. Wenn die KI das macht, ist das ein Punkt, aber baut die vielleicht kurz später nicht auch ein Bettlerhaus ? Muss man auch sooft bei KI Spielern nachschauen ?
Geht halt darum, ob das Szenario jetzt eher Regel oder Ausnahme ist. Wenns wirklich die Regel ist, ok.
ciao
Alex
Wie schon angesprochen gewinnt Anno ja auch durch aktives SMT, das lässt auf sehr gute Threadoptimierung schließen, im allgemeinen müssten ebenso der Phenom und die anderen Quadcore CPUs sehr gute Werte liefern, tun sie aber nicht... oder nur bedingt.
Wie siehts eigentlich mit den restlichen i5 benches im Heft aus, kann da jemand (Unabhängiges) was dazu sagen ?
Das Bettlerszenario ist trotz evt. geringer Relevanz scheinbar ein Gutes um die Leistungsfähigkeit der jeweiligen Plattform zu messen, nicht? Wir haben es trotz aller Praxisnähe immernoch mit synthetischen Benches zu tun, denn sonst wären sie nicht vergleichbar.
Ok, nennen wir das Kind mal Anno "CPU worst case" Szenario, dann ist es okAber ich mein, was soll denn das? Wir brauchen uns doch hier nicht auf biegen und brechen ein Testszenario hinstellen, und sagen, das und das darfst du aber nicht tun sonst geht womöglich die FPS Rate in den Keller usw.
Ist doch unfug, dann doch lieber die Performancefressendsten Szenen Benchen um zu sehen, was im Ernstfall wirklich benötigt wird.
Dazu gibts bei PCGH nen guten Artikel:Wie schon angesprochen gewinnt Anno ja auch durch aktives SMT, das lässt auf sehr gute Threadoptimierung schließen, im allgemeinen müssten ebenso der Phenom und die anderen Quadcore CPUs sehr gute Werte liefern, tun sie aber nicht... oder nur bedingt.
Dazu scheint die Speicherlatenz unter Last noch etwas zu bewirken. Ist zumindest meine Interpretation der i5 750 Werte, der verliert 5% Gegenüber dem gleichgetakteten i7 920. Unterschied ist der L3 Takt und der 3te Speicherkanal. Muss deshalb eins von beiden sein.
Das meinte ich mit den 8 ThreadsUnd SMT!
Das ist falsch. Erstmal reden wir über wirtschaftliche Faktoren. Und AMD macht immer noch fast doppelt so viel Umsatz. Und zweitens liegt nVidia technologisch deutlich hinter AMD zurück. Kaum konkurrenzfähige Chipsätze mehr, schlechtere GPU Technologie (weniger Performance pro mm², öfters schlechtere Effizienz, älteres Feature Set, etc), soweit mir bekannt ist, hat AMD bisher auch als einziger ein SDK für kompletten OpenCL Support bereitgestellt, CUDA ist irrelevant, ein besserer Herstellersupport bei nVidia wäre mir auch neu, ich habe als nVidia Besitzer zumindest noch nichts davon gemerkt, usw.im moment ist Nvidia übigends schon vor ATI/AMD wegen: CUDA, 3D technik und besserer bildqualität, besserer herstellersupport usw..
Ach, also sind alle Grafikkarten Tests damit hinfällig? Oder veröffentlicht ihr in Zukunft nur noch Min-FPS Charts? Äusserst einleuchtend ...Ein Durchschnittswert hilft nicht, da man so nicht weiß, wie mies das Spiel stellenweise läuft.
Schnell mal bei CB geschaut, dort liegt zB der Q9550 immer vor dem i7 920. GRID kannst du von mir aus ausklammern, da dort wohl die Grafikkarte absolut limitiert. Bleiben immer noch 8 Spiele. Ok, gleich kommt wieder, nur 9800 GTX+ bla bla, kein 256475x Hyper-Mega-CF-SLI ...In zweien bisher. Dem gegenüber steht mehr als ein Dutzend, wo es anders ist. Zumal sich die Fps-Differenzen bei diesen beiden Titel in einem Bereich bewegen, der in der Praxis vollkommen egal ist.
Macht sie aber nicht gerade seriös. Kennen wir ja auch aus anderen Bereichen der Gesellschaft.Wenn sie nicht lesen sind sie selbst schuld. Mehr als darauf hinweisen kann man sie nicht.
Ja. Wer das anders sieht, dem fehlt entweder das notwendige Fachwissen oder die Einsichtigkeit. Ich vermute mal, du hattest selbst einen P4?War der K8 persé gut, genauso wie die P4 schlecht waren?
Davon war aber nie die Rede. Es ging um i7 920 vs Q9550/X4 940/X4 955. Wenn du von gleichem Takt ausgehst, dann solltest du bedenken, dass sich auch das P/L Verhältnis weiter verschiebt. Der i7 920 ist fast doppelt so teuer wie zB der X4 810. Da sind auch bis zu 60% keine Empfehlung. Und je höher die Taktraten werden, umso schlechter wird es für den i7.Ich spreche nicht von SMT, sondern von der "IPC" gegenüber einem gleichgetakteten Yorkie.
Du hast das aber offensichtlich falsch verstanden. Mit "maximal 10%" habe ich trotzdem von durchschnittlicher Performance gesprochen. So genau lässt sich das bisher schlecht spezifizieren, da es von Plattform zu Plattform teils signifikante Unterschiede geben kann.Und nein, ich hab dir extra Fett markiert, was du gesagt hast, du sprachst explizit von maximal 10%, egal in welcher Art von Anwendung.
Das lässt sich in beide Richtungen interpretieren. Daher sind Durchschnittswerte für die meisten Leute am aussagekräftigsten.P/L gänzlich verallgemeinert ist zwar schön und gut, lässt sich auch klasse vergleichen, aber was bringts dem Kunden, wenn er nur Anwendungen fährt, die gänzlich andere Werte ausspucken... Das aber nur als Hinweis nebenbei.
Istanbul ist hervorragend vergleichbar. 2 physische Kerne mehr, zwei logische Kerne weniger. Hier treffen zwei Technologien aufeinander, die gleichwertig ausgeprägt sind, aber unterschiedliche Konzepte verfolgen. Nicht vergleichbar hingegen ist Nehalem mit Shanghai/Yorkfield, was hier ja ständig gemacht wird. Das dumme ist nur, Intel hat den i7 für 1% oder weniger des Marktes veröffentlicht und einige glauben, dieser wäre repräsentativ.Im übrigen, der Istambul ist nun mal gar nicht vergleichbar, ich hab exta Corezahlgleichheit gewahrt (und extra ein Intel Vergleichssystem genommen, damit es nicht heist, hier wird Intel bevorzugt) und du kommst mit dem Istambul... (den es nichtmal für den Desktop Bereich gibt)
Genau. Teillast bedeutet, dass die Pipeline zu 5%, 10%, 15% usw ausgelastet wird.Teillast ist doch so 50% auslastung
Ich bin richtig informiert, du hast nur nicht richtig gelesen. Ich sagte doch, das greift nur im Idle. Sobald du Teillast hast, selbst wenn es nur 0,1% sind, nützt dir das nichts mehr.Weiterhin bist du bei Nehalem nicht korrekt informiert. Power Gating funktioniert auch für einzelne Kerne, selbst wenn die anderen bei absoluter Volllast arbeiten.
Teillast ist vollkommen unabhängig vom Threading.In üblichen Teillastszenarien wird SMT zum großen Teil gar nicht genutzt.
Hier reden wir mehr über Skalierung als über unterschiedliche Auslastung. Es gibt für Teillast übrigens eine eigene Spec Suite, nennt sich specpower.Ähm, natürlich ist Volllast auf n Kernen (mit n<k=Kernzahl) ein Teillastszenario.
Ach, und trotzdem wird behauptet, AMD würde dann zu wettbewerbswidrigen Mitteln greifen? Nicht gerade überzeugend ...Ich denke nicht das AMD bisher je in der Lage war, eine entsprechende Macht auf einen Einzelhändler auszuüben, damit dieser nur noch AMD-Produkte verkauft.
Das glaubst aber auch nur du.Genau von diesem Fall rede ich auch. Die Rechnung ist im übrigen äußerst relevant, denn ein Computer besteht nicht nur aus CPU oder CPU und Board - auf das Gesamtsystem hochgerechnet werden die relativen Preisunterschiede dann ziemlich schnell deutlich kleiner.
Das meinte ich mit den 8 Threads
@Athlon64:
Danke, was für ne Grafikkarte und welche Auflösung wurden da getestet ?
ciao
Alex
Das musst du mir nochmal erklären. Wenn sich ein Leser nur die bunten Balken anguckt und nicht den Text dazu liest, in dem steht, auf welcher Grundlage die bunten Balken entstanden sind, und daraus die falschen Schlüsse zieht, ist derjenige selbst schuld. Was genau macht das Magazin damit in deinen Augen unseriös?Macht sie aber nicht gerade seriös. Kennen wir ja auch aus anderen Bereichen der Gesellschaft.
Ich hatte in der Tat einen P4 (mit 2,8GHz, 533MHz FSB), wollte aber sehr wohl mehrmals wechseln, allerdings war Spielen dann nicht mal mehr so wichtig, und der P4 in meiner Windows/Officewelt vollkommen ausreichend.Ja. Wer das anders sieht, dem fehlt entweder das notwendige Fachwissen oder die Einsichtigkeit. Ich vermute mal, du hattest selbst einen P4?
Das perverse an der Geschichte ist eigentlich, dass Intel mit dem Pentium-M sogar gute Hardware im eigenen Hause hatte.