Zeig mir ein Server-Board mit dem X58.
Wer redet explizit vom X58? Meine Bemerkung bezog sich auf die gesamte Plattform. Und Bloomfield ist nichts anderes als ein Server Derivat. Mit einem Chipsatz, der mehr auf Clients zugeschnitten wurde (Multi-GPU etc.) und unreg RAM. Das war es im Grunde auch schon. Das war aber gar nicht das eigentliche Thema, von dem du wie gewohnt nur ablenken wolltest.
Du scheinst nicht zu verstehen, dass der i7 keine Server-CPU ist, nur weil eine vergleichbare CPU auch in 2-CPU Workstations zum Einsatz kommt.
Ich verstehe sehr gut. Du scheinst nur nicht zu verstehen, dass i7 unter der Haube nichts anderes als ein Xeon X55xx ist. Oder anders formuliert, alle sind Nehalems, nur mit verschiedenen Bezeichnungen. Es ist daher völlig egal, ob wir nun über Desktop oder Server sprechen. Ich sprach vom Chip ansich, also von der Technik und nicht von irgendwelchem Marketing.
Natürlich, der P4 war also auch keine Desktop-CPU.
Kapierst du es langsam mal? Wir reden nicht über Desktop vs Server, sondern über Chip vs Chip.
Warum verwundert dich diese Beziehung dann im Beispiel des i7?
Wo verwundert es mich denn? Die Aussage von y33H@ war einfach nicht richtig. Das ist alles. Wie schon mehrfach erwähnt, du solltest gründlicher lesen.
Nein, ist es nicht. Die Phenoms performen schlichtweg nicht "miserabel". Langsamer als die im Vergleich herangezogenen Intel Chips, ja. Aber definitiv nicht "miserabel".
Sehr komisch, meine letzte Nachricht an dich ging 4 Stunden später raus als deine letzte an mich. 23. Juni 20:39 hast du die Antwort erhalten.
Da muss ich dich enttäuschen. Ich habe keine PN von dir am 23.6. erhalten.
Das du eine Leistungdifferenz, die nicht in dein Weltbild passt nicht anerkennen willst, habe ich leider erwartet
Toll, wenn man sich die Dinge immer so einfach schönreden kann, gell? Ich habe mit Sicherheit etwas mehr Erfahrung in solchen Dingen, vor allem natürlich, weil ich die Beziehung von Hard- und Software untersuche. Du kennst anscheinend nicht mal eines von beiden wirklich. Mit Weltbild hat das nichts zu tun. Ich bin zu 100% Pragmatiker, da kannst du dir sicher sein.
Pauschalisierte Aussagen, die keinerlei Basis haben, selbst wenn man sich auf ein konkretes Szenario bezieht, welches nebenbei gesagt noch etliche Fehler aufweist, sind einfach BS und nichts anderes. Und genau das findet man in deinem "IPC Vergleich". Unterm Strich ein Ungenügend.
Es geht um mr dude, der die X58-Plattform eine Serverplattform nennt und eine Vergleichbarkeit zu aktuellen AMD-Desktop-Systemen verneint.
Niemand hat behauptet, dass i7 Server wäre.
Es ging überhaupt nicht um Plattformen, sondern nur um die Prozessoren selbst.
Ist manchmal schon zum Kopfschütteln, was du dir immer wieder so zusammenphantasierst. Und das trotz mehrfacher Klarstellungen.
Der Knackpunkt ist schlicht die resultierende Leistungsfähigkeit, aber eben nicht die Architektur.
Nein. Wenn ich Technologien vergleiche, dann immer nur basierend auf der Architektur. Ich würde doch auch keinen K8 mit einem Atom gleichsetzen, nur weil ein 1,6 GHz Atom in einem breiten Anwendungsfeld die Performance eines 1 GHz K8 liefert und dann behaupten, Atom ist miserabel, weil es auch noch 3 GHz K8 gibt. Performance/mm² und Performance/Watt sind übrigens weitere Leistungsmerkmale neben der Logik der Architektur, wenn man Technologien miteinander vergleicht.
Wenn das so wäre, würde der CoreI7 in allen multithreaded Apps total abgimpen, weil die Performance ungleichmässig verteilt würde.
Nein. Workloads werden nicht ungleichmässig verteilt. Das habe ich auch nicht geschrieben. An der Stelle würde SMT dann auch keinen Sinn mehr machen.
Priortät haben die physikalischen Kerne, erst dann werden sie in logische aufgeteilt. Diese Analyse kostet übrigens Performance, deshalb ist der CoreI7 in Spielen mit SMT langsamer. Ein OS braucht SMT-Support, um damit umgehen zu können, den gibts seit Windows2002.
Meinst du Analyse in Hardware oder Software? Soweit ich weiss, unterschiedet der Windows (XP, Vista) Thread Scheduler noch nicht zwischen physischen und logischen Prozessoren. Warum hier Nehalem teilweise abfällt, kann man nur spekulieren. Meiner Meinung nach liegt das eher daran, dass eben Ressourcen geteilt werden müssen (Caches, interne Puffer, Rechenwerke, etc.). Das macht einen Thread natürlich weniger leistungsfähig als wenn er die kompletten Ressourcen eines Kerns hätte. Und das kann sich eben negativ auswirken, wenn Threads unterschiedliche Workloads mitbringen, was ja vor allem bei Spielen oftmals der Fall ist. Wie Opteron schon sagte, zwei Threads landen dann mitunter auf einem Kern, obwohl zwei Kerne hier besser wären und so jeder Thread seine eigenen Ressourcen hätte.
Nein, ab 2002 funktioniert SMT auch korrekt. Ich kann dazu jetzt nichts raussuchen, aber ich bin davon überzeugt, dass das OS erst die physikalischen Kerne auslasten wurd.
Das könnte man ja relativ einfach rausbekommen. Man nehme 8 Super Pi Instanzen, starte jeweils einen 32M Durchlauf, und stoppt dann gezielt einzelne Durchläufe. Dabei die Auslastung beobachten ...
Wobei hier noch nicht geklärt wäre, wie es bei Teillast ausschaut.