Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Auf Nehalem-Basis kommt sicher auch noch was
Schon längst angekündigt worden der Gulftown 32nm 6 Kerne für Sockel1366 (X58), und als erstes kommt eine Extreme Version. Welche "ab" Taktraten da Intel nimmt kann sicher jeder an drei Finger abzählen, für den Preis braucht man wohl eher 100 Menschen die alle ihre 10 Finger haben
Ob der auf ein betagtes 4Way nf2200 Board passt der Opteron hmm.
Immer diese Vorurteile
Hier geht es um den Opteron und es wird wohl keinen geben der eine Server Plattform zum Spielen nimmt. Aber es scheint wohl so zu sein, dass in deinem Leben nur Spiele wichtig sind. Das macht einem Sorgen. Geh doch mal an die Luft, das befreit ungemein.
Auch ein 6 Kern mit 2600MHz wird beim Spielen genauso schnell wie ein 4 Kern mit 2600MHz. Insofern ist dein Beitrag noch erschreckender.
Für meinen Geschmack fehlen im Review allerdings Tests zu Datenbanken und Virtualisierung.
Ordentlich Antwort seitens AMD auf die Nehalem-Xeons.Hier gibt es ein Review zum Istanbul. Insgesamt konnte man nochmals ordentlich an der Effizienzschraube drehen. So liegt man nahezu gleich auf mit dem Nehalem Xeon. Die Performance gegenüber dem Nehalem scheint auch relativ ausgeglichen zu sein. Mal liegt Intel vorne, wie bei Java oder Rendering, mal AMD, wie bei Linpack oder openSSL (Verschlüsselung).
Das leistungsfähigste Paket dürfte momentan ein 4P Opteron 8435 System sein, abgesehen von 8P, dass die Messlatte für Effizienz am höchsten legt. Interessant ist hierbei auch der Vergleich zur Dunnington Plattform, dem monolithischen 6-Kerner von Intel, welches mit Faktor 3 regelrecht deklassiert wird. Zumindest, wenn man SPECpower für aussagekräftig hält.
Und das Problem dabei ist welches? Bei Vmark waren es vorher 100%. Also sind nunmehr 50% doch ordentlich. Oder hast du geglaubt, Istanbul wird doppelt so schnell wie Shanghai? Und dass Vmark wenig aussagekräftig ist, hatten wir doch schon geklärt. Also schauen wir uns mal vApus an. Hier liegt der Nehalem zwar weiterhin vorne. Aber hauptsächlich bedingt durch seinen höheren Takt. In Q3 sollen ja weitere Istanbuls kommen. Mal schauen, ob AMD da bis 3 GHz hoch gehen kann. Bezüglich Leistungsaufnahme scheint man ja noch etwas Spielraum zu haben, wenn Anandtechs vorläufigen Ergebnisse korrekt sind und das Istanbul System 10-15% sparsamer unter Last als das Nehalem Xeon System arbeitet. Und wie gesagt, nicht zu vergessen, AMD muss noch den Nachteil der veralteten Plattform kompensieren (HT1, Dual Channel DDR2). Da liegt noch Potenzial. Ich sehe daher keinen Grund, warum man sich nicht auch im High-End Bereich mit Intel messen sollte. Wobei das letztendlich gar nicht so entscheidend aus wirtschaftlicher Sicht ist.Virtualisierungstests gibts bei Anandtech, hier führt der Nehalem unter ESX 3.5 leicht, unter ESX 4.0 schon deutlicher (den Punkt hatten wir ja neulich schon, RVI nutzt der Shanghai schon unter Version 3.5) bei vApus, bei VMark hingegen fehlen immer noch über 50%.
Wenn man sich schon auf Anandtech stützt, dann schon.Auch 50% sind noch eine Menge Holz - und VMark ist nur ein andere Szenario, aber deswegen nicht weniger relevant oder aussagekräftig
Wie gesagt, solche grossen Modelle spielen eher weniger eine Rolle. Laut AMD basieren über 90% der Server nicht auf solchen Chips. In der momentan wirtschaftlich angespannten Situation sicherlich auch noch etwas mehr. Und die Fläche ist eher 20% grösser, etwa 320 mm² vs 265 mm². Das dürfte AMD dank Immersionslithografie aber gut kompensieren können. Zumal diese Chips nur einen geringen Anteil aller produzierten Chips ausmachen.Taktspielräume hingegen bietet auch Nehalem noch, siehe die höher taktenden Desktopversionen. Negativ für AMD sind nur die höheren Produktionskosten durch die gut 30% größere Fläche, und das bei geringerem Verkaufspreis.
Wenn man sich schon auf Anandtech stützt, dann schon.
Und die Fläche ist eher 20% grösser, etwa 320 mm² vs 265 mm².
Das dürfte AMD dank Immersionslithografie aber gut kompensieren können. Zumal diese Chips nur einen geringen Anteil aller produzierten Chips ausmachen.
Und entsprechend Anandtech ist VMmark eben weniger praxisbezogen. Entweder man akzeptiert das oder ignoriert Anandtech. Sie haben das ja auch nochmal begründet.Nun, was willst du hören, zwei Testszenarien, zwei entsprechende Ergebnisse.
Hinzu können auch noch Probleme beim Co-scheduling komme. Man hat das auch nochmal schön verdeutlicht. Wichtig dabei ist, dass die Anzahl der virtuellen CPUs ein Vielfaches der logischen CPUs ist. Wie im Beispiel kann so der Abstand bei 32 virtuellen CPUs schnell auf über 30% anwachsen, da Nehalem mit 16 logischen CPUs für so ein Szenario besser konfiguriert ist als Istanbul mit 12. In der Praxis spielt das aber keine Rolle, da VMs ja auf das vorhandene System angepasst werden.It gives us a clue why the VMmark scores are so extreme: the huge amount of VM’s might overemphasize world switch times for example. But even with light loads, it is very rare to find more than 20 VM’s on top of DP processor.
Korrekt, die Zweifel wurden bestätigt. Es sind mit ESX4 beim Nehalem keine 25% Mehrleistung, sondern 10%.Auch die ESX-Versionsproblematik ist ja nun geklärt, der angezweifelte RVI-Vorteil noch in Version 3.5 ist ja nun wohl endlich ohne weitere Diskussionen belegt.
By default, the VMware ESX 3.5 scheduler logically partitions the available cores into groups of four, called “Cells”. The objective is to schedule VM’s always on the same cell, thereby making sure that the VM’s stay in the same node and socket. This should make sure that the VM always uses local memory (instead of needing remote memory of another node) and more importantly that the caches stay “warm”.
Woher stammen bitteschön die 346 mm²? Ich kenne zumindest keine offiziellen Angaben dazu. Und bisherige Schätzungen gingen maximal von etwa 320 mm² aus. Was ich nicht nur anhand des Dies, sondern auch eines Wafers bestätigen kann.Wenn du mich schon korrigierst, dann bitte mit korrekten Werten 346mm²/265mm² = 1,306 -> Gut 30%
Immersionslithografie dient dazu, in einem Flüssigkeitsmedium exakter belichten zu können. Dass damit kleinere Strukturen möglich sind, ist letztendlich nur ein positiver und sicherlich auch gewollter Effekt. Intel belichtet bei ihrem 45 nm Prozess noch konventionell, muss daher doppelt belichten. Und das kostet logischerweise nicht nur Zeit, sondern auch Geld. Ob Immersionslithografie sogar bessere Yields mit sich bringt, kann ich nicht sagen. Wenn dem so sein sollte, umso besser für AMD. Das war aber nicht der entscheidende Punkt.Immersionslithografie dient eher zum Erreichen kleiner Strukturgrößen durch eine bessere Abbildung beim Belichtungsvorgang, als das es Auswirkungen auf die Yields hat
Ich denke eher, dass es unkritischer wird. Quad Core und Triple Channel bietet ein besseres Kern/Channel Verhältnis als Octa Core und Quad Channel. Das sollte sich gerade bei den Latenzen auswirken. Beckton wird daher nicht mehr als linear über Kerne und Takt skalieren. AMD stehen hingegen noch mehr Updates bevor. Erste G34 Boards gibt es ja bereits auf der Computex zu bestaunen. Neben Quad Channel gibt es wie schon gesagt HT3 und DDR3-1600, neben weiteren Funktionen natürlich, wie IOMMU. Fragt sich nur, wenn AMD soweit ist. Bisher geht man von 1H 2010 aus. Früher erscheint AMDs 12-Kerner auch nicht, der das Gegenstück zu Beckton sein wird. Vorher soll allerdings erst noch die Fiorano Plattform kommen, welche zumindest teilweise Updates mitbringt.Problematischer wird es dann Ende des Jahres gegen Beckton, mit 8-Kernen auf Nehalem-Basis, Quad-Channel Interface und dem mit der CPU-Anzahl skalierenden QPI-Vorteil wird es selbst für das nachfolgende 12-Kern Monster Magny-Cours ziemlich schwierig werden.
Und entsprechend Anandtech ist VMmark eben weniger praxisbezogen. Entweder man akzeptiert das oder ignoriert Anandtech. Sie haben das ja auch nochmal begründet.
Hinzu können auch noch Probleme beim Co-scheduling komme. Man hat das auch nochmal schön verdeutlicht. Wichtig dabei ist, dass die Anzahl der virtuellen CPUs ein Vielfaches der logischen CPUs ist. Wie im Beispiel kann so der Abstand bei 32 virtuellen CPUs schnell auf über 30% anwachsen, da Nehalem mit 16 logischen CPUs für so ein Szenario besser konfiguriert ist als Istanbul mit 12. In der Praxis spielt das aber keine Rolle, da VMs ja auf das vorhandene System angepasst werden.
Korrekt, die Zweifel wurden bestätigt. Es sind mit ESX4 beim Nehalem keine 25% Mehrleistung, sondern 10%.
Es wurde übrigens auch nochmal verdeutlicht, dass Interprozessorkommunikation keine entscheidende Rolle spielt, da die VMs entsprechend konfiguriert werden, so dass der Datenverkehr minimiert wird.
Woher stammen bitteschön die 346 mm²? Ich kenne zumindest keine offiziellen Angaben dazu. Und bisherige Schätzungen gingen maximal von etwa 320 mm² aus. Was ich nicht nur anhand des Dies, sondern auch eines Wafers bestätigen kann.
Immersionslithografie dient dazu, in einem Flüssigkeitsmedium exakter belichten zu können. Dass damit kleinere Strukturen möglich sind, ist letztendlich nur ein positiver und sicherlich auch gewollter Effekt. Intel belichtet bei ihrem 45 nm Prozess noch konventionell, muss daher doppelt belichten. Und das kostet logischerweise nicht nur Zeit, sondern auch Geld. Ob Immersionslithografie sogar bessere Yields mit sich bringt, kann ich nicht sagen. Wenn dem so sein sollte, umso besser für AMD. Das war aber nicht der entscheidende Punkt.
Ich denke eher, dass es unkritischer wird. Quad Core und Triple Channel bietet ein besseres Kern/Channel Verhältnis als Octa Core und Quad Channel. Das sollte sich gerade bei den Latenzen auswirken. Beckton wird daher nicht mehr als linear über Kerne und Takt skalieren. AMD stehen hingegen noch mehr Updates bevor. Erste G34 Boards gibt es ja bereits auf der Computex zu bestaunen. Neben Quad Channel gibt es wie schon gesagt HT3 und DDR3-1600, neben weiteren Funktionen natürlich, wie IOMMU. Fragt sich nur, wenn AMD soweit ist. Bisher geht man von 1H 2010 aus. Früher erscheint AMDs 12-Kerner auch nicht, der das Gegenstück zu Beckton sein wird. Vorher soll allerdings erst noch die Fiorano Plattform kommen, welche zumindest teilweise Updates mitbringt.
Und eben wegen solcher Punkte scheint vApus deutlich praxisbezogener zu sein. Soll ich dir auch noch alles vorkauen?Lies doch einfach, sie schreiben mehr als 20 Das ist weit entfernt von dem, was mit VApus gemessen wurde
Dazu gibt es übrigens noch mehr Statements.it is very rare to find more than 20 VM’s on top of DP processor
The beauty is that vApus (stresstesting software developed by the Sizing Servers Lab) uses actions made by real people (as can be seen in logs) to stresstest the VMs, not some benchmarking algorithm.
Es ging um den Punkt, wie gross die Unterschiede sein werden. Was wo aktiviert war oder nicht, spielt keine Rolle. Alles was ich zumindest gesagt habe, ist, dass es keine zweifelsfreien Angaben darüber gibt. Und das hat sich übrigens immer noch nicht geändert. Ich schliesse mittlerweile auch nicht mehr aus, dass Intels EPT bereits doch seit einem ESX3.5 Update supported wird oder ESX4 immer noch keinen EPT Support hat. Entweder ist Intels Implementierung mehr schlecht als recht, AMD konnte immerhin bis zu 20% mittels RVI zulegen, der grössere TLB macht sich bei AMD positiv bemerkbar, ESX4 Verbesserungen sind bei Intel hauptsächlich auf verbessertem SMT Support zurückzuführen, wie von Anandtech erwähnt, oder Anandtech hat Mist gemessen.Es geht um den Punkt ob aktiviert oder nicht. Den musst du ja jetzt endlich anerkennen
Wer hat behauptet, dass das jemand bei vApus behauptet hat? Es ging allgemein um Virtualisierung bzw konkret um ESX. In dem von mir zitierten Text kommt das Wort vApus nicht mal vor.Wer hat das bei VApus behauptet?
Unter offiziell verstehe ich aber etwas anderes. Die Angaben zum Shanghai scheinen zB auch nicht ganz zu stimmen. Shanghai hat 243 mm². Lediglich Chips mit Test Logik haben mehr. Würde mich nicht wundern, wenn sich Anandtech beim Istanbul auch vertan hat.Die stehen in allen Reviews, kannst du z.B. auch bei Anandtech nachlesen.
Nur keine Bescheidenheit. Du darfst uns gerne erleuchten. Und nur nochmal zur Klarstellung, es geht um die laufende Produktion und nicht um irgendwelche Umrüstungen oder dergleichen. Denn die hat Intel bei der Umstellung auf 32 nm genauso.Du magst den Einblick nicht haben, aber der zusätzliche Aufwand einer Immersionslithografie ist immens und überwiegt den Aufwand einer doppelten Belichtung problemlos.
Wo steht da etwas zum G34? Ausserdem halte ich mich an offizielle Roadmaps. Und die sprechen ganz klar von 1H 2010 (Maranello), eben zusammen mit Magny Cours.
Etwas anderes hat auch niemand behauptet. Um das zu prognostizieren, muss man aber verstehen, wie sich Beckton zu Nehalem und Magny Cours zu Istanbul verhält, Plattform bezogen natürlich.Und zum anderen geht es nicht um die Entwicklung Nehalem -> Beckton, sondern um Beckton vs. Magny Cours.
Man wird sehen, wo der Sweet Spot beim L3 liegt. Dass man deswegen Nachteile hätte, muss noch lange nicht so sein. Die Infrastruktur ist hier immer noch entscheidender als Cache Grössen. Sieht man zB gut am Dunnington, der trotz seines grossen 25 MiB Cache nicht richtig in Fahrt kommt. Ich denke, AMD wird hier mit 12 MiB schon gut gerüstet sein. Nicht zu vergessen, grössere Caches bringen uU auch Nachteile bei Latenz und Assoziativität mit sich. Wobei AMD das letzte Prozentchen an Performance hier auch nicht wichtig sein dürfte. Die kleineren Dies und bessere Yields haben da bezüglich Wirtschaftlichkeit sicherlich Priorität. Und weswegen soll Magny Cours denn Nachteile bei Speicher- und CPU-Kommuikation haben?Und da hat letzterer bzgl. der Speicher- und CPU-Kommuikation einige Nachteile, auch weil z.B. der L3 deutlich kleiner ist.
Nicht wirklich. Magny Cours ist nicht einfach nur simpel MCM wie bei Intel, sondern DCM. Das sollte in der Praxis keine relevanten Nachteile haben. Mehr dazu hier.Auch ist Magny-Cours nicht nativ, der nächste potentielle Stolperstein bzgl. der Leistungsskalierung.
Und eben wegen solcher Punkte scheint vApus deutlich praxisbezogener zu sein. Soll ich dir auch noch alles vorkauen?
Dazu gibt es übrigens noch mehr Statements.
Es ging um den Punkt, wie gross die Unterschiede sein werden. Was wo aktiviert war oder nicht, spielt keine Rolle. Alles was ich zumindest gesagt habe, ist, dass es keine zweifelsfreien Angaben darüber gibt. Und das hat sich übrigens immer noch nicht geändert.
Wer hat behauptet, dass das jemand bei vApus behauptet hat? Es ging allgemein um Virtualisierung bzw konkret um ESX. In dem von mir zitierten Text kommt das Wort vApus nicht mal vor.
Unter offiziell verstehe ich aber etwas anderes. Die Angaben zum Shanghai scheinen zB auch nicht ganz zu stimmen. Shanghai hat 243 mm². Lediglich Chips mit Test Logik haben mehr. Würde mich nicht wundern, wenn sich Anandtech beim Istanbul auch vertan hat.
Nur keine Bescheidenheit. Du darfst uns gerne erleuchten. Und nur nochmal zur Klarstellung, es geht um die laufende Produktion und nicht um irgendwelche Umrüstungen oder dergleichen. Denn die hat Intel bei der Umstellung auf 32 nm genauso.
Wo steht da etwas zum G34? Ausserdem halte ich mich an offizielle Roadmaps. Und die sprechen ganz klar von 1H 2010 (Maranello), eben zusammen mit Magny Cours.
Etwas anderes hat auch niemand behauptet. Um das zu prognostizieren, muss man aber verstehen, wie sich Beckton zu Nehalem und Magny Cours zu Istanbul verhält, Plattform bezogen natürlich.
Nicht wirklich. Magny Cours ist nicht einfach nur simpel MCM wie bei Intel, sondern DCM. Das sollte in der Praxis keine relevanten Nachteile haben. Mehr dazu hier.
Man wird sehen, wo der Sweet Spot beim L3 liegt. Dass man deswegen Nachteile hätte, muss noch lange nicht so sein. Die Infrastruktur ist hier immer noch entscheidender als Cache Grössen. Sieht man zB gut am Dunnington, der trotz seines grossen 25 MiB Cache nicht richtig in Fahrt kommt. Ich denke, AMD wird hier mit 12 MiB schon gut gerüstet sein. Nicht zu vergessen, grössere Caches bringen uU auch Nachteile bei Latenz und Assoziativität mit sich. Wobei AMD das letzte Prozentchen an Performance hier auch nicht wichtig sein dürfte. Die kleineren Dies und bessere Yields haben da bezüglich Wirtschaftlichkeit sicherlich Priorität. Und weswegen soll Magny Cours denn Nachteile bei Speicher- und CPU-Kommuikation haben?
Vielleicht soltlest du erstmal verstehen, dass der Punkt ist, dass bei 2P Servern so eine grosse Anzahl an VMs wenig praxisnah ist.vAPUS wurde mit 4-8 VMs getestet. Jetzt bitte die Differenz zur Aussage "more than 20" suchen, finden und verstehen
VMmark interessiert hier keinen. Es steht doch unmissverständlich in den Artikeln, warum vApus verwendet wurde.Natürlich stand es zweifelsfrei da und steht es auch wieder. Zu den Differenzen müsste man natürlich mal auch etwas den Text lesen "VMmark tells us that the latest Xeon “Nehalem” starts to shine when you dump huge amounts of VM on top of the server." ist nur ein Beispiel davon.
Und wo steht da etwas von vApus? Es mag dir vielleicht entgangen sein, aber VMs setzen kein vApus voraus.OK, welcher Virtualisierungsbenchmark wurde dann noch getestet, der "...verdeutlicht, dass Interprozessorkommunikation keine entscheidende Rolle spielt, da die VMs entsprechend konfiguriert werden, so dass der Datenverkehr minimiert wird.!"
Und wir reden auch nur vom reinen Chip.Was denkst du, was sich zwischen den Chips, die ja auseinander geschnitten werden müssen, befindet? 243mm² ist der reine Chip
Sry, aber das absoluter ist Käse. Woher sollen denn Stillstandszeiten kommen? Glaubst du, weil die Belichtung schneller fertig ist, machen die öfter Pausen oder was? Und die Spezialflüssigkeiten sind sicherlich auch nicht aufwändiger als vakuumisierte Medien. Bläschenbildung gibt es auch nicht. Entweder sind Mikroblasen vorhanden oder nicht. Ich gehe aber mal davon aus, die Prozesse bei IBM sind soweit getestet und perfektioniert, dass das kein Problem ist. Ansonsten würde man noch gar nicht produzieren.Stillstandszeiten. Spezialflüssigkeiten. Probleme mit Bläschenbildung. Der Aufwand ist erheblich.
Wer sprach von Beckton? Meine Jahresangaben bezogen sich alle auf Magny Cours. Vielleicht solltest du etwas sorgfältiger lesen. Oder was sollte der Einwand "Erstmal geht man bisher auch von 2009 aus"?Beckton kommt 2009. Wer sprach von Magny Cours?
Nein. Siehe weiter oben. Die relevanten Punkte liegen wo ganz anders.Eben. Und schon sind wir bei der Nativitäts-Problematik.
So wie ich es verstehe, ist es nicht nur HT. So sollen alle Kerne direkt auf den kompletten shared Cache zugreifen können. Was nicht nur der wichtigste Punkt sein dürfte, sondern nur mit HT auch nicht zu realisieren ist.Es ist sehr naiv zu erwarten, dass eine HT-Verbindung gleichwertig zu einem nativen Design wäre.
Das liegt aber nicht nur am L3. Ich würde sogar sagen, die 1 MiB weniger L3 haben hier den geringsten Einfluss. Bei 2P arbeitet HT-Assist ansich kontraproduktiv, da sowieso nur recht wenig Interprozessorkommunikation stattfindet. Man kann sich auch mal einige Tests anschauen. Shanghai arbeitet trotz des dreimal so grossen L3 taktbereinigt nur selten signifikant schneller als Barcelona.Man sieht es jetzt bereits, wie erwähnt: Schau was der L3-Verlust bei HT-Assist kostet.
Meine Güte, lies dir die Artikel doch bitte erstmal genau durch. Bei den 30% wurde das Szenario so konfiguriert, dass dieses künstlich den Nehalem bevorteilt. In der Praxis spielt das aber keine Rolle, da Opteron Systeme logischerweise auf den Opteron angepasst werden. Irgendwie habe ich das alles schon mal erläutert.Wo wir bei 4 VMs nur 17% zum Istanbul sehen, fehlen bei 8 VMs schon 33%. Über den Bereich darüber und die höchstwahrscheinlich weiter wachsenden Abstände kann man somit nur spekulieren.
There is more. In the 2-tile test the ESX scheduler has to divide 16 logical CPU’s among 32 vCPU’s. That is a lot easier than dividing 12 physical CPUs among 32 vCPU’s. This might create coscheduling issues on the six-core Opteron.
So our 2-tile test was somewhat “biased” towards the Xeon X5570.