Kommt AMDs Sechskerner Istanbul schon diese Woche?

Das schon, zumindest geht der Trend grad wohl in diese Richtung, aber das ist erstmal zweitrangig. Denn auch die Konsolenportierungen brauchen idR nicht wirklich mehr wie 3 CPUs.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bis neue Konsolen mit mehr als nur 3 Cores kommen....wie sieht es denn mir der PS4 aus?
 
da Wii PS3 und XBOX 360 wohl frühestens 2012 ( Dx12 ) ausgetauscht werden fährt man mom mit nem 3 Kerner eigentlich am besten
 
Jein, mit den Kernen üblicher Desktop-CPUs sind diese nur begrenzt vergleichbar.
Weniger ungewöhnlich ist der 3-Kerner der 360, der allerdings mit 6 Threads arbeitet - mit einem 3-Kerner ist ein gut optimierter Port also noch nicht ausgelastet.
 
naja also wenn der sechskerner bei den angegebenen 2,6 ghz rauskommen sollte und dabei die gleiche tdp wie ein quad opteron bei gleichem takt hat sprich 95 watt dann wird der im servermarkt schon was reissen können denke ich und das ist amd ja wichtig ;)

da ja auch gerüchte schon durch netz gehen nen phenom 2 im neuem stepping mit über 3 ghz mit einer tdp von 95 watt heraus zu bringen liegt das mit dem sechskerner ja nicht weit @ 95watt TDP

und dazu noch den hier nimmt : AMD Phenom II X4 905e (HD905EOCGIBOX)
Deneb (Quadcore/2500MHz) - L2-Cache 2 MB/L3-Cache 6 MB - Bustakt 3.6 GT/s - Sockel AM3 Boxed (65 Watt)

könnte der sechskerner evtl sogar unter 95w TDP liegen... wegen dem neuem stepping welches beim phenom im 3 quartal kommen soll
 
jup wobei ein weiterer thread ja nit wirklich mit nem zusätzlichen kern vergleichbar ist
4kern geht natürlich auch ebenso wie ein 4 Ghz+ E8600 allerdings sind die P/L eben deutlichst schlechter
 
Auf Nehalem-Basis kommt sicher auch noch was:coolblue:

Schon längst angekündigt worden der Gulftown 32nm 6 Kerne für Sockel1366 (X58), und als erstes kommt eine Extreme Version. Welche "ab" Taktraten da Intel nimmt kann sicher jeder an drei Finger abzählen, für den Preis braucht man wohl eher 100 Menschen die alle ihre 10 Finger haben :d

Ob der auf ein betagtes 4Way nf2200 Board passt der Opteron hmm.
 
Zuletzt bearbeitet:
Schon längst angekündigt worden der Gulftown 32nm 6 Kerne für Sockel1366 (X58), und als erstes kommt eine Extreme Version. Welche "ab" Taktraten da Intel nimmt kann sicher jeder an drei Finger abzählen, für den Preis braucht man wohl eher 100 Menschen die alle ihre 10 Finger haben :d

Ob der auf ein betagtes 4Way nf2200 Board passt der Opteron hmm.

:fresse:

Wird bestimmt gut abgehen.
 
Immer diese Vorurteile :-[:coolblue::fresse:

Genauso kann man bei dir sagen immer diese Vorurteile. Das Leben besteht eben nicht aus Gamer. Natürlich hat mal der eine oder andere PC Freak sowas am Testen oder er nutzt mal sein vorhandenes Server System und baut eine GTX 285 rein. Doch hier wurde nichts relativiert als dieser nichts sagende Satz der erhebliches Wissen vermissen lässt geschrieben wurde. Also brauche auch ich nicht relativieren als ich meine Aussage machte es wird wohl niemanden geben der den Server Prozessor Istanbul und deren Plattform LGA F+ Plattform als Spiele-Kiste nutzen wird. Alleine schon die Materialkosten für dieses Vorhaben würden doch den potenziellen Käufer als doof hinstellen sich sowas als nur Zocker-Kiste zu kaufen. Bestimmt wird der Hexa Core auch für den Desktop kommen und wie AMD selber sagt, wird der Istanbul nicht nur ein nativer 6 Core @Shanghai Leistung sein, sondern deutlich schneller arbeiten pro Core.
Auf einer Single LGA (Sockel) F+ Plattform und einer GTX 285 wäre dies natürlich schon eher anzutreffen. Man braucht nur einen Hexa Core und wäre damit deutlich günstiger um dann Spiele zu spielen die aktuell überhaupt Schwierigkeiten haben einen Quad zu nutzen.

Bis wir den Hexa Core auf dem Desktop sehen wird wohl noch (leider) einige Zeit dauern. Klasse wäre natürlich @AM2+/AM3. Mit Multi GPU und entsprechender Auflösung wird so eine Kombination zb hier im Forum wohl deutlich öfter anzutreffen sein, als die 0,0005% (also praktisch nicht vorhanden) Useranzahl mit einer Dual Sockel F Istanbul @maximal PCI-E 1.x Quad GPU Plattform Zocker-Kiste.
 
Hier geht es um den Opteron und es wird wohl keinen geben der eine Server Plattform zum Spielen nimmt. Aber es scheint wohl so zu sein, dass in deinem Leben nur Spiele wichtig sind. Das macht einem Sorgen. Geh doch mal an die Luft, das befreit ungemein.

Auch ein 6 Kern mit 2600MHz wird beim Spielen genauso schnell wie ein 4 Kern mit 2600MHz. Insofern ist dein Beitrag noch erschreckender.

ich nutze eine server plattform zum spielen

s940 dual sledgehammer 2x 2 ghz 6GB ram in kombination mit einer G80 :d

nur leider ist die G80 defekt
 
Meine Workstation nutze ich auch zum Spielen, leider ist ASUS nicht in der Lage für seine Boards ein Update herauszubringen um Shanghais zu unterstützen. Was sehr ärgerlich ist, da es Tyan und co. sehr wohl schaffen (ist ja eigentlich problemlos möglich). Deswegen bin ich jetzt gezwungen auf AM3 zu wechseln.
 
Laut Planet 3DNow! soll der Istanbul 30% stärker werden.

Der "Istanbul" wird nach Aussagen von AMD kein simpler "Shanghai" mit 6 statt 4 Kernen werden, AMD verspricht eine deutlich höhere Leistung im Integer-Bereich. Zudem soll der "Istanbul" umgerechnet auf gleiche Leistungsaufnahme 30 Prozent mehr Leistung erbringen, als ein "Shanghai"

Quelle: http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1243666090
 
Hier gibt es ein Review zum Istanbul. Insgesamt konnte man nochmals ordentlich an der Effizienzschraube drehen. So liegt man nahezu gleich auf mit dem Nehalem Xeon. Die Performance gegenüber dem Nehalem scheint auch relativ ausgeglichen zu sein. Mal liegt Intel vorne, wie bei Java oder Rendering, mal AMD, wie bei Linpack oder openSSL (Verschlüsselung).
Das leistungsfähigste Paket dürfte momentan ein 4P Opteron 8435 System sein, abgesehen von 8P, dass die Messlatte für Effizienz am höchsten legt. Interessant ist hierbei auch der Vergleich zur Dunnington Plattform, dem monolithischen 6-Kerner von Intel, welches mit Faktor 3 regelrecht deklassiert wird. Zumindest, wenn man SPECpower für aussagekräftig hält.
Für meinen Geschmack fehlen im Review allerdings Tests zu Datenbanken und Virtualisierung.

Leider erscheint die zu Istanbul gehörende Plattform, Fiorano, erst noch. In Q3 sollen auch noch SE Modelle von Istanbul erscheinen. Dort wird sicherlich noch etwas an Taktfrequenz nachgelegt. Momentan sind alle Istanbuls mit 75 W ACP spezifiziert. Darüber wäre noch bis 105 W möglich.

Erfreulich ist auch der Preis, welcher praktisch auf Niveau der bisherigen Top Modelle liegt.
 
Zuletzt bearbeitet:
Für meinen Geschmack fehlen im Review allerdings Tests zu Datenbanken und Virtualisierung.

Virtualisierungstests gibts bei Anandtech, hier führt der Nehalem unter ESX 3.5 leicht, unter ESX 4.0 schon deutlicher (den Punkt hatten wir ja neulich schon, RVI nutzt der Shanghai schon unter Version 3.5) bei vApus, bei VMark hingegen fehlen immer noch über 50%.
 
Hier gibt es ein Review zum Istanbul. Insgesamt konnte man nochmals ordentlich an der Effizienzschraube drehen. So liegt man nahezu gleich auf mit dem Nehalem Xeon. Die Performance gegenüber dem Nehalem scheint auch relativ ausgeglichen zu sein. Mal liegt Intel vorne, wie bei Java oder Rendering, mal AMD, wie bei Linpack oder openSSL (Verschlüsselung).
Das leistungsfähigste Paket dürfte momentan ein 4P Opteron 8435 System sein, abgesehen von 8P, dass die Messlatte für Effizienz am höchsten legt. Interessant ist hierbei auch der Vergleich zur Dunnington Plattform, dem monolithischen 6-Kerner von Intel, welches mit Faktor 3 regelrecht deklassiert wird. Zumindest, wenn man SPECpower für aussagekräftig hält.
Ordentlich Antwort seitens AMD auf die Nehalem-Xeons.
 
Virtualisierungstests gibts bei Anandtech, hier führt der Nehalem unter ESX 3.5 leicht, unter ESX 4.0 schon deutlicher (den Punkt hatten wir ja neulich schon, RVI nutzt der Shanghai schon unter Version 3.5) bei vApus, bei VMark hingegen fehlen immer noch über 50%.
Und das Problem dabei ist welches? Bei Vmark waren es vorher 100%. Also sind nunmehr 50% doch ordentlich. Oder hast du geglaubt, Istanbul wird doppelt so schnell wie Shanghai? :rolleyes: Und dass Vmark wenig aussagekräftig ist, hatten wir doch schon geklärt. Also schauen wir uns mal vApus an. Hier liegt der Nehalem zwar weiterhin vorne. Aber hauptsächlich bedingt durch seinen höheren Takt. In Q3 sollen ja weitere Istanbuls kommen. Mal schauen, ob AMD da bis 3 GHz hoch gehen kann. Bezüglich Leistungsaufnahme scheint man ja noch etwas Spielraum zu haben, wenn Anandtechs vorläufigen Ergebnisse korrekt sind und das Istanbul System 10-15% sparsamer unter Last als das Nehalem Xeon System arbeitet. Und wie gesagt, nicht zu vergessen, AMD muss noch den Nachteil der veralteten Plattform kompensieren (HT1, Dual Channel DDR2). Da liegt noch Potenzial. Ich sehe daher keinen Grund, warum man sich nicht auch im High-End Bereich mit Intel messen sollte. Wobei das letztendlich gar nicht so entscheidend aus wirtschaftlicher Sicht ist.
 
Zuletzt bearbeitet:
Auch 50% sind noch eine Menge Holz - und VMark ist nur ein andere Szenario, aber deswegen nicht weniger relevant oder aussagekräftig ;) Das es keine ordentliche Steigerung gab, bestreitet ja keiner. Taktspielräume hingegen bietet auch Nehalem noch, siehe die höher taktenden Desktopversionen. Negativ für AMD sind nur die höheren Produktionskosten durch die gut 30% größere Fläche, und das bei geringerem Verkaufspreis.
 
Auch 50% sind noch eine Menge Holz - und VMark ist nur ein andere Szenario, aber deswegen nicht weniger relevant oder aussagekräftig ;)
Wenn man sich schon auf Anandtech stützt, dann schon. ;)

Taktspielräume hingegen bietet auch Nehalem noch, siehe die höher taktenden Desktopversionen. Negativ für AMD sind nur die höheren Produktionskosten durch die gut 30% größere Fläche, und das bei geringerem Verkaufspreis.
Wie gesagt, solche grossen Modelle spielen eher weniger eine Rolle. Laut AMD basieren über 90% der Server nicht auf solchen Chips. In der momentan wirtschaftlich angespannten Situation sicherlich auch noch etwas mehr. Und die Fläche ist eher 20% grösser, etwa 320 mm² vs 265 mm². Das dürfte AMD dank Immersionslithografie aber gut kompensieren können. Zumal diese Chips nur einen geringen Anteil aller produzierten Chips ausmachen.
 
Wenn man sich schon auf Anandtech stützt, dann schon.

Nun, was willst du hören, zwei Testszenarien, zwei entsprechende Ergebnisse. Auch die ESX-Versionsproblematik ist ja nun geklärt, der angezweifelte RVI-Vorteil noch in Version 3.5 ist ja nun wohl endlich ohne weitere Diskussionen belegt. :)

Und die Fläche ist eher 20% grösser, etwa 320 mm² vs 265 mm².

Wenn du mich schon korrigierst, dann bitte mit korrekten Werten ;) 346mm²/265mm² = 1,306 -> Gut 30% :wink:

Das dürfte AMD dank Immersionslithografie aber gut kompensieren können. Zumal diese Chips nur einen geringen Anteil aller produzierten Chips ausmachen.

Immersionslithografie dient eher zum Erreichen kleiner Strukturgrößen durch eine bessere Abbildung beim Belichtungsvorgang, als das es Auswirkungen auf die Yields hat - denn im laufenden Prozess liegt hier keine sonderlich bedeutsame Fehlerquelle. Geringer sind die Kosten sicherlich nicht, die Frage ist nur: Wie lange geht es ohne Immersionslithografie überhaupt? Bei 32nm muss auch Intel umsatteln. Fraglich ist eher, ob AMDs noch junger 45nm Prozess schon an die Yields der bereits seit 2007 produzierenden Konkurrenz heranreicht, aber das wissen nur die Hersteller. Hinzu kommt auch die Fremdfertigung, die 100%ige Herstellerbindung mit entsprechenden Vorteilen wird mehr und mehr auslaufen.

Aber doch, insgesamt gesehen ist AMD jetzt zumindest pro Takt wieder etwa in Schlagdistanz, das ist schon einiges Wert. Problematischer wird es dann Ende des Jahres gegen Beckton, mit 8-Kernen auf Nehalem-Basis, Quad-Channel Interface und dem mit der CPU-Anzahl skalierenden QPI-Vorteil wird es selbst für das nachfolgende 12-Kern Monster Magny-Cours ziemlich schwierig werden. Wird ein spannendes Jahr 2009/2010. :)
 
Nun, was willst du hören, zwei Testszenarien, zwei entsprechende Ergebnisse.
Und entsprechend Anandtech ist VMmark eben weniger praxisbezogen. Entweder man akzeptiert das oder ignoriert Anandtech. Sie haben das ja auch nochmal begründet.
It gives us a clue why the VMmark scores are so extreme: the huge amount of VM’s might overemphasize world switch times for example. But even with light loads, it is very rare to find more than 20 VM’s on top of DP processor.
Hinzu können auch noch Probleme beim Co-scheduling komme. Man hat das auch nochmal schön verdeutlicht. Wichtig dabei ist, dass die Anzahl der virtuellen CPUs ein Vielfaches der logischen CPUs ist. Wie im Beispiel kann so der Abstand bei 32 virtuellen CPUs schnell auf über 30% anwachsen, da Nehalem mit 16 logischen CPUs für so ein Szenario besser konfiguriert ist als Istanbul mit 12. In der Praxis spielt das aber keine Rolle, da VMs ja auf das vorhandene System angepasst werden.

Auch die ESX-Versionsproblematik ist ja nun geklärt, der angezweifelte RVI-Vorteil noch in Version 3.5 ist ja nun wohl endlich ohne weitere Diskussionen belegt.
Korrekt, die Zweifel wurden bestätigt. Es sind mit ESX4 beim Nehalem keine 25% Mehrleistung, sondern 10%.

Es wurde übrigens auch nochmal verdeutlicht, dass Interprozessorkommunikation keine entscheidende Rolle spielt, da die VMs entsprechend konfiguriert werden, so dass der Datenverkehr minimiert wird.
By default, the VMware ESX 3.5 scheduler logically partitions the available cores into groups of four, called “Cells”. The objective is to schedule VM’s always on the same cell, thereby making sure that the VM’s stay in the same node and socket. This should make sure that the VM always uses local memory (instead of needing remote memory of another node) and more importantly that the caches stay “warm”.


Wenn du mich schon korrigierst, dann bitte mit korrekten Werten ;) 346mm²/265mm² = 1,306 -> Gut 30%
Woher stammen bitteschön die 346 mm²? Ich kenne zumindest keine offiziellen Angaben dazu. Und bisherige Schätzungen gingen maximal von etwa 320 mm² aus. Was ich nicht nur anhand des Dies, sondern auch eines Wafers bestätigen kann.

Immersionslithografie dient eher zum Erreichen kleiner Strukturgrößen durch eine bessere Abbildung beim Belichtungsvorgang, als das es Auswirkungen auf die Yields hat
Immersionslithografie dient dazu, in einem Flüssigkeitsmedium exakter belichten zu können. Dass damit kleinere Strukturen möglich sind, ist letztendlich nur ein positiver und sicherlich auch gewollter Effekt. Intel belichtet bei ihrem 45 nm Prozess noch konventionell, muss daher doppelt belichten. Und das kostet logischerweise nicht nur Zeit, sondern auch Geld. Ob Immersionslithografie sogar bessere Yields mit sich bringt, kann ich nicht sagen. Wenn dem so sein sollte, umso besser für AMD. Das war aber nicht der entscheidende Punkt.

Problematischer wird es dann Ende des Jahres gegen Beckton, mit 8-Kernen auf Nehalem-Basis, Quad-Channel Interface und dem mit der CPU-Anzahl skalierenden QPI-Vorteil wird es selbst für das nachfolgende 12-Kern Monster Magny-Cours ziemlich schwierig werden.
Ich denke eher, dass es unkritischer wird. Quad Core und Triple Channel bietet ein besseres Kern/Channel Verhältnis als Octa Core und Quad Channel. Das sollte sich gerade bei den Latenzen auswirken. Beckton wird daher nicht mehr als linear über Kerne und Takt skalieren. AMD stehen hingegen noch mehr Updates bevor. Erste G34 Boards gibt es ja bereits auf der Computex zu bestaunen. Neben Quad Channel gibt es wie schon gesagt HT3 und DDR3-1600, neben weiteren Funktionen natürlich, wie IOMMU. Fragt sich nur, wenn AMD soweit ist. Bisher geht man von 1H 2010 aus. Früher erscheint AMDs 12-Kerner auch nicht, der das Gegenstück zu Beckton sein wird. Vorher soll allerdings erst noch die Fiorano Plattform kommen, welche zumindest teilweise Updates mitbringt.
 
Zuletzt bearbeitet:
Und entsprechend Anandtech ist VMmark eben weniger praxisbezogen. Entweder man akzeptiert das oder ignoriert Anandtech. Sie haben das ja auch nochmal begründet.

Hinzu können auch noch Probleme beim Co-scheduling komme. Man hat das auch nochmal schön verdeutlicht. Wichtig dabei ist, dass die Anzahl der virtuellen CPUs ein Vielfaches der logischen CPUs ist. Wie im Beispiel kann so der Abstand bei 32 virtuellen CPUs schnell auf über 30% anwachsen, da Nehalem mit 16 logischen CPUs für so ein Szenario besser konfiguriert ist als Istanbul mit 12. In der Praxis spielt das aber keine Rolle, da VMs ja auf das vorhandene System angepasst werden.

Lies doch einfach, sie schreiben mehr als 20 ;) Das ist weit entfernt von dem, was mit VApus gemessen wurde :)

Korrekt, die Zweifel wurden bestätigt. Es sind mit ESX4 beim Nehalem keine 25% Mehrleistung, sondern 10%.

Es geht um den Punkt ob aktiviert oder nicht. Den musst du ja jetzt endlich anerkennen :wink:

Es wurde übrigens auch nochmal verdeutlicht, dass Interprozessorkommunikation keine entscheidende Rolle spielt, da die VMs entsprechend konfiguriert werden, so dass der Datenverkehr minimiert wird.

Wer hat das bei VApus behauptet?

Woher stammen bitteschön die 346 mm²? Ich kenne zumindest keine offiziellen Angaben dazu. Und bisherige Schätzungen gingen maximal von etwa 320 mm² aus. Was ich nicht nur anhand des Dies, sondern auch eines Wafers bestätigen kann.

Die stehen in allen Reviews, kannst du z.B. auch bei Anandtech nachlesen. Lustigerweise hab ich die schon Anfang Mai vorhergesagt :)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7281271&postcount=1352

Immersionslithografie dient dazu, in einem Flüssigkeitsmedium exakter belichten zu können. Dass damit kleinere Strukturen möglich sind, ist letztendlich nur ein positiver und sicherlich auch gewollter Effekt. Intel belichtet bei ihrem 45 nm Prozess noch konventionell, muss daher doppelt belichten. Und das kostet logischerweise nicht nur Zeit, sondern auch Geld. Ob Immersionslithografie sogar bessere Yields mit sich bringt, kann ich nicht sagen. Wenn dem so sein sollte, umso besser für AMD. Das war aber nicht der entscheidende Punkt.

Du magst den Einblick nicht haben, aber der zusätzliche Aufwand einer Immersionslithografie ist immens und überwiegt den Aufwand einer doppelten Belichtung problemlos. Es führt im Zuge der Belichtungsgenauigkeit nur früher oder später kein Weg daran vorbei, das genau ist der Punkt.

Ich denke eher, dass es unkritischer wird. Quad Core und Triple Channel bietet ein besseres Kern/Channel Verhältnis als Octa Core und Quad Channel. Das sollte sich gerade bei den Latenzen auswirken. Beckton wird daher nicht mehr als linear über Kerne und Takt skalieren. AMD stehen hingegen noch mehr Updates bevor. Erste G34 Boards gibt es ja bereits auf der Computex zu bestaunen. Neben Quad Channel gibt es wie schon gesagt HT3 und DDR3-1600, neben weiteren Funktionen natürlich, wie IOMMU. Fragt sich nur, wenn AMD soweit ist. Bisher geht man von 1H 2010 aus. Früher erscheint AMDs 12-Kerner auch nicht, der das Gegenstück zu Beckton sein wird. Vorher soll allerdings erst noch die Fiorano Plattform kommen, welche zumindest teilweise Updates mitbringt.

Erstmal geht man bisher auch von 2009 aus:

http://www.hardware-infos.com/news.php?news=2734

Und zum anderen geht es nicht um die Entwicklung Nehalem -> Beckton, sondern um Beckton vs. Magny Cours. Und da hat letzterer bzgl. der Speicher- und CPU-Kommuikation einige Nachteile, auch weil z.B. der L3 deutlich kleiner ist. Die Auswirkungen davon kannst du dir z.B. beim Punkt HT Assist anschauen. Auch ist Magny-Cours nicht nativ, der nächste potentielle Stolperstein bzgl. der Leistungsskalierung.
 
Zuletzt bearbeitet:
Lies doch einfach, sie schreiben mehr als 20 ;) Das ist weit entfernt von dem, was mit VApus gemessen wurde :)
Und eben wegen solcher Punkte scheint vApus deutlich praxisbezogener zu sein. Soll ich dir auch noch alles vorkauen?
it is very rare to find more than 20 VM’s on top of DP processor
Dazu gibt es übrigens noch mehr Statements.
The beauty is that vApus (stresstesting software developed by the Sizing Servers Lab) uses actions made by real people (as can be seen in logs) to stresstest the VMs, not some benchmarking algorithm.


Es geht um den Punkt ob aktiviert oder nicht. Den musst du ja jetzt endlich anerkennen
Es ging um den Punkt, wie gross die Unterschiede sein werden. Was wo aktiviert war oder nicht, spielt keine Rolle. Alles was ich zumindest gesagt habe, ist, dass es keine zweifelsfreien Angaben darüber gibt. Und das hat sich übrigens immer noch nicht geändert. Ich schliesse mittlerweile auch nicht mehr aus, dass Intels EPT bereits doch seit einem ESX3.5 Update supported wird oder ESX4 immer noch keinen EPT Support hat. Entweder ist Intels Implementierung mehr schlecht als recht, AMD konnte immerhin bis zu 20% mittels RVI zulegen, der grössere TLB macht sich bei AMD positiv bemerkbar, ESX4 Verbesserungen sind bei Intel hauptsächlich auf verbessertem SMT Support zurückzuführen, wie von Anandtech erwähnt, oder Anandtech hat Mist gemessen.

Wer hat das bei VApus behauptet?
Wer hat behauptet, dass das jemand bei vApus behauptet hat? Es ging allgemein um Virtualisierung bzw konkret um ESX. In dem von mir zitierten Text kommt das Wort vApus nicht mal vor. ;)

Die stehen in allen Reviews, kannst du z.B. auch bei Anandtech nachlesen.
Unter offiziell verstehe ich aber etwas anderes. Die Angaben zum Shanghai scheinen zB auch nicht ganz zu stimmen. Shanghai hat 243 mm². Lediglich Chips mit Test Logik haben mehr. Würde mich nicht wundern, wenn sich Anandtech beim Istanbul auch vertan hat.

Du magst den Einblick nicht haben, aber der zusätzliche Aufwand einer Immersionslithografie ist immens und überwiegt den Aufwand einer doppelten Belichtung problemlos.
Nur keine Bescheidenheit. Du darfst uns gerne erleuchten. Und nur nochmal zur Klarstellung, es geht um die laufende Produktion und nicht um irgendwelche Umrüstungen oder dergleichen. Denn die hat Intel bei der Umstellung auf 32 nm genauso. ;)

Wo steht da etwas zum G34? Ausserdem halte ich mich an offizielle Roadmaps. Und die sprechen ganz klar von 1H 2010 (Maranello), eben zusammen mit Magny Cours.

Und zum anderen geht es nicht um die Entwicklung Nehalem -> Beckton, sondern um Beckton vs. Magny Cours.
Etwas anderes hat auch niemand behauptet. Um das zu prognostizieren, muss man aber verstehen, wie sich Beckton zu Nehalem und Magny Cours zu Istanbul verhält, Plattform bezogen natürlich.

Und da hat letzterer bzgl. der Speicher- und CPU-Kommuikation einige Nachteile, auch weil z.B. der L3 deutlich kleiner ist.
Man wird sehen, wo der Sweet Spot beim L3 liegt. Dass man deswegen Nachteile hätte, muss noch lange nicht so sein. Die Infrastruktur ist hier immer noch entscheidender als Cache Grössen. Sieht man zB gut am Dunnington, der trotz seines grossen 25 MiB Cache nicht richtig in Fahrt kommt. Ich denke, AMD wird hier mit 12 MiB schon gut gerüstet sein. Nicht zu vergessen, grössere Caches bringen uU auch Nachteile bei Latenz und Assoziativität mit sich. Wobei AMD das letzte Prozentchen an Performance hier auch nicht wichtig sein dürfte. Die kleineren Dies und bessere Yields haben da bezüglich Wirtschaftlichkeit sicherlich Priorität. Und weswegen soll Magny Cours denn Nachteile bei Speicher- und CPU-Kommuikation haben?

Auch ist Magny-Cours nicht nativ, der nächste potentielle Stolperstein bzgl. der Leistungsskalierung.
Nicht wirklich. Magny Cours ist nicht einfach nur simpel MCM wie bei Intel, sondern DCM. Das sollte in der Praxis keine relevanten Nachteile haben. Mehr dazu hier.
 
Zuletzt bearbeitet:
Und eben wegen solcher Punkte scheint vApus deutlich praxisbezogener zu sein. Soll ich dir auch noch alles vorkauen?

Dazu gibt es übrigens noch mehr Statements.

vAPUS wurde mit 4-8 VMs getestet. Jetzt bitte die Differenz zur Aussage "more than 20" suchen, finden und verstehen :)


Es ging um den Punkt, wie gross die Unterschiede sein werden. Was wo aktiviert war oder nicht, spielt keine Rolle. Alles was ich zumindest gesagt habe, ist, dass es keine zweifelsfreien Angaben darüber gibt. Und das hat sich übrigens immer noch nicht geändert.

Natürlich stand es zweifelsfrei da und steht es auch wieder. Zu den Differenzen müsste man natürlich mal auch etwas den Text lesen "VMmark tells us that the latest Xeon “Nehalem” starts to shine when you dump huge amounts of VM on top of the server." ist nur ein Beispiel davon.

Wer hat behauptet, dass das jemand bei vApus behauptet hat? Es ging allgemein um Virtualisierung bzw konkret um ESX. In dem von mir zitierten Text kommt das Wort vApus nicht mal vor. ;)

OK, welcher Virtualisierungsbenchmark wurde dann noch getestet, der "...verdeutlicht, dass Interprozessorkommunikation keine entscheidende Rolle spielt, da die VMs entsprechend konfiguriert werden, so dass der Datenverkehr minimiert wird.! :wink:

Unter offiziell verstehe ich aber etwas anderes. Die Angaben zum Shanghai scheinen zB auch nicht ganz zu stimmen. Shanghai hat 243 mm². Lediglich Chips mit Test Logik haben mehr. Würde mich nicht wundern, wenn sich Anandtech beim Istanbul auch vertan hat.

Du hast keinen blassen Schimmer von dem Thema, liege ich richtig? Was denkst du, was sich zwischen den Chips, die ja auseinander geschnitten werden müssen, befindet? 243mm² ist der reine Chip, insgesammt verbraucht aber jeder 263mm². Sorry, aber das sind absolute Grundlagen.

Nur keine Bescheidenheit. Du darfst uns gerne erleuchten. Und nur nochmal zur Klarstellung, es geht um die laufende Produktion und nicht um irgendwelche Umrüstungen oder dergleichen. Denn die hat Intel bei der Umstellung auf 32 nm genauso. ;)

Stillstandszeiten. Spezialflüssigkeiten. Probleme mit Bläschenbildung. Der Aufwand ist erheblich.

Wo steht da etwas zum G34? Ausserdem halte ich mich an offizielle Roadmaps. Und die sprechen ganz klar von 1H 2010 (Maranello), eben zusammen mit Magny Cours.

Beckton kommt 2009. Wer sprach von Magny Cours? Der kommt klar nicht vor 2010.

Etwas anderes hat auch niemand behauptet. Um das zu prognostizieren, muss man aber verstehen, wie sich Beckton zu Nehalem und Magny Cours zu Istanbul verhält, Plattform bezogen natürlich.

Eben. Und schon sind wir bei der Nativitäts-Problematik.

Nicht wirklich. Magny Cours ist nicht einfach nur simpel MCM wie bei Intel, sondern DCM. Das sollte in der Praxis keine relevanten Nachteile haben. Mehr dazu hier.

Es ist sehr naiv zu erwarten, dass eine HT-Verbindung gleichwertig zu einem nativen Design wäre. So werden auch CPUs in einem MP-System verbunden, bis auf die kürzere Latenz hast du keine Unterschiede.

Man wird sehen, wo der Sweet Spot beim L3 liegt. Dass man deswegen Nachteile hätte, muss noch lange nicht so sein. Die Infrastruktur ist hier immer noch entscheidender als Cache Grössen. Sieht man zB gut am Dunnington, der trotz seines grossen 25 MiB Cache nicht richtig in Fahrt kommt. Ich denke, AMD wird hier mit 12 MiB schon gut gerüstet sein. Nicht zu vergessen, grössere Caches bringen uU auch Nachteile bei Latenz und Assoziativität mit sich. Wobei AMD das letzte Prozentchen an Performance hier auch nicht wichtig sein dürfte. Die kleineren Dies und bessere Yields haben da bezüglich Wirtschaftlichkeit sicherlich Priorität. Und weswegen soll Magny Cours denn Nachteile bei Speicher- und CPU-Kommuikation haben?

Man sieht es jetzt bereits, wie erwähnt: Schau was der L3-Verlust bei HT-Assist kostet. Gesetz des abnehmenden Ertrages, ergo hängen die aktuellen Opterons ziemlich am relativ kleinen L3.
 
Ich find eure Diskussion sehr interessant, macht bitte weiter so. Nur habe ich da eine Frage, versteht ihr eigentlich den Sinn dieses Satzes?
"It gives us a clue why the VMmark scores are so extreme: the huge amount of VM’s might overemphasize world switch times for example. But even with light loads, it is very rare to find more than 20 VM’s on top of DP processor."
Da ist die Rede von "sehr selten und nicht mehr als 20VM's", du Undertaker redest aber von der Differenz von 4-8VM's zu mehr als 20 oder verstehe ich das schlicht und einfach falsch. Ich will das nur verstehen, so kann man nur lernen.

MFG
 
So ists gemeint. Dem VMWare VMark mag man ankreiden, dass er für ein 2-Sockelsystem zu viele VMs nutzt, ein Szenario in dem sich der Nehalem sehr stark absetzen kann. Bei vAPUS ist es hingegen das genaue Gegenteil, 4-8 getestete VMs sind weit entfernt von dem, was selbst Anandtech für realistisch hält - eine VM-Zahl bis etwa 20. Nun, genau dieser fehlende Bereich scheint aber die Stärke der Nehalem-Modelle zu sein:

http://it.anandtech.com/IT/showdoc.aspx?i=3571&p=10

Wo wir bei 4 VMs nur 17% zum Istanbul sehen, fehlen bei 8 VMs schon 33%. Über den Bereich darüber und die höchstwahrscheinlich weiter wachsenden Abstände kann man somit nur spekulieren.
 
vAPUS wurde mit 4-8 VMs getestet. Jetzt bitte die Differenz zur Aussage "more than 20" suchen, finden und verstehen
Vielleicht soltlest du erstmal verstehen, dass der Punkt ist, dass bei 2P Servern so eine grosse Anzahl an VMs wenig praxisnah ist. ;)

Natürlich stand es zweifelsfrei da und steht es auch wieder. Zu den Differenzen müsste man natürlich mal auch etwas den Text lesen "VMmark tells us that the latest Xeon “Nehalem” starts to shine when you dump huge amounts of VM on top of the server." ist nur ein Beispiel davon.
VMmark interessiert hier keinen. Es steht doch unmissverständlich in den Artikeln, warum vApus verwendet wurde.

OK, welcher Virtualisierungsbenchmark wurde dann noch getestet, der "...verdeutlicht, dass Interprozessorkommunikation keine entscheidende Rolle spielt, da die VMs entsprechend konfiguriert werden, so dass der Datenverkehr minimiert wird.!"
Und wo steht da etwas von vApus? Es mag dir vielleicht entgangen sein, aber VMs setzen kein vApus voraus.

Was denkst du, was sich zwischen den Chips, die ja auseinander geschnitten werden müssen, befindet? 243mm² ist der reine Chip
Und wir reden auch nur vom reinen Chip. ;)

Stillstandszeiten. Spezialflüssigkeiten. Probleme mit Bläschenbildung. Der Aufwand ist erheblich.
Sry, aber das absoluter ist Käse. Woher sollen denn Stillstandszeiten kommen? Glaubst du, weil die Belichtung schneller fertig ist, machen die öfter Pausen oder was? Und die Spezialflüssigkeiten sind sicherlich auch nicht aufwändiger als vakuumisierte Medien. Bläschenbildung gibt es auch nicht. Entweder sind Mikroblasen vorhanden oder nicht. Ich gehe aber mal davon aus, die Prozesse bei IBM sind soweit getestet und perfektioniert, dass das kein Problem ist. Ansonsten würde man noch gar nicht produzieren.
Aber ich sehe schon, du hast wieder mal nur oberflächliche Ahnung von der Materie, wenn überhaupt, brüllst nur ein bisschen in der Gegend rum, und wenn Intel auf Immersionslithografie umgestellt hat, ist es natürlich das beste, was es gibt. :rolleyes:
Die Umrüstung auf Anlagen für Immersionslithografie ist sicherlich erstmal kostspielig. Das ist letztendlich aber egal. Die hat/hatte Intel genauso. Ich habe aber noch nirgendwo gehört oder gelesen, dass die laufenden Kosten in irgendeiner Weise signifikant höher sein sollen als bei herkömmlicher Belichtung. Unterm Strich bleibt eben, dass man bei solch feinen Strukturen auf doppelte Belichtung verzichten kann. Und wenn man etwas rational denkt, sollte das Vorteile bei Zeit und Kosten bringen. Das muss ja nicht viel sein. Aber offenbar für AMD vollkommen ausreichend. Ansonsten hätte man wohl noch etwas länger am Istanbul gefeilt, da dieser recht viel Dummy Fläche aufweist.

Beckton kommt 2009. Wer sprach von Magny Cours?
Wer sprach von Beckton? Meine Jahresangaben bezogen sich alle auf Magny Cours. Vielleicht solltest du etwas sorgfältiger lesen. ;) Oder was sollte der Einwand "Erstmal geht man bisher auch von 2009 aus"?

Eben. Und schon sind wir bei der Nativitäts-Problematik.
Nein. Siehe weiter oben. Die relevanten Punkte liegen wo ganz anders.

Es ist sehr naiv zu erwarten, dass eine HT-Verbindung gleichwertig zu einem nativen Design wäre.
So wie ich es verstehe, ist es nicht nur HT. So sollen alle Kerne direkt auf den kompletten shared Cache zugreifen können. Was nicht nur der wichtigste Punkt sein dürfte, sondern nur mit HT auch nicht zu realisieren ist.

Man sieht es jetzt bereits, wie erwähnt: Schau was der L3-Verlust bei HT-Assist kostet.
Das liegt aber nicht nur am L3. Ich würde sogar sagen, die 1 MiB weniger L3 haben hier den geringsten Einfluss. Bei 2P arbeitet HT-Assist ansich kontraproduktiv, da sowieso nur recht wenig Interprozessorkommunikation stattfindet. Man kann sich auch mal einige Tests anschauen. Shanghai arbeitet trotz des dreimal so grossen L3 taktbereinigt nur selten signifikant schneller als Barcelona.

Wo wir bei 4 VMs nur 17% zum Istanbul sehen, fehlen bei 8 VMs schon 33%. Über den Bereich darüber und die höchstwahrscheinlich weiter wachsenden Abstände kann man somit nur spekulieren.
Meine Güte, lies dir die Artikel doch bitte erstmal genau durch. Bei den 30% wurde das Szenario so konfiguriert, dass dieses künstlich den Nehalem bevorteilt. In der Praxis spielt das aber keine Rolle, da Opteron Systeme logischerweise auf den Opteron angepasst werden. Irgendwie habe ich das alles schon mal erläutert. :rolleyes:
There is more. In the 2-tile test the ESX scheduler has to divide 16 logical CPU’s among 32 vCPU’s. That is a lot easier than dividing 12 physical CPUs among 32 vCPU’s. This might create coscheduling issues on the six-core Opteron.

So our 2-tile test was somewhat “biased” towards the Xeon X5570.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh