[Sammelthread] AMD 45nm K10.5 "Shanghai"-Generation

Ja ich frag nur weil ich das mal pcghw gelesen hab das es 2 fx geben soll... Aber gut wird so sein wie du sagst.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein Agena FX hätte sich nicht gelohnt. Er wäre in der Presse zerrissen worden. Aber ein Deneb FX ist sicherlich drin, zumal 3GHz schon mit der ersten Charge ausgeliefert werden soll. Bleibt nurnoch das C&Q-Problem zu lösen bis dahin - sonst geht die wahre Leistungsfähigkeit auch bei den AM3 Modellen den Bach runter, völlig zuunrecht.
Mit dem FX sind sicherlich die 125W-TDP AM3 Modelle auf der Raodmap gemeint, die nach dem 3. März, also erst im April, kommen sollen. Das wäre ein zeitlich passender Zeitpunkt für den FX-Start. AM3 und einiges über 3GHz wären für einen FX Pflicht.
 
Zuletzt bearbeitet:
Öhm .. was bitte haben die "Instructions per Cycle" mit 2P/4P zu tun
Indem du die Ergebnisse bezüglich Takt und Kerne normalisierst. ;)
Entweder betrachtet man IPC rein auf einen Hardwarethread bezogen. Oder eben für das komplette System. Und dabei spielt es keine Rolle, ob du einen Prozessor mit 4 Kernen hast oder zwei Prozessoren mit 2 Kernen. Lediglich die Bedeutsamkeit der Infrastruktur verschiebt sich. Das hat mit "prof. Serversoftware" auch nichts zu tun. Nur gibt es bei Desktops ja kaum 2P oder gar 4P Systeme.

Glaube eher er meint den Takt
Dann sehe ich den Sinn aber nicht. Quad Opterons gibt es afaik bis 2,5 GHz. Sollte sich die IPC nicht geändert haben, hiesse das, Shanghai kommt mit bis zu 3,25 GHz (2,5 x 1,3). Ist eher unrealistisch. Vielleicht meint er aber auch eine Kombination aus IPC und Taktrate. Wobei das wiederum untypisch wäre. Beim K10 hat man iirc auch von ca 20-25% gegenüber K8 gesprochen, obwohl aufgrund der doppelt so vielen Kerne trotz niedrigerem Takt deutlich mehr drin ist. Vielleicht waren ja das die 20%, die du noch in Erinnerung hast. :)
Ich denke schon, er meint damit ausschliesslich IPC. Macht hier irgendwie auch mehr Sinn. Halt die speziellen Server Disziplinen wie Datenbanken, Virtualisierung und ähnliches. Hier wird man sicherlich auch deutlich vom L3 Cache profitieren.

ansonsten müßten die irgendwas am Core Design geändert haben.
Soweit mir bekannt, haben sie das ja auch. Also kein reiner Shrink mit 4 MiB zusätzlichem L3.
 
Indem du die Ergebnisse bezüglich Takt und Kerne normalisierst. ;)
Entweder betrachtet man IPC rein auf einen Hardwarethread bezogen. Oder eben für das komplette System. Und dabei spielt es keine Rolle, ob du einen Prozessor mit 4 Kernen hast oder zwei Prozessoren mit 2 Kernen. Lediglich die Bedeutsamkeit der Infrastruktur verschiebt sich. Das hat mit "prof. Serversoftware" auch nichts zu tun. Nur gibt es bei Desktops ja kaum 2P oder gar 4P Systeme.
Toll .. also wieder mal eine Definitionslücke. Ich kenn IPC bisher als reine Kernleistung, nach ein bisschen googlen stellt man fest, dass die immer von einer CPU reden ... alles was in nem CPU Gehäuse steckt ist ne CPU --> ergo gehören da auf alle Fälle auch Quad Cores dazu.
Und Du zählst jetzt auch noch 2P und 4P Systeme dazu, wenn ichs richtig verstehe, oder ? Da sollte sich aber eigentlich nichts tun, bei Servern ist erst wieder mit HT3 ne Systemmehrleistung drin. Oder meint er die DDR2-800 Freigabe .. naja ..
Dann sehe ich den Sinn aber nicht. Quad Opterons gibt es afaik bis 2,5 GHz. Sollte sich die IPC nicht geändert haben, hiesse das, Shanghai kommt mit bis zu 3,25 GHz (2,5 x 1,3). Ist eher unrealistisch. Vielleicht meint er aber auch eine Kombination aus IPC und Taktrate.
Ich glaube der meinte ne Kombination aus Taktrate und Mehrleistung durch den 6MB L3, der AMDler redet ja nur von "Performance" nicht von IPC. Wobei ja auch die IPC durch mehr L3 Treffer steigt, da die Kern idle Zeit zurück geht ... so gesehen ... rechnen die vielleicht nur den L3 unter "IPC" Verbesserung, wäre aber auch irgendwie komisch :(
Ich denke schon, er meint damit ausschliesslich IPC. Macht hier irgendwie auch mehr Sinn. Halt die speziellen Server Disziplinen wie Datenbanken, Virtualisierung und ähnliches. Hier wird man sicherlich auch deutlich vom L3 Cache profitieren.
Jo, aber Games mögen nen großen Cache ebenfalls ;-)
Soweit mir bekannt, haben sie das ja auch. Also kein reiner Shrink mit 4 MiB zusätzlichem L3.
Dein Wort in Gottes Ohr .. ich würd mich ja freuen, wenn sie nen Loop Dedector eingebaut hätte, laut nem E-Tech Blog ist das die Hauptursache für die gute Core2 Leistung. Aber irgendwie kann ich mir so ne ziemlich grundlegende Designänderung nicht vorstellen.

Aber warten wirs ab ..

ciao

Alex
 
Zuletzt bearbeitet:
Ah, ok. Danke für den Link. Ich sollte in Zukunft genauer hinschauen. :)
 
Kommt eig. ein Chipsatz mit hd4000er Kern für Hybrid-CF?
oder funzt das jetzt auch mit ner hd4870 und nem 790GX(hd3000er onboard)?
 
Bisher is nur was von den 2400ern, und 3450er/70ern bekannt. Nicht mal zu den 44x0ern gabs bis jetzt was. die 2600er, 36x0er sollen nicht mit Hybrid gehen. denke die 46x0er auch nicht
Also mach dir keine allzu große Hoffnung.
Allerdings wärs net schlecht den onboard-Chipsatz für Sys nutzen zu können, die "dicken" dann nur fürs zocken und rendern ....

Gruß

Cypher
 
RS880 wird diese Generation beinhalten. Inwieweit RD890/880 auch hybridfähig sind, werden wir sehen. Die Chipsatzgeneration kommt am 3. März zusammen mit AM3 und denen wird die SB750 zur Seite gestellt.
 
War nicht auch eine SB8xx im Gespräch ?
 
Toll, also wieder nur halbe Boards zum Release, wie mit der SB600
 
Naja, also so schlecht is die SB750 ja nun nicht. Sicher nicht ideale Umstände, aber auch kein ernsthafter Grund zu Beschwerden, oder?

Gruß

Cypher
 
Zuletzt bearbeitet:
Sehe ich auch so. Mehr als das Featureset dieser SB kann man sich eigentlich nicht wünschen. Die neue SB hat sowieso nur "Updates" der 6 SATA Ports auf SATA3 Spec und USB3 Spec sowie den Wegfall des IDE. Nüchtern betrachtet kann man darauf auch verzichten.
 
Zuletzt bearbeitet:
angenommen ich hole mir dieses board und lasse es mit meiner hd4870 laufen, werde ich den onboard 3000er-grafikchip dann wenigstens als havok--physik-beschleuniger nutzen können?!?
 
War da nicht mal was von Physik-Krims-Krams von ATI/AMD in der Runde? So was hab ich hier im Forum schon mal gehört und beim Inquierer oder so auch mal gelesen. Aber das war bestimmt Anfang des Jahres! Seither wieder recht ruhig geworden darum. Mit erscheinen der ersten 4000er Karten kam aber noch noch mal kurz ein Gerücht hoch, daß es dann bald via Software (Catalyst) möglich sein solle ....

Aber ide AMD-eigene Physik soll ja erst mal auf Eis gelegt sein!?

Gruß

Cypher
 
Nein, die CTM-Physikumsetzung, die damals von ATI noch iniziiert wurde, ist gecancelt worden. AMD möchte sich an bestehenden Standards orientieren. Havok ist schon beschlossene Sache, PhysX soll angeblich auch kommen. Auf jeden Fall aber wird man die DX11 GPGPU-Schnittstelle favourisieren. Da liegt garnix auf Eis, nur die Eigenbrötlerei hat aufgehört.
Physik ist natürlich auf separaten (auch internen) GPUs nutzbar. Nur muss man halt Vista berücksichtigen, welches Anzeigetreiber nur eines Herstellers gleichzeitig unterstützt. Im Klartext heißt das, man darf soviele GPUs drin haben wie man will, Vista kann damit aber nur was anfangen, wenn die alle vom gleichen Hersteller sind. Unter XP kann man übrigens eine Geforce für PhysX und eine Radeon als Grafikausgabe gleichzeitig nutzen ;). Die neue Treiberstruktur von M$ verhindert das leider.
Mit dem Sideport-RAM bieten sich die neuen Chipsätze natürlich an, diese für die Physikbeschleunigung zu nutzen. Ohne Sideport bremst die Physik dann das komplette System über den IGP, da der IGP viele RAM-Zugriffe blockieren könnte.
 
Zuletzt bearbeitet:
Gibt es überhaupt Nvidia-Mainboards zukaufen die sowas wie Sideport-Ram haben?
PhysX mit IGPs zubetreiben wäre wirklich interessant, von der Leistung der IGP müsste es doch reichen.
 
Auf jeden Fall aber wird man die DX11 GPGPU-Schnittstelle favourisieren.
Ich denke, vorher kommt OpenCL und dann erst DirectX GPGPU. :) Aber stimmt schon, auch DirectX wird genügend Support seitens AMD bekommen. Ich könnte mir vorstellen, auf lange Sicht werden diese beiden Schnittstellen auch den Markt grösstenteils abdecken. Ähnlich wie das mit OpenGL und DirectX Graphics ist. CTM, CUDA oder ähnliches könnten dann verschwinden bzw in andere Projekte übergehen.
 
Was ist eigentlich vom neuen OpenGL 3.0 zu halten? Also für mich als Heimanwender? Brauch ich sowas, hab ich beim spielen davon irgendwelche Vorteile? Meines Wissens nach nur einige wenige Spiele, die zudem nicht selten schon etwas Staub angesetzt haben.
Wie groß ist der Einfluß auf zB AutoCAD (egal welche Oberfläche), oder 3d Studio Max, bzw vergleichbare Software? Wirk sich das direkt aus, oder muss die Software das 3.0er explizit unterstützen?

Sorry für OT

Gruß

Cypher
 
Für PC Spiele ist DirectX nach wie vor die Referenz, da der Markt eben immer noch Windows dominiert ist. Bis auf wenige Titel wirst du keinen OpenGL Support sehen. Und noch weniger profitierst du von OpenGL 3.
OpenGL ist, wie du schon sagst, eher im professionellen Umfeld zu finden, weil es eine plattformübergreifende Schnittstelle ist.
Das ist allerdings nicht der richtige Thread, um dies zu diskutieren. Daher :btt:
 
Wenn vorerst keine CPUs mit niedrigerem Takt als 2,6GHz kommen, macht das schon mal Hoffnung, dass es taktmäßig vorwärts geht (auch wenn eher IPC-Erhöhungen statt Taktsteigerungen wünschenswert wären).
 
Ich hoffe es, den in meinen Barebone macht sich eine 125W-CPU, dank etwas eingeschränkte Kühlmöglichkeiten, schlecht.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh