AMD FX-6x00 als Server CPU

vBurak

Enthusiast
Thread Starter
Mitglied seit
28.08.2012
Beiträge
99
Hallo,

ich muss gleich vorab sagen das ich mich im Bereich AMD Prozessoren nicht auskenne. Ich benutzte seit Jahren ausschließlich Intel und wir setzen auch nur Intel CPUs bei Kunden PCs ein.

Was ich jetzt teilweise mitgehört habe und auch jetzt nachlese das die AMD FX-Reihe die anfang 2012 rauskam nicht mit Intel Core iX Serie mithalten kann trotz der vielen Kerne und hohen Taktraten.

Nach einigen Seite bin ich mehrfach darauf gestoßen, dass gesagt wurde, die AMD FX CPUs eher für Server gedacht sind (was ich nicht so ganz verstehe wenn sie im Desktop Segment zugeordnet sind). Wenn die Prozessoren im Server Bereich mehr rausholen als die Desktop CPUs von Intel (die ja schon selbst mehr kosten, zumindenst die i5) dann wäre ja so ein Bulldozer CPU vllt. das richtige für mich.

Ich bin ziemlich oft am virtualisieren und ausprobieren und bin immer noch auf der Suche nach einem idealen aber günstigen "Server/Workstation" mit dem ich so paar Sachen immer durchprobiere kann ;). Es ist kein großes Hexenwerk, eigentlich eher Standard Kram (Hyper-V, ESXi, mehrere VMs mit WinServer Systemen oder Clients und dort einfach bestimmte Anwendungsfälle durchtesten oder ausprobieren).

Der AMD FX-6100 oder FX-6300 sieht ja von Core und Taktrate richtig krass aus. Ich mein 6 Core + Taktrate über 3Ghz ist schon recht "viel". Da ein Hypervisor ja von CPU + RAM lebt damit alle VMs gleichzeitig laufen können wäre das ja in diesem Fall recht ideal.

Nun ja, frage ist jetzt: Hat hier jemand zufällig Erfahrung mit AMD FX mit ESXi oder im Bereich Server? Kann man den FX-6100 für solche Zwecke verwenden? Mir geht es wie gesagt überhaupt nicht um Gaming, Rendering oder sonstige Bildbearbeitung.


Ich hoffe der Topic passt hier rein, wusste net ob es in den Workstation / Server Teil rein soll oder hier, hab mich mal für Prozessoren Forum entschieden ^^.

Gruß,
Burak
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
*moved*

Das Design der CPU ist besser auf Serverumgebungen ausgerichtet als für Desktops. Ohne jetzt eine ellenlange Diskussion zu starten, kann man einfach sagen, dass er für Singlethreadanwendungen wenig Power hat(Desktop) aber aufgrund der vielen Cores (nicht unbedingt die FX CPUs) besser parallel arbeiten kann.

Warum AMD die CPU im Desktopbereich positioniert hat, weiß keiner, wahrscheinlich nichtmal sie. Aber sie haben es getan.

Es geht hier also um die Bulldozer Architektur und nicht um die FX CPU.

VMs leben nicht von der CPU Power, klingt komisch ist aber so. Wenn man nicht gerade viel rechnet, dann macht eher der RAM und das Storage zu, als du in ein CPU Limit rennst.
Du kannst den FX ohne weiteres in deinem Server verwenden, er wird dir von der Leistung her kein Flaschenhals darstellen, außer du rechnest viel.
 
Okay, danke erstmal für die Antwort.

Man kann aber schon sagen das ein FX-6100 als ESXi Server CPU besser geeignet ist als ein Intel Pentium Dual Core oder ist das schwer zu sagen? Meine erste Idee war nämlich so n einfachen Pentium Sandy Bridge zu nehmen, aber wenn man für bisschen mehr Geld den "sechs-core" kriegen kann dann wäre mir das ja lieber.
 
Warum AMD die CPU im Desktopbereich positioniert hat, weiß keiner, wahrscheinlich nichtmal sie. Aber sie haben es getan.

Das kann ich dir sagen...
Weil sie nichts anderes haben.


@vBurak
AMD entwickelte mindestens vier Jahre an der Architektur. Vllt sogar länger. Der Name Bulldozer ist ja schon sehr viel eher gefallen in den Gerüchten. Und es schaut so aus, als hätte AMD das Konzept dahinter mindestens einmal über den Haufen geworfen.
Aber sei es drum. Es ist nicht erst seit Bulldozer so, das AMD ein "Server-Design" für die ganze Produktpalette bringt. Das war damals mit Barcelona (Phenom I) so, es war mit Phenom II so, genau so wie es die Thuban X6 CPUs auch eher für Server sind als für Desktops. Es schaut für mich so aus, als will AMD seit ein paar Jahren zu viel im Desktop Markt. Der Markt ist lange noch nicht so weit, Multithreading kommt nur sehr langsam in Fahrt.

Und auch im Serverbereich schaut es irgendwie alles andere als günstig aus. Vor allem die Tatsache, das AMD quasi zwei CPUs zusammen pflanzt um dieses Doppelpaket als eine CPU zu verkaufen. Der Hintergrund dahinter ist ja gut, nur gibt es Lizenztechnisch Nachteile, sofern die Software nach CPU Sockeln bezahlt wird (da benötigen G34 CPUs die doppelte Anzahl im Vergleich zu Intels S1366/S2011 CPUs)

PS: wie schon im anderen Thread geschrieben, auch wenn AMD es marketingtechnisch anders verkauft. Im Grunde sind die Bulldozer CPUs keine Quad/Hexa/Oktacore CPUs, sondern es sind wie bei Intel Dual/Tripple/Quadcore CPUs mit einer Technik, die Multithreading unterstützten. Das ganze nennt sich CMT. Gewisse Ressourcen werden geshared für zwei "Cores" benutzt.


Auch wichtig zu wissen ist, das der Takt selbst und die Anzahl der Cores/Module ohne zu wissen, was diese im einzelnen leisten können absolut nxi aussagt.
Nur mal im Vergleich. Im Schnitt über mehrere Praxisnahe Anwendungen ist ein FX4170 mit 4,2GHz + Turbo ähnlich "langsam" wie ein Intel Core i3 3220, der nur 3,3GHz hat. Und braucht unter Volllast sogar die doppelte Menge an Strom, gemessen vom Gesamtsystem.
 
Okay, danke erstmal für die Antwort.

Man kann aber schon sagen das ein FX-6100 als ESXi Server CPU besser geeignet ist als ein Intel Pentium Dual Core oder ist das schwer zu sagen? Meine erste Idee war nämlich so n einfachen Pentium Sandy Bridge zu nehmen, aber wenn man für bisschen mehr Geld den "sechs-core" kriegen kann dann wäre mir das ja lieber.

Wenn die Alternative zum Fx-6100 nur ein Intel Pentium ist und du virtualisieren möchtest solltest du klar den FX nehmen.
Wobei du meiner Ansicht nach wenigstens ein paar Euro drauflegen solltest um den Nachfolger mit Vishera Kernen zu nehmen.

Die Performance pro Takt ist dort im Schnitt höher.

Die günstigen Intel Prozessoren unterstützen übrigens diverse Virtualisierungstechniken nicht. Schon allein deswegen solltest du bei deinem Anwendungsfeld AMD nehmen.
 
Und auch im Serverbereich schaut es irgendwie alles andere als günstig aus. Vor allem die Tatsache, das AMD quasi zwei CPUs zusammen pflanzt um dieses Doppelpaket als eine CPU zu verkaufen. Der Hintergrund dahinter ist ja gut, nur gibt es Lizenztechnisch Nachteile, sofern die Software nach CPU Sockeln bezahlt wird (da benötigen G34 CPUs die doppelte Anzahl im Vergleich zu Intels S1366/S2011 CPUs)
Intel hatte damit angefangen bei den ersten Dualcore Pentium4 CPUs.

PS: wie schon im anderen Thread geschrieben, auch wenn AMD es marketingtechnisch anders verkauft. Im Grunde sind die Bulldozer CPUs keine Quad/Hexa/Oktacore CPUs, sondern es sind wie bei Intel Dual/Tripple/Quadcore CPUs mit einer Technik, die Multithreading unterstützten. Das ganze nennt sich CMT. Gewisse Ressourcen werden geshared für zwei "Cores" benutzt.
Gibt es darüber ggf. sogar einen c't oder iX Artikel? Wäre mir neu. Das gewisse Einheiten nicht immer verdoppelt wurden war und ist auch bei deutlich teureren "Spezial-CPUs" der Fall (Power7, Sparc). Aber zu behaupten das wären nur Zwei-, Drei- und Vierkerne CPUs ist doch eine etwas andere Aussage.
 
Dabei währe noch zu erwähnen das die FX CPU's alle ECC RAM können (non-Registered).
Das ist für server auch wichtig.
Hängt allerdings vom mainboard ab, bei Asus können das jedoch fast alle AMD Boards.
 
Hallo,

danke für die Antworten. Ich versuch mal zusammen zu fassen.

AMD Bulldozer CPUs können Intel nicht das Wasser reichen. Wenn man das allerdings im Server Bereich einsetzen will, dann lohnt es sich mehr als ein Standard Dual Core oder i3 in der selben Preisklasse. FX CPUs unterstützen auch ECC RAM was bei so nem Server ja schon sein sollte, das ist nicht schlecht! Die Prozessoren sind keine richtigen Sechs oder Achtkerne sondern jeweils 3 bzw. 4 Kerne mit Multithreading Unterstützung wie bei Intel Hyperthreading.

Gibt es irgendwo eine Statistik ob mehr Integer Berechnungen oder Floating Point Berechnungen in einem Betriebssystem ausgeführt werden?

Ich schau dann auch mal auf die Vishera Kerne, da ich jetzt auch mehrfach gelesen habe das die aufjedenfall besser sein sollen als die Bulldzoer.

Danke!
 
Die AMD koennen schon deutlich mehr als es Intel mit HT macht. Allerdings ist IPC geringer, dennoch ist das design ueberlegen.

Eigentlich sind es 4,5 cores (beim 6"core").
Er verfuegt pro Module ueber 2 Int einheiten, allerdings nur ueber eine FPU die bei bedarf Doppelt rechne kann.

Es ist eine Mischung aus einem 3 core und einem 6 core. Ist damit technisch weiter als Intel.

@blue
Ka ob ct oder xi was geschrieben haben, aber es gibt im Netz gute Folien. Die Technik hat AMD wohl von den Alpha CPUs.
 
Intel hatte damit angefangen bei den ersten Dualcore Pentium4 CPUs.
Das ist nicht vergleichbar. Einfach aus dem Grund, ein Core2Quad (basierend aus zwei Dualcore Core2Duo DIEs) meldet sich im System trotzdem als Quadcore, und nicht als zwei Dualcore CPUs. Genau das machen G34 AMD CPUs aktuell eben nicht. Man benötigt bei Software, welche nach CPUs Lizensiert wird, die doppelte Anzahl an Lizenzen. -> das ist eigentlich untragbar.


Gibt es darüber ggf. sogar einen c't oder iX Artikel? Wäre mir neu. Das gewisse Einheiten nicht immer verdoppelt wurden war und ist auch bei deutlich teureren "Spezial-CPUs" der Fall (Power7, Sparc). Aber zu behaupten das wären nur Zwei-, Drei- und Vierkerne CPUs ist doch eine etwas andere Aussage.

Wie schon gesagt, das ganze schimpft sich CMT. Die Implementation von Intel schimpft sich SMT. Die Unterschiede dieser beiden "Techniken" findest du sicher selbst hinaus... Lesestoff darüber gibts zu genüge.

Nur kurz noch beigesteuert. Es macht aus so mancher Sicht weniger Sinn, die FX 6xxxer CPUs als Hexacores zu bezeichnen. Da es eben drei Module sind (AMD schimpft diese Einheiten Module), welche dir eine FPU, und zwei Int Einheiten pro Modul bereit stellen. Im herkömmlichen Design bekommst du aber pro Core eben jeweils nur eine Int. Einheit sowie eine FPU.
Die FPU ist zwar stark aufgebohrt und so meint AMD, das es eigentlich gut laufen würde. Benches zeigen aber teils ziemlich deutlich, wie gut der ganze Spaß skaliert, wenn man die Last anstatt auf einem Modul (und beide Int. Einheiten + shared FPU) auf eben jene zwei verteilt. Obwohl die gleiche Anzahl an Threads Last erzeugt.

Der Vorteil der Technik ist einfach, das wohl im großen und ganzen vermehrt Int. Belastungen erzeugt werden und somit das ganze eigentlich vollkommen aufgehen müsste. Soweit zumindest die Theorie ;)

Unterm Strich ist es auch wurscht, wie man das Teil benennt. Fakt ist jedoch. Wenn ein Phenom II oder Intel Core i irgendwas ein Dual/Quadcore ist. Dann kann ein Bulldozer mit dem anderen Design nicht in gleichem Verfahren gezählt werden. Einfach weil die Einheiten anders aufgebaut sind.
Das Modul als "Core" zu bezeichnen kommt der Sache da noch am nähesten ;) Da es eben eine Einheit ist, die zwei Threads berechnen kann. (analog zu Intel, wo ein Core auch zwei Threads, dank SMT, berechnen kann)

Die AMD koennen schon deutlich mehr als es Intel mit HT macht. Allerdings ist IPC geringer, dennoch ist das design ueberlegen.

Eigentlich sind es 4,5 cores (beim 6"core").
Er verfuegt pro Module ueber 2 Int einheiten, allerdings nur ueber eine FPU die bei bedarf Doppelt rechne kann.

Es ist eine Mischung aus einem 3 core und einem 6 core. Ist damit technisch weiter als Intel.

Der technische Entwicklungsstand ist eigentlich ziemlich wumpe... Was hinten bei rum kommt, zählt ;)
Wenn man so will, hinkte AMD bis zum Bulldozer sogar Intel hinterher. Da man sich keine Gedanken über derartige Techniken machte. Ob nun SMT oder CMT der bessere Ansatz ist, ist wohl ansichtssache. Und vor allem hängt es massivst vom Workload ab.
Wenn nur ein Thread der Leistung benötigt, läuft, wird ein starker "Core" mit schwach skalierendem SMT besser abschneiden, als ein schwacher Core mit gut skalierendem CMT. Vor allem, wenn man für den Vergleich bei Auslastung von zwei Threads die gleiche Leistung bringt. -> An der Stelle steht sogar die Frage im Raum, warum überhaupt aufwändig CMT betreiben, wenn es keinen Vorteil bringt.

Aber warten wir mal ab, was AMD noch rausholen kann. Bulldozer V1 sowie der bald kommende Mini Refresh kranken definitiv noch an massiven Kinderkrankheiten. Und mit dem Nachfolger will scheinbar AMD aktuellen Gerüchten zur Folge wieder zwei FPUs pro Modul verbauen, was dann wiederum mit jeweils zwei Int. Einheiten dann einem Dualcore entsprechen sollte.
 
Für dich mag ausschlaggebend sein, was hinten rauskommt, mich interessiert da eher, was man macht um die Effizienz eines System zu steigern und das ist eine Designfrage. (mit Effizienz ist nicht FLOPS/W oder sowas gemeint)
Und das ist auch die Zukunft, mit weniger Teilen mehr machen, Effizienzsteigerung. Denn einfach SO die Core hochtreiben ist für die CPU Hersteller das geringste Problem, das können die von heute auf morgen, nur kann man eben das klassische Design aufbrechen und neue Sache entwickeln. Das ist für mich Innovation und nicht dummes "mehr Cores" wie man es gegenüber der breiten Masse verkauft.

AMDs Ansatz ist einfach, dass man bestimmte Teile der CPU doppelt nutzen will. Also decoder, fetcher, etc.

Und genau ist das Problem, wenn das nicht sauber funktioniert, dann können die Recheneinheiten auch nix wett machen. Mit dem V2 habe ich mich noch nicht beschäftigt, wäre mal interssant den Unterschied zu sehen.
Und unter genau diesen Gesichtspunkten (wenn man es denn sauber hinbekommt) ist CMT dem SMT überlegen. Einfach aus dem Grund, dass man die Power der zwei Herzen hat, ohne dabei unnötig Ballast zu haben.
SMT setzt hier ganz anders an, man nimmt einen Core und versucht darauf zwei Operationen zu rechnen, da sagt einem der Menschenverstand schon, dass das nicht so gut sein kann, als wenn man sowieso schon parallel rechnen kann.

Und AMD hinkt hinterher, weil deren IPC nicht so groß ist und nicht, weil sie nicht parallel auf dem Core rechnen können. Das ist ein Komplett anderer Ansatz. Wenn AMD die Leistung der Recheneinheiten vom Phenom gesteigert hätte, dann wäre das OK gewesen. Man hat sich jedoch dazu entschlossen und einfach mehr Einheiten verbaut, in der Hoffnung dass es reicht, tut es aber bis dato nicht.

Bleibt abzuwarten, was der Bulldozer V2 bringt oder nicht.
 
Zuletzt bearbeitet:
Ahja, also hat sich AMD genauso wie Sun dazu entschlossen nur die Integer Einheiten zu verdoppeln. Bei den 256 Thread CPU Servern mit Sparc CPU sind auch deutlich weniger FPU Einheiten verbaut. Zur Frage ob ein System mehr Integer oder Float verarbeitet, eindeutig Integer. Ist auch bei Datenbanksystemen so, dass die Primärschlüssel nur große 64bit Integerzahlen sind. Es ist auch keine all zu große neue Weisheit das man beim Programmieren für die normalen Probleme mit Integern zählt, da seit der Anfangszeit die Integereinheiten schon immer deutlich Leistungsfähiger waren.

Den ECC-Ram Support hat Intel leider bei den Desktop CPUs eingespart, wie auch sehr oft AES-NI welches für ssh, OpenVPN und normale AES Verschlüsselung mehr als hilfreich ist.

Das AMD wohl mehr auf die damals eingekauften Alpha Entwickler setzt als Intel ist ja seit dem ersten Opteron schon durchgedrungen ;)
Zumindest haben wir mit den Quadchannel Sockel 2011 CPUs bei Intel nun auch nach über 8 Jahren einen 256bit breiten Speicherbus wie er in DS25 Systemen üblich war.
 
Für dich mag ausschlaggebend sein, was hinten rauskommt, mich interessiert da eher, was man macht um die Effizienz eines System zu steigern und das ist eine Designfrage. (mit Effizienz ist nicht FLOPS/W oder sowas gemeint)
Und das ist auch die Zukunft, mit weniger Teilen mehr machen, Effizienzsteigerung. Denn einfach SO die Core hochtreiben ist für die CPU Hersteller das geringste Problem, das können die von heute auf morgen, nur kann man eben das klassische Design aufbrechen und neue Sache entwickeln. Das ist für mich Innovation und nicht dummes "mehr Cores" wie man es gegenüber der breiten Masse verkauft.

Aus technischer Sicht kann ich das durchaus nachvollziehen. Aber rein die technische Sicht bringt dem Endkunden (dir, mir und allen anderen) absolut keine Punkte.
Und schlussendlich ist es auch vollkommen wurscht, ob man für eine Leistung x nun 8 Recheneinheiten braucht, oder eben nur jener 4, wenn die Leistung am Ende identisch ist.

Aber so 100% versteh ich den Zusammenhang nicht. Wieso mit "weniger Teilen mehr machen"?
AMD geht gerade genau den anderen Weg, und versucht aus mehr Teilen mehr zu machen. (8 Int. Cores + 4 FPUs CMT Ansatz vs. 4 Int. Cores + 4 FPUs SMT Ansatz) und zieht dabei auch noch den kürzeren.

Einfach aus dem Grund, dass man die Power der zwei Herzen hat, ohne dabei unnötig Ballast zu haben.
SMT setzt hier ganz anders an, man nimmt einen Core und versucht darauf zwei Operationen zu rechnen, da sagt einem der Menschenverstand schon, dass das nicht so gut sein kann, als wenn man sowieso schon parallel rechnen kann.
SMT setzt genau dort an, wo die Faulheit der Programmierer aufhört. Hoch effizienter Programcode lässt sich durch SMT nur sehr sehr schlecht verschnellern. Bei CMT hingegen wird es idR zwangsweise schneller, eben weil mehr Ausführungseinheiten vorhanden. Dafür benötigt Intel soweit ich das in Erinnerung habe ~5% mehr Chipfläche eines Cores, um SMT zu integrieren. Wohingegen bei AMD dort deutlich mehr auf dem Papier stehen. Wie hoch genau, weis ich allerdings nicht...

Wie gesagt, was nun besser ist, ist Ansichtssache, da man unter Berücksichtungung aller Punkte sowohl mit der einen, als auch der anderen Implementation sauber ans Ziel kommen kann...

Und AMD hinkt hinterher, weil deren IPC nicht so groß ist und nicht, weil sie nicht parallel auf dem Core rechnen können. Das ist ein Komplett anderer Ansatz. Wenn AMD die Leistung der Recheneinheiten vom Phenom gesteigert hätte, dann wäre das OK gewesen. Man hat sich jedoch dazu entschlossen und einfach mehr Einheiten verbaut, in der Hoffnung dass es reicht, tut es aber bis dato nicht.

Hätten sie das gekonnt, hätten sie es getan ;)
AMD hinkt seit Intel den Core2 auf den Desktop Markt geworfen hat teils ziemlich deutlich, teils weniger deutlich hinter der pro Thread Leistung von Intel her.
Du denkst doch nicht ernsthaft, das man für den Phenom II, den Thuban X6, oder auch den Bulldozer nicht drüber nachgedacht hat, dieses Defizit zu unterbinden, wenn man es hätte gekonnt!?
Bei AMD läuft seit einiger Zeit nicht mehr alles "optimal", teils notgedrungen, teils auch eigenverschulden. Und zu notgedrungen zähle ich beispielsweise auch, das man eine auf den Servermark ausgerichtete Strategie (mehr Paralellität als weniger schnelle Einheiten, sprich Leistung durch mehr Cores als durch weniger dafür schnelle Cores) auf den ganzen Markt ausrollen muss. -> das geht aus Mangel an Software idR gerade im Desktop/Notebookbereich ziemlich gegen den Baum. Und diese Strategie läuft seit mindestens dem Phenom I/Barcelona so. Wenn nicht gar schon früher, da die A64 CPUs anfangs auch exakt identisch im Server/Desktop Umfeld waren.

Ahja, also hat sich AMD genauso wie Sun dazu entschlossen nur die Integer Einheiten zu verdoppeln. Bei den 256 Thread CPU Servern mit Sparc CPU sind auch deutlich weniger FPU Einheiten verbaut. Zur Frage ob ein System mehr Integer oder Float verarbeitet, eindeutig Integer. Ist auch bei Datenbanksystemen so, dass die Primärschlüssel nur große 64bit Integerzahlen sind. Es ist auch keine all zu große neue Weisheit das man beim Programmieren für die normalen Probleme mit Integern zählt, da seit der Anfangszeit die Integereinheiten schon immer deutlich Leistungsfähiger waren.

Den ECC-Ram Support hat Intel leider bei den Desktop CPUs eingespart, wie auch sehr oft AES-NI welches für ssh, OpenVPN und normale AES Verschlüsselung mehr als hilfreich ist.

Das AMD wohl mehr auf die damals eingekauften Alpha Entwickler setzt als Intel ist ja seit dem ersten Opteron schon durchgedrungen ;)
Zumindest haben wir mit den Quadchannel Sockel 2011 CPUs bei Intel nun auch nach über 8 Jahren einen 256bit breiten Speicherbus wie er in DS25 Systemen üblich war.

Ich finde Vergleiche zu anderen, nicht x86 based Systemen äußerst unglücklich. Einfach weil die Anforderungen ganz anders sind.
Der x86 Markt, gerade im Desktop Bereich kann mit deutlich mehr wie vier Threads Null komma gar nix anfangen... Genau für diesen "speziellen" Markt hast du als Hersteller ganz andere Möglichkeiten. Da nehmen die Kunden mit Kusshand eine CPU, die nun nicht mehr nur 128 Threads zur gleichen Zeit, sondern eben mal 256 Threads abarbeiten kann.

Mittlerweile sind wir aber an dem Punkt, wo im normalen Serverbereich, sprich das, was die überwiegende Mehrheit an Unternehmen und Privatpersonen einsetzt (Single/Dual CPU Maschinen), die Leistungen so hoch sind, das auch hier nicht unbedingt durch mehr Threads auch mehr Leistung generiert wird. So stellt sich beispielsweise auch nicht so oft primär die Frage, ob nun Quad/Okta Sockel Maschine, sondern ob nicht auch eine oder zwei Single/Dual Sockel Maschinen ausreichen ;)

Und ja, klar ist es aus so manchem Gesichtspunkt ungünstig, das Intel hier und dort Features wegstreicht. Dafür bietet Intel im aktuellen Markt für so ziemlich jedes Anwendungsgebiet im PC Bereich ein Produkt, was auch dafür mehr oder weniger explizit designt wurde. Im Desktopbereich braucht soziemlich niemand ECC. Dafür gibts die Xeons. Zum Thema AES, auch wenn wir hier viele Sachen mit Verschlüsslung machen. Es geht auch ohne ;)

PS: Thema Quadchannel RAM Interface gibts nicht erst seit S2011. Das hast du schon im Dual S771 2006 drin ;)
 
@Sonne
Das dir das nichts bringt ist klar, das habe ich auch nicht gesagt. Dennoch halte ich es für Richtig hier neue Wege zu gehen. Und das IPC Problem gab es schon immer. Und letztendlich zählt "irgendwann" auch die Parallelität und da ist der Ansatz von AMD eben der bessere. Dass das dem Consumer nichts bringt, ist klar, aber auf diesem Planeten gibt es mehr als den Heimanwender.

Wenn AMD das richtig umsetzt, haben sie einen vollwertigen 6 core, der aber weniger Teile braucht als nen echter 6 core. Bei Intel leidet IMMER die Performance, weil sie "nur" nen quad core haben und versuchen den doppelt zu fahren.
 
OK aus der Sicht gebe ich dir natürlich recht... Mir gings ja auch nicht primär nur um einen Bereich, sondern eher darum, das AMD aktuell versucht mit einem Design den ganzen Markt zu erschlagen -> logischerweise mit den Nachteilen. Die eben nicht optimal sind, möglicherweise trotz dem besseren Ansatz an Technik ;)

PS: bei Intel leidet eigentlich die Performance auch nicht zwangsweise. Da muss ich widersprechen. Entweder du nutzt einen Thread, und fährst volle Leistung eines Thread des selben Cores. Oder du fährst mit mehr wie einem Thread und hast mindestens die selbe Leistung + die skalierung von SMT.
Bei AMDs CMT Ansatz ist das Ergebnis quasi identisch. Ein Thread -> Volle Leistung eines Int. Cores bzw. der FPU. Zwei Threads -> unter Umständen doppelte Int. Leistung, aber je nach FPU Auslastung nur die Skalierung der FPU, die sie noch hat.
Zwei vollwertige Cores hingegen bringen dir dort optimalerweise eben auch doppelte Leistung. Brauchen dafür aber auch doppelten Platz und erzeugen ggf. auch doppelte Wärme/Verbrauch.
 
HT, wenn wir dabei bleiben, SMT ist eigentlich wesentlich mehr.

HT ist einfach nur in der Lage freie Plätze in der Pipeline zu nutzen, die ohne dessen Einsatz einfach rumidlen würden. Lastet man allerdings eine CPU voll aus, dann greift kein HT, weil es darauf angewiesen ist, dass noch verfügbare Resourcen da sind.

Volle Leistung = 100% (da kann HT nix machen)

Liegt allerdings ein Befehl vor, der nur 90% der Pipeline belegt, dann kann HT ggf. diese Plätze nutzen und diese Rechenpower nutzen.

Daher ist es auch so, dass HT bei bestimmten Anwendungen sogar Leistung kostet, da es nichts anderes macht wie 2 Threads auf einer klassischen singlecore CPU anzuführen, es knappst also Rechenzeit ab.
Das ist der Nachteil, daher ist es sehr von der Anwendung und den eingesetzen Befehlen abhängig ob HT überhaupt "Mehr"leistung (sie ist ja nicht mehr) generieren kann und dann, wieviel das eben ist.

Wenn man einen 8 Module AMD gegen einen 8 Core Intel antreten läßt, dann kann der AMD eben doppelt so viel Rechenarbeit leisten (rein Designmäßig), braucht dafür aber auch mehr Fläche. Das klappt aber nur, wenn mehr als 8 Threads da sind. Aber dann skaliert das System (wenn 2x FPU) idealerweise mit 100%, während HT ggf. keine Mehrleistung generiert.

Und die Core können schon daher nicht doppelten Verbrauch erzielen, da sie eben beide gemeinsam Teil nutzen, die bei einem klassischen Design doppelt vorhanden sind.
Man kann sich das so vorstellen, dass ein Core plötzlich 2 Recheneinheiten hat, die Verwaltung aber auf dem Niveau bleibt.

Intels Ansatz:
Nach Möglichkeit Ausnutzung brachliegender Bereiche in der Recheneinheit (hier benötigt man etwas mehr VerwaltungsDIE-Platz)

AMDs Ansatz:
Verringerung des DIE-Platzes durch doppelte Benutzung der Verwaltungseinheiten (2 Cores teilen sich diese Einheiten)
Wenn man das System weiterspinnt, besteht sogar die Möglichkeit das ganze weiter zu skalieren auf evtl 4 Cores.
Die Zusammenfassung 2er Cores und der gemeinsamen Einheit = Module

Und natürlich hat AMD ihre Startschwierigkeiten, wenn da so geklappt hätte wäre das wohl nen echtes Meisterwerk. Man darf nicht vergessen, dass sich ein solches Design maßgeblich von dem Unterscheidet, was man bisher kannte.
Ob man damit erfolgreich ist, wird sich zeigen. Sie müssen es eben schaffen, dass die Verwaltungseinheiten es ohne Verlußt schaffen beide Core zu füttern und sie müssen die Cores selber dahingehen optimieren, dass sie selber mehr IPC generieren.

EDIT:
Meiner Meinung nach hätte auch AMD einfach den Phenom nehmen können und stur in der Architektur rumfrimeln können, bis sie mehr IPC haben. Man hat sich aber für diesen Weg entschieden.
Und klar, leider müssen sie das in den Desktopmarkt drücken, da kann man es sich nicht erlauben parallel 2 gänzlich verschiedene Architekturen zu designen. Das ist nicht wirtschaftlich, sofern denn der große Umbruch nicht ins verderben führt, das will man nicht hoffen.

2ndEDIT:
Die FPU ist 2x 128 breit, man kann also auf ihr auch kleinere FLOPs fahren und das dann doppelt, ist nur die Frage, wie oft man das eine oder das andere braucht.

3rdEDIT:
Unterm Strich will ich eigentlich auch nur sagen, dass man die Module schon fast als vollwertigen dual Core Chip sehen kann, eben mit der Einschränkung der FPU und evtl. in den davorgelagerten Einheiten(wenn diese ggf. nicht optimal laufen, das kann ich nicht beurteilen).
 
Zuletzt bearbeitet:
Aus technischer Sicht kann ich das durchaus nachvollziehen. Aber rein die technische Sicht bringt dem Endkunden (dir, mir und allen anderen) absolut keine Punkte.
Und schlussendlich ist es auch vollkommen wurscht, ob man für eine Leistung x nun 8 Recheneinheiten braucht, oder eben nur jener 4, wenn die Leistung am Ende identisch ist.
Stell mir bitte ein Intel System aus CPU und Mainboard mit AES-NI und IOMMU für ca. 300 Euro zusammen welches leistungsmäßig meinem Storageserver entspricht. Recht viel mehr hab ich im Januar diesen Jahres nämlich nicht dafür bezahlt!
Aber so 100% versteh ich den Zusammenhang nicht. Wieso mit "weniger Teilen mehr machen"?
AMD geht gerade genau den anderen Weg, und versucht aus mehr Teilen mehr zu machen. (8 Int. Cores + 4 FPUs CMT Ansatz vs. 4 Int. Cores + 4 FPUs SMT Ansatz) und zieht dabei auch noch den kürzeren.

SMT setzt genau dort an, wo die Faulheit der Programmierer aufhört. Hoch effizienter Programcode lässt sich durch SMT nur sehr sehr schlecht verschnellern. Bei CMT hingegen wird es idR zwangsweise schneller, eben weil mehr Ausführungseinheiten vorhanden. Dafür benötigt Intel soweit ich das in Erinnerung habe ~5% mehr Chipfläche eines Cores, um SMT zu integrieren. Wohingegen bei AMD dort deutlich mehr auf dem Papier stehen. Wie hoch genau, weis ich allerdings nicht...
Wobei wir wieder bei den wirklich wichtigen Programmen wären. Ich musste bei dem X3850 System auch HT im Bios deaktiveren, da die Benchmarkwerte für AES und co. sonst unterirdisch schlecht wurden.
Ich finde Vergleiche zu anderen, nicht x86 based Systemen äußerst unglücklich. Einfach weil die Anforderungen ganz anders sind.
Der x86 Markt, gerade im Desktop Bereich kann mit deutlich mehr wie vier Threads Null komma gar nix anfangen... Genau für diesen "speziellen" Markt hast du als Hersteller ganz andere Möglichkeiten. Da nehmen die Kunden mit Kusshand eine CPU, die nun nicht mehr nur 128 Threads zur gleichen Zeit, sondern eben mal 256 Threads abarbeiten kann.
Bleiben wir mal bei dem kleinsten T4 System: SPARC T4-1 Server Features & Benefits | SPARC T-Series Servers | Oracle
A single 8-core, 2.85 GHz SPARC T4 processor with dedicated 128K L2 cache per core and 4 MB shared L3 cache. The SPARC T4 processor automatically switches to single-thread mode when only a single thread is active, dedicating all resources to that thread's execution.

http://www.oracle.com/us/products/s...ise/t-series/sparc-t4-processor-ds-497205.pdf
Damit du dir die 1,4MByte nicht herunter laden musst für die drei Seiten:

8 SPARC V9 cores
• Die size 403 mm
• Frequency: 2.85 GHz and 3.0 GHz
• 40nm process technology
• Up to 64 threads per CPU
• Up to 16 DDR3 DIMMs per T4 supporting DDR3 1066 MHz memory
• Scalability up to 4 sockets with no additional silicon necessary
• Cryptographic Instruction Accelerators directly accessible through direct non-privileged access crypto instructions
• 128 KB Level 2 Cache per core
• 4 MB, 8 banked, 16 way associative Level 3 Cache
• Max power 240W
• Dual 10 GbE XAUI Network Interface Units integrated on chip
• Dual PCI Express Generation 2 x8 interfaces integrated in silicon
• New on-chip Encryption Instruction Accelerators with direct non-privileged support for 16
• industry-standard cryptographic algorithms plus random number generation in each of the eight
cores: AES, Camellia, CRC32c, DES, 3DES, DH, DSA, ECC, Kasumi, MD5, RSA, SHA-1,
SHA-224, SHA-256, SHA-384, SHA-512

Ein einzelner Kern:

T4 Core Specifications
• 15.4 mm² core size
• 16 KB data cache and 16 KB instruction cache
• 8 threads
• Sophisticated branch predictor
• 2 out-of-order integer execution pipelines, one floating-point unit (FGU), and Hardware data prefetcher
• Cryptographic Instruction Accelerators integrated in the pipelines

Intel hat ja schon angekündigt, eine Ethernet Schnittstelle in die CPU zu integrieren.
Und ja, klar ist es aus so manchem Gesichtspunkt ungünstig, das Intel hier und dort Features wegstreicht. Dafür bietet Intel im aktuellen Markt für so ziemlich jedes Anwendungsgebiet im PC Bereich ein Produkt, was auch dafür mehr oder weniger explizit designt wurde. Im Desktopbereich braucht soziemlich niemand ECC. Dafür gibts die Xeons. Zum Thema AES, auch wenn wir hier viele Sachen mit Verschlüsslung machen. Es geht auch ohne ;)
Inwiefern bietet Intel für jeden Bereich etwas an? Indem Sie weniger Speicherkanäle, deaktiverte AES-NI, VT-x usw. Funktionen und ECC-Ram support dann als "günstigere" CPU verkaufen?
Wenn du für die Sicherheit in einem Unternehmen verantwortlich wärst, würdest du nicht so reden. ssh, OpenVPN usw. sind auch innerhalb eines Unternehmens wichtig. Gerade in Zeiten der selbst mitgebrachten IT-Geräte wie Smartphones und co. Es gibt auch immer wieder mal größere Ciscos die das senden von Paketen von einem Vlan ins andere zu lassen ohne das ein Routing eingerichtet ist.
PS: Thema Quadchannel RAM Interface gibts nicht erst seit S2011. Das hast du schon im Dual S771 2006 drin ;)
Toll, demnach hab ich auch Dualchannel schon in meinem Pentium 3 Server seit 10 Jahren drin. Da sind es auch zwei unabhängige FSB.
 
HT, wenn wir dabei bleiben, SMT ist eigentlich wesentlich mehr.

HT ist einfach nur in der Lage freie Plätze in der Pipeline zu nutzen, die ohne dessen Einsatz einfach rumidlen würden. Lastet man allerdings eine CPU voll aus, dann greift kein HT, weil es darauf angewiesen ist, dass noch verfügbare Resourcen da sind.

Volle Leistung = 100% (da kann HT nix machen)

Liegt allerdings ein Befehl vor, der nur 90% der Pipeline belegt, dann kann HT ggf. diese Plätze nutzen und diese Rechenpower nutzen.

Daher ist es auch so, dass HT bei bestimmten Anwendungen sogar Leistung kostet, da es nichts anderes macht wie 2 Threads auf einer klassischen singlecore CPU anzuführen, es knappst also Rechenzeit ab.
Das ist der Nachteil, daher ist es sehr von der Anwendung und den eingesetzen Befehlen abhängig ob HT überhaupt "Mehr"leistung (sie ist ja nicht mehr) generieren kann und dann, wieviel das eben ist.

SMT ist doch dennoch die Technik, Intel schimpft ihre Implementation ja mittlerweile auch SMT, nicht mehr wie beim P4 HT. ;)
Aber sei es drum, in meinen Augen hat Intel sehr früh erkannt, das in so einer "simplen" Implementation viel Potential steckt. Denn rein aus Anwendungssicht zeigt sich in nahezu allen Fällen, das die Programmierer einer Software selbst immer "schlampiger" werden.
So zeigt sich auch in äußerst vielen Anwendungen und Benches, das SMT die "versprochene" Mehrleistung bringt, wenn mehr wie ein Thread auf einem Core läuft.

Der angesprochene ungünstige Optimalfall, das die Ressourcen so ausgelastet sind, das SMT nichts bringt, bzw. gar langsamer arbeitet bei zwei Threads auf einem Core, kommen aber wohl äußerst selten bis nahezu gar nicht vor.

Vor allem ist ja mittlerweile ein gängiges aktuelles OS auch in der Lage zu unterscheiden, das primär nur ein Threasd pro Cores mit Last belegt wird und erst danach der zweite Thread angefasst wird, wenn weite Arbeit anliegt.
Und klar ist es so, das durch SMT die Leistung von Thread 1 sinkt, wenn Thread 2 auf dem gleichen Core läuft. Aber es ist immernoch schneller als beide Threads sequenziel abzuarbeiten. Zumindest in 99% der Fällt, mit Ausnahme des Optimalfalls eben...

Wenn man einen 8 Module AMD gegen einen 8 Core Intel antreten läßt, dann kann der AMD eben doppelt so viel Rechenarbeit leisten (rein Designmäßig), braucht dafür aber auch mehr Fläche. Das klappt aber nur, wenn mehr als 8 Threads da sind. Aber dann skaliert das System (wenn 2x FPU) idealerweise mit 100%, während HT ggf. keine Mehrleistung generiert.

Im Grunde ist das genau die Theorie, die man daraus ableiten kann... In der Praxis ist es dann aber eher so, das bei 8 Threads in deinem Beispiel die Intel CPU schon 100% Leistung bringt, wärend die AMD CPU bei Int. Interaktionen nur ~50% der Leistung liefert. Und diese ~50% der Möglichen Leistung bei AMD sind dabei noch weit unter dem, was Intel mit 8 Threads zu liefern im Stande ist.
Erst bei 16 Threads liefert dir der AMD die beannte 100%. Wohingegen Intel bis zu 125% ausgibt.
Dabei sind die Zahlen absichtlich so gewählt. Ich hätte auch schrieben können bei AMD 100% mit 8 Threads und 200% mit 16 Threads, aber das wäre eben irgendwie nur die halbe Wahrheit :fresse: da 50% der Int. Einheiten ja brach liegen würde, bei 8 Threads.

Dazu kommt dann noch die Tatsache, das Intel für 8 Cores + SMT eine CPU braucht, wohingegen AMD für 8 Module im CMT Design eben zwei CPU DIEs zusammen packt (mit benannten Lizenznachteilen)


Intels Ansatz:
Nach Möglichkeit Ausnutzung brachliegender Bereiche in der Recheneinheit (hier benötigt man etwas mehr VerwaltungsDIE-Platz)

AMDs Ansatz:
Verringerung des DIE-Platzes durch doppelte Benutzung der Verwaltungseinheiten (2 Cores teilen sich diese Einheiten)
Wenn man das System weiterspinnt, besteht sogar die Möglichkeit das ganze weiter zu skalieren auf evtl 4 Cores.
Die Zusammenfassung 2er Cores und der gemeinsamen Einheit = Module

Und natürlich hat AMD ihre Startschwierigkeiten, wenn da so geklappt hätte wäre das wohl nen echtes Meisterwerk. Man darf nicht vergessen, dass sich ein solches Design maßgeblich von dem Unterscheidet, was man bisher kannte.
Ob man damit erfolgreich ist, wird sich zeigen. Sie müssen es eben schaffen, dass die Verwaltungseinheiten es ohne Verlußt schaffen beide Core zu füttern und sie müssen die Cores selber dahingehen optimieren, dass sie selber mehr IPC generieren.

Wie schonmal angesprochen, die Theorie ist zweifelsfrei gut. Die Praxis kränkelt aktuell noch. Das ganze optimal aufzuziehen ist zweifelsfrei schwer. Aber man darf auch nicht vergessen, das Intel ebenso nicht schläft und vor allem wohl viel viel mehr Ressourcen für die Entwicklung bereit hat. Und auch Intel tut sich lange schon schwer wirklich massive Sprünge in Sachen Leistung pro Thread zu bringen. Einfach weil irgendwann die Optimierungsluft dünner wird.
Rein auf IPC runter gebrochen liegt AMD immernoch sehr gut. Vor allem, IPC bezeichnet vom Namen her Instruktionen pro Takt. Aber nicht die Anzahl der Recheneinheiten, die daran beteiligt werden. Ein 8 Modul Bulldozer hat also durchaus ordentlich IPC Leistung. Genau so wie die Desktop vier Moduler diese haben. Nur spielt der aktuelle Workload, gerade im Desktop Bereich eben nicht auf absolutes Multithreading, sondern nutzt noch viel zu oft nur einen bis wenige Threads.

Meiner Meinung nach hätte auch AMD einfach den Phenom nehmen können und stur in der Architektur rumfrimeln können, bis sie mehr IPC haben. Man hat sich aber für diesen Weg entschieden.
Und klar, leider müssen sie das in den Desktopmarkt drücken, da kann man es sich nicht erlauben parallel 2 gänzlich verschiedene Architekturen zu designen. Das ist nicht wirtschaftlich, sofern denn der große Umbruch nicht ins verderben führt, das will man nicht hoffen.
Ob man damit lange gut gefahren währe, ist aber dann fraglich. Die Community rufte ja auch teils danach. Auf kurzfristige Sicht vllt OK, aber auf längere Sicht wohl die Sackgasse. Da bietet Bulldozer mehr Möglichkeiten für die Zukunft.
Vor allem, Phenom/Barcelona basiert im Grunde auf der K8 Architektur von 2003... Das ist verglichen daran horn alt. Und über die Zwischenschritte konnte man so extrem viel Pro Thread Leistung nicht rausquetschen. Ein Thuban X6 ist in Sachen Pro Thread Leistung so extrem viel besser nicht als die ersten K8 CPUs auf S940 damals bzw. S939 später.

Bei Intel sind an der Stelle die Sprünge (leider muss man wohl sagen) deutlich größer. Vom Pentium Pro über Pentium III über Pentium M über Core Solo/Duo über Core2Duo (in zwei Ausführungen) gab es da gewaltige Sprünge. Und Intel hat trotz lahmendem FSB und shared Memory Controller im Chipsatz deutlich den A64 K8 geschlagen. Dem Phenom II wird ja nachgesagt in etwa so fix zu sein pro Takt, wie die Core2 CPUs. Nur gabs eben danach noch zwei (zwar kleinere) Sprünge, die Bulldozer so nicht abfedern konnte...

2ndEDIT:
Die FPU ist 2x 128 breit, man kann also auf ihr auch kleinere FLOPs fahren und das dann doppelt, ist nur die Frage, wie oft man das eine oder das andere braucht.

3rdEDIT:
Unterm Strich will ich eigentlich auch nur sagen, dass man die Module schon fast als vollwertigen dual Core Chip sehen kann, eben mit der Einschränkung der FPU und evtl. in den davorgelagerten Einheiten(wenn diese ggf. nicht optimal laufen, das kann ich nicht beurteilen).

Das mit der FPU ist so ne Sache, wie gesagt, im Nachfolger soll es wohl wieder ne doppelte FPU geben pro Modul. Was dann wiederum fast nem echten Dualcore gleichkommen würde.
Die Zählweise ist aber so oder so von Generation zu Generation etwas verschieden. Vor dem Pentium 1 gabs ja nichtmal ne FPU in der CPU, es war trotzdem ein Core bzw. ein Prozessor :fresse:

Übrigens, zum Thema SMT, das nutzt nicht nur Intel. Es gibt da noch ganz paar CPUs, die durch deutlich mehr wie "zweifach" SMT (wenn ich das mal so nennen darf) profitieren. Sogar Knights Korner bzw. besser bekannt als Xeon Phi oder auch Larrabee/LRB als nutzt vierfach SMT, wenn ich mich recht entsinne.
Die noch aktuelle Xbox (zweifach) soweit ich weis auch...

Der in meinen Augen riesige Vorteil von SMT zu CMT ist, das SMT die Möglichkeit bietet, mit nur einem Threads die Ressourcen ziemlich effizient auszunutzen. Und bei zwei Threads idR immernoch mehr Leistung bringt. Das ganze ohne die Fläche nenneswert zu erhöhen. CMT hingegen benötigt mehr Fläche, und benötigt zwingend die zwei Threads für optimale Auslastung.
Mal schauen was AMD machen kann, um diesem Umstand aus dem Weg zu gehen, die Ressourcen bündeln wäre ggf. eine Option, aber das könnte schwieriger werden als man so annimmt ;) Mal so eben auf nen Schnipp mit dem Finger wird das definitiv nix...

Stell mir bitte ein Intel System aus CPU und Mainboard mit AES-NI und IOMMU für ca. 300 Euro zusammen welches leistungsmäßig meinem Storageserver entspricht. Recht viel mehr hab ich im Januar diesen Jahres nämlich nicht dafür bezahlt!
Absolut unmöglich, Intel bietet lieder kein IOMMU ;) das bietet nur AMD.

Aber wie wäre es mit einem Xeon E3-1220 in Verbindung mit nem SM Brett?
Das kostete damals (Jan. 2012) ca. 340€ für Board + CPU. Leistungstechnisch so viel Unterschied ist nicht zum Bulldozer. Dafür bekommst du mit dem SM Brett ein echtes Serverboard. Genau so mit ECC Support, VT-x/d, AES-NI, und gar IPMI. Dazu Dual Intel GBit LAN...
~10% mehr für ne echte Serverkombo ist da nicht unbedingt verkehrt...

Wobei wir wieder bei den wirklich wichtigen Programmen wären. Ich musste bei dem X3850 System auch HT im Bios deaktiveren, da die Benchmarkwerte für AES und co. sonst unterirdisch schlecht wurden.
Wer definiert die Wichtigkeit von Programmen?
Du?
Ich glaube nicht... Aber worauf willst du überhaupt hinaus?

PS: auch der Vergleich hinkt etwas, welche Benches hast du denn ausgeführt und unter welchen Bedingungen? (OS, Programme?)

Bleiben wir mal bei dem kleinsten T4 System: SPARC T4-1 Server Features & Benefits | SPARC T-Series Servers | Oracle


http://www.oracle.com/us/products/s...ise/t-series/sparc-t4-processor-ds-497205.pdf
Damit du dir die 1,4MByte nicht herunter laden musst für die drei Seiten:
Das sagt mir jetzt was?
Das ich eine max. Power 240W CPU, welche nichtmal im Ansatz x86 Code ohne Emulation abarbeiten kann, und somit für einen mini Bruchteil des aktuellen Marktes aufgestellt ist, wo vorzugsweise hochoptimierter (in vielen fällen sogar selbst programmierter und hochoptimierter) Code ausgeführt wird, mit einer Eierlegenden Wollmilchsau Intel/AMD CPU vergleichen soll, welche für einen ganz anderen Markt gebaut wurde!?

Was soll an der Stelle eine Intel/AMD CPU anrichten? Der Vergleich macht keinen Sinn, wie ich eingangs schon beschrieb.
Das ist wie mit Grafikkarten. Eine CPU als Beispiel ein Xeon/Opteron der aktuellen Generation kann genau so den Programmcode einer Grafikkarte ausführen, wenn man ihm diesen vorsetzt. Dennoch wird der Prozessor nichtmal im Ansatz die Leistung einer halbwegs aktuellen Grafikkarte erreichen. Und selbst wenn man die gleiche Leistungsaufnahmeklasse betrachtet, bekommt man mit ~130W aus einer Grafikkarte weit mehr Leistung als aus einer CPU mit ~130W.

Es macht wie gesagt einfach einen Sinn so einen Vergleich zu führen. Aktuelle Intel/AMD CPUs haben sich über die letzten 20 Jahre hinweg als quasi Alleskönner etabliert. Für dedizierte Bereiche gibt es aber dedizierte Hardware, die auch dort deutlich fixer ist.


Intel hat ja schon angekündigt, eine Ethernet Schnittstelle in die CPU zu integrieren.

Inwiefern bietet Intel für jeden Bereich etwas an? Indem Sie weniger Speicherkanäle, deaktiverte AES-NI, VT-x usw. Funktionen und ECC-Ram support dann als "günstigere" CPU verkaufen?
Wenn du für die Sicherheit in einem Unternehmen verantwortlich wärst, würdest du nicht so reden. ssh, OpenVPN usw. sind auch innerhalb eines Unternehmens wichtig. Gerade in Zeiten der selbst mitgebrachten IT-Geräte wie Smartphones und co. Es gibt auch immer wieder mal größere Ciscos die das senden von Paketen von einem Vlan ins andere zu lassen ohne das ein Routing eingerichtet ist.

Toll, demnach hab ich auch Dualchannel schon in meinem Pentium 3 Server seit 10 Jahren drin. Da sind es auch zwei unabhängige FSB.

Du verkennst die Fakten. Intel bringt dir dediziert für den Desktop Bereich einen Prozessor, der eben genau die nötigen Funktionen für den Desktop Bereich bringt. Da braucht für gewöhnlich niemand ECC genau so wie VT-d ziemlich unnötig ist. Bestenfalls kann man VT-x aufführen. Aber auch hier ist die Nötigkeit ziemlich selten gegeben...
Bitte nicht von dir auf den ganzen Markt schließen. Spezielle Anforderungen wird man ggf. nur mit größeren Modellen gerecht.

PS: ich sagte übrigens nicht, das SSH/OpenVPN unwichtig ist. Ich sagte, das es auch ohne AES Hardwareunterstützung geht. Da die Softwareberechnung auch idR ausreichend fix arbeiten. Noch dazu bieten nicht alle Devices diese Hardwarebeschleunigung... Und der Speedvorteil ist in der Theorie zwar enorm, in der Praxis aber je nach Anwendung verpufft er. Beispiel: Thema HDD Verschlüsslung. Ob da nun 200MB/sec oder 50000MB/sec berechnet wer den können, was juckts mich wenn die HDD nur ~100MB/sec liefern kann!?

EDIT: mich würde aber interessieren, was du mit dem letzten meinst!?
Das würde bedeuten, das das Cisco Device nicht sauber arbeitet. Welchen Zusammenhang hat das aber mit dem genannten!?
 
Zuletzt bearbeitet:
@vBurak, entschuldige bitte diese Grundsatzdiskussion hier. ;) Ich hoffe du ließt noch mit?

Bei Intel sind an der Stelle die Sprünge (leider muss man wohl sagen) deutlich größer. Vom Pentium Pro über Pentium III über Pentium M über Core Solo/Duo über Core2Duo (in zwei Ausführungen) gab es da gewaltige Sprünge. Und Intel hat trotz lahmendem FSB und shared Memory Controller im Chipsatz deutlich den A64 K8 geschlagen. Dem Phenom II wird ja nachgesagt in etwa so fix zu sein pro Takt, wie die Core2 CPUs. Nur gabs eben danach noch zwei (zwar kleinere) Sprünge, die Bulldozer so nicht abfedern konnte...
Wenn ich mir die Rechenleistung im Falle vom openssl AES Benchmark anschaue, ist der Dual P3-S mit 1,4Ghz und der Quad CPU Xeon 7120N sowohl von der Leistungsaufnahme für das Gesamtsytem als auch der Leistung genauso schnell wie es entsprechend viele Pentium III CPUs mit dem selben Takt gewesen wäre. Und das für den letzten der Pentium 4 Xeon der Netburst Architektur mit gerade mal 667 Mhz Speicherinterface.
Auch gab es keine nennenswerten Änderungen bei Intel vom Pentium 2 über 3 und M und die Core und Core2 CPUs außer, dass der L2 Cache deutlich erhöht wurde und der FSB mit höheren Taktraten betrieben wurde. Im übrigen ist der Pentium M eine Auftragsfertigung von Intel den eine israelische Firma eben auf Grundlage des Pentium3 weiterentwickelt hat. Bei den Core CPUs sind nur weitere extra Register und Einheiten hinzu gekommen. Genau wie zuvor an den SSE-Einheiten herum geschraubt wurde.

Aber wie wäre es mit einem Xeon E3-1220 in Verbindung mit nem SM Brett?
Das kostete damals (Jan. 2012) ca. 340€ für Board + CPU. Leistungstechnisch so viel Unterschied ist nicht zum Bulldozer. Dafür bekommst du mit dem SM Brett ein echtes Serverboard. Genau so mit ECC Support, VT-x/d, AES-NI, und gar IPMI. Dazu Dual Intel GBit LAN...
~10% mehr für ne echte Serverkombo ist da nicht unbedingt verkehrt...
IPMI ist nett keine Frage und die Supermicro Mainboards in der Regel auch recht zuverlässig. Aber wer ist schon noch mit Dual Gbit Lan zufrieden? Das war 2003 interessant, aber 2012 bei weitem nicht mehr.

Wer definiert die Wichtigkeit von Programmen?
Du?
Ich glaube nicht... Aber worauf willst du überhaupt hinaus?

PS: auch der Vergleich hinkt etwas, welche Benches hast du denn ausgeführt und unter welchen Bedingungen? (OS, Programme?)
Im einfachsten Falle der in OpenSSL integrierte Benchmark, funktioniert komischerweise unter allen Architekturen und Betriebssytemen. Solaris, BSD, Linux und auch Windows.

Das sagt mir jetzt was?
Das ich eine max. Power 240W CPU, welche nichtmal im Ansatz x86 Code ohne Emulation abarbeiten kann, und somit für einen mini Bruchteil des aktuellen Marktes aufgestellt ist, wo vorzugsweise hochoptimierter (in vielen fällen sogar selbst programmierter und hochoptimierter) Code ausgeführt wird, mit einer Eierlegenden Wollmilchsau Intel/AMD CPU vergleichen soll, welche für einen ganz anderen Markt gebaut wurde!?
Du kreidest heute noch DEC an, dass denen ihre erste 64bit Alpha CPU (übrigens schon 1996) keinen x86 Code verarbeiten konnte und Microsoft deswegen alles in Software unter Windows NT emuliert hat?
Du scheinst zu vergessen, dass dies eine 8 Core CPU mit 16 Integer Einheiten und 8 FPU Einheiten (erinnert dich das gerade an AMD?) und ein paar extra Schaltkreisen für 64 parallele Threads mit automatischer Optimierung ist welche zwei 10Gbit Ethernet XAUI (jeweils ca. 10 Watt) zwei PCIe 2.0 x8 sowie genug Bandbreite für die Verbindung zu vier Sockel Rechnern und 16 DIMMs/CPU (achtfaches Speicherinterface?) und einer unabhängigen Cryptobeschleunigung (AES-NI ist nur eine Erweiterung, die CPUs sind bei 100% Last leider für nichts anderes mehr verwendbar) ist, welche noch in einem alten 40nm Prozess hergestellt wird?
Wenn du wirklich so viele unoptimierte Software einsetzt, wieso funktioniert dann ein Großteil der für Privatpersonen wichtigen Software auch auf iOS und Android? Sind Photoshop und Word schon zu optimiert? Beides gab es auch für Apples PPC G4 und G5.
Welche unoptimierte Software welche nur auf x86 CPUs lauffähig ist setzen denn die meisten Privatpersonen so ein? Windows gilt in diesem Falle als Antwort leider nicht ;) Virenscanner und Flash neben PDF-Betrachter würde ich aber gelten lassen. Da dies hier die einzigen Anwendungen sind, die irgendwie nie genug CPU-Leistung haben können...

Du verkennst die Fakten. Intel bringt dir dediziert für den Desktop Bereich einen Prozessor, der eben genau die nötigen Funktionen für den Desktop Bereich bringt. Da braucht für gewöhnlich niemand ECC genau so wie VT-d ziemlich unnötig ist. Bestenfalls kann man VT-x aufführen. Aber auch hier ist die Nötigkeit ziemlich selten gegeben...
Bitte nicht von dir auf den ganzen Markt schließen. Spezielle Anforderungen wird man ggf. nur mit größeren Modellen gerecht.
Intel hat dieses Denken erst nach dem Pentium 4 erreicht. Die Masse soll sich alle x Jahre einen neuen Rechner bzw. Tablet oder Ultrabook zulegen.
Auch wenn die Atom CPUs irgendwo ihre Berechtigung haben wenn man noch keinen entsprechenden Rechner dafür hat, aber das Dual P3-S System ist bald 10 Jahre alt und hat neben Dual Gbit Lan, vier 2Gbit FC-Ports und ein paar SATA 2.5 vom 3ware Controller immer noch mehr Leistung mit den 6GByte ECC RAM als ~40% der in Privathaushalten verwendeten Rechner.
PS: ich sagte übrigens nicht, das SSH/OpenVPN unwichtig ist. Ich sagte, das es auch ohne AES Hardwareunterstützung geht. Da die Softwareberechnung auch idR ausreichend fix arbeiten. Noch dazu bieten nicht alle Devices diese Hardwarebeschleunigung... Und der Speedvorteil ist in der Theorie zwar enorm, in der Praxis aber je nach Anwendung verpufft er. Beispiel: Thema HDD Verschlüsslung. Ob da nun 200MB/sec oder 50000MB/sec berechnet wer den können, was juckts mich wenn die HDD nur ~100MB/sec liefern kann!?

EDIT: mich würde aber interessieren, was du mit dem letzten meinst!?
Das würde bedeuten, das das Cisco Device nicht sauber arbeitet. Welchen Zusammenhang hat das aber mit dem genannten!?
Meine vier Jahre alten U320 SCSI HDDs lieferten vom ersten Tage an jeweils ~130Mbyte/sec und tun es wie das Raid10 aus vier ES.2 Barracuds auch noch heute. Im übrigen Schaffen die CPUs nur ein paar Gbyte/sec. Mit keiner CPU kriegst du damit 40Gbit/sec vernünftig übertragen.

Wenn IPSec bzw. IPv6 für dich so ungewöhnlich ist, dass dies kein Privatmensch benötigt, warst du wohl auch nicht für Ethernet und IPv4? ;)

Entschuldige wenn ich für dich etwas aus dem Rahmen falle was die private Nutzung von IT-Systemen anbelangt. Andere haben lieber die neueste Grafikkarte oder dutzende von 3TByte HDDs und beschäftigen sich mit 50+ Euro Kühlkörpern.
Ich habe keine Lust lange zu warten und will die paar wenigen wichtigen Daten schnell von A nach B gesichert übertragen wissen, auch wenn jemand im lokalen Netzwerk wäre oder das Netzwerk mit öffentlichen IP-Adressen arbeiten würde.
Das Leben ist zu kurz um zu warten ;)
 
Zuletzt bearbeitet:
Woher wisst ihr diese ganze Informationen ;D? Ich hatte vor zwei Semestern Rechnerarchitektur und habe inzwischen größtenteils vergessen bzgl. Superskalarität, HyperThreading, Instruktionen pro Zyklus und sonst was^^.

@bluesunset welche U320 SCSI HDDs sind das denn? Ich hatte letztens ein RAID 10 aus 4x SCSI HDDs gemacht und kam nur auf 30MB/s...
 
Wenn das Hobbymäßig interessiert dann merkt man sich sowas mit einem mal lesen ;-)

LG Marti

(gesendet via Xperia Tipo Dual)
 
So ziemlich alle letzten U320 HDDs machen das ohne weiteres.

Wenn man sich mit dem Thema beschäftigt, dann lernt man auch was dabei, insbesondere dann, wenn man am Ball bleibt. Rechnerarchitektur ist ja nun auch keine Raketenwissenschaft. Man muß nur die Grundzüge verstanden haben.

@blue
Du willst also dem SM Board als Nachteil auslegen, dass es nur 2x gbit hat? Bei deinem Board war es noch ausreichend, dass es 1gbit für den FX bereitstellt.
Sonne will ausdrücken, dass man für das (fast) gleiche Geld eine Combo bekommen hätte, die von der Leistung her gleich ist, ServerHW ist und sogar noch ein paar features mehr hat. Er hat damit deine Aussage widerlegt, dass es "damals" unmöglich war für 300EUR eine Combo ohne den FX aufzubauen.

Desweiteren kann man eine CPU nicht nur auf das AES rechnen begrenzen, es gibt auch andere Anwendungsfelder. Wenn es so einfach wäre und man die Rechenleistung verallgemeinern könnte, dann hätten wir nur eine Rechnerarchitektur und die dann in Perfektion, ist aber nicht der Fall. Es ist eben die Software die hier auch den Ton angibt, bzw die Compiler dazu.

Zu dem Atom vs Dual PIII und Homerechenleistung. Natürlich ist es für einen beachtlichen Teil der Menschen ausreichend.
Schonmal den Stromverbrauch reingezogen? Ich habe meiner Mutter letztes Jahr nen E-350 nettop zu Weihnachten geschenkt. Das Lutscht inkl ner SSD 14W aus der Dose. Das ist auch ein Fortschritt. (zwar gröstenteils auf die nm zurückzuführen, dennoch auch eine Designfrage)


Es sagt doch auch keiner, dass du warten sollst. Dennoch ist der Bedarf nach einer AES Leistung im Homebereich verhältnismäßig gering, insbesondere in den Bereichen, wo man es heute nutzen kann.
Dass es der ein oder andere braucht, steht außer Frage, dennoch ist es meist ausreichend.

Unterm Strich kann man aber dennoch sagen, um mal wieder zurück zum Thema zu kommen, dass jede aktuelle CPU mehr als ausreichend ist, zum Virtualisieren. Wer halt mehr möchte, der muß auch mehr nehmen. Aber so nen 6er FX dürfte wohl selten dicke Backen bekommen.

EDIT:
Piledriver angeschaut, bringt nix neues. Minimale Optimierung, keine neuen Recheneinheiten, ka ob die selber was an den Teilen gemacht haben. Mal sehn was die damit rausholen.
 
Zuletzt bearbeitet:
Wenn ich mir die Rechenleistung im Falle vom openssl AES Benchmark anschaue, ist der Dual P3-S mit 1,4Ghz und der Quad CPU Xeon 7120N sowohl von der Leistungsaufnahme für das Gesamtsytem als auch der Leistung genauso schnell wie es entsprechend viele Pentium III CPUs mit dem selben Takt gewesen wäre. Und das für den letzten der Pentium 4 Xeon der Netburst Architektur mit gerade mal 667 Mhz Speicherinterface.
Auch gab es keine nennenswerten Änderungen bei Intel vom Pentium 2 über 3 und M und die Core und Core2 CPUs außer, dass der L2 Cache deutlich erhöht wurde und der FSB mit höheren Taktraten betrieben wurde. Im übrigen ist der Pentium M eine Auftragsfertigung von Intel den eine israelische Firma eben auf Grundlage des Pentium3 weiterentwickelt hat. Bei den Core CPUs sind nur weitere extra Register und Einheiten hinzu gekommen. Genau wie zuvor an den SSE-Einheiten herum geschraubt wurde.

Netburst fällt bei Intel aus der Reihe. Man hat erst ziemlich spät erkannt, das man sich in eine Sackgasse bewegt und irgendwann die Reißleine gezogen. Vorteil an der Stelle für AMD, die mit dem K8 A64 dort auftrumpfen konnten. Dafür hat es Intel mit dem CoreSolo/Duo (Notebook) bzw. Core2Duo (Desktop und Notebook) geschafft, sich ziemlich eindrucksvoll zurück zu melden.
Zwischen P3 und dem letzten Core2Duo in 45nm ist mehr wie nur etwas mehr L2 Cache ;) Die pro Thread Leistung ist ziemlich deutlich gestiegen. Sogar so deutlich, das man diesen Speed bei keiner der beiden Nachfolge-Generationswechsel wieder geschafft hat.


IPMI ist nett keine Frage und die Supermicro Mainboards in der Regel auch recht zuverlässig. Aber wer ist schon noch mit Dual Gbit Lan zufrieden? Das war 2003 interessant, aber 2012 bei weitem nicht mehr.
Du wolltest doch ein System zu einem ähnlichen Preis mit gleicher Leistung. Ich bot dir ein System zu ~10% mehr Preis mit echten Serverkomponenten. Und dein günstig Desktop Brett bietet dir nichmal Dual GBit LAN ;)


Im einfachsten Falle der in OpenSSL integrierte Benchmark, funktioniert komischerweise unter allen Architekturen und Betriebssytemen. Solaris, BSD, Linux und auch Windows.
Das beantwortet die Frage nicht... Es macht nach wie vor keinen Sinn, sich auf ein Programm/Tool zu versteifen und daran die Wichtigkeit von Funktionen zu messen. Wir nutzen auf der Arbeit beispielsweise OpenSSL für das Austellen von Zertifikaten. Das läuft sogar auf nem Pentium 1 unter Linux. ;)


Du kreidest heute noch DEC an, dass denen ihre erste 64bit Alpha CPU (übrigens schon 1996) keinen x86 Code verarbeiten konnte und Microsoft deswegen alles in Software unter Windows NT emuliert hat?
Du scheinst zu vergessen, dass dies eine 8 Core CPU mit 16 Integer Einheiten und 8 FPU Einheiten (erinnert dich das gerade an AMD?) und ein paar extra Schaltkreisen für 64 parallele Threads mit automatischer Optimierung ist welche zwei 10Gbit Ethernet XAUI (jeweils ca. 10 Watt) zwei PCIe 2.0 x8 sowie genug Bandbreite für die Verbindung zu vier Sockel Rechnern und 16 DIMMs/CPU (achtfaches Speicherinterface?) und einer unabhängigen Cryptobeschleunigung (AES-NI ist nur eine Erweiterung, die CPUs sind bei 100% Last leider für nichts anderes mehr verwendbar) ist, welche noch in einem alten 40nm Prozess hergestellt wird?
Wenn du wirklich so viele unoptimierte Software einsetzt, wieso funktioniert dann ein Großteil der für Privatpersonen wichtigen Software auch auf iOS und Android? Sind Photoshop und Word schon zu optimiert? Beides gab es auch für Apples PPC G4 und G5.
Welche unoptimierte Software welche nur auf x86 CPUs lauffähig ist setzen denn die meisten Privatpersonen so ein? Windows gilt in diesem Falle als Antwort leider nicht ;) Virenscanner und Flash neben PDF-Betrachter würde ich aber gelten lassen. Da dies hier die einzigen Anwendungen sind, die irgendwie nie genug CPU-Leistung haben können...
Im bestenfall kreide ich den unsinnigen Vergleich an... Fakt ist, es gibt aktuell für den überwiegenden Großteil des gesamten klassischen Computermarktes x86 basierte Technik. Nur für kleine Randumgebungen (durchaus auch mit Daseinsberechtigung, keine Frage) gibt es andere Hardware mit ganz anderen Gegebenheiten.
Der Vorteil von x86 ist einfach, es gibt nahezu nix, was nicht darauf läuft, einfach weil es DER Unterbau ist, der sich über die Jahre rauskristalisiert hat.
Und ja, wenn ich mal den Programmierer raushängen lassen darf. Es besteht natürlich die Möglichkeit, Software zu portieren. Das heist aber lange nicht, das es auch so performt, wie sich das für die Hardware gehört. Wie gesagt, Beispiel Grafikkarten. Jede CPU kann wenn man das will auch neueste DX11 Spieletitel berechnen (die Grafik)
Die Leistung ist aber so schwach, das man schon seit mehreren Jahren, dafür dedizierte Recheneinheiten einsetzt... Die genau dafür zugeschnitten sind.

Auch wenn die Atom CPUs irgendwo ihre Berechtigung haben wenn man noch keinen entsprechenden Rechner dafür hat, aber das Dual P3-S System ist bald 10 Jahre alt und hat neben Dual Gbit Lan, vier 2Gbit FC-Ports und ein paar SATA 2.5 vom 3ware Controller immer noch mehr Leistung mit den 6GByte ECC RAM als ~40% der in Privathaushalten verwendeten Rechner.
Woher stammen die 40%? Die Statistik hätte ich gern gesehen ;)
Selbst bezahlbare privatpersonen Technik von vor 7 Jahren bietet dir mehr CPU Leistung als der Dual P3... Vom Verbrauch und sonstweden Featurunterstützungen ala USB2 usw. mal zu schweigen.
Es mag zwar sein, das es immernoch Leute gibt, die Hardware vor dem Technikstand älter als 7 Jahre haben, und somit auf nem SingleCore Athlon/Athlon XP oder Pentium 4 Singlecore bzw. dessen Leistungsniveau arbeiten, aber wie viele mögen das sein, gemessen an der anderen Masse?

Meine vier Jahre alten U320 SCSI HDDs lieferten vom ersten Tage an jeweils ~130Mbyte/sec und tun es wie das Raid10 aus vier ES.2 Barracuds auch noch heute. Im übrigen Schaffen die CPUs nur ein paar Gbyte/sec. Mit keiner CPU kriegst du damit 40Gbit/sec vernünftig übertragen.

Wenn IPSec bzw. IPv6 für dich so ungewöhnlich ist, dass dies kein Privatmensch benötigt, warst du wohl auch nicht für Ethernet und IPv4? ;)

Entschuldige wenn ich für dich etwas aus dem Rahmen falle was die private Nutzung von IT-Systemen anbelangt. Andere haben lieber die neueste Grafikkarte oder dutzende von 3TByte HDDs und beschäftigen sich mit 50+ Euro Kühlkörpern.
Ich habe keine Lust lange zu warten und will die paar wenigen wichtigen Daten schnell von A nach B gesichert übertragen wissen, auch wenn jemand im lokalen Netzwerk wäre oder das Netzwerk mit öffentlichen IP-Adressen arbeiten würde.
Das Leben ist zu kurz um zu warten ;)

40GBit/sec? Wer braucht sowas im Privathaushalt?
Niemand hat was gegen eigene Interessen von bestimmten Personengruppen. Auch diese Leute haben ihre Vorzügen, wenn man das mal so nennen kann.
Ich will da an der Stelle nochmal klar stellen, das ich absolut nix dagegen habe. Was ich aber klar bezeichnen muss, ist die Tatsache, das solche Personen eben für den gesamten Markt uninteressant sind. Einfach weil es davon nur äußerst wenige gibt. Der Massenmarkt misst sich an dem, was die Masse will. Deswegen auch der Name. Und ich kenne in meinem gesamten Bekannten/Verwandten Kreis absolut niemanden, der auch nur mit den Begriffen IPSec oder IPv6 was anzufangen weis. Deswegen haben diese Leute dennoch einen Anspruch auf PC Hardware und sollen diesen auch befriedigen können. Das genau fabrizieren die Hersteller wie INtel und AMD im Massenmarkt.

Woher wisst ihr diese ganze Informationen ;D? Ich hatte vor zwei Semestern Rechnerarchitektur und habe inzwischen größtenteils vergessen bzgl. Superskalarität, HyperThreading, Instruktionen pro Zyklus und sonst was^^.

@bluesunset welche U320 SCSI HDDs sind das denn? Ich hatte letztens ein RAID 10 aus 4x SCSI HDDs gemacht und kam nur auf 30MB/s...

Wenn man sich aus eigenem Interesse mit den Hintergründen beschäftigt, dann lernt man sowas recht fix. Auch wie das ein oder andere läuft. Erfahrungen durch den Arbeitsbedingten Themenbezug runden die Sache dann dazu noch ab ;)

Zum Thema SCSI, es gibt mehrere Standards, welche sich über die Jahre hinweg dort ergeben haben. Der letzte und somit schnellste Standard wären U320 SCSI HDDs bzw. Controller. Danach wurde die "Bus" Technik über den Haufen geworfen und man fing an mit SAS, was analog zu SATA eben Punkt zu Punkt Technik ist. (vereinfacht gesagt)
Wenn du mit deinem Test also HDDs oder einen Controller aus einem älteren Standard nutztest, so ist es nicht verwunderlich, das die Datenraten niedrig sind/waren.
30MB/sec klingt fast nach UltraWide SCSI... Wo theoretisch 40MB/sec durch den Bus passen.

Unterm Strich kann man aber dennoch sagen, um mal wieder zurück zum Thema zu kommen, dass jede aktuelle CPU mehr als ausreichend ist, zum Virtualisieren. Wer halt mehr möchte, der muß auch mehr nehmen. Aber so nen 6er FX dürfte wohl selten dicke Backen bekommen.

EDIT:
Piledriver angeschaut, bringt nix neues. Minimale Optimierung, keine neuen Recheneinheiten, ka ob die selber was an den Teilen gemacht haben. Mal sehn was die damit rausholen.

Um das nochmal zu bekräftigen... Ich verwende aktuell einen Core2 E5500 Dualcore. Für 5 VMs. ;)
Das geht auch, wenn auch RAM Limit (8GB) bedingt nicht so 100% optimal...

Thema Piledriver. Ja das scheint nur ein mini Refresh zu sein. Schau mal nach Steamroller.
AMDs

PS: ich habe mich oben scheinbar übrigens vertan. Es sind wohl doch nicht zwei FPUs pro Modul, das wird wohl so bleiben. Aber es gibt an der Stelle wohl zwei Decoder und somit wieder einen "dediziert" pro Int. Einheit.
Wenn man so will dann wohl quasi ein ganz "klassischer" CPU Core wie damals noch ohne FPU, welche dann pro Modul shared zur verfügung steht.

Was das alles bringt, bleibt abzuwarten. Im Moment sehen die Gerüchte Steamroller ja nicht vor Ende 2013/Anfang 2014 wenn ich das so recht gelesen haben. Bis dahin wird Intel wohl mit Haswell schon um die Ecke geguckt kommen. Und Haswell ist wie Sandy-Bridge dann wieder ein neuer Schritt. Angeblich mit ~15% mehr IPC bei gleicher Coreanzahl sowie 22nm Fertigung. Auch wenn Intel ihren eigens gesteckten 2 Jahres Tick/Tock Zeitplan nicht ganz einhalten können aktuell, scheint AMD noch deutlich "langsamer" zu arbeiten. Ob sich das über lange sicht ausgeht!? Mal gucken...
 
Hatte ehrlich gesagt nicht nach einem Xeon Ausschau gehalten, da das 890FX Board mehr als genug PCIe Lanes hat und der onboard Gbit LAN Chip auch schon von Intel ist. Vor allem waren die normalen Desktop i5 CPUs mit AES-NI deutlich teurer als der 8120 FX. Bin also davon ausgegangen, dass ein vergleichbarer Xeon also nochmal gut mehr kostet. Die paar Features mehr dürften sich aber auf das IPMI Beschränken? Kann an dem Crosshair auch die einzelnen PCIe-Slots deaktivieren per Schiebeschalter. ;) Auch gab es nicht das Problem beim Bios Update, das ich eine ältere unterstützte Phenom2 CPU benötigte - das Update ist per USB-Stick und extra Taster ohne CPU möglich. Wie das bei den Supermicro Boards mit Intels neuen V2 Xeons der Fall war/ist.

Zu den U320 HDDs, dies waren bei Seagate die 15k5, bei Hitachi die UltraStar15k300 und bei Fujitsu die Allegro 10.
Alle damals in der Regel mit 74GB, 147 und 300GB. Jeweils dann mit einer, zwei oder vier Magnetscheiben und 15000 rpm.

AES ist halt der Grund, warum die Pentium 3 CPUs (zusammen nur ~60MByte/sec) nicht mehr ausreichend sind. Deswegen hängt auch alles langsamere an FC mit dran. Man will die vorhandene Infrastruktur mit 10Gbit Ethernet schließlich auch mal voll ausfahren können. :)

Letzten Endes ist es heutzutage Jammern auf hohem Niveau. Man bekommt CPUs von ~2 Watt bis 130 Watt.
Trotzdem rechnet sich oft genug der Austausch bestehender Systeme alleine aus dem Grund des geringeren Energieverbrauches nicht, wenn es sich nur um einen Pentium1-3 oder Core(2) handelt. Ich bin da eher für die Vermeidung weiteren giftigen Elektroschrottes der in der dritten Welt verbrannt wird.

Bezüglich Rechnerarchitekturen gibt es immer wieder mal (so alle 2-3 Jahre?) einen sehr guten und ausführlichen Artikel im c't Magazin. Wie die CPU den nun wirklich arbeitet.

Wir mussten auch auf einem Notebook mit 1,6Ghz Pentium M und ursprünglich 512MByte RAM neben dem Host OS Windows XP zwei Win2k3 Server und einen weiteren Windows Xp Prof. Client virtualisiert laufen lassen...
Das Notebook tut mit 2GByte RAM noch heute. Tippe gerade darauf ;) Ist auch bald 8 Jahre alt. HDDs wurden vorsorglich getauscht.

Ich rede nicht um bedingt davon das man 40Gbit oder 100Gbit Ethernet heute schon bräuchte. Aber mit genug PCIe x8 Steckplätzen (2-4) kann man ein System auch in 5+ Jahren noch schön aufrüsten mit HBAs und NICs.
10 und 40Gbit/sec ist bei Ethernet halt nun mal der aktuelle Stand der Technik.
Auch wenn die optischen Module nur 15 bis max. 25Gbit/sec übertragen können und dies wohl bis 2020 so bleiben wird.
Ob man die QSFP von 40Gbit Ethernet dann durch drei, zwei oder irgendwann sogar nur noch eine optische Faser je Richtung ersetzen kann vermag meine Glaskugel leider noch nicht zu sagen.

Zu der Verbreitung von IPv6 werden die meisten Nutzer wohl mit Smartphones als Endgeräte mit LTE beitragen. Die Daten sollten dann natürlich auch verschlüsselt von und zur Cloud und dem heimischen NAS übertragen werden können.
 
Zuletzt bearbeitet:
Biosupdate dürfte bei dem SM Board kein Problem sein, du sprachst ja von Jan. 2012. Da gabs nur Sandy-Bridge based Xeons ;) Und das sind die ersten CPUs für den Sockel. Welche so wohl in jedem Bios des SM Boards unterstützt werden sollten. Erst die "V2" Ivy-Bridge Xeons hätten dieses Problem. Die gabs dann aber erst mitte 2012, wenn mich nicht alles täuscht ;)

Thema Altsystem aufrüsten. Hier scheiden sich denke ich die Geister, im privat Umfeld gebe ich dir vollkommen recht, tauschen nur pauschal des Alters wegen, ist da nicht immer die beste Methode. Aber 5 Jahre+ sind schon ne enorme Zeitspanne im PC Geschäft. Vor 5 Jahren hat Intel die Core2 CPUs auf den Markt geworfen. Klar ich verwende auch noch zwei Systeme aktuell, auf dieser Basis, eins sogar als Dual CPU Maschine, aber die Anforderungen an die Systeme sind auch recht gering.
Geht es dagegen um Sachen, die mehr Performance benötigen, bekommst du selbst für nen schmalen Taler da heute was idR deutlich fixeres. Und eben neu, mit neuen Features usw.
Mich juckt an der Stelle dann persönlich auch nicht, ob da nun 4 PCIe 8x Slots drauf sind, was bei 5Jahre+ dann auch "nur" PCIe 1.x ist. Da kann ich heute die gleiche Datenrate über einen fiktiven 2x PCIe 3.0 Slot schieben.

Thema Ethernet. Ich denke mal, der GBit Standard wird sich noch ganz paar Jahre halten, auch im privat Umfeld. 10Gbit gut und schön, nur ist die Technik leider noch unbezahlbar. Gerade für privat. 10Gbit Switches mit ausreichend Ports stellt sich privat wohl heute niemand hin, wenn er es nicht wirklich dediziert braucht. Und auch da wäre dann wieder die Kostenfrage. Welche sich wohl nur dann deckt, wenn diese Person dafür auch irgendwoher das Geld bekommt (also Bezahlt wird für die Arbeit) anstatt es aus eigener Tasche zu zahlen.
 
Nach einigen Seite bin ich mehrfach darauf gestoßen, dass gesagt wurde, die AMD FX CPUs eher für Server gedacht sind (was ich nicht so ganz verstehe wenn sie im Desktop Segment zugeordnet sind). Wenn die Prozessoren im Server Bereich mehr rausholen als die Desktop CPUs von Intel (die ja schon selbst mehr kosten, zumindenst die i5) dann wäre ja so ein Bulldozer CPU vllt. das richtige für mich.
Nein, tun sie nicht. Das ganze Gerede Bulldozer sei ein Server Design ist reines Gesundbeten einer vollkommen verfahrenen Situation. Dadurch werden die AMD CPUs nicht schneller. Erschwerend kommt im Server Umfeld hinzu, daß das Thema Leistung/Watt sehr viel wichtiger wird. AMD hat daher im Server Bereich massive Probleme. Die Server Bulldozer müssen daher auch deutlich im Takt abgesenkt werden, damit sie nicht zuviel Strom verbrauchen und erreichen somit nicht mehr die Taktraten der Desktop Modelle. Bei Intel ist es umgekehrt, die schnellsten S1155 CPUs sind Xeon E3: Siehe Xeon E3 1290v2 3.7GHz.

Momentan offeriert AMD folgende Server CPU Familien (Bulldozer basierend): Opteron 3200, Opteron 4200 und Opteron 6200.
Der Opteron 3280 HE ist der aktuelle Server AM3+ Prozessor, er läuft mit 8 Cores und lediglich 2.4GHz bei 65W TDP. Zum Vergleich ein Xeon E3 1230v2 hat 69W TDP und läuft mit 3.3GHz (4 Kerne + HT). Der Xeon ist billiger und deutlich schneller. Brauchbare Server Boards mit Sockel AM3+ gibt's nicht, man muß sich schon ein Fertigsystem kaufen. Mit Sockel 1155 hat man bei Server Boards eine große Auswahl. Wenn man nicht alle Features braucht und nur ECC benötigt, kann man auch auf i3 oder Pentium G für S1155 in Kombination mit einem Server Board zurückgreifen. ECC wird da nämlich unterstützt!

Will man ein selbst zusammengestelltes Opteron System muß man zwangsweise zum Opteron 4200 greifen, weil man sonst kein Server Board bekommt. Der einzige echte Unterschied zwischen Opteron 3200 und 4200 ist der Sockel, und somit die Fähigkeit Dual Socket System zu unterstützen. Sockel C32 unterstützt zwei Sockel.
 
Zuletzt bearbeitet:
Das ist kein Gesundbeten von irgendwas. Das Design ist nunmal eher auf Multicore ausgelegt, als auf single Core. (Performance)

Und ein Serverumfeld definiert sich nicht nur durch Leistung/Watt, sondern auch durch Leistung und Skalarität. Denn was bringt es einem, wenn der sceduler ständig arbeiten muß, weil man keine Cores hat?
Und im Serverbereich ist die Leistung durchaus da. Und dass die dazu etwas mehr Strom ziehen ist zwar schade, deswegen wird das Teil aber nicht zu "Desktop" degradiert.

Dass sie an der Effizienz arbeiten müssen, steht außer Frage, nur wird man damit nicht automatisch aus dem Serverumfeld verbannt. Das bleibt wohl nur ein Wunschtraum.
Man darf auch nicht vergessen, dass es mit dem Opteron möglich ist ohne Probleme riesige Speichermengen zu verwalten ohne dabei tief in Portemonai greifen zu müssen. Da muß man bei Intel zum S2011 greifen und bei etwas Rechenleistung minimal mehr als für nen Opteron bezahlen.

Bei Intel ist es umgekehrt,
Intel muß den Takt erhöhen, damit sie nicht zu viel Leistung ziehen? Glaubst du das wirklich?

Auch Intel muß den Takt senken, sonst platz denen der Sockel und das VRM vom Board.
Zur Info: Intel 8 Core @3,1GHz = 150W TDP
AMD 8 Core @3GHz = 115W TDP

Wer hat hier also wo ein Problem?

Beide Hersteller kochen hier nur mit Wasser. Und sie müssen den Takt kappen um die TDP nicht zu sehr steigen zu lassen. Und du kannst mir jetzt nicht erzählen, dass nen 2687W plötzlich nen Stromsparwunder ist.
Und dein Vergleich mit dem 1230v2 hat auch nen leichten Anfall von Lächerlichkeit. Warum? Schau dir mal die Strukturgrößen an. Es ist schon logisch, dass man mit geringer Struktur mehr Takt, bzw weniger Leistungsaufnahme hat.

Und ECC wird schongarnicht vom Mainboard unterstützt, sondern vom Speicherkontroller bestimmt. Und dieser liegt, sofern das entgangen sein sollte, in der CPU. Daher ist es entscheidend, dass der IMC dieses Feature bereitstellt. Ergo ist die CPU entscheidend, egal was das MB für Vorstellungen hat. (dieses muß es lediglich aktivieren im IMC)
Und da ist es mitnichten der Fall, dass der i3 oder P G das mal so ausm FF können. Erst der IV kann jetzt als ConsumerCPU ECC, das war bis SB, also "vorgestern", nicht der Fall.


Und du hast völlig recht. Der Entry-Server Bereich beginnt bei AMD eigentlich erst beim C32. Weiterhin liegst du mit deiner Annahme falsch, dass es für den AM3 kein ServerMB gibt.
Schau ma einer kuck: AMD Sockel AM3 (DDR3) mit Hersteller: Tyan Preisvergleich | Geizhals Deutschland

Dass man sich den Luxus leistet und einen mini SMP System als entry verkauft, weiß ich nicht. Meiner Meinung nach können sie es ähnlich zu Intel machen und zB den AM3+ nutzen.

Jedes System hat so seine Vor- und Nachteile, aber auch Probleme. Hier aber AMD die Servertauglichkeit abzusprechen ist eine Verkennung der Realität, nicht umsonst werden AMDs in Server eingesetzt und auch gerne genommen.

EDIT:
Im Entry-Bereich für einen Server in einem KU würde ich im Moment auf S1155 setzen. Da es genug Performance liefert, "kompakt" zu betreiben ist und zu allem Überfluß auch noch preiswert.
Nur damit man mir nicht unterstellt, dass ich nen AMD Fanatiker bin. (ist ja ein beliebtes Spiel im Forum)
 
Zuletzt bearbeitet:
underclocker, das Problem ist aber, wenn Intel für seinen 8 Kern S2011 Prozessor dort 150W bei 3,1GHz aufruft, schafft das Teil mal locker 80% mehr Leistung als ein vergleichbarer Quadcore im S1155 Sockel... Der AMD "acht" Kern bzw. vier Modul BD schafft bei seinen weit über 3GHz ja allein schon die 130W. Und als Opteron ist eben dort dann mit 3GHz bei 115W schluss, wenn ich das richtig sehe. Nur ziehst du mit dem vier Moduler bei 3,6GHz, ja selbst als FX-8350 Vishera mit 4GHz gegen den deutlich kleineren S1155 Xeon E3 (V1 und V2) den kürzeren, wenn auch nur knapp.
Da bleiben dann noch 8 Threads "Reserve" für den S2011 Intel bei "schlappen" 3,1GHz + Turbo (AllCore Turbo liegt hier bei 3,4GHz!, das sind poplige 200MHz, also knappe 5% unter dem aktuellen Top Sandy-Bridge 2700K Topmodell!)

Der 8 Moduler Bulldozer fällt mit seinen 2,6GHz leider ordentlich zurück. Gemessen an den 3GHz des vier Modulers sind das 14% weniger Takt bei doppelten Cores. Und als 6282SE bzw. 6284SE auch mit 140W Einstufung ;)
 
Was ändert das an der Aussage, dass auch Intel anfängt bei mehr cores den Takt zu senken? Das war die Aussage.

Ich habe keine Leistungsbewertung durchgeführt. Es ist auch nicht sinnvoll eine 1,6k EUR CPU gegen eine 500EUR CPU antreten zu lassen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh