Benchmarks von AMDs neuer High-End-CPU Vishera

Das Problem, was ich hier sehe ist, dass man in der TDP gleichzeitige Nutzung von CPU- und GPU-Part berücksichtigen muss. Sprich, das mit der APU wird auf Kosten der Kernzahl und/oder des Taktes gehen so wie es jetzt schon der Fall ist. In für APUs optimierten Anwendungsfällen ist das egal, überall sonst nicht. Das ist gerade im Desktopbereich kritisch, denn hier macht sich kaum jemand die Mühe, Programme speziell anzupassen im Gegensatz zu zeit- und kostenkritischen Aufgabenstellungen im HPC- und Serverbereich.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde AMD das machen sind hier zu mindest alle Diskussionen über die bessere Spiele-CPU für immer beendet... :d
 
4 oder 6 kerne reichen für desktop ja eigentlich...

Und evtl. gibts ja Opterons für Workstations (und evtl. auch Consumer-Boards dafür..)
 
Zuletzt bearbeitet:
Das glaubst Du auch nur, ich kenne einige die das nicht so sehen, Namen sind Dir bekannt :d

Natürlich, ich freu mich auch schon auf die Diskussion, dass eine Athlon IV zwei Moduler mit 4,2 Ghz locker ausreicht um eine GTX 780 zu befeuern! Wenn die Software erstmal optimiert ist! :d

Mal im ernst bei AMD ist im Moment einiges recht nebulös dieses Jahr, könnte man fast als spannend bezeichnen... :)
 
Man kann aus kundensicht nur hoffen, dass sich AMD nicht in der Form zurückzieht, ansonsten sind langsamere Entwicklung und höhere Preise wahrscheinlicherweise die Folge.
 
Da müssen auch andere Unternehmen mitspielen.
Sieh das als eine (Marketing)Kette. Auf der einen Seite sind die Hersteller. Speziell AMD. Auf der anderen Seite der Kunde. Wenn einer von beiden nicht zugreift, wird da nix. Aber vom Consumer zu erwarten, dass er kommt und AMD an der Hand nimmt, ist glaube ich Wunschdenken.

Umso weniger ergeben deine Angriffe auf APUs für mich einen Sinn.
Na dann viel Spass bei der Suche hier im Forum nach Leuten mit i7-2600 im Rechner, die unter Idle klar weniger haben. :haha: Der FX macht nur einen kleinen Teil dieser 70-80 W aus. Inklusive SpaWas und Netzteil geschätzt 5-10 W. Der Rest kommt durchs restliche Systeme, wie Board, Grafikkarte, RAM, HDDs, etc.
Weder greife ich die APU an, sondern die Umsetzung an der Brauchbarkeit vorbei, noch werde ich in einem Hardwareforum nach dem typischen Consumer ohne Computeraffinitaet suchen!?

[SNIP]Ob 70-80 W angemessen sind oder nicht, lässt sich da schlichtweg nicht pauschalisieren.
Nun, der Gesetzgeber sieht das zum Teil anders wenn es um Konsumgueter geht.

Ganz ehrlich, wenn du wirklich nur 70 W unter Volllast hast, dann glaube ich nicht, dass du einen Rechner hast, der auch nur ansatzweise an die Leistungsfähigkeit eines FX/i7 rankommt. Oder dann hast du gezielt untervoltet/-taktet. Dann wären deine Verweise zu THG aber erst recht unpassend. Die testen die Systeme ja OOTB.
Wenn mein System noch zu 100% saemtliche Anforderungen erfuellen wuerde haette ich keinen Grund nach einem besseren Pendant zu suchen. Aber in der Tat ist die Wahl meiner CPU mit der Tauglichkeit fuer einen HTPC gefallen. Und kann bei stark multithreaded Anwendungen tatsaechlich nicht mehr mithalten. Aber ich war davon ausgegangen, dass sich in den letzten 4 Jahren etwas entwickelt haette.

Gerade für Bürorechner finde ich APUs super. [SNIP]
APUs sind auch nicht AMD spezifisch. Auch wenn sie diesen Begriff eingeführt haben. Wenn du lustig bist, kannst du auch Intels Lösungen so nennen. Die versuchen ja das gleiche, CPU und GPU auf einem Chip zu vereinen. Ich habe woanders mal eine Abkürzung gelesen, die mir eigentlich besser gefallen hat, HPU (Heterogeneous Processing Unit).
Buerorechner kommen eben schon mit rudimentaerer Grafik aus. Da braucht es keine fast spieletaugliche GPU. Intel baut das tatsaechlich auch und wesentlich weniger leistungsfaehig, was die Grafik angeht. Aber ausreichend fuer das Buero. Ich habe hier APU tatsaechlich als Synonym fuer Bobcat/Llano/... benutzt.

Du bleibst mir übrigens die Unternehmen noch schuldig, die angeblich bessere "wohnzimmer/spieletaugliche Systemloesungen" anbieten. Und bitte keine Nischenklitschen mit Exotic ISA und OS. Hier geht's um massentaugliche Systeme. Das sollten also schon Systems sein, auf denen sich Windows oder Linux mit gängiger Software aufsetzen lassen. ;)
Wenn Du mir Marktluecke/nische definierst?
Hast Du schonmal in einschlaegigen Foren gelesen wie zeitaufwaendig ein solches System zu erstellen ist?
Sowas kann am Ende nur von jemandem bewaeltigt werden, der a) Interesse daran hat + b) die Chance hat, das ganze finanziell wieder einzuspielen.
Oder der einfach alles fuer sein Hobby gibt.
Und vielleicht nicht vergessen, dass ein Hobbybastler andere Anforderungen im Lastenheft hat als ein Hersteller.

Die APUs in der jetzigen Form repräsentieren auch nicht das Ende der Fusion Entwicklung.
Das hoffe ich sehr, ich sehe da jede Menge Potential
Welche "kleinen effizienten Kerne" von Intel?
Klein und effizient waren die P6 Nachkommen im Vergleich zu Netburst. Klein sind sie nicht geblieben aber effizient.
Habe noch einen alten Celeron800 rumliegen, den habe ich versehentlich ueber Stunden ohne Luefter betrieben, der Kuehlkoerper war regelrecht handwarm geworden. Der Gehaeuseluefter hatte wohl fuer ausreichend Luftzug gesorgt.

Nochmal was anderes zu dem Thema was eigentlich spraeche gegen eine Art x64 erweiterten Die-Shrink von einem Am386 um zum Beispiel das Interruptmanagement + Basic IO im Stromsparmodus zu managen? Oder geht AMD davon aus, dass das demnaechst in 3D ueber FP-Berechnungen erledigt wird.
Koennte man sogar transparent machen, dass der Idle-Kern seinen Status mit einem "echten" Kern teilt und bei Aufwachbefehl einfach den Staffelstab uebergibt. Muss man auch nicht erst den OS-Scheduler bemuehen.

Obwohl schon jemand einen integrierten ARM-Kern als Moeglichkeit gesehen hat.
Der braeuchte dann eigentlich nur noch eine Schalterleitung zu CPU/GPU. Stelle ich mir aber schwierig zu managen vor (Sicherheit?). Da ist dann schon fast eine dedizierte Hardware aussenrum (Netzwerk, HID, USB,BT) ueber reine Schaltleitungen fast besser. Kann man aber nicht mit neuen Funktionen versehen (IPv6?).
 
Natürlich, ich freu mich auch schon auf die Diskussion, dass eine Athlon IV zwei Moduler mit 4,2 Ghz locker ausreicht um eine GTX 780 zu befeuern! Wenn die Software erstmal optimiert ist! :d

Mal im ernst bei AMD ist im Moment einiges recht nebulös dieses Jahr, könnte man fast als spannend bezeichnen... :)

Optimierte Soft gibt es, kostet halt ^^

Spannend vielleicht, aber wird keine neuen Erkenntnisse bringen... Will aber nicht hoffen das die neuen Kosolenports ala xbox720 nicht teurer werden, dass zum Thema optimieren :d
 
Das Problem, was ich hier sehe ist, dass man in der TDP gleichzeitige Nutzung von CPU- und GPU-Part berücksichtigen muss. Sprich, das mit der APU wird auf Kosten der Kernzahl und/oder des Taktes gehen so wie es jetzt schon der Fall ist.

Dafür gibt es ja den Turbo. Wenn die Teildeaktivierung einzelner Bereiche optimal funktioniert, verbraucht die GPU bei reiner CPU-Last praktisch nichts. Einzig die zusätzliche Die-Fläche könnte man als Problem ansehen, zumal die Bulldozerarchitektur ohnehin schon nicht sonderlich flächeneffizient erscheint.
 
Der Turbo bei fast allen Modellen bei Intel und Nvidia ist lächerlich und gleicht das nicht wirklich aus. Trinity z.B. fehlen satte 50% der Module ggü. dem schnellsten FX, da reichen die ca. 15% des Turbos nicht ansatzweise aus, um das wettzumachen. Und eine APU mit 4 Modulen + GPU werden wir so schnell nicht sehen, die TDP würde sicher 125W sprengen.
Man muss bei so einem Kombichip durchaus davon ausgehen, dass beide Teile sehr belastet werden können. So einen Fall kann man nicht einfach ignorieren. Es sei denn, beide Teile werden dann deutlich zurückgetaktet.
 
Obwohl schon jemand einen integrierten ARM-Kern als Moeglichkeit gesehen hat.
Der braeuchte dann eigentlich nur noch eine Schalterleitung zu CPU/GPU. Stelle ich mir aber schwierig zu managen vor (Sicherheit?). Da ist dann schon fast eine dedizierte Hardware aussenrum (Netzwerk, HID, USB,BT) ueber reine Schaltleitungen fast besser. Kann man aber nicht mit neuen Funktionen versehen (IPv6?).

Konkret daran arbeitet AMD, das ist kein Hirngespinst.

Ansonsten kommt es auf die Anforderungen an. Wenn Du auf aktuellem Hardware-Niveau Spiele spielen willst, ist ne APU zu schwach. Wenn's bspw. um die Kids geht, gibts glaube ich kaum nen einfacher aufzubauendes und kostengünstigeres System, das auch Spiele halbwegs gut verkraftet. Untervoltet sogar sehr sparsam (ja ich bin auch der Meinung AMD sollte gleich besser binnen und geringere Spannungen anlegen).

Nen Bulli geht schon für ne 680 oder zwei. Aber natürlich nur bei entsprechenden Qualitätseinstellungen, sonst macht sowas ja auch eh keinen Sinn. BF3 zum Beispiel schlägt sich der Bulli ja halbwegs und für was anderes braucht man aktuell keine 780.. Außer für 3d, eyefinity oder downsampling. Aber da dann der Preis meistens keine Rolle spielt (Stromverbrauch allerdings auch nicht) kann man dann auch ruhig Intel nehmen, so man denn will ;)
 
Zuletzt bearbeitet:
Das Problem, was ich hier sehe ist, dass man in der TDP gleichzeitige Nutzung von CPU- und GPU-Part berücksichtigen muss. Sprich, das mit der APU wird auf Kosten der Kernzahl und/oder des Taktes gehen so wie es jetzt schon der Fall ist.
Die nächsten Jahre wird wohl inbetreffs Kernarchitektur seitens AMD nicht so viel neues kommen, die müssen den Bulldozer erst von den gröbsten Schnitzern kurieren. Derweil sinkt erfahrungsgemäß die Strukturbreite in der Herstellung und das Problem zu weniger Kerne in den APUs löst sich von selbst.

Die Einstellung der Produkte für den Serverbereich könnte ich glauben. Der Marktanteil der AMD Server ist sehr sehr klein, trotzdem muss die Hardware sehr aufwändig validiert werden. Das lohnt sich irgendwann für die Serverhersteller nicht mehr.
 
Nein, das Problem löst sich nicht. Du könntest dann ebenso CPUs, also ohne GPU, bei gleicher TDP mit mehr Modulen oder deutlich mehr Takt verkaufen. Und die würden in den klassischen Anwendungen, die auf absehbare Zeit noch den Markt dominieren, natürlich besser abschneiden. Da du mehr unter die Haube quetscht bei einer APU, wirst du bei den Teilen immer Einbußen haben im Gegensatz zu einer reinen CPU/GPU, die die TDP alleine verbraten darf.
 
Sofern die GPU zu tun hat, bleibt für die CPU nicht mehr so viel über, stimmt.
Aber wenn es von den Produktionskosten nicht mehr schmerzt einer APU statt zwei gleich drei oder vier Module mit zu geben, kannst du bei schlafender GPU das thermische Budget auf die drei oder vier Module aufteilen, ohne dass die einzelnen Kerne gegen die 'Power Wall' rennen. Bei nur zwei Modulen ist das schwieriger, weil die jetzigen Bulldozer-Module jenseits von 3,5 GHz nicht mehr wirklich effizient arbeiten. Bei 100 W TDP im Desktop kann man mit nur zwei Modulen daher nicht sonderlich punkten.

Ist vielleicht auch besser, wenn AMD nur noch zwei neue CPU/APU Chips pro Jahr (Bobcat-Linie und Llano-Linie) ausliefert, die dafür aber funktionsfähig und fristgemäß an den Markt bringt.
 
bombinho schrieb:
Buerorechner kommen eben schon mit rudimentaerer Grafik aus. Da braucht es keine fast spieletaugliche GPU. Intel baut das tatsaechlich auch und wesentlich weniger leistungsfaehig, was die Grafik angeht.

AMD hat doch auch stark abgespeckte IGPu´s mit im Angebot.
In Betrieben werden solche Rechner eigentlich lange genutzt. > 5 Jahre.

Dass man dort eine akzeptable Grafiklösung braucht, vor allem zum Videogucken sollte schon mit berücksichtigt werden.
Bei uns ist es aktuell so, dass kein Rechner in der Lage ist flüssig ne MP4 Full HD Aufnahmen abzuspielen, weil ne grottige Intel GMA Onboard mit drauf verbaut ist.
 
Der Turbo bei fast allen Modellen bei Intel und Nvidia ist lächerlich und gleicht das nicht wirklich aus.

Du darfst bei Intel nicht auf den Desktop schauen - da limitiert die TDP nicht und die CPU verbrennt vielfach mehr Energie als die GPU.

Interessant sind die 17W ULVs. Bei CPU-Last zieht die CPU fast die kompletten 17W, bei GPU-Last verbraucht die IGP mehr als die Hälfte. Das Prinzip funktioniert also einwandfrei und wäre auch im "Großen" denkbar - auch bei AMD mit 4 Modulen, GCN-GPU >800 Shader und einer TDP von maximal 125W. Der Basistakt wäre natürlich recht niedrig, zudem wäre der Die viel zu groß und das SI zu schmal. Aber nur mal als Gedankenexperiment. ;)
 
Zuletzt bearbeitet:
ich nutze seit 2003 nur AMD CPU´s (Athlon XP 2800 Barton, Athlon X2 4200, Athlon X2 6000, Phenom I 9850, Athlon II X4 640, Phenom II 1090T), man bekam da immer mehr Leistung für sein Geld als bei Intel. Leider gibt es im Moment keinen Grund einen Bulli oder den Nachfolger zu kaufen (wenn wirklich nur 10% mehr IPC), zu durstig, zu langsam, zu teuer. Schade AMD, wenn mein X6 in Rente geht (der ja in den meisten Spielen mehr Druck im Kessel hat als alle Bullis im Moment) werde ich wohl gezwungenermaßen zu Intel greifen da ich als Student nicht nur auf den Kaufpreis achten muss sondernd auch auf die Stromkosten (77W TDP gegen 125W TDP).
 
Dass man dort eine akzeptable Grafiklösung braucht, vor allem zum Videogucken sollte schon mit berücksichtigt werden.
Bei uns ist es aktuell so, dass kein Rechner in der Lage ist flüssig ne MP4 Full HD Aufnahmen abzuspielen, weil ne grottige Intel GMA Onboard mit drauf verbaut ist.

Sicher, dass dort nicht der I/O oder Speicher limitiert? Bisher schlaegt sich da selbst mein schon lange nicht mehr frischer Atom recht gut. Treiber gecheckt?
Schmeiss mal DivX runter. Neuere Versionen bin ich gerade am testen nach laengerer Abstinenz. Dort gab es ein erhebliches Speicherleck ueber Versionen hinweg. Irgendwann hat es mir gereicht.

Allerdings, wenn abzusehen ist, dass der Buerorechner eben auch fuer mehr als nur Preasentationen und Dokumente genutzt werden soll und der Chef das auch so will, dann darf/sollte natuerlich zu einer entsprechenden Loesung gegriffen werden. In dem Fall waere dann aber eine diskrete GraKa vielleicht von vornherein die bessere Wahl gewesen. Und fuer den seltenen Fall, dass tatsaechlich ein FullHD-Video absolut ruckelfrei im Buero laufen muss, hat der Admin lange vorher Kopfschmerzen wegen der ganzen Codecs/PlugIns.

Versuch mal intensive Grafikwiedergabe auf einem Thin Client. Dort bist Du bei betagten Modellen froh, wenn die den NetzwerkI/O noch halbwegs bewaeltigen. Graphic???

---------- Post added at 05:00 ---------- Previous post was at 04:23 ----------

Die nächsten Jahre wird wohl inbetreffs Kernarchitektur seitens AMD nicht so viel neues kommen, die müssen den Bulldozer erst von den gröbsten Schnitzern kurieren. Derweil sinkt erfahrungsgemäß die Strukturbreite in der Herstellung und das Problem zu weniger Kerne in den APUs löst sich von selbst.

Sofern die GPU zu tun hat, bleibt für die CPU nicht mehr so viel über, stimmt.
Aber wenn es von den Produktionskosten nicht mehr schmerzt einer APU statt zwei gleich drei oder vier Module mit zu geben, kannst du bei schlafender GPU das thermische Budget auf die drei oder vier Module aufteilen, ohne dass die einzelnen Kerne gegen die 'Power Wall' rennen.

Vorsicht mit solchen Aussagen. Gerade der Die-Shrink loest thermische Probleme nicht sondern verursacht sie.
Die Zeiten, wo die Waerme flaechig entstanden ist sind lange vorbei und dank Modulabschaltung auch die Zeiten einer statischen Waermeentwicklung. Nur weil der Heatspreader genau das macht was sein Name sagt, sieht es drunter nicht genauso aus.
Das thermische Budget ist nicht nur das, was am Ende vom Heatspreader nach aussen weitergegeben werden soll.

Nur weil Du physisch mehr Module unterbringen kannst, heisst das nicht, dass du mehr (potentielle) Hotspots nebeneinander unterbringen kannst. Und dann auch noch immer enger zusammenruecken. Jedenfalls nicht ohne weiteres.

Nebenbei ist auch noch nicht geklaert, wie die Strukturen dann in den subatomaren Bereich verkleinert werden sollen.
 
Du darfst bei Intel nicht auf den Desktop schauen - da limitiert die TDP nicht und die CPU verbrennt vielfach mehr Energie als die GPU.

Interessant sind die 17W ULVs. Bei CPU-Last zieht die CPU fast die kompletten 17W, bei GPU-Last verbraucht die IGP mehr als die Hälfte. Das Prinzip funktioniert also einwandfrei und wäre auch im "Großen" denkbar - auch bei AMD mit 4 Modulen, GCN-GPU >800 Shader und einer TDP von maximal 125W. Der Basistakt wäre natürlich recht niedrig, zudem wäre der Die viel zu groß und das SI zu schmal. Aber nur mal als Gedankenexperiment. ;)

D.h. man kalkuliert eine deutliche Taktsenkung bei voller Belastung der ganzen APU mit ein? Ich mein es ist ja schön und gut, dass man das TDP-Budget hin- und herschieben kann. Da konvertierst du Videos und das Ding ist fast gleichflott wie eine richtige CPU. Wird dann aber ein Spiel angeworfen, wo die CPU nicht völlig Däumchen dreht, geht die Leistung deutlich nach unten. Oder wenn ich das vielbesungene Multitasking als Beispiel anführe, was AMD so gerne in den Werbevideos zeigt. Ich bleibe dabei - es wäre nicht gut, nur noch auf APUs zu setzen, es sei denn, man bietet sie auch in Richtung 150-200W TDP an für den Worst Case, so dass man keine Reduzierungen von Takt oder Einheiten mehr hinnehmen muss.

Ach ja zu dem Turbo noch was:
Ich spreche die ganze Zeit eigentlich vom Desktopsegment, da ist Bulldozer ja hauptsächlich zu Hause. So oder so - es gibt keinen Turbo, der eine Halbierung der Einheiten auch nur annähernd auffangen kann. Doppelter Takt? Schön wärs. Da kannst du dann gleich die vier Module verbauen, dürfte von der Verlustleistung sogar deutlich günstiger sein, als zwei Module auf 7+ GHz zu prügeln, was sowieso völlig illusorisch ist.
 
APU mit dicker GPU hätte allerdings den Vorteil, dass man keinen teuren extra GraKa-Wakühler mehr bräuchte ;) Zum OCen macht das sicher Laune ne schicke APU unter der WaKü (hätte auch den Vorteil dass diese teure Anschaffung nicht wegen zu geringer Wärmeentwicklung der immer optimierteren Chips sinnlos würde xD).

Spaß beiseite, es ist doch klar, dass das aktuell nix wird mit Highend-Grafik aufm Chip und nie werden wird. Grafikkarten verbrauchen > 200w unter Last, da ist jeder Boxed-Kühler heillos überfordert.

Das wird auch noch ne zeitlang so bleiben, die Entwicklung hört da ja noch nicht auf, und ATI/NV werden evtl. versuchen den Verbrauch auf unter 200w Last zu bringen bei den single-Chip-Topmodellen, der Kampf um die Performance-Krone beinhaltet aber, dass die thermischen Budgets die man sich im GraKa-Bereich erarbeitet hat auch ausgenutzt werden.

Im Midrange-Bereich kann man aber davon ausgehen, dass die Verlustleistungen bei steigender Leistung zurückgehen. Klar, kleinere Strukturbreiten haben immer größere Probleme mit Leckströmen und Hotspots, die sich wahrscheinlich nur zum Teil kompensieren lassen. Bis jetzt haben wir aber immer noch stetige Effizienzsteigerungen gehabt, da heisst es also abwarten.

Eine APU wird daher immer ein Kompromiss sein. Aber: Optimierung erzeugt immer Kompromisse. Und: Die meisten User bauen eh keine kompromisslosen Rechner, solche User machen eben max. 1% aus. Bei den anderen 99% zählt da das Marketing schon mehr.

Besonders interessant sind diese Kompromisse für OEMs. Die OEMs haben die Power, mit den angeboteten Plattformen die Kundenwünsche unter Kosten- und Gewinnoptimierungsgesichtspunkten zu bedienen und landen dabei seit es diese Lösungen gibt schon immer bei integrierten Lösungen, die ggf. für "Gamer" mit einer Zusatzkarte aufgebohrt werden.

Zur Zeit limitiert halt TDP und Speicherbandbreite/Management. Und die Paarung mit dedizierten Karten läuft schlecht. Aber in allen diesen Bereichen darf man auf Weiterentwicklung hoffen. Multi-GPU wird dabei imo am stiefmütterlichsten behandelt. Da wird auf FPS statt auf flüssiges Spielgefühl optimiert. In den Anfängen gab es ja schonmal Modi mit Alternativen zum AFR mode mit seinen unterschiedlichen Frametimes. Die Skalierung litt zwar, und man brauchte eben für alles nen Profil. Aber wenn ich das richtig sehe (habe schon lange kein Multi-GPU mehr), dann gibts derzeit AFR only, imo der Grund für Microruckler...

Midrange-Gamer könnten jedoch schon bald (wenn nicht heute schon) mit ner APU gut auskommen. Der größte Coup wäre natürlich XBox mit AMD APU, dann würde auch die Softwareunterstützung steil gehen. Evtl. werden ja deshalb Trinities zurückgehalten in der strategischen Reserve (*spinn... ;) ) Wenn AMD sowas gelänge, sähe bei gleicher Technik alles ganz anders aus.

Leider weiß man aktuell nicht, ob einfach die Yields viel zu schlecht sind oder die OEM-Nachfrage tatsächlich so hoch...
 
Zuletzt bearbeitet:
D.h. man kalkuliert eine deutliche Taktsenkung bei voller Belastung der ganzen APU mit ein? Ich mein es ist ja schön und gut, dass man das TDP-Budget hin- und herschieben kann. Da konvertierst du Videos und das Ding ist fast gleichflott wie eine richtige CPU. Wird dann aber ein Spiel angeworfen, wo die CPU nicht völlig Däumchen dreht, geht die Leistung deutlich nach unten.

Prinzipiell hast du da schon recht, aber ich schätze das Problem praktisch nicht so groß ein. Gerade im Desktop bewegen wir uns in einem Bereich, wo Taktsteigerungen die TDP schon überproportional hochtreiben - oder anders gesagt: Wenn man bei paralleler CPU + GPU Last 50% TDP für die GPU haben möchte, muss man gegenüber dem maximalen CPU-Turbo (der allein schon die komplette TDP vereinnahmen könnte) vielleicht nur 25% Takt zurückgehen. Wenn wir jetzt noch von realen Spielen ausgehen, die eine CPU bei weitem nicht perfekt auslasten, wäre der notwendige Takt-Malus für den CPU-Teil noch geringer.

Klar: High-End Gefilde erreicht man damit natürlich nicht. Aber eine CPU-GPU-Kombination dürfte bei optimaler Umsetzung durchaus leistungsfähiger sein, als eine einzelne CPU + extra GPU im gleichen TDP-Bereich.

Mal eine Beispielrechnung: Eine HD 7850 liegt laut HT4U bei <90W in Spielen. Die verbleibenden 35W bei einer Gesamt-TDP von 125W wären genug für einen 3GHz Ivy Bridge Quadcore, bei AMD vielleicht zwei Module mit etwa 2,8 GHz Taktrate. Bei Spielen mit hoher CPU-Last könnte man das Verhältnis auch verschieben und der CPU einen größeren TDP-Anteil und damit mehr Takt zugestehen.

Ach ja zu dem Turbo noch was:
Ich spreche die ganze Zeit eigentlich vom Desktopsegment, da ist Bulldozer ja hauptsächlich zu Hause. So oder so - es gibt keinen Turbo, der eine Halbierung der Einheiten auch nur annähernd auffangen kann. Doppelter Takt? Schön wärs. Da kannst du dann gleich die vier Module verbauen, dürfte von der Verlustleistung sogar deutlich günstiger sein, als zwei Module auf 7+ GHz zu prügeln, was sowieso völlig illusorisch ist.

Stimmt schon, 4 Module wären natürlich gut. In 32nm wäre so ein Chip vielleicht noch zu groß, später sollte das aber machbar sein - falls man nicht nur Kosten reduziert und die Die-Size senkt. Bleibt die Frage der Speicheranbindung...
 
Zuletzt bearbeitet:
Mal sehen was mit Steamroller kommt, vielleicht haben wir hier schon eine APU auf PII Niveau + HD7750|7770 @100W TDP.
 
möglich..^^
 
Das ist möglich... Unklar ist nur, ob AMD gar keine Serverprozessoren mehr macht, oder es diese nur nicht mehr für Desktop gibt (was heissen würde es gäbe sie doch).

Oder AMD etabliert HSA auch im Serverbereich...
So ist es. Fusion soll auch im Serverbereich Einzug halten. Die FirePro A300 Serie ist ein erster kleiner Anfang. Auch wenn die noch nicht explizit für Server, sondern erstmal für Workstations gedacht ist.


Sieh das als eine (Marketing)Kette. Auf der einen Seite sind die Hersteller. Speziell AMD. Auf der anderen Seite der Kunde.
Nee, nicht speziell AMD. Andere Hersteller sind genauso wichtig, wenn nicht noch mehr. Und vor allem die OEMs. Solche Formfaktoren müssten erstmal von denen akzeptiert werden. Das ist der Knackpunkt. AMD ist da nur ein kleiner Faktor und kann alleine nichts ausrichten. Selbst Intel, die deutlich mehr Marktmacht besitzen, ist seinerzeit mit BTX gescheitert, weil die Marktakzeptanz gefehlt hat.

Weder greife ich die APU an, sondern die Umsetzung an der Brauchbarkeit vorbei, noch werde ich in einem Hardwareforum nach dem typischen Consumer ohne Computeraffinitaet suchen!?
Wo bitteschön ist denn die Umsetzung von APUs an der Brauchbarkeit vorbei?

Nun, der Gesetzgeber sieht das zum Teil anders wenn es um Konsumgueter geht.
Genauso wenig wie man 70-80 W pauschal verurteilen kann, genauso wenig kann der Gesetzgeber Anforderungen an PCs pauschalisieren. Oder um mal die beliebten Autovergleiche zu bemühen, man kann von einem 300 PS Sportwagen auch nicht erwarten, dass er im Stadtverkehr so sparsam ist wie ein 60 PS Kleinwagen. Soll man deshalb solchen Sportwagen die Existenzberechtigung absprechen? Oder vergleiche mal den Spritverbrauch eines Linienbusses mit einem Kleinwagen. Ersterer schneidet da katastrophal ab. Dafür leistet er eben auch mehr und kann deutlich mehr Personen befördern.

Aber ich war davon ausgegangen, dass sich in den letzten 4 Jahren etwas entwickelt haette.
Hat es ja auch. Vor 4 Jahren waren jedenfalls noch nicht so sparsame Systeme wie aktuell möglich. Che news Thread wurde ja schon angesprochen. Ich kann mich zumindest an kein getestetes Desktop System vor 4 Jahren hier erinnern, wo man auf 10 W unter Idle gekommen ist.

Wenn Du mir Marktluecke/nische definierst?
Ich sagte doch, es sollten Systeme sein, auf denen sich gängige Betriebssysteme mit gängiger Software installieren lassen. Es müssen ja keine Komplettsysteme sein. Aber zumindest alle benötigten Komponenten sollten im freien Handel erhältlich sein.

Nochmal was anderes zu dem Thema was eigentlich spraeche gegen eine Art x64 erweiterten Die-Shrink von einem Am386 um zum Beispiel das Interruptmanagement + Basic IO im Stromsparmodus zu managen? Oder geht AMD davon aus, dass das demnaechst in 3D ueber FP-Berechnungen erledigt wird.
Koennte man sogar transparent machen, dass der Idle-Kern seinen Status mit einem "echten" Kern teilt und bei Aufwachbefehl einfach den Staffelstab uebergibt. Muss man auch nicht erst den OS-Scheduler bemuehen.

Obwohl schon jemand einen integrierten ARM-Kern als Moeglichkeit gesehen hat.
Den soll es ja auch in zukünftigen Prozessoren geben, um Sicherheitsfunktionalität (TrustZone) zu integrieren. Am386 wird man wohl nicht wieder reaktivieren.
Für einen extra Idle-Kern sehe ich ehrlich gesagt keinen Sinn. Das würde das Design nur weiter verkomplizieren. Die aktuellen Kerne sind schon jetzt relativ sparsam im Stromsparmodus. Da lässt sich eh nicht mehr allzu viel einsparen. Wir reden hier schliesslich über einen Markt, wo es nicht auf das letzte mW ankommt. Das mag zB bei Tablets anders sein. Das ist aber auch nicht das Terrain von Bulldozer. Für solche Geräte gibt's ja Bobcat.


Die nächsten Jahre wird wohl inbetreffs Kernarchitektur seitens AMD nicht so viel neues kommen
Darauf würde ich nicht wetten. Gerade was die Kernarchitektur betrifft, ist noch einiges in der Pipeline.
 
Zuletzt bearbeitet:
Nee, nicht speziell AMD. Andere Hersteller sind genauso wichtig, wenn nicht noch mehr. Und vor allem die OEMs. Solche Formfaktoren müssten erstmal von denen akzeptiert werden. Das ist der Knackpunkt. AMD ist da nur ein kleiner Faktor und kann alleine nichts ausrichten. Selbst Intel, die deutlich mehr Marktmacht besitzen, ist seinerzeit mit BTX gescheitert, weil die Marktakzeptanz gefehlt hat.
Dazu komme ich weiter unten noch.

Wo bitteschön ist denn die Umsetzung von APUs an der Brauchbarkeit vorbei?
Kann man mit einer APU spielen und zwar so ziemlich alle Titel die man moechte, wenn auch mit Abstrichen?
Aber bitte nicht mit 20fps. Und auch nicht mit 640x480, wird ohnehin nirgends mehr unterstuetzt.
Oder aber ist die APU ein wenig dick aufgetragen fuer Dokumente und Praesentationen.
Dort waere ein wenig mehr Balancing zur CPU angenehmer aber das macht ja schon jemand anderes.

Genauso wenig wie man 70-80 W pauschal verurteilen kann, genauso wenig kann der Gesetzgeber Anforderungen an PCs pauschalisieren. Oder um mal die beliebten Autovergleiche zu bemühen, man kann von einem 300 PS Sportwagen auch nicht erwarten, dass er im Stadtverkehr so sparsam ist wie ein 60 PS Kleinwagen.

Muesstest Du Dir eher vorstellen wie ein Auto, wo der Motor immer laufen muss weil das Parklicht oder die Warnblinke an ist.
Oder man noch Musik hoert. Beziehungsweise die Zentralverriegelung betaetigt. Oder im Stau telefoniert.

Vor 4 Jahren waren jedenfalls noch nicht so sparsame Systeme wie aktuell möglich. Che news Thread wurde ja schon angesprochen. Ich kann mich zumindest an kein getestetes Desktop System vor 4 Jahren hier erinnern, wo man auf 10 W unter Idle gekommen ist.
Dann haettest Du mal die MiniITX-Geschichten verfolgen sollen. VIA? OK war vor 4 Jahren auch schon am abklingen.
Damals noch mit CF, spaeter SD statt SSD. Solche Sachen sind schon lange gelaeufig fuer Linux-Router/Micro-Server.

Ich sagte doch, es sollten Systeme sein, auf denen sich gängige Betriebssysteme mit gängiger Software installieren lassen. Es müssen ja keine Komplettsysteme sein. Aber zumindest alle benötigten Komponenten sollten im freien Handel erhältlich sein.
Das macht es verdammt schwer, ich konnte nicht mal einen Anbieter fuer den A8-3120 finden mit begrenzter Suchzeit.

Den soll es ja auch in zukünftigen Prozessoren geben, um Sicherheitsfunktionalität (TrustZone) zu integrieren. Am386 wird man wohl nicht wieder reaktivieren.
Sicherheitsfunktionalitaet? Hallo? Ein Modul, dass Du nicht beeinflussen kannst, geschweige ueberpruefen?
Entschuldige, wenn das harsch rueber kommt, aber dass ist ja wohl eine Schnapsidee.
Wer sich dort einklinkt hat die Karten in der Hand, da hilft auch keine BootCD mehr. Sicherheit ade.
Aehnlich wie der Protected Mode als das Allheilmittel fuer die Sicherheit gegolten hat. Oder die VM.
Beides ist innerhalb von Tagen/Wochen ausgehebelt worden.
Und ARM wird ja nun schon eine ganze Weile beackert und wird sogar als zukuenftiger Favorit fuer Malware gehandelt.
Wir machen einfach noch mehr Tueren aussen an das Haus aber jede Tuer bekommt ein anderes Schlossystem, da soll sich doch der Einbrecher die Zaehne ausbeissen bis er alle Tueren offen hat.
Ich dachte, wir haben jetzt schon Erfahrung mit Trusted Computing gesammelt? Workstation/Server?
Der beste Effekt, der damit erzielt werden kann, ist, dass T/C aufgrund allgemeiner Verbreitung zum
Ziel wird. Damit ist dann auch die gewonnene Sicherheit im Pro-Bereich futsch.

Was ist am Am386 so schlimm, der ist hard coded, besser kann man es nicht haben fuer diese Aufgabenstellung.
Muesste man halt nur 64bit Modus zum bestehenden Befehlssatz hinzufuegen. Und er muss auch nicht fuer 800MHz fit gemacht werden fuer diese Aufgabe. Ich sprach von basic I/O + hardware interrupt management. Simpel um eine Entscheidung zu treffen, kann ich selber handeln oder wecke ich einen Grossen und uebergebe. Er braucht nicht mal Zugriff zum Arbeitsspeicher. Der Microkernel muesste dann schon im Cache liegen.

Aber stimmt schon, bei ARM ist das alles schon fertig und muss nur noch draufgeklebt werden. Minimaler Designaufwand fuer die Anbindung.

Für einen extra Idle-Kern sehe ich ehrlich gesagt keinen Sinn. Das würde das Design nur weiter verkomplizieren. Die aktuellen Kerne sind schon jetzt relativ sparsam im Stromsparmodus. Da lässt sich eh nicht mehr allzu viel einsparen. Wir reden hier schliesslich über einen Markt, wo es nicht auf das letzte mW ankommt. Das mag zB bei Tablets anders sein. Das ist aber auch nicht das Terrain von Bulldozer. Für solche Geräte gibt's ja Bobcat.

Nun zu oben und hier: Genau diese Einstellung ist zu bemaengeln. "Die Anderen machen das ja auch nicht, warum dann ich???"
Schon mal ein Orchester gesehen und gehoert? Jetzt stell Dir mal vor, alle wollen nur das Triangel spielen weil das so viel Spass macht. Oder 1.Geige/dirigieren...

Abgesehen davon, moechte ich korrigieren: Eigentlich kommt es auf das letzte Milliwatt an. 2014 rueckt naeher. Wie soll dann ein Bereitschaftsmodus mit 1 Watt realisiert werden? Ein WOL-Modul schnell mal vom Printserver klauen? Duerfte aufgrund der hoeheren Komplexitaet des Netzverkehrs am PC grandios scheitern. Ein Arm-Modul? Spaeter auch mit zusaetzlichen Kernen fuer den Alltagsbetrieb mit geringen Anforderungen. Dann noch etwas spaeter ein paar Kerne mehr fuer zusaetzliche Aufgaben... Es funktioniert ja so gut und man muss ohnehin fuer ARM programmieren.
 
Zuletzt bearbeitet:
Abgesehen davon, moechte ich korrigieren: Eigentlich kommt es auf das letzte Milliwatt an. 2014 rueckt naeher. Wie soll dann ein Bereitschaftsmodus mit 1 Watt realisiert werden?

Du verwechselst hier irgendwie den Idle-Modus mit Standby, ein PC im Leerlauf ist ein laufendes System, das muss nie nur 1 Watt verbrauchen. Und Dudi redet über den Betrieb...
 
Mir würde ein Always-On-Konzept mit 1W Verbrauch auch gefallen...
 
Kann man mit einer APU spielen und zwar so ziemlich alle Titel die man moechte, wenn auch mit Abstrichen?
Also mit den AMD APUs und mit Abstrichen, bestimmt. Ich kenne aber auch nicht jedes Spiel. ;) Kannst uns gerne mal ein Beispiel zeigen, wo ein Spiel nicht flüssig läuft, egal wie weit man die Einstellungen runterschraubt. Selbst wenn du eines finden solltest, glaube ich nicht, dass es davon allzu viele gibt.
Das ist aber gar nicht die Frage, wenn es um APUs geht. APUs sind Mainstream Produkte. Die sollen gar nicht die diskreten Grafikkarten von Hardcore Gamern ablösen. Da kann man doch nicht behaupten, APUs wären an der Brauchbarkeit vorbei. Schau dir doch mal an, was mittlerweile millionenfach auf PCs gezockt wird. Hardcore Titel wie Crysis & Co, die der Hardware alles abverlangen, fallen immer weiter ab. Online- und Browserspiele scheinen hingegen wie Pilze aus dem Boden zu schiessen. Und dafür braucht es gar keine High-End Hardware mehr. Selbst bei den bekanntesten Genrevertretern, wie WoW oder zuletzt D3, achten die Entwickler darauf, dass die Hardwareanforderungen nicht zu hoch sind. Eine andere Geschichte sind Konsolenports, die traditionell nicht die höchsten Anforderungen mitbringen. Ich sehe das als eine perfekte Spielwiese für APUs. Und selbst diskreten Grafikkarten könnten APUs irgendwann mal den Rang ablaufen. Nämlich dann, wenn so viel Rechenkapazität vorhanden ist, dass die Spieleentwickler nicht mehr hinterherkommen. Aber das ist Zukunftsmusik und wird die nächsten Jahre wohl nicht so schnell passieren.

Oder aber ist die APU ein wenig dick aufgetragen fuer Dokumente und Praesentationen.
Dort waere ein wenig mehr Balancing zur CPU angenehmer aber das macht ja schon jemand anderes.
Es gibt etliche Modelle von AMD, auch mit deutlich abgespeckter CPU und iGPU. Da ist also Balancing vorhanden.

Muesstest Du Dir eher vorstellen wie ein Auto, wo der Motor immer laufen muss weil das Parklicht oder die Warnblinke an ist.
Von mir aus. Das ändert doch aber nichts an der Sachlage. Auch hier ist der Spritverbrauch nicht überall gleich und hängt von Modell und Ausstattung ab.

Dann haettest Du mal die MiniITX-Geschichten verfolgen sollen. VIA? OK war vor 4 Jahren auch schon am abklingen.
Damals noch mit CF, spaeter SD statt SSD. Solche Sachen sind schon lange gelaeufig fuer Linux-Router/Micro-Server.
Du willst sowas doch nicht wirklich mit einem gängigen Multimedia System vergleichen? Heutzutage gibt's innerhalb dieses Rahmens eben einiges mehr an Performance. Wie kann man da behaupten, es hätte sich nichts getan?

Das macht es verdammt schwer, ich konnte nicht mal einen Anbieter fuer den A8-3120 finden mit begrenzter Suchzeit.
Was genau soll denn ein A8-3120 sein? Und von wem? Hört sich fast wie eine APU von AMD an. Ist nur keine, da die ein solches Modell nicht anbieten.

Was ist am Am386 so schlimm, der ist hard coded, besser kann man es nicht haben fuer diese Aufgabenstellung.
Das Problem ist, dass der kein TrustZone mitbringt. Und nur darum geht es wohl. Wie sicher das ganze dann ist oder auch nicht, ist eine andere Geschichte.

Muesste man halt nur 64bit Modus zum bestehenden Befehlssatz hinzufuegen. Und er muss auch nicht fuer 800MHz fit gemacht werden fuer diese Aufgabe. Ich sprach von basic I/O + hardware interrupt management. Simpel um eine Entscheidung zu treffen, kann ich selber handeln oder wecke ich einen Grossen und uebergebe. Er braucht nicht mal Zugriff zum Arbeitsspeicher. Der Microkernel muesste dann schon im Cache liegen.
Ist den Aufwand und die steigende Komplexität trotzdem nicht wert, um ein paar mW zu sparen. Zumal ein nicht unerheblicher Teil des Energiebedarfs unter Idle sowieso vom Uncore Bereich kommt.

Nun zu oben und hier: Genau diese Einstellung ist zu bemaengeln. "Die Anderen machen das ja auch nicht, warum dann ich???"
Irgendwie hast du was falsch verstanden. Das wurde gar nicht gesagt. Ich sagte, dass es bei Bulldozer nicht auf das letzte mW ankommt. Bobcat hingegen darf und wird auch stark auf Energiesparen getrimmt. Und da kann man alle Möglichkeiten ruhig ausschöpfen. Allerdings sind auch dort der Komplexität und dem Aufwand Grenzen gesetzt, da Bobcat aus Kosten- und Zeitgründen ein synthetisiertes Design ist.

Abgesehen davon, moechte ich korrigieren: Eigentlich kommt es auf das letzte Milliwatt an. 2014 rueckt naeher. Wie soll dann ein Bereitschaftsmodus mit 1 Watt realisiert werden?
Nochmal, du scheinst nicht zu verstehen, was Bulldozer ist. Bulldozer wurde für den 10-100 W Markt konzipiert. Und dort kommt es eben nicht auf das letzte mW an, auch nicht unter Idle. Die Geräte, von denen du sprichst, ist eher ein Betätigungsfeld für Bobcat.
Und wie Mick schon sagt, Idle und Standby sind zwei verschiedene Paar Schuhe. Bei einem Rechner im Standby Mode wird meines Wissens die CPU komplett abgeschaltet und braucht demzufolge überhaupt keine Energie mehr. Das ist dann aber die Aufgabe des Boards.


Mir würde ein Always-On-Konzept mit 1W Verbrauch auch gefallen...
Bastel doch mal was. Wirst bestimmt ordentlich Kohle damit verdienen. Mich hättest du auf jeden Fall als Kunden. :d
 
Öh ja müsste ich mich mal nach möglichen Kooperationen umschauen ;)

Mick war doch auch schon auf Kapitalsuche und evtl. steigt bombinho ja auch mit ein ;)

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh