[Sammelthread] AMD Bulldozer - Next Generation new CPU Architecture - Sammelthread

Status
Für weitere Antworten geschlossen.
In der Theorie mag das toll klingen. Die Praxis schaut aber leider etwas anders aus.

Wie gesagt: deshalb habe ich mir letzens einen Dual-Core und keinen Quadcore gekauft. Trotzdem kann man CPUs in einem ersten Schritt unter der Prämisse vergleichen, dass eine Anwendung alle Kerne zu 100% auslastet. Im zweiten Schritt kann man dann darüber nachdenken, welchen Einfluss die Auslastung der multicores durch Anwendungen betrifft - hier müsste man dann allerdings sehr viele Fallunterscheidungen machen.

Dass ein Intel Kern kein Dual Core ist, sollte klar sein. Bei einem Bulldozer Modul kann man aber schon von einem "optimierten Dual Core" sprechen.

Ein "optimierter Dual Core" ist in meinen Augen eine irreführende Bezeichnung und kann meines Erachtens nur aus der Marketing Abteilung von AMD stammen. Es wird fälschlich suggeriert, als wäre dieser optimierter "Dual Core" besser als ein Dual Core.

Ein BD Modul ist schlicht und ergreifend kein Dual Core - es fehlt ihm ein Element, das nicht in doppelter Ausführung vorhanden ist (ich glaube, es war die FPU Geschichte), um per definition (weiter vorne habe ich die zitiert) ein Dual Core zu sein. Ein Dual Core besteht aus zwei vollwertigen Cores. So wie ich es verstanden habe, besteht ein BD Modul NICHT aus zwei vollwertigen Cores.

Ein BD Modul ist ein "beinahe Dual Core". Das wäre eine korrekte Bezeichnung.

Aber wie das Ding heisst ist für uns Anwender ja völlig egal - wichtig ist, was an Leistung am Ende bei rauskommt. Der Name ist nur für die AMD Marketung Abteilung interessant. Und wenn ein einzelnes BD Modul so schnell wie ein Intel Quadcore sein sollte, dann wird die AMD Marketing Abteilung bestimmt auch nicht zögern, ein einzelnes Modul als Quadcore zu bezeichnen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Socket FM1 hat mehr Pins als AM3, evtl. könnte AMD 6 Module auf einem DIE bauen

Bulldozer 6x1.8=10.8
Sandy Bridge 8x1.3=10.4

G34 mit 1944 Pins ist nur für 8 Module 16 Cores nötig

Die Pins gehen in erster Linie für zusätzliche Speicherkanäle oder HT-Links drauf, das sollte nicht unbedingt das Problem sein. Schon eher, wie die Auswirkungen auf die Taktbarkeit wären: Wenn mit 4 Modulen in 125W TDP z.B. 3,0GHz möglich wären, könnten es bei 6 Modulen womöglich nur noch 2,5GHz sein (reine Beispielwerte). Auch wenn das 6-Modul Modell auf dem Papier leistungsfähiger wäre, könnte es in der Praxis doch häufiger hinter das schneller taktende 4-Modul Exemplar zurückfallen und kostet zudem deutlich mehr der teuren Diefläche.
Denkbar wäre auch, dass Modelle mit mehr Modulen im Laufe des Jahres 2012 mit einer verbesserten 32nm-Fertigung und gestiegenen Taktreserven folgen, ähnlich wie zuletzt mit Thuban geschehen.
 
Sry für OT: Wie lange hat AMD den eigentlich noch das "Pin system"?
Intel setzt ja auf Kontaktflächen anstatt Pins. Ist doch irgendwie Deppensicherer (schräg "reinpressen" ect)
Höhrt doch bitte auf CMT als Hauptsteigerung der BD's zu den Phenoms anzusehen!
lg

was ist an dem system schlecht?

oder meinst du wirklich, dass es weniger deppen gibt, die die pins auf dem intelboar verbiegen!? ich bezweifle, dass die zahl sich all zu sehr unterscheidet.
 
[...]

Ein "optimierter Dual Core" ist in meinen Augen eine irreführende Bezeichnung und kann meines Erachtens nur aus der Marketing Abteilung von AMD stammen. Es wird fälschlich suggeriert, als wäre dieser optimierter "Dual Core" besser als ein Dual Core.
Wenn der DualCore grad mal 12% grösser ist als eine entsprechende SingleCore-Variante, aber dadurch nur wenig Leistung einbüsst (statt 100% mehr Leistung nur 80% mehr) kann man das sehr wohl als optimiert bezeichnen... Optimiert bedeutet ja nicht schneller, sondern besser.
Ein BD Modul ist schlicht und ergreifend kein Dual Core - es fehlt ihm ein Element, das nicht in doppelter Ausführung vorhanden ist (ich glaube, es war die FPU Geschichte), um per definition (weiter vorne habe ich die zitiert) ein Dual Core zu sein. Ein Dual Core besteht aus zwei vollwertigen Cores. So wie ich es verstanden habe, besteht ein BD Modul NICHT aus zwei vollwertigen Cores.

Ein BD Modul ist ein "beinahe Dual Core". Das wäre eine korrekte Bezeichnung.
Die beiden Kerne teilen sich das Frontend, den L2-Cache und die FPU. Ein Core2 bespielsweise teilt sich nur den Cache, ist aber trotzdem ein DualCore. Ist ein DualCore plötzlich kein DualCore mehr, nur weil beide Kerne Zugriff auf dieselbe FPU haben? Es ist also ein DualCore, ein optimierter DualCore, der eben nicht mehr alles doppelt braucht um 2 Threads zu rechnen.

Aber wie das Ding heisst ist für uns Anwender ja völlig egal - wichtig ist, was an Leistung am Ende bei rauskommt. Der Name ist nur für die AMD Marketung Abteilung interessant. Und wenn ein einzelnes BD Modul so schnell wie ein Intel Quadcore sein sollte, dann wird die AMD Marketing Abteilung bestimmt auch nicht zögern, ein einzelnes Modul als Quadcore zu bezeichnen.
Wenn es 4 statt 2 Kerne pro Modul hätte, hätte ich mit der Bezeichnung kein Problem. Ich nehme an, dahin wird die Reise wohl auch gehen in den nächsten 8 Jahren. 8-16 Threads und alle Ausführungseinheiten geteilt. Das ist doch grade der Trick, dass man die Leistung für x Kerne hat aber nur einen Bruchteil der Transistoren dafür braucht.
 
Zuletzt bearbeitet:
Die beiden Kerne teilen sich das Frontend, den L2-Cache und die FPU. Ein Core2 bespielsweise teilt sich nur den Cache, ist aber trotzdem ein DualCore. Ist ein DualCore plötzlich kein DualCore mehr, nur weil beide Kerne Zugriff auf dieselbe FPU haben? Es ist also ein DualCore, ein optimierter DualCore, der eben nicht mehr alles doppelt braucht um 2 Threads zu rechnen.

Diese Argumentation ließe sich allerdings auf jede Multithreadtechnik anwenden, auch SMT - hier wird einfach noch mehr geshared. ;) Imho sollte man einfach den Modulbegriff verwenden oder aber von einem Kern mit CMT reden - das ist schlicht die sauberste Bezeichnung.
 
Die beiden Kerne teilen sich das Frontend, den L2-Cache und die FPU. Ein Core2 bespielsweise teilt sich nur den Cache, ist aber trotzdem ein DualCore. Ist ein DualCore plötzlich kein DualCore mehr, nur weil beide Kerne Zugriff auf dieselbe FPU haben? Es ist also ein DualCore, ein optimierter DualCore, der eben nicht mehr alles doppelt braucht um 2 Threads zu rechnen.

Ich stütze mich auf die Wikipedia Definition: geteilter Cache = kein Problem = Dual Core. Geteilte Logik = Problem = kein Dual Core.

Ich kann es gerne noch einmal hier reinkopieren:

Der Begriff Mehrkernprozessor (auch Multicore-Prozessor oder Multikernprozessor) bezeichnet einen Mikroprozessor mit mehr als einem vollständigen Hauptprozessor auf einem einzigen Chip. Sämtliche Ressourcen mit Ausnahme des Bus und eventuell einiger Caches sind mehrfach vorhanden. Es handelt sich also um mehrere vollständige, weitgehend voneinander unabhängige Prozessoren inklusive eigener arithmetisch-logischer Einheit (ALU), Registersätze und, sofern überhaupt vorhanden, Floating Point Unit (FPU).

...inklusiver eigener... Floating Point Unit (FPU)...

Was ist denn, wenn ein Kern die FPU zu 100% in Beschlag nimmt? Bei einem echten Dual Core nichts, weil der zweite Kern über eine eigene FPU Einheit verfügt. Bei nicht Dual Core CPUs würde es allerdings zu Performanceeinbrüchen kommen.

Ich will den BD ja gar nicht schlecht reden. Er kann als beinahe Dual Core - oder ein besseres Wort wäre vermutlich Pseudo Dual Core - ja durchaus schneller sein, als ein echter Dual Core von Intel.
 
Zuletzt bearbeitet:
Was ist denn, wenn ein Kern die FPU zu 100% in Beschlag nimmt? Bei einem echten Dual Core nichts, weil der zweite Kern über eine eigene FPU Einheit verfügt. Bei nicht Dual Core CPUs würde es allerdings zu Performanceeinbrüchen kommen.
Wird im Alltag erstmal sehr, sehr, selten sein, denn das Ding ist ja 256bit breit. D.h. die üblichen 128bit SSE Befehle sollte da schön reinpassen.
Bis sich dann AVX256 durchgesetzt hat, gibts wahrscheinlich schon BD 2.0 mit vielelicht 2x256bit :xmas:
 
Man könnte eine 256Bit FPU auch für zwei gleichzeitige 128Bit-SSE Befehle nutzen... Hier entspräche ein Bulldozer-Modul FPU-mäßig zwar einem Dualcore der Vorgängergeneration mit 128Bit FPU, allerdings nur einem Singlecore einer anderen Architektur mit ebenfalls 256Bit FPU.
In welchen Leistungsdifferenzen sich das dann real genau niederschlägt, wäre mal ganz interessant.
 
Sry für OT: Wie lange hat AMD den eigentlich noch das "Pin system"?
Intel setzt ja auf Kontaktflächen anstatt Pins. Ist doch irgendwie Deppensicherer (schräg "reinpressen" ect)

AMD hat das schon lange mit Sockel F sowie G34. Nur bei Desktop Sockeln noch nicht, denke mal einfach deshalb um die kompatibilität zwischen den AM2/2+/3 CPUs zu wahren. Fals es einen Sockel AM3+ geben sollte denke ich das dieser auch wieder auf das alte Pin system setzt. So wie ichs hier im Forum aber mitbekommen habe sind die "pins" am board öfter schief als die am CPU :-P

Höhrt doch bitte auf CMT als Hauptsteigerung der BD's zu den Phenoms anzusehen!
lg

Naja, es ist aber nunmal eines der highlights der architektur und intel hat bewiesen das die leistung dadruch recht gut gesteigert wird, siehe SMT.

mfg
 
Ok das es ein Highleit ist stimmt wohl wirklich... Ich habe die Aussage etwas falsch formuliert. Es sollte eher heissen: Höhrt auf darüber zu streiten ;)
lg
 
generell kann man sagen, dass jeder vorab sammelthread den ich je hier gelesen habe eien spätere enttäuschung ausgelöst hat....
man darf eifnach etwas was man als toll ansieht nicht verherlichen..
einfach abwarten und tee trinken. vielleicht schafft amd es überhaupt erstmal an die leistung eiens corei7 kerns herran... das wäre ja schon nen riesen schritt.

beste grüße
 
was hast du den bisher gelesen?

kannst du dich noch an dem K7 oder K8 errinern, das war ein erfolgreicher Killer für Intel.

Der Phenom2 ist mit Core2 in der selben liga, weil er höhere Taktraten als die erste K10 Rev. hat

der X6 konkurriert gegen die Intel SMT Modelle aka i7 860 usw.

Bulldozer wird dann gegen Sandy Bridge konkurrieren.

bei AMD ist der Dual Core zu 80% das Haupgeschäfft im Dekstop Markt.

Sockel 1366 hat bei Intel Weltweit 1% Marktanteil
 
Zuletzt bearbeitet:
Ich wünsche AMD auch das beste, dass sie endlich wieder mit Intel mithalten können so wie es zu Sockel 939 Zeiten war.

@kannst du dich noch an dem K7 oder K8 errinern, das war ein erfolgreicher Killer für Intel.

Der Phenom2 ist mit Core2 in der selben liga, weil er höhere Taktraten als die erste K10 Rev. hat

der X6 konkurriert gegen die Intel SMT Modelle aka i7 860 usw.

Bulldozer wird dann gegen Sandy Bridge konkurrieren.

bei AMD ist der Dual Core zu 80% das Haupgeschäfft im Dekstop Markt.

Sockel 1366 hat bei Intel Weltweit 1% Marktanteil

Wann ist der Core2 gekommen und wann der Phenom2? da liegt einiges an Zeit dazwischen. Und der X6 ist ja keine neue Archtitektur sondern nur ein Phenom 2 mit 6 Kernen was in dem Preissegment wo AMD arbeitet natürlich ein Traum ist aber gegen einen i7 860 hat er bei nicht Multithreaded Anwendungen kein Leiberl.



Aber AMD wirds schon richten :d
 
@dual-prozzi-fan

über der Architektur war auch nicht die rede, klar basiert der K10 ursprung noch auf dem K7 Athlon, meine Antwort beszog sich auf @DarkLogic

Der Core 2 (Pentium3/P6 Weiterentwicklung) kam nach dem gescheiterten Pentium4
 
Zuletzt bearbeitet:
Der Socket FM1 hat mehr Pins als AM3, evtl. könnte AMD 6 Module auf einem DIE bauen

Bulldozer 6x1.8=10.8
Sandy Bridge 8x1.3=10.4

G34 mit 1944 Pins ist nur für 8 Module 16 Cores nötig
Pins haben nichts mit der Anzahl der Kerne zu tun. Pins braucht man für andere Geschichten, zB für die Speicheranbindung.

Sry für OT: Wie lange hat AMD den eigentlich noch das "Pin system"?
AMD setzt schon seit 2006 und Sockel F auf LGA. ;)

Höhrt doch bitte auf CMT als Hauptsteigerung der BD's zu den Phenoms anzusehen!
Das CMT Design sorgt seit langer Zeit endlich mal wieder für frischen Wind in der x86 Welt. Ist doch logisch, wenn man darüber diskutiert.

Ein "optimierter Dual Core" ist in meinen Augen eine irreführende Bezeichnung und kann meines Erachtens nur aus der Marketing Abteilung von AMD stammen. Es wird fälschlich suggeriert, als wäre dieser optimierter "Dual Core" besser als ein Dual Core.
Wird er ja scheinbar auch, wenn du die relevanten Leistungsindikatoren betrachtest, Performance/mm² und Performance/Watt.

Ein BD Modul ist schlicht und ergreifend kein Dual Core - es fehlt ihm ein Element, das nicht in doppelter Ausführung vorhanden ist (ich glaube, es war die FPU Geschichte)
Das stimmt doch überhaupt nicht und wurde jetzt schon etliche Male erläutert. Schau dir nochmal das Blockdiagramm zum Bulldozer Modul an. Jeder Integer Cluster hat seinen eigenen 128-bit FMAC. Lediglich für AVX werden diese beiden zusammengeschaltet. Aber wie schon gesagt, eine Befehlssatzerweiterung ist kein Kriterium für das grundsätzliche Design. Man sollte hier auch bedenken, dass Bulldozer ursprünglich für SSE5 (128-bit) konzipiert wurde. AVX und 256-bit Register kamen ja erst später.
Wie willst du das Ding denn nennen, wenn AMD irgendwann die FPU durch GPU Shader ersetzt? Ist es dann auch kein Dual Core mehr? Oder soll das von der Anzahl der Shader abhängen? Wenn AMD pro Modul 16 Shader verbaut, darf ich das Ding dann "Hexadezimal Core" nennen? Das ergibt doch keinen Sinn. "Kerne" werden immer gemeinsame Ressourcen nutzen, das war so und wird auch so bleiben. Das grundsätzliche Design eines Moduls basiert jedenfalls auf einem Dual Core. Und ich sehe kein Problem, es auch so einzustufen. Ich würde auch nicht ausschliessen, falls sich das Design bewährt, dass AMD in späteren Generationen mehr Cluster/Kerne pro Modul verbaut.
 
Zuletzt bearbeitet:
Wird er ja scheinbar auch, wenn du die relevanten Leistungsindikatoren betrachtest, Performance/mm² und Performance/Watt.

Was interessiert mich als Anwender denn die Performance/mm2? Das ist mir doch völlig egal. Zumindest solange die CPU nicht größer als ein uATX Board ist und die Gefahr sehe ich zur Zeit nicht.

Die Performance/mm2 wird für mich höchstens inderekt über den Zusammenhang mit dem Preis relevant. Aber letztendlich hängt der Preis dann doch viel stärker von der absoluten Leistung ab. So haben meines Erachtens alle CPUs zwischen 50 und 250 Euro ungefähr das gleiche PL-Verhältnis. Egal ob AMD oder Intel und der BD wird hier keine Ausnahme machen, wenn er sich verkaufen lassen soll.

Performance/Watt finde ich schon spannender (- aber auch nur in Kombination mit dem absoluten Verbrauch). Das muss mir der BD aber erst einmal beweisen, ob er da besser ist als ein x6. Gerade weil im Zusammenhang mit dem BD des öfteren höhere Taktraten angesprochen wurden: höherer Takt = exponentiell steigender Stromverbrauch.

Das stimmt doch überhaupt nicht und wurde jetzt schon etliche Male erläutert. Schau dir nochmal das Blockdiagramm zum Bulldozer Modul an. Jeder Integer Cluster hat seinen eigenen 128-bit FMAC. Lediglich für AVX werden diese beiden zusammengeschaltet. Aber wie schon gesagt, eine Befehlssatzerweiterung ist kein Kriterium für das grundsätzliche Design. Man sollte hier auch bedenken, dass Bulldozer ursprünglich für SSE5 (128-bit) konzipiert wurde. AVX und 256-bit Register kamen ja erst später.

Wenn alles doppelt vorhanden ist, dann ist es tatsächlich ein Dual Core. Die Integer Einheiten sind doppelt vorhanden, klar. Aber ich dachte es gibt nur eine FPU. Nur eine FPU = kein Dual Core. Wenn ich da falsch liege, mea culpa.
 
Zuletzt bearbeitet:
Was interessiert mich als Anwender denn die Performance/mm2?
Das bestimmt die Produktionskosten und damit die Verkaufspreise. Das interessiert dich auch als Anwender sehr wohl. ;)

Gerade weil im Zusammenhang mit dem BD des öfteren höhere Taktraten angesprochen wurden: höherer Takt = exponentiell steigender Stromverbrauch.
Nein. Mit mehr Takt steigt die Leistungsaufnahme theoretisch erstmal linear. Und da es auch einen Uncore Bereich gibt, real sogar noch weniger. Und besser als der X6 bezüglich Performance/Watt wird Bulldozer definitiv. Alles andere ist mehr als unrealistisch.
 
Ein BD modul kostet für AMD ca. 10% Mehr als ein Single Core in der Produktion, das stand mal bei AMDZone
 
Nein. Mit mehr Takt steigt die Leistungsaufnahme theoretisch erstmal linear.

Praktisch allerdings nicht, da höhere Taktraten auch immer höhere Spannungen erfordern - anders wären Modelle wie Magny-Cours gar nicht möglich bzw nicht sinnvoll, hier wird absichtlich massiv in die Breite gebaut, um die Energieeffizienz im Vergleich zu einem einzelnen 6-Kerner mit dafür mehr Takt steigern zu können.

Ein BD modul kostet für AMD ca. 10% Mehr als ein Single Core in der Produktion, das stand mal bei AMDZone

Ich dächte, 12% gehört zu haben, aber egal. Punkt ist das wir ja leider nicht wissen, wie groß ein Bulldozer Modul nun letztlich überhaupt wird. Interessant wäre der fertigungsgrößenbereinigte Vergleich mit einem K10.5.
 
Zuletzt bearbeitet:
[...]


Wenn alles doppelt vorhanden ist, dann ist es tatsächlich ein Dual Core. Die Integer Einheiten sind doppelt vorhanden, klar. Aber ich dachte es gibt nur eine FPU. Nur eine FPU = kein Dual Core. Wenn ich da falsch liege, mea culpa.

Es spielt keine Rolle, ob sich jetzt 2 eine 256Bit FPU teilen oder es 2 128Bit FPUs gibt. Für die Anzahl der Kerne ist das irrelevant. Ich glaube, man muss sich beim BD so langsam mal vom "Kern" als solchen lösen. BD weicht die Grenzen auf, sein Nachfolger wird die Genzen noch viel viel mehr aufweichen - denn sein Nochfolger wird nurnoch eine FPU für die gesamten CPU-Kerne haben, aber eine mit x-Shadercores...
 
Zuletzt bearbeitet:
Das bestimmt die Produktionskosten und damit die Verkaufspreise. Das interessiert dich auch als Anwender sehr wohl. ;)

Genaugenommen: nein! Die Produktionskosten geben eine Preisuntergrenze für den der Hersteller das Produkt verkaufen kann. Sie bestimmen maßgeblich seinen Gewinn.

Den Preis am Markt bestimmen die Produktionskosten: nicht die Bohne!

Der Preis am Markt bestimmt sich aus Angebot und Nachfrage. AMD wird den Chip aufgrund niedriger Produktionskosten niemals billiger anbieten, als es der Schnittpunkt aus Angebot und Nachfrage bestimmt, denn das wäre extrem dämlich und alle verantworlichen Manager würden sofort gefeuert werden.

Nein. Mit mehr Takt steigt die Leistungsaufnahme theoretisch erstmal linear. Und da es auch einen Uncore Bereich gibt, real sogar noch weniger. Und besser als der X6 bezüglich Performance/Watt wird Bulldozer definitiv. Alles andere ist mehr als unrealistisch.

Dann muss mein Athlon II kaputt sein, denn wenn ich dessen Takt und 12% erhöhe zieht er 30% mehr Strom. Linear ist etwas anderes.
EDIT: die Steigerung ist sogar noch viel höher, da ich nur die Steigerung des Gesamtstromverbrauchs des ganzen Systems messen kann - d.h. +12% Takt dürften an die 100-200% mehr Strom an der CPU brauchen. Definitiv NICHT linear.
 
Zuletzt bearbeitet:
Dann muss mein Athlon II kaputt sein, denn wenn ich dessen Takt und 12% erhöhe zieht er 30% mehr Strom. Linear ist etwas anderes.
EDIT: die Steigerung ist sogar noch viel höher, da ich nur die Steigerung des Gesamtstromverbrauchs des ganzen Systems messen kann - d.h. +12% Takt dürften an die 100-200% mehr Strom an der CPU brauchen. Definitiv NICHT linear.

Wenn ich sowas lese :rolleyes:

Es ist Fakt, das bei gleicher Spannung und selben System rundherum der Verbrauch eines Chips (egal ob CPU, GPU, Cell-Prozessor oder what ever) mit steigendem Takt linear ansteigt.
Erst wenn eine erheblich zu hohe Taktrate für die Chiparchitektur an den Chip angelegt wird (was ich in deinem Fall bezweifle), kommen andere Effekte hinzu, welche den Stromverbrauch negativ beeinflussen können.

Nichts gegen deine Messung, aber 100-200% bei nur 12% mehr Takt? Nie und nimmer :shot:

@ Topic
Ich bin wirklich gespannt auf Bulldozer, zwar fällt eine Einschätzung noch relativ schwierig, doch es finden sich einige sehr interessante Punkte in der neuen Architektur. Dennoch denke ich, dass erst BD2 sich die Krone aufsetzen kann.
 
Es ist Fakt, das bei gleicher Spannung und selben System rundherum der Verbrauch eines Chips (egal ob CPU, GPU, Cell-Prozessor oder what ever) mit steigendem Takt linear ansteigt.

Äh, sorry - hast du einen PC? Schraub doch den Takt einfach mal 10% hoch und schaue dir die Veränderung des Stromverbrauchs an.

Nichts gegen deine Messung, aber 100-200% bei nur 12% mehr Takt? Nie und nimmer :shot:

Meine Messung war 30%. Anstelle von 65 Watt habe ich 85 Watt verbraucht (Gesamtsystem unter Volllast). Davon kann ich jeweils geschätzte 15 Watt für Mainboard, RAM, HDDs etc abziehen, bleiben 50 Watt zu 70 Watt, also *upps* :xmas: 60%.... ja, ich habe vergessen von den 1,6 die 1 anzuziehen - mein Fehler. :d

Aber hey: 12% mehr Leistung bei 60% mehr Strom = nicht linear... definitiv nicht linear... noch nicht einmal annähernd... :bigok:
 
Zuletzt bearbeitet:
Sicher braucht die CPU mehr, wenn man den Takt erhöht. Die Energieeffizienz wird schlechter, je höher der Takt ist. Das killte den P4. Daran gibts keinen Zweifel. Verbrauch steigt definitiv nicht linear mit dem Takt.
 
Zuletzt bearbeitet:
Meine Messung war 30%. Anstelle von 65 Watt habe ich 85 Watt verbraucht (Gesamtsystem unter Volllast).

Sofern diese Werte wirklich stimmen (65W Volllast? Dafür müsste man einen Athlon II aber extrem niedrig takten), waren die Spannungen definitiv nicht konstant. Bei konstanten Spannungen klappt das mit dem linearen Verbrauchsanstieg ziemlich gut, Beispiel:

Intel Q9550 im E0-Stepping - Der Core-i7-Killer? - Leistungsaufnahme: CPU inklusive Wandler (Seite 9) - Tests bei HardTecs4U

Default zu OC bei 1,25V: 26% Mehrverbrauch bei 32% Mehrtakt.

Argumentieren kann man jetzt natürlich: Bei Defaulttakt wäre eine weitaus niedrigere Spannung möglich, wodurch dann wieder ein exponentieller Verbrauchsanstieg mit der Taktsteigerung (und Spannungserhöhung) gegeben wäre.
 
Zuletzt bearbeitet:
@Grummel
Hast du das ganze mit Luftkühlung getestet?
Wenn ja, damit steigt die Temp schneller an, als z.B. mit einer WaKü.
Bei mir machen +400MHz gerade mal 15W (unter Last!) mehr aus der Dose.
Das wären +11% mehr Takt mit 5% mehr Verbrauch! :bigok:
Im Durschnitt merkt man das + an Leistung nicht, aber schau mal hier was es bei gezielten Anwendungen bringen kann: (man achte auf die min. FPS)
http://www.hardwareluxx.de/community/14745697-post46.html

MfG
 
Zuletzt bearbeitet:
Äh, sorry - hast du einen PC? Schraub doch den Takt einfach mal 10% hoch und schaue dir die Veränderung des Stromverbrauchs an.

Sicher habe ich das, siehe Sig ;)

Und nichts gegen deine Messung, dennoch sind auch 60% noch viel zu viel.

Sicher braucht die CPU mehr, wenn man den Takt erhöht. Die Energieeffizienz wird schlechter, je höher der Takt ist. Das killte den P4. Daran gibts keinen Zweifel. Verbrauch steigt definitiv nicht linear mit dem Takt.

Wenn der Takt zu hoch wird für die Architektur, genau das, was ich vorher geschrieben hatte. Beim Pentium 4 spielten aber noch viele andere Faktoren wie z.B. Leckströme und zu hohe Temperaturen mit. Doch dieses Problem habe ich in dieser Grössenordnung bei neueren Prozessoren selten gesehen.
Bei einem Core2Duo liegt das lineare Verhältnis (und nein, es ist nicht 100%ig linear, aber nah dran) bei etwa 1.5 bis etwas über 3GHz, je nach Güte des Chips. Warum hat Intel wohl genau in diesem Spektrum seine Produkte? Darüber wird es leicht ansteigend und ab 4GHz ist es sicher nicht linear.

So genug Offtopic.

:btt:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh