[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

4 Tage vor der angekündigten Verfügbarkeit wird es sich mit Garantie bereits um das auch später im Handel erhältliche Stepping handeln. Ich würde auch eher darauf tippen, dass man mit dem Prozess noch nicht wirklich im Reinen ist. Womöglich liegt auch hier der Grund für die Bulldozer-Verschiebung.

Edit: Kein ES o.ä., siehe Bild:

http://www.computerbase.de/bildstrecke/35162/30/
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Um ehrlich zu sein zweifel ich an den hohen Taktraten die hier prophezeit werden.
Der CB-Overclocking Test des Llano war ja schon sehr ernüchternd und deutet ja auf einen nicht ganz so ausgereiften 32nm-Prozess hin oder wie seht ihr das?
Ich seh das so ähnlich wie Du, allerdings sehe ich auch, dass BD verschoben wurde. Gerüchteweise eben aufgrund gewisser Taktprobleme. Deshalb nehme ich an, dass sich das dann mit der C0 Revision erledigt hat ;-)
Würde zumindest gut zusammenpassen.

Llano ist dagegen auch noch B0, tja damit kann man keine Bäume ausreißen, ist aber mit ner Mittelklasse CPU auch nicht nötig, die muss ja keine Höchstleistung erzielen, dafür ist dann der FX da :asthanos:

Kurz: Gute Idee, aber nicht zu Ende spekuliert :)
 
Um ehrlich zu sein zweifel ich an den hohen Taktraten die hier prophezeit werden.
Der CB-Overclocking Test des Llano war ja schon sehr ernüchternd und deutet ja auf einen nicht ganz so ausgereiften 32nm-Prozess hin oder wie seht ihr das?

Ich sage nur 2 Zeichen:

B 0

Kein Wunder, dass die Spannung so hoch ist!!
Da geht noch was. Llano ist offenbar spät dran.
Von einem frühen Stepping auf den ganzen Fertigungsprozess zu schließen wird nicht funktionieren.
 
Zuletzt bearbeitet:
Da der Tester aber wohl massiv im GPU-Limit steckt, speziell bei Metro, Crysis und Stalker, kann man den Test bzgl. der CPUs sowieso mit der Pfeife rauchen. Zumal keines der Spiele von mehr als 8 logischen Prozessoren profitieren dürfte.

Also Crysis skalliert extrem mit der CPU Leistung... Auch bei CF/SLI.
Versuch mal Crysis mit max. Details, DX10 und 4xMSAA auf nem HD6970 CF zu spielen. Einmal mit nem 4000MHz SB und einmal mit nem 4000MHz Thuban X6...
Da sind locker 50% avg.!! FPS Unterschied zu messen.

Benches dazu gibts im GPU Unterforum.

Wobei SLI nicht so extrem an der CPU hängt wie CF aktuell (scheinbar)

Und gerade deswegen zeigt der Test irgendwie (trotz von mir aus GPU Limit) das der BD der alten i7 Architektur in Games hinterher hingt. Warum ist das der Fall?
jetzt kommt gleich wieder, es ist ein ES und dessen Leistung ist nicht zu vergleichen...

PS: alles natürlich nur unter der Annahme, das der Test kein Fake ist... Sollte klar sein.

Das sind SLI Ergebnisse mit 2 Karten. 4-way SLI will er später ergänzen. Die GPU Limitierung sieht man an den niedrigen fps Werten. Werte von 60 fps sind für einen 4 Ghz Gulftown der absolute Witz in den getesteten Spielen. Oder glaubst du die CPU schafft mit Hängen und Würgen nur so viel? Ne da limitiert die Grafik einfach zu stark.

Um so schlimmer, das der BD da irgendwie in allen Vergleichen zurück liegt :(

SLI würde ich, wenn möglich, generell für CPU-Tests vermeiden... Am einfachsten wäre doch ein simpler Benchmark mit maximalen Details und minimaler Auflösung ohne die rein GPU-belastenden AA/AF. :)

Das Thema ist doch schon ausgelutscht... Es kommt drauf an, was man testen will bzw. zeigen will...
Will man praxisnahe Tests haben, testet man in hohen Auflösungen mit max. Details und AA/AF. Gerade bei dem SLI Gespann... Um so schlimmer, wenn dort die CPU dann immernoch im GPU Limit die FPS wegbrechen lässt.
 
Zuletzt bearbeitet:
Das Thema ist doch schon ausgelutscht... Es kommt drauf an, was man testen will bzw. zeigen will...
Will man praxisnahe Tests haben, testet man in hohen Auflösungen mit max. Details und AA/AF. Gerade bei dem SLI Gespann... Um so schlimmer, wenn dort die CPU dann immernoch im GPU Limit die FPS wegbrechen lässt.

Und wie immer die gleiche Antwort: Bei einem CPU-Test wollen wir die CPU-Leistung wissen - das geht nur mit vollständigem Ausschalten jeglicher GPU-Einflüsse. Genau, wie es in umgekehrter Form auch für GPU-Tests gilt. :)

Den verbleibenden Mittelweg könnte man vielleicht als "Spielbarkeits-Test" bezeichnen - mit der Messung der CPU-Leistung hat der dann allerdings nur noch teilweise zu tun.

Spätestens mit den Reviews von Bulldozer wette ich, derlei Forderungen auch von anderen zu hören, die sich dem bisher verweigert haben. Benches im GPU-Limit, die keinen Unterschied zu Thuban zeigen, will doch auch keiner sehen. ;)
 
Um so schlimmer, wenn dort die CPU dann immernoch im GPU Limit die FPS wegbrechen lässt.

Das ist doch ein Widerspruch in sich. Entweder GPU oder CPU-Limit. Ein Mischmasch in einer Benchszene (wie es sicher vorkommt), ist genauso wenig aussagekräftig, da undefinierbar bzgl. der jeweiligen Einflüsse.

Bzgl. Crysis wissen wir nichtmal, was genau OBR da gebencht hat. Ich kenne die Screenshots von Thunderburne. Da SLI 580 sehr gut skaliert und viel Power hat, könnte das in dem Fall sogar sein, dass man teilweise im CPU-Limit steckt. Würde bei mir Downsampling grad gehen, könnte ich das mal nachtesten.
 
Das ist schlichtweg Falsch.

Leistung= Watt

Leistungsaufnahme ist Wattaufnahme.
Wärmeentwicklung ist verlustleistung (genauergesagt Leistungsabgabe, da das Umwandeln von Strom in Wärme ja eine Leistung ist).

Verlustleistung daher, weil die Zugeführte Energie in eienn Nicht gewollten Arbeitsschritt umgewandelt wird.

Wenn man keine Ahnung hat...

Was soll meine CPU denn für mich tun? Außer Kaffee kochen ist da nicht viel drin. Bei Arbeitsmaschinen hast du recht, darauf begründet sich wohl auch deine Quelle bei wiki ;)

Schau mal nach was bei einem Widerstand passiert.
 
....sollte man die Fresse halten, stimmt :wink:

Die CPU soll berechnungen mit hilfe von Stromflüssen anstellen.
Dass dabei Abwärme entsteht ist aufgrund der Feinen Strukturen leider ein negativer nebeneffekt(Rein Informativ: Früher wurden Prozessoren mit 12V betrieben und blieben absolut kalt).
Wenn du deine CPU zum Kafee kochen benützt (Netburst wäre da empfehlenswert) schiesst du dich selbst ins Abseits bei dieser Diskussion.

Bei einem Widerstand wird der Elektronenfluss ganz oder Teilweise gehemmt.
Da dabei die Elektronen an den Atomen des Widerstandes reiben entsteht dadurch Wärme.

Und nun?
Was hat das damit zu tun dass Leistungsaufnahme und Wärmeabgabe nicht das selbe sind.

Allein die Tatsache dass das eine dem Prozessor zugeführt wird und das andere von ihm abgegeben wird lässt mich nur den Kopf schütteln, wenn jemand sagt das ist ein und das selbe.
 
Und wo soll die Energie bitte sonst hin? Die reingesteckte elektrische Energie wird (nahezu) vollständig in Wärmeenergie umgewandelt. Ein bisschen fließt auch wieder zurück über die Kontakte, wenn die iGPU genutzt wird als Signalstrom, aber das ist absolut vernachlässigbar. In diesem Kontext hat Undertaker1 vollkommen Recht: Bezogen auf die Energiemenge ist es ein- und dasselbe.

Bei deinen 12V CPUs entstand ja auch keine Abwärme, nein. Die haben mit der reingesteckten elektrischen Energie irgendwas anderes gemacht. Vielleicht einen kleinen Ventilator angetrieben :d
Heize eine Metallplatte mit 5W und halte den Finger drauf - warm ist es vielleicht nicht für dein Empfinden, aber das tut nichts zur Sache. Hier wird genauso Wärmeenergie abgegeben, ob dies nun 5W oder 500W sind ist total egal.
 
Zuletzt bearbeitet:
Ja, die CPU berechnet Sachen, aber Berechnungen stellen keine Form von Energie dar.
Es wird auch nicht viel bewegt in einer CPU.
Energie bleibt Energie, sie geht niemals verloren.

Elektrische Energie wird in der CPU in Wärmeenergie umgewandelt, zu 100%
 
Und wie immer die gleiche Antwort: Bei einem CPU-Test wollen wir die CPU-Leistung wissen - das geht nur mit vollständigem Ausschalten jeglicher GPU-Einflüsse. Genau, wie es in umgekehrter Form auch für GPU-Tests gilt. :)

Den verbleibenden Mittelweg könnte man vielleicht als "Spielbarkeits-Test" bezeichnen - mit der Messung der CPU-Leistung hat der dann allerdings nur noch teilweise zu tun.

Spätestens mit den Reviews von Bulldozer wette ich, derlei Forderungen auch von anderen zu hören, die sich dem bisher verweigert haben. Benches im GPU-Limit, die keinen Unterschied zu Thuban zeigen, will doch auch keiner sehen. ;)

Ich sehe bei der Diskusion eher das Problem, Spiele für CPU Vergleiche ranzuziehen.
Denn das Argument der sinnfrei Settings nur um Unterschiede zu sehen bleibt ja bestehen.
Den Leser interessiert es herzlich wenig wie ihre CPU in 640x480 performt, wenn man in FullHD zockt... und bei nem SLI auch dick AA/AF reindreht...

Ihn interessiert da doch viel eher, wie die CPU in praxisnahen Settings performt. Ich spreche da nicht von absolutem GPU Limit. Sondern Praxisnahe Settings ala ordentliche Mittelklasse Karte, max. Details und FullHD Auflösung. AA/AF Level je nach Spielbarkeit so angepasst, das ordentliche FPS Raten rauskommen. Und dann ein Vergleich wie stark die CPU in dem und dem Game Einfluss drauf hat.
Damit kann der Leser was anfangen...

Das ist doch ein Widerspruch in sich. Entweder GPU oder CPU-Limit. Ein Mischmasch in einer Benchszene (wie es sicher vorkommt), ist genauso wenig aussagekräftig, da undefinierbar bzgl. der jeweiligen Einflüsse.

Die Frage ist, was wird durch die CPU limitiert. Ist es das Spiel selbst. Oder ist es die Grafikberechnung. Wird das spiel selbst limitiert, beispielsweise durch übertrieben starke KI, Physik oder sonstwas Berechnung ist das ein in meinen Augen Himmel weiter Unterschied, als wenn die CPU die eigentliche Grafikberechnung limitiert...

Beispiel:
Spiel X nutzt mehrere Threads für aufwendige Physikberechnung (könnte BFBC2 sein)
CPUs mit starker Multithreading Leistung punkten hier also. Dennoch bleibt der andere Fakt für die eigentliche Grafikberechnung unberührt. Drehst du nun massiv AA ein, so wird die FPS Rate sinken, verzichtest du auf AA, so steigt diese. Ergo -> GPU limitiert für die reine Spielbetrachtung.
Dennoch kannst du bei Betrachtung der Grafikberechnung selbst Unterschiede ausmachen. Eine CPU die dort (idR durch höhere IPC bzw. pro Core Leistung) stark punkten kann wird auch deutlich mehr FPS liefern als eine CPU, die dies nicht tut.
Anhand der genannten Crysis oder auch BFBC2 Vergleiche kann man das gut erkennen. In BFBC2 skalliert die FPS Rate gut mit der Multithreading Leistung der CPU. Auch acht Threads können da noch FPS bringen. Trotzdem darf die pro Core Leistung nicht zu knapp sein. Denn ein OCed Thuban X6 schafft deutlich weniger "basis" FPS bei gleichen Settings als eine i7 Nehalem oder i5/i7 Sandy CPU.
Das interessante ist, der Spaß zieht sich unabhängig der Grafikkarten Leistung durch die ganze GPU palette. Also ein CF aus zwei HD5770ern gewinnt ähnlich viele FPS durch eine starke CPU wie ein CF aus HD6970ern. Obwohl die Grafikleistung deutlich niedriger ist.


Sofern die Benches oben also keine Fakes sind, könnte man draus schließen, da die Pro Core Leistung der getesteten CPU bei dem Takt der des i7 unterlegen ist. Was wiederum bedeutet, das bei manchen Games die CPU die eigentliche Grafikberechnung limitieren kann.
Auch wenn die GPU Hersteller immer davon sprechen ihre Treiber und die Berechnungen auf Multithreading ausgelegt zu haben, scheint genau das Gegenteil der Fall zu sein. Denn der Part skalliert absolut nicht mit der Core/Threadanzahl...
Für Gamer also wichtig zu wissen...

BD könnte hier durch einen hohen Turbo für SingleThread Berechnungen stark aufholen. Die Frage ist nur, wie wirkt sich das in Games aus, die dazu noch weitere CPU intensive Berechnungen drauf knallen. Hier könnte der BD wiederum zurück fallen, wenn IPC und pro Takt/pro Core Leistung Intel stark unterlegen sind.

Elektrische Energie wird in der CPU in Wärmeenergie umgewandelt, zu 100%

Wie soll das gehen?
Wenn 100% (also wirklich alles was rein geht), auch in Hitze umgewandelt wird, würde die CPU nicht rechnen können.

Dann hättest du ne Herdplatte... Und selbst dort stimmt das nicht ganz, da auch Lichtenergie erzeugt wird. Siehe Cerankochfeld...
 
Zuletzt bearbeitet:
Ich sehe bei der Diskusion eher das Problem, Spiele für CPU Vergleiche ranzuziehen.
Denn das Argument der sinnfrei Settings nur um Unterschiede zu sehen bleibt ja bestehen.
Den Leser interessiert es herzlich wenig wie ihre CPU in 640x480 performt, wenn man in FullHD zockt... und bei nem SLI auch dick AA/AF reindreht...

Ihn interessiert da doch viel eher, wie die CPU in praxisnahen Settings performt. Ich spreche da nicht von absolutem GPU Limit. Sondern Praxisnahe Settings ala ordentliche Mittelklasse Karte, max. Details und FullHD Auflösung. AA/AF Level je nach Spielbarkeit so angepasst, das ordentliche FPS Raten rauskommen. Und dann ein Vergleich wie stark die CPU in dem und dem Game Einfluss drauf hat.
Damit kann der Leser was anfangen...

Unterschätz mal nicht die Aussagekraft von low-res Tests. ;) Nur mal ein paar Fragen, die wir mit teils GPU-limitierten Messungen nicht beantworten können: Wie schlägt sich die CPU, wenn ich in 1-2 Jahren eine stärkere Grafikkarte verbauen möchte? Wie ist die Relation unter verschiedenen CPUs in künftigen Fällen mit höherer CPU-Last? Wie gut ist die Performance in worst-case Szenarien, welche sich leider meistens auf Grund fehlender Reproduzierbarkeit nicht benchen lassen?

All das sind Aussagen für praxisrelevante Settings, gerne auch in FullHD oder mit AA/AF, welche sich aber nur mit vollständigen CPU-Limit Messungen, häufig also low-res, ermitteln lassen. Tja verrückt, nicht? ;)
 
@ fdsonne

Die Leute hat es aber zu interessieren, denn die CPU performt unabhängig von der Auflösung immer gleich (Ausnahme: andere aspect ratio) - Unfug wird's nur dann, wenn man die Performance per GPU-Limit überdeckt. Tust du letzteres siehst du nicht, welche CPU schneller ist und damit ist der Test nutzlos verbrannte Zeit.
 
Gut das Worst Case Szenario kann man gelten lasse. Die anderen beiden Argumente halte ich für uninteressant. Denn es interessiert das hier und jetzt... Was in 1-2 Jahren mal ist, weis heute niemand...
Das Problem ist, in ein zwei Jahren gibts zwar neue, schnellere GPUs, aber auch ganz andere Games. Wo davon dann in den Tests wieder ne Hand voll herhalten müssen, um quasi allgemeingültige Aussagen zu treffen.

Vllt sehe ich das auch zu versteift, aber ich finde, bei FPS Raten deutlich über 100FPS macht es weniger Unterschied ob da nun 10 oder 50% zwischen zwei CPUs liegen.
Der Spielbarkeitsbereich zwischen ~30-80FPS ist interessant. Und auch in zwei Jahren wird man mit deutlich gesteigerter GPU Leistung in diesem Bereich spielen und alles was deutlich drüber ist (und wo dann von mir aus auch deutliche Unterschiede zu sehen sind) als irrelevant einstufen...

@ fdsonne

Die Leute hat es aber zu interessieren, denn die CPU performt unabhängig von der Auflösung immer gleich (Ausnahme: andere aspect ratio) - Unfug wird's nur dann, wenn man die Performance per GPU-Limit überdeckt. Tust du letzteres siehst du nicht, welche CPU schneller ist und damit ist der Test nutzlos verbrannte Zeit.

Was ist das für ein Argument!? Seit wann schreibt der Tester einer Sache vor, was den Leser zu interessieren hat?
 
Zuletzt bearbeitet:
Um ehrlich zu sein zweifel ich an den hohen Taktraten die hier prophezeit werden.
Der CB-Overclocking Test des Llano war ja schon sehr ernüchternd und deutet ja auf einen nicht ganz so ausgereiften 32nm-Prozess hin oder wie seht ihr das?
Jein. Ausgereift ist er sicher nicht, es kann also noch besser werden.
Andererseits ist Llano eine reinrassige Mobil-APU, dh. Sparsamkeit (@idle) geht vor Leistung.

Man hat bei der Herstellung von kleinen Transistoren wie sie in CPUs vorkommen ein paar wählbare Parameter und muss einen Kompromiss zwischen Leckstrom und Schaltgeschwindigkeit /-spannung finden. Da Llano für einen ganz anderen Markt gebaut wurde, besteht insofern noch etwas Hoffnung.
(Zumal ja die Gatterlaufzeit ausschlaggebend ist, zerlegt man die Pipeline in viele Stufen mit wenigen Gattern bekommt man automatisch höhere Taktfrequenzen für die CPU).

Was mich bei Llano viel mehr verwundert: Der Turbo ist lediglich ein Turbochen. Intel jagt einzelne Kerne der Quads auf über 3 GHz, AMD erreicht praktisch kaum mehr als 2 GHz.
 
@ fdsonne

Sorry, ungünstige Formulierung. Nicht vorschreiben, sondern vormachen und erklären warum.

Allerdings sieht man leider immer wieder, dass es die Leute nicht verstehen (wollen). Man misst die Grafikleistung ja auch nicht mit einem Singlecore-Atom und urteilt dann, eine HD 6970 seit nicht schneller als eine HD 6450.
 
Wie soll das gehen?
Wenn 100% (also wirklich alles was rein geht), auch in Hitze umgewandelt wird, würde die CPU nicht rechnen können.

Dann hättest du ne Herdplatte... Und selbst dort stimmt das nicht ganz, da auch Lichtenergie erzeugt wird. Siehe Cerankochfeld...

Was für eine Energieform ist denn das "Rechnen"?
Wird Masse hin und her bewegt?

Energie ist immer da und kan nicht vernichtet werden oder verloren gehen.
Es wird immer nur eine Energieform bzw ein Energieträger in einen anderen Energieträger umgewandelt.
Bei der CPU werden mit Hilfe von elektrischer Energie Zustände erzeugt und miteinander berechnet. Ein solcher Zustand eines Transistors ist aber keine Energie, in einem Transistor wird lediglich elektrische Energie in Wärmeenergie umgewandelt. Allgemein ausgedrückt: es wird Strom verbraucht.


Wie auch sonst überall gilt auch hier das Energieerhaltungsgesetz (kannst du ja mal googlen).

Um es mal genauer auszudrücken, gibt es neben der Wärmeenergie noch einen ganz geringen Anteil an elektromagnetischer Energie in Form von Wellen, die von der CPU ausgehen (EMV)
Grob gesagt werden 99% der elektrischen Energie in Wärmeenergie umgewandelt, der Rest teilt sich auf in Feldern und Strahlung.

PS: Lichtenergie vom Cerankochfeld .. nice ;)
Lichtenergie ist Strahlungsenergie in einer sichtbaren Wellenlänge, trifft diese Strahlung auf einen Körper, wird sie reflektiert oder absorbiert. Im Falle des Absorbierens wird das Licht wieder in Wärme umgewandelt. Du kannst mit der Lichtenergie einer 500W Lampe z.B. Papier anzünden.


Zurück zur CPU: Da gibt es jetzt das Problem, dass die Hersteller nur die TDP angeben. Die TDP gibt aber weder die max. erzeugte Wärme noch den max. Stromverbrauch an.
 
Zuletzt bearbeitet:
....sollte man die Fresse halten, stimmt :wink:

Die CPU soll berechnungen mit hilfe von Stromflüssen anstellen.

Könnte man so stehen lassen. Wie du schon schreibst ist elektrische Energie dabei nur mittel zum Zweck. Ebenso könnte man (und wird man irgendwann auch) Licht verwenden.

Dass dabei Abwärme entsteht ist aufgrund der Feinen Strukturen leider ein negativer nebeneffekt(Rein Informativ: Früher wurden Prozessoren mit 12V betrieben und blieben absolut kalt).

Das ist ja auch toll. Nur Leider errechnet sich die Leistung aus der Spannung und Strom. Schau doch mal wieviel Ampere bei deinem 12V Prozessor anlagen.

Ums dir Einfacher zu machen:

Der Pentium 1 P5 mit 60 Mhz hatte einen maximalen Stromverbrauch von 14,6 Watt und eben genau da lag auch seine TDP.

Begründet ist das ganze durch eine Spannung von 5 V und einen maximalen Strom von 2,93 Ampere. Du wirst bestimmt rausfinden das das nun 14,65 Watt sind, allerdings gibt es ja schon verluste vor dem eigentlichen Prozessor.

Wenn du deine CPU zum Kafee kochen benützt (Netburst wäre da empfehlenswert) schiesst du dich selbst ins Abseits bei dieser Diskussion.

Der einzige der sich gerade ins Abseits stellt bist leider du, weil über etwas Diskutierst, von du dem du nicht den hauch einer Ahnung hast!

Bei einem Widerstand wird der Elektronenfluss ganz oder Teilweise gehemmt.
Da dabei die Elektronen an den Atomen des Widerstandes reiben entsteht dadurch Wärme.

Auch das hat dir wiki scheinbar schnell beigebracht. Wenn ich doch aber bei einer elektrischen Schaltung nur den Stromfluss ändere, wo ist dann die Arbeit? Kinetische Energie? Fällt wohl bei Transistoren weg...
Potenziele Energie? Du kannst den Rechner auf den Tisch stellen, aber dann hast immernoch du die Arbeit verrichtet, raufrechnen wird er sich nicht.
Thermische Energie, auch wenn du sie nicht mags, sie ist es.

Und nun?
Was hat das damit zu tun dass Leistungsaufnahme und Wärmeabgabe nicht das selbe sind.

Sie sind noch immer das selbe. Wo soll die Energie denn deiner Meinung nach hin?

Allein die Tatsache dass das eine dem Prozessor zugeführt wird und das andere von ihm abgegeben wird lässt mich nur den Kopf schütteln, wenn jemand sagt das ist ein und das selbe.

Oh ja, welch humbug. Der Prozessor speichert die Energie und wartet nur auf den Moment das du nicht hinguckst...

..und dann steht er auf und rennt weg, der Schuft!
 
Zuletzt bearbeitet:
Die CPU soll berechnungen mit hilfe von Stromflüssen anstellen.
Mit Hilfe von Potentialen.

Schau doch mal wieviel Ampere bei deinem 12V Prozessor anlagen.
Stom fließt Spannung liegt an.


Die Abwärme im CPU entsteht in erster Linie durch das Umladen der Internen Kapazitäten und nachrangig durch den Leckstrom. Die CPU hier mit einem Einfachen Widerstand zu vergleichen hilft auch nicht so wirklich.
Ansonsten wird nahezu 100% der Energie in Wärme an der CPU Oberfläche umgewandelt, ein wenig wird auch noch in die Busse gepumpt.
 
Oh ja, welch humbug. Der Prozessor speichert die Energie und wartet nur auf den Moment das du nicht hinguckst...

..und dann steht er auf und rennt weg, der Schuft!
:haha:

PS: Lichtenergie vom Cerankochfeld .. nice ;)
Lichtenergie ist Strahlungsenergie in einer sichtbaren Wellenlänge, trifft diese Strahlung auf einen Körper, wird sie reflektiert oder absorbiert. Im Falle des Absorbierens wird das Licht wieder in Wärme umgewandelt. Du kannst mit der Lichtenergie einer 500W Lampe z.B. Papier anzünden.
Stimmt nicht ganz. Wärme an sich gibt es nicht, sondern Wärmestrahlung(Infrarotstrahlung), welche eine elektromagnetische Welle ist.
 
so gesehen ja, habe es einfach ausgedrückt ;)
 
Naja, Wärme und Kälte sind eine Empfindung der Temperatur d.h. existieren sie sehr wohl!
 
Wir meinen aber physikalisch vorhandene Energieformen.
Warm und Kalt sind subjektives Empfinden.

So wie ich ein subjektives Empfinden habe, dass wir uns zu sehr vom Thema entfernen.
 
Könnt ihr nicht einen eigenen Thread für die Leistungsaufnahme/-abgabe der CPU auf machen?
PS:
Hier wurde das auch schon mal erklärt, der viert letzte Eintrag von Doc erklärt das ganz gut.

Hier geht es laut Überschrift um den BD also :btt:
 
Zuletzt bearbeitet:
Elektrische Energie wird in der CPU in Wärmeenergie umgewandelt, zu 100%

Und die Ganzen Berrechnungen der CPU werden durch gutes Zureden erzeugt?
:rolleyes: also machmal denke ich mir wirklich....


Aber wenn mir jemand was beweisen will: Schnapp dir vernünftige Messinstrumente und miss selber nach.

Aber bei Ungereimtheiten nicht von Dunkler Materie, flux kompensatoren und makro-schwarzen Löchern anfangen.
 
Mit Hilfe von Potentialen.

Stom fließt Spannung liegt an.


Die Abwärme im CPU entsteht in erster Linie durch das Umladen der Internen Kapazitäten und nachrangig durch den Leckstrom. Die CPU hier mit einem Einfachen Widerstand zu vergleichen hilft auch nicht so wirklich.
Ansonsten wird nahezu 100% der Energie in Wärme an der CPU Oberfläche umgewandelt, ein wenig wird auch noch in die Busse gepumpt.

Hatta natürlich recht. Is mir beim schnellen schreiben nicht aufgefallen.

Das mit dem Widerstand liegt aber nunmal am nächsten. Was über die Busse geht sollte man aber getrost unter den Tisch fallen lassen können.

Und die Ganzen Berrechnungen der CPU werden durch gutes Zureden erzeugt?
:rolleyes: also machmal denke ich mir wirklich....


Aber wenn mir jemand was beweisen will: Schnapp dir vernünftige Messinstrumente und miss selber nach.

Aber bei Ungereimtheiten nicht von Dunkler Materie, flux kompensatoren und makro-schwarzen Löchern anfangen.

Und welche form von Energie oder Arbeit sind deiner Meinung nach Berechnungen? Wohin geht die Energie?

Wenn man so wenig ahnung hat wovon man redet sollte man nicht so die Klappe aufreißen!
 
Das ist ja auch toll. Nur Leider errechnet sich die Leistung aus der Spannung und Strom. Schau doch mal wieviel Ampere bei deinem 12V Prozessor anlagen.

Ich habe nie Gegenteiligeres Behauptet. Es geht darum erstmal zu verstehen wie die Wärme im Prozessor "entsteht", erst dann kann man über Verlustleistung reden, was auch sinnfrei ist, da Energie nicht verloren geht, sie wird nur zum Grossteil in eine nicht benötigte energieform Umgewandelt.

Ums dir Einfacher zu machen:


Begründet ist das ganze durch eine Spannung von 5 V und einen maximalen Strom von 2,93 Ampere. Du wirst bestimmt rausfinden das das nun 14,65 Watt sind, allerdings gibt es ja schon verluste vor dem eigentlichen Prozessor
. P U und I stimmt, und was willst du mir damit sagen?



Der einzige der sich gerade ins Abseits stellt bist leider du, weil über etwas Diskutierst, von du dem du nicht den hauch einer Ahnung hast!

Oh wirklich? Na dann sag mir mal wovon ich keine Ahnung habe....



Auch das hat dir wiki scheinbar schnell beigebracht. Wenn ich doch aber bei einer elektrischen Schaltung nur den Stromfluss ändere, wo ist dann die Arbeit? Kinetische Energie? Fällt wohl bei Transistoren weg...
Potenziele Energie? Du kannst den Rechner auf den Tisch stellen, aber dann hast immernoch du die Arbeit verrichtet, raufrechnen wird er sich nicht.
Thermische Energie, auch wenn du sie nicht mags, sie ist es.

Nix da, Wiki gehe ich sehr selten ;).
Die Arbeit "Leistung" ist die DASS der Fluss unterbrochen wird.
Das ist die ARBEIT des Prozessor´s.
Wenn ich 100W in den Prozessor stecke, kommen nicht 100W als Wärme raus.
Bis du das gegenteil bewiesen hast (ich warte gespannt) ....
ARBEIT ist ein Allumfassender Begriff.
Wenn hier behauptet wird dass der Ganze Strom in Wärme ungewandelt wirdk, dann ist das Unfug, da der Prozessor auch Berrechnungen ERARBEITET
Abgesehen davon, mir zu unterstellen dass ich Thermische Energie nicht....."mag" ..... wo habe ich das gesagt? :rolleyes:

Das was du hier machst nennt man Lügen, zur info.

Und wenn du deine Liste noch 10 mal runterleierst, wird es trotzdem nicht wahr.

Vor 1000 Jahren war die Erde, stell dir vor Rund, obwohl jeder das gegenteil behauptet hat.



Sie sind noch immer das selbe. Wo soll die Energie denn deiner Meinung nach hin?
Das was reingeht, und dass war Rausgeht ist nicht das selbe, wie oft denn noch :hmm:
Sie wird Umgewandelt in Wärme, weitere Stromflüsse Elektromagnetische Strahlungen des Gesamten Wellenbereiches und eben die Berrechnungen.



Oh ja, welch humbug. Der Prozessor speichert die Energie und wartet nur auf den Moment das du nicht hinguckst...

..und dann steht er auf und rennt weg, der Schuft!

Dir ist schon bewusst, dass du nicht gerade mich, sondern dich lächerlich machst :confused:

---------- Beitrag hinzugefügt um 14:26 ---------- Vorheriger Beitrag war um 14:20 ----------

Was über die Busse geht sollte man aber getrost unter den Tisch fallen lassen können.
Falsch, mann kann nicht etwas unter den Tisch fallen lassen, nur weil es der eigenen, uneinsichtigen Meinung nach, nicht wichtig ist.



Und welche form von Energie oder Arbeit sind deiner Meinung nach Berechnungen? Wohin geht die Energie?
Sieh Post über mir, andernfalls schnapp dir ne Videokamera, stell die vor dem PC auf den Bilschirn. Schalte den PC ein und wieder aus.
Dann siehst du wohin ein Teil des Stromes geht.
Kannst dir ruhig öfter das Video ansehen, wenn du es nicht gleich bemerkst.

Wenn man so wenig ahnung hat wovon man redet sollte man nicht so die Klappe aufreißen!

So genug OT, abgesehen davon, ist es ncith nötig hier beleidigend zu werden, sag mir warum musste das jetzt WIEDER mal sein?
Kannst du mal Von der Emotionalen auf die Sachliche Ebene gehen?

Wenn du schon Trollen willst,:fp
 
Wenn ich 100W in den Prozessor stecke, kommen nicht 100W als Wärme raus.

Doch. In sinnvoller Näherung kann man das problemlos behaupten.

Wenn hier behauptet wird dass der Ganze Strom in Wärme ungewandelt wirdk, dann ist das Unfug, da der Prozessor auch Berrechnungen ERARBEITET

Berechnungen sind keine Energie und keine Arbeit (in physikalischer Betrachtung).

Sie wird Umgewandelt in Wärme, weitere Stromflüsse Elektromagnetische Strahlungen des Gesamten Wellenbereiches und eben die Berrechnungen.

EM-Strahlung bewegt sich grob im Mikrowattbereich. Berechnungen sind wie erwähnt keine Energie. Und was "weitere Stromflüsse" sein sollen verstehe ich gar nicht.

Du reitest dich gerade immer tiefer in grundlegend unsinnige Behauptungen hinein. Bitte, einfach hier und jetzt aufhören. ;)
 
Zuletzt bearbeitet:
Abgesehen davon dass Undertaker1 seine Texte nach einem QUOTE editiert.....

Ja endlich begreift es EINER.

BERRECHNUNGEN SIND KEINE ENERGIE SONDER ARBEIT.

Wie oft muss ich es noch wiederholen.
Du kannst es gerne im Post über dir bei Punkt 2 nochmal nachlesen.
 
Kann mir einer sage wan der Bulldozer raus kommt, ich habe irgendwas gehört von Q3 oder sogar ende des Jahres. Stimmt das???
Offiziell ist 1. Juni + 60-90 Tage. Schaut also nach August aus.


Um ehrlich zu sein zweifel ich an den hohen Taktraten die hier prophezeit werden.
Der CB-Overclocking Test des Llano war ja schon sehr ernüchternd und deutet ja auf einen nicht ganz so ausgereiften 32nm-Prozess hin oder wie seht ihr das?
Bulldozer ist eine komplett andere Architektur und ein komplett anderes Design ohne iGPU. Das ist für Taktbarkeit ebenfalls entscheidend, nicht nur der Fertigungsprozess.


Und gerade deswegen zeigt der Test irgendwie (trotz von mir aus GPU Limit) das der BD der alten i7 Architektur in Games hinterher hingt. Warum ist das der Fall?
jetzt kommt gleich wieder, es ist ein ES und dessen Leistung ist nicht zu vergleichen...

PS: alles natürlich nur unter der Annahme, das der Test kein Fake ist... Sollte klar sein.



Um so schlimmer, das der BD da irgendwie in allen Vergleichen zurück liegt
Gibt es einen 4 GHz Gulftown? Nein. Gulftown geht bis maximal 3,47 / 3,73 GHz. Du darfst dementsprechend die Werte des i7 runterrechnen. Wird Bulldozer bis 4 GHz gehen? Mit Turbo vielleicht sogar darüber hinaus. Du darfst dementsprechend die Werte hochrechnen. Es ist lediglich ein Test dabei, wo es mehr als 5% Unterschied sind, nämlich DIRT 2. HAWX lass ich mal aussen vor, da das nicht eindeutig ist (HAWX / HAWX 2?). Unterm Strich, wir haben einen Prozessor mit 8 logischen Prozessoren / Threads, Zambezi, und einen mit 12 logischen Prozessoren / Threads, Gulftown. Dennoch kann sich letzterer nicht entsprechend absetzen. Und jetzt kommst du und sagst, dass Zambezi hinterherhinkt und es schlimm für ihn aussehen würde. :stupid: Sry, aber dazu fällt einem echt nichts mehr ein. Ich frage mich langsam, was du erwartest. Irgendwie scheint mir das total weltfremd zu sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh