Watt warum?

Status
Für weitere Antworten geschlossen.

Amigac64

Profi
Thread Starter
Mitglied seit
02.10.2018
Beiträge
543
Moin, die P6 Xeons haben 47Watt verbraucht, ein heutiger Xeon knuspert am 10Fachen
Ein alter 486er war auch sehr sparsam, heutige Topmodelle wollen auch 200W

Warum ist das so?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Frage finde ich ziemlich gut. Nicht weil ich der Zeit der sparsameren Rechner nachweinen würde (wer sparsam will, kann das auch heute definitiv haben, wie die Hinweise auf die Rechenleistung bezeugen. Man kann ja schon mit 5W nen PC betreiben ala Raspberry Pi), sondern von der technischen Seite.

Die Strukturgrössen waren damals grösser, müssten also eigentlich sogar mehr Spannung aushalten als heute. Wieso hat man damals nicht durch Durchjagen von mehr Power, die Leistung ans Limit treiben können, wie es heute der Fall zu sein scheint?

@Sassicaia Der Autovergleich hinkt gewaltig, denn die L/100kM Angabe ist (für "normale Autos") normiert und macht praktisch keinen Gebrauch von den zur Verfügung stehenden PS über 100. Potentielle PS sind ja nicht das equivalent von realer Rechenleistung.
Viel interessanter wäre der Vergleich des Verbrauchs eines 0->100 Sprints. Oder einer Fahrt bei Höchstgeschwindigkeit. Dort sehe es bei Autos wahrscheinlich deutlich schlechter aus. Motoren sind efizienter geworden, aber nicht um Faktor 4-5.
 
Zuletzt bearbeitet:
Damals sind die cpus auch mit 2v gelaufen, klar wegen der größeren strukturgröße ging das auch... Allerdings haben größere Transistoren in den CPUs (sind ja Mosfets ums genau zu nehmen) aber auch größere Gates, diese wiederum benötigen mehr Energie um geladen und entladen zu werden... Man musste also immer kleiner bauen um die umladeverluste geringer zu halten. Mit kleineren Transistoren kann man höhere Taktrate fahren sofern es kein signalrauschen oder übersprechen gab... Das ist halt wiederum eine andere Baustelle die man angehen muss wenn was kleiner wird und schneller werden soll. Klar hat man aber die kleinere strukturgröße mit genutzt um mehr Transistoren zu verbauen als es damals der Fall war, darum können cpus mittlerweile auch viel mehr Befehle und auch die IPC Leistung ist höher, dafür steigt aber halt auch der Stromverbrauch weil viel viel mehr Transistoren verbaut werden als damals.
Es gibt aber auch sparsame cpus wo weniger Transistoren verbaut sind - diese sind natürlich langsamer als aktuelle cpus, aber dennoch viel viel schneller als die richtig alten CPUs - beim selben oder gar weniger verbrauch.
 
Der Autovergleich hinkt gewaltig
aha, das abrufbare Leistungsspektrum ist die Bandbreite und innerhalb dessen gibt es einen Bezugswert, die Entfernung, nämlich 100 km und dafür einen Verbrauch an Litern auf Basis einer Normierung. Was hinkt da im Vergleich zwischen zwei PKWs deren Altersunterschied der Prozessorgeneration annähernd entspricht?

Ich liege im Idle mit einem 9600K bei ~5Watt (das komplette System) und was verbraten die Xeon P6 aus den 1998ern bei welcher abrufbaren Leistung, lassen wir mal die Effizienz der Peripherie unberücksichtigt?
 
Ein alter 486er war auch sehr sparsam, heutige Topmodelle wollen auch 200W
486er -> ~30W
Raspberry Pi 3B -> 8W bei ca. 10-facher Rechenleistung eines 486DX2/66 (wohlgemerkt 8W für den kompletten Rechner, nicht nur die CPU)
 
aha, das abrufbare Leistungsspektrum ist die Bandbreite und innerhalb dessen gibt es einen Bezugswert, die Entfernung, nämlich 100 km und dafür einen Verbrauch an Litern auf Basis einer Normierung. Was hinkt da im Vergleich zwischen zwei PKWs deren Altersunterschied der Prozessorgeneration annähernd entspricht?

Ich liege im Idle mit einem 9600K bei ~5Watt (das komplette System) und was verbraten die Xeon P6 aus den 1998ern bei welcher abrufbaren Leistung, lassen wir mal die Effizienz der Peripherie unberücksichtigt?
Die Frage des TE bezieht sich aber offensichtlich nicht auf den Idle Zustand, denn da "knabbert der Verbrauch" ja nicht am 10fachen von 47W.
Ja, Idle Verbrauch hat sich tatsächlich signifikant verbessert, ist aber ein etwas anderes Thema.
 
Du vergleichst da auch Äpfel mit Birnen!



Die uralten Xeons hatten nur einen Kern mit ziemlich wenigen Transistoren!

Die aktuellen Xeons haben sowas von mehr Kerne und jeder Kern hat aber auch sowas von mehr Transistoren (Mindestens Faktor 40 mehr)!

Dazu kommt da noch der viel viel höhere und schnellere Cache und vieles andere.

Bei Autos vergleichst du da nen LKW oder PKW aus dem 1. Weltkrieg mit nem aktuellem 1000PS Sportwagen!
 
Ja, ich mein.
Warum hauen die Hersteller immer mehr Watt drauf anstatt bei gleichem Verbrauch nur die Leistung zu steigern?
 
Die heutigen (Desktop) Cpus verbrauchen mehr, weil man offensichtlich der Meinung ist das kühlen zu können... So steigert man die Rechenleistung durch Fortschritte in der Fertigung UND mehr Leistungsaufnahme. Es gibt aber auch Cpus, die weiterhin sehr wenig verbrauchen. Zum Beispiel ARM in Smartphones, Tablets oder auf dem Raspberry Pi.

Davon ab kann man eine moderne Cpu wie einen Ryzen auch auf 15W Verbrauch begrenzen, hat dann aber natürlich auch weniger Rechenleistung als mit 50 oder 100W Stromverbrauch.
 
Warum hauen die Hersteller immer mehr Watt drauf anstatt bei gleichem Verbrauch nur die Leistung zu steigern?
Weil man früher nicht einfach "mehr Strom" ging und damit die Leistung gesteigert worden wäre. Wurde weiter oben schon erklärt.
Warum man nicht nur bei gleichem Verbrauch die Leistung steigert? Na weil man mit mehr Verbrauch die Leistung noch mehr steigern kann. Gegenfrage: Warum sollte man es nicht tun?
Ausserdem gibt es auch CPUs mit ähnlich niedrigem Verbrauch... wenn dir deren Leistung reicht, kannst du auch die nehmen. Zwingt dich keiner 200W-CPUs zu kaufen. Du nimmst aber vermutlich trotzdem CPUs die mehr verbrauchen, eben weil sie auch mehr Leistung haben. Du hast dir deine Frage also schon selbst beantwortet.

Zumal nähert man sich immer weiter physikalischen Grenzen. Die Effizienz lässt sich nichtmehr allzuviel steigern, mehr Leistung geht also mittlerweile fast nur noch durch höheren Verbrauch.
 
Gegenfrage: Warum sollte man es nicht tun?

Sry hab das Zitat gekillt -.-
Es geht mir darum das man das ganze aufwenig kühlen muss, die ganzen Umweltfreaksdurchdrehen.
Bei 1600 GW/h Mehrverbrauch an Strom pro stunde geht ja schon einiges (geschätzt wenn inkl server jeder mensch ein system angeschaltet hat)
Das wundert mich halts das überall son hype gemacht wird aber bei pcs das gegenteil.
 
Bei Server und Workstation CPUs gehts immer um die max. Leistung, so einfach ist das.

Strom sparen und auf Leistung verzichten ist da ein Satz mit X und daran wird sich auch genau nix ändern!
 
So ein 486er hat um die 1,2 Mio Transistoren.
So ein alter Xeon mit Nehalem-Architektur von 2009 hat schon 820 Mio Transistoren, also 683 mal so viele Tranistoren wie ein 486er.
Und er hat mit max. 3,2 GHz gegenüber max. 133 MHz (AMD x5) auch 24 mal so viel Takt.
Er verbraucht aber nicht 683 mal so viel Leistung!
 
Es geht mir darum das man das ganze aufwenig kühlen muss, die ganzen Umweltfreaksdurchdrehen.
Bei CPUs braucht man idR eine bestimmte Leistung. Die kannst du mit 100 CPUs a 10W erreichen oder halt mit 10 CPUs a 90W. Weil die CPUs mit 90W halt 10-fache Leistung aber nur 9-fachen Verbrauch haben, also trotzdem effizienter sind.
Die Kühlung der 10x90W CPUs ist dabei ebenfalls weniger aufwändig, als für 100x10W. Wenn man soviel Leistung also braucht man, muss man so oder so kühlen.

Das wundert mich halts das überall son hype gemacht wird aber bei pcs das gegenteil.
Der Hype wird durchaus auch bei CPUs und PCs allgemein gemacht. Vorallem wenn man deren Leistung für sowas "sinnfreies" wie Spiele verbrät. Oder Bitcoins mined.
 
Es wird irgendwo einen Breakeven geben. Sprich die TDP ins Bodenlose zu reduzieren ist ebenso ineffizient wie sie maßlos anzuheben. Zu weit absenken macht keinen Sinn, weil die Plattform um die Cpu herum auch Energie braucht (Bsp: Plattform braucht 25W, da macht eine 5W Cpu keinen Sinn) und andersrum wird die Skalierung der Cpu irgendwann zu schlecht (Bsp: 200W statt 150W bringt nur wenige Prozent Leistung extra).

Man sieht ja an den Ryzen Cpus im Notebook was mit 15W bis 50W so möglich ist. Dort skalieren die Cpus extrem gut, so wie entsprechende Intels auch. Man merkt aber auch, das man oberhalb von 50W (je nach Cpu) eher wenig Leistung dazu bekommt. Ein 150W Intel oder AMD ist mitnichten um Faktor 3 schneller als die 50W Cpu. Sogesehen hat der TE durchaus recht, eine AMD und Intel Cpu die sich an die TDP hält (ergo max 125W) ist extrem effizient und alles darüber ist sogesehen Energieverschwendung.
 
Sogesehen hat der TE durchaus recht, eine AMD und Intel Cpu die sich an die TDP hält (ergo max 125W) ist extrem effizient und alles darüber ist sogesehen Energieverschwendung.
Es hat aber weder jeder so eine 200W-CPU, es braucht nicht jeder eine 200W-CPU und es gibt nicht nur 200W-CPUs.
Die Frage hinkt hinten und vorne.

Und wenn man es so genau nehmen will, warum man 200W-CPUs mit 130% der Leistung einer 50W-CPU baut ist die Antwort entsprechend unvorstellbar einfach: Weil man es kann!

Der Fehler steckt schon in der Frage:
"heutige Topmodelle wollen auch 200W"

Ja, und ein 386er brauchte 20W, ein 486er 30W und ein Pentium 40W. Warum denn? Warum ist man nicht bei 20W geblieben? :fresse:
 
Warum ist man nicht bei 20W geblieben?
Because reasons :d

Ne mal im Ernst. Du hast vollkommen Recht. Ich tippe das der Großteil der Systeme mit niedriger TDP läuft (Office Kisten, Notebooks) und ein kleiner bis sehr kleiner Teil seht bei uns Enthusiasten rum und verbläst bei einer noch kleineren Untermenge davon 150W+ durch OC und PBO. Für alle anderen ist eine 50W Cpu komplett ausreichend und das bedient der Markt über OEM Systeme ja auch.

Wobei es auch noch Leute wie mich gibt, die lieber ein leises System haben und auf die paar Prozent extra verzichten. Hätte ich eine Zen3 Cpu, so würde die mit reduzierter TDP laufen. Einfach weil die Teile so dermaß0en viel Leistung haben, das man die letzten paar Prozent nicht braucht.
 
Zuletzt bearbeitet:
Ich denke der Vergleich lässt sich gar nicht so leicht ziehen, CPUs sind erheblich komplexer geworden.
Früher hatten die CPUs nichtmal einen L2 Cache (teilweise mehr als Systeme von vor gut 20 Jahren an RAM hatten), heutzutage enthalten sie auch noch Speichercontroller, GPU und enthalten zum Teil sogar Einheiten für die Berechnung von KI (die großen Xeons) und zig Kerne.

Die Anzahl der Transistoren ist massiv gestiegen, die Taktraten ebenfalls. Im Verhältnis zur Rechenleistung ist der Stromverbrauch kaum gestiegen.
Man will die Rechenleistung von Generation zu Generation steigern und einen gewissen Mehrverbrauch nimmt man eben in Kauf.

Im Gegensatz zu früher gibt's heutzutage CPUs in etlichen TDP-Klassen, wenn man nur die x86 kompatiblen CPUs nimmt auch immerhin vom Bereich um die 10 Watt bis 200+.

Darüber hinaus muss man auch sagen dass PCs früher im Idle wie unter Last nahezu gleich viel Strom verbraucht haben, während heutige CPUs ihre TDP nur unter hoher Last ausschöpfen und meistens deutlich sparsamer unterwegs sind.
 
Man könnte ja mal Leitungsaufnahme pro GFLOP Rechenleitung vergleichen.
Und dann sieht man, das selbst eine 200 Watt CPU pro Watt Leistungsaufnahme sehr viel mehr Leistung hat als ein 486er.
Nimm mal einen alten P4 mit 3,2 GHz gegenüber einem Xeon Skylake: Der Xeon hat 240 mal so viel Rechenleistung wie der alte P4, braucht aber nur doppelt so viel Leistung.
Der P4 braucht 17 Watt pro GFLOP, der Xeon braucht 0,13 Watt pro GFLOP, er ist also 130 mal effizenter bei Leistung pro Watt.
 
Wo wir gerade dabei sind, können wir das bei den Grafikkarten auch durchkauen:fresse2:
 
Die gute alte Angabe "Watt" Änderung der Energie beziehungsweise der Arbeit pro Zeiteinheit Sekunde. Genaueres zum Beispiel hier alles in "WATT" ?

P = U * I ( W = V * A )

Gehen wir zu den Anfängen , des 8086, 286 , 386 und den ersten 486 CPU`s die mit 5 Volt IO Versorgungsspannung arbeiteten. Die 486 DX4 kamen
dann mit 3.3 Volt her. Heutzutage liegen wir beim i7 7820x im IDLE bei 0,8 Volt. Während es damals gerade mal bei einen 286 den Normalbetrieb und
ggf. eine Turbostaste gab, musste man bei späteren Generationen erst mit Jumper dann mit DIP-Schalter Konfigurieren. Heute Auto Config

Adressbus von 8/16/32, Datenbus bis 32 Bit beim 486. Taktraten von 2 Mhz zu 100 Mhz, Fertigungstechnologie 3,0 µm bis 0,5 µm siehe CPU Galerie DE.
Aktuelle CPU`s I9 in 14 nm und die nächste Generation in 10 nm aufwarten kann , siehe Hardware-mag.de . Also von ehemals 3µm ( sprich 0,000 003 Meter )
zu derzeit 14 nm (NanoMeter 0,000 000 014) kann sich schon vorstellen um wie viel kleiner die Strukturen geworden sind >>> 21,43x kleiner geworden.
Oder umgestellt 300 Meter zu 14 Meter verkleinert, sollte hier kein Tipfehler vorliegen :-) Einheiten siehe Hug Technik com .

Anfangs 8 Bit Heute 64 Bit, damals 5 Volt Heute unter 1 Volt (Wobei nicht "fest" je neuster CPU) und das ganze in 10 nm auf 30 Ebenen , siehe Schritt für Schritt zur CPU.


Nun Vereinfacht gesagt : Habe ich Zuhause den Herd, dann den Fernseher, Waschmaschine , Licht ...alles für sich und weitere Verbraucher belasten meine Spannungsquelle
mit dessen Stromaufnahme und kann ggf. gar meine 16 A Sicherrung zur Auslösung bringen.

Nun möchte ich aber noch mehr Verbraucher mit noch mehr Leitungen anschliessen ? Ich stelle fest , das ich Geräte brauche die weniger Strom verbrauchen.
Also reduziere ich die Strukturen in Ihrer Größe , bei der CPU lege ich die Bauteile wie Transistoren und Kondesatoren etc. aus für die gewünschte Spannung, habe kürze
Leitungswege etc. man beachte hohe Temperatur => großer Widerstand => kleine Stromstärke siehe Schule-BW.de und Verluste aus den Leitungen
sind nicht gerade erwünscht.

Also mit geringerer Spannung am besten noch mehr schaffen !

Warum dauert das solange, über die Jahre musste man Stück für Stück sich erstmal an die Fertigungsprozessen ran arbeiten und optimieren. In den 80 er noch
viel Naß geätzt, dürfte man wohl gänzlich auf Gas oder andere Fertigungsschritte gekommen sein um diese kleinen Strukturen zu realisieren. Aber jeder Schritt
in einer neuen und kleineren Fertigungsstrukturen birgt neue Probleme in der Herstellung des CHIPS mitsichbringen.

Jetzt sind wir allerdings schon über viele Jahre nicht mehr über den CPU Takt, sondern über Anzahlt Kerne und HT und anderen Hilfen weiter nach vorne
gekommen. Für optische CPU's stehen wir noch in den Startlöchern , aber die optische Anbindung der Daten im Rechnenwerk ist schon recht beachtlich.
Siehe Optische hnittstellen

Weiterführende Infos siehe Links

GPU und CPU welches Netzteil : Könnte passen...
 
Zuletzt bearbeitet:
Hier ist zu. Genug geblubbert.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh