Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Stell doch bitte mal deren Rechenleistung ins VerhältnisP6 Xeons haben 47Watt verbraucht, ein heutiger Xeon knuspert am 10Fachen
Stell doch bitte mal deren Rechenleistung ins VerhältnisEin alter 486er war auch sehr sparsam, heutige Topmodelle wollen auch 200W
Was für ein Einheitensalat, Bruder.L/100kM
aha, das abrufbare Leistungsspektrum ist die Bandbreite und innerhalb dessen gibt es einen Bezugswert, die Entfernung, nämlich 100 km und dafür einen Verbrauch an Litern auf Basis einer Normierung. Was hinkt da im Vergleich zwischen zwei PKWs deren Altersunterschied der Prozessorgeneration annähernd entspricht?Der Autovergleich hinkt gewaltig
486er -> ~30WEin alter 486er war auch sehr sparsam, heutige Topmodelle wollen auch 200W
Die Frage des TE bezieht sich aber offensichtlich nicht auf den Idle Zustand, denn da "knabbert der Verbrauch" ja nicht am 10fachen von 47W.aha, das abrufbare Leistungsspektrum ist die Bandbreite und innerhalb dessen gibt es einen Bezugswert, die Entfernung, nämlich 100 km und dafür einen Verbrauch an Litern auf Basis einer Normierung. Was hinkt da im Vergleich zwischen zwei PKWs deren Altersunterschied der Prozessorgeneration annähernd entspricht?
Ich liege im Idle mit einem 9600K bei ~5Watt (das komplette System) und was verbraten die Xeon P6 aus den 1998ern bei welcher abrufbaren Leistung, lassen wir mal die Effizienz der Peripherie unberücksichtigt?
Weil man früher nicht einfach "mehr Strom" ging und damit die Leistung gesteigert worden wäre. Wurde weiter oben schon erklärt.Warum hauen die Hersteller immer mehr Watt drauf anstatt bei gleichem Verbrauch nur die Leistung zu steigern?
Es geht mir darum das man das ganze aufwenig kühlen muss, die ganzen Umweltfreaksdurchdrehen.Gegenfrage: Warum sollte man es nicht tun?
Sry hab das Zitat gekillt -.-
Gigawatt pro Stunde pro Stunde?1600 GW/h Mehrverbrauch an Strom pro stunde
Bei CPUs braucht man idR eine bestimmte Leistung. Die kannst du mit 100 CPUs a 10W erreichen oder halt mit 10 CPUs a 90W. Weil die CPUs mit 90W halt 10-fache Leistung aber nur 9-fachen Verbrauch haben, also trotzdem effizienter sind.Es geht mir darum das man das ganze aufwenig kühlen muss, die ganzen Umweltfreaksdurchdrehen.
Der Hype wird durchaus auch bei CPUs und PCs allgemein gemacht. Vorallem wenn man deren Leistung für sowas "sinnfreies" wie Spiele verbrät. Oder Bitcoins mined.Das wundert mich halts das überall son hype gemacht wird aber bei pcs das gegenteil.
Es hat aber weder jeder so eine 200W-CPU, es braucht nicht jeder eine 200W-CPU und es gibt nicht nur 200W-CPUs.Sogesehen hat der TE durchaus recht, eine AMD und Intel Cpu die sich an die TDP hält (ergo max 125W) ist extrem effizient und alles darüber ist sogesehen Energieverschwendung.
Because reasonsWarum ist man nicht bei 20W geblieben?