Umstieg von AMD FX-8350 auf Intel (Skylake 6700K)

Das Energiemessgerät lügt nicht. Vielleicht nicht viel. Ist zumindest besser als irgendwelche Tools die das hochrechnen... ;)

Dann lügt wohl das bei CB ;)
PS: die Ausgabe des Input Wertes der Link Software deckt sich ziemlich exakt mit meiner händischen Messung, von daher alles IO ;)

Ich persönlich würde erst mit Broadwell-E auf den Sockel 2011-3 wechseln. -6- Kerne für unter 100W TDP sind dann zu verlockend. Bis dahin sind mir die 140W-Haswell-E einfach zu stromhungrig.

TDP ungleich Verbrauch oder glaubst du ernsthaft, das die drei Haswell-E Modelle trotz unterschiedlicher Coreanzahl gleich viel verbrauchen?
Kurzum, TDP ist ziemlich egal... Das ist bestenfalls dort interessant, wo man aktiv die TDP runter setzt um etwas zu decken... Bspw. jüngst der R9 Nano Karte oder auch her 45W APU von AMD.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
fdsonne teste doch selbst einmal den Verbrauch mit unterschiedlicher RAM Bestückung.
 
Meine alte Hardware werkelt beim Nachbar .Ich kann mich regelmäßig davon überzeugen wie der FX z.B bei BF 4 ,64 Mann-Server völlig überfordert ist , wo der Xeon drüber lacht.

LOL dan stimmt da was nicht,
Selbst ein A4 6300 macht bei BF4 64er 45 Fps im Cpu Limit mit:hmm:
 
S2011-3 ist mmn. momentan das einzig richtige WENN man einen guten Allrounder will. Zum reinen spielen wird der 6700 um einiges besser skalieren dank massiv höherer Standard-Taktrate. Aber beim rendern machen sich zwei weitere Kerne deutlich bemerkbar. Der 5820k kostet kaum mehr als ein 2015er 6700er System und wird selbst wenn später die ganzen Spiele doch von mehr threads profitieren erst richtig loslegen. Aber an sich kann man mit keinem der beiden System etwas falsch machen. Seit wann gibt es einen nativen 6 Kerner von Intel so günstig? Ich würde die Situation ausnutzen.
 
S2011-3 ist mmn. momentan das einzig richtige WENN man einen guten Allrounder will. Zum reinen spielen wird der 6700 um einiges besser skalieren dank massiv höherer Standard-Taktrate. Aber beim rendern machen sich zwei weitere Kerne deutlich bemerkbar. Der 5820k kostet kaum mehr als ein 2015er 6700er System und wird selbst wenn später die ganzen Spiele doch von mehr threads profitieren erst richtig loslegen. Aber an sich kann man mit keinem der beiden System etwas falsch machen. Seit wann gibt es einen nativen 6 Kerner von Intel so günstig? Ich würde die Situation ausnutzen.

Eben, genau aus dem Grund werde ich nicht wie erst angedacht auf Skylake wechseln, sondern werde auch auf Haswell-E wechseln, lohnt einfach mehr...
 
Dann lügt wohl das bei CB ;)
PS: die Ausgabe des Input Wertes der Link Software deckt sich ziemlich exakt mit meiner händischen Messung, von daher alles IO ;)



TDP ungleich Verbrauch oder glaubst du ernsthaft, das die drei Haswell-E Modelle trotz unterschiedlicher Coreanzahl gleich viel verbrauchen?
Kurzum, TDP ist ziemlich egal... Das ist bestenfalls dort interessant, wo man aktiv die TDP runter setzt um etwas zu decken... Bspw. jüngst der R9 Nano Karte oder auch her 45W APU von AMD.
Es ist immer die Frage ob es System Werte (PC only oder mit Monitor und Sound) oder nur Delta Werte (Last-idle) sind.
Dann kommt noch dazu ob Primäre Werte oder Sekundär (vor oder hinter dem Netzteil).
Ich habe mich auf die "raw" Werte geeinigt, wenn der Wirkungsgrad bekannt ist kann man genug Schlüsse ziehen.
Hier z.B. http://abload.de/img/bf4_windowmode_cfxmxs97.jpg 550W an der Steckdose, mit Vollbild (2x 98% GPU Last) +100W. :)
 
fdsonne teste doch selbst einmal den Verbrauch mit unterschiedlicher RAM Bestückung.

Welchen Sinn soll das haben?
Damit der Verbrauch sinkt? Ja toll, sollte das so sein, kann sich davon niemand was kaufen... Oder betreibst du deinen Haswell-E mit nur einem RAM Riegel?
Ich nicht... Also völlig uninteressant.

Die CB Messung denkt sich mit meinen Werten, wenn ich das, was ich "mehr" im PC hab, drauf rechne... 225W unter Prime Volllast bei 4,2GHz und 1,25V hingegen? Ne...

PS: habe gestern an einem 5820k@4,2GHz@1,2V gesessen. 2x HDD + 2x SSD + 2x 980TI im default Zustand. -> Prime95 27.9 Volllast sind ca. 280W auf der Output Seite des NTs.
Volllast, also Prime + Furmark zeigt Peaks von 950W+ auf der Outputseite... Allerdings ist Furmark auf den GPUs nicht zu gebrauchen :fresse: Da die Load extrem schwankt und die Karten deckeln stark mit 110% PT only.

Das ist mir durchaus bewusst. Aber wie dir bekannt sein sollte, gilt der Haswell-E auf der X99-Plattform nicht gerade als Stromsparwunder. Da könnte Broadwell-E von Anfang an vieles richtig & besser machen.

Die Frage ist doch, was macht Intel mit dem Powerbudget? Sicher wird man etwas davon in mehr Takt stecken -> da wird also durchaus was verpuffen. Ebenso werden sich die Boards nicht ändern. Hast du so ne idle Stromschleuder wie ich, also ein Asus X99-E WS, dann bringt etwas Ersparung auf der CPU Seite auch viel in der Endabrechnung.
Kurzum, Broadwell-E wird die X99 Plattform nicht zum Stromsparer mutieren lassen... Weil rein auf der CPU Seite da nicht sooo extrem viel drin ist.

PS: willst du etwas realistischere TDP Werte, dann schau mal in die Xeon E5v3 Riege... Das sollte rein von den Einstufungen her eher realistisch sein ;) 12 Cores, 2,6GHz Basis, drei Komma irgenwas GHz Turbo und 135W. -> und da soll der poplige Hexacore 5820k mit 140W kommen? Auf der gleichen Plattform, das gleiche Silizium unter der Dau Kappe? Neee...

Ich habe mich auf die "raw" Werte geeinigt, wenn der Wirkungsgrad bekannt ist kann man genug Schlüsse ziehen.
Hier z.B. http://abload.de/img/bf4_windowmode_cfxmxs97.jpg 550W an der Steckdose, mit Vollbild (2x 98% GPU Last) +100W. :)

Bedenke, der Wirkungsgrad schwankt um ganz paar Prozent! Das ist nicht primär zu vernachlässigen.
Wie gesagt, ich saß gestern vor einer Kiste, gleiches NT wie ich -> das Teil kommt idle auf ca. 115W Output, also ohne Wirkungsgrad. -> Wirkungsgrad vom HX1000i NT lag idle bei unter 90%. -> bei Teillast, also um die 250-300W Verbrauch liegt der Wirkungsgrad bei 93-95%. Das macht schnell mal 20-30W Unterschied an der Dose aus!
 
Ich kann mich regelmäßig davon überzeugen wie der FX z.B bei BF 4 ,64 Mann-Server völlig überfordert ist , wo der Xeon drüber lacht. Bei Battlefront wirds nicht anders sein :d Selbes Spiel bei GTA V , da muss er einiges runter drehen damit es durchgehend weich läuft.


Ich würde so gerne für den FX sprechen. War immer AMD Fan aber da kommt einfach nix.

aha ;-)



laut pcgh läuft battlefront 3 mit dem fx übrigens mit 70fps
http://www.pcgameshardware.de/Star-...Specials/Battlefront-auf-der-R9-290X-1164625/
 

Anhänge

  • tumblr_ncow7kOlOE1smr45to1_500.jpg
    tumblr_ncow7kOlOE1smr45to1_500.jpg
    15,6 KB · Aufrufe: 26
Zuletzt bearbeitet:
Bedenke, der Wirkungsgrad schwankt um ganz paar Prozent! Das ist nicht primär zu vernachlässigen.
Wie gesagt, ich saß gestern vor einer Kiste, gleiches NT wie ich -> das Teil kommt idle auf ca. 115W Output, also ohne Wirkungsgrad. -> Wirkungsgrad vom HX1000i NT lag idle bei unter 90%. -> bei Teillast, also um die 250-300W Verbrauch liegt der Wirkungsgrad bei 93-95%. Das macht schnell mal 20-30W Unterschied an der Dose aus!
Das wären dann ca. 5% mehr Delta zwischen idle und Last.
Je mehr Teile abgeschalten werden (cores, VRM Phasen, RAM, I/O) desto größer das Delta.
Als FX-9590 sind es bei mir 30W mehr im idle (~125W) aber nur 175W Delta ohne Abzüge vom Wirkungsgrad.
Also 230V @ 175W Differenz an der Steckdose - 11% Netzteil = 164W - 20% VRM = 144W Sekundär (TDP).

:wink:
 
Welchen Sinn soll das haben?
Damit der Verbrauch sinkt? Ja toll, sollte das so sein, kann sich davon niemand was kaufen... Oder betreibst du deinen Haswell-E mit nur einem RAM Riegel?
Ich nicht... Also völlig uninteressant.

Die CB Messung denkt sich mit meinen Werten, wenn ich das, was ich "mehr" im PC hab, drauf rechne... 225W unter Prime Volllast bei 4,2GHz und 1,25V hingegen? Ne...

PS: habe gestern an einem 5820k@4,2GHz@1,2V gesessen. 2x HDD + 2x SSD + 2x 980TI im default Zustand. -> Prime95 27.9 Volllast sind ca. 280W auf der Output Seite des NTs.
Volllast, also Prime + Furmark zeigt Peaks von 950W+ auf der Outputseite... Allerdings ist Furmark auf den GPUs nicht zu gebrauchen :fresse: Da die Load extrem schwankt und die Karten deckeln stark mit 110% PT only.

Das Gerät wird wohl keinen Müll anzeigen. Da du es nicht nachstellen willst - glaub es oder nicht.
Aber mir Falschaussagen zu unterstellen geht dann halt nicht...

Vielleicht liegt es aber auch mit am Netzteil, welches wohl immernoch das Beste im Niedriglastbereich ist in der 700Watt+ Leistungsklasse.
Sea Sonic Platinum Series 860W ATX 2.3
 
Zuletzt bearbeitet:
Ich unterstelle dir keine Falschaussagen... Sondern ich sagte, dass es mit einem RAM Riegel nicht für einen Vergleich taugt. ;)
Schau halt nochmal das geschrieben, du sprachst von 400W wären übertrieben und wolltest das mit deiner 225W Messung belegen -> im Nachsatz steht was von einem RAM Riegel und was weis ich nicht noch.
Ich sagte, die 225W können nicht hinkommen, wenn CB im leeren PC schon 200W bei default Takt misst.

Mir ist das ziemlich wurscht, wie du deinen PC betreibst. Und wenn du dem S2011 System nur einen RAM Riegel gibst, um auf 225W Prime Last zu kommen. Tue es ;)

Und wie gesagt, was in etwa am Ende mit einem 5820k System auf der Uhr stehen könnte, habe ich oben auch erwähnt. -> ~280W. Zieh die beiden HDDs ab und den idle Verbrauch der 2. GPU und man kommt auf vielleicht ~250W.
Möglicherweise gibts noch ein paar Stellschrauben zum Drehen, gerade wegen idle Verbrauch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh