Quad-Core System unter 20W Idle? Das Motherboard ist entscheidend Part 2

aber dual-channel kostet doch strom und bringt fast nix? oder seh ich gerade was falsch?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
tomshardware.de schrieb:
Bei Spiele- und High-End-Rechnern kommt es allerdings auf Maximalleistung an; deshalb empfehlen wir Ihnen, bei Dual-Channel-Speicher zu bleiben

Ich nutze DC nicht grundlos.
Frei nach WeeMan: not much, but something.
 
@che new also auf dem G.Skill ECO Sammelthread steht, dass die Rams mit dem MSI 790FX-GD70 und den Gigabyte Boards kompatibel sind - ich nehme nicht an, dass sie als kompatibel bezeichnet werden würden, wenn sie mit 1,5V laufen. Ich habe auch in 2 Signaturen in anderen Foren gefunden, dass das Biostar TA790GX A3+ mit den G.Skill mit 1,35V läuft (inwieweit das auch geprüft wurde, steht allerdings in den Sternen).

Das war mir bekannt, dass das MSI 790FX Board generell eine VRAM unter 1,5V ermöglicht, ich glaube hier im Thread hatte sogar jemand seinen DDR3 RAM mit dem Mobo bis auf 1,2V untervoltet. Zu den Gigabyte Boards, das sind ebenfalls nur NON-IGP Boards, zudem ausschließlich neue Modelle mit USB3-Chip, die recht jung sind. Leider ist bei Gigabyte-Boards in Bezug auf Stromverbrauch sowieso Hopfen und Malz verloren, da ist die Unterstützung von LV-RAM aus Stromsparersicht nur ein Tropfen auf dem heissen Stein.

Wegen dem Biostar 790GX habe ich den Support mal angeschrieben, mit dem Anhliegen, dass ich den ECO RAM nutzen möchte. Aber dort war man der Meinung, dass man die VRAM aus Stabilitätsgründen auf 1,64V gesetzt hat. Eine Möglichkeit darunter zu gehen gibt es nicht, garantiert. Ich habe dann noch darum gebeten, es mit einem neuen Bios manuell zur ermöglichen wenigstens auf den Standardwert von 1,5V herunterzugehen. -> Man werde es an die Biosabteilung weiterleiten.


zum MSI 785GM-E51 habe ich noch was im planet3dnow-forum gefunden - die Eco scheinen problemlos zu laufen, aber er schreibt leider nur: "Die Voltzahlen habe ich auf 1,5V belassen." Wahrscheinlich, weils nicht anders ging, aber klingen tuts danach, dass das seine freiwillige Entscheidung war.

Wenn beim MSI E51 die VRAM auf [AUTO] also Default steht, liegen 1,6V an, man kann manuell noch bis auf 1,5V heruntergehen.

Und ich glaube nicht wirklich, dass Boards nur bis 1,5V runterkönnen - ich denke, dass das eine Sicherheitseinstellung war ... es gibt ja auch Hinweise, dass sich viele normale DDR3 Rams untervolten ließen - normale takeMS bis 1,173V - normale GSkill: bis 1,210V

Das kannst du mir ruhig glauben, dass alles 790GX & 785G Boards die ich da hatte definitiv nicht unter 1,5V gingen. Das was du verlinkst sind alles Boards mit Intel-IGP, die von den Hersteller gehegt, gepflegt, getätschelt werden. Dort ist es tatsächlich keine Seltenheit das VRAM, Chipsatz-Voltage, etc. undervoltet werden können. Nur bei der CPU-Vcore wird öfter mal (vielleicht in vorauseilender Gehorsam) ein Riegel vorgeschoben.


Hat da etwa wer heimlich den Titel von "...unter 25W Idle?..." auf "...unter 20W Idle?..." geändert? ;)

Ganz so heimlich war es zwar nicht, da ich Spuren hinterlassen habe (siehe Signatur^^), aber es wurde auch langsam Zeit. :coolblue:


aber dual-channel kostet doch strom und bringt fast nix? oder seh ich gerade was falsch?

Zum Verbrauch:
Unter (Teil)Last eigentlich schon recht deutlich, im Idle kommt es sehr auf die CPU an: Beim K8 X2 und Regor X2 kaum mehr als das was das Modul im Idle schluckt (~0,5W), beim Phenom II und Propus X3/X4 dagegen kommt noch ca. 1 W zusätzlich durch die CPU/IMC hinzu (also ingesamt ~1,5W), da der 2. Speicherkanal bei diesen komplexeren CPUs seinen Tribut fordert.
 
Zuletzt bearbeitet:
Leider ist mir keine 790GX & 785G Board bekannt das Low-Voltag-RAM per Bios unterstützt, bei allen DDR3 Boards die ich hier getestet habe, konnte man minimal 1,5V VRAM einstellen. Bei einigen auch nur ~1,6V (z.B. Biostar, Jetway).
Für das M4A785TD-M EVO von ASUS gibt es seit Mitte Januar ein BIOS, welches eine VDIMM von 1,35 V ermöglicht.
 
Danke für die Info Opaque, auch wenn das Board für Stromsparer keine Empfehlung ist. Für Übertakter mit Low-Voltage RAM dennoch ganz nett.

---------- Beitrag hinzugefügt um 01:11 ---------- Vorheriger Beitrag war Gestern um 22:12 ----------

Hab heute mal meinen X2-435 getauscht gegen einen X2-555 BE. Gleiche Settings,gleicher Takt => +6,4W höherer Idleverbrauch. Kommt das nur durch L3 Cache ? Oder hat der Prozzi hohe Leckströme ? Oder die 2 zusätzlichen Kerne welche auch nicht freigeschaltet werden können,sind nicht richtig abgeschaltet ?

Dachte von C2 auf C3+Cache würde der Verbrauch nicht so heftig steigen.

Selbst mit 0,63 Idle Vcore ist der Mehrverbrauch noch bei 5,7W.

Der Mehrverbrauch trotz extrem niedriger Vcore ist schon ein Zeichen dafür, dass es nicht an den Kernen liegen wird bzw. dass da nichts mehr herauszuholen ist. Versuch mal an der CPU-NB anzusetzen, falls du es nicht schon gemacht hast, probiere sie so weit wie möglich zu undervolten (oft sind ca. 1,000-1,050V möglich). Noch mehr kann man sparen, wen man den CPU-NB Multi auf 8x setzt (ergibt 1600MHz), dadurch ist dann gleich noch mehr Undervolting-Potential vorhanden. Mit etwas Glück sind dann ca. 0,900-0,950V drin. Spätestens jetzt müsste der Verbrauch im Idle um mehrere Watt zurückgegangen sein.


Ausserdem ist mir aufgefallen das der kleine ein richtiger Hitzkopf ist. Der macht mit seinen 2 Kernen beim Primen eine 5° höhere Temperatur als der Athlon mit 4 Kernen :stupid:

Scheinbar werden nachwievor die "Heizer"-Denebs für die Phenom II X2 CPU verwendet: http://www.hardwareluxx.de/community/12449656-post123.html
Mit C'n'Q wäre der Unterschied im Idle bei mir zwar weniger heftig (ca. 3W), aber doch deutlich sichtbar. Ein Athlon II X3 ist halt nochmal etwas sparsamer als ein Phenom II X3.
 
Zuletzt bearbeitet:
Also ich hab jetzt diese Spannungen für meinen X3 eingestellt und diese sind auch mehrere Stunden Prime, sowie 3dmark stabil.

vcorebmp1.png


Und diese Spannungen habe ich im Bios eingestellt. Man könnte zwar noch etwas tiefer, aber ein stabiles System ist mir lieber. Ich habs so gemacht, das ich den tiefsten Wert ausgelootet hab und dann einfach 4 Schritte nach oben. Hat bis jetzt immer geklappt.

Die 4 Werte die noch auf Auto stehen, bei denen weiss ich nicht so genau welche Spannungen das sein sollen. Mit K10Stat wird ja auch die NB Spannung verändert, aber damit ist die NB Spannung in der CPU gemeint und nicht die NB selbst.

Weiss jemand welche Werte ich im Bios auf Auto stehen lassen kann, weil sie K10 Stat sowieso im Windows anpasst. Und welche Spannungen sind noch veränderbar bzw. was sind die Standartwerte ? Kann die nirgends auslesen und Bios defaults zeigt er nicht an.

volt9wiz.jpg


Idleverbrauch momentan 22,9W
 
Hat jemand von euch schon die Onboardgrafik (HD 3200) runtergetaktet?
Wenn ja, gibt es da Einsparungspotential?
 
@Ende August

Das runtertakten von der HD 4290 von standart 500Mhz auf 150Mhz(tiefster Wert) bringt etwa 0,5Watt.

@mugger

Ich spiel abundan gerne ältere Spiele wie Warcraft 3 und das ist problematisch mit dem I3. Unter Windows 7 hat man in Abständen von 15s-10min solche Freezebugs, d.h. das Bild steht etwa 4sec, danach geht das Spiel normal weiter. Die Framerate ist klasse ( 60fps) aber diese Hänger... Wenn man jetzt die XP Treiber unter Win 7 installiert, dann hat man keine Freezebugs mehr,aber auf dem Desktop läuft alles total zäh, ein Youtube Video ruckelt, scrollen im Explorer führt zu 1 sec hängern, einfach grausam. Wenn man nun noch etwas kopiert, egal was und dann scrollt gibts nen Bluescreen. Ist ja verständlich das der Treiber nicht vernünftig läuft, ist ja schlieslich ein Treiber für Win XP.

Nunja bei Win XP ist es so, das man bei den Treibern die Energiepläne zwar verstellen kann, aber nur bei der Einstellung - Höchstleistung ( welche +8W mehr Strom verbraucht ) das System nicht nach 20-30min einfriert. Hatte dazu sogar einen Thread hier im Forum erstellt. Da schmiert einfach die Grafikeinheit ab,wenn man energiesparmodus oder ausgeglichen wählt. Dieses Problem tritt bei Win 7 nicht auf, da hat man halt diese Freezebugs.

Ich mach Intel da auch eigentlich keine Vorwürfe. Die sind neu im Grafikgeschäft und ältere Spiele wurden wahrscheinlich auch garnicht getestet. Die Grafikleistung ist auch echt klasse, etwa 5% schneller wie die HD 4290 onboard.
Dann kommt noch dazu, das ich von meiner Firma einen USB 3.0 Wechselrahmen geschenkt bekommen hab und von meinem HTPC Projekt hate ich noch ne 4550 hier rumliegen ( Hybrid Crossfire werde ich auch mal antesten ).

Nebeneffekte die ich festgestellt habe:

+nicht so starke Framerateneinbrüche
+geringerer Verbrauch im Teillastbetrieb
-Corel Draw / Photoshop reagieren träge ( muss K10stat noch richtig anpassen, denn das schaltet einfach zu lahm die CPUleistung nach oben, oder ich muss während des Arbeitens einfach die CPU fest auf 2,9Ghz laufen lassen, was aber richtig doof wäre. Oder ich lasse die P-states einfach wieder von CnQ regeln,aber das war auch noch nicht optimal)
- höherer Idleverbrauch ( etwa 5W )
 
Kann mich an so ein Posting noch erinnern.
Hatte ein 2. das selbe Phänomen ? (nur bei WC3 ?)

Ich spiele eig. meist GZDoom-Level - habe das aber hier nur mal gestartet, um zu sehen wie es läuft (XP).

Intel ist ja leider bekannt für unfähige Graka-Treiber.
Und das schlimme an der Sache ist ja, obwohl sie die mächtigen Intel sind, kriegen die es seit >sehr vielen Jahren nicht hin< und es sieht auch nicht nach Besserung aus.

Bei mir laufen Vollbild Flashvideos nicht durch; Ton Läuft Bild steht ;(
Lief aber am Anfang - könnte an "2000" -Codecs liegen, wegen meiner HDTV Decoder Experimente.

Während ich am 8200 IGP mit (PowerDVD9) 0 Probleme hatte, unterstützt dieser Codec irg. nicht richtig den 4500er (laut PDVD soll(te) er aber) - deshalb die vielen Codecs.

Ich hatte das ja auch schon öfters (halb)dargelegt, auch ich glaube AMD kann im normalen Idle Alltag sparsamer sein - erwähnt sei da nur AIMP oder TV Karte.
Bei meinem letzten AMD lief das alles sparsamer.
Gut mein LE-1100 hatte nur SC aber trotz 1GHZ/0,8Vcore nur 2-4W (SD) verbraucht, am Intel habe ich locker das 3-4 fache und die DC in meiner AMD Geschichte waren nicht viel schlechter im Idle Modus.

HDTV ging wunderbar über GPU (ohne Codec) ~ 99% mit um die 18-25% (Free-HDTV)
Beim Intel sehe ich nichts - es scheint so, als wäre nur die CPU mit decodierung beschäftigt.
Und die 4 CPU Threads tun ein übriges, damit man nicht genau ersehen kann, was wieviel verbraucht.
Winrar liegt ständig bei <20% (GesamtCPU Auslastung des Systems).

Außerdem soll es z.B. unter dem kommenden Flash 10.1 unter XP keine GPU Beschleunigung geben - erst ab Vista - angeblich wegen sturer Regeleinhaltung seitens Intel.

U.s.w u.s.f.

"Baustelle" :/
 
Muss erst mal schauen, ob das mit RivaTuner klappt.

Der Takt senkt sich im 2D schon automatisch auf 197MHz.
Vielleicht komme ich noch etwas runter und evtl. bringt ein gesenkter RAM Takt auch noch was.

Bin noch etwas vom Crystalcpuid- Gefummel genervt. Deshalb habe ich vorher angefragt, um abzuklären, ob sich der Aufwand lohnt.
 
Zuletzt bearbeitet:
Die 4 Werte die noch auf Auto stehen, bei denen weiss ich nicht so genau welche Spannungen das sein sollen. Mit K10Stat wird ja auch die NB Spannung verändert, aber damit ist die NB Spannung in der CPU gemeint und nicht die NB selbst.

Weiss jemand welche Werte ich im Bios auf Auto stehen lassen kann, weil sie K10 Stat sowieso im Windows anpasst. Und welche Spannungen sind noch veränderbar bzw. was sind die Standartwerte ? Kann die nirgends auslesen und Bios defaults zeigt er nicht an.

Die ersten beiden, die auf AUTO stehen (CPU VDD Voltage & CPU-NB VDD Voltage) haben bei mir keine Veränderung bewirkt. Man kommt dort manuell ohenhin nicht tiefer als 1,100V, und das scheint auch dem AUTO-Wert zu entsprechen. Der 3. und 4. Punkt der auf AUTO steht, sind einfach CPU-Vcore und CPU-NB-Vcore, die du sowieso mit K10stats anpasst.


Hat jemand von euch schon die Onboardgrafik (HD 3200) runtergetaktet?
Wenn ja, gibt es da Einsparungspotential?

Dann wird das Runterrakten meiner HD 3200 im Netbook wahrscheinlich nicht viel bringen.

Der Takt senkt sich im 2D schon automatisch auf 197MHz.

Deswegen ist es wichtig beim HD3200 zwischen 780G (Desktop) und M780G (Mobile) zu unterscheiden. Nur letzterer unterstützt Powerplay (Absenkung der Taktraten von 500MHz auf 200MHz im Idle). Vermutlich ist nichts mehr herauszuholen bei der Mobilevariante. Glücklicherweise unterstützen alle jüngeren Desktop-IGPs (auf dem 790GX, 785G, 760G, 890GX & 880G) bereits Powerplay.



Die Grafikleistung ist auch echt klasse, etwa 5% schneller wie die HD 4290 onboard.

Das kann aber nur auf ausgewählte Spiele oder synthetische Benchmarks wie 3DMark (wo Intel durch Optimierungen zusätzlich zur GPU die CPU Grafikberechnungen durchführen lässt) zutreffen, denn im Schnitt (viele Spiele) liegt die i3/i5 GPU etwa auf 785G-IGP-Niveau, nur die GPU des i5 661 kann sich mit der IGP des 790GX/890GX messen. Mal abgesehen davon, dass einige Spiele auf der Clarkdale-GPU erst gar nicht oder nur instabil laufen.


Nebeneffekte die ich festgestellt habe:

- höherer Idleverbrauch ( etwa 5W )

Wobei der zu einem nicht unerheblichen Teil mit dem Aussattungs-Niveau zu erklären ist.

Du hattest vorher ein MSI H55 das maximal mit einem MSI 785G vergleichbar ist. Nun hast du ein MSI 890GX das z.B. wegen Raid5 nur mit einem MSI H57 vergleichbar wäre, welches jedoch sicher 1-2W stromhungriger als das MSI H55 ist. Dennoch würde der Vergleich hinken, da das MSI H57 immer noch kein SATA3 (6gb/s) und keinen NEC USB3-Chip wie das MSI 890GX besitzt. Das dürfte die Differenz auch noch mal sichtbar schmelzen lassen. Von Effizienzbegünstigungen wie DrMos auf dem H55/H57 noch nicht mal gesprochen.
 
Zuletzt bearbeitet:
Ich hoffe, daß ich nicht rumspamme, aber als absoluter Laie auf dem Gebiet der Energiespar-PCs habe ich einige grundsätzliche Fragen...

Da ich einen kleinen und sparsamen Homeserver plane (primär für meine Logitech Squeezebox, aber natürlich auch ganz allgemein für SD/HD-Wiedergabe) hatte ich eigentlich vor etwas in Richtung Atom 330/510 anzuschaffen. Jetzt lese ich hier, daß man auch ohne Atom ganz gut und sparsam fahren kann.

Meine Fragen:
1) Rentiert sich die Anschaffung eines Atom-Homeservers dann überhaupt, wenn ich zum (fast) gleichen Geld einen "normalen" Energiespar-PC anschaffen kann?
2) Wiegt die höhere Effizienz eines 300-350W ATX-Netzteils gegenüber einem externen 65W oder 90W-NT die rechnerisch höhere Verlustleistung (ihr wisst was ich meine???) auf?
3) Wäre es empfehlenswert anstatt eines µATX-Boards ein platzsparendes ITX-Board für Desktop-CPUs zu nehmen oder gibt es da Limitierungen außer die naturgemäß geringere Anzahl an Anschlüssen?

Das war es schon...
 
1) Rentiert sich die Anschaffung eines Atom-Homeservers dann überhaupt, wenn ich zum (fast) gleichen Geld einen "normalen" Energiespar-PC anschaffen kann?


2) (ihr wisst was ich meine???)


für 24/7 und leistungen unter 30W kann sich ein picopsu lohnen

wenn mehrere große festplatten verbaut sind
ein 300W nt für 35€

3) Wäre es empfehlenswert anstatt eines µATX-Boards ein platzsparendes ITX-Board für Desktop-CPUs zu nehmen ?


µATX ist günstiger in der anschaffung
und nicht zwangsweise uneffizienter,
die auswahl ist größer

gruß fk
 
Soo, heute sind meine Teile für meinen kleinen Server angekommen.

Da ich leider immer schlechte Erfahrungen mit MSI Mainboards gemacht habe, und ich trotz eurer spitzen Werte mich nicht dafür entscheiden konnte eines zu kaufen, habe ich mir das neue Biostar TA890GXE bestellt.

So sieht mein System zur Zeit aus:
Biostar TA890GXE
Athlon X2 240
GSkill 4GB-Kit DDR3 1333 1,5V
WD Blue 160GB 2,5"
2 Samsung EcoGreen F2 1TB (noch nicht benutzt)
Be Quiet PurePower 300W

Habe mal fix ein Windows 7 64Bit installiert, die Samsung HDDs habe ich noch nicht angeschlossen.

Hab mal ein paar fixe Tests gemacht, bin jetzt am Feintuning.

- Mit Bildschirm, Tastatur, Maus, alle Settings im Bios Standard --> 48W
- Mit Bildschirm, Tastatur, Maus, CPU undervoltet auf 1,176V --> 38W
- Mit Bildschirm, Tastatur, Maus, CPU 1,176V, nur 1 Ram-Riegel, Ram auf 1,3V statt 1,5V, Sound disabled --> 35W
- Ohne Peripherie, selbe Einstellungen --> 32W

Im Moment am Testen, ob der Prozzi auf 1,1V stabil läuft (sieht aber gut aus).
 
Nein, natürlich nicht. Jedoch plane ich den Server mit einem Linux auszustatten, und da ist das mit dem takten per Software etwas schwierig. Daher weiß ich gerne was der Prozi mitmacht
 
@reddevil156
C'n'Q (800MHz@~1,0V) läuft eigentlich auf den meisten halbwegs aktuellen Linux-Distris automatisch, spätestens nach einem Update (selbst wenn man die Vcore im Bios von 1,4V auf 1,1V für den Lastbetrieb senkt -> deswegen muss man die CPU doch nicht gleich auch im Idle mit 2800MHz@1,1V laufen lassen, macht doch keinen Sinn).
C1E arbeitet z.B. auch unter Ubuntu 9.10. Das einzige was selbst nicht mit propritären Treibern (Catalyst) funktioniert ist Powerplay (~2W) und die Ersparnis durch SideportMemory kann der Treiber unter Ubuntu auch nicht nutzen, er steigt sogar an (deshalb würde ich SPM lieber deaktivieren unter Linux).
Ist der PowerDownMode und die Phasenabschaltung (G.P.U.) bei dir aktiviert? Hast du da tatsächlich nur die 2,5" HDD genutzt? Die Werte sind wirklich alles andere als gut, ich hoffe das liegt nicht am Board... wollte mir das früher oder später auch anschauen.

Edit: Kann man bei dem Board neben der VRAM auch den Chipsatz undervolten? Und wie tief kann man mit der VRAM gehen, weiter noch als die von dir angelegten 1,3V?
 
Zuletzt bearbeitet:
Hallo,

möchte mir ein i5-System zulegen - hab mir zwei Mainboards rausgesucht:

Intel Media Series DH57DD, H57 (Euro ~100,00)
MSI H57M-ED65, H57 (~Euro 130,00)

Könnt Ihr mir helfen welches der beiden (oder ein anderes?) stromsparender ist?

bzw. würde sich der Mehrpreis fürs MSI lohnen?
 
Zuletzt bearbeitet:
Hallo,

bei den H55 Boards geben sich MSI und Intel scheinbar nicht viel, könnte also theoretisch auch bei den H57 Boards so sein. Das MSI H57 hat jemande bei CB schon getestet und das schien bis auf 1-2W im Idle genauso sparsam zu sein wie das MSI H55. Ob das Intel H57 das auch so toll hinbekommt kann man jetzt aber nur raten... MSI hat auf alle Fälle die deutlich besseren Bauteile (DrMos Mosfets, definitiv FerritKern-Spulen und Solid Caps). Wenn dich beim Intel H57 die hohen Kondensatoren in der RAM-Steckplatzgegend usw. nicht stören, wäre es ein Versuch wert mMn. Immerhin sollte Intel wissen wie man sparsame Referenz-Boards baut.
 
Meine Fragen:
1) Rentiert sich die Anschaffung eines Atom-Homeservers dann überhaupt, wenn ich zum (fast) gleichen Geld einen "normalen" Energiespar-PC anschaffen kann?
2) Wiegt die höhere Effizienz eines 300-350W ATX-Netzteils gegenüber einem externen 65W oder 90W-NT die rechnerisch höhere Verlustleistung (ihr wisst was ich meine???) auf?
3) Wäre es empfehlenswert anstatt eines µATX-Boards ein platzsparendes ITX-Board für Desktop-CPUs zu nehmen oder gibt es da Limitierungen außer die naturgemäß geringere Anzahl an Anschlüssen?

Hallo WB.

ich hatte einen Atom 330, der im Idle etwas über 30W verbraucht hat.
Die Laufwerke und das RAM des Atoms habe ich nun auf einer 785er Plattform in Verwendung.
Wenn es dich interessiert, Details dazu stehen hier:
http://www.hardwareluxx.de/community/f11/stromverbrauch-meines-rechners-191038-60.html#post14397377

mojoh
 
@che: Sry, kaum noch zum testen gekommen.
Meine Werte sind genau die, die ich angegeben habe. Wenns System länger im idle ist, geht die Watt-Zahl nochmal runter, mein bestes waren bisher 26Watt ohne alles.
Irgendwie scheint C&Q nicht zu funktionieren, wenn ich im Bios eine bestimmte VCore einstelle, die behält das System die ganze Zeit über. Es sei denn ich habe da irgendwas falsch eingestellt.
Außer CPU und Ram ist im Bios nichts undervoltbar, sondern nur noch oben regelbar.

Mehr testen werde ich erst morgen können, melde mich dann nochmal was sonst so drin ist.
 
Das ist normal, dass man bei Win7 manchmal etwas warten muss (auch mal ne Minute) bis der Verbrauch richtig heruntergeht bzw. die Stromsparfunktion greifen. 26 Watt ist mit 300W NT ja gar nicht mal so übel. Da geht sicher noch was ;)

Und danke für die Info wegen dem Undervolting, hatte zwar gehofft das man auch am Chipsatz drehen kann, aber VRAM ist ja immerhin schon mal etwas.
 
Man man, irgendwie hänge ich immer noch an den Stabilitätstests.

Probiere immer noch auszuloten, wie tief der Prozessor runter geht. Als Stabilitäts-Programm habe ich bisher immer Lynx genommen, da ich dachte es lastet etwas mehr aus. Nur irgendwie habe ich da seltsame Ergebnisse.
Gestestet immer P3-State mit 800Mhz. Bei 0,8V plötzlicher Bluescreen nach einigen Stunden laufen lassen. Auf 0,825V gedreht, selbes Problem. Auf 0,85V keine Bluescreens mehr, aber Abbruch nach mehrer Stunden mit Error. Ebenso mit 0,875V und 0,9V, Abbruch mit Error. Auf Standard-Einstellung von 1,0V keinerlei Probleme.
Weils mich so gewundert hat, hab ich das ganze nochmal getestet, mit Prime und Lynx am Laufen lassen. Jeweils mit 0,875V und 0,85V. Prime lief mehr als 10 Stunden ganz brav durch, nur Lynx kackte nach ein 5 Stunden mit Fehler ab.

Wem kann ich denn nun vertrauen? Lynx oder Prime? Ram stand die ganze Zeit auf Default 1,5V, Northbridge Spannung auch auf Default. Kann also nur am Prozessor hängen... und irgendwie hab ich bald keinen Plan mehr was besser ist.

PS: Heute nacht nochmal den Test mit Prime und 0,825V, irgendwann brauch ich da mal ein Ergebnis.
 
Hast du dabei das Tool K10stat verwendet und offen gelassen? Da hatte ich auch mal mit einem X2 550@X4 Probleme auf dem Gigabyte 790GX während dem Primen. Das Tool ist halt Beta (0.91) und wird vermutlich auch nicht mehr weiterentwickelt.

Ich teste jetzt auch mal 0,8V mit LinX, mal sehen was passiert, denn bei mir läuft die CPU wochenlange schon mit 0,725V@P3 state.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh