[Sammelthread] Asrock ALiveNF7G-HDready / ALiveNF7G-HD720p (nForce 630A MCP)

Status
Für weitere Antworten geschlossen.
fix-anleitung nochmal auf deutsch

so, ich bin wieder zurück.
ich würde mich freuen, wenn sich vielleicht ein/zwei leute mit 1600x1200 displays finden würden, die bereit sind, meinen temporären fix mal auszuprobieren. wenn das auch bei anderen klappt könnt ich das mal an nvidia bzw asrock herantragen.

hier eine verkürzte und überschaubarere anleitung auf deutsch, natürlich alles auf eigenes risiko, also wenn was unklar is lieber fragen oder sein lassen:


1. was wird benötigt?

das display sollte per dvi angeschlossen sein und die xorg.conf so eingestellt, dass die EDID-daten vom display ausgelesen werden (also überprüfen, ob noch sachen wie 'Option "UseEDID" "FALSE"' in der device-section der xorg.conf rumfliegen). es sollte also das display falscher auflösung (1280x1024) angesteuert werden, ein bild hat man ja trotzdem.

dann braucht man am besten einen zweiten rechner, auf jeden fall aber irgendwie eine laufende windoofs installation, um das freeware-tool phoenix benutzen zu können. (der hauptgrund, warum man das programm braucht ist, dass ich nicht weiss, wie die checksumme am ende des binären edid-files berechnet wird und das tool uns das abnimmt. des weiteren ist es einfach übersichtlicher ;) )

des weiteren braucht man noch einen hex-editor, ob unter windoofs oder linux ist eigentlich egal, hauptsache der editor funktioniert vernünftig.
(wer mir in diesem zusammenhang einen netten hex/binär-editor (kann der vim sowas?) für linux empfehlen kann sei hiermit dazu aufgefordert!)
für windows verwende ich gerne den freien und sehr feinen notepad++ (benötigt noch des hex-editor plugin, das sich auch auf der downloadseite findet). ultraedit z.b. geht aber auch (strg+h schaltet in hex-modus).

2. edid-daten als binärfile speichern

nun den nvidia settings manager öffnen (findet sich bei mir unter ubuntu feisty unter anwendungen -> systemwerkzeuge -> nvidia settings) und dort in der linken spalte im abschnitt 'GPU 0 - (blablabla)' die zeile 'DFP-0 - (displayname)' auswählen. dort findet man rechts unten den button 'Acquire EDID ...', mit dessen betätigung man die aktuellen edid-daten des displays als datei 'myEDID.raw' speichert. diese datei sollte nun genau 128b gross sein.
diese datei öffnet man nun mit dem hex-editor der wahl.

3. ascii-version des edid-files für phoenix basteln

das ist der bescheuerteste teil des ganzen! leider kann der phoenix-editor nichts mit der eben erzeugten binären myEDID.raw anfangen, sondern benötigt das ganze als textfile in folgendem format:
Code:
EDID BYTES:
0x   00 01 02 03 04 05 06 07 08 09 0A 0B 0C 0D 0E 0F
    ------------------------------------------------
00 | 00 FF FF FF FF 00 00 00 00 00 00 00 00 00 00 00
10 | 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
20 | 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
30 | 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
40 | 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
50 | 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
60 | 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
70 | 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 99
die '99' in feld 0x7f ist die checksumme, die sich mit jeder änderung an irgendeinem wert ändert und die man daher unbedingt am schluss nochmal anpassen muss. die 'FF'-werte in den feldern 0x01 bis 0x04 können auch andere sein und sind nur als beispiel gedacht.
zunächst erstellt man sich eine leere text-datei im editor und kopiert in diese die dummy daten der obenstehenden box. diese datei wird nun im text-modus bearbeitet (also nix hex!) und zwar muss man leider die hex-werte aus der im hex-editor geöffneten myEDID.raw in text übertragen. wichtig ist, dass die textdatei am ende im windows-textformat gespeichert werden muss, also mit CarriageReturn und LineFeed am ende jeder zeile!
man speichert die erzeugte text-datei nun am besten als 'myEDID.dat'.
wenn man die textdatei nun im hex-editor öffnet, muss am ende jeder text(!)-zeile (auch der letzten, also nach der checksumme) ein '0D 0A' stehen, nicht nur ein '0A' (unix-zeilenumbruch). ansonsten lässt sich das file nicht mit dem phoenix-editor öffnen.

4. werte mit phoenix überprüfen/anpassen

nun öffnet man die eben erstellte myEDID.dat mit phoenix und aktiviert dort erstmal den 'byte viewer', worauf sich ein kleines zusätzliches fenster mit einer hex-ansicht öffnet, und dann noch den 'edit-mode' (beides buttons in der werkzeugleiste).
nun in den tab 'standard timings' wechseln. dort sind 2 mal 4 bereiche namens 'timing id', von denen in meinem fall die ersten beiden aktiviert und mit vernünftigen werten gefüllt waren.
im bereich 'timing id #1' war '1600', refresh '60' und aspect ratio '4:3' eingetragen, also die tatsächlichen daten meines monitors, weshalb ich diesen bereich auch unverändert gelassen habe.
im bereich 'timing id #2' war '1280', refresh '60' und ar '5:4' eingetragen, also genau die werte, die fälschlicherweise angenommen werden! wenn man dort nun dieselben werte wie in 'timing id #1' einträgt, sieht man im 'byte-viewer', wie sich die hex-werte der felder 0x28 und 0x29 von '81' '80' in 'A9' '40' ändern und damit den werten aus den beiden vorhergehenden feldern 0x26 und 0x27, die den 'timing id #1'-bereich repräsentieren, angeglichen werden. ferner ändert sich wie bereits erwähnt auch noch die checksumme in 0x7F!
diese 3 änderungen übernimmt man nun in die im hex-editor geöffnete myEDID.raw und speichert diese als 'mynewEDID.raw'.

5. edid-daten aus modifiziertem file laden lassen

nun soll der nvidia-treiber anstelle der daten, die direkt via dvi vom display übertragen werden (und die offensichtlich irgendwo falsch interpretiert werden) die modifizierte 'mynewEDID.raw' verwenden. dies erreicht man, indem man 'mynewEDID.raw' in /etc/X11/ kopiert (evtl leserechte für alle sicherstellen) und in den 'device'-abschnitt der xorg.conf folgende zeilen aufnimmt:
Code:
Option "AddARGBGLXVisuals" "true"
Option "UseDisplayDevice" "DFP-0"
Option "CustomEDID" "DFP-0:/etc/X11/mynewEDID.raw"

6. testen ob schon alles klappt und debuggen

am besten testet man das nun mit erweiterten verbose-ausgaben des x-servers. das erreicht man, indem man alle geöffneten anwendungen beendet und dann per 'strg + F1' zur konsole wechselt, sich dort unter dem normalen username einloggt und den xserver per
Code:
sudo /etc/init.d/gdm stop
herunterfährt (sudo = ubuntu syntax für als-root-ausführen) und anschliessend (ohne root-rechte!) per
Code:
startx -- -logverbose 6
wieder startet.
möglicherweise klappt jetzt schon alles, ansonsten wechselt man wieder (mit 'strg + F1') zur konsole und schaut sich z.b. per
Code:
cat /var/log/Xorg.0.log | less
das logfile mit den erweiterten ausgaben an.
in meinem fall tauchte noch folgende fehlermeldung um zeile 460 rum auf:
Code:
(II) NVIDIA(0):   Validating Mode "1600x1200":
(II) NVIDIA(0):     1600 x 1200 @ 60 Hz
(II) NVIDIA(0):     For use as DFP backend.
(II) NVIDIA(0):     Mode Source: EDID
(II) NVIDIA(0):        Pixel Clock      : 162.00 MHz
(II) NVIDIA(0):        HRes, HSyncStart : 1600, 1664
(II) NVIDIA(0):        HSyncEnd, HTotal : 1856, 2160
(II) NVIDIA(0):        VRes, VSyncStart : 1200, 1201
(II) NVIDIA(0):        VSyncEnd, VTotal : 1204, 1250
(II) NVIDIA(0):        H/V Polarity     : +/+
(WW) NVIDIA(0):     Mode is rejected: PixelClock (162.0 MHz) too high for
(WW) NVIDIA(0):     Display Device (Max: 155.0 MHz).
man sieht da schon, dass immerhin nun die 1600er auflösung aus dem EDID-file bezogen wird, nur gibt es offensichtlich noch ein problem mit dem timing der 'PixelClock'.
den wert von '155' hab ich tatsächlich auch im tab 'detailed timings' (block1) im phoenix-editor gefunden; irgendwie glaube ich aber nicht ganz dass dieser richtig ist. dennoch hab ich mich nicht getraut, den wert einfach auf die in meinem fall nötigen '162' anzuheben, sondern hab mir stattdessen hier eine modeline für einen 'PixelClock'-takt von '155' und die anderen passenden daten für meinen monitor erzeugen lassen und diese dann in den 'monitor'-abschnitt meiner xorg.conf eingetragen.
ich komme damit zwar auf krumme 57,41hz bildwiderholungsrate, aber flackern tut mein display ja eh nicht :rolleyes:.

:hail: :hail: :hail: auf jeden fall geht so bei mir nun alles wie es soll!:hail: :hail: :hail:

viel spass beim ausprobieren, ich freu mich aufs feedback,
euer red


----------------------------------------------------------------------------------------- *snip*


es is zum schreien, aber diese dämliche automatik lässt mich hier keine zwei posts hintereinander machen, auch wenns thematisch irgendwie angebracht wär... dann eben so :grrr:
Ein Problem kommt noch beim CPU-Kühler. ...
Die Auswahl an PWM und AM2 ist dabei allerdings nicht wirklich riesig...
Passen denn 120er Lüfter überhaupt aufs Board?
prinzipiell sollte ein 120mm cpu-lüfter schon aufs board passen, ob sich das jeweilige modell nun mit irgendwelchen bauteilen in die quere kommt ist schwer zu sagen, das einzige, was im bereich des cpu-sockels etwas höher rausragt sind wie ich beim kurzen nachsehen eben erkennen konnte ein paar elkos in richtung des anschlusspanels.

die höhenangabe des 'cooler master susurro' von 25mm zweifel ich ehrlich gesagt etwas an, ich hab in der vergangenheit mit zalman-kühlern recht gute erfahrungen gemacht, von daher würde ich dir zu einem der beiden zalmans raten.

für die humane wärmeabgabe der amd-prozzis (mal ausgenommen von solchen schleuder wie dem 6000er ;) ) sollte es zwar auch einer mit einem defaultmässig weniger als 2000 umdrehungen drehenden 120er lüfter tun, aber wenn du ohnehin windows auf dem rechner laufen hast und die temperatursteuerungssoftware verwendest sollte es da lautstärkemässig auch human zugehen.

pwm wär da natürlich schon was schickes, da das bios da ja auch unterstützt.
ich hab da noch den Thermaltake TMG A2 entdeckt. die richtige gesamthöhe ist zwar (laut alternate) 103mm und nicht 32mm, aber das sollte ja passen. gehört hab ich zwar noch nix über das teil, aber schlecht sieht der doch auch nicht aus, oder?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das mit der 1600er Problematik werde ich dann mal angehen, wenn der Rechner da ist und läuft.

Bei den Lüftern werde ich wohl erst einmal den boxed verbauen bzw. den auf der NB belassen. Dies kann dann ja immer noch später geändert werden.
 
- X2 3800 EE SFF
- 2x A-Data 6400 / 1024 / DS
- WD3200AAKS (7200 / 3,5" / 2 Platter)
- Samsung 5,25" DVD Rom
- CPU Lüfter 80mm
- FSP 250W (sicher kein Effizienzwunder)

Am2NF6-VSTA
IDLE (Windows Desktop): ~ 50 Watt
100% Last (Dual Prime): 70 Watt +/- 3

GA-MA69GM-S2H
IDLE: 70 Watt
100%: 106 Watt +/-2

gemessen mit einem Steckermessgerät von Conrad (auch das sicher nicht geeicht, aber für den Vergleich denke ich ok).

ALiveNF7G-HDReady
IDLE: ~ 50 Watt
100% Last: ~80-85 Watt


Ich nehme also hiermit alles zurück und behaupte das Gegenteil!
Der Chipsatz ist von der Temp auch ok.

:bigok:

Irgendwie scheint Gigabyte mit dem GA-MA69GM-S2H echt einen Griff ins WC gelandet zu haben was den Verbrauch betrifft.

Unoptimiert hat das Asrock nicht viel mehr Verbrauch wie das NF6 aber deutlich weniger (~20 Watt) als das Gigabyte mit dem 690G.

Bin wirklich begeistert, teste jetzt den Rest und gebe dann die Tage meinen Senf zum Asrock AliveNF7G ab :)
 
So etwas (mehr verbrauch bei gleichem Chipsatz) war ja letztens auch in der c't beim MSI 690er Board zu lesen.
Hier könnten es weniger gute Bauteile geschuldet sein.

Aber davon mal abgesehen; hast du im jeweiligen BIOS alle event. Hersteller Versäumnisse (z.B. C&Q im Asrock) ausgemisstet ?
Wird die CPU in beiden Boards die gleiche Vcore zugeteilt ?
 
Zuletzt bearbeitet:
Ja, alle Einstellungen gleich. VCore wurde aber beim Gigabyte unter Windows gesetzt, da es im BIOS nicht möglich ist.

Jetzt brauche ich nur noch ein passendes Netzteil :)
 
hab n neues problem ^^
habe das front audio kabel von meinem pc gehäuse angeschlossen. kam aber kein sound, daraufhin habe ich mal unter sounds und audiogeräte in der systemsteuerung nachgeschaut. unter erweitert - optionen - eigenschaften gibt es den menüpunkt "front", den habe ich mal ausgewählt.
dieser ist dann aber ausgegraut!?
 
Du musst im BIOS den Front-Audio evtl. auf Enabled stellen. Standard is Auto. Das funzt aber mit vielen Front-Audios (ohne JSense) nicht.
Wenn enabled an is, funzt der Front-Audio immer, schaltet dann aber den LINE-Out am Backpanel nicht ab.
 
Bei mir geht SATA HOTPLUG auch nicht.
Ich habe im Bios auf AHCI umgestellt und den Treiber von der CD installiert.
Wenn ich den PC mit der externen SATA1 Platte starte wird diese auch erkannt, wenn ich diese aber nach dem Start einschalte passiert nichts.
Mit meinem alten Board (NFORCE3) gabs keine Probleme.
Hat jemand eine Idee woran das liegt?

Desweiteren erreiche ich nur schlechte Übertragungsraten mit meiner SATAII HD SAMSUNG HD321KJ (vom 300 möglichen MB/s erreiche ich gerade mal 70) die im UDMA6 Modus läuft laut sie im UDAM6 Modus könnte aber UDMA7 laufen.

Vieleicht könnt ihr mir ja helfen.

Bios ist Version 1.70


Danke HJ
 
hjklein, wenn ich nicht gerade etwas überlesen habe, hast du kein raid. 300 mb/s ist was der sata II bus mitmacht, nicht die festplatte. da sind 70 mb n guter wert. wenn du auf der autobahn 200 km/h fahren darfst und dein auto nur 100 km/h schafft, ist das genauso ;)

ansonsten: asrock support anschreiben! da bekommt man eigentlich gute antworten und vor allem asrock weiß dann bescheid und es ändert sich hoffentlich was!
 
Hallo srynoname
Das ging ja flott Vielen Dank.
Du hast recht ich habe keinen RAID Verbund.
Das beruhigt mich, dass 70mB o.k. sind hab mich mit dem DMA7 Tip in Sandra verunsichern lassen.

Wegen des HOTPLUG Problems habe ich Asrock schon zweimal angeschrieben (vor einer Woche das erste Mal) aber bis jetzt nur schweigen.

Gruß HJ
 
Hallo srynoname
Das ging ja flott Vielen Dank.
Du hast recht ich habe keinen RAID Verbund.
Das beruhigt mich, dass 70mB o.k. sind hab mich mit dem DMA7 Tip in Sandra verunsichern lassen.

Wegen des HOTPLUG Problems habe ich Asrock schon zweimal angeschrieben (vor einer Woche das erste Mal) aber bis jetzt nur schweigen.

Gruß HJ

rofl, sorry aber da musste ich jetzt echt mal kräftig drüber schmunzeln....
 
Hi, was habt Ihr eigentlich für einen NB-cooler auf Eurem brett!?
der default-cooler ist ja nicht der Hit, man verbrennt sich zwar noch nicht daran die Finger, aber im "normalen" Officebetrieb mit ein wenig internet und email wird der cooler doch schon sehr warm/heiß!?
Ich hab mir gerade mal den Noctua NC-U6 angeschaut - weiß jemand ob dann noch Platz für die PCI-Plätze da ist oder eher nicht!?

Wie ist der Zalman ZM-NB47J - den hat doch Micki Krause drauf, oder!?
 
kannst Du die beien PCI-Plätze bzw. den PCI-e-Platz noch benützen? - könnte von der Höhe ja auch schon knapp werden!
 
rofl, sorry aber da musste ich jetzt echt mal kräftig drüber schmunzeln....
Schmuzeln wegen meiner Unwissenheit?
Wenn man theorethisch 300 haben kann und nur 70 bekommt dann ist man halt als NEBIE unsicher und fragt Leute die was davon verstehen.

Habe gerade eben eine mail von Asrock bekommen, die mir empfiehlt den letzetn Treiber (AllIn1_XP_2K(1413).zip) von der Asrock page zu nehmen.
Gesagt getan und siehe da dann klappt auch mit dem HOTPLUG.

Euch Allen Danke und Gruß HJ
 
Hat eig. noch jemand am DVI2HDMI Gweinnspiel bei Asrock teilgenommen ?

Ich habe heute meine Adapter bekommen - ich soll da gewonnen oder der 2. Glückliche gewesen sein - wers glaubt ;)
 
http://www.asrock.com/news/events/hdmi/register.html

da steht aber bis 30 Sep.

Ich würds noch einmal Probieren.

Aber da solch ein Teil nur 2,90 +Versand bei Ebay kosten, sollte es auch egal sein.

Ich hätte lieber ein besseren NB Kühler - obwohl mein System ja mittlerweile 1a stabiel läuftund ich somit eig. keine Grund sehe ihn zu wechseln.

Naja, Gratist ist gratis ;)
 
Zuletzt bearbeitet:
Die neuen Teile sind alle gekommen und zusammengesetzt.

Allerdings gelingt es mir nicht Linux so richtig zum starten zu bewegen.

Der Autoinstaller von Kubuntu 7.04 bleibt nach einer Weile bei einem schwarzen Bildschirm stehen, nachdem ich aber zuvor den Startbildschirm erhalten habe und auch die Auswahlmöglichkeiten bestehen.

Ich werde wohl gleich einmal ausprobieren, ob eine manuelle Installation möglich ist, dann müßte ich ja irgendwo nicht weiterkommen.

Anfangs hatte ich nach dem Startbildschirm sogar eine Fehlermeldung, dass das CD-Rom nicht erkannt worden ist. Nach etwas Suchen bin ich auf AHCI gekommen und habe ich jetzt im Bios AHCI aktiviert, nachdem die Einstellung zuvor auf non-raid stand. Verstehen tue ich das Problem allerdings noch nicht so recht :hmm:
 
Linux hat mit dem SB600 ein "bekanntes" Problem > google mal!
Brauchst irg. Treibergedöns
 
Also die manuelle Installation von Kubuntu 7.04 scheint erst einmal zu funktionieren. Warum dies mit dem automatischen Skript nicht klappt ???

Allerdings ist der Boxed-Lüfter ein Hohn; da kann ich auch ständig den Staubsauger nebenher laufen lassen! Ich muß mich jetzt also schnellstmöglichst nach einem geeignetem Ersatz umschauen, der dann auch von der Größe ins Gehäuse passt. Und bei der Gelegenheit wird danna uch der Kühler von der NB getauscht; der wird ja doch schon recht warm!

Ist es eigentlich egal, ob der Speicher in den gelben oder in den orangen Bänken steckt?

Übriegens war Bios 1.10 noch drauf, jetzt ist es 1.70
 
Ein Messgerät habe ich aktuell nicht, aber das liesse sich ja dann vielleicht irgendwoher besorgen.

Ich habe aber gerade größere Probleme damit, überhaupt Linux zum Werkeln zu bekommen :(
 
Und da höre ich mein Stichwort:

Hier habe ich noch einen 2. Verbrauchsmesser, für 12€ inkl ist er deiner. > PM if
 
Servus,

habe heute mein Asrock und einen boxed AMD X2 3600 mit Brisbane-Kern verbaut. Board macht einen guten Eindruck und alles läuft erst einmal. Ersetzt wurde eine Kombination bestehend aus einem AMD64 3200 Venice-Kern auf einem MSI K8NGM2, die nun an meine Eltern geht.

Leider sitzt beim Asrock der CPU Sockel anders und da im LianLi V300 nicht soviel Platz ist, muss ich im Moment den Boxedkühler nutzen. Ist ein PWM Teil das ich per Speedfan auf 45% runtergeregelt habe. Läuft mit gut 2100U/min bei akzeptabler Lautstärke und die CPU hat dabei 32°C im Idle. Der X2 3600 läuft zur Zeit im Idle mit konservativen 0.950 Volt und unter Last mit 1.150 Volt, eingestellt mit RMClock.

Wo die Grenzen liegen werde ich bei Gelegenheit ausloten. Der Venice hatte im Idle 1.1 Volt und unter Last war bei 1.25 Volt Schluß. Dabei wurde er im Idle trotz des besseren Kühlers noch 6°C wärmer. Wie undervolted ihr eigentlich, nur mit einem zusätzlichen Tool wie RMClock bzw. CrystalCPU, oder reduziert ihr die Spannung direkt im Bios?

Der nächste Schritt wird die Anschaffung eines neuen CPU Kühlers sein. Der limitierende Faktor dabei ist leider mein LianLi V300. Überlege im Moment mir einen Scythe Samurai zu holen. Mit einem guten 92er Lüfter sollte es möglich sein den Brisbane silent zu kühlen. Als Alternative schwebt mir ein Thermalright SI-128SE vor, der nur durch den Luftzug vom 120er Netzteillüfter gekühlt wird. Bin mir aber nicht sicher ob das reicht.
 
@machtnix: Welche Distribution nutzt du? Ich hab Ubuntu draufgemacht, bin in Sachen Linux aber total neu. Damit ich Ubuntu installieren konnte musste ich den Onboard SATA Controller auf den AHCI Modus im BIOS setzen. Unter Ubuntu hab ich erstmal keine grafische Oberfläche gehabt, aber mit Eingabe von "sudo dpkg-reconfigure xserver-xorg" und dann Vesa auswählen, neustarten dann ging's.
Hast du schon den neuen NVidia Treiber drauf? http://www.nvidia.com/object/linux_display_amd64_100.14.11 .html]
Mit dem Umstellen auf vesa habe ich die grafische Oberfläche zumindest für kurze Zeit zum Leben erweckt. Allerdings steht das System anschliessend vollständig. Die Maus bewegt sich noch, aber weder Klicks werden angenommen noch passiert mit der Tastatur richtig was.
Zumindest klappt die Tastenkombination zum restart von x und zum shutdown noch. Aber ich komme auf keine Textkonsole.

habe heute mein Asrock und einen boxed AMD X2 3600 mit Brisbane-Kern verbaut. Board macht einen guten Eindruck und alles läuft erst einmal. Ersetzt wurde eine Kombination bestehend aus einem AMD64 3200 Venice-Kern auf einem MSI K8NGM2, die nun an meine Eltern geht.

Leider sitzt beim Asrock der CPU Sockel anders und da im LianLi V300 nicht soviel Platz ist, muss ich im Moment den Boxedkühler nutzen. Ist ein PWM Teil das ich per Speedfan auf 45% runtergeregelt habe. Läuft mit gut 2100U/min bei akzeptabler Lautstärke und die CPU hat dabei 32°C im Idle. Der X2 3600 läuft zur Zeit im Idle mit konservativen 0.950 Volt und unter Last mit 1.150 Volt, eingestellt mit RMClock.
Schön, noch jemand mit einem V300 und dem Asrock!
Die Boxed-Version habe ich auch gerade am laufen, allerdings dreht der bei mir mit vollen Touren, sprich ca. 3100 1/min. Und das Bios behauptet, dass "CPU quiet fan" disabled ist, dabei ist der Boxed-Lüfter doch ein 4pin!!!

Zum Vergleich habe ich noch einen der Frontlüfter ans Board angeklemmt, der läuft mit ca. 1700 1/min. Im Vergleich zum Boxed ist der aber kaum zu hören; zumindest bei offenen Seitenteilen.

Wo die Grenzen liegen werde ich bei Gelegenheit ausloten. Der Venice hatte im Idle 1.1 Volt und unter Last war bei 1.25 Volt Schluß. Dabei wurde er im Idle trotz des besseren Kühlers noch 6°C wärmer. Wie undervolted ihr eigentlich, nur mit einem zusätzlichen Tool wie RMClock bzw. CrystalCPU, oder reduziert ihr die Spannung direkt im Bios?
Da läuft bei mir bisher noch alles mit den Standardeinstellungen.

Der nächste Schritt wird die Anschaffung eines neuen CPU Kühlers sein. Der limitierende Faktor dabei ist leider mein LianLi V300. Überlege im Moment mir einen Scythe Samurai zu holen. Mit einem guten 92er Lüfter sollte es möglich sein den Brisbane silent zu kühlen. Als Alternative schwebt mir ein Thermalright SI-128SE vor, der nur durch den Luftzug vom 120er Netzteillüfter gekühlt wird. Bin mir aber nicht sicher ob das reicht.
Hat der von Scythe einen 4pin-Anschluß? Ich nehme mal an, dass du den hier meinst. Wird der Thermalright dann durch den Lüfter im Netzteil gekühlt? Einen eigenen scheint er ja nicht zu haben. Von der Größe sollte es ja gut passen (L125 x W145 x H91.5 mm (heatsink only))

Ich habe gerade noch im V300-Thread den Kühler Cooler Master Gemin II entdeckt
244047.jpg
 
Zuletzt bearbeitet:
Liest hier eig. keiner c't ?

Die haben doch zum Boardtest Fedora 7 installiert/getestet.
3D Desktop soll dann mit den neuesten Nvidia Treibern gelingen - auch wenn das nicht unbedingt in der ReadMe steht/stand.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh