[Sammelthread] Asrock ALiveNF7G-HDready / ALiveNF7G-HD720p (nForce 630A MCP)

Status
Für weitere Antworten geschlossen.
Ist eigtl. das UXGA (1600x1200) Porblem bei dem Board jetzt schon gelöst?
In der c't hieß es, dass das ALiveNF7G keine Firewire Geräte erkannt hat, dürfte bei denen ja wohl eher ein Board-Defekt gewesen sein, oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich hab ein Arctic Freezer Pro mit PWM 4 Pin. Im Idle geht der Kühler runter auf etwa 1030 U bei last etwa 1500 U und erst unter richtiger Volllast (Orhtos,Prime) dreht er kurze Zeit über 2000 U. Alles automatisch, dass reicht schon.
 
bei mir ist das board seit donnerstag mit ubuntu in betrieb.
hab einfach meine vorhandene installation angeklemmt und ab dafür.
auflösung 1440x900 per dvi lüppt ohne probs. auch der rest lief ootb. ;)

Hast du mal die Möglichkeit gehabt, eine ubuntu-Live-CD zu booten? Da wäre dann ja die Frage, ob der Netzwerkchip korrekt erkannt wird, siehe dazu auch Posting 201

trotzdem, mit dem popelkühlerchen auf der NB kam ich auf ca 80° bei last! :P
atm trohnt nen hr-05 sli drauf.. guggsu hier... ^^
Das sind beides aber schon ganz schöne Boliden! In einem Barbone-Gehäuse dürfte das wohl problematisch sein.

Aber ein etwas größerer Kühler auf der NB sollte es dann schon sein? Gibt es dann ausser dem hr-05 sli noch andere Möglichkeiten?
 
Zuletzt bearbeitet:
1) das 1600er problem ist mit bios 1.7 noch nicht gelöst, der letzte win xp nvidia treiber ist immer noch vom 26.7, also auch nichts neues

2) bei ubuntu wird lan out of the box erkannt (7.10 tribe 5). aber sound anscheinend nicht. booten konnte ich nur im abgesicherten grafikmodus. nach installation funktioniert 1280 ohne probs und extra bootoptionen, 1600 ist aber auch unter ubuntu wohl nicht drinne (evtl mit nouveau oder so, aber das zusammen zu frickeln...)
 
Danke srynoname. Schade. Aber habe mir dann jetzt das Gigabyte µATX mit 690G bestellt.

Da geht zwar kein 3D unter Linux, aber immerhin 2d :)
 
mit den onboard grafiksätzen kommst du beim spielen wohl so oder so nicht so weit. hätte ich das mit dem 1600er problem früher gewusst, hätte ich mir evtl. auch n anderes board geholt. nunja, immerhin nutze ich für gewöhnlich win xp und dafür gibts ja n fix den man nur einmalig durchführen muss. aber ich hofe nvidia bekommt das irgendwann mal noch gebacken.
 
Jetzt hatte ich mich so langsam auf das Board eingeschossen, aber ich wollte doch schon in der 1600x1200 bei 60 Hz Auflösung arbeiten.
Betrifft das Problem sowohl den analogen als auch den digitalen Ausgang?

Was wäre denn jetzt die Alternative bei einem reinem Betrieb unter Linux mit der gewünschten Auflösung?!

Ergänzung:
Aber wenn ich mir das Anfangsposting noch einmal anschaue, und unter Pkt. 6 Fixes schaue, sollte es doch jetzt gehen. Oder bezieht sich die Lösung aus dem Post 166 nur auf Windows?!
Wo finden sich eigentlich die Auflösungen des Grafikchips? Im Manual habe ich dazu nix gefunden.

2. Hat eigentlich noch jemand der Kühler der NB durch ein etwas größeres Modell ersetzt?
 
Zuletzt bearbeitet:
Jetzt hatte ich mich so langsam auf das Board eingeschossen, aber ich wollte doch schon in der 1600x1200 bei 60 Hz Auflösung arbeiten.
Betrifft das Problem sowohl den analogen als auch den digitalen Ausgang?

Was wäre denn jetzt die Alternative bei einem reinem Betrieb unter Linux mit der gewünschten Auflösung?!

Ergänzung:
Aber wenn ich mir das Anfangsposting noch einmal anschaue, und unter Pkt. 6 Fixes schaue, sollte es doch jetzt gehen. Oder bezieht sich die Lösung aus dem Post 166 nur auf Windows?!
Wo finden sich eigentlich die Auflösungen des Grafikchips? Im Manual habe ich dazu nix gefunden.

2. Hat eigentlich noch jemand der Kühler der NB durch ein etwas größeres Modell ersetzt?

Zur Auflösung: was hat man da eigentlich für problem?
Zum NB-Kühler: Zalman ist das Mindeste, besser ein thermalright NB kühler.
 
so, helau! nun bin ich also hier auch mit von der partie...
grüsse mal gleich an die wohlbekannten namen vom silenthardware-forum :wink: .

@citysprinter: es gibt da noch nen blauen zalman nb-kühler, war das nicht sogar in diesem fred dass da wer n bild von gepostet hat? das problem mit diesem kühler könnte allerdings sein, dass du dir je nach grösse der karte mit dem blauen zalman einen oder im unglücklichen fall gar beide pci-steckplätze zumauerst, weil der dann an dieser stelle reinragt. die pci-e slots sollten aber passen.
ich hab bisher (~2wochen) noch keinen anderen nb-kühler drauf, werd das aber evtl mal noch nacholen. ach ja, teilweise sind auf manchen mainboards ja schon ganz anständige (passive) nb-kühler drauf, wer da ein altes rumliegen hat, sollte auch passen.

@sephi: man hat das problem (unter linux, wie das unter windows läuft weiss ich nicht), dass wenn man ein 1600x1200-tft per dvi anschliesst, der nvidiatreiber steif und fest behauptet, die native auflösung des angeschlossenen monitors sein1280x1024. es lässt sich dann keine 1600er auflösung einstellen, auch nicht mit modeline-einträgen oder so.
per analogem (sub-d) kabel/anschluss geht natürlich auch die 1600er, denn dabei werden ja keine hardwaredaten (des dispplays) ausgelesen.

ach ja, auch ich hab schon das 1.7er bios geflasht, was aber wie schon beschrieben nichts an diesem verhalten ändert.

seit heute hab ich noch ein merkwürdiges verhalten festgestellt:
ich hab die vergangenen tage angefangen, c'nq mal zu deaktivieren und meine cpu manuell per bios zu undervolten, um mal zu sehen, was da so geht.
nunja, mit 10x multi lief sie mit 1,050v (bios einstellung) astrein, mit 5x multi auch mit 0,825v ohne probleme (1h prime95, je einen prozess pro kern). heut morgen wollt ich mich dann mal an die 5x multi mit 0,800v ranwagen, aber nach der einstellung von 0,800v is plötzlich alles ganz komisch; der rechner (bzw das bios!) bootet nicht auf anhieb, sondern erst nach mehrmaligem aus/an-schalten (reset bringt nüscht), und dann ist egal, was ich im bios für die cpu einstelle (also manuell nen multi/vcore vorgebe oder auch auto), immer die max frequenz (bei mir 2,3ghz -> 65nm x2 4400+) und vcore (1,3v) eingestellt.
wat soll dat denn nu? muss da mal noch ein wenig mir rumexperimentieren oder zur not cmos mal zurücksetzen, aber ein wenig befremdlich find ich das ja schon...
hat irgendwer ähnliche beobachtungen gemacht? wie gesagt, das ganze ist aufgetreten, nachdem ich 5x multi und 0,800v vcore eingestellt hatte... hoff dass das wieder weg geht!
 
Zur Auflösung: was hat man da eigentlich für problem?
Man stößt halt immer mal wieder über die Aussage, dass 1600x1200 nicht läuft. Und das wäre doch zwingend Voraussetzung.

Zum NB-Kühler: Zalman ist das Mindeste, besser ein thermalright NB kühler.
Also haben dies noch mehrere umgerüstet. Kannst du mir genaue Angaben zu den Modellen geben?
 
Man stößt halt immer mal wieder über die Aussage, dass 1600x1200 nicht läuft. Und das wäre doch zwingend Voraussetzung.
also (wie eben geschrieben), per vga-kabel geht das jetzt auch schon, und nvidia wird da bestimmt auch mit dem nächsten treiber was dran machen; is wohl keine absicht so ;)
Also haben dies noch mehrere umgerüstet. Kannst du mir genaue Angaben zu den Modellen geben?
nb-cooler:
Thermalright HR05
Thermalright HR05 SLI (der von coxon)
Zalman ZM-NB47J
Zalman ZM-NBF47 (kommt zwar dicker daher, soll aber glaub nich soo viel mehr bringen wie der NB47J)
Noctua NC-U6 (LOL, damit isses dann andgültig um den einen (bzw beide???) pci steckplatz geschehen)
glaub ich werd mir bei gelegenheit den ZM-NB47J holen.

in eigener sache: okok, die panik war etwas voreilig, hab mich von dem tollen 'boot failure guard' austricksen lassen; der stellt wohl wenn was schief läuft die max spez spannung und freq ein (zum glück, sonst hätte wohl wirklich nur cmos-reset was gebracht...).
@Micki_Krause: klar das die CPU ne gewisse startspannung benötigt, ich dachte nur nicht nachdem 0,825v noch wunderbar und stabil lief, dass mit 0,800v gleich alles auseinanderfällt :confused: .
ach ja, da hätt ich gleich nochwas: wie hastn die 22,Xw und 700mhz hinbekommen? systemtakt runtergeschraubt? vcore? und wahrscheinlich auch keine 3,5" hd, oder?
EDIT: okok, das in deiner signatur is ja n link, hatte ich übersehen! sorry!

auf jeden fall geht nu wieder alles wie es soll ;)
 
Zuletzt bearbeitet:
das war auch mit dem Asus Board, muss das gleich mal ändern.
 
ah, ok... ganz schön langer thread ;)
... Das mit dem Zalmann NB Kühler war ich. ...
hmmm, auf dem bild seh ichs jetzt nicht so genau; würdest du sagen, dass in den oberen/hinteren pci-slot noch ne längere karte reinpasst mit dem zalman drauf? wahrscheinlich eher nicht, oder? die karten sind ja nach unten, also in dem fall zum kühler hin bestückt... aber was solls, hab eh nicht vor, mir da gross karten reinzubaun.
 
muss ich die Kiste mal aufschrauben und schauen. MAn kann den Kühler aber auch im 90 Grad drehen sofern die Halterungen dann noch passen. Vielleicht ist dann weniger Platz "verschwendet".
 
also (wie eben geschrieben), per vga-kabel geht das jetzt auch schon, und nvidia wird da bestimmt auch mit dem nächsten treiber was dran machen; is wohl keine absicht so ;)
Wobei nach einer Aussage aus der aktuellen ct das Bild über den analogen Ausgang nicht das beste sein soll.

Dann kann man nur hoffen, dass nvidia sich dessen Problems auch bekannt ist und und im nächsten Treiber eine entsprechende Berichtigung vornimmt.

Hat mal jemand meine sig angeschaut, ob dies so ok wäre?
Nur beim Gehäuse bin ich mir noch etwas unschlüssig. Ich will auf jeden Fall vom Big-Tower weg, am liebsten zu einem kleinen Barebone in Würfelformat, notfalls auch ein Midi-Tower.
 
Zuletzt bearbeitet:
Wobei nach einer Aussage aus der aktuellen ct das Bild über den analogen Ausgang nicht das beste sein soll.

Dann kann man nur hoffen, dass nvidia sich dessen Problems auch bekannt ist und und im nächsten Treiber eine entsprechende Berichtigung vornimmt.

Da kann man über den Treiber nichts ändern. Das liegt eher an der "Verdrahtung" auf dem Board.
Das war auch der Ausschlag für mich das GA-MA69GM-S2H zu kaufen.
Ich will einfach, dass UXGA und auch WUXGA ohne großen Ärger laufen.
Zudem hat das Full-Size-ATX GA-MA69GM-S3 schon 10 Watt weniger Verbrauch gehabt als das Asrock. Dann sollte das GA-MA69GM-S2H als µATX nochmal weniger brauchen.
Zudem wurde der OnBoard Sound des Gigabyte auch deutlich besser getestet und die SpaWas sind eingegossen.


Evtl. bestelle ich mir das Asrock aber auch noch mal um die beiden einfach mal direkt zu vergleichen :asthanos:
 
@all
ich habe mein asrock unter sabayon linux 3.4E (auf Gentoo aufgebaut, live-dvd) ausprobiert, mometane problem besteht darin, dass es ein Unknown nvidia chip angezeigt wird, und man den Raidcontroller nicht ansprechen kann. Aber 3-D Beschleunigung funktioniert ohne problem, Compiz laeuft ziemlich gut.
Ich habe 2 Monitoren getestet: samsung 215TW(21'') und Eizo L768(19''), jeweils per DVI angeschlossen und ich habe kein Problem mit der Auflösung 1680X1050. Das Deesktop wurde sauber dargestellt. Ich denke mal,. es handelt sich nur um einem Treiber problem, dass die 1600X1200 er Auflösung nicht korrekt dargestellt wird.
Sobald der Raidcontroller unterstütz wird, werde ich mal wieder unter linux arbeiten.
achja...:fresse: ich habe bisher noch kein Biosupdate gemacht. Ich glaube ich habe noch den 1.10er Bios :schaem:
Hinzugefügter Post:
...
Zudem hat das Full-Size-ATX GA-MA69GM-S3 schon 10 Watt weniger Verbrauch gehabt als das Asrock. Dann sollte das GA-MA69GM-S2H als µATX nochmal weniger brauchen.
Zudem wurde der OnBoard Sound des Gigabyte auch deutlich besser getestet und die SpaWas sind eingegossen
...
echt? der verbraucht Satte 10 Watt weniger? wie bist du darauf gekommen? Bzw. womit hast du gemessen? generell verbraucht der amd690 doch etwas mehr als nvidia. Die Gigabyte Boards sind, was Bauteil Qualität angeht, besser als ASrock, das ist denke ich mal auch der Grund, warum GB Board teuer ist :-).

Evtl. bestelle ich mir das Asrock aber auch noch mal um die beiden einfach mal direkt zu vergleichen :asthanos:
das waere natuerlich ne super sache.
 
Zuletzt bearbeitet:
echt? der verbraucht Satte 10 Watt weniger? wie bist du darauf gekommen? Bzw. womit hast du gemessen? generell verbraucht der amd690 doch etwas mehr als nvidia. Die Gigabyte Boards sind, was Bauteil Qualität angeht, besser als ASrock, das ist denke ich mal auch der Grund, warum GB Board teuer ist :-).


das waere natuerlich ne super sache.

Nicht ich, in der c't 18/2007 wurden Boards mit onBoard Graka getestet.
U.d. das ATX Gigabyte und das Asrock. Das ATX Gigabyte hatte im IDLE 7 oder 8 Watt weniger Verbrauch als das Asrock.

Auf diese Messung gebe ich halt auch was, weil die wenigstens unter Laborbedingungen messen und nicht mit Lidl Stecker-Messgeräten.

Ärgerlich am Gigabyte ist eben:
- GBit LAN per PCI
- ACPI S3 macht wohl manchmal Probleme
- ATI unter Linux ist eben auch so ne Sache
- Hardware HD Beschleunigung ist mau (ich schau aber kein HD)
Vorteile:
- Auflösungen gehen alle
- Bauteile sind besser
- onBoard Sound hat gemessene 106dB Rauschspannungsabstand (da haben selbst Audigys Probleme mitzuhalten)
- Verbrauch ist wohl (etwas) niedriger
- kleine Details sind deutlich besser gelöst (z.B. die SATA Ports sind abrutschsicher)
- es liegt ein TV-Out Bracket bei (S-Video / Composite)
- der Firewirechip ist der bessere

Wie gesagt, ich denke ich bestelle das Asrock auch nochmal dazu und vergleiche dann mal.

Das Gigabyte mit dem NV 7050 wäre mein Favorit :hail:
 
hat gb ein 7050er board überhaupt?.
Ja ich meine, genau die kleine aber feine Detail unterschiede machen den Preisdifferenz aus.
ATI graka und Linux ist halt son sache.....
 
....in der c't 18/2007 wurden Boards mit onBoard Graka getestet.
U.d. das ATX Gigabyte und das Asrock. Das ATX Gigabyte hatte im IDLE 7 oder 8 Watt weniger Verbrauch als das Asrock.

Auf diese Messung gebe ich halt auch was, weil die wenigstens unter Laborbedingungen messen und nicht mit Lidl Stecker-Messgeräten.

Naja, liegen wir halt alle falsch :) - inkl. Krause, der ja seinen Stromzähler befragte.

Ich bin auch treuer c't Leser/Gläubiger und vertraue denen - aber es gibt immer wieder solche "Dinge" - vielleicht hat das Board der verwendeten CPU zuviel Spannung gegeben, oder aber C&Q war aus (wurde ja im Artikel erwähnt, dass das Board auf "Auto" es nicht einschaltete)
>> und ich mene noch im Kopf zu haben, dass die keine eigenmächtigen Tweaks vornehmen, um eine Staus Quo zu gewährleisten.


Mein 25W stimmen jedenfalls - sie sind mit einem geeichten Profimessgerät gegengecheckt > soviel zu Lidl.

Oder meinst du, dass ich mit diesem "Hyper Board" in meiner jetzigen Configuration auf 18W käme ;) und mit Pico auf 10W ? :teufel:

Insofern gebe ich auf die Messwerte der c't in meinem Fall nur ein müdes Lächeln.

Auch die c't ist nicht unfehlbar :)
 
Zuletzt bearbeitet:
So what?

Ich habe doch nirgends geschrieben, dass alle die hier gemessen haben nur Bockmist verzapft haben!

Das Gigabyte ist definitiv kein HyperBoard, ebenso wenig wie allen anderen, die der Markt momentan bietet.

Worauf ich aber meine Kaufentscheidung fußen lasse, das möge man dann doch bitte mir überlassen....
Der aleinige Verbrauch war nicht DAS KO-Kriterium, sondern die vielen kleinen Dinge.

Wie gesagt, ich werde mir wohl das Asrock auch noch holen um hier für mich einen Vergleich ziehen zu können....bezweifle aber mittlerweile ob meine Messwerte dann veröffentliche, wenn es nicht gern gesehen wird auch mal andere Werte als die aus einem Thread hier zu zitieren....
 
.....weil die wenigstens unter Laborbedingungen messen und nicht mit Lidl Stecker-Messgeräten.

Nun ja, viele coole Dinge entwickeln sich nicht bei der c't sondern im Untergrund - wie hier.

Du solltest beim Studium dieses Threads und aller möglichen Links hier, so weit sicher geworden sein, dass man den hier geposteten Werten rel. vertrauen kannt.

Wenn hier einer fantasiert, würde das auffallen.

Das diverse andere Dinge für das andere Board sprechen, ist doch auch völlig ok.
Aber ich würde da nicht zu viel hinein interpretieren, z.B. dass das andere Board 106dB hat u.s.w.

Ich habe hier eine Audigy2ZS und benutze diese - wenn überhaut nur im Games PC für EAX.
Onbaord Lösungen wie hier HD ist so gut geworden, dass da ein paar dB mehr von normalen Personen nicht wahrgenommen werden.
Ich mache selber ein wenig Musik und denke, ich kann das beurteilen - und sie ist völlig ok.

Und keine Angst. hier wird dich niemand anflamen, wenn du später zugestehen musst, dass das 7050er doch nicht der große Verschwender ist.
 
Zuletzt bearbeitet:
Hajo, ich denke auch, dass gerade in den Foren die genialsten Sachen herausgefunden werden.

Dabei denke ich gerne an meine Zeit mit dem C4M@Desktop etc. zurück. Keine Frage.
Aber die Mischung macht es. Z.b. Lautstärkemessungen von HDDs. Da konnte ich bisher immer mit der c't d'accord gehen, im Gegensatz zu weitläufigen Meinungen in Foren (wo Leute, die immer ein Headset am Rechner tragen dann schreiben HDD X sei bei ihnen unhröbar ;) ).

Aber klar auch die c't ist nicht unfehlbar.
Aber darum soll es hier nun ja auch nicht gehen.

Ich werde mir wie gesagt das Asrock auch noch holen und einfach vergleichen.
Dann die für mich wichtigen Dinge testen und der 2. muss eben gehen und wandert in den Marktplatz.

Zockt man mit einer Soundkarte ist der Rauschspannungsabstand defintiv nicht DER Faktor. Da zählt wohl eher Räumlichkeit etc. Für Mucke mit FLAC erwarte ich mir aber schon einen sauberen Klang. Von daher scheint mir der 889A auf dem GB schon die bessere Alterntaive zu sein.

Der Verbrauch ist wie schon geschrieben ein Kriterium unter vielen. wirkliche Verschwender sind weder der NV7050 noch der 690G. Da sorgen Netzteil etc. sicher für mehr Schwankung. Aber an irgednwas muss man seine Entscheidung halt nunmal festmachen :)

Wie gesagt, ein Zwitter aus dem Gigabyte und dem Asrock (Bauteile des Gigabyte und dem NV7050 mit sauberem BIOS) wäre aktuell mein Favorit. Leider gibt es den nicht.
 
So what?

......

Wie gesagt, ich werde mir wohl das Asrock auch noch holen um hier für mich einen Vergleich ziehen zu können....bezweifle aber mittlerweile ob meine Messwerte dann veröffentliche, wenn es nicht gern gesehen wird auch mal andere Werte als die aus einem Thread hier zu zitieren....

Hi, bitte nicht falsch verstehen, wir sind(zu mindest ich bin) immer dankbar, wenn einer ein Vergleichstest macht :drool: . wiegesagt, das Gigabyte Board ist selbst beim kleinen Details gut verarbeitet und durchdacht. Das Asrockboard hat aber in diesem Fall einen realtiv ausgereiften Chipsatz und passende Bios option für UC. zwar befinden sich auf dem ASrock Board viele Elkos von OST, aber die wichtigen Elkos sind doch noch von Panasonic und sanyo(um CPU herum). Ich gehe davon aus, dass die elkos beim GB board bestimmt noch besser sind.

ich weiss zwar nicht was 106dB in dem Fall spezifiziert, gehe aber davon aus, dass es sich hierbei um Signal-Rausch-verhältnis (SNR)des analogen Ausgangs handelt? Falls ja, hat Gb in dem Fall einen besseren D/A-wandler spendiert^^. es ist dann nur für leute wichtig, die ihren analogen Ausgänge der Soundkarte verwenden,

Also ich freue mich jetzt schon auf deinem Vergleichstest :bigok:
 
Ich dachte die theoretische SNR des AD bzw DA wandlers hängen von der Auflösung ab. (bitzahl*6.02+1.76) in [dB] (beim ADC^^), da bei der Audio anwendung meistens die Delta-Sigma-modulatoren eingesetzt werden, ist der SNR durch noise shaping, OSR anders zu rechnen(will script nicht noch mal lesen^^). Die Leitungen sind in dem Fall deshalb nicht so wichtig, weil die Sprachsignal sehr niederfrequent ist(geht bis 50Khz? keine ahnung) in dem Bereich sind die Streuffekte der Leitungen zu vernachlaessigen(gehe ich aus von, ist ja fast noch Gleichstrom^^).
Aber wie du bereits sagtest, Theorie und praxis :d.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh