AsRock 939Dual-SATA2 = natives AGP UND PCI-E = die eierlegende Wollmilchsau? (Part 1

Status
Für weitere Antworten geschlossen.
man, die ham doch nen Vogel, ich hab v. 7 noch nicht mal richtig testen können
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ASrock_USer
& Ostsol:

Vielen Dank für eure Antworten. :)
Dann werd´ ich wohl die nächsten Wochen noch ein bisschen die CPU Preisentwicklung verfolgen, eventuell wird´s dann anstelle des X2 4200+ ein X2 4400+, und dann zuschlagen.
 
wie darf ich das verstehen...das board ist am2 ready???

mfg
 
@ py:

Wenn du dir das Zusatzmodul für den Future-Port kaufst, wird das Board AM2-ready sein. Es handelt sich um eine ziemlich große Steckkarte, auf welcher sich der neue CPU-Sockel und die RAM-Bänke befinden. Ich bin aber skeptisch, ob das was taugt.
 
noch ne frage:

wie hoch lassen sich vcore und vdimm einstellen mit dem besten mod bios auf dem board zur Zeit??

mfg
 
vcore immer noch 1,45Volt und Vdimm glaube +0,25Volt oder so.
 
Mit den Mod-Biossen lassen sich keine höheren Spannungen einstellen. Da hilft nur ein Hardware-Mod. Gibt es sowohl für Vcore als auch für Vdimm. Habe an meinem Board den Vcore-Mod mit Silberleitlack gemacht. War gar nicht so schwierig. Man braucht nur eine ruhige Hand. Jetzt kann ich die Vcore bis auf 1,55V anheben.
 
reichen den die 1,55 Colt für gescheites oc???

ram wäre dann also max von...2,8 ???

oder wie


mfg
 
PS: Habe jetzt das Bios 1.8 drauf. Läuft wunderbar und das System lässt sich noch besser übertakten als mit dem 0.4xx-Bios (bisheriges OC-Ergebnis siehe Sig., ist aber noch nicht das Ende der Fahnenstange.)
 
sollich venice oder opteron kaufen....wo ist das PL verhältnis besser?

wieviel max hat denn nun der ram beimbesten mod bios?

mfg
 
Wenn du nicht mit einer Kompressorkühlung ocen willst, reichen 1,55 V vollkommen aus. Alles andere wäre meiner Meinung nach eine zu große thermische Belastung für die CPU.

Vdimm ist max. 2,7V.

Ich würde einen Opteron 146, Opteron 148 oder einen A64 3700 nehmen. Der Opteron 148 und der A64 3700 haben beide einen Multi von 11, d. h. du brauchst keinen so hohen HTT wie bei einer CPU mit 10er-Multi.

Die Frage bzgl. des RAM habe ich nicht verstanden.
 
Zuletzt bearbeitet:
hmmm warum keine 144 opteron ???

preisleistungsmässig oc.....ist der venice 3200 net besser ???

bei gleicher mhz wieviel % ist der opteron schneller allgemein und beimgamen ???

mfg
 
Der Opti 144 hat nur einen Multi von 9, d.h. wenn du einen Takt von 2700Mhz erreichen willst, musst du einen HTT von 300 erreichen. Das schaffen nur wenige Mainboards. Dafür hat der Opti 144 einen 1024KB Level-2-Cache. Der Venice 3200 hat da nur 512KB. Dies soll einer Mehrleistung von ca. 200Mhz entsprechen.

Deine letzte Frage kann man so nicht beantworten. Die CPUs haben alle eine Serienstreuung und es kommt darauf an, ob du eine gute oder eine schlechte erwischt hast.
 
Ach so leute, muss bitte schnell wissen ob das board mit dem besten mod bios den htt von 300 schaft,auf jeden fall den FSB für die CPU ;)

habe nämlich schlechten ram ;)


mfg
 
Ich poste hier mal meine Erfahrungen zum Asrock mit dem 1.8 BIOS und einer NVIDIA AGP Karte, hier eine Gainward 6600GT @ 540/1100. Alles, was ich hier sage, sind meine persönlichen Erfahrungen mit der Kombination aus Board+Grafikkarte. Dass das für relativ viele User interessant sein dürfte, ergibt sich aus der Tatsache, dass das Asrock ja das einzige PCIe Board mit vollwertigem AGP Port ist. Aber gerade dieser zickt ja gerne schon mal rum, wie nicht nur einige Asus User feststellen mussten. Und auch bei mir ist er empfindlich – doch dazu später mehr.

Ich hatte große Probleme, was die Performance in den synthetischen 3d Marks angeht. Zwar pflege ich mein Geschlechtsteil immer noch in Zentimetern und nicht mit 3d Mark Punkten zu messen – aber ich halte die Benchmarks einersteits für einen guten Stabilitätstest und andererseits (und in erster Linie) für einen guten Indikator über die tatsächliche Performance des Rechners.

Daher teste ich mit 3d Mark 03, 05 und 06. Aber zu meiner großen Überraschung änderten sich die Ergebnisse, teils sogar nach einem zweiten Durchlauf direkt nach dem ersten – und zwar richtig heftig. So sank der Wert des 05ers von einem auf den nächsten Durchgang von 3000 auf 2000 Punkte! Und hatte ich eine gute Konfiguration für den 03er gefunden, war das Ergebnis beim 06er katastrophal.

Nach schier endlosen Stunden des Benchens habe ich folgendes Fazit mitgenommen. Aber zuerst die Config und die Testbedingungen:

Sauberes System (keine Progis im Hintergrund) mit
Asrock 939 Dual S-ATA2 mit 1.8er BIOS
2x512 MDT im DC @ 200Mhz und 2-8-3-3 und 2T
AMD Athlon 64 3200+ @ 2400 Mhz (Reftakt 240)
Gainward Cardexpert 6600GT AGP Golden Sample (500/900 @ 540/1100) 128MB
Sound Blaster LIVE! Player 1024
Win 2000 SP4, Rollup 1 + aktuelle Patches
Direct X 9.0c
NVIDIA 84.21
AGP8x, Fastwrites aktiviert
AA, AF und V-Sync deaktiviert

So, jetzt wird’s interessant. Denn die BIOS Settings, die eigentlich keine (so großen) Auswirkungen auf die Performance haben dürften, haben es plötzlich in sich.
Im Folgenden ist das die AGP P2P Deep Fifo, die ja von User mit NVIDIA AGP Karten aktiviert werden sollte – aus welchen Gründen kann bisher nur spekuliert werden, weil Asrock sich über den genauen Sinn ausschweigt. Letztlich kann man diese Option als Hinweis sehen, dass der AGP Port des Asrocks in der Tat mit Problemen zu kämpfen hat. Mir scheint nämlich, dass diese Option nicht etwa die Kommunikation des AGP Ports auf NVIDIA Karten optimiert, sondern viel eher nur Timings entschärft, was zu teils erheblichen Verlusten beim 03er und 05er Benchmark führt. Das Deaktivieren nämlich führt zu keinen Stabilitätsproblemen, aber zu bis zu 50% mehr Punkten (im 06er).

Ein anderer Punkt, den es bei AGP Karten mit weniger Speicher, also 128MB, zu bedenken gibt, ist die AGP Aperture Size. Stellt man diesen zu klein ein, z.B. auf 64MB statt auf 128MB, reicht das bei den großen Texturen eines 06er Benchmarks nicht mehr aus und die Leistung sinkt ins Bodenlose. Stellt man ihn größer kann man z.B. statt 500 Punkte im 06er direkt mal 1000 bekommen. Bei den kleinen Texturen des 03er oder 05er verliert man durch die größere AGP AS wieder ein paar Punkte. Nun möchte ich noch mal betonen, dass es mir nicht um die 3d Mark Scores selbst geht. Aber man fragt sich doch, welche Einstellung am besten für aktuelle Spiele ist – also ob die Größe der Texturen aktueller Games eher dem 05er oder 06 entsprechen.
Man ist also gezwungen Kompromisse einzugehen – der beste ist natürlich eine AGP AS von 128, da man bei den älteren Futuremarkprodukten nicht so viel verliert, wie man beim 06er „verdient“. Dennoch sind die Unterschiede, die durch eine „falsch“ eingestellte AGP AS entstehen können, IMO, auf anderen Boards nicht so extrem, wie beim Asrock.

Die Erfahrungen bis hier können alle User mit (NVIDIA?) AGP Karten vermutlich nachvollziehen – es wäre interessant, wie das ganze bei ATI AGPs aussieht.

Zum Abschluß möchte ich noch darauf hinweisen, dass der AGP Treiber für Win2000 für viele Probleme bei der Performance verantwortlich ist (XP User sollten den Part hier aber vielleicht noch nicht überspringen ;) ). Nun sollte man davon ausgehen, dass die Treiber, wie üblich, für XP und Win2k identisch sind. Sind sie aber nicht. Die AGP Treiber für XP tragen die Versionsnummer 2.30 – die für Win2k nur 2.14. Versionsnummer hin oder her möchte man nun sagen – aber die Tücke steckt hier wirklich im Detail. Denn erst durch die „gezwungene“ Installation des 2.30 für XP auf meinem W2k System war es möglich, reproduzierbar gute Ergebnisse zu erreichen. Beim 2.14 gab es sonst einfach mal 1000 Punkte weniger beim 05er als beim ersten Durchlauf. Ähnliche Phänomene habe ich auch beim 06er erlebt – einzig der 03 war konstant.

Wichtig für eine gute 3d Performance meines Rechners ist also folgendes:

XP AGP Treiber statt 2k (2.30, nicht 2.14)
AGP Aperture Size auf 128 MB (nicht 64)
AGP P2P Deep Fifo disabled (nicht auto oder enabled wie empfohlen)

Die Ergebnisse sind übrigens vom 03 ~7800 Punkte, vom 05er ~3000, 06er ~1000.
Man sieht, dass das keine Spitzenwerte sind, obwohl die CPU „ausreichend“ Leistung für die Grafikkarte bietet. Wenn ich nun bedenke, dass mein alter XP Prozessor auf meinem NF7-S im 05er Benchmark deutlich mehr Punkte bekam, dann muß man der AGP Performance nur eine mittelmäßige Leistung bezeugen.

IMO bleibt festzuhalten, dass das Board, zumindest für den Einsatz einer NVIDIA AGP Karte nicht das Gelbe vom Ei ist. Mit viel Tuning und Optimierungsarbeit hab ich nun ein System, das bisher halbwegs zügig arbeitet, aber von einem fast drei Jahre alten Sockel A System dennoch in den Schatten gestellt werden kann. Ein schaler Beigeschmack bleibt zumindest bei mir.

Zu den Ergebnissen aller Benchmarks (also zu den Tendenzen, ob sich eine Option positiv, negativ oder gar nicht auswirkt) sind übrigens Eure Erfahrungen erwünscht! Es würde mich sehr interessieren, ob ich der einzige Asrock User mit einer NVIDIA AGP Karte bin, der mit der Performance kämpft. Also postet!
 
Hallo allerseits

Wenn ich beim obigen Board zwei gleiche 512er Riegel in die DC-Slots reintue, dann erkennt er zwar DC zeigt beim Booten und in Windows jedoch nur 512MB an. (CPU-Z erkennt wiederum 1024MB, everest jedoch nicht...) Wenn ich den Ram in unterschiedliche Slots reinhaue, dann erkennt er sie komplett, aber eben ohne DC.
Irgendwie kommen mir die Ladezeiten für 1gb auch recht lange vor (rein subjektiv)

Stimmt da so, oder ist da was falsch (glaube ich schon, habe aber noch kein ULi-Board zuvor gehabt)

sonstige Hardware:
A64 3000+ @ 2610GHz
PCIE GF7600GT

------------

MDT-Speicher DS

neustes Bios
einstellungen:
CPU-PCIE Async
HT-Multi: 3x (also 600 eingestellt)
HTT: 290
PCIE: 100
CnQ aus
Spread Spectr. auto (was is des?)
VCore 1,450 V (=max)
CPU-Multi: 9
Memclock: 133 -> (real 187)
Flex. Memory aus
Memory Hole aus (was des?)
NB-SB-Link auto (was des?)
CPU-NB-Link auto (was des?)
VRam high
Timings 2-3-3-7 T2
TRRD auto
TRC auto
Burst Length 4

-----------

wurde auch schon nicht oced getestet, stimmt es, dass nur die hälfte angezeigt wird?

die performance ist irgendwie mieserabel, BF2 läuft nicht mal auf 1024x768 bei mittleren Details halbwegs
 
Zuletzt bearbeitet:
Leute ???

welche htt schaft das board so durchschnittlich maximal???
 
MIt neuen Biosen sind bei vielen über 300 MHz drin. Allerdings ist natürlich jedes Board anders.

Gruß
ASrock_USer
 
ok danke....also für unter 65 € ist kein 939 board zu finden oder ?


mfg
 
py schrieb:
ok danke....also für unter 65 € ist kein 939 board zu finden oder ?


mfg

Hmm...also ich habe jetzt die letzten Posts nicht alle gelesen, aber das Board aus diesem Thread hier kostet deutlich unter 65,- EUR. Das wäre dann doch ein Kandidat, oder?
http://www.geizhals.at/deutschland/a160578.html
Gibt noch ein paar andere Boards in identischen Preisregionen, die haben jedoch teilweise schlechtere Chipsätze, wie z.B. den VIA KT890, drauf.
 
also ich hatte anfangs auch probleme mit meiner alten 6800gt und dem agp port! bei mir hat das C&C Generals Menü das laggen angefangen *lol*
ich bin dann ins bios, erstmal agp dings size auf 256mb gestellt. dann noch die uli integrated drauf gehaun, restart, nvidia treiber, restart und denn hat alles funktioniert!
 
Habe auch den Eindruck dass die AGP Leistung nicht so toll ist.
Meine bei AQ3 und 3D Mark 05 wäre die bei meinem Sockel A Board etwas besser gewesen.

Gibts eigentlich irgendwo ein Update für die Board-Treiber?
 
Na die von der CD, da steht 1.4c drauf. Sind alle einzeln zu installieren.
Der AGP Treiber ist z.B. Version 2.30. Bei Asrock gibts scheinbar auch nichts neueres.
 
Zuletzt bearbeitet:
@ amdfan44:

Genau das ist das Problem. Die Uli Treiber, insbesondere der AGP Treiber, hat IMO höchstens den Status "Betatreiber" verdient. Es kommt kein neuer Treiber - das Treiberpaket ist mittlerweile mindestens schon 6 Monate alt. Und das trotz der Übernahme durch NVIDIA - deren Treiberpolitik ist da schließlich relativ vorbildlich.

Uli weiß doch, dass mit dem Asrock Board ein Produkt ins Lager getreten ist, das das Image sehr gut aufpolieren könnte, da es das einzige Board mit AGP + PCIe ist. Und wenn Uli selbst schon nicht auf die Idee kommt Treiber zu entwickeln, könnte wenigstens Asrock die vorhandenen nehmen und für das Board optimieren.

Sicherlich werden einige sagen, dass man bei einem Lowend Board eben nicht den Support wie z.B. bei Asus oder Abit erwarten kann - aber ein Treiberupdate alle 3 Monate im ersten Jahr ist wohl nicht zuviel erwartet. Ist ja schließlich nicht so, als würde alles wunderbar laufen und keiner hätte Probleme:hmm:

Dass das bei Uli noch nicht angekommen ist, ist schade. Dass es Asrock nicht schafft, weil der Laden zu klein ist, kann ich verstehen. Aber dass NVIDIA nicht kapiert, was sie da für eine kleine Goldgrube erworben haben, ist einfach peinlich. Denn wenn das Board noch das letzte Quentchen an Performance und vor allem Stabilität dazu bekäme, wären sicherlich noch viel mehr User zum Umrüsten bereit. Denn eine ganze "Grafikkartengeneration" ist jetzt wieder potenzieller Käufer, nachdem sie ihren Rechner mit einer 7800er für AGP aufgerüstet haben und einsehen, dass der Barton 3200+ zum Beispiel doch zu langsam ist und vielleicht ein X2 4400+ rein soll.
Selbst schuld, NVIDIA :o
 
ich hatte beim 1.7er ocwbeta start"probleme"... er hat immer wieder neu gebootet bzw hat das bios nicht geladen, das manchmal minuten lang (hdds laufen an, es klackt und er fängt wieder von vorne an..), außerdem hat der meinen cpu takt nicht angenommen! hatte htt 250 drin (2,5ghz also) und gespeichert aber cpu war immer noch auf 2ghz.. bin ins bios und da stand 250 bei multi 10.. naja. hab jetzt das 1.8er und kanns nur empfehlen!
 
...mit dem neuen BIOS 1.8 komme ich endlich über 274er FSB jetzt funzt mein Board mit 278er - das heisst 2,5 GHZ ,RAM läuft mit 2.5-3-3-6 timing bei 455 MHZ...

mehr hab ich noch nicht probiert, läuft ja auch alles :coolblue:


@dr.death

hab ne 6800er GT und weder mit dem 1.5er noch mit dem 1.8er Bios Probleme gehabt.. getestet mit XP Professionel und XP Professionel x64...

wenn ein Sockel A System Deinen A64 'platt macht' dann stimmt was nicht an deiner Konfiguration...

AGP P2P Deep Fifo habe ich enabled
 
Zuletzt bearbeitet:
Ich glaub man kann NVidia User beruhigen, das Board spackt genauso mit ATI AGP Karten rum.
Und zu den treibern, das NV die gekauft haben heisst noch lange net das die treiber schneller oder besser werden, geschweige denn nen neuer kommt.
Wer ne NV-Graka hat weis wovon ich rede.

Gruß WBPl
PS: ich teste morgen mal ob der auch mit der gleichen PCIE Karte so rum spackt.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh