AMD X2 Sammelthread (2)

Status
Für weitere Antworten geschlossen.
meinte eigentlich fallen angel :)

die cpu is net übel aber eine geringe temperatur ist beim x2 eben alles.

bei mir wird er instabil über 50 grad und alles drunter läuft sehr gut ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da war ich eben zu langsam,@ballater welchen CPU-Kühler hattest du und welchen Radi
 
@qwiddi

CPU-Kühler: NexXxoS XP Rev.2
Radiator: NexXxoS Pro III

gruß ballater
 
CPU_kühler hab ich den gleichen,nur Radi is kleiner NexXxoS Pro II.Dann kann ich ja ganz zufrieden sein:cool:
 
so hier mal meiner
0526UPBW
HS noch drauf...
9125X2-3800_2_5Ghz_1_48V.png
 
Kennt ihr ausser Overclockers.de noch Shops wo man pretested AMD Dualcores kaufen kann?
Ich würde gerne bestellen, aber finde nichts passendes. Bei Singlecore wäre es einfacher.

Tahigwa
 
Also wenn ich das alles hier so lese, kann ich immer noch nicht verstehen, wieso ich so ein verdammtes Pech mit meinem 4400er gehabt habe?!?

Zur Erinngung: Für 2600MHz brauche ich 1.71V :rolleyes:


Ich kriege die Tage noch zwei 4800+, mal sehen ob da was gutes bei ist.
 
TurricanM3 schrieb:
Also wenn ich das alles hier so lese, kann ich immer noch nicht verstehen, wieso ich so ein verdammtes Pech mit meinem 4400er gehabt habe?!?

Zur Erinngung: Für 2600MHz brauche ich 1.71V :rolleyes:


Ich kriege die Tage noch zwei 4800+, mal sehen ob da was gutes bei ist.

Soo schlecht ist er ja auch nicht, aber die hohe VCore ist meiner Meinung nach
für den Dauerbetrieb etwas viel. Wäre halt schön 2700-2800Mhz bei max 1,55 Volt
zu erreichen. Wieviel möchtest du für deinen "unterdurchschnittlichen CPU" haben,
falls du ihn verkaufen würdest?

Tahigwa
 
Sagt mal....mich würd mal interessieren, wie das bei euch so ist...
Habe nämlich gestern Abend mal getestet, wie das Multithreading mit dem DualCore so ist. Also einmal ne DVD genommen und diese begonnen zu schrumpfen, dabei natürlich die Priorität auf normal gelassen. Anschliessend angefangen ein wenig zu Zocken. Ich konnte nicht mal ansatzweise flüssig spielen. Dann hab ich eben mal dem Game seinen eigenen Core zugeordnet, dem Prog auf den andren Core gelegt....dann wieder gezockt. Es lief kein Stück flüssiger und nach ca 3min hatte ich sogar einen Bluescreen. Leider wurde zu schnell rebootet und ich konnt nicht lesen, was genau da stand. Die Kiste läuft aber auf 2.7Ghz dualprimestabil! Temps sind absolut in Ordnung, Wandler bleiben auch stets unter 50°.
Im Grunde war ja genau das der Grund, weshalb ich nen DualCore geholt hab....?! Kann es vielleicht sein, dass der 81.84 einfach zu sehr die beiden Kerne beansprucht? Andererseits, taktet RMClock nicht einmal mehr hoch, wenn ich auf auto stelle und anfange zu zocken. 2x1200Mhz reizen meine Graka im Grunde schon gut aus. Nur wieso reichen dann nichtmal duale 2700Mhz?
 
Da habe ich auch großes Interesse dran, warum das so ist...,da ich mit einem X2 3800+ liebäugele aus genau diesen Gründen...
 
Jepp, hab ihn schon seit gestern drauf, wurden aber "nur" ein paar Bugs gefixt wie das der Mauszeiger mit falschem Symbol hängenbleibt (81.84 Bug).
 
TheMaxx schrieb:
Sagt mal....mich würd mal interessieren, wie das bei euch so ist...
Habe nämlich gestern Abend mal getestet, wie das Multithreading mit dem DualCore so ist. Also einmal ne DVD genommen und diese begonnen zu schrumpfen, dabei natürlich die Priorität auf normal gelassen. Anschliessend angefangen ein wenig zu Zocken. Ich konnte nicht mal ansatzweise flüssig spielen. Dann hab ich eben mal dem Game seinen eigenen Core zugeordnet, dem Prog auf den andren Core gelegt....dann wieder gezockt. Es lief kein Stück flüssiger und nach ca 3min hatte ich sogar einen Bluescreen. Leider wurde zu schnell rebootet und ich konnt nicht lesen, was genau da stand. Die Kiste läuft aber auf 2.7Ghz dualprimestabil! Temps sind absolut in Ordnung, Wandler bleiben auch stets unter 50°.
Im Grunde war ja genau das der Grund, weshalb ich nen DualCore geholt hab....?! Kann es vielleicht sein, dass der 81.84 einfach zu sehr die beiden Kerne beansprucht? Andererseits, taktet RMClock nicht einmal mehr hoch, wenn ich auf auto stelle und anfange zu zocken. 2x1200Mhz reizen meine Graka im Grunde schon gut aus. Nur wieso reichen dann nichtmal duale 2700Mhz?


schon mal dran gedacht das 1gb ram nicht reicht für coden + zocken?
 
Das hört sich sinnig an! DAMN!
Vielleicht würde Steffel oder irgendwer ab 2GB Ram das mal kurz testen? Glaube dann müsst ich doch nochmal aufrüsten :rolleyes:

edit: Laut Taskmanager sind beim Coden immernoch 710MB verfügbar. Der Prozess an sich benötigt grade mal 21MB. Im Grunde sollte da doch noch massig Reserve sein?!
 
Zuletzt bearbeitet:
also ich hab noch nicht gecodet und gezockt hab aber mal eine RAR @ 4,3Gb gepackt und mal schnelle Colin mcrae rally 05 gespiele läuft ca. 5fps wingier als wenn ich nichts im hinter grund mache!
 
TheMaxx schrieb:
Sagt mal....mich würd mal interessieren, wie das bei euch so ist...
Habe nämlich gestern Abend mal getestet, wie das Multithreading mit dem DualCore so ist. Also einmal ne DVD genommen und diese begonnen zu schrumpfen, dabei natürlich die Priorität auf normal gelassen. Anschliessend angefangen ein wenig zu Zocken. Ich konnte nicht mal ansatzweise flüssig spielen. Dann hab ich eben mal dem Game seinen eigenen Core zugeordnet, dem Prog auf den andren Core gelegt....dann wieder gezockt. Es lief kein Stück flüssiger und nach ca 3min hatte ich sogar einen Bluescreen. Leider wurde zu schnell rebootet und ich konnt nicht lesen, was genau da stand. Die Kiste läuft aber auf 2.7Ghz dualprimestabil! Temps sind absolut in Ordnung, Wandler bleiben auch stets unter 50°.
Im Grunde war ja genau das der Grund, weshalb ich nen DualCore geholt hab....?! Kann es vielleicht sein, dass der 81.84 einfach zu sehr die beiden Kerne beansprucht? Andererseits, taktet RMClock nicht einmal mehr hoch, wenn ich auf auto stelle und anfange zu zocken. 2x1200Mhz reizen meine Graka im Grunde schon gut aus. Nur wieso reichen dann nichtmal duale 2700Mhz?
Ich vermute, Dein Tool zickt rum und taktet nicht sauber hoch. Du hast kein SLI, also nutzt Dir der multithreaded Treiber auch nicht viel bis gar nichts. Und mit 1200 MHz würde bei mir auch jedes Game laggen. Teste das gleiche Scenario mal ohne CnQ - wenn's dann sauber funzt (und das sollte es bei 2x 2.7 GHz), nutze besser das CnQ im Bios ohne das Tool. Notfalls halt bissel mehr "Prozentspannung" als nötig, wenn's nicht anders geht.

Außerdem im Taskmanager die Prioritäten sauber zuordnen. Wenn Du einen stark multithreaded Encoder auf "Normal" hast und ein Game ja auch auf "Normal" läuft, dann könnte es natürlich laggen, das ist klar. Deshalb den Encoder besser auf niedrig oder ganz niedrig setzen.

Ich kann z.B. von DivX (ist nur "etwas" multithreaded, schafft also bloß 60-70% Gesamt-CPU-Auslastung) zwei Instanzen starten, noch zweimal Prime95 parallel mitlaufen lassen und dann noch absolut flüssig zocken ohne jeglichen Geschwindigkeitsverlust. Man muß nur drauf achten, daß das Game höhere Priorität als die anderen Appz haben.


@ steffel
Der 81.85 ist wirklich nur Bug-Fixing. Bei meinen Games ändert er jedenfalls nix.
 
Zuletzt bearbeitet:
xxmartin schrieb:
Du hast kein SLI, also nutzt Dir der multithreaded Treiber auch nicht viel bis gar nichts.

stimmt nicht, das ist ein mythos der nur in hardwareluxx existiert.
gewisse vertex berechnungen werden von der CPU gemacht um die GPU zu entlassten, dies wird vom treiber ge-managed.
der DC treiber kann auf beide cores verteilen und damit die lastverteilung besser organisieren. es ist eh noch im betastadium...

in 3dcenter habe ich mich darüber mit den freaks unterhalten (Demirug, Aths (programmierer vom atuner)usw...

damit will sagen das es keinen SLI vorteil gibt

von nvidia gibt es kein statement, nicht mal innoffiziel, das es einen vorteil gibt. es ist nur zu ihrem vorteil wenn
leute sich daran hochschaukeln und umsonst werbung machen.
 
Zuletzt bearbeitet:
cl55amg schrieb:
stimmt nicht, das ist ein mythos der nur in hardwareluxx existiert.
gewisse vertex berechnungen werden von der CPU gemacht um die GPU zu entlassten, dies wird vom treiber ge-managed.
der DC treiber kann auf beide cores verteilen und damit die lastverteilung besser organisieren. es ist eh noch im betastadium...

in 3dcenter habe ich mich darüber mit den freaks unterhalten (Demirug, Aths (programmierer vom atuner)usw...

damit will sagen das es keinen SLI vorteil gibt

von nvidia gibt es kein statement, nicht mal innoffiziel, das es einen vorteil gibt. es ist nur zu ihrem vorteil wenn
leute sich daran hochschaukeln und umsonst werbung machen.
Das wäre natürlich umso besser. Habe allerdings im Moment nicht die Muße mal mit einer einzelnen Karte den 78.01 vs. den 81.84 zu benchen. Bei Gelgenheit werd ich's aber selbst testen.

Wie dem auch sei: selbst wenn der Treiber auch für ihn mit 'ner 6600GT einen DualCore Effekt hat, werden 1200 MHz trotzdem nicht für flüssiges Gamen reichen. :)
 
xxmartin schrieb:
Das wäre natürlich umso besser. Habe allerdings im Moment nicht die Muße mal mit einer einzelnen Karte den 78.01 vs. den 81.84 zu benchen. Bei Gelgenheit werd ich's aber selbst testen.

Wie dem auch sei: selbst wenn der Treiber auch für ihn mit 'ner 6600GT einen DualCore Effekt hat, werden 1200 MHz trotzdem nicht für flüssiges Gamen reichen. :)

du müsstest mit einem single core und beiden treiber versionen testen. der neue treiber herbergt ja auch deutliche perf. verbesserungen für SLI user. manche haben das mit der DC fähigkeit verwechselt. bei tests von einigen russischen hardware seiten wurde das quasi bestätigt. also es gibt prozentual gesehen die selben vorteile für SLI und non SLI user...

bei der sli config gibt es mehr bilder als bei der single GPU config vom 78.03 zum 81.85.
prozentual gerechnet ist das aber ein ähnlicher linearer anstieg.
 
Zuletzt bearbeitet:
@xxmartin
Ich habe eigentlich nix anderes erwartet, als dass du das Rätsel löst.
Man kann in RMClock verschiedene Modi wählen "minimal" "maximal" und "automatisch", wo je nachdem Multi und Vcore angepasst werden. Ich habe es nun auf maximal gefixed, womit ständig 2.7Ghz anlagen. Die Vcore hab ich zunächst auf 1.52V angehoben...allerdings konnte ich sie auch ohne Probleme wieder auf 1.5V herabsetzen. Daran lag es also nicht. Das einzige was ich noch gemacht hab, ist die Prioritäten Verteilung, wobei ich eigentlich erwartete, dass der Scheduler dieses übernimmt. Setze ich das Game um eine Priorität höher, habe ich nachwievor Ruckeln und Abstürze...wenn ich aber den Coder um eine Priorität runtersetze, das Game gleichzeitig um eine rauf, dann laufen im Grunde beide Anwendungen völlig stabil und ohne merklichen Speedverlust.

PS: Meine Theorie bezüglich der neuen Nvidia Treiber habe ich dir ja schon erläutert.
Nachwievor bleibt meine passive Graka um bis zu 10° kühler, wenn ich die CPU auf volle 2x2.7Ghz takte. Bei 2x1200Mhz laufen Games genauso flüssig, nur mit dem Unterschied, dass die Graka anscheinend mehr arbeiten muss und folglich wärmer wird. Anscheinend wird doch einiges an Last auf den zweiten Core oder auf beide Cores verteilt. Anders kann ich mir das mit den Temps jedenfalls nicht erklären :)
 
Also bei 2,9Ghz machte er im DualPrime nach 4min einen Error bei Core1:heul:
2,85Ghz laufen jetzt schon über 10h stable@1,64Vcore(screeni)
was mir aufgefallen ist: PWM-Temp ist massiv angestiegen!

Edit: mit 1,61Vcore hatte er einen Error nach 2h...(bei Core1 natürlich^^)
 

Anhänge

  • Desktop_2_85Ghz_1_64V_10h16min.JPG
    Desktop_2_85Ghz_1_64V_10h16min.JPG
    190 KB · Aufrufe: 52
Zuletzt bearbeitet:
TheMaxx schrieb:
PS: Meine Theorie bezüglich der neuen Nvidia Treiber habe ich dir ja schon erläutert.
Nachwievor bleibt meine passive Graka um bis zu 10° kühler, wenn ich die CPU auf volle 2x2.7Ghz takte. Bei 2x1200Mhz laufen Games genauso flüssig, nur mit dem Unterschied, dass die Graka anscheinend mehr arbeiten muss und folglich wärmer wird. Anscheinend wird doch einiges an Last auf den zweiten Core oder auf beide Cores verteilt. Anders kann ich mir das mit den Temps jedenfalls nicht erklären :)
Ich nehme an, das hängt mit dem T&L der Grafikkarte zusammen. Soweit ich weiß, hat man davon erst überhaupt einen Nutzen, wenn die GPU eine bestimmte Taktschwelle relativ zur CPU überschreitet, denn unterhalb davon schafft die Karte die Geometrieberechnungen nicht schnell genug (die Daten werden ja nicht nur für die Grafik benötigt), so daß die CPU mehr (oder alles ?) davon doch selbst übernimmt. Bei 2x1200MHz (in dem Fall) kann die GraKa die CPU durch das T&L aber signifikant entlasten und erledigt deshalb zumindest in dem Segment mehr Arbeit. Oder lieg ich jetzt ganz falsch ?
 
Fallen Angel schrieb:
Also bei 2,9Ghz machte er im DualPrime nach 4min einen Error bei Core1:heul:
2,85Ghz laufen jetzt schon über 10h stable@1,64Vcore(screeni)
was mir aufgefallen ist: PWM-Temp ist massiv angestiegen!

Edit: mit 1,61Vcore hatte er einen Error nach 2h...(bei Core1 natürlich^^)
Sehr guter Core. Da kann man nix meckern. Damit bist Du nur 60 MHz schlechter als mein 0524 RPMW
http://mitglied.lycos.de/xxmartin99/A64_X2_4400_CCBWE0524RPMW/prime_2914@1.648.png

Verrätst Du uns jetzt wenigstens endlich auch mal das Stepping? :coolblue:

Martin
 
Ich hatte bis dato die Kürzel T&L noch nie gehört....falls das anderen auch so geht:
THG schrieb:
Transform & Lighting (T&L)

Bekannt wurde der Begriff T&L durch die Markteinführung des Geforce-Chips von Nvidia. Dahinter steckt die mögliche Verlagerung der Berechnungen von der CPU auf den Grafikchips. Bislang wurden Umrechnungen im 3D-Koordinatensystem (Transform) und Lichteffekte (Lighting) von der CPU berechnet. Erst der Rest der 3D-Befehle in der Pipeline macht dann der Grafikchip. Nutzt man T&L richtig, dann können 3D-Szenen eine weitaus höhere Komplexität, sprich Detailtreue besitzen, ohne dabei der CPU eine unnötige Rechenlast aufzubürden.

@Powersurge
Du meinst also, dass ab einem bestimmten Graka-CPU Takt Verhältnis die CPU wieder ein wenig T&L-Rechenarbeit übernimmt? Das würde sich ja mit meinen Messungen [LOL] decken. Inwiefern das aber nun der Realität entspricht kann ich jedoch nicht sagen, da es, wie gesagt, lediglich eine Theorie meinerseits, basierend auf meiner unterschiedlichen Graka-Temp bei unterschiedlichem CPU-Takt, ist.
 
TheMaxx schrieb:
@Powersurge
Du meinst also, dass ab einem bestimmten Graka-CPU Takt Verhältnis die CPU wieder ein wenig T&L-Rechenarbeit übernimmt?
Naja, etwas Geometrie muß die CPU immer machen, beispielsweise für die Physik, Kollisionsabfragen, KI-Entscheidungen, Map-Nachladen etc.; allerdings reichen dafür ihn vielen Fällen wohl grobe Positionsbestimmungen der einzelnen Objekte; der Rest der Zeit bleibt für den eigentlichen Spielablauf. Die Grafikkarte braucht's für die Darstellung allerdings natürlich sehr genau. Ich verstehe es so, daß wenn die Grafikkarte gegenüber der CPU hinreichend langsam ist, sie ihre akkuraten T&L-Berechnungen nicht schnell genug auf die Reihe kriegt, die CPU aber soweit erst mal fertig ist; da dann aber die Grafikkarte zu einer Bremse würde (falls man bei den heutigen Leistungen überhaupt noch von "Bremsen" reden kann), rechnet die CPU etwas genauere Geometriedaten, als sie selbst braucht (da dürften dann beispielsweise die SIMD-Befehlssätze wie SSEx für Matrixtransformationen und ähnliches zum Zuge kommen), die sie dann der GPU überläßt, die dadurch mit diesem Teil weniger Arbeit hat. Möglicherweise lohnt es sich also bei 2x2700MHz für Deine Grafikkarte gar nicht erst, sich groß mit T&L ins Zeug zu legen, weil die CPU das eh schneller auf die Reihe kriegt.
Ziemliches Satzgeschachtel - war das jetzt soweit verständlich und logisch ? :hmm:
 
Klingt logisch! Aber ob dem wirklich so ist?! Möglich wäre es natürlich, und ich möchte es in meinem Sinne auch hoffen, nur kann ich mir nicht vorstellen, dass Graka-Hersteller so eine Koordination zw GPU und CPU ermöglichen würden bzw ihre Treiber darauf proggen würden. Erstens wär das doch schlecht fürs Marketing, da dann Leute eher ihre CPU höher Takten, als grössere Graka zu kaufen...und zweitens hab ich noch nie was davon gehört. Trotzdem....wollen wir mal hoffen, dass dem so ist :d
 
TheMaxx schrieb:
Klingt logisch! Aber ob dem wirklich so ist?! Möglich wäre es natürlich, und ich möchte es in meinem Sinne auch hoffen, nur kann ich mir nicht vorstellen, dass Graka-Hersteller so eine Koordination zw GPU und CPU ermöglichen würden bzw ihre Treiber darauf proggen würden. Erstens wär das doch schlecht fürs Marketing, da dann Leute eher ihre CPU höher Takten, als grössere Graka zu kaufen...und zweitens hab ich noch nie was davon gehört. Trotzdem....wollen wir mal hoffen, dass dem so ist :d
Naja, falls meine Erklärung soweit stimmt, ist das ganze doch bei heutigen CPU-Leistungen ohnehin eher Nebensache - wer hat denn schon 'ne 7800er und 'nen 1200MHz-Prozessor ? Bei jeder "sinnvollen" Zusammenstellung dürfte dann die CPU viel zu schnell sein, als daß das T&L der GraKa wirklich zum Tragen kommen könnte; die soll ja auch vor allem für Texturen, Darstellungsqualität und hohe Auflösung sorgen. ;) Die Zeiten von 1GHz-CPUs mit GeForce 1 und 2 sind halt vorbei, als bei einer Grafikkarte die transformierten Dreiecke pro Sekunde wirklich 'nen Unterschied machten; jedenfalls hab ich sehr lange in keinem Test mehr Betrachtungen darüber gelesen (oder sind sie mir nur nicht aufgefallen ?). Der "Lighting"-Teil dürfte genaugenommen also durchaus 'ne große Rolle spielen (Shader halt), während das reine Transformieren von Objekten vermutlich für Grafikkarten derzeit eher nebensächlich ist. Wenn die jeweilige Software dann auch noch die Geometrie neben Dingen wie KI, Physik und allgemeinem Spielablauf als separaten Thread laufen läßt, kann ich mir gut vorstellen, daß bei 'ner flotten Dualcore-CPU die entsprechenden Pipelines der GPU fast komplett kalt bleiben.
 
mal ne kurze frage die nicht ganz zum thema passt :d

ich bin mir am überlegen auf 2gb ram umzusteigen, wie wirkt sich das ganze nun aus wenn man nun z.b. mit teiler fährt ram ~250mhz @high timings .. vs. 270-280mhz @high timings? btw. gegenüber 270-280mhz@low timings [1gb ..] ?

gibts es da vergleichsbenches, oder macht sich das gerade mal 1-3% messbar bemerkbar?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh