Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Tahigwa schrieb:Kennt ihr ausser Overclockers.de noch Shops wo man pretested AMD Dualcores kaufen kann?
Ich würde gerne bestellen, aber finde nichts passendes. Bei Singlecore wäre es einfacher.
Tahigwa
TurricanM3 schrieb:Also wenn ich das alles hier so lese, kann ich immer noch nicht verstehen, wieso ich so ein verdammtes Pech mit meinem 4400er gehabt habe?!?
Zur Erinngung: Für 2600MHz brauche ich 1.71V
Ich kriege die Tage noch zwei 4800+, mal sehen ob da was gutes bei ist.
TheMaxx schrieb:Sagt mal....mich würd mal interessieren, wie das bei euch so ist...
Habe nämlich gestern Abend mal getestet, wie das Multithreading mit dem DualCore so ist. Also einmal ne DVD genommen und diese begonnen zu schrumpfen, dabei natürlich die Priorität auf normal gelassen. Anschliessend angefangen ein wenig zu Zocken. Ich konnte nicht mal ansatzweise flüssig spielen. Dann hab ich eben mal dem Game seinen eigenen Core zugeordnet, dem Prog auf den andren Core gelegt....dann wieder gezockt. Es lief kein Stück flüssiger und nach ca 3min hatte ich sogar einen Bluescreen. Leider wurde zu schnell rebootet und ich konnt nicht lesen, was genau da stand. Die Kiste läuft aber auf 2.7Ghz dualprimestabil! Temps sind absolut in Ordnung, Wandler bleiben auch stets unter 50°.
Im Grunde war ja genau das der Grund, weshalb ich nen DualCore geholt hab....?! Kann es vielleicht sein, dass der 81.84 einfach zu sehr die beiden Kerne beansprucht? Andererseits, taktet RMClock nicht einmal mehr hoch, wenn ich auf auto stelle und anfange zu zocken. 2x1200Mhz reizen meine Graka im Grunde schon gut aus. Nur wieso reichen dann nichtmal duale 2700Mhz?
Ich vermute, Dein Tool zickt rum und taktet nicht sauber hoch. Du hast kein SLI, also nutzt Dir der multithreaded Treiber auch nicht viel bis gar nichts. Und mit 1200 MHz würde bei mir auch jedes Game laggen. Teste das gleiche Scenario mal ohne CnQ - wenn's dann sauber funzt (und das sollte es bei 2x 2.7 GHz), nutze besser das CnQ im Bios ohne das Tool. Notfalls halt bissel mehr "Prozentspannung" als nötig, wenn's nicht anders geht.TheMaxx schrieb:Sagt mal....mich würd mal interessieren, wie das bei euch so ist...
Habe nämlich gestern Abend mal getestet, wie das Multithreading mit dem DualCore so ist. Also einmal ne DVD genommen und diese begonnen zu schrumpfen, dabei natürlich die Priorität auf normal gelassen. Anschliessend angefangen ein wenig zu Zocken. Ich konnte nicht mal ansatzweise flüssig spielen. Dann hab ich eben mal dem Game seinen eigenen Core zugeordnet, dem Prog auf den andren Core gelegt....dann wieder gezockt. Es lief kein Stück flüssiger und nach ca 3min hatte ich sogar einen Bluescreen. Leider wurde zu schnell rebootet und ich konnt nicht lesen, was genau da stand. Die Kiste läuft aber auf 2.7Ghz dualprimestabil! Temps sind absolut in Ordnung, Wandler bleiben auch stets unter 50°.
Im Grunde war ja genau das der Grund, weshalb ich nen DualCore geholt hab....?! Kann es vielleicht sein, dass der 81.84 einfach zu sehr die beiden Kerne beansprucht? Andererseits, taktet RMClock nicht einmal mehr hoch, wenn ich auf auto stelle und anfange zu zocken. 2x1200Mhz reizen meine Graka im Grunde schon gut aus. Nur wieso reichen dann nichtmal duale 2700Mhz?
xxmartin schrieb:Du hast kein SLI, also nutzt Dir der multithreaded Treiber auch nicht viel bis gar nichts.
Das wäre natürlich umso besser. Habe allerdings im Moment nicht die Muße mal mit einer einzelnen Karte den 78.01 vs. den 81.84 zu benchen. Bei Gelgenheit werd ich's aber selbst testen.cl55amg schrieb:stimmt nicht, das ist ein mythos der nur in hardwareluxx existiert.
gewisse vertex berechnungen werden von der CPU gemacht um die GPU zu entlassten, dies wird vom treiber ge-managed.
der DC treiber kann auf beide cores verteilen und damit die lastverteilung besser organisieren. es ist eh noch im betastadium...
in 3dcenter habe ich mich darüber mit den freaks unterhalten (Demirug, Aths (programmierer vom atuner)usw...
damit will sagen das es keinen SLI vorteil gibt
von nvidia gibt es kein statement, nicht mal innoffiziel, das es einen vorteil gibt. es ist nur zu ihrem vorteil wenn
leute sich daran hochschaukeln und umsonst werbung machen.
xxmartin schrieb:Das wäre natürlich umso besser. Habe allerdings im Moment nicht die Muße mal mit einer einzelnen Karte den 78.01 vs. den 81.84 zu benchen. Bei Gelgenheit werd ich's aber selbst testen.
Wie dem auch sei: selbst wenn der Treiber auch für ihn mit 'ner 6600GT einen DualCore Effekt hat, werden 1200 MHz trotzdem nicht für flüssiges Gamen reichen.
Ich nehme an, das hängt mit dem T&L der Grafikkarte zusammen. Soweit ich weiß, hat man davon erst überhaupt einen Nutzen, wenn die GPU eine bestimmte Taktschwelle relativ zur CPU überschreitet, denn unterhalb davon schafft die Karte die Geometrieberechnungen nicht schnell genug (die Daten werden ja nicht nur für die Grafik benötigt), so daß die CPU mehr (oder alles ?) davon doch selbst übernimmt. Bei 2x1200MHz (in dem Fall) kann die GraKa die CPU durch das T&L aber signifikant entlasten und erledigt deshalb zumindest in dem Segment mehr Arbeit. Oder lieg ich jetzt ganz falsch ?TheMaxx schrieb:PS: Meine Theorie bezüglich der neuen Nvidia Treiber habe ich dir ja schon erläutert.
Nachwievor bleibt meine passive Graka um bis zu 10° kühler, wenn ich die CPU auf volle 2x2.7Ghz takte. Bei 2x1200Mhz laufen Games genauso flüssig, nur mit dem Unterschied, dass die Graka anscheinend mehr arbeiten muss und folglich wärmer wird. Anscheinend wird doch einiges an Last auf den zweiten Core oder auf beide Cores verteilt. Anders kann ich mir das mit den Temps jedenfalls nicht erklären
Sehr guter Core. Da kann man nix meckern. Damit bist Du nur 60 MHz schlechter als mein 0524 RPMWFallen Angel schrieb:Also bei 2,9Ghz machte er im DualPrime nach 4min einen Error bei Core1
2,85Ghz laufen jetzt schon über 10h stable@1,64Vcore(screeni)
was mir aufgefallen ist: PWM-Temp ist massiv angestiegen!
Edit: mit 1,61Vcore hatte er einen Error nach 2h...(bei Core1 natürlich^^)
THG schrieb:Transform & Lighting (T&L)
Bekannt wurde der Begriff T&L durch die Markteinführung des Geforce-Chips von Nvidia. Dahinter steckt die mögliche Verlagerung der Berechnungen von der CPU auf den Grafikchips. Bislang wurden Umrechnungen im 3D-Koordinatensystem (Transform) und Lichteffekte (Lighting) von der CPU berechnet. Erst der Rest der 3D-Befehle in der Pipeline macht dann der Grafikchip. Nutzt man T&L richtig, dann können 3D-Szenen eine weitaus höhere Komplexität, sprich Detailtreue besitzen, ohne dabei der CPU eine unnötige Rechenlast aufzubürden.
Naja, etwas Geometrie muß die CPU immer machen, beispielsweise für die Physik, Kollisionsabfragen, KI-Entscheidungen, Map-Nachladen etc.; allerdings reichen dafür ihn vielen Fällen wohl grobe Positionsbestimmungen der einzelnen Objekte; der Rest der Zeit bleibt für den eigentlichen Spielablauf. Die Grafikkarte braucht's für die Darstellung allerdings natürlich sehr genau. Ich verstehe es so, daß wenn die Grafikkarte gegenüber der CPU hinreichend langsam ist, sie ihre akkuraten T&L-Berechnungen nicht schnell genug auf die Reihe kriegt, die CPU aber soweit erst mal fertig ist; da dann aber die Grafikkarte zu einer Bremse würde (falls man bei den heutigen Leistungen überhaupt noch von "Bremsen" reden kann), rechnet die CPU etwas genauere Geometriedaten, als sie selbst braucht (da dürften dann beispielsweise die SIMD-Befehlssätze wie SSEx für Matrixtransformationen und ähnliches zum Zuge kommen), die sie dann der GPU überläßt, die dadurch mit diesem Teil weniger Arbeit hat. Möglicherweise lohnt es sich also bei 2x2700MHz für Deine Grafikkarte gar nicht erst, sich groß mit T&L ins Zeug zu legen, weil die CPU das eh schneller auf die Reihe kriegt.TheMaxx schrieb:@Powersurge
Du meinst also, dass ab einem bestimmten Graka-CPU Takt Verhältnis die CPU wieder ein wenig T&L-Rechenarbeit übernimmt?
Naja, falls meine Erklärung soweit stimmt, ist das ganze doch bei heutigen CPU-Leistungen ohnehin eher Nebensache - wer hat denn schon 'ne 7800er und 'nen 1200MHz-Prozessor ? Bei jeder "sinnvollen" Zusammenstellung dürfte dann die CPU viel zu schnell sein, als daß das T&L der GraKa wirklich zum Tragen kommen könnte; die soll ja auch vor allem für Texturen, Darstellungsqualität und hohe Auflösung sorgen. Die Zeiten von 1GHz-CPUs mit GeForce 1 und 2 sind halt vorbei, als bei einer Grafikkarte die transformierten Dreiecke pro Sekunde wirklich 'nen Unterschied machten; jedenfalls hab ich sehr lange in keinem Test mehr Betrachtungen darüber gelesen (oder sind sie mir nur nicht aufgefallen ?). Der "Lighting"-Teil dürfte genaugenommen also durchaus 'ne große Rolle spielen (Shader halt), während das reine Transformieren von Objekten vermutlich für Grafikkarten derzeit eher nebensächlich ist. Wenn die jeweilige Software dann auch noch die Geometrie neben Dingen wie KI, Physik und allgemeinem Spielablauf als separaten Thread laufen läßt, kann ich mir gut vorstellen, daß bei 'ner flotten Dualcore-CPU die entsprechenden Pipelines der GPU fast komplett kalt bleiben.TheMaxx schrieb:Klingt logisch! Aber ob dem wirklich so ist?! Möglich wäre es natürlich, und ich möchte es in meinem Sinne auch hoffen, nur kann ich mir nicht vorstellen, dass Graka-Hersteller so eine Koordination zw GPU und CPU ermöglichen würden bzw ihre Treiber darauf proggen würden. Erstens wär das doch schlecht fürs Marketing, da dann Leute eher ihre CPU höher Takten, als grössere Graka zu kaufen...und zweitens hab ich noch nie was davon gehört. Trotzdem....wollen wir mal hoffen, dass dem so ist