[User-Review] Q9450 vs: Phenom 9850

Kann man doch noch garnicht sagen/wissen, der Nehalem hat only DDR3 was AMD mit DDR3 anstellen tut(und 45nm) wird sich zeigen aber ich denk das wird schon abartig viel Leistung bringen.
Schon jetzt der Sprung von 800 auf 1066 merkt man deutlich in Games oder Benches (bei AMD), bei Intel bekommt man nicht 1 FPS mehr nur Everest wird bissel besser was aber nen guter DDR2 auch schafft.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann man doch noch garnicht sagen/wissen, der Nehalem hat only DDR3 was AMD mit DDR3 anstellen tut(und 45nm) wird sich zeigen aber ich denk das wird schon abartig viel Leistung bringen.
Schon jetzt der Sprung von 800 auf 1066 merkt man deutlich in Games oder Benches (bei AMD), bei Intel bekommt man nicht 1 FPS mehr nur Everest wird bissel besser was aber nen guter DDR2 auch schafft.

Wie schon erwähnt bekommt der Nehalem auch einen intergierten Speichercontroller der den Speicher dann ebenso gut nutzen kann wie der Phenom, zumindest in der Theorie.
 
jo also immer mit der ruhe, was irgendwann mal kommt hat ja hier nix zu suchen nur was heute am Start ist darum gehts hier :)
 
jo also immer mit der ruhe, was irgendwann mal kommt hat ja hier nix zu suchen nur was heute am Start ist darum gehts hier :)

Schon klar, war nur ein kleiner Drift in die Zukunft. Die Gegenwart zeigt im Moment keinen eindeutigen Sieger hinsichtlich Performance bei gleichen Takt und einen Phenom der bei Floating Point Vorteile hat sowie einen Core 2 Quad der bei Integer Oparationen die Nase vorne hat. Außerdem hat der Phenom durch den Nachteil des größeren Fertigungsprozesses bedingt eine höhere Leistungsaufnahme->aufwendigere Kühlung-> unter Umständen höhere Geräuschkulisse. Im Endeffekt muß das jeder selbst abwägen ob nun AMD oder Intel, eindeutig besser ist keiner. Wenn der Phenom unter Last nicht knappe 60W (laut CB) mehr ziehen würde als ein Q9450 hätte ich auf den Phenom gesetzt.
 
wobei man sagen muss, hat AMD selber geschrieben das man dem Temperaturen nicht trauen darf und sie fehlerhaft ausgelesen werden (wie beim Wolfdale/Yorkfield auch).
Abgeblich habt man 60° mit dem Phenom oder Intel dabei ist der Boxed Kühler nichtmal Handwarm.
Was die Stromaufnahme angeht hast du natürlich recht, aber hier stehen sich auch 65nm vs: 45 nm gegenüber das der 45 nm CPus weniger verbrauchen ist völlig klar, stellt man einen Q6600 gegen den Phenom sieht das Bild schon wieder anders aus (was auch fair ist).
Mir ist es egal was die CPUs unter Load verbrauchen, IDLE ist mir wichtig und mit C&Q brauch sich der AMD nicht zu verstecken vor dem 45nm Intels.

Ich sehe du hast ein P5E (hatte ich auch) und ist das sparsamste X38 Mobo was es geben tut, bau dir mal eine Maximus Formula oder Gigabyte X38 DQ6 rein das ist gleich ne ganze Ecke höher.
Da sind wieder die AMD Mobos (ohne Onboard Grafik) besser, die Watt die der Chispatz brauch ist wirklich gut und da tut der X38 (ausser deins) alles schlagen was da ist an der Stromaufnahme.
 
Zuletzt bearbeitet:
Die Athlon X2 in 65nm-Fertigung (Brisbanes) hatten doch den Temperaturdioden-Bug, daß die ausgelesenen Temperaturen viel zu niedrig waren. Hat das AMD beim Phenom in den Griff bekommen? Mit was für einem Prog lest Ihr die Temps des Phenom aus? Mein Everest 4.20 zeigt mir nix an...
 
[...]
Schon jetzt der Sprung von 800 auf 1066 merkt man deutlich in Games oder Benches (bei AMD), bei Intel bekommt man nicht 1 FPS mehr
[...]

Ähm, bei welchen Spielen denn? Beim X2 hat sich da nämlich nichts geändert, wenn man mal von synthetischen Benches absieht. Da haben höchsten spiele von profitiert, die eher CPU- und nicht GPU-Lastig sind. Bei GPU-Lastigen spielen bringt es quasi nichts. Es müssen also CPU-Limitierende Settings vorhanden sein. (Zumindest beim X2. Denke aber nicht, dass sich das beim K10 so gravierend anders verhält.)

Das Problem der FSB-Limitation wird auch teils durch den größeren L2-Cache reduziert. Das ist der Grund, warum der L2 beim Intel im Vergleich zum AMD so groß ist. Da beim Nehalem der Speichercontroller in die CPU wandert, wird kein so großer L2 mehr benötigt und daher wird dieser dort dann verringert.
 
@AvenDexx
Stimmt!
Bin vom So. 939 X2 @ 2,8GHz auf AM2 @ 2,8 GHz gewecheslt und hab auch keinen Unterschied fest stellen können.
Und auf dem 939 lief der RAM auf 166 @ 233 ("asynchron"). Hab zwar 2GB Bandbreite mehr, welche ich beim Gamen nicht merke.

Der Phenom wird da sicher keine Ausnahme machen.

Da die Daten im RAM von irgendwo her kommen müssen, limitiert die Festplatte...
 
So, Material ist da, jetzt gehts gleich ans umbauen (Wakü ablassen igitt) und Vista neuinstallieren und dann sehen wir weiter.
Und wenn der Fred halbwegs gesittet bleibt werd ich auch gerne mit Tests helfen ;)
 
@ Flying

Es freut mich das alles angekommen ist! ;)

Mit Wakü bin ich echt mal gespannt wie weit du ihn bekommst. ;)

Und pass auf gelle! Die NB Frequenzy nicht über 2500MHz und den HT Takt besser auf 2000MHz lassen.

Lasst mal langsam das Stromverbrauch Thema!! Der Phenom ist da Klasse. Hab ja schon berichtet, der Phenom (4Kerne) verbraucht IDLE mit dem 790FX Chipsatz und C+Q so viel wie mein E8500 (2Kerne) mit X38 Board und EIST/C1E! Und idle ist wohl wichtiger finde ich als Lastverbrauch. Wer betreibt seien PC schon unter Dauerlast? Ich net. ;)
 
Zuletzt bearbeitet:
Eine schöne These die es zu beweisen gilt. Hätte der Phenom die bessere Architketur als der C2Q würde er vor allem bei Single Core Anwendungen gewinnen was er aber nicht wirklich macht. Der Nachteil des C2Q ist defintiv der limitierende Front Side Bus und genau das wird bei Multi Core Anwendungen zum Vorteil des Phenoms. Bei Video Encoding waren übrigens die alten Athlon64 schon besser als gleichgetaktete Core 2 Duo somit ist das nicht wirklich eine wirkliche Neuerung des Phenoms.

Dazu muss man aber wiedermal sagen: so einfach ist das leider nicht. Es kommt mittlerweile viel auf Optimierung an, verschiedenartiger Code performt auch verschiedenartig. Zudem kommt es darauf an, wie man Architektur definiert. Wenn die CPU pro Kern bei einigen älteren vor allem mit x87 Code kopilierten 32Bit Apps nicht so gut darsteht wie eine andere, heißt das aber noch lange nicht, dass sie generell langsamer ist. Softwaretechnisch stehen wir mitten in einem gewaltigen Umbruch, von ST und pseudo-MT zu massiv-MT, das zeigen ja Apps wie AC, und von 32Bit auf 64Bit, siehe Cinebench. Diese Faktoren könnten in Zukunft auch öfter zusammenkommen, dann könnte es sogar sehr finster für den jetzigen Core2 aussehen. Die Geschichte zeigt immer wieder, dass Architekturen, die mit aktuellem Code schnell waren, mit neuerem Code plötzlich doch nicht mehr so toll waren. Ein ziemlich krasses Beispiel dafür ist da z.B. der Vergleich Geforce7900GTX vs. Radeon x1900XT(X). Als die Karten erschienen, war die X1900 maximal gleichauf, heute ist die 7900 nichtmal mehr annähernd eine Konkurrenz... Da die Software auch bei CPUs immer mehr von Optimierungen abhängig ist, könnten sich solche Bilder auch bei CPUs ergeben.

Was ich ein wenig mit Sorge betrachte, ist, dass Intel das Frontend des Core2 beim Nehalem grösstenteils beibehält, da gibt es Flaschenhälse unter 64Bit. Zudem ist die Latenz des L3 beim Nehalem bei knapp unter 40 Cycles, bei AMD trotz niedrigerem iNB Takt knapp darüber. Ich glaube, dass die Zukunft recht ausgeglichen aussehen wird, aber wir werden sehen. Für den Markt wäre das am Besten so.
 
Zuletzt bearbeitet:
Dazu muss man aber wiedermal sagen: so einfach ist das leider nicht. Es kommt mittlerweile viel auf Optimierung an, verschiedenartiger Code performt auch verschiedenartig. Zudem kommt es darauf an, wie man Architektur definiert. Wenn die CPU pro Kern bei einigen älteren vor allem mit x87 Code kopilierten 32Bit Apps nicht so gut darsteht wie eine andere, heißt das aber noch lange nicht, dass sie generell langsamer ist. Softwaretechnisch stehen wir mitten in einem gewaltigen Umbruch, von ST und pseudo-MT zu massiv-MT, das zeigen ja Apps wie AC, und von 32Bit auf 64Bit, siehe Cinebench. Diese Faktoren könnten in Zukunft auch öfter zusammenkommen, dann könnte es sogar sehr finster für den jetzigen Core2 aussehen. Die Geschichte zeigt immer wieder, dass Architekturen, die mit aktuellem Code schnell waren, mit neuerem Code plötzlich doch nicht mehr so toll waren. Ein ziemlich krasses Beispiel dafür ist da z.B. der Vergleich Geforce7900GTX vs. Radeon x1900XT(X). Als die Karten erschienen, war die X1900 maximal gleichauf, heute ist die 7900 nichtmal mehr annähernd eine Konkurrenz... Da die Software auch bei CPUs immer mehr von Optimierungen abhängig ist, könnten sich solche Bilder auch bei CPUs ergeben.

Sicher weiß man nicht wie die CPUs dann mit neuer MT-optimierter Softwre laufen werden. Je nachdem wie gut die neuen SSE4 Befehle von Yorkfield und Phenom implementiert werden wird der eine oder andere einen Vorteil haben. Selbst bei Nero Recode ist der Vorsprung des Phenoms sehr gering um daraus Schlüße ziehen zu können für weitere MT-Anwendungen.
 
Das ist doch der 0809 GPAW wenn ich richtig aufgepasst habe! Tolles Ding! ;)
Ahhh zocker, und schön kühl mit deiner Jenseits-Wakü! :hail:
 
das kann man sagen ja:haha:

Es gibt ein problem mit 64 Bit OS, ab genau 2900 Mhz kommt die CPu nichtmehr in ein 64 Bit OS was mit AMD gerade bestätigt hat am Telefon dafür kommt bald nen CPU Treiber der bis jetzt nur für XP 32/64 Bit da ist und für Linux.
Ins XP kommt ich mit 3.5 Ghz ohne Probleme :fresse:

PS: 3.3 Ghz bei 1.34 V hab ich schonma.......
 
Zuletzt bearbeitet:
Du heißt Horst? :hmm:
 
Motkachler, hat dir Marineflieger schon gesagt das er ein neues Spielzeug hat ?
Bin gespannt was das Teil kann :teufel:
 
Jup warum?
Ja hat seinen selectet bekommen mal sehn was da Morgen kommt .
Wenn das Board ankommt HOFFENTLICH MACHT DIE POST KEINEN MIST sch... Streik.
 
Zuletzt bearbeitet:
War nur eine Feststellung. ;-) Weitermachen!
 
das kann man sagen ja:haha:

Es gibt ein problem mit 64 Bit OS, ab genau 2900 Mhz kommt die CPu nichtmehr in ein 64 Bit OS was mit AMD gerade bestätigt hat am Telefon dafür kommt bald nen CPU Treiber der bis jetzt nur für XP 32/64 Bit da ist und für Linux.
Ins XP kommt ich mit 3.5 Ghz ohne Probleme :fresse:

PS: 3.3 Ghz bei 1.34 V hab ich schonma.......

Ich bin aber ins Vista 64Bit gekommen mit 3.1GHz! Gilt das jetzt NUR für XP?
 
Ins Vista 32 Bit komm ich mit 3,2 Ghz genauso wie ins XP 32 Bit.
War der Bench unter 32 Bit.?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh