Offizieller AMD Phenom (K10) *Sammel- & Infothread* (3)

Status
Für weitere Antworten geschlossen.
Habe meinen 9850 bekommen. Pretestet war er auf 3Ghz
Der Headspreader war ziemlich krumm. Habe ihn plan geschliffen von 42 Idle auf 33 Idle.
Nach 1 H Prime 47 Grad für nen Quad mit 3,2Ghz ein super wert denke ich
3,2 Ghz mit 1.26 Volt lief er auf anhieb.
AM Ramkontroller scheint beim B3 auch was verbessert worden zu sein.
Mein OCZ läuft jetzt mit 2,0 Volt stabil bei 1066 5-5-5-15 vorher mit dem 9600 Black
brauchte er 2,25 Volt.
Man achte auf die IDLE Temp das schleifen hat wirklich was gebracht.
http://www.abload.de/image.php?img=985032ghzv9s.jpg


Gratulation, sehr sehr schönes Ergebnis, eine wahre Perle, wär cool wenn du ihn mal auf 1,4Vcore hochziehtst, vielleicht kommst du ja auch auf 3,4 - 3,5 , wäre sehr geil aufjedenfall. Will mal wissen was maximal geht
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Motkachler
Ist wirklich ein sehr feines Teil :wink:

Bei 3.200MHz 1.26V braucht wirklich keiner mehr meckern.
 
wenn bei 1024x768 eine cpu mehr fps bringt als eine andere, bringt sie auch bei hoherer cpu belastung mehr fps als die andere.

die cpu die unter niedriger belastung weniger fps bringt, bricht bei hoher belastung früher ein als die die bei niedriger mehr fps bringt.

ist eigentlich logisch, falls ich was falsch verstanden habe korrigiere mich bitte Mirko :)

mfg


Du hast mich sicher nicht ganz verstanden. Problem ist doch, dass bei so gut wie allen CPU Tests recht hohe Einstellungen verwendet werden. Für einen CPU Test nicht optimal wenn dort andere Sachen limitieren. Andere finden es praxisgerecht, was aber nur bedingt sinnvoll ist bei CPU Tests. Und von solchen Tests schließt du auf Intels Skalierung. Und jetzt hast du da bei deinen low res Test gerade mal vielleicht 5% mehr von 3 auf 4 Kernen. Kannst dir ja vorstellen was bei höheren settings da noch übrig bleibt. Der wichtige Punkt ist abschließend, dass deine Aussage, der Intel profitiere nicht von mehr als 2 Kernen, natürlich grober Unfug ist.
 
Zuletzt bearbeitet:
wenn bei 1024x768 eine cpu mehr fps bringt als eine andere, bringt sie auch bei hoherer cpu belastung mehr fps als die andere.

die cpu die unter niedriger belastung weniger fps bringt, bricht bei hoher belastung früher ein als die die bei niedriger mehr fps bringt.

ist eigentlich logisch, falls ich was falsch verstanden habe korrigiere mich bitte Mirko :)

mfg

ähm.. was genau willst du damit sagen?
wenn du unter "höherer belastung" eine höhere auflösung mit massig AA und AF meinst, muss ich dich enttäuschen. die belastung der cpu ist jedesmal die gleiche.
somit ist es möglich, dass bei einer auflösung >1600x1200 mit AA und AF eine "schwache" cpu genauso gut abschneidet wie eine "starke", da die min-fps hier stärker von der verwendeten gpu abhängen, als von der cpu.
 
3.200MHz bei 1.26V ,
das klingt schonmal gut
bin ma gespannt wieviel der laufen wird, den n freund ende der woche kriegen sollte
 
Erstmal danke dir, zum zweiten würde ich gern wissen wieviel 9850 du schon getestet hast und wieviel zugleich die 3.0Ghz Marke überschritten haben.

Bzw. ich sehe das viele hier das M3A32 MVP haben, ist dies zu empfehlen? Nen Kollege stellt sich grad nen AM2+ System zusammen und das Board fehlt noch. Zu meinem kann ich AM2+ mäßig noch nicht viel sagen da erst am Monatsende nen Phenom raufkommt.

lg
Chris
 
Zuletzt bearbeitet:
ähm.. was genau willst du damit sagen?
wenn du unter "höherer belastung" eine höhere auflösung mit massig AA und AF meinst, muss ich dich enttäuschen. die belastung der cpu ist jedesmal die gleiche.
somit ist es möglich, dass bei einer auflösung >1600x1200 mit AA und AF eine "schwache" cpu genauso gut abschneidet wie eine "starke", da die min-fps hier stärker von der verwendeten gpu abhängen, als von der cpu.

ist falsch

du gehst von einem spiel raus was grafik karten limmitiert ist

ich nenn dir mal eins was cpu limmitiert ist

C&C 3

um so höher die auflösung & AA & AF um so mehr daten muss die cpu verarbeiten. egal ob mit 7800GTX im SLI oder 8800GTX im SLI die fps bleibt gleich bei diesem spiel.

verwendet man allerdings statt einem C2D mit 2,66 ghz einen mit 3,4 ghz so hat man spürbar mehr fps
 
Erstmal danke dir, zum zweiten würde ich gern wissen wieviel 9850 du schon getestet hast und wieviel zugleich die 3.0Ghz Marke überschritten haben.

Bzw. ich sehe das viele hier das M3A32 MVP haben, ist dies zu empfehlen? Nen Kollege stellt sich grad nen AM2+ System zusammen und das Board fehlt noch. Zu meinem kann ich AM2+ mäßig noch nicht viel sagen da erst am Monatsende nen Phenom raufkommt.

lg
Chris

ca. 25 x 9850er und gute 13 gingen mit standart Vcore
der rest musste die Vcore angehoben werden und bei 3 stück bin ich zum teil weit unter 3,0 geblieben.

Das Asus ist nicht verkehrt aber auch recht zickig..gerade was Ram angeht(subtimmings)
Ansonsten sollte man noch auf ein bauteil achten aber das werde ich hier nicht mehr schreiben da es sonst wieder sinnlose diskussionen gibt.
Gruß Marineflieger
 
Dann schreibs mir per PM ;)

Aber wenn ich das richtig verstehe gehen sagen wir mal 85% deiner getesten 9850 auf 3.0ghz und mehr, das hört sich doch gut an, ich gebs weiter.

Auf was läuft deiner in der Sig?

Er hat keine AM2 CPU für nen Bios Update, oder läuft der 9850 auch aufm früheren Bios des M3A32 MVP

lg
Chris
 
Zuletzt bearbeitet:
ca. 25 x 9850er und gute 13 gingen mit standart Vcore
der rest musste die Vcore angehoben werden und bei 3 stück bin ich zum teil weit unter 3,0 geblieben.

Das Asus ist nicht verkehrt aber auch recht zickig..gerade was Ram angeht(subtimmings)
Ansonsten sollte man noch auf ein bauteil achten aber das werde ich hier nicht mehr schreiben da es sonst wieder sinnlose diskussionen gibt.
Gruß Marineflieger

25 Stück von den 9850-ern?!?! Meine Güte, da hat einer Kohle - oder gute Connections... ;)
 
ist falsch

du gehst von einem spiel raus was grafik karten limmitiert ist

ich nenn dir mal eins was cpu limmitiert ist

C&C 3

um so höher die auflösung & AA & AF um so mehr daten muss die cpu verarbeiten. egal ob mit 7800GTX im SLI oder 8800GTX im SLI die fps bleibt gleich bei diesem spiel.

verwendet man allerdings statt einem C2D mit 2,66 ghz einen mit 3,4 ghz so hat man spürbar mehr fps

das ist ja das erste was ich höre.. seit wann ist die cpu für die grafik zuständig? aa und af werden einzig und allein von der gpu berechnet. die texturen, die von der cpu an die gpu geliefert werden bleiben immer gleich. auch wenn sich die auflösung ändert, bleiben diese texturen gleich. also bringt eine stärkere cpu bei hoher auflösung absolut garnichts.
c&c wird schneller weil mit einer schnelleren cpu mehr objekte in der gleichen zeit berechnet werden können, als mit einer langsameren. aber wer braucht bei c&c mehr als 25fps? muss man da schnell zielen können?
das die fps sich nicht ändern wenn du bei 1920x1200 von einer 7800 auf eine 8800 umsteigst kann ich dir nicht glauben. oder ist die grafik bei c&c3 wirklich so miserabel?
ist das etwa son spiel, bei dem alles kleiner wird, umso höher man die auflösung einstellt? lol
 
das ist ja das erste was ich höre.. seit wann ist die cpu für die grafik zuständig? aa und af werden einzig und allein von der gpu berechnet. die texturen, die von der cpu an die gpu geliefert werden bleiben immer gleich. auch wenn sich die auflösung ändert, bleiben diese texturen gleich. also bringt eine stärkere cpu bei hoher auflösung absolut garnichts.
c&c wird schneller weil mit einer schnelleren cpu mehr objekte in der gleichen zeit berechnet werden können, als mit einer langsameren. aber wer braucht bei c&c mehr als 25fps? muss man da schnell zielen können?
das die fps sich nicht ändern wenn du bei 1920x1200 von einer 7800 auf eine 8800 umsteigst kann ich dir nicht glauben. oder ist die grafik bei c&c3 wirklich so miserabel?
ist das etwa son spiel, bei dem alles kleiner wird, umso höher man die auflösung einstellt? lol

bei aa/af hast du recht, habe dass vergessen gehabt

aber muss die cpu bei high details nicht mehr berechnen als bei low ? die ladezeiten werden ja auch extrem länger.

wenn man dann eine doppelt so starke cpu einsetzt werden die ladezeiten erheblich kürzer.

zu deiner frage wegen anforderungen bei dem spiel speziell.

ich ging ich nicht von 1920x1200 aus.

bei cnc 3 bringt eine 6800Ultra (800x600 no aa/af) auf high genau so viele fps wie eine 8800GTX
 
@ mad dias: geile sig :bigok: ;)

sorry for ot..
 
Dann schreibs mir per PM ;)

Aber wenn ich das richtig verstehe gehen sagen wir mal 85% deiner getesten 9850 auf 3.0ghz und mehr, das hört sich doch gut an, ich gebs weiter.

Auf was läuft deiner in der Sig?

Er hat keine AM2 CPU für nen Bios Update, oder läuft der 9850 auch aufm früheren Bios des M3A32 MVP

lg
Chris

Das M3A erkennt den Phenom automatisch,zumindest ab 801.
Ja, ca 85% wenn auch einige sehr mühsam.
Der in der sig ist einer von den nicht so tollen...

PM kommt...

@sonnyboy: Ich bin Rentner,schonmal gehört das ein Rentner geld hat???
 
@ mad dias: geile sig :bigok: ;)

sorry for ot..

danke... hab aber schon ne beschwerde msg bekommen, leider ohne angabe, was an der sig falsch ist...
ist vielleicht ein bisschen zu sexy ;)

sorry for being so OT
Hinzugefügter Post:
aber muss die cpu bei high details nicht mehr berechnen als bei low ? die ladezeiten werden ja auch extrem länger.

wenn man dann eine doppelt so starke cpu einsetzt werden die ladezeiten erheblich kürzer.

zu deiner frage wegen anforderungen bei dem spiel speziell.

ich ging ich nicht von 1920x1200 aus.

bei cnc 3 bringt eine 6800Ultra (800x600 no aa/af) auf high genau so viele fps wie eine 8800GTX

die ladezeit hat ja nichts damit zu tun wie schnell ein spiel im endeffekt läuft. in dieser zeit werden die daten ja nur in den speicher geladen und nicht wirklich bearbeitet. wählst du mehr details aus, werden auch mehr texturen geladen, ist ja einleuchtend. aber die meisten effekte laufen heutzutage über shader, die einzig und allein in der gpu bearbeitet werden, damit hat die cpu nichts am hut.
bei einer auflösung von 800x600 ist so ziemlich jedes spiel cpu limitiert, nicht nur c&c3. aber was bringt es dir zu wissen das deine cpu das spiel in so einer krüppel auflösung mit 200+ fps laufen lassen kann? da kannst du auch gleich superpi spielen.
 
Zuletzt bearbeitet:
Hat jemand mit nem Phenom mal zufällig ein Leistungsmessgerät zu Hause und kann mal bitte messen was der PC (ohne Monitor) unter CPU Full-Load (kein 3D) so verbraucht? Am besten so bei 3 - 3,2Ghz. B2 oder B3 ist eigentlich egal, besser wäre aber mal der Wert für den 9850. ;)

Würde mich mal interessieren.
 
Das mir den min Frames hängt sehr stark an der cpu!
Es geht dabei auch in Shootern um zb. enorme Physikeffekte!
 
@nighteye:

Gerade C&C3(meinst doch das Tibirium Wars oder?) hat doch einen internen PFS-Limiter auf 30FPS,glaube ich. Dann ist klar,wieso du mit der 6800er bei 800x600 die gleichen FPS-Zahlen hast.Und gerade bei dem Game sieht die grafik nicht so schlecht aus und fordern bei einer höheren Einheitenzahl->mehr Effekte in der Schlacht auch stark die GPU.Hab das Game mit vielen verschiedenen Karten getestet.Erst bei extremst großen Schlachten kommt die CPU an die Grenzen,aber vorher schon deine Grafikarte bei "handelsüblichen" Einstellungen. Ich nutze für CPU-Tests um die Rohgeschwindigkeit eines Kerns auszutesten das alte bewährte quake3 mit dem timedemo-Benchmark.Das ist komplett unabhängig von der Grafikkarte,da uraltgrafik, und reagiert sehr gut auf CPU und Speicherleistung.
 
Mich reizt der Phenom 9850 BE, denn ich könnte ihn im PC Laden gleich mitnehmen. Dennoch hab ich noch paar Fragen:

Wie stark ist der Leistungsverlust vom E8500 @ 4.2GHz auf den Phenom 9850?
Komme ich mit sehr guter Luftkühlung auf 3GHz?
Welches Board harmoniert am besten mit den Phenoms?
Ist da was dran das Spiele flüssiger laufen (weniger Einbrüche) mit dem Phenom, obwohl er weniger FPS zaubern kann im Vergleich zu den Intels?

Vielen Dank im Voraus! ;)
 
Zuletzt bearbeitet:
@nighteye:

Gerade C&C3(meinst doch das Tibirium Wars oder?) hat doch einen internen PFS-Limiter auf 30FPS,glaube ich. Dann ist klar,wieso du mit der 6800er bei 800x600 die gleichen FPS-Zahlen hast.Und gerade bei dem Game sieht die grafik nicht so schlecht aus und fordern bei einer höheren Einheitenzahl->mehr Effekte in der Schlacht auch stark die GPU.Hab das Game mit vielen verschiedenen Karten getestet.Erst bei extremst großen Schlachten kommt die CPU an die Grenzen,aber vorher schon deine Grafikarte bei "handelsüblichen" Einstellungen. Ich nutze für CPU-Tests um die Rohgeschwindigkeit eines Kerns auszutesten das alte bewährte quake3 mit dem timedemo-Benchmark.Das ist komplett unabhängig von der Grafikkarte,da uraltgrafik, und reagiert sehr gut auf CPU und Speicherleistung.

ja, hier kannst du sehen wie cpu beschnitten dass game ist.

eine 7800GTX reicht schon für high details aber ein c2D auf 3 ghz ist zu schwach
ein 3,6 ghz C2D ist erst stark genug um 30 fps aufrecht zu erhalten

egal ob da eine 7800GTX oder 2 x 9800GTX im SLI werken

alles auf extreme schlachten bezogen.

http://www.3dcenter.org/artikel/2007/06-30_a.php
 
Mich reizt der Phenom 9850 BE, denn ich könnte ihn im PC Laden gleich mitnehmen. Dennoch hab ich noch paar Fragen:

Wie stark ist der Leistungsverlust vom E8500 @ 4.2GHz auf den Phenom 9850?
Komme ich mit sehr guter Luftkühlung auf 3GHz?
Welches Board harmoniert am besten mit den Phenoms?
Ist da was dran das Spiele flüssiger laufen (weniger Einbrüche) mit dem Phenom, obwohl er weniger FPS zaubern kann im Vergleich zu den Intels?

Vielen Dank im Voraus! ;)

Marieneflieger kommt mit dem boxed kühler auf 3,1 ghz auch wenn er etwas warm wird....

leistungsverlust ist schwer zu sagen weil 45nm und 65nm und quad und dualcore...

ja minnimum FPS sollen höher sein als bei intel cpus...

Main board siehe signatur. damit kannst du nix falsch machen... und P/L ist auf jedenfall gut
 
Der 3DCenter Vergleich ist ein bisschen daneben find ich, die vergleichen einen 2GHz K8 mit einem 2,13GHz Core2. Da ist der Leistungsunterschied kein Wunder. Wenn man einen E oder Q6600er mit einem 6000+ oder einem Phenom mit 2,5GHz vergleichen würde, käm da sicherlich fast Gleichstand bei raus. Das Game ist nur wenig MT-Optimiert soweit ich weiss. Die Benches zeigen das auch, bei 2-Kernen ist da sicherlich schon schluss mit der Skalierung. 2 Kerne bringen bis zu 30%, 3 oder 4 werden da nochmal 5 bringen.
Bei 3DCenter zeigt der Bench auf jeden Fall die üblichen 600MHz Vorsprung des Core2.
 
Zuletzt bearbeitet:
ja, hier kannst du sehen wie cpu beschnitten dass game ist.

eine 7800GTX reicht schon für high details aber ein c2D auf 3 ghz ist zu schwach
ein 3,6 ghz C2D ist erst stark genug um 30 fps aufrecht zu erhalten

egal ob da eine 7800GTX oder 2 x 9800GTX im SLI werken

alles auf extreme schlachten bezogen.

http://www.3dcenter.org/artikel/2007/06-30_a.php



also ich habe nie ne messung gemacht aber ich habe auf jedenfall ne leistungssteigerung wenn ich meine notebook cpu von 1,8 ghz dualcore auf 2,4ghz takte kanns ja mal testen... graka ist nen HD2600XT
 
Der 3DCenter Vergleich ist ein bisschen daneben find ich, die vergleichen einen 2GHz K8 mit einem 2,13GHz Core2. Da ist der Leistungsunterschied kein Wunder. Wenn man einen E oder Q6600er mit einem 6000+ oder einem Phenom mit 2,5GHz vergleichen würde, käm da sicherlich fast Gleichstand bei raus.


Das ist doch kein CPU Test in dem Sinne, soll zeigen wie das Spiel läuft. Ein Phenom gabs da auch noch nicht, oder fühlste dich als AMDler wieder benachteiligt?
 
Hi,

mal ne frage, will mir auch den 9850be holen und ocn. Welches board und welchen ram empfehlt ihr mir? Dachte da so an 2gb ram.
 
Wegen dem Test... wer spielt denn bei 800x600

Und da wo die Grafikkarten bertauscht wurden, zeigt sich der Test ohne AA undf AF... Logo ist der Unterschied minimal.

Und die anderen Tests sind mit nem AMD 3800 Single Core @ 2400


Und logo macht die Grafikkarte am Meisten aus...

http://www.3dcenter.org/artikel/2007/06-30_e.php

Es ist auch klar, dass ein C2D @ Original, ggü. einem @3200 Mhz einen Leistungsunterschieed bringt. Wie es in jedem Game der Fall ist. (blau und schwarz)

Und wegen der Grafikkarte sieht man den Unterschied ganz genau.

Wenn man die Tests genau nachliest, sieht man, dass da genauso die Grafikkarten gefordert sind. Wie in jedem anderen Game auch.

Auch bei einem Shooter mit Bots spielt die CPU eine Rolle... das sollte doch klar sein.

Aber nichtsdestrotrotz ist die Grafikkarte der springende Punkt.

Das sieht man ja an den neueren Games mit den neuen Engines... Da sind extreme Unterschiede... je nachdem, welche Grafikkarte drauf ist.


Nochmals der gleiche Link... da sieht man ganz klar, dass die Grafikkarte und die Qualitätseinstellung am meisten ausmachen.

Es sollte einleuchten, dass ein Prozzi, (C2D), der um ~60% übertaktet ist, auch die bessere Leistung bringt.

Andererseits ist's auch einleuchtend,das ein DC unterstützendes Game auf einem 3800+ SC @ 2400 Mhz nicht so gut läuft.

PS: Wo bitte ist denn da eine 9800GTX im Sli im diesem Test.

Dieser Test sagt nichts weiter aus, als dass in gewissen Bereichen die 7950GT und die X1900XT ziemlich nahe beieinander sind. Aber bei einigen auch nicht.

Also hier nochmals für alle Zweifler...

Eine 7950GX2 und ne 8800GTS http://www.xbitlabs.com/articles/video/display/msi8800gts-640_18.html#sect1 Die Grafikkarte macht sicher mehr aus... Als dass eine heutige Durchschnittsgamer-CPU da noch was ausmachen würde, wenn ne neue Grafikkarte im Spiel ist

Im Test wurde ein FX 60 verwendet und die meisten Gamer haben mindestens einen übertakteten AMD DC drin.

Wenn nicht, haben sie vielfach auch nicht ne 8800-er Grafikkarte drin.


Und hier sieht man nochmals... http://www.gamespot.com/features/6168067/p-6.html

Dafür wurden jetzt halt wirklich hohe Auflösungen getestet. Aber nur 2xAA und auch da sieht man ganz klar den Einfluss der GPU. Bei noch mehr AA wird's noch gravierender ausfallen.

Und hier sieht man CPU und Memory... Doch nicht so tragisch, wie hier erst gesagt wurde...

http://www.gamespot.com/features/6168067/p-7.html

Also ob AMD @ 2600 oder C2D 6800 spielt keine Rolle... Und zwar auf höchsten Einstellungen.

Basta...

Also lieber ne 8800 GTX und ein kleinerer Prozzi, als ein 600.- Prozzi mit ner kleineren Karte.

Die GTX kostet ja noch 189 Euro.. (in der Schweiz)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh