AMDs FX-8350 mit acht 4 GHz schnellen Kernen

Wieciele threads nutzt eigentlich anno2070?

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da keiner seine CPU am Kauftag schon wieder in den Müll schmeißt, sollten natürlich auch Spiele mit guter Multithreadingunterstützung mitgetestet werden, auch wenn deren Anteil im Moment noch gering ist.

Das wollte ich auch nciht verneienn, aber Tests die zu 75% aus Multithreading-Titeln, also mit mehr als vier Threads bestehen, wären nicht praxisnah - auch nicht nächstes Jahr. :)
 
Ich kaufe die CPU nach den eigenen Ansprüchen und Geldbeutel. AMDs CPUs sind für Spiele ausreichend, wenn auch nicht immer auf höchstem Niveau. Momentan nutzen die wenigsten Spiele mehr wie 4 Threads d.h. ein Bulldozer, Piledriver und Steamroller werden gar nicht oder bedingt besser Abschneiden wie ein Phenom II. Bei Spielen die gut mit der Threadanzahl skalieren, würden sie gut abschneiden. Wahrscheinlich können diese an einer Hand abgezählt werden.

Was den Verbrauch betrifft. Die meisten Messungen werden im IDLE oder unter EXTREMST LAST gemessen. Einige Messungen bei Spielen oder normalen Workloads würde dem Verbraucher ein besseres Bild zeichnen über den tatsächlichen Verbrauch.

Die AMDs CPUs kommen seit Jahren mit einer Stockspannung mit teils 1.4V. Hier kann händisch noch gut nachoptimiert werden. Die ein oder andere CPU würde in eine niedrigere TDP Klasse rutschen. Wenn AMD hier Richtung OEM Kunden arbeiten würde, könnte es auf Dauer vielleicht einbißchen das Image aufpolieren.
 
Zuletzt bearbeitet:
Das Problem bei Verbrauchs-Test ist, dass Idle und Volllast die einzigen einheitlich herstellbaren werte sind, oder gibt es ein Tool wo man die CPU zu einer bestimmten Prozentzahl auslasten kann? Nimmst du eine beliebige Produktiv-Anwenduung schwankt die CPU-Belastung ja schon wieder nach ihrer jeweiligen Leistungsfähigkeit.
 
Das Problem bei Verbrauchs-Test ist, dass Idle und Volllast die einzigen einheitlich herstellbaren werte sind, oder gibt es ein Tool wo man die CPU zu einer bestimmten Prozentzahl auslasten kann? Nimmst du eine beliebige Produktiv-Anwenduung schwankt die CPU-Belastung ja schon wieder nach ihrer jeweiligen Leistungsfähigkeit.

Dazu müsste man einen Testparcours erstellen und in einer Schleife über einen definierten Zeitraum (ca. 4 Stunden) laufen lassen (gescripted). Den Verbrauch Watt pro Stunde mit einem entsprechenden Messgerät messen und in Relation zum IDLE und LOAD Wert setzen, des selben Zeitraumes.

Du musst natürlich mehrere Systeme konfigurieren [Intel, AMD].

z.B. Testparcours enthalten:
PC-Spiel >> Anno Savegame | 45 Minuten
Internet >> Webbrowsing | 30 Minuten
Video >> Flashvideo | 30 Minuten
Fotobearbeitung >> Gimp | 15 Minuten
...

So ein Szenario macht natürlich viel Arbeit, spiegelt aber den real Verbrauch eines User und dessen System besser wieder, als nur IDLE und maximalen WORKLOAD durch ein Stresstool.
 
Zuletzt bearbeitet:
An deiner Beschreibung merkt man schon warum sich keiner die Mühe macht. :d
 
Nur weil es in einer Liste steht, stimmts noch lange nicht. Schau dir halt mal die Benchmarks dazu an :)
 
PCGH misst zB die Watt in x264 HD und stellt die Resultate daneben - so hat man absolute Lastwerte und kann zudem die Effizienz ausrechnen. Wobei zB Teillast (ein Kern) sich idR prozentual CPUs nicht sonderlich unterscheiden im Vergleich zu Volllast. Testet man bei Spielen, limitiert idR die Grafikkarte und verfälscht die Werte - bzw schnelle CPUs schneiden gar besser ab, weil sie ins CPU-Limit laufen und langsame nicht. Nett für einen Praxisvergleich, aber im Allgemeinen nicht sonderlich aussagekräftig.
 
Haha :d
Währe schon etwas mehr arbeit, aber dann hätte man wenigstens ein Halbwegs Praktikables Ergebnis, oder nicht ?
Außerdem, sicher, dass ANNO nur 3-4 Threads nutzt ?
Laut : Spiele mit Hexa-core (6-Kern) Unterstützung
Nutzt es 6 ^^
Naja es steht hier halt die Frage ob sich die Arbeit im Vergleich zum Ergebnis lohnt. im Moment klaffen die Lastaufnahmen ja extrem auseinander, der FX 8150 hat eine fast doppelt so hohe Differenz zwischen Idle und Vollast wie der 3770k, bei Teillasten wird es bei beiden CPUs weniger, aber wie sollte der FX da irgendwo deutlich aufholen, das ergebnis steht wohl in keinen Verhältnis zum Arbeitsaufwand, den man ja für jede CPU betreiben müsste, die sich im Test-Parcours befindet. :d

Unterstützen und auslasten sind ja auch zwei verschiedene Paare Schuhe. ;) BF3 profitiert nur im Multi-Player stärker von mehr Threads, im Singleplayer rennt das mit einem i3. Immer auf den Kontext achten. :)
 
kann wer mir sagen ob der 8350 mehr raus zu hollen ist beim OC, also so in Richtung 9 GHZ den und sonst gehe ich davon aus das der amd mal wieder in den andere benches gnadenlos untergehen wird.
 
Zuletzt bearbeitet:
Unter flüssigem Helium könnten 9 ghz vll ja fallen.
Ich denk langfristig wird AMD Taktraten >5ghz auf die Straße bringen, vll ist es bei Steamroller ja dann soweit.
 
PCGH misst zB die Watt in x264 HD und stellt die Resultate daneben - so hat man absolute Lastwerte und kann zudem die Effizienz ausrechnen. Wobei zB Teillast (ein Kern) sich idR prozentual CPUs nicht sonderlich unterscheiden im Vergleich zu Volllast. Testet man bei Spielen, limitiert idR die Grafikkarte und verfälscht die Werte - bzw schnelle CPUs schneiden gar besser ab, weil sie ins CPU-Limit laufen und langsame nicht. Nett für einen Praxisvergleich, aber im Allgemeinen nicht sonderlich aussagekräftig.

Effiziens pro Watt kann heruntergerechnet werden, auch auf mehrere Kerne aber nur in X264 HD.

Habe dies eher auf das Gesamtsystem (IDLE, LAST) bezogen. In jedem Rechner sollte die gleiche schlappe Grafikkarte verbaut sein. Ich finde so einen Test für einen genormten Verbrauch aussagekräftiger als nur Minimum und Maximum zu messen.
 
Vor allem weil die Bulldozer Architektur bei dieser Verrbauchsmessung stark benachteiligt.Vergeiche mal mit den Verbrauchswwerten von HT4u
 
kann wer mir sagen ob der 8350 mehr raus zu hollen ist beim OC, also so in Richtung 9 GHZ den und sonst gehe ich davon aus das der amd mal wieder in den andere benches gnadenlos untergehen wird.

9,457108991 Ghz und eine Dose Rindergulasch soll man da jeweils raus hollen können...
 
dochurt schrieb:
Hab ich, sieht genauso mies aus wie bei den anderen -

Nein, sieht es nicht, weil bei PCGH sämtliche FX Prozessoren ineffizienter dargestellt werden als die Phenom II Prozessoren im Vergleich zu HT4u, weil mit einer extrem Stromhungrigen Platform getestet wird und bei HT4u der Verbrauch der CPU selbst gemessen wird.
 
Nur weil es in einer Liste steht, stimmts noch lange nicht. Schau dir halt mal die Benchmarks dazu an :)

Ich meine, ich hätte mal gelesen, dass das an sog. Mastersthreads liegt. D.h. selbst wenn ein Spiel 24 Kerne unterstützt, gibt es einen Masterthread, der, wenn er an seine Grenzen stößt, die gesamte Spielleistung limitiert - auch wenn die restlichen 23 Kerne noch nicht ausgelastet sind.
 
Nein, sieht es nicht, weil bei PCGH sämtliche FX Prozessoren ineffizienter dargestellt werden als die Phenom II Prozessoren im Vergleich zu HT4u, weil mit einer extrem Stromhungrigen Platform getestet wird und bei HT4u der Verbrauch der CPU selbst gemessen wird.
Das ist falsch!

Denn PCGH verwendet ein sparsames MSI 970A-G45, HT4U dagegen ein Asus Crosshair 5 Formula. Bei PCGH sind die FX absolut wie in Relation als Plattform sparsamer als bei HT4U.
 
Bit-Tech hat den 8120 getestet und was die Prozessoren da übertaktet fressen ist nicht der Plattform anzukreiden, sondern einzig und allein dem Prozessor...
Selbst der 2500K verbraucht durchs OC doppelt so viel wie normal, obwohl es dort ganze 5Ghz sind und nicht wie oft "nur" 4,5Ghz.

AMD FX-8120 Power Consumption | bit-tech.net
 
Bit-Tech hat den 8120 getestet und was die Prozessoren da übertaktet fressen ist nicht der Plattform anzukreiden, sondern einzig und allein dem Prozessor...
Selbst der 2500K verbraucht durchs OC doppelt so viel wie normal, obwohl es dort ganze 5Ghz sind und nicht wie oft "nur" 4,5Ghz.

AMD FX-8120 Power Consumption | bit-tech.net

Fast 600 Watt. :fresse2: Was ich nicht ganz verstehe ist das FX-8150 und FX-8120 im Standardtakt gleich viel verbrauchen. Die Mhz-Taktunterschied sollte sich doch etwas bemerkbar machen, sollte man denken...
 
Wenn man als Grundlage nimmt das der 8120 ein 125TDP Modell ist, ist es nachvollziehbar, da er im Turbo nur die 4GHz machen muss, wenn er problemlos die 4,2 wie bei eine 8150
geschafft hätte, wäre es ja dann auch ein 8150 geworden - Was allerdings wirklich merkwürdig ist, das er schon am Limit löppt ....
 
Vielleicht hat sich da auch ein Fehler eingeschlichen, der OC-Verbrauchswert vom 990X kann nämlich nicht stimmen, der verbraucht fast 100W weniger, bei gleichem OC-Takt, gleicher Fertigungsgröße und selber Kernzahl.
 
Du solltest doch wissen das sich jede CPU anders verhält, außerdem wissen wir nicht welche Spannungen gebraucht werden usw...
Die Takte sehen mir eh nach "mal schaun wie hoch die CPU geht, egal mit welcher Spannung" aus :d
Normalerweise taktet man seine CPU eher so das Mehrtakt/Spannung in einem halbwegs annehmbaren Rahmen bleiben.

Der 990X dürfte grundsätzlich auch eine CPU von höherer Güte sein als der 920er, sieht man schon am erreichten Takt.
Gibt ja nen Grund warum Intel den 920 nicht als 990X verkauft hat.
 
Das ist mir schon klar und du hast da auch recht, ich finde ja nur, dass der 990X in Relation zu 3930k und 3960x sehr wenig verbraucht. Wollte damit auch nicht die Aussagekraft des ganzen in Zweifel ziehen, das fiel mir nur ins Auge. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh