AMDs FX-8350 mit acht 4 GHz schnellen Kernen

Hi oese

piecke doch nicht immer in die wunde, mann hätte ich mir mal das sabba geholt, gernau das funzt mir dem 5x evo leider nicht, egal wie ich versuche den turbo zu takten geht er komplett auf standart takt runter :( und über 4200 kann ich turbo auch nicht einstellen)
auch mit overdrive funzt das nicht scheint wohl am board zu liegen :( im sommermode (dachwohnung läuft er nun auf fest 4ghrz)

lg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Geht doch einfach nicht mehr auf die zwanghafte Haarspalterei ein, das erspart uns viel Ärger.

Zum Thema:
Warum ist der Turbo eigentlich generell so gering? Warum kann man nichtmal 40% bringen bei Auslastung von 1-2 Modulen? Kann man die Spannung nicht entsprechend erhöhen (Lebenszeit, Stabilität)? TDP-Spielraum sollte da sein bei 25-50% Auslastung. Bei Intel dasselbe. Bis auf die T- und S-Modelle kann man den Turbo komplett in die Tonne kloppen. 10% merkt niemand.
 
Beim Turbo geht's auch mehr um Ansprechverhalten denn Leistungsexplosion - und es lässt sich super vermarkten (siehe Kepler und 7970 GE). Im mobilen Bereich, wo die Grundleistung viel geringer ist, da zieht der Turbo dann auch richtig.
 
Mit einer modernen CPU@stock ohne Turbo hat man doch eigentlich keine Probleme beim Ansprechverhalten. Wenn dann noch eine SSD verbaut ist, sehe ich hier überhaupt kein Problem. Und wenn man mal ne Sekunde länger wartet, ist das nicht so schlimm. Mich ärgert viel mehr, dass wir noch viele Anwendungen haben, die wenige Threads unterstützen. Solche wird es mittelfristig auch weiterhin geben, weil sich nicht alles super parallelisieren lässt. Dafür ist meiner Ansicht nach der Turbo auch gedacht. Wenige Threads -> Turbo taktet hoch und nutzt die TDP auch bitte schön voll aus (kann man ja abschalten, wenn einem das nicht passt). Nur das merkt man idR kaum. Das ist der Knackpunkt. Über einen 5GHz-Turbo bei 1-2 Threads würde ich mich sehr freuen. Das wäre sinnvoller als diese Kleckserei mit den paar Prozentchen.
 
Zuletzt bearbeitet:
Beim Turbo geht's auch mehr um Ansprechverhalten denn Leistungsexplosion

Bei teils kaum 10-20% Turbo-Boost dürfte es kaum spürbare Unterschiede geben. Imo ist das vor allem ein Effizienzthema: Klar, man könnte bei einem Quad rein von der TDP sicher auch 25-35% Turbo realisieren, wenn sich dabei allerdings der Energieverbrauch bei ST-Workloads verdoppelt, ist das ein eher schlechter Tausch.
 
Hi oese

piecke doch nicht immer in die wunde, mann hätte ich mir mal das sabba geholt, gernau das funzt mir dem 5x evo leider nicht, egal wie ich versuche den turbo zu takten geht er komplett auf standart takt runter :( und über 4200 kann ich turbo auch nicht einstellen)
auch mit overdrive funzt das nicht scheint wohl am board zu liegen :( im sommermode (dachwohnung läuft er nun auf fest 4ghrz)

lg

ohne turbo zu nutzen hab ich ab 4,6 ghz tempprobs, trotz wakü. Auch an den SpaWa's (wen wunderts die sind luftgekühlt und der PC nicht hörbar :O naja wenn die wakü auf 100% geht bei 35°C wassertemp (kommt derzeit vor) hört man ein leises säuseln :d

hast du die option, 140% tdp zu geben? Und dann, mit baseclock-anhebung, funzt das nicht?
 
Und er ist nicht der einzige
Sowas nennt man "Neugier"

ich auch, weil es billiger ist und ich nicht mehr leistung brauche.
Verstehe auch nicht die jenigen die einen 2 kerner sandy bridge gegen über einem 4 kerner (2module) fx bevorzugen.
 
Naja wenn man Peformance, Preis und Verbrauch unter die Lupe nimmt ist der 2 Kern Sandy (i3) meißtens vorm 2 Modul Fx. Gerade in Games!
 
Das kann ich so nicht bestätigen, es sei den du lässt den Preis ausen vor. FX-4170 vs I7-3770K

ocaholic - Test: AMD FX-4170 vs. Intel Core i7-3770K Gaming Performance HD 7970 - CPUs - Reviews
*gähn* Grafiklimit ... man sollte sich die Spiele im CPU-Limit anschauen - und warum man Furmark als CPU-Last nimmt, ist mir schleierhaft.

TESV.png SC2.png
 
*gähn* Grafiklimit ... man sollte sich die Spiele im CPU-Limit anschauen - und warum man Furmark als CPU-Last nimmt, ist mir schleierhaft.

Anhang anzeigen 198791 Anhang anzeigen 198792

Genau, wir testen spiele in 800x600 und sagen dann, mit welchem prozessor man ein spiel unter Realbedingungen spielen kann. :wall:

Klar ist der Test nicht super.... aber wenn man mal realistische Benchmarks mit festem Budged der Systeme macht und AMD vs Intel vergleicht, liegt der AMD mit dem Intel gleich auf, evtl verbraucht der AMD etwas mehr, aber was solls.

Aber nein, wie wird getestet? CPU+GPU für 90€ und was wird mitgetestet? ein i7 :wall: nen FX mit einem doppelt so teuren, übertaktetem i5 als referenz :wall:

Man kann bei jedem Test fehler finden, aber der da oben zeig wenigstens die Leistung, wie beim Verbraucher auf dem Bildschirm auch rauskommt. ;)
 
@Ero Sennin
Das kann ich so nicht bestätigen, es sei den du lässt den Preis ausen vor.
FX-4170 vs I7-3770K
ocaholic - Test: AMD FX-4170 vs. Intel Core i7-3770K Gaming Performance HD 7970 - CPUs - Reviews

Ero Sennin hat sich aber auf eine Dual-Core i3 CPU bezogen und nicht auf einen i7...

Vergleiche doch mal den FX-4170 mit einem i3 2120. Der FX-4170 ist in Spielen genauso wie der i3 2120 ungefähr so schnell wie ein Phenom II X4 965 @stock [Quelle 1 Quelle 2]. Nur dass der i3 20% bzw. der Phenom II 30% preisgünstiger als der FX-4170 ist.
 
*gähn* Grafiklimit ... man sollte sich die Spiele im CPU-Limit anschauen - und warum man Furmark als CPU-Last nimmt, ist mir schleierhaft.

Anhang anzeigen 198791 Anhang anzeigen 198792
Klar im CPU Limit ist der Intel schon flotter! Aber wieviele Spiele gibt es mit deutlichem CPU Limit im Vergleich dazu wieviele Spiele es auf dem freien Markt gibt?
Wegen dem Verbrauch, aus dem Fazit des Test:
Das Preis/Leistungs-Verhältnis der AMD CPU ist also um Faktor 2.3 besser als dasjenige der Intel CPU, zumindest dann, wenn man lediglich die Gaming-Performance berücksichtig.


Ero Sennin hat sich aber auf eine Dual-Core i3 CPU bezogen und nicht auf einen i7...

Vergleiche doch mal den FX-4170 mit einem i3 2120. Der FX-4170 ist in Spielen genauso wie der i3 2120 ungefähr so schnell wie ein Phenom II X4 965 @stock [Quelle 1 Quelle 2]. Nur dass der i3 20% bzw. der Phenom II 30% preisgünstiger als der FX-4170 ist.
Auch ein interessanter Test, leider fehlen mir die Angaben zu den Einstellungen (Details, AA/AF)
Ist doch völlig legetim wenn der Phenom II günstiger ist, er braucht ja auch mehr Strom im idle.
BTW der Verbrauch der GTX680 scheint auch recht hoch zu sein im idle, da hab ich mit 2x HD7970 weniger. ;)
 
Genau, wir testen spiele in 800x600 und sagen dann, mit welchem prozessor man ein spiel unter Realbedingungen spielen kann. :wall:

Klar ist der Test nicht super.... aber wenn man mal realistische Benchmarks mit festem Budged der Systeme macht und AMD vs Intel vergleicht, liegt der AMD mit dem Intel gleich auf, evtl verbraucht der AMD etwas mehr, aber was solls.

Aber nein, wie wird getestet? CPU+GPU für 90€ und was wird mitgetestet? ein i7 :wall: nen FX mit einem doppelt so teuren, übertaktetem i5 als referenz :wall:

Man kann bei jedem Test fehler finden, aber der da oben zeig wenigstens die Leistung, wie beim Verbraucher auf dem Bildschirm auch rauskommt. ;)

Realbedingungen kannst du nicht immer zuverlässig benchen. Du willst außerdem jeden mit dem Test glücklich machen - einen mit einer HD7750, mit einer HD7970 und mit 7970CF. Steht ja nirgendwo dran, dass solche Tests nur für ein bestimmtes Zielpublikum gedacht sind. Also CPU-Limit - ja bitte. Außerdem gibts sehr wohl Spiele, die auch unter den so gerne zitierten Realbedingungen CPU-limitiert sein können. Natürlich nicht immer und nicht immer volle Kanne, aber sowas will man auch wissen. Der nächste will 60fps oder in einem sehr schnellen Shooter oder Rennspiel vielleicht auch mal um die 100. Graka im Test schafft das vielleicht nicht, d.h. der Leser erfährt Nullkommagarnichts, welche CPU seine Anforderungen erfüllt, wenn er etwas AA wegnimmt oder von Ultra auf Hoch stellt. Oder er möchte mit Mods/Tweaks spielen (Skyrim ugrids=9 z.B.), die gerne auch die CPU-Last erhöhen können. Über Reserve erfährt er dann ebenso nichts. Oder der Tester hatte kein gutes Händchen beim der Wahl des Benchmarks (vielleicht gar Timedemo, würg) und der Leser packt sein Spiel aus und daheim läuft es trotz genug Grafikpower stellenweise klar langsamer als im Test. Na danke.

800x600 ist übrigens Käse, wenn schon dann eine niedrige 16:9 Auflösung, die erhöht die CPU-Last durch das höhere Sichtfeld noch.
 
Zuletzt bearbeitet:
Ist doch völlig legetim wenn der Phenom II günstiger ist, er braucht ja auch mehr Strom im idle.

Beim Phenom II kann man allerdings noch mit k10stat selbst Hand anlegen und die Stromaufnahme im Idle nach unten drücken. Das machen die Reviewer leider nie. Ohne k10stat würde meiner z.B. bei 1,2v Idle werkeln und entsprechend sinnlos Strom verheizen - dank k10stat reichen ihm nun auch 0,688v im Idle und entsprechend weniger Strom wird verheizt. Hat man beim FX mittlerweile auch die exakte Kontrolle über die einzelnen P-States Spannungen?
 
Phantimias88 schrieb:
Klar im CPU Limit ist der Intel schon flotter! Aber wieviele Spiele gibt es mit deutlichem CPU Limit im Vergleich dazu wieviele Spiele es auf dem freien Markt gibt?
Wegen dem Verbrauch, aus dem Fazit des Test:

Ich kann auch Grafikkarten testen die CPU A oder B ins Limit laufen lassen und dann argumentieren diese GRafikkarte lohnt sich nicht.
Man kann sich immer als drehen und wenden wie man es braucht.

Es ist korrekt dass man keinen i7 zum zocken braucht, wenn man dafür die GRafiklast anzieht, denn die Grunleistung der CPU ist für ~50 FPS meistens ausreichend, das ist aber dann eher ein Kaufberatungsaspekt und hat in einer LEistungsbewertung nichts verloren.

DAs Thema ist jetzt schon so oft diskutiert worden und beide Seiten haben recht, aber nur wenn man die Meinung unter unterschiedlichen Gesichtspunkten betrachtet.

boxleitnerb schrieb:
800x600 ist übrigens Käse, wenn schon dann eine niedrige 16:9 Auflösung, die erhöht die CPU-Last durch das höhere Sichtfeld noch.

Soviel ich weiß ist die Auflösung für die CPU völlig sekundär. Frag da mal Y33H@.
 
Zuletzt bearbeitet:
Die Anzahl der Pixel ist sekundär, das Aspektverhältnis nicht. y33H@ weiß das :d
Zwischen 800x600 und der nächsttieferen 16:9-Auflösung mit 800*x (bin zu faul es grad auszurechnen) liegen gute 10%. Getestet in SS3.

Bei der Grundleistung finde ich eine Bewertung durch den Tester nicht angebracht. Wer ist er, dass er bestimmt, wieviel fps für mich genug sind, also wieviele er durch das Grafiklimit und die Spielauswahl zeigt? Möglichst "nackte" Daten bitte, die Selektion nehme ich durch Cross-Referencing mit anderen GPU-Tests und meinem persönlichen Geschmack schon selbst vor.
 
Zuletzt bearbeitet:
BFBC2 und BF3 sind übriegens mehr CPU lastig wenns um den Multiplayer geht. Wollt ich nur mal gesagt haben.

Die GTX 690 die ich zum release gekauft habe war eigentlich schwachsinnig da ich eh bloß BF3 spiele und da hätte ne übertaktete GTX 680 auch ausgereicht :( Vorher macht die CPU schlap!
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Wer ist er, dass er bestimmt, wieviel fps für mich genug sind, also wieviele er durch das Grafiklimit und die Spielauswahl zeigt?

Wer sagt, dass es da um Meinungsbildung geht? Es geht viel mehr darum, zu erfahren was nötig ist mir nen guten Spiele PC zu basteln, da brauche ich eben keinen i7 2600k, sondern kann mir auch nen günstigen i3, oder ne günstige AMD CPU ( ala FX-8120 + Cashback kaufen).

Naja, Dude hat recht, kümmern wir uns lieber ums Thema. :)


Also, es sieht so aus als OB AMD die Leistung der FPU nicht verbessert, hat, sondern eher die Integer Leistung.
Hat doch AMD auch so angekündigt oder?
 
Zuletzt bearbeitet:
Diesbezüglich wurde gar nichts angekündigt.
 
@Phantomias88: ROFL nicht dein ernst oder? :lol:
Wenn du CPUs in ihrer Spieleperformance unterscheiden willst, solltest du schon darauf achten, dass sie nicht ins GPU Limit laufen.
AMD FX-6100 und FX-4100 im Test - Performance-Index (Seite 31) - HT4U.net
Und das ist noch ein gemäßigter Test. ;)
Es gibt auch einen da macht ein i3 mit 3,1GHz einen 4,5GHz schnellen fx4100 im Mittel in Games nass. Und selbst der 200MHz schnellere i3 ist mittlerweile unter 100€ zu bekommen.

Aber mal BTT!
 
@Phantomias88: ROFL nicht dein ernst oder? :lol:
Wenn du CPUs in ihrer Spieleperformance unterscheiden willst, solltest du schon darauf achten, dass sie nicht ins GPU Limit laufen.
AMD FX-6100 und FX-4100 im Test - Performance-Index (Seite 31) - HT4U.net
Und das ist noch ein gemäßigter Test. ;)
Es gibt auch einen da macht ein i3 mit 3,1GHz einen 4,5GHz schnellen fx4100 im Mittel in Games nass. Und selbst der 200MHz schnellere i3 ist mittlerweile unter 100€ zu bekommen.

Aber mal BTT!

Auch wenns schon etwas älter ist :
Ich weiß nicht, was ihr immer alle mit dem Intel Core I3 2100 / 2120 habt ?
In den ganzen Tests schneidet der I3 immer auf gleichem Niveau wie ein AMD X6 bzw FX4100 ab.
In Der Wirklichen Performance (Hab beides Daheim, beides mit einer ATI Radeon HD 6950@6970 getestet, schneidet der i3 viel schlechter ab, wenn die Kerne vernünftig unterstützt werden.
was ich nicht verstehe ist, warum bencht ihr in spielen, die nur 2 bzw 4 Kerne unterstützen und wundert euch dann das ein I3 besser abschneidet, wobei ihr ganz genau wisst, dass der I3 im Single Thread leistung besser abschneidet ?
Mit dem I3 ist auch vernünftiges spielen möglich, bei fast gleichen Framerates, es besteht nur der unterschied darin, dass wenn das spiel die 6 Kerne vernünftig unterstützt der I3 bei beanspruchung einfach vieeel krasser einbricht.
Mit dem X6 (1090T @ 3.8ghz ) auf Mittel Framedrop auf Maximal 60 fps
Mit dem I3 (2100 @ 3.3Ghz) auf Mittel Frapedrop auf 40-45 FPS
Bei Arma 2 Das gleiche, weil der I3 einfach kein richtiger quadcore ist.
Es ist und bleibt ein Dualcore mit 2 echten und 2 Virtuellen kernen,
die bei richtiger Programmierung gegen einen X6 mit 6 Richtigen Kernen sehr den kürzeren ziehen.
Sind meine eigenen erfahrungen, da können die noch so viel benchen wie sie wollen.
Mit nem I3 laufen die spiele einfach nicht so rund wie mit nem AMD X6
MfG
 
Zuletzt bearbeitet:
Auch wenns schon etwas älter ist :
Ich weiß nicht, was ihr immer alle mit dem Intel Core I3 2100 / 2120 habt ?
In den ganzen Tests schneidet der I3 immer auf gleichem Niveau wie ein AMD X6 bzw FX4100 ab.
In Der Wirklichen Performance (Hab beides Daheim, beides mit einer ATI Radeon HD 6950@6970 getestet, schneidet der i3 viel schlechter ab, wenn die Kerne vernünftig unterstützt werden.
was ich nicht verstehe ist, warum bencht ihr in spielen, die nur 2 bzw 4 Kerne unterstützen und wundert euch dann das ein I3 besser abschneidet, wobei ihr ganz genau wisst, dass der I3 im Single Thread leistung besser abschneidet ?
Mit dem I3 ist auch vernünftiges spielen möglich, bei fast gleichen Framerates, es besteht nur der unterschied darin, dass wenn das spiel die 6 Kerne vernünftig unterstützt der I3 bei beanspruchung einfach vieeel krasser einbricht.
Mit dem X6 (1090T @ 3.8ghz ) auf Mittel Framedrop auf Maximal 60 fps
Mit dem I3 (2100 @ 3.3Ghz) auf Mittel Frapedrop auf 40-45 FPS
Bei Arma 2 Das gleiche, weil der I3 einfach kein richtiger quadcore ist.
Es ist und bleibt ein Dualcore mit 2 echten und 2 Virtuellen kernen,
die bei richtiger Programmierung gegen einen X6 mit 6 Richtigen Kernen sehr den kürzeren ziehen.
Sind meine eigenen erfahrungen, da können die noch so viel benchen wie sie wollen.
Mit nem I3 laufen die spiele einfach nicht so rund wie mit nem AMD X6
MfG

Ein 1090T x6 und ein FX-4xxx sind nicht das selbe, da gibt es einen eklatanten Unterschied: Der FX hat eine sehr viel niedrigere Pro-Thread-Leistung, weil er keine echter Vierkerner ist. ;) Und es werden meist nur Spiele verglichen, die vier oder weniger Threads auslasten, weil das 95% der heutigen Spiele sind. Und in diesem Bereich ist der i3 halt auch schneller als der x6 im Standardtakt, was daran liegt dass viele Spiele Konsolenportierungen sind und nicht mehr als drei Threadsauslasten und eher GPU-Lastig sind.
 
Ja kann man. Ich schreib momentan ein k15ctl und wenn es fertig ist, dann werd ich es auf github packen.

Wird dies auch mit den Piledriver Modulen funktionieren, oder bezieht sich das nur auf die aktuellen FX-Generationen?
 
Jep, dazu hat keiner was gegen den X6 gesagt! Das ist für viele Games ein richtig guter Prozessor, aber wenn das Spiel nur 2-4 Threads nutzt hält auch der i3 bzw ein stark übertakteter 2Modul Bulldozer gut mit. Ersterer verbraucht dabei nur weniger Strom und wird bald durch noch stärkere Ivy i3s ersetzt. Natürlich könnte man auch nur Games testen, welche 4 oder mehr Threads effektiv belasten, aber das tun eben nur wenige Spiele und deswegen hat man idR. nur 2-3 pro Review mit dabei, was aber durchaus fair ist.
 
Anders Testen wäre ja auch am Spiele-Markt vorbei, man testet ja fürs hier und jetzt und nicht fürs "Morgen".
 
Da keiner seine CPU am Kauftag schon wieder in den Müll schmeißt, sollten natürlich auch Spiele mit guter Multithreadingunterstützung mitgetestet werden, auch wenn deren Anteil im Moment noch gering ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh