AMD mit angeblich neuem x86-Kern in Entwicklung

Das Problem ist nur, dass WD ein Spiel von Vielen ist - wie sieht es denn aus, wenn man mehrere Spiele in Betracht zieht:



Und das ist noch nicht einmal der Schnellste der i3...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der boxed ist für die 70 watt Verbrauch ausreichend, während es der AMD Boxed nicht ist und röhrt, habs selbst getestet.
Die FX kannste mittlerweile alle in der Pfeife rauchen, die sind mittlerweile nicht mehr gut, sondern unnötig, kauft kein Mensch mehr.

Zum Gamen ist ein i3 4340 genausoflott wie ein FX-8350 im Mittel der Spiele, bei 1/5 des Verbrauchs und deutlich geringeren Stromkosten und weniger Anschaffungskosten.



Ich sehe kenen zunehmenden Multicoresupport, auch in Watch Dogs ist der FX-6300 nicht schneller, geschweige den ein FX-8350 schneller ( vielleiht 5% ).
AMD kann halt Intels 50% IPC Vorsprung nicht mit Kernen ausgleichen, das klappt nur in Anwendungen und selbst da steht ein FX-8350 gegen den schnellsten i3 eher schlecht da, wegen der 20 bis 30% Merhleistung im Mittel.

Wird dir die ganze Propaganda nicht langsam zu blöd?

In welchem Szenario verbraucht der FX8 denn 5 mal so viel Strom? Das einzige was ich im Netz finde, ist der ca. dreifache Verbrauch, wenn man ihn mit Prime oder x264 quält (wo er nebenbei dann auch die doppelt so große Rechneleistung besitzt aber das nur mal so am rande). Also Vollast auf allen Kernen.
Das ganze passt aber nicht zu deiner Theorie mit den Spielen, worum es hier ja geht, denn die Lasten die 8 Threads ja gar nicht aus. Addieren wir auf beide "Rechner" noch den Verbrauch der 200W Grafikkarte drauf, egalisiert sich der Verbrauch fast schon wieder. Aber hey, Vernunft ist hier wohl nicht zu erwarten.

Ach und noch was zu dem ein i3 ist ja so viel besser als ein FX6/8. Lasst mal wärend dem Zocken irgendwas im Hintergrund laufen, also keine Laborbedingungen wie in den ganten Test, was glaubt ihr, wer mehr FPS am Ende hat? PS. dazu gibt es auch einen kleinen Test von der PCGH ;)
 
Intel lässt amd nur etwas Luft zum atmen. Daher kostet der kleinste Quad mit oc auch 180 Euro obwohl er mit gigantischer igpu die Größe eines ehemaligen celeron hat...

Trotz allem wird der amd zukünftig besser dastehen, wie man an WD gut sehen kann. Viele cores und viele threads mit halbwegs brauchbarer ipc. Genau das was amd mit dem konsolendeal erreichen wollte oder musste. Das ändert aber nichts daran, dass ein Intel 8 Core bald Kreise um den fx dreht.
 
Die Chipgrößen haben es dir angetan oder? Wie AMD in Zukunft da stehen wird, weiß keine Sau. Die glorreiche "Gaming-Zukunft" wird jedes ja durch irgendeinen AAA-Titel herauf beschworen und kommt dann doch nicht. Darüber hinaus kehrt AMD dem Bulldozer-Design den Rücken und die Dinger werden nicht schneller. Ein FX 8320, der jetzt zwischen i3 und i5 in der Regel steht, wird nächstes Jahr gegen Skylake nicht besser, eher schlechter, da stehen. Bewahrheitet sich das Gerücht mit dem "günstigen" kastrierten Haswell-E Sechskerner, dürfte das eher noch früher der Fall sein.
 
Intel lässt nicht AMD Luft zum Atmen, schenkt AMD also was, Intel schenkt sich selbst unglaubliche Gewinnmargen.
Deswegen fängt bei denen ein popeliger Quadcore fast 100 Euro über einem billigen AMD Quad an.
Würde Intel Kampfpreise fahren, wäre AMD ruck-zuck pleite.


Schaffe89:
Sach mal, bist du eigentlich eine radikaler Goldenmic reloaded?
 
Zuletzt bearbeitet:
fdsonne
Ja, aber mit Treiberaufwand. Aber das ist nunmal blöderweise nicht repräsentativ sondern nur bei einigen wenigen Top-Titeln und natürlich Mantle-Titel der Fall (NV wird aus Marketinggründen grade die Mantle-Titel optimieren, AMD aber nicht, von daher kannste die DX-Vergleiche bei Mantle-Titeln eh in die Tonne hauen). Beim großen Rest gibts zwischen NV und AMD keinen Unterschied.

Kennst du denn derartige Tests?
Mir sind nur sehr wenige derartige Tests bekannt, die konsequent für CPU Tests sowohl AMD als auch NV GPUs vergleichen. Und idR dann auch eben mit aktuellen AAA-Titeln. Nur zeigen die eben das gleiche Bild zum Moment des Tests.
NV schrieb sich mit dem 337.50er Treiber auf die Fahne, CPU Ressourcen besser zu nutzen, was anhand der Tests scheinbar 1a funktioniert. Da so gut wie alle Tests für DX 11 Titel ein Leistungplus aufzeigen...

Das ist auch keine simple Titel Optimierung, der Treiber trägt maßgeblich zur Leistung bei. Das kann man schlicht nicht ausklammern.


Treiber"optimierungen" sind per se pfui, weil man damit eigentlich die Ergebnisse verflälscht, man lässt GPUs in einigen wenigen Top-Titeln besser darstehen als sie in den restlichen Titeln eigentlich sind. Bei Mantle ist das was anderes, weil es wirklich was bringt und weil es transparent ist.

??
Was ist daran pfui?
Der Treiber rückt eine Hardware in genau das Licht, was sie von der Technik zu leisten im Stande ist. Lässt man das weg, bleibt Leistung hinterm Berg. Das gilt für alle beteiligten und benachteiligt daher auch keinen.
Und Mantel ist an der Stelle absolut gar nix anderes... denn die Optimierung erfolgt hier direkt vom Hersteller an der Schnittstelle. Was eben heute auch der Vorteil für Mantel ist. In Zukunft wird sich zeigen, was AMD alles preis gibt, sofern Andere Hersteller das auch unterstützen werden.

PS: wirft man mal CPUs mit in die Runde, wäre die Anpassung des Threadschedulers bei Windows 8 für die AMD Module auch eine Optimierung, die nach deinem Argument die Hardware besser dastehen lässt, als sie wirklich ist ;)

@sTOrM41
Denk immer daran: Jeder legt sich seine kleine Welt so zurecht, damit er sich als wichtig darin erachtet. Hab mir gestern den FX8320 für nichtmal 120€ bestellt. Was bitte gibt es beim Monopolisten, der von den ganzen Geblendeten als Messias gepriesen wird, als echte Alternative?
Lauter beschnittene CPUs, ohne Multi, ohne Hyperthreading.
Was is das für ein komisches Argument?
Du machst genau das, was du im ersten Satz anprangerst... denn das klappt 1:1 auch andersrum ;) vergleichst du mehrere CPUs gegeneinander, hat es idR. immer Kompromisse bei was auch immer.


Seit 15 Jahren fahre ich meine Schiene mit AMD-Prozessoren und noch nie hat mich einer davon enttäuscht. Leistung liegt im Auge des Betrachters. Ob ich nun 100 oder 90fps habe ist mir wurst.

Da ist ja auch nix verwerfliches dran, alles eine Frage des Anspruchs...
 
Intel lässt amd nur etwas Luft zum atmen. Daher kostet der kleinste Quad mit oc auch 180 Euro obwohl er mit gigantischer igpu die Größe eines ehemaligen celeron hat...

Trotz allem wird der amd zukünftig besser dastehen, wie man an WD gut sehen kann. Viele cores und viele threads mit halbwegs brauchbarer ipc. Genau das was amd mit dem konsolendeal erreichen wollte oder musste. Das ändert aber nichts daran, dass ein Intel 8 Core bald Kreise um den fx dreht.

Nicht zu vergessen das dein Geldbeutel dann auch kreise um den Intel 8 Core dreht :d. Aber man sollte nicht neue Technik mit alter vergleichen.
 
fdsonne schrieb:
Was ist daran pfui?
Der Treiber rückt eine Hardware in genau das Licht, was sie von der Technik zu leisten im Stande ist. Lässt man das weg, bleibt Leistung hinterm Berg. Das gilt für alle beteiligten und benachteiligt daher auch keinen.
Ich zitier mal aus meinem schon vorher verlinktem Blog:
http://richg42.blogspot.de/2014/05/the-truth-on-opengl-driver-quality.html schrieb:
Historically, this vendor will do things like internally replace entire shaders for key titles to make them perform better (sometimes much better). Most drivers probably do stuff like this occasionally, but this vendor will stop at nothing for performance. What does this mean to the PC game industry or graphics devs? It means you, as "Joe Graphics Developer", have little chance of achieving the same technical feats in your title (even if you use the exact same algorithms!) because you don't have an embedded vendor driver engineer working specifically on your title making sure the driver does exactly the right thing (using low-level optimized shaders) when your specific game or engine is running. It also means that, historically, some of the PC graphics legends you know about aren't quite as smart or capable as history paints them to be, because they had a lot of help.
Das ist daran pfui und erklärt auch den Wunsch einiger Entwickler selber an der Performance schrauben zu können.
Es benachteiligt sämtliche Entwickler, deren Produkte die Grafikhersteller nicht als optimierungswürdig erachten.
Außerdem benachteiligt es die Grafikkartenhersteller, die nicht direkt am Entwicklungsprozess des Spiels beteiligt sind, da sie weniger Möglichkeiten haben zu optimieren.
 
Zuletzt bearbeitet:
Das Problem ist nur, dass WD ein Spiel von Vielen ist - wie sieht es denn aus, wenn man mehrere Spiele in Betracht zieht:



Und das ist noch nicht einmal der Schnellste der i3...
Machen die immer noch diese Blödsinnstests ? CPUs für 90/120€, mit einer GK die weit über 500€ kostet zu testen ist wirklich GAGA - Fast so wie einen 911er mit nem 75ps Motor an seine Leistungsfähigkeit zubringen :wall:

Was auch richtig lustig war von PCGH, der damalige C3-CPU-Beta-Test ( Graslevel ), behinderte schlecht optimierte Soft wird zum Leistungsindex .... :wall:

Naja... In Wirklichkeit, wie auch alle anderen Webseiten die sich mit dem Thema beschäftigen, will man mit Werbung Geld verdienen ;)

P.S. Die AMD-CPUs sind richtig schlecht, aber das muss man nun nicht auch jeden Tag drüber diskutieren :fresse:
 
Machen die immer noch diese Blödsinnstests ? CPUs für 90/120€, mit einer GK die weit über 500€ kostet zu testen ist wirklich GAGA - Fast so wie einen 911er mit nem 75ps Motor an seine Leistungsfähigkeit zubringen :wall:

Was ist das für ein Argument?
Man macht solche Tests eben nur darum um fest zu stellen welche CPU die bessere ist!
Es ist vollkommen klar (oder sollte zumindest jedem klar sein der sich mit der Thematik heir auseinander setzt) dass beim gamen so gut wie immer die Grafikkarte limitiert.
Wenn du CPUs mit einer Grafikkarte testest die limitiert, dann sagt der Test kaum noch was über die CPU aus, bzw. die FPS - unterschiede sind relativ gering so dass es gleich wieder heisst: "Nimm die billigste CPU (meist AMD), der Unterschied ist ja sowieso keine 10Fps..."

Wenn man sich für eine leistungsstarke CPU (meist Intel) entscheidet, dann denkt man damit eher an die Zukunft und will dafür gerüstet sein wenn die Mainstreamkarten mindestens so leistungsfähig sind wie heutige 500€ Karten oder wie Sli/CF Verbände.
Um aber eben genau für solch ein Scenario festzustellen welche CPU die bessere ist, muss man jetzt mit ultra-high End Karten testen.
 
Das ist daran pfui und erklärt auch den Wunsch einiger Entwickler selber an der Performance schrauben zu können. Es benachteiligt sämtliche Entwickler, deren Produkte die Grafikhersteller nicht als optimierungswürdig erachten. Außerdem benachteiligt es die Grafikkartenhersteller, die nicht direkt am Entwicklungsprozess des Spiels beteiligt sind, da sie weniger Möglichkeiten haben zu optimieren.
Warum programmiert das Gesindel dann nicht mit C/inline assembly sowie OpenCL core? Warum benutzen die proprietäre Software oder lassen die Leute aus den Firmen Quellcode schreiben? Das sind alles hausgemachte Probleme die einfach zu beheben wären, aber statt den @rsch mal hochzukriegen kommt nur mimimi alle sind so böse.....
 
Die Chipgrößen haben es dir angetan oder? Wie AMD in Zukunft da stehen wird, weiß keine Sau. Die glorreiche "Gaming-Zukunft" wird jedes ja durch irgendeinen AAA-Titel herauf beschworen und kommt dann doch nicht. Darüber hinaus kehrt AMD dem Bulldozer-Design den Rücken und die Dinger werden nicht schneller. Ein FX 8320, der jetzt zwischen i3 und i5 in der Regel steht, wird nächstes Jahr gegen Skylake nicht besser, eher schlechter, da stehen. Bewahrheitet sich das Gerücht mit dem "günstigen" kastrierten Haswell-E Sechskerner, dürfte das eher noch früher der Fall sein.

Ich bezahle halt ungerne zu viel. Würde mich ärgern 600€ in eine 7900GTX zu stecken wenn kurz darauf eine fast 3x so schnelle 8800GTX erscheint. Oder in einen p4+ht vor den wirklichen dualcores. Meiner Meinung nach wird devilscanyon der letzte Quad, so wie einst der E8600. Noch mal schön in die Vollen und die letzten quads verkaufen bevor es eine Stufe der Leiter im mainstream raufgeht.

Aber glucklicherweise wird ja niemand zum kauf gezwungen. :)
 
Zuletzt bearbeitet:
Ich bezahle halt ungerne zu viel. Würde mich ärgern 600€ in eine 7900GTX zu stecken wenn kurz darauf eine fast 3x so schnelle 8800GTX erscheint. Oder in einen p4+ht vor den wirklichen dualcores. Meiner Meinung nach wird devilscanyon der letzte Quad, so wie einst der E8600. Noch mal schön in die Vollen und die letzten quads verkaufen bevor es eine Stufe der Leiter im mainstream raufgeht.

Aber glucklicherweise wird ja niemand zum kauf gezwungen. :)

Es wird keinen Broadwell 6 Kerner geben. Warum auch? Wer mehr Kerne will muss zum Sockel 2011 greifen. Heutzutage ist es sowohl im GPU als noch mehr im CPU Bereich sicher das die nächste Generation ca. 10% zur nächsten Leistung steigert. Mehr nicht.
 
Meiner Meinung nach wird devilscanyon der letzte Quad, so wie einst der E8600. Noch mal schön in die Vollen und die letzten quads verkaufen bevor es eine Stufe der Leiter im mainstream raufgeht.

Du solltest dir nochmal ganz dringend die Intel-Roadmaps ansehen, selbst für Skylake sind schon die selben Kern-Kombinationen, wie heutzutage, angekündigt. ;)
 
Allerdings hat er schon Recht was das "schön in die Vollen" angeht... Das Teil setzt die Latte wirklich sehr hoch. Wenn der Shrink kein Taktungswunder bewirkt, wird es sehr schwer für Intel da noch eins drauf zu setzen.
Vieleicht gibts dann aber auch endlich 5Ghzer schon für den Durschnitts-Enthuiasten. Das wär toll :d
 
Guck dir mal an, wie sich der Takt von Sandy zu Ivy verändert hat. ;) Broadwell hat dann halt 100-200 Mhz mehr und eine etwas höhere IPC. Aber am Ende auch müssig, das geht etwas am Thema vorbei. Die neue AMD Architektur, wird sich wohl eher mit dem Skylake-Shrink oder sogar dem Skylake Nachfolger messen dürfen und da gilt seitens Intel einfach nur "die Zeit steht nicht still"...
 
In welchem Szenario verbraucht der FX8 denn 5 mal so viel Strom?

Betrachtest du die reine CPU, trifft das sehr wohl zu.

„Haswell“ als Dual-Core im Test (Seite 6) - ComputerBase

Delta Singlethreaded:

FX 8350: 40 Watt
i3: 10 Watt

Delta Multithreaded:

FX 8350: 125 Watt
i3: 20 Watt

In Spielen sieht der Unterschied vergleichbar aus, wie in Cinebench X CPU. Die Relationen liegen bei 1/4 bis 1/7 des Verbrauchs der reinen CPU bei wohl gemerkt fast gleicher Performance.

In welchem Szenario verbraucht der FX8 denn 5 mal so viel Strom? Das einzige was ich im Netz finde, ist der ca. dreifache Verbrauch, wenn man ihn mit Prime oder x264 quält (wo er nebenbei dann auch die doppelt so große Rechneleistung besitzt aber das nur mal so am rande). Also Vollast auf allen Kernen.

PCGH hat in der Print auch Stromverbrauchmessungen unter Spielen gemacht. Dort sieht es für den FX nicht besser aus, in der Relation.

Das ganze passt aber nicht zu deiner Theorie mit den Spielen, worum es hier ja geht, denn die Lasten die 8 Threads ja gar nicht aus. Addieren wir auf beide "Rechner" noch den Verbrauch der 200W Grafikkarte drauf, egalisiert sich der Verbrauch fast schon wieder. Aber hey, Vernunft ist hier wohl nicht zu erwarten.

Wenn du nebenher noch einen Staubsauger anmachst, dann kann man die Komponente CPU gut verschleiern ja.
Ich betrachte nicht das komplettsystem, sondern die Komponente CPU.

Ach und noch was zu dem ein i3 ist ja so viel besser als ein FX6/8. Lasst mal wärend dem Zocken irgendwas im Hintergrund laufen, also keine Laborbedingungen wie in den ganten Test, was glaubt ihr, wer mehr FPS am Ende hat? PS. dazu gibt es auch einen kleinen Test von der PCGH

Virenscanner oder kleiner Jobs spielen überhaupt keine Rolle. Einen richtigen Effekt erzielt man nur, wenn nebenher ein Workload läuft der wirklich Ressourcen frisst und die CPU aufhält.
Also nebenbei auf einem zugeteilten Thread etwas rendern oder der Virenscanner macht eine aufwendige Prüfung des Systems.
Ansonsten ist das Argument hanebüchen. Niemand braucht eine Multithread CPU für Games oder den normalen Gebrauch. Interessant wirds erst dann, wenn etwas gerendert wird oder Aufgaben anstehen die wirklich eine CPU mit vielen Threads brauchen.

john201050 schrieb:
Deswegen fängt bei denen ein popeliger Quadcore fast 100 Euro über einem billigen AMD Quad an.

Wenn AMD´s quad nur die Leistung eines Celeron oder Pentiums erreicht, dann iss klar warum die soviel teurer sind.

fdsonne schrieb:
Was ist daran pfui?
Der Treiber rückt eine Hardware in genau das Licht, was sie von der Technik zu leisten im Stande ist. Lässt man das weg, bleibt Leistung hinterm Berg. Das gilt für alle beteiligten und benachteiligt daher auch keinen.

Ich denke mal er meint damit, dass aus Marketinggründen jetzt bei einem wichtigen Spiel zu Tode optimiert wird, das ist aber weder die Regel noch der Wille eines Herstellers, noch möglich das überall unter dem veralteten Directx11 durchzuziehen.

Mantle liefert diese Werkzeuge aber ohne diesen wahrscheinlich immensen Aufwand den Nvidia da betrieben hat.

dochurt schrieb:
Machen die immer noch diese Blödsinnstests ? CPUs für 90/120€, mit einer GK die weit über 500€ kostet zu testen ist wirklich GAGA - Fast so wie einen 911er mit nem 75ps Motor an seine Leistungsfähigkeit zubringen

Wenn man die CPU testen möchte, dan ergibt das Sinn, zweifellos.
Und eine Kombination aus i3 und GTX 770/280x halte ich nicht für falsch.

Was auch richtig lustig war von PCGH, der damalige C3-CPU-Beta-Test ( Graslevel ), behinderte schlecht optimierte Soft wird zum Leistungsindex ....

Grade das Graslevel ist ein Paradebeispiel dafür, für gut parallelisierte Software, ich glaube du verwechselst da was.
Die Wahl der Szene ist aber trotzdem falsch, besser wäre es gewesen eine Szene im Kampf zu nehmen, denn dort sinkt die Leistung eines FX 8350 fast unter das Niveau eines i3 4130.
Das Graslevel ist nicht repräsentativ für das Spiel.
 
Zuletzt bearbeitet:
mit nem billigen fx6300 (85€) oder fx8320 (115€) und übertaktung kann man watch dogs problemlos mit 40-50fps spielen.

bei intel muss man für änliche fps eine ecke mehr bezahlen (der billigste quad, i5-4440 kostet 150€)
 
Und der Vergleich OC vs kein OC ist generell für den Arsch, die 35€ Ersparnis beim FX 8320 frisst die Peripherie fürs OC wieder auf. Ein i5 läuft auf einem 35€-Gubbel-Board mit Boxed-Lüfter, übertakte mal mit dem beiden Sachen einen FX so, dass er mit dem i5 mithält...

Mal davon ab geht dieses "Mit-OC-Argument" komplett an der Realität vorbei, über 90% der PC besitzen tun dies nicht, wohl eher über 95%. Die kaufen und bezahlen Leistung out of the box.

P.S.: Erste Ausführung gilt auch für den FX 6300, bevor das Argument kommt der sei ja noch viel günstiger...
 
Zuletzt bearbeitet:
Betrachtest du die reine CPU, trifft das sehr wohl zu.

„Haswell“ als Dual-Core im Test (Seite 6) - ComputerBase

Delta Singlethreaded:

FX 8350: 40 Watt
i3: 10 Watt

Delta Multithreaded:

FX 8350: 125 Watt
i3: 20 Watt

In Spielen sieht der Unterschied vergleichbar aus, wie in Cinebench X CPU. Die Relationen liegen bei 1/4 bis 1/7 des Verbrauchs der reinen CPU bei wohl gemerkt fast gleicher Performance.
Irgendwie fehlt mir da was, evt. die Leistung in Zeit gemessen: Die beste CPU: Raw-Konvertierung mit Adobe Lightroom - 50 Prozessoren im Test [Special der Woche]
Und der Vergleich OC vs kein OC ist generell für den Arsch, die 35€ Ersparnis beim FX 8320 frisst die Peripherie fürs OC wieder auf. Ein i5 läuft auf einem 35€-Gubbel-Board mit Boxed-Lüfter, übertakte mal mit dem beiden Sachen einen FX so, dass er mit dem i5 mithält...

Mal davon ab geht dieses "Mit-OC-Argument" komplett an der Realität vorbei, über 90% der PC besitzen tun dies nicht, wohl eher über 95%. Die kaufen und bezahlen Leistung out of the box.
Naja, da geht es weniger um das oc an sich, eher um die Kontrolle über das System.
Ganz Toll finde ich die nicht Unterstützung von ECC bei neuen High-End Systemen, müssen wir uns nun wieder grün und blau ärgern?
Ich kann mich gar nicht mehr an einen blue Screen erinnern... :d
 
Und der Vergleich OC vs kein OC ist generell für den Arsch, die 35€ Ersparnis beim FX 8320 frisst die Peripherie fürs OC wieder auf. Ein i5 läuft auf einem 35€-Gubbel-Board mit Boxed-Lüfter, übertakte mal mit dem beiden Sachen einen FX so, dass er mit dem i5 mithält...

Mal davon ab geht dieses "Mit-OC-Argument" komplett an der Realität vorbei, über 90% der PC besitzen tun dies nicht, wohl eher über 95%. Die kaufen und bezahlen Leistung out of the box.

P.S.: Erste Ausführung gilt auch für den FX 6300, bevor das Argument kommt der sei ja noch viel günstiger...

tjoa kann leider nix dafür das man bei intel nur die K cpus richtig übertakten kann.

für 4,5ghz und mehr braucht man beim 8320 nen 70€ brett und nen 30€ kühler,
4-4,2ghz gehen aber sowohl beim fx6300 wie auch 8320 mit dem boxed kühler und nem billigen brett
http://geizhals.at/de/biostar-a960d-a886141.html

sind dann also 120€ (fx63 mit brett) bzw 150€ (fx83 mit brett)
gegen den i5 (190 mit brett)
 
Zuletzt bearbeitet:
Betrachtest du die reine CPU, trifft das sehr wohl zu.

„Haswell“ als Dual-Core im Test (Seite 6) - ComputerBase

Delta Singlethreaded:

FX 8350: 39 40</s> Watt
i3: 11 10 Watt

Delta Multithreaded:

FX 8350: 126 125 Watt
i3: 26 20 Watt

Bitte richtig rechnen

In Spielen sieht der Unterschied vergleichbar aus, wie in Cinebench X CPU. Die Relationen liegen bei 1/3,5 bis 1/4,8 1/4 bis 1/7 des Verbrauchs der reinen CPU bei wohl gemerkt fast gleicher Performance.

PCGH hat in der Print auch Stromverbrauchmessungen unter Spielen gemacht. Dort sieht es für den FX nicht besser aus, in der Relation.

So mal mit den richtigen Zahlen ;)

Was aber nicht berücksichtigt wird bei dem Cinebench Verbrauch ist die doppelte Rechenleistung des FX8. Ja ein Effizienzwunder ist er nicht, aber das hat auch keiner behauptet.

Ich kaufe keine PCGH, also kannst du mir viel erzählen, btw. in welcher steht das denn überhaupt?
Wie aussagekräftig sind denn die Werte überhaupt. Wird wieder von der Idle-Last-Differenz ausgegangen? Dann spielen hier noch etliche andere Faktoren (Komponenten) mit rein, die das Ergebnis verfälschen können.

Und von einer Idle-Last differenz auf den Tatsächlichen Verbrauch der CPU zu schließen, ist auch so eine Sache, denn man unterschlägt den idle-Verbrauch der CPU. Also noch mal 4-5W (sowohl beim i3 als auch FX8) auf alle werte drauf und der Mehrverbrauch ist von deinen (falschen) 1/7 runter auf 1/~4,2!

Zurück zu den Spielen, Hier bezweifel ich irgendwie, dass ein Spiel einen FX8 voll auslasten kann und er deshalb den "5-fachen" verbraucht und dabei nur die selben FPS liefern soll wie ein i3-System. Die einzigen Spiele, die eine solche Last verursachen liefern auch bessere FPS auf dem FX8.

Virenscanner oder kleiner Jobs spielen überhaupt keine Rolle. Einen richtigen Effekt erzielt man nur, wenn nebenher ein Workload läuft der wirklich Ressourcen frisst und die CPU aufhält.
Also nebenbei auf einem zugeteilten Thread etwas rendern oder der Virenscanner macht eine aufwendige Prüfung des Systems.
Ansonsten ist das Argument hanebüchen. Niemand braucht eine Multithread CPU für Games oder den normalen Gebrauch. Interessant wirds erst dann, wenn etwas gerendert wird oder Aufgaben anstehen die wirklich eine CPU mit vielen Threads brauchen.

Bei einem i3 reicht schon ein Download parallel zum Spiel und er bricht ein, große Last würde ich das nicht unbedingt nennen.
CPU-Multitasking im Test: AMD FX vor Intel Core i7 und i5
Ich habe nicht gesagt, dass man einen FX8 zum zocken braucht, wollte nur darauf hin weisen, dass ein i3 schnell mal am Ende ist, wenn er nicht in dem "Testlabor" betrieben wird. Aus besagtem Grund würde ich persönlich einen FX6 jedem i3 vorziehen.
 
Zuletzt bearbeitet:
@sTOrM41
Das ist das was ich nicht verstehe. Schaue ich mir Deine Systeminfo an, dann sehe ich sehr viel Geld, das Du für Hardware ausgegeben hast. Bei Deiner Canon EOS 450D hättest Du doch auch sparen können, weil Fotos kann man auch billiger machen.
Auf der anderen Seite erzählst Du, das gesparte 40€ Euro gegenüber dem i5 es bringen. Ich will Deinen FX-8320 nicht schlecht reden. Ist doch schön, wenn Du damit zufrieden bist. Wer heute aber Neu kauft, der setzt bei einem FX-8320 auf eine alte CPU und einen toten Sockel. Selbst AMD hat das erkannt und bastelt an etwas Neuem.

An den über mir:
Wer kauft sich denn heute einen i3, wenn gezockt werden soll? Doch nur die Leute, wo das Budget echt stramm ist. Diese Leute sollten besser nicht zocken sondern einen zweiten Job finden, so das Butter auf dem Brot ist. Sorry für die krasse Ausführung.
 
Zuletzt bearbeitet:
Was das denn für eine Logik, soll ich meine fotoshootings mit der Handy Kamera machen :fresse: ?

Meine 8320,7950 und 450d haben zusammen weniger gekostet als manch andere hier alleine für ihre graka bezahlt haben.
 
Zuletzt bearbeitet:
Ich glaube die wenigsten werden neben einem Spiel noch einen Steam Download laufen lassen oder gar neben dem Spiel einen Steam Download laufen lassen, gleichzeitig noch Bilder konvertieren und einen H.264-Film rendern lassen. Diese Multitasking Lasten sind in meinen Augen eher die konstruierten Laborbedingungen.

In der Realität werden die meisten Spieler ein Spiel spielen und das war es. Ich würde einen aktuellen i3 immer einem FX6 vorziehen. Zumal, falls die Leistung einmal nicht mehr reichen sollte, man einfach einen i5 oder i7 reinstecken könnte. Aber letzendlich kann man natürlich auch mit langsamen und veralteten CPUs leben; ich nutze selbst auch noch ohne Probleme einen Phenom II.
 
Zuletzt bearbeitet:
tjoa kann leider nix dafür das man bei intel nur die K cpus richtig übertakten kann.

für 4,5ghz und mehr braucht man beim 8320 nen 70€ brett und nen 30€ kühler,
4-4,2ghz gehen aber sowohl beim fx6300 wie auch 8320 mit dem boxed kühler und nem billigen brett
http://geizhals.at/de/biostar-a960d-a886141.html

sind dann also 120€ (fx63 mit brett) bzw 150€ (fx83 mit brett)
gegen den i5 (190 mit brett)

Das erste verfehlt schon wieder die Realität, OC ist ein Randgruppen-Spielzeug und selbst von der Randgruppe greift nur eine Minorität zu AMD. Das hat seine Gründe. Mit den 4 Ghz kommst du im Mittel nicht an einen i5 ran, sonst wären der FX 8350 in fast jedem Ranking hinter den i5s. Und die OC-Fähigkeiten der AMD-Billig-Boards hätte ich gerne mal bewiesen, das wird hier immer gerne gesagt, aber es gibt im Forum zig Threads, die das Gegenteil beweisen. 70-80€ musst du für ein OC-Board hinlegen, wenn du nicht Jeopardy Spielen willst.
 
Also ich behaupte mal das jemand der nicht in der Lage ist im BIOS nen Multiplikator zu verändern auch nicht in der Lage ist ein mainboard samt CPU zu verbauen.

Das 30€ biostar Brett unterstützt offiziell den 8350, logischerweise läuft da also auch nen 8320 mit selben Frequenzen drauf.
 
Zuletzt bearbeitet:
Gibt auch Boards, die Anfangs den FX 8350 unterstützten und jetzt nicht mehr, außerdem, wie bereits gesagt hängt der FX 8350 auch einem i5 im Mittel hinter her. Aber der erste Satz zeigt schon, dass es dir nicht um die sachliche Diskussion geht... Wille != Fähigkeit!

Nun denn wir kommen eh nicht auf einen Nenner...
 
Ob der 8320 mit oc im mittel langsamer ist als nen kleiner i5 ohne oc sei mal dahin gestellt, selbst wenn ist der 8320 mit oc und mainboard aber immer noch 20-30% billiger als der i5 mit Brett (dürfte also auch entsprechend langsamer sein)
 
Zuletzt bearbeitet:
Ob der 8320 mit oc im mittel langsamer ist als nen kleiner i5 ohne oc sei mal dahin gestellt, selbst wenn ist der 8320 mit oc und mainboard aber immer noch 20-30% billiger als der i5 mit Brett (dürfte also auch entsprechend langsamer sein)

Was die Leistung angeht: Intel Xeon E3-1231 v3 im Test (Seite 4) - ComputerBase Der popelige i5 4430 mit 3 Ghz ist 8% schneller als ein FX 8350 im Mittel(FullHD). Der Rest deiner Argumentation steht und fällt mit der Güte und dem Preis des Boards, wo sich mit die Frage stellt, warum du kein 30€-Board sondern ein 80€-Board verwendest und der Frage nach der Kühlung...
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh