Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Der boxed ist für die 70 watt Verbrauch ausreichend, während es der AMD Boxed nicht ist und röhrt, habs selbst getestet.
Die FX kannste mittlerweile alle in der Pfeife rauchen, die sind mittlerweile nicht mehr gut, sondern unnötig, kauft kein Mensch mehr.
Zum Gamen ist ein i3 4340 genausoflott wie ein FX-8350 im Mittel der Spiele, bei 1/5 des Verbrauchs und deutlich geringeren Stromkosten und weniger Anschaffungskosten.
Ich sehe kenen zunehmenden Multicoresupport, auch in Watch Dogs ist der FX-6300 nicht schneller, geschweige den ein FX-8350 schneller ( vielleiht 5% ).
AMD kann halt Intels 50% IPC Vorsprung nicht mit Kernen ausgleichen, das klappt nur in Anwendungen und selbst da steht ein FX-8350 gegen den schnellsten i3 eher schlecht da, wegen der 20 bis 30% Merhleistung im Mittel.
fdsonne
Ja, aber mit Treiberaufwand. Aber das ist nunmal blöderweise nicht repräsentativ sondern nur bei einigen wenigen Top-Titeln und natürlich Mantle-Titel der Fall (NV wird aus Marketinggründen grade die Mantle-Titel optimieren, AMD aber nicht, von daher kannste die DX-Vergleiche bei Mantle-Titeln eh in die Tonne hauen). Beim großen Rest gibts zwischen NV und AMD keinen Unterschied.
Treiber"optimierungen" sind per se pfui, weil man damit eigentlich die Ergebnisse verflälscht, man lässt GPUs in einigen wenigen Top-Titeln besser darstehen als sie in den restlichen Titeln eigentlich sind. Bei Mantle ist das was anderes, weil es wirklich was bringt und weil es transparent ist.
Was is das für ein komisches Argument?@sTOrM41
Denk immer daran: Jeder legt sich seine kleine Welt so zurecht, damit er sich als wichtig darin erachtet. Hab mir gestern den FX8320 für nichtmal 120€ bestellt. Was bitte gibt es beim Monopolisten, der von den ganzen Geblendeten als Messias gepriesen wird, als echte Alternative?
Lauter beschnittene CPUs, ohne Multi, ohne Hyperthreading.
Seit 15 Jahren fahre ich meine Schiene mit AMD-Prozessoren und noch nie hat mich einer davon enttäuscht. Leistung liegt im Auge des Betrachters. Ob ich nun 100 oder 90fps habe ist mir wurst.
Intel lässt amd nur etwas Luft zum atmen. Daher kostet der kleinste Quad mit oc auch 180 Euro obwohl er mit gigantischer igpu die Größe eines ehemaligen celeron hat...
Trotz allem wird der amd zukünftig besser dastehen, wie man an WD gut sehen kann. Viele cores und viele threads mit halbwegs brauchbarer ipc. Genau das was amd mit dem konsolendeal erreichen wollte oder musste. Das ändert aber nichts daran, dass ein Intel 8 Core bald Kreise um den fx dreht.
Ich zitier mal aus meinem schon vorher verlinktem Blog:fdsonne schrieb:Was ist daran pfui?
Der Treiber rückt eine Hardware in genau das Licht, was sie von der Technik zu leisten im Stande ist. Lässt man das weg, bleibt Leistung hinterm Berg. Das gilt für alle beteiligten und benachteiligt daher auch keinen.
Das ist daran pfui und erklärt auch den Wunsch einiger Entwickler selber an der Performance schrauben zu können.http://richg42.blogspot.de/2014/05/the-truth-on-opengl-driver-quality.html schrieb:Historically, this vendor will do things like internally replace entire shaders for key titles to make them perform better (sometimes much better). Most drivers probably do stuff like this occasionally, but this vendor will stop at nothing for performance. What does this mean to the PC game industry or graphics devs? It means you, as "Joe Graphics Developer", have little chance of achieving the same technical feats in your title (even if you use the exact same algorithms!) because you don't have an embedded vendor driver engineer working specifically on your title making sure the driver does exactly the right thing (using low-level optimized shaders) when your specific game or engine is running. It also means that, historically, some of the PC graphics legends you know about aren't quite as smart or capable as history paints them to be, because they had a lot of help.
Machen die immer noch diese Blödsinnstests ? CPUs für 90/120€, mit einer GK die weit über 500€ kostet zu testen ist wirklich GAGA - Fast so wie einen 911er mit nem 75ps Motor an seine Leistungsfähigkeit zubringen
Machen die immer noch diese Blödsinnstests ? CPUs für 90/120€, mit einer GK die weit über 500€ kostet zu testen ist wirklich GAGA - Fast so wie einen 911er mit nem 75ps Motor an seine Leistungsfähigkeit zubringen
Warum programmiert das Gesindel dann nicht mit C/inline assembly sowie OpenCL core? Warum benutzen die proprietäre Software oder lassen die Leute aus den Firmen Quellcode schreiben? Das sind alles hausgemachte Probleme die einfach zu beheben wären, aber statt den @rsch mal hochzukriegen kommt nur mimimi alle sind so böse.....Das ist daran pfui und erklärt auch den Wunsch einiger Entwickler selber an der Performance schrauben zu können. Es benachteiligt sämtliche Entwickler, deren Produkte die Grafikhersteller nicht als optimierungswürdig erachten. Außerdem benachteiligt es die Grafikkartenhersteller, die nicht direkt am Entwicklungsprozess des Spiels beteiligt sind, da sie weniger Möglichkeiten haben zu optimieren.
Die Chipgrößen haben es dir angetan oder? Wie AMD in Zukunft da stehen wird, weiß keine Sau. Die glorreiche "Gaming-Zukunft" wird jedes ja durch irgendeinen AAA-Titel herauf beschworen und kommt dann doch nicht. Darüber hinaus kehrt AMD dem Bulldozer-Design den Rücken und die Dinger werden nicht schneller. Ein FX 8320, der jetzt zwischen i3 und i5 in der Regel steht, wird nächstes Jahr gegen Skylake nicht besser, eher schlechter, da stehen. Bewahrheitet sich das Gerücht mit dem "günstigen" kastrierten Haswell-E Sechskerner, dürfte das eher noch früher der Fall sein.
Ich bezahle halt ungerne zu viel. Würde mich ärgern 600€ in eine 7900GTX zu stecken wenn kurz darauf eine fast 3x so schnelle 8800GTX erscheint. Oder in einen p4+ht vor den wirklichen dualcores. Meiner Meinung nach wird devilscanyon der letzte Quad, so wie einst der E8600. Noch mal schön in die Vollen und die letzten quads verkaufen bevor es eine Stufe der Leiter im mainstream raufgeht.
Aber glucklicherweise wird ja niemand zum kauf gezwungen.
Meiner Meinung nach wird devilscanyon der letzte Quad, so wie einst der E8600. Noch mal schön in die Vollen und die letzten quads verkaufen bevor es eine Stufe der Leiter im mainstream raufgeht.
In welchem Szenario verbraucht der FX8 denn 5 mal so viel Strom?
In welchem Szenario verbraucht der FX8 denn 5 mal so viel Strom? Das einzige was ich im Netz finde, ist der ca. dreifache Verbrauch, wenn man ihn mit Prime oder x264 quält (wo er nebenbei dann auch die doppelt so große Rechneleistung besitzt aber das nur mal so am rande). Also Vollast auf allen Kernen.
Das ganze passt aber nicht zu deiner Theorie mit den Spielen, worum es hier ja geht, denn die Lasten die 8 Threads ja gar nicht aus. Addieren wir auf beide "Rechner" noch den Verbrauch der 200W Grafikkarte drauf, egalisiert sich der Verbrauch fast schon wieder. Aber hey, Vernunft ist hier wohl nicht zu erwarten.
Ach und noch was zu dem ein i3 ist ja so viel besser als ein FX6/8. Lasst mal wärend dem Zocken irgendwas im Hintergrund laufen, also keine Laborbedingungen wie in den ganten Test, was glaubt ihr, wer mehr FPS am Ende hat? PS. dazu gibt es auch einen kleinen Test von der PCGH
john201050 schrieb:Deswegen fängt bei denen ein popeliger Quadcore fast 100 Euro über einem billigen AMD Quad an.
fdsonne schrieb:Was ist daran pfui?
Der Treiber rückt eine Hardware in genau das Licht, was sie von der Technik zu leisten im Stande ist. Lässt man das weg, bleibt Leistung hinterm Berg. Das gilt für alle beteiligten und benachteiligt daher auch keinen.
dochurt schrieb:Machen die immer noch diese Blödsinnstests ? CPUs für 90/120€, mit einer GK die weit über 500€ kostet zu testen ist wirklich GAGA - Fast so wie einen 911er mit nem 75ps Motor an seine Leistungsfähigkeit zubringen
Was auch richtig lustig war von PCGH, der damalige C3-CPU-Beta-Test ( Graslevel ), behinderte schlecht optimierte Soft wird zum Leistungsindex ....
Irgendwie fehlt mir da was, evt. die Leistung in Zeit gemessen: Die beste CPU: Raw-Konvertierung mit Adobe Lightroom - 50 Prozessoren im Test [Special der Woche]Betrachtest du die reine CPU, trifft das sehr wohl zu.
„Haswell“ als Dual-Core im Test (Seite 6) - ComputerBase
Delta Singlethreaded:
FX 8350: 40 Watt
i3: 10 Watt
Delta Multithreaded:
FX 8350: 125 Watt
i3: 20 Watt
In Spielen sieht der Unterschied vergleichbar aus, wie in Cinebench X CPU. Die Relationen liegen bei 1/4 bis 1/7 des Verbrauchs der reinen CPU bei wohl gemerkt fast gleicher Performance.
Naja, da geht es weniger um das oc an sich, eher um die Kontrolle über das System.Und der Vergleich OC vs kein OC ist generell für den Arsch, die 35€ Ersparnis beim FX 8320 frisst die Peripherie fürs OC wieder auf. Ein i5 läuft auf einem 35€-Gubbel-Board mit Boxed-Lüfter, übertakte mal mit dem beiden Sachen einen FX so, dass er mit dem i5 mithält...
Mal davon ab geht dieses "Mit-OC-Argument" komplett an der Realität vorbei, über 90% der PC besitzen tun dies nicht, wohl eher über 95%. Die kaufen und bezahlen Leistung out of the box.
Und der Vergleich OC vs kein OC ist generell für den Arsch, die 35€ Ersparnis beim FX 8320 frisst die Peripherie fürs OC wieder auf. Ein i5 läuft auf einem 35€-Gubbel-Board mit Boxed-Lüfter, übertakte mal mit dem beiden Sachen einen FX so, dass er mit dem i5 mithält...
Mal davon ab geht dieses "Mit-OC-Argument" komplett an der Realität vorbei, über 90% der PC besitzen tun dies nicht, wohl eher über 95%. Die kaufen und bezahlen Leistung out of the box.
P.S.: Erste Ausführung gilt auch für den FX 6300, bevor das Argument kommt der sei ja noch viel günstiger...
Betrachtest du die reine CPU, trifft das sehr wohl zu.
„Haswell“ als Dual-Core im Test (Seite 6) - ComputerBase
Delta Singlethreaded:
FX 8350: 3940</s> Watt
i3: 1110Watt
Delta Multithreaded:
FX 8350: 126125Watt
i3: 2620Watt
In Spielen sieht der Unterschied vergleichbar aus, wie in Cinebench X CPU. Die Relationen liegen bei 1/3,5 bis 1/4,81/4 bis 1/7des Verbrauchs der reinen CPU bei wohl gemerkt fast gleicher Performance.
PCGH hat in der Print auch Stromverbrauchmessungen unter Spielen gemacht. Dort sieht es für den FX nicht besser aus, in der Relation.
Virenscanner oder kleiner Jobs spielen überhaupt keine Rolle. Einen richtigen Effekt erzielt man nur, wenn nebenher ein Workload läuft der wirklich Ressourcen frisst und die CPU aufhält.
Also nebenbei auf einem zugeteilten Thread etwas rendern oder der Virenscanner macht eine aufwendige Prüfung des Systems.
Ansonsten ist das Argument hanebüchen. Niemand braucht eine Multithread CPU für Games oder den normalen Gebrauch. Interessant wirds erst dann, wenn etwas gerendert wird oder Aufgaben anstehen die wirklich eine CPU mit vielen Threads brauchen.
tjoa kann leider nix dafür das man bei intel nur die K cpus richtig übertakten kann.
für 4,5ghz und mehr braucht man beim 8320 nen 70€ brett und nen 30€ kühler,
4-4,2ghz gehen aber sowohl beim fx6300 wie auch 8320 mit dem boxed kühler und nem billigen brett
http://geizhals.at/de/biostar-a960d-a886141.html
sind dann also 120€ (fx63 mit brett) bzw 150€ (fx83 mit brett)
gegen den i5 (190 mit brett)
Ob der 8320 mit oc im mittel langsamer ist als nen kleiner i5 ohne oc sei mal dahin gestellt, selbst wenn ist der 8320 mit oc und mainboard aber immer noch 20-30% billiger als der i5 mit Brett (dürfte also auch entsprechend langsamer sein)