AMD mit angeblich neuem x86-Kern in Entwicklung

john201050 schrieb:
Ah, ist AMD einmal nicht ewig weit hinter allen Intels abgeschlagen, dann ist das Spiel Fehlerhaft. Denn es bremst Intels ganz gezielt stark. Vermutlich noch von AMD geschmiert worden, oder? Das AMDs einfach mal gut Performen kann ja nicht sein.
Manche Leute haben Vorstellungen...

Bisher war es so. Seit Crysis 3 glaube ich nicht mehr an ein Wunder was die Spieleleistung von Faildozer angeht.:fresse2:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
würde mich bald wundern wenn das ganze bei watch dogs nicht sehr ähnlich ausschaut


copc5cmnrdufgpbgv.jpg

Watch Dogs
 
Die interessantesten Folien hast du weggelassen - beim 780ti sli sieht man schön wie die FX einbrechen und nur anhand des Turbo skalieren -> multithreaded sieht anders aus. Der I3 knabbert den FX8350 auch wieder an -> 2 Kerne+HT ~ 4Module. Die Heizplatte wird von einem Stock-2500K überholt sobald die Grafikkarten mit Daten gefüttert werden wollen......Wie zum Teufel kommt man da auf die Idee eine derartige Architektur würde etwas "bringen"?
 
ja macht auf jedenfall sinn nen 1200€ sli gespann mit nem 85€ fx6300 zu kombinieren :fresse:


das ding ist mit oc flink genug um in WD jede karte bis hoch zur 780ti zu befeuern.


interessantweiße gehen die messungen bei verschiedenen benchmarks ziemlich auseinander,
laut pcgh profitiert WD von 8 threads (wenn auch nicht viel)
http://www.pcgameshardware.de/Watch...s/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

laut den messungen von gamegpu und mir selbst profitiert das spiel nicht von mehr als 6.
 
Zuletzt bearbeitet:
Das Problem an der Diskussion ist, dass man her nicht von reinem Multithreading reden kann. Watchdogs zeigt schön, dass diese "Software" in der Lage ist fehlende Pro-Thread-Leistung notfalls in die Breite zu kompensieren, nativ Multithreading ist es allerdings nicht, sonst würde sich der 3970x deutlicher vom vom 2600k absetzen, da münden die 50% mehr Ausführungseinheiten nämlich nur in 21% mehr Leistung. Ich nehme mal nicht an, dass in FullHD die 295x2 limitiert. :d
 
interessantweiße gehen die messungen bei verschiedenen benchmarks ziemlich auseinander,
laut pcgh profitiert WD von 8 threads (wenn auch nicht viel)
Watch Dogs Technik-Test: Next-Gen-Hackerspiel mit GPU- und CPU-Benchmarks

laut den messungen von gamegpu und mir selbst profitiert das spiel nicht von mehr als 6.

Das liegt, wie ich oben schonmal erwähnt habe, einfach mal daran, das eine AMD GPU über den Treiber ganz anders auf die CPU "Breite" und "Stärke" Skaliert wie eine NV GPU.
Und wie es der Zufall auch will haben die Leute von GameGPU sogar Messungen dazu parat: (leider aber nur MGPU, SGPU ist aber ebenso ähnlich...)

AMD:
http--www.gamegpu.ru-boqda.jpg

http--www.gamegpu.ru-s8pou.jpg


NV:
http--www.gamegpu.ru-lcole.jpg

http--www.gamegpu.ru-j5rs2.jpg



Auffallend dabei ist, das NV mehr skaliert. Speziell im Ultra Present. Wärend bei den AMD Messungen nur der Hexacore Intel raussticht und die anderen oberen Modelle bei nichtmal 10% Unterschied zu finden sind.
 
Wärend bei den AMD Messungen nur der Hexacore Intel raussticht und die anderen oberen Modelle bei nichtmal 10% Unterschied zu finden sind.
Laut NVIDIA soll GameWorks ja AMD nicht benachteiligen. Danke für den Gegenbeweis.
Oder anders ausgedrückt NVIDIA hat hier nicht nur die Möglichkeit die Performance im Treiber zu verbessern, sondern direkt im Spiel selber und nimmt AMD die Möglichkeit dies auch zu tun.
Auch ein lustiger Blog dazu: http://richg42.blogspot.de/2014/05/the-truth-on-opengl-driver-quality.html. Auch wenn die Hersteller nicht namentlich erwähnt werden, ist es traurig wie einfach man diese erkennt.
 
Zuletzt bearbeitet:
Mir wäre neu, dass AMD Nvidia von Mantle profitieren lässt. Das ist gehüpft wie gesprungen, die wollen ale Geld verdienen, da hilft keiner der Konkurrenz mehr als nötig. Da ist der jeweilige Hardware-Sektor auch ziemlich egal.
 
Wer sagt das das eine Benachteiligung ist?
Schaut für mich viel eher so aus, als streut der AMD Treiber ganz anders.

Mal ganz davon ab, derartige Messungen findet man äußerst selten, aber wenn man welche findet, zeigen diese alle das gleiche Bild. NV GPU skaliert völlig anders als AMD. Unabhängig von der verwendeten CPU bzw. des Herstellers der CPU.
Die Werte sind vor allem insich schlüssig... Sprich der i5 2500K ist hinter dem 4670K, wärend die i7 Modelle 2600K und 4770K gut weit schneller sind wegen SMT. Aber dort ist ebenso die Reihenfolge gleich.
Viel interessanter ist aber, das der i7 Intel fast 60% schnell ist, wie der i3 unter NV. Wärend bei AMD dies nur unwesentlich nach oben hin streut. Bei AMD FX CPUs ein ähnliches Bild, auch wenn dort die Skalierung etwas schlechter ist.
 
Ich finde einfach das Beispiel schlecht, da nicht ersichtlich ist, ob die Skalierung vom Teiber oder der GameWorks Bibliotheken kommt.
Desweiteren kann ich nicht beurteilen, ob die "schlechte" Skalierung bei AMD im Gegensatz zu NVIDIA nicht an fehlenden Optimierungen im Treiber liegen oder generell so sind.
Wäre das Spiel neutral in der Entwicklung gewesen, könnte kein Treiber nach Release rauskommen, der das Spiel um sage und schreibe 99% im Crossfire beschleunigen soll: AMD Catalyst 14.6 mit höherer Leistung, mehr Mantle und besserem Eyefinity - PC Masters. Und irgendwie bezweifel ich, dass der Performancegewinn sich auf alle CPUs niederschlägt, sondern das wird sich vermutlich NVIDA angleichen. Sprich die ohnehin stärken CPUs werden davon mehr profitieren.
Ich seh irgendwie weder AMD noch NVIDIA in der Breite skalieren, da ansonsten sich der fx 8150 vom fx 6300 hätte absetzen müssen. Die restliche Skalierung der CPUs finde ich auch durchaus schlüssig, wenn man sich diese nur Herstellerintern anschaut.
Kennst du einen Test mit immer der gleichen CPU und nur deaktivierten Kernen ohne SMT und unterschiedlichen Grafikkarten? Würde mich mal interessieren.
 
Wer sagt das das eine Benachteiligung ist?
Schaut für mich viel eher so aus, als streut der AMD Treiber ganz anders.

Mal ganz davon ab, derartige Messungen findet man äußerst selten, aber wenn man welche findet, zeigen diese alle das gleiche Bild. NV GPU skaliert völlig anders als AMD. Unabhängig von der verwendeten CPU bzw. des Herstellers der CPU.
Die Werte sind vor allem insich schlüssig... Sprich der i5 2500K ist hinter dem 4670K, wärend die i7 Modelle 2600K und 4770K gut weit schneller sind wegen SMT. Aber dort ist ebenso die Reihenfolge gleich.
Viel interessanter ist aber, das der i7 Intel fast 60% schnell ist, wie der i3 unter NV. Wärend bei AMD dies nur unwesentlich nach oben hin streut. Bei AMD FX CPUs ein ähnliches Bild, auch wenn dort die Skalierung etwas schlechter ist.
Naja an eine Benachteiligung glaube ich auch nicht wirklich, zumal GameGPU relativ früh testet, also die Treiber noch nicht optimiert sind.
Es gibt inzwischen zig Techniken die Versuchen die FPS gleichmäßig zu halten, auch bei Single GPUs dank SMT! (Aber das ist eine anderes Thema)

Der Skalierungs Unterschied (nv vs AMD) kann somit auch am Frame Pacing liegen, das Standard mäßig im Catalyst Treiber aktiviert ist.
Und ein I7-4770k wird sich im CPU Limit niemals so weit von einem FX-9590 entfernen können, da werden wohl wieder nicht alle Ressourcen (Kerne) genutzt.

MfG
 
Ich finde einfach das Beispiel schlecht, da nicht ersichtlich ist, ob die Skalierung vom Teiber oder der GameWorks Bibliotheken kommt.

Wie willst du das außeinander halten? Wenn man es außeinanderhalten wollen würde, müsste man synthetischen Workload testen, wo man die Bibliotheken wechselweise an und ausknipsen kann. Und das ganze noch mit verschiedenen Treibern. Gibts sowas? Ich glaube nicht...

Ansonsten, es gibt bspw. auch MP BF4 Benches, zwischen AMD DX und NV DX. Das war als die Leute anfingen die Mantle Ergebnise zu "glauben" und die Prophezeitung mit dem NV "Wundertreiber" gegenprüfen wollten -> Ergebnis identisch. Da hatte sontin seinerzeit im GPU Unterforum mal nen Link gepostet. Ich glaube das war pcper.com. Sprich das AMD DX skaliert bei fixen CPUs flacher als das von NV.

Sind halt alles nur Momentaufnahmen, kann sich mit dem nächsten Patch oder nächsten Treiber wieder völlig anders verhalten. Dennoch ist die Tendenz an den Bildern klar ersichtlich... Von irgendwelchen Benachteiligungen sehe ich da nix. Auch gelten die AMD CPUs nicht umsonst in Sachen Spieleperformance nicht zu den "Rennern", was absolute Performance angeht. Wieso sollte das hier auf einmal anders ausschauen?

Ich seh irgendwie weder AMD noch NVIDIA in der Breite skalieren, da ansonsten sich der fx 8150 vom fx 6300 hätte absetzen müssen. Die restliche Skalierung der CPUs finde ich auch durchaus schlüssig, wenn man sich diese nur Herstellerintern anschaut.

?? Was siehst du da nicht skalieren? Klar zu erkennen ist, das bspw. SMT bei NV skaliert, wärend es bei AMD nicht skaliert. (~10%...). Ebenso ist klar erkennbar, das die NV GPUs bei schnelleren CPUs deutlich mehr Performance rauskloppen als die gleichen CPUs mit einem AMD GPU Gespann. Oder anders ausgedrückt, das AMD GPU Gespann benötigt mehr CPU Performance um auf "Touren" zu kommen.
Und der 8150 ist alte Technik (Bulldozer), der 6300 ist Vishera. Man schaue auf den Vorsprung von 8150 zu 8350, was durchaus viel ist für gleiche "Bedinungen". Teilweise 20%...
Und wenn du auf FX6 auf FX8 Skalierung anspielst -> das sind gerade mal 33% mehr Einheiten verbaut. Der Hexacore Intel skaliert bei 50% theoretischer Performance ebenso alles andere als Perfekt. Interessant wäre mal ein gegentest mit nem 8 Kern Intel. Sprich Xeon E5-2687w. Könnte bspw. auch daran liegen, das die Threadzahlen 3, 6 und 12 teilweise etwas aus der Skalierungsreihe fallen...

Der Skalierungs Unterschied (nv vs AMD) kann somit auch am Frame Pacing liegen, das Standard mäßig im Catalyst Treiber aktiviert ist.
Und ein I7-4770k wird sich im CPU Limit niemals so weit von einem FX-9590 entfernen können, da werden wohl wieder nicht alle Ressourcen (Kerne) genutzt.

Es ist völlig wurscht wie viele Cores da genutzt werden. Mein Argument zielt einzig darauf an, das die Skalierung des Treibers über den CPU Speed bei AMD zu NV völlig anders ausschauen kann.
Was die Treiber angeht, wurde beim Test oben mit den jeweils neuesten Treibern getestet ;)
 
Offenbar liegt das am AMD CPU Overhead.
PCGH hat das in der aktuellen Heftausgabe getestet und man muss sagen, dass Nvidia da derzeit doch deutlich besser aufgestellt ist.
Mantle ist also erfolgreich gekontert worden, auch ohne API.
 
Oder aber AMD hält "künstlich" den DX Ball flach um Mantle zu pushen. Wie ich Anfang des Jahres schon mehrfach vermutet hatte ;)
Oder anders ausgedrückt, man optimiert nicht mehr in dem Maße die DX Implementation und steckt dort notwendigen Grips rein um das bestmögliche Ergebnis zu erreichen, sondern versucht eher die eigene API zu pushen.
Hat ja anfangs auch supi geklappt, wo alle Welt AMDs DX Umsetzung mit AMDs Mantle Umsetzung verglich :fresse:
 
Also ich halte dieses Gelaber von wegen "NV hat es geschafft weniger die CPU zu belasten" für Blödsinn. Es mag punktuell bei ausgesuchten Titeln stimmen, im Großen und Ganzen hab ich da arge Zweifel. Und von einem Mantle-Konter zu sprechen, guter Witz. Das ist ein purer Marketingkonter. Man hat mMn Workarounds im Treiber, eine Praxis die früher von beiden IHVs betrieben wurde. Diese Praxis ist mal eingeschlafen und erwacht jetzt wieder zum Leben. NV musste ja auch lernen, dass man immer noch mit Spielen Geld verdient. Mit Tegra lässt sich nur begrenzt Geld verdienen, vor allem, da ja jetzt die Firmen mit richtig Know-How und/oder unendlich Geld in den Markt kommen und in den nächsten Jahren sich einiges in der CPU-Entwicklung tun wird.
Intel entert mit x86ern die ARM-Märkte, getragen vom Fortschritt bei der Fertigung, AMD, Qualcomm und Apple kommen mit eigenen High-End-ARMs in den Markt - meiner Ansicht nach hat NV hier nicht den Hauch einer Chance dagegen im CPU-Markt.
Man konzentriert sich also wieder mehr auf das was man kann, PC-Spiele.
Hinzu kommt noch, dass die dicken Tesla-Parallel-CPUs von Intel massiv attakiert wurden mit Xeon Phi (demnächst in 14nm) und auch AMD sich anschickt in diesen Markt einzutreten.
Fazit: Man steckt wieder Geld in Treiber und Hersteller-Support, was AMD momentan nur begrenzt macht. Demnächst kommen wieder haufenweise Gaming-Evolved-Titel von EA und Square-Enix, mit Mantle-Support natürlich, da siehts dann wieder ganz bitter aus. Vor allem, dass Star Citizen mit Mantle kommt, wird NV extrem treffen, weil das ein Hardwarekiller wird, wie Ultima9 oder Crysis seiner Zeit.
 
Zuletzt bearbeitet:
Also ich halte dieses Gelaber von wegen "NV hat es geschafft weniger die CPU zu belasten" für Blödsinn. Es mag punktuell bei ausgesuchten Titeln stimmen, im Großen und Ganzen hab ich da arge Zweifel. Und von einem Mantle-Konter zu sprechen, guter Witz. Das ist ein purer Marketingkonter. Man hat mMn Workarounds im Treiber, eine Praxis die früher von beiden IHVs betrieben wurde.

Aber ist nicht genau das das gute an der Geschichte? Ich sehe da zwar auch in erster Linie Marketing, aber das ist mir vollkommen wurscht bei dem Thema. Denn ich als Endkunde habe einen Mehrwert... Warum soll ich Mantle hochloben und gut finden, wenn doch genau jene Marketingabteilung uns erzählen will, das DX so schlecht sei?
Man schaue mal hier:
http://techreport.com/r.x/mantle-cpu/bf4-fps.gif
Klar zu erkennen, das die AMD DX Umsetzung massiv viel schlechter agiert. Mantle ist "gewohnt" gut. Klar, aber wenn jetzt der Reviewer AMD DX gegen Mantle antreten lässt, und meint, die CPU Power, die AMD da mit DX Umsetzt, reicht nicht über höhere FPS und münzt das dann auf den globalen Markt, liegt man einfach massiv daneben...

Ich denke, die Masse hätte kein Problem an einem Konkurenzkampf im Grafikschnittstellenmarkt. Aber die Masse hat ein Problem damit, wenn man das eine versucht zu puschen und das andere dafür hinterm Berg hält. Und die Unterschiede sind teils extrem drastisch!
Und das ist das Paradebeispiel für Mantle. Und da stehen mal eben 32% mehr FPS auf der Uhr, bei gleichem Unterbau (Kaveri). Was das marketing dabei explizit verspricht ist für mich primär unwichtig, solange ich einen Mehrwert habe. Und den habe ich... Auch wenn man von der roten Partei DX als DEN Flaschenhals schlechthin sieht. Offenbar gehts aber auch anders...
 
bei pcgh hat man die cpu benches aktualisiert

coqnjann4gtgyu0y7.gif


so nen billiger 120€ 8320 ist mit oc was p/l an geht echt gut dabei.
 
Zuletzt bearbeitet:
fdsonne
Ja, aber mit Treiberaufwand. Aber das ist nunmal blöderweise nicht repräsentativ sondern nur bei einigen wenigen Top-Titeln und natürlich Mantle-Titel der Fall (NV wird aus Marketinggründen grade die Mantle-Titel optimieren, AMD aber nicht, von daher kannste die DX-Vergleiche bei Mantle-Titeln eh in die Tonne hauen). Beim großen Rest gibts zwischen NV und AMD keinen Unterschied. Weder die propertiäre Schnittstelle noch Treiberoptimierung für einzelne Titel um die eigene Hardware besser darstehen zu lassen als sie ist ist nicht toll. Bei Mantle besteht aber die Hoffnung, dass es nicht propertiär bleibt und durch Mantle bewegt sich an der Front endlich mal was, was ziemlich gut ist und mit DX12 solche Treiberoptimierungen überflüssig macht. Schnittstelle eigentlich Pfui, aber Marktbewegung dadurch hui. Treiber"optimierungen" sind per se pfui, weil man damit eigentlich die Ergebnisse verflälscht, man lässt GPUs in einigen wenigen Top-Titeln besser darstehen als sie in den restlichen Titeln eigentlich sind. Bei Mantle ist das was anderes, weil es wirklich was bringt und weil es transparent ist.
 
Zuletzt bearbeitet:
bin mal gespannt ob das was wird

Bulldozer war so schlecht das ich bis heute beim Phenom II geblieben wäre wenn ich das gewusst hätte. aber nein es wurde einem damals ja erzählt bulldozer unterliege einer software bremse unter win 7 etc :fresse:

die heutigen buldozer MK2 und MK3 sind so wenig besser, das es sich nichtmal für mich lohnt meinen MK1 gegen die auszutauschen. das einzig sinnige upgrade wäre auf intel zu wechseln.

also wer 2009-2011 eine amd cpu gekauft hat, brauch echt nicht ans aufrüsten denken sofern er only amd will :fresse:
 
em nighteye
schauen wir uns die selben bilder an?
der fx8350 ist dem PH2 1100 in allen mind 50% überlegen?
 
er ist im optimalfall 50% schneller, ja. aber das ist selten der fall. er ist aber nicht 50% effizienter pro watt. die intels schon.
 
Zuletzt bearbeitet:
@sTOrM41
Denk immer daran: Jeder legt sich seine kleine Welt so zurecht, damit er sich als wichtig darin erachtet. Hab mir gestern den FX8320 für nichtmal 120€ bestellt. Was bitte gibt es beim Monopolisten, der von den ganzen Geblendeten als Messias gepriesen wird, als echte Alternative?
Lauter beschnittene CPUs, ohne Multi, ohne Hyperthreading.
Seit 15 Jahren fahre ich meine Schiene mit AMD-Prozessoren und noch nie hat mich einer davon enttäuscht. Leistung liegt im Auge des Betrachters. Ob ich nun 100 oder 90fps habe ist mir wurst.
 
Wenn du den OCfähigen Kühler und ein eventuell teureres Board mit einrechnest um den FX auch tatsächlich auf brauchbare Touren bringen zu können, dann gibts bei Intel den i5 4440 als Alternative...

Klar, ausreichen tut der FX auch :)
 
Winchester73 schrieb:
Seit 15 Jahren fahre ich meine Schiene mit AMD-Prozessoren und noch nie hat mich einer davon enttäuscht. Leistung liegt im Auge des Betrachters. Ob ich nun 100 oder 90fps habe ist mir wurst.

Bis du dem Planet3D now Forum entsprungen? Da argumentiert man auch so Zeugs und lässt Tatsachen immer weg.
Du kaannst den FX-8320 auch auf 5,2ghz prügeln, in einem Mix aus Anwendungen und Spielen ist er trotzdem nicht schneller wie ein i5 4440, insofern sinnlos.

Es spricht nichts mehr für einen FX-8320 oder FX-8350, die einzige CPU die meiner Meinung nach grade noch ok ist, ist der FX-6300, der selbst aber stark mit den i3 Haswell zu kämpfen hat.
 
Wenn du den OCfähigen Kühler und ein eventuell teureres Board mit einrechnest um den FX auch tatsächlich auf brauchbare Touren bringen zu können, dann gibts bei Intel den i5 4440 als Alternative...

dann brauchste aber noch board für den i5 ;) und boxed kühler ist auch nicht das wahre. also so würde ich nicht argumentieren.

ich finde die FX nach wie vor gut. wie schon gesagt freier multi niedriger preis, genug threads. Intels lohnen sich erst ab höheren summen. ein i3 ist für mich keine alternative zu einem FX6300. allein schon wegen multi core support der immer mehr zunimmt.
 
Nighteye schrieb:
dann brauchste aber noch board für den i5 und boxed kühler ist auch nicht das wahre. also so würde ich nicht argumentieren.

Der boxed ist für die 70 watt Verbrauch ausreichend, während es der AMD Boxed nicht ist und röhrt, habs selbst getestet.
Die FX kannste mittlerweile alle in der Pfeife rauchen, die sind mittlerweile nicht mehr gut, sondern unnötig, kauft kein Mensch mehr.

Zum Gamen ist ein i3 4340 genausoflott wie ein FX-8350 im Mittel der Spiele, bei 1/5 des Verbrauchs und deutlich geringeren Stromkosten und weniger Anschaffungskosten.

Nighteye schrieb:
wie schon gesagt freier multi niedriger preis, genug threads. Intels lohnen sich erst ab höheren summen. ein i3 ist für mich keine alternative zu einem FX6300. allein schon wegen multi core support der immer mehr zunimmt.

Ich sehe kenen zunehmenden Multicoresupport, auch in Watch Dogs ist der FX-6300 nicht schneller, geschweige den ein FX-8350 schneller ( vielleiht 5% ).
AMD kann halt Intels 50% IPC Vorsprung nicht mit Kernen ausgleichen, das klappt nur in Anwendungen und selbst da steht ein FX-8350 gegen den schnellsten i3 eher schlecht da, wegen der 20 bis 30% Merhleistung im Mittel.
 
Zuletzt bearbeitet:
Also laut pcgh ist mein 8320 in WD doppelt so schnell wie der i3
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh