AMD,s Gaming Zukunft 2015-2017

Warum nicht mit Spielen Argumentieren ?
Weil erstens CPUs nicht ausschliesslich für Spiele gemacht werden und zweitens Spiele vor allem Systemperformance widerspiegeln und weniger reine CPU-Performance. CPUs testet man am besten mit normalen Anwendungen. Dort lässt sich Last, Art der Workloads und Messgenauigkeit viel besser regulieren, um die tatsächliche Leistungsfähigkeit zu bestimmen. Du kannst mit Spielen nichts messen, was du mit normalen Anwendungen nicht auch messen kannst. Umgekehrt gilt das nicht.

Messungen mit AMD-Prozessoren ergaben, dass Battlefield 4 stärker von zusätzlichen Kernen profitiert als bei der Konkurrenz von Intel.
Und wo ist da die Erkenntnis? Das hättest du schon beim Istanbul Launch und normalen Anwendungen sehen können. Das Problem ist vielmehr, solche Sachen sind nach wie vor eher die Ausnahme in Spielen. Die meiste Zeit kannst du in Spielen nur raten, was gerade für Last anliegt und ob Leistungspotenzial ungenutzt bleibt. Wenn ich zB in SST einen Thread einstelle, dann weiss ich, dass ein Thread tatsächlich komplett auf der CPU mit voller Last läuft. Oder wenn ich 4 Threads bei einem 4-Kerner oder 6 Threads bei einem 6-Kerner einstelle, dann weiss ich, dass die CPU komplett ausgelastet wird (Sachen wie SMT mal aussen vor gelassen). In Spielen hat man diese Lastdurchgängigkeit aufgrund diverser Wechselwirkungen, zB mit der GPU, nicht.


Er hat die Spiele aber nicht ausgeklammert, sondern eine allgemeingültige Aussage getroffen.
Ich habe aber auch nicht ausschliesslich von Spielen gesprochen. Insofern geht dein Einwurf am Thema vorbei.

Die niedrige Auflösung ist nötig, um die Leistung der CPU zu bewerten, denn sonst bewertet man die Leistung der GPU.
So zu messen sagt trotzdem nichts, weil die Leistungslimits unterschiedlicher Subsysteme ganz anders bei praxisnahen Auflösungen ausfallen können. Aber das Thema hat mittlerweile einen Bart. Wird wohl auch in Zukunft nicht jeder verstehen können oder wollen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das ist aber nur auf der PCGH halbwegs so mit der Gaming Performance der FX-Prozessoren.
 
Zuletzt bearbeitet:
In Spielen hat man diese Lastdurchgängigkeit aufgrund diverser Wechselwirkungen, zB mit der GPU, nicht.

Wenn man sich im CPU Limit bewegt, hat man das durchaus und das ist auch immer wieder der gleiche Fehler den du machst.

Weil erstens CPUs nicht ausschliesslich für Spiele gemacht werden und zweitens Spiele vor allem Systemperformance widerspiegeln und weniger reine CPU-Performance.

Natürlich tun sie das. Man muss lediglich die Qualitätseinstellungen dementsprechend anpassen.
 
Zuletzt bearbeitet:
Den Kontext zu der 25% Mehrleistung durch HTT verstehe ich nicht. Aber das der Boost nur dazu dient Balken schöner aussehen zu lassen, stimme ich zu. :bigok:

Damit wir wieder zum Thema kommen: Wir werden 2015 verbessertes Mantle und Treiber serviert bekommen von AMD. Was für eine Leistungsexplosion oder Verpuffung kommt nach Carrizo FM2+ Sockel, gibt es noch Anregungen?
Der Kontext deutet auf FMA4 mit 4 Operanten pro cycle, ebenfalls 25% mehr gegenüber FMA3.
Oder die Divider Einheit von Vishera.

Wenn nur die hälfte ankommt was ich mitmachen durfte, dann wird es fabelhaft. :xmas:
 
Zuletzt bearbeitet:
Es sagt mehr als wenn man CPU,s von 2006-2014 mit einer geforce 6 testet, und überall die gleichen fps als ergebnis hat.
Das mag sein. Am Ende des Tages hat beides trotzdem nur begrenzte Aussagekraft.


Wenn man sich im CPU Limit bewegt, hat man das durchaus
Nein, selbst dann nicht. Das liegt einfach daran, wie typische Game Loops aufgebaut sind, wie synchrone und asynchrone Routinen funktionieren und wie Grafiktreiber arbeiten. Das ist immer wieder das gleiche falsche Denken deinerseits.


Der Kontext deutet auf FMA4 mit 4 Operanten pro cycle, ebenfalls 25% mehr gegenüber FMA3.
Du meinst vermutlich was anderes. FMA4 hat in der Theorie die gleiche Performance wie FMA3. FMA4 bietet die Funktionalität lediglich mit non-destructive Encoding (so wie das zB ARM durchgängig bietet). Also Quell- und Zieloperand können unterschiedlich sein.

FMA3: A = A * B + C
FMA4: D = A * B + C

Das letzte hat den Vorteil, dass der Compiler mehr Freiheiten beim Optimieren hat und so in der Praxis uU doch ein paar Prozent gewonnen werden können.
 
Zuletzt bearbeitet:
Nein, selbst dann nicht. Das liegt einfach daran, wie typische Game Loops aufgebaut sind, wie synchrone und asynchrone Routinen funktionieren und wie Grafiktreiber arbeiten. Das ist immer wieder das gleiche falsche Denken deinerseits.

Und wie misst man dann die hier für die überwiegende Masse wichtige Spieleperformance einer CPU?
Mit Anwendungen? Ja vielleicht gar mit Anwendungen, die massiv von MT profitieren? Ja, wenn man das macht, dann schneiden die AMD CPUs zweifelsfrei für ihr Alter (AM3+) sehr gut ab. Mit der Praxis hat das dann aber doch wenig zu tun...

Auch dein Part oben mit der Systemperformance ist aus meiner Sicht etwas unglücklich gewählt. Es mag technisch richtig sein. Aber kann man die Systemperformance bei ein und der selben CPU nebst Restsystem irgendwie beeinflussen? Ich wüsste nicht wie...
 
Aber anhand der mit Abstand schlechtesten Spielen (Engine) der letzten 4 Jahren zu argumentieren, das AMD in den nächsten 3 Jahren nichts mehr Leisten wird/kann, ist aber auch etwas gewagt.

Ja die Prozessoren haben Probleme, aber sie reichen dennoch aus um genug FPS für die meisten spieler auf den Monitor zu zaubern.

Hier ist auch ein recht schöner test, der Zeigt, dass es eben nicht die Kerne/CMT sind, die probleme machen, sonst würde der Takt mehr bringen. Es limitiert etwas anderes.... vermutlich die NB bzw I/O und hier hat intel mit ihrer core architektur aktuell den Vorteil (Kerntakt bei den I/Os etc.), die Kerne an sich sind Leistungsfähig genug, siehe Anwendungsbenchmarks.
Results: Gaming - AMD FX-8370E Review: Pulling The Handbrake For More Efficiency

Also nach neuen Kernen zu schreien und L3 Cache bei den APUs bringt auch nichts. Natürlich wären Steamroller kerne oder Excavator kerne auf AM3+ nice to have, würden aber eben nicht das was ihr euch alle erhoft. Aus 27% mehr takt werden gerade mal 3% mehr Leistung in BF4 gewonnen. Bei Bioshock sind es immerhin 13%... aber immer noch weit weg von den 27% mehr Leistung.
 
Interessanter Test. Schade das die nicht auch NB OC getestet haben.
 
natürlich tun sie das nicht
das machen die meisten nicht
sonst wären die Ergebnisse besser als erwartet ;)
 
Auch underclocking wäre interessant gewesen. Evtl limitiert da ja was auch schon viel früher.
 
Aber anhand der mit Abstand schlechtesten Spielen (Engine) der letzten 4 Jahren zu argumentieren, das AMD in den nächsten 3 Jahren nichts mehr Leisten wird/kann, ist aber auch etwas gewagt.

Ich seh das ganze äußerst pragmatisch. Das was am Markt an Software ist, wird getestet. Wer dann die Nase vorn hat, gewinnt halt den Preis. Ob das dabei nun hochoptimierte Software ist oder es an sonstwas krankt, spielt aus meiner Sicht dabei keine Rolle. Nur die wenigsten Leute werden doch überhaupt das Wissen darüber haben, wie man sich da im Falle des Falles selbst helfen kann. (sofern überhaupt machbar) Für die Masse gilt, Software installieren, starten und losmachen... Und da fallen irgendwelche "schlecht optimierten Spiele/Engines" genau so drunter wie hochoptimierte MT Software.
Und wenn da nun Prozessor A gegen Prozessor B "alt" aussieht, dann ist das nüchtern betrachtet auch einfach so zu erwähnen. Da braucht man aus meiner Sicht nicht permanent darauf rumreiten, das die CPUs ja eigentlich ganz gut sind aber es hier und dort krankt weil dies und jenes nicht stimmt. Für den Anwender sieht es offenbar so aus, als würden die Prozessoren da eben kein Land mehr sehen. Und ebenso scheinen das mittlerweile nicht nur privat Endanwender so zu sehen, sondern auch Firmen im OEM und Server Geschäft.

Das hat ein wenig den Touch wie wenn ich behaupte, ich hätte das beste Prozessorarchitekturdesign ever in meiner Schublade liegen. Das Teil ist um Welten besser als die Sachen von Intel, AMD und Anderen zusammen. Im Betrieb wird noch Strom ins Netz eingespeist usw. und Kaffee kochen dann das Teil auch noch -> leider hat das Design einen Pferdefuß, man kann es nicht kaufen :fresse: Aber "hypt" mal schön mein Design und schießt mir die Kohle zu... Ihr habt zwar nix davon, aber was solls...

Ja die Prozessoren haben Probleme, aber sie reichen dennoch aus um genug FPS für die meisten spieler auf den Monitor zu zaubern.

Ich denke über diesen Punkt, das einfach eine Basisleistung abgedeckt wird, sind wir länger schon drüber hinaus... Um so schlimmer ist aber eben auch für den Kunden die Qual der Wahl. Denn damit rücken andere Kritieren in den Vordergrund. Wie eben Effizienz, wie eben Featureumfang, wie eben Boardauswahl/Schnittstellen usw. Ja selbst absolute Leistung kann da dann noch ein Kriterium sein. (man greift man wohl trotzdem primär zum schnelleren, auch wenn alle Kandidaten ausreichend fix sind)
 
Mit deiner Kann ich nicht kaufen Argumentation gehst du mir sowas von auf den Sack, wenn du dich an einer Diskussion beteiligen willst, dann doch bitte auch richtig, wenn dich das "hätte wäre könnte" nicht interessiert, dann lass es doch einfach bleiben.

PS.: ich hätte auch ne Wette abschliesen können, dass genau dieses Argument von dir kommt: "gibt es nicht, kann ich nicht kaufen", bzw. "Das ist aktuell am Markt verfügbar".


Die OEM Geschichte wurde hier auch schon oft genug durchgekaut, auch wenn dich das nicht interessiert, da du als Endkunde ja nur kaufen kannst, was von den OEMs verkauft wird.

Denn damit rücken andere Kritieren in den Vordergrund. Wie eben Effizienz, wie eben Featureumfang, wie eben Boardauswahl/Schnittstellen usw. Ja selbst absolute Leistung kann da dann noch ein Kriterium sein. (man greift man wohl trotzdem primär zum schnelleren, auch wenn alle Kandidaten ausreichend fix sind)

Was haben die AMDs denn nicht? Ja sie sind nicht so Effizient, dafür Günstiger und sonst? Was gibt es bei AMD nicht, was Intel kann?
 
Mit deiner Kann ich nicht kaufen Argumentation gehst du mir sowas von auf den Sack, wenn du dich an einer Diskussion beteiligen willst, dann doch bitte auch richtig, wenn dich das "hätte wäre könnte" nicht interessiert, dann lass es doch einfach bleiben.

Wo ist das Problem daran? Wenn man gerne in einer Traumwelt argumentiert, ohne Realität oder ansatzweise Bezug zur Realität, dann bitte... Aber dann lasst doch auch einfache diese unsinnigen Aussagen von wegen, was alles so toll ist. Und ja, "gibt es nicht, kann ich nicht kaufen" passt da wie Arsch auf Eimer... Keiner interessiert sich für irgendwelche Theorien, wenn es nicht ansatzweise greifbares dazu gibt. Weder der privatkäufer noch der OEM / Serverpartner.
Und vor allem würde ich vorschlagen diese emotionale Bindung zu irgendwelchem Stück Silizium zu unterlassen ;) Das macht derartige Diskusionen unnötig hitzig ohne greifbaren Mehrwert.

Was haben die AMDs denn nicht? Ja sie sind nicht so Effizient, dafür Günstiger und sonst? Was gibt es bei AMD nicht, was Intel kann?

Beispiele habe ich doch oben schon genannt...
Aber mir fallen da spontan noch andere Dinge ein. Bspw. die fehlende GPU einer AM3+ Plattform. Oder das Alter der Plattform (mit allen Nachteilen in Sachen aktuelle Schnittstellen), PCIe Lanes in 3.0 Ausführung. Natives USB 3.0 im Chipsatz, mehr wie 6x SATA Interfaces, einen (oder mehr) M.2 Slots, ggf. SATA Express usw. usf. Oder schwenkt man um auf FM2+ um die GPU zu erschlagen, fehlt die breitere CPU mit GPU gepaart.
Nicht das ich davon groß was auf meiner eigenen Prioritätenliste hätte, aber ich bin sicher auch nicht derjenige, der die Auswahlkriterien potentieller Kunden definiert ;) Für mich persönlich zählt in erster Linie absolute Leistung. Sowohl ST als auch MT. Und das ganze gepaart mit einer persönlich gesetzten Schmerzgrenze in Sachen Preis. Entweder ein Hersteller kann hier abliefern oder nicht. Solange ich Produkte am Markt finde, die mich dahingehend überzeugen, dann sehe ich auch keinen Grund, davon abzurücken. Meine nächste CPU wird höchstwarscheinlich Faktor 2 (MT) so schnell wie meine aktuelle werden. Bis dahin muss die alte Sandy noch reichen. Ob es allerdings die 1000€ Extrem CPU oder in der nächsten Generation ggf. ein günstigeres Modell wird, muss sich noch rausstellen...
 
Interessanter Test. Schade das die nicht auch NB OC getestet haben.


bei meinem FX habe ich den Takt völlig in ruhe gelassen, undervoltet 1,215v @4Ghz und nur die NB auf 2,8Ghz übertaktet neben Speicher OC auf 2133 bei CL9 - das brachte bei all meinen Games ordentlich + als 4,8Ghz Takt bei Stock CPU-NB - mein FX verhielt sich beim Undervolten danach als sehr NB-OC freudiger als vorher... 1,2v für 2,8Ghz CPU-NB ist klasse, 3Ghz bringen aber bei mir nichts mehr... greift wohl noch vor dem NB-Takt noch ein anderer Flaschenhals, aber mit 1,3v sind 3Ghz CPU-NB drin. Für 3,2Ghz will er direkt 1,5v.

Den Min-Fps tat das jedenfalls sehr gut, bei Star Citizen waren es gleich mal über 10fps mehr in den Min. Allerdings ist das vor 0.9 .. wie es jetzt ausschaut, k.A - WoT lief jedenfalls bei mir in den Min. bei 46fps voll raus gezoomt.


@CHAOSMAYHEMSOAP,

wie viel weniger?

Syntetische Max-Auslastung ist nicht Aussagekräftig um den " Nutzer " wie ich, der 3x in der Woche 4h zockt und sonst nur Idled (Office Tätigkeiten ).. wobei meine Monitore für die Arbeit mehr Strom ziehen, als die CPU. Vergessen auch viele diese mit zu berücksichtigen.

PCI-E 3... bringt mir nichts gewaltiges im Single-GPU-Betrieb (noch). übernächste Gen vielleicht im Promille Bereich, bisdahin hat AMD aber mit Zen eh nen neuen Sockel am Start.
 
Zuletzt bearbeitet:
Und wie misst man dann die hier für die überwiegende Masse wichtige Spieleperformance einer CPU?
Fragst du mich das? Eine CPU hat keine "Spieleperformance". Spieleperformance entsteht durch das gesamte System. Und dazu gehören mehr Komponenten als nur die CPU. Hauptkomponente ist und bleibt nach wie vor die GPU. Zum Rest kann ich nur das nochmal wiederholen, was ich bereits sagte:
CPUs testet man am besten mit normalen Anwendungen. Dort lässt sich Last, Art der Workloads und Messgenauigkeit viel besser regulieren, um die tatsächliche Leistungsfähigkeit zu bestimmen. Du kannst mit Spielen nichts messen, was du mit normalen Anwendungen nicht auch messen kannst. Umgekehrt gilt das nicht.

Aber kann man die Systemperformance bei ein und der selben CPU nebst Restsystem irgendwie beeinflussen?
Ja, eben durch das Restsystem. Und Entwickler können das sogar noch mehr durch ihre Software.


AVX2, PCIe3.0 und Leistung bei relativ niedrigem Verbrauch.
PCIe Gen3 gibt's bei AMD auch. Mit Carrizo sogar als SoC. Und AVX2 gibt's dann auch. Beides hat im Moment allerdings nur geringen Nutzen. Umgekehrt bietet Cat immerhin AVX, was Atom im Moment nicht bietet. Und die Leistungsaufnahme ist bei AMD auch nicht so schlecht, wie sie gerne gemacht wird. Schau einfach mal auf übliche Idle- und Teillastszenarien abseits von FX-8350 & Co und Extremlasttests.


Kann man hierraus was neues bezüglich neuen Desktop CPU,s für gamer schließen ?

http://cdn3.wccftech.com/wp-content/uploads/2014/12/AMD-Embedded-Solutions-2012-2016-Roadmap.jpg
Ich würde da nicht zu viel hineininterpretieren. Die Roadmap ist bereits ein Jahr alt und könnte demzufolge schon wieder überholt sein. Eigentlich sollten in den kommenden Wochen neue Roadmaps kommen.
 
Entscheidend ist die Tatsache, dass Intels Haswell schneller als die Konkurrenz von AMD ist. Und das bei niedrigerem Verbrauch. :d
Selbst die mit 140W TDP spezifizierten Haswell-E Boliden verweisen AMD CPUs auf ihre Plätze.

=> Solange bis die Zen Architektur erscheint, bleibt AMD weiterhin der ewige Verlierer. Und wenn Zen nicht mehr leisten kann als Intels Skylake wird sich daran nicht viel ändern.
Nicht ein Spiel mit Mantle dabei und nur nvidia GPU?
Nun gut ich kann damit nichts Anfangen, BF4 läuft Super bei mir dazu brauche ich keine lange Balken sondern ordentliche GPU Leistung!
Versteh ich eh nicht alle wussten doch dass Mantle auf einem AMD System entwickelt wird, warum hat keine einzige Redaktion ein aktuelles AM3+ System genutzt?
 
Zuletzt bearbeitet:
Schau einfach mal auf übliche Idle- und Teillastszenarien abseits von FX-8350 & Co und Extremlasttests.
In dem von mir verlinkten CB-Test ist Intels High-End CPU im Idle mit einem um 10W höheren Verbrauch etwas hungriger als AMD Mainstream Plattform (bietet aber auch Quadchannel, mehr PCIe Lanes und SATA Ports). Bei Teillast liegt sie minimal darunter.

Allerdings ist Haswell-E auch deutlich flotter als jegliche Konkurrenz seitens AMD (bei Anwendungen schneidet AMD sogar noch schlechter ab).
Zwar muss man sich diese Leistung bei Intel mit einem höheren Preis erkaufen, aber ich zahle lieber einmal etwas mehr und habe dann meine Ruhe als mich jedes Jahr nach einer neuen CPU umsehen zu müssen.

Angesichts der vielen Leute, die von AMD zu Intel wechseln, ist das momentan die richtige Strategie. ;)

Eigentlich sollten in den kommenden Wochen neue Roadmaps kommen
Von denen kann man auch keine Wunder erwarten. Solange nichts konkretes über die Zen Architektur bekannt wird, bleibt AMD auf der Verliererstraße.
Und selbst mit einem Erfolg wie beim Athlon64 dürfte es nicht lange dauern bis Intel zu einem vernichtenden Gegenschlag ausholen wird. :p
 
das heißt du würdest dich freuen, wenn AMD pleite geht, richtig?^^
 
Mit Spielen misst du Spiele, das geht mit Anwendungen nicht.

Bei Teillast im Vergleich zu Intel auch sehr ineffizient.
Dazu hätte ich Bitte gern eine fundierten Beleg in Form von Zertifizierten Messgeräten ink. ein Protokoll das einen abfrageintervall von mindestens 100 pro Sekunde bietet.
Kann sich keiner Leisten nur ein Labor kann das, also ist die Aussage auch ineffizient. ;)
 
Die beste und billigste Platform ist und war der So1366 von Intel.
2009 gekauft, unter Wasser gesetzt, übertaktet und nur die Grafikkarten getauscht. Für billig Geld ein X5670 organisiert der auch mindestens 4,2GHz laufen wird. Hab dann immer noch mehr Leistung in BF4@64 Server und Civ5 als I5/7 auf So1150 Basis. Vom Hobby mäßigen Videoschnitt gar nicht erst zu reden.
So kann man es bis Broadwell K bzw. E aushalten.
Da soll mal AMD so ein P/L Kracher vorweisen. Selbst Intel schneidet sich selber ins Fleisch.
Der andere P/L Kracher ist So2011-3
Zu erst erscheint es teuer. Aber ist es nicht. Board 250€ und CPU 350€=600€ für wieder 3-5 Jahre Spaß. Zu not ein Broadwell E reinstecken.
Und wieder hat AMD nix vorzuweisen.
AMD ist seid 10 Jahren in Rückstand zu Intel. Das ist einfach nur traurig.
 
@ Jaime

Du betrachtest das immer aus einem Blickwinkel wo man dein Budge hat.

Für leute welche nur 500€ für einen PC ausgeben und die auch mit Medium Details zufrieden sind, sind AMD Systeme auch langlebig.

Beispielsweise nimmt man 2012 oder 2013 oder 2014 einen FX6300, so kommt man mit Northbridge OC und Ram OC und HT Link OC und CPU OC sehr weit, und man brauch für all dieses OC nichtmal n Mainboard über 80 euro.
Und als CPU Kühler reicht auch das beste 15 Euro Modell.

So ein system mit neuem Case, neuem NT, Dicker Festplatte in verbindung zu ner R9 280X für nen Kumpel gebaut dieses jahr, und es hat ihm nur 550 euro gekostet. Mehr war er nicht in der lage auszugeben, und mir ging es 2011 beim bau meines Bulldozer systems ähnlich, und ich betreibe es heute noch.

Hab damals für 130 euro die HD6870 und für 40 euro 8GB ram und für 90 euro den FX und n mainboard für unter 80 euro gekauft, dazu n neues case + NT welche zusammen nur 50€ gekostet haben.
dazu noch n dvd brenner und cpu kühler und ne festplatte und ich hatte ein system für 500€ mit dem ich heute noch zufrieden bin, einzig und allein die Graka ist mir mittlerweile etwas zu angestaubt, und ich hatte kurzzeitig gedacht auf einen R270 umzusteigen, aber hab es mir dann doch anders überlegt weil mir der sprung zu klein gewesen wäre.

In nem halben jahr dürften evtl mal neue grafik karten für Mid range rauskommen, evtl rüste ich dann mal die Grafik Karte auf, aber die CPU bleibt bis Star Citizen Final ist und ich dann sehe ob ich evtl auf einen FX8 Vishera wechseln kann oder diese zu langsam für SC sein werden und ich auf Skylake gehe.
 
Jo das muss man wirklich sagen. Wenn man Systeme um 500€ bauen will ist man regelrecht auf AMD festgenagelt. Wenn man sich das anschaut: Bei Intel kostet der kleinste 4-Kerner ca. 160€. Bei AMD bekommt man schon 6300er für fast 90€. Boards ist ungefähr gleich, für den Intel reicht ja ein H87/H97-Brett, bei AMD tuts ein qualitativ gutes 970-Brett, beispielsweise Asus M5A97 EVO 2.0. Einen I3 find ich sogar richtig schlecht, der stinkt in der Anwendungsperformance meist richtig ab gegen die FX - kein Wunder bei 2 Kernen + SMT.
Diese "I3 ist toll für Spiele" mag zwar oft gelten, aber leider meist da wo es nicht relevant ist oder bei Spielen die technisch richtig beschissen sind, wie SC2. Bei wirklich fodernden Games sieht das anders aus, beispielsweise DAI:
Dragon Age: Inquisition im Technik-Test - Jetzt mit CPU-Skalierungs-Benchmarks (Update)
Da sind 2 Kerne mit SMT total überfordert, da brauchts bereits 4GHz um überhaupt über die Spielbarkeitsmarke zu springen. So einen Prozessor brauch ich mir nicht kaufen, wenn künftig zu erwarten ist, dass viele Spiele so drauf sind wie DAI. Die ganzen Frostbyte-Titel von Bioware beispielsweise werden den I3 ebenfalls verfrühstücken und den FX ausnutzen können. Von denen wird DAI das genügsamste werden, da bei diesem Spiel noch auf die alte Konsolengeneration Rücksicht genommen wurde beim Design. Bei MassEffect werden aber alle Schranken fallen, das gibts nicht mehr für die alten Konsolen...
Ich hab das immer wieder beobachtet, jemand hat ein beschränktes Budget und fragt nach einem Spieleprozessor. Der FX wird dann immer gern abgewatscht mit dem Hinweis: "nimm doch einen I3, ist ein toller Spieleprozessor". Die sind jetzt richtig gearscht, weil diese Leute meist einfach nicht so viel Geld haben um sich mal eben was Neues zu kaufen. War doch vorhersehbar, dass die Zukunft Richtung Multithreading geht...
 
Zuletzt bearbeitet:
mr.dude schrieb:
ein, selbst dann nicht. Das liegt einfach daran, wie typische Game Loops aufgebaut sind, wie synchrone und asynchrone Routinen funktionieren und wie Grafiktreiber arbeiten. Das ist immer wieder das gleiche falsche Denken deinerseits.

Die ganze Diskussion kam damals bei CB auf.
Dort zeigte sich dass bei niedrigen Auflösungen und unter Verringerung der Einflussnahme der GPU in Richtung Null, die Intel CPU Performance in Spielen deutlich höher war.

Dann mehrten sich die Stimmen dass man die CPU Performance in niedrigen Auflösungen nicht messen könne, da realitätsfern.
Später, als dann die gleichen Ergebnisse auch in ganz normalen Auflösungen auftraten und Redakteure das Thema intensiv behandelten, war man sich klar, dass bei Einhaltung des gleichen Seitenverhältnisses das egal ist.

Habe ich eine extrem schnelle Karte die bei 4K 400 FPS raushaut, oder eine langsame die bei 800x600 400 FPS raushaut, interessiert die CPU nicht.

Die Praxiserfahrung zeigte sehr schnell, dass man die Spieleperformance nur mit Spielen messen kann.


Wenn man in die absolute Theorie geht dann lässt sich die Art der Workloads und Messgenauigkeit in Anwendungen besser regulieren, da hier eine Komponente ausgeschlossen wird.
Komplett ausschließen kann man aber nie alle Komponenten, ergo wird man auch bei RAM, I/O geringfügige Unterschiede ( wir redne hier von Messungenauigkeit ) feststellen können.


Dein Einwand bezieht sich also nur auf eine komplexe Theorie, wie synchrone und asynchrone Routinen funktionieren.
Hier geht es aber wie bereits durch Messungen genügend festgestellt wurde um Bereiche der Messungenauigkeit.

Also wenn jemand die Spieleperformance messen will und dein Einwand kommt, man könne dies nicht tun, hat das eher etwas damit zu tun, dass AMD was Spieleperformance angeht, weit zurückliegt und viel weniger damit, dass rein theoretisch Anwendungen besser geeignet wären.

Es ist also die übliche Polemik die du anwendest.
Quasi von oben herab mit viel Überheblichkeit anderen etwas weismachen zu wollen, ohne überhaupt selbst mal Benchmarks durchgeführt zu haben, denn dann würde man wissen dass die Spieleperformance sehr gut messbar ist.

Fragst du mich das? Eine CPU hat keine "Spieleperformance". Spieleperformance entsteht durch das gesamte System.

Du gehst absichtlich weit ins Detail um daraus eine These abzuleiten die gar niemanden tangiert oder interessiert.
Man kann die CPU Performance nicht komplett isolieren, alle anderen workloads ohne GPU hängen, wenn man die Messungenaigkeit unterschiedlicher Mainboards und RAM mit einbeziehen will und diese dann zum Elephanten aufplustern, genauso an der Systemperformance.

AMD ist in Games einfach tendenziell schlechter wie in Anwendungen, akzeptiere das doch mal.

Niemand der bei klarem Verstand ist, versucht Spieleperformance mit Anwendungen zu messen.

mr.dude schrieb:
Fragst du mich das?

Ich frage dich auch nochmal, da du dazu weder eine schlüssige Erklärung, noch irgendwelche Beweise anführen kannst, sondern lediglich graue Theorie, die schon längst durch Messungen widerlegt ist.
Ich erinnere mich hierbei an eine Diskussion im Planet3D Forum, wo Marc nachgebohrt hatte und von dir natürlich nichts kam.

Denn es kommt außer ungefährer Theorie und der Tatsache dass du allen einfach immer nur widersprechen willst, rein gar nix und das basiert lediglich auf der Grundlage dass AMD bei Spielen einfach seit Jahren deutlich langsamer ist.
Ansonsten würde doch niemand derart mit Polemik und Haarspalterei in eine Diskussion einsteigen wollen.

Ich wette, wenn AMD bei Spielen in Front wäre, dann würdest du ganz anders argumentieren. ;)


Wenn man die CPU mit Nvidiagrafiktreiber ins Limit treibt und andererseits mit AMD Grafiktreiber, dann gibt es hier sicherlich Unterschiede.
Also sollte man sich hier auf AMD oder Nvidia GPU festlegen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh