AMD,s Gaming Zukunft 2015-2017

Die SMT-Skalierung sollte man mit Omega noch mal nachmessen. Immerhin haben die ja den Treiber offenbar doch ein paar grundlegende Änderungen drin. Bei ACU beispielsweise läuft Omega grade mit FX unglaublich viel schneller.
Der AMD-Treiber kam auch mit CMT nicht gut zurecht sinnloserweise.

Ich übertreibe eben nicht. Der Punkt ist doch ganz einfach: Geht man mit dem Threading in die Breite nützen einem 2 tolle Kerne nix mehr, 6 schlechte aber eben doch. Der Overhead steigt doch auch an oder was glaubst du, dass viele neue Spiele wie DAI mit unter 4 Threads gar nicht mehr starten? Da bist du mit 6 gleichwertigen Threads, auch wenn die etwas schlechter sind, erheblich besser dran. Die MT-Optimierung von Spielen hat grade erst begonnen, vorher hat man versucht von Main-Thread Berechnungen auf andere Threads auszulagen, die neuen Engines funktionieren aber so nicht mehr, die sind sehr viel feinkörniger mit dem Threading. Effekt: 8 weniger leistungsfähige Kerne (wie XBone-APU beispielsweise) werden gut ausgelastet, eine CPU mit 2 starken Kernen kommt nicht mehr mit. Darauf läufts doch hinaus. Wichtig wird dabei natürlich auch die API. Alles was DX11 ist, ist quasi schon veraltet. Rechnen kann man damit nicht mehr, obwohl M$ mit 11.3 noch eine Iteration draufsetzt. Aber die Zukunft sind die Low-Level-APIs wie Mantle und DX12. Denn die tun ja genau das, was die neuen Engines tun: Sie sind erheblich flexibler beim Threading (und haben obendrein weniger Overhead). Die DX11-Treiberoptimierungen sind ja nett, aber ein Auslaufmodell.
Und ACU ist immer noch Anvil. Da ist zwar einiges an Optimierungen hineingeflossen, aber ich glaube nicht, dass Ubi da so viel Arbeit in die Grundstruktur reingesteckt hat. Die setzen doch mit Mango eh alles neu auf in 2016. Dunia und Anvil sind Auslaufmodelle. Aber UE4, CE3, FB3 usw. zeigen eindeutig in welche Richtung das geht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die SMT-Skalierung sollte man mit Omega noch mal nachmessen. Immerhin haben die ja den Treiber offenbar doch ein paar grundlegende Änderungen drin. Bei ACU beispielsweise läuft Omega grade mit FX unglaublich viel schneller.
Der AMD-Treiber kam auch mit CMT nicht gut zurecht sinnloserweise.

Das wäre in der Tat einen Test wert... Mal gucken, wann sich da mal jemand dran setzt... Wie angesprochen, die Masse der Tests werden ja nichtmal mit zwei halbwegs vergleichbaren GPUs durchgeführt von AMD und NV. Von daher sehe ich da wohl auf absehbare Zeit erstmal nix wirklich greifbares kommen.

Ich übertreibe eben nicht. Der Punkt ist doch ganz einfach: Geht man mit dem Threading in die Breite nützen einem 2 tolle Threads nix mehr. Der Overhead steigt doch auch an. Da bist du mit 6 gleichwertigen Threads, auch wenn die etwas schlechter sind, erheblich besser dran.

Ich gebe dir durchaus recht, was die Skalierung angeht. Aber entscheidender ist doch, was hinten bei raus kommt... Und wenn das Spiel eben mehr Threads vorraussetzt, dann wird der Markt früher oder später gezwungen sein, mehr Threads zu "kaufen". Bei Intel bekommst du mehr erstmal nur in Form des i5 Quadcore ohne SMT, wärend AMD noch den FX6 als Zwischenschritt drin hat. Leider aber, wie schon mehrfach angesprochen auf der arsch alten Platform, die faktisch tot ist und keinerlei aktuell anstehende oder kürzlich veröffentlichte Features bietet. Pest oder Cholera kann man das nennen. Entweder die aktuelle Platform mit halbwegs aktuellen Schnittstellen und Features, dafür nur vier Threads (auf absehbare Zeit) oder die alte Plattform, dafür mehr Threads aber eben keine aktuellen Features und Schnittstellen.

Das ist ja doch auch ein Grund, warum man so am Festhalten oder besser gesagt, dem Fokus auf die APUs schimpft... Ob du nun zwei Module mit CMT (Richland oder Steamroller) oder zwei Cores mit SMT (Haswell(-Refresh)) nutzt, ist dabei fast völlig hupe. Der Nachteil bleibt bei Beiden... Gehts in die Breite verlieren Beide massiv an Potential. Willst du beim i3 mehr, steckst du nen i5/i7/Xeon rein. Willst du bei der APU mehr, ...??
 
Die alte Plattform ist klar. Man bekommt eben noch erheblich potentere CPUs als Upgrade, was sicherlich ein Vorteil ist, wenn man es sich leisten kann. Das ist klar. Wenn man jetzt einen 1150 mit i3 kauft um den dann nächstes Jahr mit einem Broadwell-K aufzurüsten, würd ich nie was dagegen sagen. Darum gehts aber nicht. Meist werden solche Rechner von Leuten gekauft, die jeden € dreimal umdrehen und die Hardware trotzdem mal lässig 4 Jahre da stehen lassen. Da kann man genauso zu AM3+ greifen wie zu 1150, das spielt da keine Rolle. Wichtig ist aber, dass man innerhalb der 4 Jahre mit einem i3 kaum noch was neues mehr starten kann, mit dem 6-Moduler u.U. aber durchaus, da sind einfach mehr Reserven vorhanden, wenn sich der Trend fortsetzt.

Ich machs mal krass:
Nehmen wir MassEffect. Das Spiel nimmt keine Rücksicht mehr auf die alten Konsolen, basiert auf der Technik von DAI (inklusive Mantle natürlich). Das ist ein absoluter Toptitel, der sicherlich auch gerne von i3-Besitzern (meist wird ja NV dazu empfohlen fatalerweise) gekauft wird. Da haste mit einem x6 mal locker 1/4 bis 1/3 mehr FPS und das im Spielbarkeitsbereich!
Klar, genau weiss man es erst, wenn das auch getestet wurde, aber ich schließe jede Wette darauf ab.
 
Zuletzt bearbeitet:
TARDIS schrieb:
Es ist also nicht so, wie die AMD Drohnen hier immer wieder gerne kolportieren, dass der Benchmark nur auf Single Thread Spiele ausgerichtet ist. Aber was kann man von euch Fanboys auch schon an sachlichen Argumenten erwarten...

SMT zeigt nicht die Mehrkernoptimierung an, sondern die fehlende Auslastung der Pipeline.
Insofern kann man das nicht sicher sagen.

Tatsache ist dass ein i3 etwa auf dem Niveau eines FX-6300 oder FX-8350 was Spiele angeht liegt genauso umgekehrt, also warum darüber streiten.
In Spielen die mehr Threads unterstützen liegt er meistens zurück in Spielen die wenig unterstützen liegt er vorne.
Man kann aktuell genauso einen FX-6300 empfehlen wie einen i3, den FX-8350 finde ich aufgrund des hohen Verbrauchs und des höheren Aufwands für die Kühlung nicht als Alternative.
 
Zuletzt bearbeitet:
Wie gesagt, ist stimme dir da zu, was die Reserve angeht... Für mich ist halt die Frage, wann wird das passieren?
Schon 2006-2007 gingen hier die ersten Threads los von wegen, lieber DC oder QC kaufen und es wurde für die Zukunft immer die breitere CPU empfohlen... Was hast du heute?
Der Phenom II X4 oder selbst X6 reißt es trotz Breite nicht mehr raus. Oder der oft empfohlene und damals vergleichsweise günstige Q6600... Ob da mehr greifbare Reserven über sind als beim i3? Keine Ahnung... Müsste man mal gegenhalten, aber ich behaupte viel Unterschied ist da faktisch nicht, wenn überhaupt. Mistig im Vergleich zu nem heutigen i7 aber läuft es definitiv ;)

Für mich ist dabei aber eher das entscheidende, dass Hardware für die Zukunft zu kaufen häufiger gar nicht so sinnvoll ist. Was ist wenn es nur sagen wir 5-10 Titel in 2015 gibt, die da wirklich skalieren? Der Rest dann halt nicht? Dann hast du zwar 5-10 Titel, wo das richtig rockt, der Rest läuft aber ggf. langsamer als gewünscht. Hat halt immer zwei Seiten die Medallie... Hellsehen kann ich persönlich zumindest noch nicht ;)
Das ist wie mit der Mantle Thematik. Mantle schön und gut. Ich habe stand heute nicht ein einzigen Titel, der Mantle supporten würde! Und bis auf vielleicht Thief interessiert mich davon auch aktuell keiner. Ist somit kein Vorteil... Und das andere Titel ebenso in die Breite gehen, muss sich ja erstmal noch zeigen, würde ich meinen. Bspw. wird zum Beispiel ein "The Witcher 3" wohl relativ wenig in die Breite skalieren, könnte ich mir vorstellen, da die Physik = PhysX per GPU und mit aller größter Warscheinlichkeit wieder in der Threadanzahl auf der CPU begrenzt.

FarCry4 sieht auch nicht ganz schlecht aus, skaliert aber ab dem zweiten Modul nicht nennenswert nach oben. (nach PCGH Messungen)
DAI scheint mit drei Modulen aka 6 Threads gut zu skalieren, das vierte bringt aber auch nicht sonderlich viele Punkte. Dafür sind die GPU Anforderungen auch ziemlich häftig. 30 FPS mit ner 270er? Fetzt nicht unbedingt...
Das neue CoD skaliert ab dem 4. Thread ebenso nicht mehr und erzeugt derart hohe FPS, das es faktisch nicht lohnt...
Und zum aktuellsten Civilisation finde ich leider nix.

Das sind zumindest die aktuellen AAA-Titel, die mir so über den Weg gelaufen sind, was aber nun mit den ganzen anderen, eher unbekannten Titeln? Bis jetzt habe ich eher so das Gefühl, das nur die AAA-Titel primär die Anforderungen hoch schieben... Die eher unbekannten definitiv nicht so.
 
Du wüsstest nicht, wo du behauptet hast, AMD sei bei Teillast effizienter?
Aha, aus der Aussage "bei Teillast im Vergleich zu Intel nicht sehr ineffizient" machst du "ein FX bei Teillast effizienter als ein 1150-Haswell". Schon klar. :stupid: Also manchmal muss man sich bei einigen echt Sorgen um Text- und Kontextverständnis machen. Sry, aber das ist seit langer Zeit dein mit Abstand armseligster Versuch, Aussagen zu verdrehen. Nicht dass ich das von dir nicht gewohnt wäre. Aber selbst du bist selten so tief gesunken.

"Caches und Speicheranbindung gibt die CPU vor"
Das ändert aber nichts daran, dass diese unterschiedlich zwischen AMD und Intel sind.


Dann kann man ja dem AMD Management nur gratulieren, dass sie diesen Chip noch nicht verkaufen.
Wer sagt, dass sie ihn noch nicht verkaufen? Dir ist schon bewusst, dass die Dev-Kits nicht verschenkt werden? Und wer verkauft im Moment bereits ARM Serverprozessoren in grossen Mengen? Ich sehe da noch niemanden.

"Im Gegensatz dazu verkauft Intel seinen Xeon Phi bereits und ist damit offenbar erfolgreicher als AMD mit seinen Beschleunigern, denn von 75 Supercomputern, die auf Beschleuniger setzen,
arbeiten 50 mit Nvidia GPUs, 25 mit Xeon Phis und nur drei mit AMD GPUs"

Der effizientest Supercomputer ist allerdings mit AMD bestückt. Zeigt also nur wieder mal, dass da eher politische als technische Entscheidungen eine Rolle spielen. Aber mit Seattle hat das herzlich wenig zu tun.

"Mit Gaming hat das zwar nichts zu tun"
Darum ging es auch nicht. Die Frage war, was hat Applied Micro's ARM Prozessor damit zu tun, dass AMD mit Seattle einen ARM Prozessor am Start hat. Ich sehe nach wie vor keinen Zusammenhang zu meinen Aussagen. Wer zuerst war und wer derzeit wie viel Umsatz damit macht, spielt keine Rolle. Das sind nur billige Ablenkungsversuche. ARM basierte Serverprozessoren sind da im Moment noch zu sehr Mangelware. Aber Hauptsache alles von AMD schlechtreden. Egal was sie haben und egal wie gut oder schlecht es ist. Einige werden anscheinend nie müde für diesen Unsinn. :rolleyes:

"Klar, AMD gewinnt, wenn Apple bei seinen Macs auf eigene ARM Chips setzt und AMD dabei 0 Cent Umsatz generiert."
Was für AMD immer noch nicht weniger wäre als vorher. Für Intel hingegen schon. Meine Aussage, AMD kann in dem Fall nur gewinnen (weil sie selbst im ungünstigsten Fall nichts verlieren) und Intel kann nur verlieren (weil sie selbst im günstigsten Fall nichts gewinnen), hat also nach wie vor Bestand.

"Natürlich sind wieder andere schuld."
Und für dich ist natürlich immer nur AMD Schuld. Schon klar. Was für eine armselige und substanzlose Argumentation jedes mal von dir.

"Zwar erreicht IBM mit seinen POWER7/8 und zEC12 CPUs hohe Taktraten und hohe Performance"
Was auch ganz andere Architekturen sind. POWER7 wurde zudem in 45nm gefertigt. POWER8 gibt's noch nicht und soll in 22nm gefertigt werden. Wir sprachen hingegen von den 32/28nm Nodes. In 32nm wurde übrigens POWER7+ gefertigt. Viel gesehen hat man von dem aber nicht. Und das erst ein Jahr nach dem Bulldozer Launch. Was die 32nm Problematik bei IBM untermauert. Und was man eben auch aus Insiderkreisen gehört hat. Aber Hauptsache du kannst irgendwelche sinnfreien Worte in den Raum werfen, von denen du scheinbar nicht mal wirklich was weisst.

"Was ich als Kunde aber gar nicht will"
Was mich als Technikinteressierter aber nicht juckt. Wenn es dich nicht interessiert, warum hetzt du dann in solchen Diskussionen immer wieder rum?


Ich Defeniere Gamer als die einheitliche masse der Zocker die ich kenne.
Okay, also nicht zwangsläufig die Masse aller Spieler weltweit.

"Was bringt es mir in ein paar Monaten im Jahr 2015 fast 3 Jahre nach Trinity und 2 Jahre nach Steamroller ? In meinen games habe ich nichts davon, und die CPU lahmt auf einem Niveau welches AMD schon mit einem 32nm Phenom II erreicht hätte und Intel schon 2007 hatte."
Aber weder Phenom 2 noch Core 2 hatten eine iGPU. Insofern ist das kein sinnvoller Vergleich. Integration kostet nun mal. Genauso wenig wie ein A10 CPU-seitig grosse Vorteile gegenüber einem X4 bietet, bietet ein i3 grosse Vorteile gegenüber einem C2Q. Es war daher abzusehen, dass Integration in anderen Bereichen temporär erst mal Stagnation bedeutet. Das heisst doch nicht, dass man in Zukunft nicht wieder grössere Schritte machen wird. Auch bei der CPU.

"Warum wir auf dem Vishera herumreiten bei dem Titel ? Weil der Vishera auch 2013 und 2014 noch die Beste AMD CPU in sachen Gaming ist."
Und ich dachte es geht um 2015-2017.

"Wir dürfen froh sein wenn der 16nm Zen welcher 2016 als Quad Core kommen soll in Star Citizen und Battlefield 4 genausoviel fps bringt wie der Vishera 4 Moduler...."
Es wird keinen 16nm Zen geben. Zen wird nach bisherigen Infos in 14nm bei Glofo gefertigt.

"Bin echt mal gespannt ob der Zen ohne mantle einen Centurion FX9590 schlagen können wird in Battlefield 4 / Star Citizen..."
Muss er denn das? Sehe ich nicht so. Wenn er gleich auf liegt bei vielleicht einem Fünftel der TDP wäre das schon ein grosser Fortschritt.

Dadurch das dieses Game sogar eine GTX980 in die Knie zwingt sobald man in 1080p auf High Details zocken will, zeigt es das man mit der Grafikeinheit aus APU,s nie ernsthaft was zocken können wird.
Dir ist aber schon klar, dass iGPUs irgendwann leistungsfähiger sein werden als eine GTX 980? Nicht nächstes oder übernächstes Jahr. Trotzdem, wie ich bereits sagte, es ist nur eine Frage der Zeit. Die gleiche Entwicklung haben wir doch schon bei den CPUs durch. In den 80ern und 90ern konnten CPUs nicht schnell genug sein bzw werden. Im neuen Jahrtausend setzte dann langsam aber sicher eine Sättigung ein. Mittlerweile kann ich auch aktuellste Betriebssysteme auf relativ schwacher Hardware problemlos nutzen. Das Ergebnis einer rasanteren Hardwareentwicklung im Vergleich zur Softwareentwicklung. Das mag nicht bedeuten, dass dGPUs komplett verschwinden werden. Aber für den Grossteil des Marktes werden SoCs samt ihrer iGPU in Zukunft die Standardlösung darstellen. Auch weil nur die wenigsten die aktuellsten Hardwarefresser mit maximalen Details und maximaler Qualität zocken.

"Wenn man mantle nutzt, kann man die igpu nicht mehr zum Zocken nutzen"
Ich suche ehrlich gesagt gerade den Sinn in dieser Aussage. Kannst du das mal näher erläutern?

"Wenn Spiele wie Dragon Age / Battlefield 4 etc im Jahr 2014 schon mantle nutzen müssen weil die CPU zu schwach für High Details ist, wird das erst recht nichts mit APU als Grafikkarten ersatz."
Siehe zuvor. APUs/SoCs werden nicht nur stärkere iGPUs bekommen, sondern natürlich auch stärkere CPUs. Mit 20nm würde AMD eventuell auch mehr Module in den APUs verbauen. Im Moment limitiert das Transistorbudget bei 28nm einfach zu sehr.

Ist naheliegend weil AMD zu Arm ist.
Dann ist Intel scheinbar auch verdammt arm. Deren Portfolio besteht prozentual sogar aus noch mehr APUs als das von AMD. Nur zur Info, ob APU oder nicht, hat doch nichts mit arm zu tun, sondern mit dem Zielmarkt. Ausser du meist K12. Das ist tatsächlich ARM. Zusammen mit automatisierten Designs lässt sich da sehr viel machen. Auch mit begrenzten Ressourcen. Die Entwicklung zB von Seattle lag nur im mittleren zweistelligen Millionenbereich. Bulldozer hat mehrere Hundert Millionen in der Entwicklung gekostet. Selbst wenn du da die Lizenzkosten für ARM berücksichtigst, das ist ein riesen Unterschied.


Ich halte es ehrlich gesagt für schlauer zu gucken, was am Ende an Leistung aus dem Gesamtsystem heraus kommt.
Schlauer mit Sicherheit nicht. Aber wenn dich nichts anderes interessiert, dann brauchst du anderen nicht vorwerfen, wenn sie auch hinter die Kulissen schauen. Mich interessiert ehrlich gesagt nicht nur, ob etwas funktioniert. Mich interessiert eher, warum und wie etwas funktioniert. Aber schon lustig, wenn man sagt, dass Intels Cache oder Speicheranbindung besser ist, dann legen das einige trotzdem so aus, als ob man AMD verteidigen oder schönreden würde. :stupid: Aber mit solchen Leuten ist aufgrund von so viel Voreingenommenheit eine konstruktive Diskussion eh zwecklos. Da fällt einem dann nur noch der Spruch von Einstein ein.

Ach ja, ein Verkaufsgespräch mit dir würde wohl so ablaufen. Vorsicht, kein Witz, ernst gemeint:

Kunde: Guten Tag, ich möchte eine CPU für meinen Desktop PC kaufen. Was können Sie mir empfehlen?

TARDIS: Intel. AMD ist scheisse.

Kunde: Warum?

TARDIS: Isso.

Kunde: Okay. Ich schaue mich dann doch nochmal nach kompetenter Beratung um. Schönen Tag noch.
 
Könnte mal wer bitte mit AMD Hardware meine Szene kurz nachstellen? An BF4 wurde sehr viel herumdoktern und ich möchte gerne etwas aktuellere Werte haben.

Siege of Shanghai ~ 60 Spieler.
Die Stelle (siehe Bilder unten) ist recht leicht zu finden. Bei E spawnen dann Richtung C am wasser bleiben und beim ersten Steg in die Ecke und hoch auf C schauen.

Meine Hardware Intel i7 2600K @ 4ghz , EVGA 670 GTX FTW, 16gb Ram, Asus P8P67 le


Settings:


4k HT An:

4k HT Aus:

2k HT an:


Mantle hätte ich gerne getestet, bin aber aktuell leider grün unterwegs.

Mal schauen, was nun aus der Entwicklung wird. Ich kaufe Hardware entsprechend meinen aktuellen Anforderungen.
 
Aber wenn dich nichts anderes interessiert, dann brauchst du anderen nicht vorwerfen, wenn sie auch hinter die Kulissen schauen. Mich interessiert ehrlich gesagt nicht nur, ob etwas funktioniert. Mich interessiert eher, warum und wie etwas funktioniert.
Sicher darfst du dich dafür interessieren.
Aber würdest du allen ernstes deine Kaufentscheidung von diesen Dingen "hinter den Kulissen" abhängig machen?...
 
Belegt man also den SMT Thread eines Intel Cores gewinnt man im höchstfall um die 25% im Schnitt an Gesamtperformance.

Stimmt nicht. Beim i3 kommen beim Vergleich von deaktiviertem mit aktiviertem SMT teilweise 40% mehr FPS bei raus. Nachweisbar. Nachmessbar. Siehe den Test von Gamestar:

Teilweise ist der Vorteil durch Hyperthreading bei einer Dual-Core-CPU sogar größer als erwartet. Im Test mit Anno 2070 etwa sinkt die Leistung des Core i3 4330 ohne Hyperthreading um annähernd 30 Prozent, dasselbe passiert bei F1 2011
...
In den Spiele-Benchmarks schlägt sich der Core i3 4330 dank seiner 3,5 GHz Takt sowie der leistungsfähigen Haswell-Architektur, die viel Leistung pro Kern bietet, durchweg gut und erreicht stets absolut flüssig spielbare Bildwiederholraten.
...
Im Test des Intel Core i3 4330 war ich überrascht, wieviel Leistung eine Dual-Core-CPU auch heute noch – gut sechs Jahre nach der Einführung der ersten Quad-Core-Prozessoren – erreicht. Zumindest in Spielen, denn dort ist der Core i3 4330 zwar langsamer als die (teils niedriger getaktete) Vierkern-Verwandschaft, aber eben nicht sonderlich viel. Und AMDs Topmodell AMD FX 8350 kann er in Spielen sogar das Wasser reichen.

Quelle

Nur weil manche AMD Drohnen nicht müde werden, etwas anderes zu behaupten, werden deren Aussagen dadurch nicht richtiger. Und diese 40% sind reale Mehrleistung, die am Ende dabei rauskommen - kein irrelevantes technisches Detail, was am Ende kein Einfluss auf die Gesamtperformance hat.

Ach ja, ein Verkaufsgespräch mit dir würde wohl so ablaufen. Vorsicht, kein Witz, ernst gemeint:

Das ist aber eine armselige Vorstellung von dir.

Zumal ich nicht müde werde, meine Aussagen mit Benchmarks zu belegen. Aber das unterstützt nur die Vorstellung, die ich von dir habe:

Kunde: Guten Tag, ich möchte eine CPU für meinen Desktop PC kaufen.

mr.dudd: Ja, hier eine AMD CPU, etwas besseres kriegen sie nicht für das Geld.

Kunde: Aber ich habe in Benchmarks gesehen, dass die Intel CPUs beim gleichen Preis eine höhere Leistung bringen.

mr.dudd: Paperlapapp, sehen sie hier ins Mikroskop, sehen sie diesen Transistor? Der ist leistungsfähiger als der bei der Intel CPU - sie müssen die Technik beurteilen!

Kunde: Aber für mich ist doch nur interessant, was am Ende an Leistung heraus kommt.

mr.dudd: Sie haben von Technik keine Ahnung. Intel ist böse, kaufen sie die AMD CPU.

Kunde: Aber warum?

mr.dudd: Sehen sie ins Mikroskop, sehen sie nicht diesen Transistor?

Kunde: Aber die Reviews und Benchmarks...

mr.dudd: Alle von Intel gekauft! Und sowieso irrelevant.

Kunde: Meine Bekannten sagen auch, dass die Intel CPUs bei gleichem Preis schneller sind.

mr.dudd: Die sind auch gekauft - habe ich erwähnt, dass Intel böse ist?

Kunde: Ach... Die sind auch alle gekauft?

mr.dudd: Ja, die kriegen die CPUs bei Intel kostenlos plus $50 Cash.

Kunde: Ach, kann ich die Intel CPU auch kostenlos kriegen und die $50 - ich würde dann auch gleich mehrere abnehmen....?

mr.dudd: Lenken sie nicht ab. Intel ist böse. Und sie haben offensichtlich keine Ahnung von Technik.

Kunde: Hmmh.

mr.dudd: Ich habe hier einen Server Benchmark, in dem die AMD CPU sehr gut abschneidet.

Kunde: Benchmark... ich dachte...

mr.dudd: Lenken Sie nicht ab. Sie müssen den Kontext betrachten!

Kunde: Aber ich betreibe doch gar keinen Server, sondern einen Desktop PC mit Office, Internet, ein paar Spielen und so.

mr.dudd: Deshalb sollen Sie eine AMD CPU kaufen, schauen sie doch ins Mikroskop! Sie verstehen es einfach nicht.

Kunde: Hmmh.

mr.dudd: Die AMD CPU hat mehr Kerne.

Kunde: Aber die Leistung der AMD CPU ist doch trotz der zusätzlichen Kerne niedriger.

mr.dudd: Sagt wer?

Kunde: Alle.

mr.dudd: Alle sind dumm - ausser mir.

TARDIS schrieb:
Ich halte es ehrlich gesagt für schlauer zu gucken, was am Ende an Leistung aus dem Gesamtsystem heraus kommt.

Schlauer mit Sicherheit nicht.

Aber gut, wenn für dich die Leistung eines Systems irrelevant ist und du dich hinter irrelevanten technischen Details verstecken willst, dann wird doch allzu offensichtlich, dass es dir hier einzig und allein darum geht, Reklame für AMD zu machen und das Geldsäckel von AMD zu füllen.

Dieses lustige Beschwören der multikernoptimierten Zukunft kenne ich übrigens noch vom Phenom II X6 und später vom Bulldozer. Eingetroffen ist sie bis dato allerdings nicht. Als Nutzer eines Phenom II X6 warte ich ja selbst auf deren eintreffen.

Die "multikernoptimiert-Karotte", die den "Eseln" als Anreiz vorgehalten wird, ist mittlerweile schon ziemlich alt und schimmelig.
 
Zuletzt bearbeitet:
Belegt man also den SMT Thread eines Intel Cores gewinnt man im höchstfall um die 25% im Schnitt an Gesamtperformance.
Stimmt nicht. Beim i3 kommen beim Vergleich von deaktiviertem mit aktiviertem SMT teilweise 40% mehr FPS bei raus. Nachweisbar. Nachmessbar. Siehe den Test von Gamestar:

"im Schnitt"... :rolleyes: Also so langsam nervts auch mich ehrlich gesagt... Was willst du mit Rosinen? Selbst wenn du da was findest, wo 100% raus kommen... Interessiert doch nicht die Bohne.
 
Oh, ich habe das "im Schnitt" überlesen. Mein Fehler.

Wobei die Kombination "Höchstfall" mit "im Schnitt" sprachlich auch nicht gerade glücklich gewählt ist. ;)

- - - Updated - - -

Was willst du mit Rosinen? Selbst wenn du da was findest, wo 100% raus kommen... Interessiert doch nicht die Bohne.

Und sind es denn Rosinen? Der i3 schneidet doch in allen ausgewogenen Benchmarks (ohne Graka-Limits) deutlich besser als der Pentium ab.

Interessieren tut es schon, da die AMD Drohnen gerne kolportieren, SMT würde maximal 20% Mehrleistung bringen. Oder so unsinnige Aussagen verbreiten, wie der i3 wäre für Spiele zu langsam während der FX 4100 Pseudo-Vierkerner dagegen eine leistungsmäßiges Gottesgeschenk sei.
 
Zuletzt bearbeitet:
Verfolge das Thema schon eine ganze weile und finde es streckenweise interessant was hier geschrieben wird.
Aber bin ich der einzige der es leicht provokant findet wenn jemand ankommt mit "AMD Drohne" ? :fresse:

Ich hab mir auch ein 8320iger gekauft. Da mein i5 2500k dank Netzteil Defekt samt Board tschüss gesagt haben.
Ich war auch sehr zufrieden damit inkl. OC und allem zipp und zapp.

Könnte jetzt aber nicht behaupten das ich unzufriedener mit dem 8320iger wäre der mich im vergleich weniger gekostet hat...

Selbst verständlich merkt man in machen Situationen (mein i5 lief bei 4,2 GHz) "oh da war der i5 aber schneller" .
Gleichzeitig wandel ich dann später wieder eine MKV oder was auch immer um und merke "oh das geht schneller als beim i5.... ".

In dem Sinne - wobei ich den Verbrauch außer acht lasse - finde ich das der 8350iger bzw. generell die AMD Palette (9590iger usw. sind meiner Meinung nach eh nur umgelabelte 8350er.... ) eine gute Mischung aus "Gaming und Produktiv Performance" bietet in anbetracht dessen was er kostet.

Muss aber ehrlicherweise auch sagen, das wenn ich JETZT das Geld ausgeben könnte, ich zweifelsohne zum i7 greifen würde.

Aus Verbrauchs und Performance Sicht.
Möchte nicht sagen Qualität hat seinen Preis, weil das gleichzeitig implizieren würde das ich behaupten würde AMD hätte keine Qualität was absolut nicht der Fall ist.

Wie das ganze mit einem eventuellen neuen Sockel, oder neuen Architekturen aussieht, waage ich nicht zu beurteilen. Aber im hier und jetzt (worum es im Thread ja eigentlich nicht geht.... ) würde ich wieder zu Intel greifen. Das nötige Kleingeld vorausgesetzt. Weil ohne mindestens einen i5 K oder ein i7 k würde ich ehrlich gesagt AMD vorziehen gegenüber einen I3 oder so aus oben genannten Gründen des Gesamt Paketes.

Und das trotz das ich damals mit einem K6-2 450 angefangen habe (OC auf 500 per Jumper :shot: ) über den Athlon 1400 (OC auf 1600 per Multi dank draht um die Pins und Bleistift verbundene Kontakte... ) :shot: bis hin zum Athlon XP 2800+ usw usw. Zwischen durch ein Ausrutscher zum P4 (leider Willamette ) .

Da sehe ich aber Ähnlichkeiten.

Damals hat die AMD Gemeinde, inkl mir selbst als kleiner Technikinteressierter bub, sich ein "wenig" lustig gemacht zwecks P4 / Netburst erst recht auch noch zu Willamette Zeiten. Wo Intel für damals im vergleich astronomische Takte benötigte um mit AMD schritthalten zu können.

Das besserte sich dann mit dem Northwood (Analogie zu Vishera) und änderte sich dann ganz mit der neuen Architektur.

Bezüglich des Themas.... sehe ich das eigentlich spannend.

Nicht weil ich erwarten würde das wir von AMD ein high performance Desktop Prozessor im herkömmlichen Stil sehen werden.
Sondern eher weil ich gespannt bin wie die Entwicklung weiter geht.

Geht es mehr in Richtung ARM oder doch mehr wie es jetzt ist?
Wenn ich das richtig deute verlässt sich AMD ja mehr drauf das sich alles richtung ARM entwickeln wird und sie da sehr gut aufgestellt sind.
Und jetzt mögen die Chips für den Desktop Gaming Betrieb vll nicht genug Leistung haben, aber wie viel haben sie wenn es wirklich an der Zeit und wirklich relevant ist?

Was da in den Smartphones die letzten Jahre passiert ist ja schier der Wahnsinn und vergleiche ich gerne mit den Anfängen des PC´s wo es erst klein anfing und dann explosionsartig sich entwickelt hat.

Daher denke ich das dass die Spannende Frage ist ,und das auch ein Grund mit dafür ist warum AMD .... wie soll ich sagen ... so lange auf dem Bulli sitzen bleibt. Entweder weil man Wartet ob sich der Markt doch so entwickelt in Richtung des Bullis und seiner Arbeitsweise, was sich ja irgendwo abzeichnet - jetzt nach Jahren - und hier ja mehr und mehr besprochen wird, und man dann mit einer leicht abgeänderten Architektur doch noch oben mit spielen kann. Oder aber ob sich der Markt so entwickelt das man voll auf ARM geht.

Die nächst Spannendere Frage wäre oben drauf, ob man überhaupt ganz oben mit spielen möchte. Klar bringt es Prestige, aber das wirklich große Geld verdient man im Mainstream.

Hoffe man konnte mir ansatzweise folgen ^^ :fresse:

Edit:

Aber zu eurer Diskussion gerade .
Verwundert es jemanden wirklich das selbst ein I3, der jedes Jahr weiter entwickelt wird und leicht an Performance zulegt, irgendwann schneller ist als ein aktueller AMD der seit Jahren mehr oder weniger stagniert?
 
Zuletzt bearbeitet:
Schlauer mit Sicherheit nicht. Aber wenn dich nichts anderes interessiert, dann brauchst du anderen nicht vorwerfen, wenn sie auch hinter die Kulissen schauen. Mich interessiert ehrlich gesagt nicht nur, ob etwas funktioniert. Mich interessiert eher, warum und wie etwas funktioniert.

Die Frage ist doch viel eher, warum du die Diskussion lediglich in diese warum ist das so Frage abdriften lässt, das bringt doch dem Kunden der Performance will oder sie messen will gar nichts.
Es gibt doch hier zwei völlig unterschiedliche Aspekte und diese zusammenzuführen, ergibt für mich keinen Sinn.

Aber weder Phenom 2 noch Core 2 hatten eine iGPU.

Die IGP ist doch gar nicht für die Spieleperformance einer CPU relevant.

Genauso wenig wie ein A10 CPU-seitig grosse Vorteile gegenüber einem X4 bietet, bietet ein i3 grosse Vorteile gegenüber einem C2Q.

Okay, sehr wohlwollend für AMD formuliert, trotzdem ergibt das keinen Sinn, weil ein i3 wesentlich schneller ist wie ein C2Q und das durch die Bank, während ein A10 noch immer auf Niveau eines Phenom II von 2009! rumgurkt.

Dir ist aber schon klar, dass iGPUs irgendwann leistungsfähiger sein werden als eine GTX 980?

Und dir ist aber schon klar, dass eine IGP niemals die Leistung einer dedizierten GPU bringen können wird?
Aktueller Stand ist der dass eine GTX 980 über 10 mal so schnell ist wie die schnellste IGP und ich denke kaum dass sich das ändern wird.
Eher sehen wir dass sich die dedizierten GPU´s noch weiter von den IGP´s absetzen.
 
Zuletzt bearbeitet:
Die Diskussion dreht sich hier im Kreis. Finde das Problem von AM3+, ist wirklich das Alter und keine brauchbaren Boards für mATX und ITX. Den FX6300 würde ich dem i3 bevorzugen im Lowbudget bzw. gebrauchten System, weil er mehr Rohleistung hat und eine gute Fun-CPU ist. Übertaktet ist das Ding Multithreaded Intel Core-i5 Haswell Niveau. Der kostet wieder das Doppelte. Gutes Board und Belüftung vorrausgesetzt, geht ein FX6300 4.7-5.0 Ghz 24/7 Stunden stabil. Den Verbrauchsaspekt lasse ich mal links liegen. Hier würde mir reichen, wenn ich einmal Jahr eine Woche nicht in die Kantine zum Essen gehen. Bevor jemand denkt, ich esse für zwei, dem ist nicht so. :bigok:

Sollte AMD wirklich mit Zen im neuen Sockel nur 4 Kerner APUs verkaufen, sollten diese deutlich an IPC zulegen. Ein Sockel FM4 mit 2 Masken 4 Core (2 Core Abfallprodukt) und 8 Core (6 Cora Abfallprodukt), wäre mir lieber. MMn werden die neuen Games bestmöglich auf Multithreaded ausgelegt sein, weil die Konsolen keine IPC Taktmonster sind. Hier muss die volle Breite der Architektur ausgenutzt werden, anders skaliert die Performance nicht. Dafür werden 100% einige Engines angepasst oder entwickelt.

Offtopic:
Zum Spaß habe ich mal WoT gebencht. Das Spiel hängt bei mir ab Einstellung "Hoch" permanent im Grafikkartenlimit. Selbst in Medium limitiert die Grafikkarte deutlich früher als gedacht (zu 90%). Getestet auf meinem Llano @3500 Mhz @DDR3 1866 Mhz Cl9 @7790 1100|1625 Mhz @FullHD @HWLuxx Benchmark-Szene. Ohne Grafikkartenlimit @1024x768 @Maximum wurden 40 Fps reproduzierbar 2x erreicht als min. FPS, aber nur kurzzeitig. Dies stört den Spielspaß nicht. Hier wird AMD schlechter gemacht, als es ist.

Wer sich eine Lowbudget CPU kauft (Pentium), wird sicherlich keine Performance- oder Highendgrafikkarte verbauen, um ein Spiel zu Spielen. Um das Game bei Maximum konstant @60 FPs zu zocken, bräuchte man eine Grafikkarte, die in etwa 2mal so schnell ist, wie eine R7 260X. Damit das Spiel generell sehr gut aussieht, müsste es in in 4K laufen. Die FXAA Kantenglättung und das AF bei dem Game sind furchtbar oder es sieht nur auf meinem Fernseher so aus, weil die Pixel in @FHD sehr großkörnig sind.
 
Zuletzt bearbeitet:
MMn werden die neuen Games bestmöglich auf Multithreaded ausgelegt sein, weil die Konsolen keine IPC Taktmonster sind. Hier muss die volle Breite der Architektur ausgenutzt werden, anders skaliert die Performance nicht. Dafür werden 100% einige Engines angepasst oder entwickelt.

Das wäre ein eunderschöner Traum... Leider zeigt die Praxis exakt das Gegenteil: Portierte Games sind in der Regel schlechter optimiert als Games die direkt für einen PC entwickelt wurden.
 
Hmm. Ich habe den Thread mit großem Interesse angeklickt und jetzt komplett durchgelesen :fresse:

Ich habe das Gefühl, dass es hier nur am Rande, und mit der Länge des Threads immer weniger, um AMDs Zukunft im Gamingsektor geht, sondern eher um das seit über 15 Jahren andauernde Intel vs AMD Gebashe. Jeder sucht sich seine Benchmarkrosinen raus von der aktuellen Technik, dann wird man irrational und wird persönlich und ein oder zwei User versuchen zu vermitteln. xD - Aber naja, so ist das halt. Dazu sage ich nur:

Ich habe hier 2 Rechner stehen mit ähnlich schnellen Grafikkarten (680/7970). Einmal von AMD und einmal von Intel. Ich kann nachwievor mit beiden Rechnern ALLES zocken, solange ich die Grakas nicht ins GPU oder Vram-Limit drücke mit Downsampling oder was weiß ich. Der Intel ist schneller im Schnitt ja, aber der AMD in keinem von mir durchspielten Szenario annähernd zu langsam um auf gute Frameraten zu kommen und ich zocke keine alten Schinken. Der Verbrauch der CPUs ist unter Volllast sehr ähnlich, wobei der Intel übertaktet ist. Und für andere Aufgaben sind beide Rechner sowieso geeignet. Nur bei Unterstützung von AVX2 rennt der Intel wirklich davon.

Ich weiß auch garnicht, wieso hier über i3 und 2-Moduler diskutiert wird. Ich kenne keinen einzigen Spieler, der auf so einer CPU zockt. Das unterste im Bekanntenkreis sind 8320 bzw. 2500k. Die, die langsamere Dualcore 775er CPUs oder sowas drin haben, spielen auch nicht (mehr). Und ich glaube nicht, dass das Ausnahmen sind, weil es wirklich keine Großverdiener sind. Eine schnelle CPU für 100€ oder ein wenig mehr sollte für jeden Zocker machbar sein, solange er nicht erst 14 oder 15 ist...


Was ich mir denke zu der Zen-Zukunft:

Es kann nicht schlechter werden - denke ich zumindest. Ich sehe dem ganzen trotzdem etwas mit Sorge entgegen, obwohl ich tatsächlich davon ausgehe, dass die Effizienz stimmen wird um auf dem immer wichtigeren mobilen Sektor endlich Fuß fassen zu können. Sowas wie nen T-Bred/Barton oder einen Winchester/Venice/San Diego wird man aber nicht mal eben raushauen können (also kühl, taktfreudig und bessere IPC als Intel). Damit meine ich, das AMD vllt zu sehr auf niedrigen Verbrauch trimmt und die Performance zu wenig Beachtung bekommt. Damit kann ich natürlich auch voll daneben liegen...

Es ist meiner Ansicht nach auch noch viel zu wenig bekannt um dort wirklich was abschätzen zu können. Wenn die ersten Infos zu ES-modellen erscheinen auf den einschlägigen Seiten kann man mehr sagen. Dennoch würde ich AMD einen großen Schritt nach vorne gönnen, einfach um wieder Geld in die Kassen zu spülen um wiederum die Konkurrenz-Situation mehr zu beleben.

just my 2 cents
 
Ich weiß auch garnicht, wieso hier über i3 und 2-Moduler diskutiert wird. Ich kenne keinen einzigen Spieler, der auf so einer CPU zockt. Das unterste im Bekanntenkreis sind 8320 bzw. 2500k. Die, die langsamere Dualcore 775er CPUs oder sowas drin haben, spielen auch nicht (mehr). Und ich glaube nicht, dass das Ausnahmen sind, weil es wirklich keine Großverdiener sind. Eine schnelle CPU für 100€ oder ein wenig mehr sollte für jeden Zocker machbar sein, solange er nicht erst 14 oder 15 ist...

Schrieb der Reiche Sack mit nem Intel 6-Kerner :fresse2:
 
dafür verzichtet er vllt. an anderer Stelle?
 
Könnte mal wer bitte mit AMD Hardware meine Szene kurz nachstellen? An BF4 wurde sehr viel herumdoktern und ich möchte gerne etwas aktuellere Werte haben.

Siege of Shanghai ~ 60 Spieler.
Die Stelle (siehe Bilder unten) ist recht leicht zu finden. Bei E spawnen dann Richtung C am wasser bleiben und beim ersten Steg in die Ecke und hoch auf C schauen.

Meine Hardware Intel i7 2600K @ 4ghz , EVGA 670 GTX FTW, 16gb Ram, Asus P8P67 le


Settings:


4k HT An:

4k HT Aus:

2k HT an:


Mantle hätte ich gerne getestet, bin aber aktuell leider grün unterwegs.

Mal schauen, was nun aus der Entwicklung wird. Ich kaufe Hardware entsprechend meinen aktuellen Anforderungen.
Ist jetzt nicht genau die selbe Stelle, aber in der nähe und mit 64 Spieler: Bild: screenshotwin32-0043m2d5g.png - abload.de
AMD FX-8350 @ HPC-Mode (4.1GHz) 2x DDR3-2133 CL11 2x HD 7970 @ 925/1375MHz alle Energieoptionen an die das System bietet. (Ultra ink. Bewegungsunschärfe)
 
Es kann nicht schlechter werden - denke ich zumindest. Ich sehe dem ganzen trotzdem etwas mit Sorge entgegen, obwohl ich tatsächlich davon ausgehe, dass die Effizienz stimmen wird um auf dem immer wichtigeren mobilen Sektor endlich Fuß fassen zu können. Sowas wie nen T-Bred/Barton oder einen Winchester/Venice/San Diego wird man aber nicht mal eben raushauen können (also kühl, taktfreudig und bessere IPC als Intel). Damit meine ich, das AMD vllt zu sehr auf niedrigen Verbrauch trimmt und die Performance zu wenig Beachtung bekommt. Damit kann ich natürlich auch voll daneben liegen...

Ich denke deine einschätzung ist die naheliegenste und realistischste.

Es ist leicht zu behaupten das AMD, IPC technisch an Haswell herankommen wird.

Doch das werden sie nicht so schnell.

Und angenommen sie hätten 2016 Haswell IPC. Dann wäre Intel mit Broadwell und Skylake wieder 2 Gens weiter, und die 3te gen dürfte auch schon ende 2016 kommen.

Hinzukommt der bessere Fertigungsprozess bei Intel.

AMD wird green IT, mehr aber auch nicht.

DX12 für Windows 7 wäre das einzige was AMD wirklich helfen würde im moment.

Doch so wie es ist, dauert es noch ewig bis sich DX12 im Massenmarkt durchsetzt, und AMD kann nur bei Mantlesupport ein gegner werden.

Und seien wir mal Realistisch, AMD wird Froh sein können wenn sie Sandy Bridge IPC erreichen.
 
Ob das wirklich was wird?
Selbst wenn sie es praktisch hinkriegen, den Ruf als Stromfresser werden sie wohl auf Jahre hin nicht los :(
Denke schon, nur sollte man da nicht nur die Hardware sehen sondern auch die Software.
Ich gehe mal stark davon aus, die 220W TDP CPUs gibt es nur um die Leistungsteigerung mit Übertaktung zu gewährleisten. ;)

Weniger Nachdenken mehr Zocken! :fresse:
 
Naja, ich dachte ja nichtmal an die FX 9XXX Serie. Schon die normalen 3 und 4moduler sind nicht so richtig effizient..
Die Zeit wirds natürlich zeigen. Wenn man die APUs und ihre GPUs betrachtet, sieht es mit der Effizienz schon anders aus.
 
Selbst wenn sie es praktisch hinkriegen, den Ruf als Stromfresser werden sie wohl auf Jahre hin nicht los :(

Ich befürchte sowas auch.
Auf der anderen Seite muss man sich auch daran erinnern, welchen Ruf Intel mit Smithfield/Presler "endgültig" weg hatte. Deswegen wurde Teja mitsamt Netbrust eingesargt - und dann kam Core 2 und alles war supidupi toll^^ (Core war auch schon richtig gut, aber fand ja im Desktop keine Beachtung).

Mit K5/K6 hatte sich AMD auch schon einen richtigen Lahmarsch-Ruf erworben - das änderte sich aber auch mit K6-III+ langsam bei den "eingeweihten", mit dem K7/K8 in 130nm auch bei anderen und endültig mit AMDs 90nm K8 Sternstunden. Ging nur lang nicht so schnell wie beim Intel mit Core (2).

Bulldozer ist defintiv AMDs Netburst-Distaster und was da kommen muss um das Blatt zu wenden muss verdammt gut sein um wieder mitspielen zu können. Intel hatte die Ressourcen dazu damals und mit dem P3 auch ne gute Basis zum weiterentwicklen. Es könnte aber sein, dass AMD diese Ressourcen nicht hat - sonst hätten sie auch kaum erstmal an steamroller und excavator weiter rumgefrickelt, obwohl der Fail von Bulldozers CPU-Architektur bereits seit 2011 klar war. Deswegen wurde ja im classic Desktop (AM3+) nicht mehr dran rumgefummelt - die (ebenfalls gute) Idee der GPU-Integration hat wohl soviel Energie gekostet, dass für was anderes gutes in 3 Jahren kein Geld oder Ideen da war - da musste man also eher 5-6 Jahre veranschlagen.

Das Problem ist trotzdem, dass selbst wenn AMD alles 100% richtig macht, Intel eine gewisse Marktmacht hat und sich AMD evtl wie beim K8 nicht wirklich den eigentlich "verdienten" Marktanteil sichern kann - außer bei uns Gamern/Nerds/Interessierten. Ob sich das überhaupt mal ändern kann steht in den Sternen.

Wir werden sehen...
 
Naja, ich dachte ja nichtmal an die FX 9XXX Serie. Schon die normalen 3 und 4moduler sind nicht so richtig effizient..
Die Zeit wirds natürlich zeigen. Wenn man die APUs und ihre GPUs betrachtet, sieht es mit der Effizienz schon anders aus.
Also mir persönlich ist die Effizienz nicht so wichtig, ich hab nur ein Problem damit, wenn man mich von vorn herein beschränkt.
Also was neues muß weniger Verbrauchen damit die Leistungsteigerung wieder geringer ausfällt. :hmm:

Wir sind langsam an dem Punkt, da geht einfach nicht mehr mit weniger.
Dazu müssten wir uns zuerst mal von Silizium verabschieden oder ganz andere Programmier Modelle verfolgen. ;)
 
Selbst wenn sie es praktisch hinkriegen, den Ruf als Stromfresser werden sie wohl auf Jahre hin nicht los :(

Das kann sich schneller ändern als man denkt. K8 galt auch als die Referenz in Sachen Energieeffizienz damals. Dann kam Core2 und das Blatt hat sich um 180 Grad gedreht, was vorher effizient war, was auf einmal ineffizient und das obwohl sich am Prozessor selbst nicht mal was geändert hat ;)

Schielst du dazu auf den GPU Markt, so war AMD seit dem RV670, spätestens mit dem RV770 ebenso effizienter. Und "alle" haben das gewusst, Fermi von NV hat es sogar noch auf die (negativ) Spitze getrieben. Dann kam Kepler und das Blatt ist ebenso komplett umgekrempelt. Mit Hawaii im Spielebetrieb gehen heute schon fast Fermi v1 Werte durch die Stromstecker... ;) Auch wenn die DP Effizienz zweifelsfrei sehr gut ist...
 
Aber würdest du allen ernstes deine Kaufentscheidung von diesen Dingen "hinter den Kulissen" abhängig machen?
Sicherlich nicht. Mich interessiert bei einer Kaufentscheidung aber genauso wenig, wer den längsten ePenis hat, da ich hauptsächlich nach P/L entscheide. Und die von einigen immer wieder gerne betriebene Rosinenpickerei ist für mich auch kein Argument. Ich habe verschiedenste Anforderungen. Also bewerte ich einen Prozessor anhand verschiedenster Anwendungen. Aber hier soll es ja um Gaming gehen. Daher ist dieser Thread vielleicht nicht unbedingt für jeden der richtige Ort zwecks Kaufberatung. Was 2015-2017 für Gamer kommt, kann man im Moment nur anhand von Roadmaps oder bekannter Technik abschätzen. Daher hilft es dem Thread nicht, zu sagen, einen interessiert nur das Endergebnis. Das Endergebnis von 2015-2017 kann von uns sowieso noch niemand vorhersagen.

Das ist aber eine armselige Vorstellung von dir.
Was für ein Zufall. Das denke ich jedes mal bei dir.

"Zumal ich nicht müde werde, meine Aussagen mit Benchmarks zu belegen."
Ja, das haben hier alle schon mitbekommen. Rosinenpickerei statt Benchmarks trifft es allerdings besser. ;)

"Aber gut, wenn für dich die Leistung eines Systems irrelevant ist und du dich hinter irrelevanten technischen Details verstecken willst, dann wird doch allzu offensichtlich, dass es dir hier einzig und allein darum geht, Reklame für AMD zu machen und das Geldsäckel von AMD zu füllen."
Also langsam solltest du mal in die Realität zurückkommen. Ich bin nicht derjenige, der in Intel Threads rumhängt und AMD Prozessoren anpreist. Wozu auch? Ich würde dafür kein Geld bekommen und arbeite auch sonst in keiner Weise für irgendeinen Intel Konkurrenten. Was ich sage ist meine freie und eigene Meinung. Du hingegen spammst AMD Threads permanent mit deinem Intel Gehype zu. Aussagen wie "ich empfehle bei begrenztem Budget eher den i3" sind ja noch harmlos. Aber wenn es dann Richtung "wozu sollte man also heute einem Gamer noch so einen gammeligen AMD Schrott empfehlen" geht, dann werden deine Absichten überdeutlich. Weder hat das was mit dem Thread zu tun, noch hilft es in sonst irgendeiner Weise, sachlich und konstruktiv zu diskutieren. Da wäre ehrlich gesagt die Frage passender, ob du für Intel Werbung machst.


Verfolge das Thema schon eine ganze weile und finde es streckenweise interessant was hier geschrieben wird.
Aber bin ich der einzige der es leicht provokant findet wenn jemand ankommt mit "AMD Drohne" ?
Nein, bist du nicht. Sind halt immer wieder dieselben Leute, die das gerne in den Raum werfen, um ihre fehlende Argumentationsbasis zu verwischen. Ironischerweise sind sie es, die die grösste Herstellerfixierung haben.


Die IGP ist doch gar nicht für die Spieleperformance einer CPU relevant.
Ohne dGPU ist sie das sehr wohl. Und genau dort liegt ja der Fokus bei AMD, auf APUs bzw SoCs. Verrate mir doch mal, wie viel "Spieleperformance" eine Intel CPU OHNE eine dGPU von AMD oder NVIDIA hat? Um Relevanz oder Nichtrelevanz ging es aber auch gar nicht. Es ging um die Entwicklung in den letzten Jahren. Und dabei ging es vor allem um Integration. Weit mehr als das noch zu K10 oder Core 2 Zeiten der Fall war.

"trotzdem ergibt das keinen Sinn, weil ein i3 wesentlich schneller ist wie ein C2Q und das durch die Bank"
Das stimmt nicht. Ein i3 ist idR nur schneller bei singlethreaded Workloads, wenn der Speicherdurchsatz limitiert oder wenn neuere ISA Erweiterungen genutzt werden können. Bei voller Auslastung und Wald- und Wiesencode bietet auch ein aktueller i3 quasi keine signifikanten Vorteile gegenüber einem C2Q. Und nicht viel anders schaut das beim A10 aus. Nur dass dort der Vorteil bei singlethreaded Workloads geringer ist, was aber durch die bessere CMT Skalierung im Vergleich zu HTT besser ausgeglichen werden kann.

"Und dir ist aber schon klar, dass eine IGP niemals die Leistung einer dedizierten GPU bringen können wird?"
Und dir ist aber schon klar, dass sie das auch gar nicht muss, um für den Grossteil aller Nutzer ausreichend Performance zu liefern?

"Aktueller Stand ist der dass eine GTX 980 über 10 mal so schnell ist wie die schnellste IGP und ich denke kaum dass sich das ändern wird."
Aktueller Stand ist, dass eine dGPU heutzutage keineswegs 10 mal so schnell ist. Wenn ich mir diverse Spiele bei gleicher Auflösung, vergleichbaren Setting und gleicher CPU anschaue, dann ist das maximal Faktor 4-5 zwischen zB Kaveris iGPU und R9 290X. Oft eher weniger. Und dabei werden aktuelle iGPUs noch zu sehr von DDR3 gebremst.
 
Das kann sich schneller ändern als man denkt. K8 galt auch als die Referenz in Sachen Energieeffizienz damals.
Was allerdings auch nicht so viel mit der tatsächlichen Faktenlage zu tun hat. Solche Wahrnehmungen entstehen vor allem dann, wenn man nur schwarz und weiss sieht. Ein Effizienzwunder war der K8 auch nie. ZB ein Pentium-M bot vergleichbare Effizienz. Nur hat da kaum einer hingeschaut, weil es den nur für Notebooks gab und nicht für Desktops oder Server. Es trifft eher zu, dass Netburst einfach so ineffizient war. Und genauso wenig kann man heutzutage alles über einen Kamm scheren. Cat ist und war für seine Zeit recht effizient und bot für so einen kleineren Kern erstaunlich gute Performance. Mittlerweile hat da allerdings ARMv8 die Messlatte deutlich nach oben geschraubt. Und genauso wenig ist Bulldozer per se ineffizient. Das wird es erst bei höheren Taktraten. Wobei ich da eher die Fertigung in Verdacht habe als die Architektur. Denn gleiches kann ich bei meinem Llano beobachten, der mit Bulldozer herzlich wenig zu tun hat. Lustigerweise sind sogar die einzelnen Kerne unterschiedlich effizient. Kern 0 und 1 ist bei mir effizienter als Kern 2 und 3. Wobei das nicht unbedingt an der Fertigung, sondern auch am Llano Design liegen könnte.
 
Verrate mir doch mal, wie viel "Spieleperformance" eine Intel CPU OHNE eine dGPU von AMD oder NVIDIA hat? Um Relevanz oder Nichtrelevanz ging es aber auch gar nicht.

Offensichtlich geht es dir aber doch um Relevanz... Oder wozu bringst du immer wieder das gleiche Argument, dass der PC ohne ein Gerät, was das Bild darstellt, keine Spieleperformance hätte?
Könnte man genau so sagen, dass der Prozessor keine Performance hätte, wenn du das NT weglässt. Oder das Mainboard... Oder die Soundkarte (ja auch ohne Soundkarte kannst du einige Anwendungen gar nicht erst starten)
Also was bezweckst du damit?

Zumal ich eigentlich dachte, dass sich die Anwesenden hier mittlerweile soweit einig wären bei dem Umstand, dass ein Ausschluss jeglicher Beeinflussung anderer Komponenten so oder so nicht möglich ist. Ergo geht es im Endeffekt doch darum, diese Einflüsse soweit wie möglich zu unterbinden. Und das macht man nunmal mit einer möglichst "fetten" GPU, wenn man wissen will, was die CPU in Spielen zu leisten im Stande ist. Paar das vielleicht noch mit geringer Auflösung um den Faktor nochmals zu senken. Unterm Strich ists auch auch fast völlig egal, ob du nun eine 1000€ Karte ala TitanBE verwendest oder eine 300€ Karte ala R9-290. Der Einfluss bleibt idR so niedrig, dass sich die Leistungsmessungen decken...

Was allerdings auch nicht so viel mit der tatsächlichen Faktenlage zu tun hat. Solche Wahrnehmungen entstehen vor allem dann, wenn man nur schwarz und weiss sieht.

??
Dragontear sprach von: "Ruf als Stromfresser werden sie wohl auf Jahre hin nicht los". Hat ein "Ruf" idR was mit tatsächlichen Faktenlagen zu tun? Oftmals nicht... Um so einfacher ist es aber auch, diesen Ruf wieder loszuwerden, wenn man die richtigen Entscheidungen zur richtigen Zeit trifft.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh