AMD,s Gaming Zukunft 2015-2017

Dass deine Überzeugungen nur Überzeugungen sind und sich problemlos widerlegen lassen, rechtfertigen diese persönlichen Anfeindungen nicht.
Tust du nur nie, immer leere Worte. Ich hingegen messe und liefere seit Jahren Resultate.

Was in Spielen aber reine Utopie ist. Selbst bei 640x480 und CF/SLI ist das nicht der Fall. Selbst dann liegt der Einfluss von GPU und I/O immer noch irgendwo bei vielleicht 15-30%.
Erklär doch endlich mal, was dieses ominöse I/O sein soll. Wenn zudem die GPU reinspielen würde, dann würde der Wechsel auf eine 200 MHz flottere CPUs nichts an den Werten ändern. Tut sie aber und das nahezu linear.

Aber wie sollen sie es auch zeigen, wenn es nicht geht? Die technischen Ursachen dafür habe ich mehr als einmal erläutert.
Du machst es dir einfach: Geht nicht.

Eher kämpft Intel noch mit den AMD GPUs von vor 6 Jahren. Und zwar Chipsatz IGPs.
Das musst du nun mal erklären. Eine Iris Pro 5200 ist schneller als alle AMD-iGPUs oder meinst du das Feature-Set? Was kann eine Haswell iGPU nicht, was eine Chipsatz-IGP von vor sechs Jahren kann und alle heute bei Intel missen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Erklär doch endlich mal, was dieses ominöse I/O sein soll. Wenn zudem die GPU reinspielen würde, dann würde der Wechsel auf eine 200 MHz flottere CPUs nichts an den Werten ändern. Tut sie aber und das nahezu linear.
Bei Process Lasso gibt es ein I/O Delta welches man auslesen kann, bild habe ich schon mal gepostet, hier nochmal: http://abload.de/img/bf4_mantle_testgelnde0krl9.jpg

Ich hab das so Verstanden, die CPU ist ein Verteiler, so lang nicht genug Daten rein gehen, kann auch nicht mehr raus kommen.
Also die Abhängigkeiten sind eigentlich viel zu groß um die Leistung mit Benchmarks aufzuzeigen.
Im Labor können sie viel mehr Messen als es uns die Software bisher ermöglicht. ;)
 
Also mehr FPS in Spielen hat mit Spielen nix zun tun?
Nein, "grosse, breite CPU mit hoher IPC/Takt" bzw "kleine schmale CPU mit wenig IPC/Takt" mit Performance. Machst du das mit Absicht? Oder soll ich mal das Wort mit "T" bemühen?

"Es ging darum, dass das, was für Anwendungen gilt nicht gleichbedeutent mit dem ist, was für Spiele gilt."
Und das gilt nach wie vor. Oder kannst du mir Spiele nennen, wo ich gezielt Performance für Integer, FP, Branching, etc für 1-N Kerne und Effizienz bei einem Auslastungsniveau von 10%, 20% usw messen kann?

"Das brauchst du mir nicht vorwerfen, das belegen Benchmarks und Messungen, die eben jene Spieleperformance aufzeigen wollen/sollen und dies auch können."
Und mir brauchst du nicht vorwerfen, AMD absichtlich mit Anwendungen besser hinzustellen. Das belegen Benchmarks und Messungen, die eben jene Performance aufzeigen wollen/sollen und dies auch können. Sry, aber dein Nichtverstehen oder Verdrehen von Sachverhalten ist echt nur noch zum Kopfschütteln. Hauptsache immer irgendwas Gegenteiliges sagen. Egal ob es Sinn macht oder nicht. Und bei dir suche ich leider in den meisten Fällen nach dem Sinn.

"Es geht nach wie vor um die Performance in Spielen."
Es ist aber naiv zu glauben, dass Spieleperformance nur von der CPU oder gar nur von der CPU Architektur abhängt. Und übrigens, wenn du den Threadtitel mal zu Ende gelesen hättest, da steht auch unmissverständlich "Zukunft". Das Rumreiten auf aktuellen CPUs wäre dann ja auch irgendwie offtopic, richtig? ;)

"Unterm Strich auch völlig nebensächlich woran es liegt."
Ja, schon klar. Wenn du keine Argumente mehr für notorische Widerworte hast, dann kommt immer das. Ehrlich gesagt ödet mich dieser Kinderkram mit dir langsam an. Was Konstruktives kommt von der eh nicht ausser das permanente Schlechtmachen von allem, was AMD hat oder auf der Roadmap steht. Wenn du mit Intel glücklich bist, dann bleibe doch in den Intel Threads. Da kannst du sicherlich auch genügend Leuten den Spruch um die Ohren werfen. Wenn du hingegen tatsächlich an AMD interessiert bist, sollte man dann nicht etwas aufgeschlossener zukünftigen Produkten gegenüber sein? Ich habe von dir hier aber noch kein einziges sinnvolles Wort dazu gelesen.

"Um das auf ARM abzufackeln benötigt der geneigte Kunde eben ein zweites System"
Nö. Wieso sollte er?

- - - Updated - - -

Doch, oft genug.

"Ich hingegen messe"
Ja, und mehr kannst und verstehst du halt leider nicht. Das ist das Problem.

"Erklär doch endlich mal, was dieses ominöse I/O sein soll."
Habe ich auch schon oft genug getan. Wenn du nicht zuhören willst oder in den Ignoriermodus schaltest, kann ich dir auch nicht weiterhelfen. Ein letztes mal, verstehe es oder lass es bleiben. I/O bezeichnet all das, was an Kommunikation zwischen verschiedenen Komponenten notwendig ist, sowohl software- als auch hardwareseitig. Dazu gehören OS, Treiber, CPU, GPU, SPU, Cache, RAM/VRAM, HDD/SDD usw. Alles hat Einfluss auf die Gesamtperformance. Das eine mehr, das andere weniger. Abhängig von der jeweiligen Anwendung und vom jeweiligen Workload. Und gerade in Spielen sind diese Kommunikationsebenen komplexer und deren Isolierung komplizierter als in anderen Anwendungen. Und deshalb bringt es auch wenig, die Leistungsfähigkeit einer CPU Architektur mit Spielen zu messen. Du kannst messen, was an FPS mit CPU X in Spiel Y mit den jeweiligen Einstellungen auf der jeweiligen Plattform herauskommt. Dagegen sagt niemand was. Über die generelle Leistungsfähigkeit der CPU Architektur sagt dir das allerdings recht wenig.

"Wenn zudem die GPU reinspielen würde, dann würde der Wechsel auf eine 200 MHz flottere CPUs nichts an den Werten ändern."
Doch, das kann durchaus der Fall sein. Wenn die GPU nicht reinspielen würde, dann hättest du gar keine Werte.

"Das musst du nun mal erklären."
Oh sry, ich hatte wohl den Sarkasmus Tag vergessen. Es sollte hoffentlich klar gewesen sein, dass meine Aussage genauso unsinnig war wie die von Schaffe.
 
Mich wundert das es den laden AMD überhaupt noch gibt bei den Schulden.

Aber lange wird es nicht mehr dauern Dan sehen wir nur noch NV und INTEL.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
"Es ging darum, dass das, was für Anwendungen gilt nicht gleichbedeutent mit dem ist, was für Spiele gilt."
Und das gilt nach wie vor. Oder kannst du mir Spiele nennen, wo ich gezielt Performance für Integer, FP, Branching, etc für 1-N Kerne und Effizienz bei einem Auslastungsniveau von 10%, 20% usw messen kann?
Nein, aber das muss ich auch gar nicht... Wenn du derartige Werte wissen willst, dann schau dir Anwendungsbenchmarks an.
Ich kann dir im Gegenzu aber zeigen, was du weiter oben behauptet hast:
"Du kannst mit Spielen nichts messen, was du mit normalen Anwendungen nicht auch messen kannst."
Viel eher wäre also interessant, dass du uns diese Anwendungen lieferst, mit dehnen wir diese Aussage nachvollziehen können...

Denn ich sehe nach wie vor ein Leistungsplus, wenn ich einen FX8350 im CB Anwendungsrating mit einem i3-4330 vergleiche von knappen 30%, wärend im Spielerating ein Leistungsdefizit zwischen diesen beiden Modellen von 3% steht. Die Anwendungsseite misst also bei weitem was anders, als für die Spiele relevant. Ich schlussfolgere daraus, das keine der Anwendungen im CB Rating diejenigen sind, mit dehnen man deine Aussage belegen kann. Welche also dann?

Das Rumreiten auf aktuellen CPUs wäre dann ja auch irgendwie offtopic, richtig? ;)
Nein, wie ich oben schon erwähnt hatte beginnt 2015 in auf den Tag genau 3 Wochen. Siehst du neue CPUs von AMD (wir wollem ja beim Thema bleiben) binnen der nächsten drei Wochen auf den Markt kommen? Ich nicht... Ergo werden die heutigen Produkte auch in 2015 (meint damit ja dann wohl klar die Zukunft) das Mittel zur Erfüllung von Kundenwünschen bei AMD sein... Wir sind damit also voll im Thema...
 
Mich wundert das es den laden AMD überhaupt noch gibt bei den Schulden.

Aber lange wird es nicht mehr dauern Dan sehen wir nur noch NV und INTEL.

ne, siehst du nicht mehr weil sie dich dann preistechnisch schön von hinten in den .... ich führs mal nicht weiter aus :d
 
ne, siehst du nicht mehr weil sie dich dann preistechnisch schön von hinten in den .... ich führs mal nicht weiter aus :d

Das glaube ich nicht... Würde sich das Preis/Leistungskonstrukt binnen recht kurzer Zeit maßgeblich verschlechtern, dann würde auch eine Firma wie Intel Schwierigkeiten bekommen, ihre Produkte an den Mann zu bringen. Warum sollte man sich was neues kaufen, was nicht irgendwie Vorteile hätte im Vergleich zum Alten?
Auch sehe ich stand heute klar auch ein "Treiben" in die andere Richtung, wenn es auch etwas zögerlich erscheint... Mit dem S2011-3 hat Intel erstmals einen Desktop Prozessor als Hexacore + SMT Ausführung für deutlich unter 500€ geliefert. Und erstmals die acht Kern Ausführung mit vergleichsweise gutem Takt für eben den 1000er. Nimmt man es genau, besteht absolut gar keine Not dafür.

Im Vergleich mit Sandy-E hatte dich der 2GHz acht Kerner Xeon noch eben diesen 1000er gekostet. Und der Hexacore lag eben bei um die 500€, das EE Modell ebenso bei nem 1000er.
Und das alles so ziemlich ganz ohne wirkliche Konkurenz bei ner Plattform, die allgemein recht hochpreisig erscheint und dazu noch (teils zurecht) in der Kritik stand/steht im Bezug auf den Featureumfang des Chipsatzes...

Auch werden die Mainstream Modelle für S115x zwar nicht primär günstiger, aber dafür schneller für gleichen Preis. Nicht viel, aber immerhin. Den Haswell-Refresh 4790K im Vergleich zum alten 4770K oder gar 3770K zum Beispiel gesehen. Ebenso gibts P/L vergleichsweise gut dastehende Produkte wie den Xeon E3-1230/1231v3.

Soll jetzt nicht heißen, das AMD am Markt verschwinden soll ;) Keine Frage...
 
ich glaube schon, dass sie die Preise erhöhen würden
oder gewisse Innovationen dem Profibereich vorbehalten werden
du glaubst doch selbst nicht, dass wenn ein Unternehmen eine Monopolstellung hat daraus nicht was macht

das was ich da vorhin gesagt habe ist vllt. bzgl. des Preises übertrieben, aber wie gesagt, ich denke nicht das die Preise dann ähnlich wie die jetzt sind
 
Mich wundert das es den laden AMD überhaupt noch gibt bei den Schulden.
Ich glaube du verstehst den Markt nicht so ganz, ein Unternehmen kann über Jahre Schulden haben und dennoch gesund sein ;)

Anbei haben sich doch, ähnlich wie bei GF, arabische Investoren bei AMD eingekauft soweit ich mich erinnere. Die wollen weg vom Öl, weil das endlich ist und sich so ein neues Standbein erkaufen. AMD hat sicher noch ein paar Jahre vor sich, zumal die Custom SoC und GPU Sparten ja Gewinn einfahren.
 
Schwierig zu beurteilen. Auf der einen Seite sagt der gesunde Menschenverstand ja, das würden die machen, aber auf der anderen Seite zeigt die Praxis zum Teil das Gegenteil... Gerade in den Märkten, wo keine (nennenswerte) Konkurenz mehr vorhanden ist.
Schau dir doch die AMD Produkte mehr an. Da gibts im Ultramobilen Bereich eher wenig. Im Mobilen Bereich ja, Kaveri, aber das ist auch vergleichsweise günstig. Im Desktop Bereich hast du die AM1/FM2+/AM3+ Geschichten, da hörts bei um die 150€ schon auf... Und im Serverbreich gibts von AMD nix mehr, was nur ansatzweise Anklang finden.

Wärenddessen wird das P/L aber immer besser... Und das trotz der Fertigungsprobleme und der immernoch anhaltenden TickTock Methodik. Auch wenn die Sprünge offenbar etwas kleiner werden...


Ich denke mal, das sich AMD und auch Intel durchaus der Problemstellung bewusst sind, dass es schwer wird auf Dauer die Märkte ruhig zu halten. Gerade die Bestrebungen Intels in den LowPower Bereich mit Millionen und Milliarden Dollar Investition und satten Verlusten in dieser Sparte zeigen denke ich recht gut, dass es da durchaus auch darum geht, neue Märkte für sich zu gewinnen. Und AMD geht da aktuell andere Wege. Der Konsolen Deal bspw.

AMD wird in Zukunft den Serverbereich mit ARM angreifen. Und im Desktop und Mobile Bereich mit ihren APUs einen Spagat aus GPU und CPU Power abliefern.
Nimmt man es genau, ist das Monopol oder quasi Monopol in den übrigen Bereichen, wo es aktuell nur AMD und Intel als global Player gibt, ja schon sozusagen vorhanden... Aber (noch) sieht man da keine stiegenden Preise oder Ausnutzung der Stellung. Eher im Gegenteil...
 
Zuletzt bearbeitet:
Schade, ich sehe nicht, wie du rot wirst ... na dann zeig doch mal auf, wo ein FX bei Teillast effizienter ist als ein 1150-Haswell.

"Ich hingegen messe" Ja, und mehr kannst und verstehst du halt leider nicht. Das ist das Problem.
Die Aussage halte ich angesichts meines Berufes und Studiums für zu überheblich, ich erläutere quasi täglich technische Details und Architekturen.

I/O bezeichnet all das, was an Kommunikation zwischen verschiedenen Komponenten notwendig ist, sowohl software- als auch hardwareseitig. Dazu gehören OS, Treiber, CPU, GPU, SPU, Cache, RAM/VRAM, HDD/SDD usw. Alles hat Einfluss auf die Gesamtperformance.
Deswegen sind bei CPU-Tests ja OS, Treiber, GPU, RAM und SSD identisch - alles außer der CPU eben.
 
Zuletzt bearbeitet:
Von der Software? Vom Cache? Von der Speicheranbindung? Es gibt mehrere Ursachen, die dazu beitragen können. Es gibt nicht nur die CPU Architektur. Das sollte man langsam mal verstanden haben.

Die kommen nicht von der Software, sondern von der schwachen Leistung pro Takt der AMD Prozessoren und das liegt an der Architektur, die AMD gebaut hat.
Man hat auch nie mehr IPC angekündigt. Ich erinnere mich an die 50% mehr Performance bei 33% mehr Kernen, die man mit dem FX-9590 dann auch erreichte ( Legacy Code ).
Bulldozer war nie darauf ausgelegt mehr Leistung pro Takt zu besitzen als wir jetzt bei Piledriver sehen.

Das liegt dann aber an deiner emotionalen Bindung. Wenn du diese Aussage mal objektiv und unbefangen lesen würdest, dann würdest du erkennen, dass sie völlig sachlich und nüchtern ist. Das habe ich mir ja auch nicht aus den Fingern gesogen, sondern kann man mit Mikrobenchmarks, die maximal im L1 laufen, nachweisen.

Sachlich und nüchterne Kommentare können genauso eine Emotionale Bindung voraussetzen, eben dann wenn jemand großenteils nur über Dinge schreibt die seiner Überzeugung nach so sind. Und deine Überzeugungen sind immer nur rot eingefärbt.
Wo sind den Quellen und Begründungen dafür, dass AMD´s Architektur Leistungsfähiger ist?
Tatsache ist dass das lediglich eine Behauptung ist, die du ganz offensichtlich nicht nachweisen kannst.

Erstens, ich würde nicht sagen, dass du es nicht nachvollziehen kannst. Du scheinst den Kontext schlichtweg nicht zu verstehen.

Den Kontext habe ich doch vorhin schon erklärt. Es geht darum mit Haarspalterei die schnellere Intel Spieleperformance zu negieren, indem man behauptet, man könne sie nicht messen.
Alle Messungen die so durchgeführt werden, dass die Grafikkarte eine möglichst niedrige Rolle spielt, zeigen das man es sehr wohl kann.

Wo sind eigentlich deine Messungen die einen starken Einfluss der Grafikkarte zeigen? Wenn das so sein soll, wieso gibt es dann in dementprechenden Settings von dir keine Verlinkungen?


Es wird doch niemandem verboten, sich Spielebenchmarks anzuschauen, wenn man wissen will, wie viele FPS mit GPU X und CPU Y und Auflösung Z und Qualität W und Details U in Spiel V mit Patch T herausspringen.

Soviele Parameter existieren, aber sie haben keinen großen Einfluss. Bei Anwendungen gibt es genauso Patches und Softwareupdates.
Und wenn du behauptest, diese habe einen großen Einfluss, dann zeige doch das endlich auch mal mit Messungen.


Ansonsten ist das wieder nur eine Überzeugung die du als Fakt deklarierst.

Ja, und diese persönlichen Anfeindungen könntest du dir echt sparen. Dass deine Überzeugungen nur Überzeugungen sind und sich problemlos widerlegen lassen, rechtfertigen diese persönlichen Anfeindungen nicht.

Dann widerlege diese doch mal. Entweder mit Fachliteratur, oder mit Messungen.
Letzteres wäre uns alle lieber, denn du behauptest ja der Einfluss der Grafikkarte ist groß, dann kannst du das ja gerne zeigen, aber bis jetzt hast du das noch nie getan.

IPC alleine reicht auch nicht. Auch der Takt muss halbwegs passen. Takt alleine reicht auch nicht. Auch der Cache muss halbwegs passen. Cache alleine reicht auch nicht.

Wenn man sagt, dass die IPC schwach ist bei AMD, behauptest du die CPU Architektur ist besser wie bei Intel und rettest dich, Cache, Fertigung und was weiß ich noch was auszuschließen.
Die IPC ist halt nunmal das wichtigste.
Am Enden darf man bei dir doch gar nichts messen, keine Benchmarks zur Leistungsaufnahme verwenden, weder das noch das als Beleg bringen.
Selbst bringst du aber keine Belege. Was soll das Getrolle?

Richtig. Interessant, dass du oder fdsonne immer allen erzählen wollt, dass technische Diskussionen deshalb keinen interessieren und die Welt nur schwarz und weiss ist.

Interessiert sehr wohl, hat aber mit der Spieleperformance bei CPU´s ehrlichgesagt wenig zu tun. Es kommt halt das raus was hinten raus kommt.
Und da die Grafikkarte keine große Rolle spielt, sieht man eben wie AMD dort deutlich zurückliegt, begründet durch die schwache CPU und nicht durch I/O oder sonstigem kaum relevanten Dingen.

Du hast die Aussage genauso wenig verstanden wie y33H@. Anwendung A und Anwendung B ist was anderes als Workload A und Workload B.

Viel eher ist es so, dass deine Aussage niemand versteht und sie auch keinen Sinn ergibt.

Nein. Das hat drei Ursachen. Erstens greifen bei Teillast Stromsparmechanismen besser, Stichwort clock grid. Zweitens spart Intel durch den Wegfall und die geringere Auslastung der HTT Threads weniger ein als AMD bei ganzen Kernen oder grösserer Teile eines Moduls (#1). Und drittens kann AMD bei kleineren und Nicht-K Modellen sparsamer mit der Spannung umgehen, was die Leistungsaufnahme durchgängig reduziert. Grundsätzlich arbeitet da AMD mit mehr Reserven als Intel. Deshalb liessen sich viele AMD Prozessoren in der Vergangenheit auch sehr gut untervolten

Theorie, die Messungen sagen da klar etwas anderes, Gegenbeispiele von dir nehme ich gerne an.


Ohne Aussagekraft. Erstens, weil es Cinebench ist. Und zweitens, weil die nur Werte für das gesamte System haben. Über die CPU selbst sagt das wenig. Ausserdem ist selbst der 1-CPU Test nur eines von mehreren Szenarien für Teillast.

Und was ist dann für Messungen geeignet? Auf deine Verlinkungen die deine Aussagen untermauern, bin ich mal gespannt.


Aber ich denke da kommt nichts, weil du deine verqueren Aussagen nicht untermauern kannst, zumal niemand noch eine CPU alleine messen kann.
Vor allem weil der Sockel FM2+ recht sparsam ist und es von daher eh kaum unterschiede zu Intel gibt.

mr.dude schrieb:
Nein, ist er nicht. Das haben genügend Messungen auch gezeigt.

Welche Messungen? Link?

Ausser wilden Behauptungen und Rosinenpickerei haben die bisher rein gar nichts gezeigt. Und daran hat sich bisher nichts geändert, trotz deiner mehrfachen Behauptungen, dass sie es getan hätten. Aber wie sollen sie es auch zeigen, wenn es nicht geht? Die technischen Ursachen dafür habe ich mehr als einmal erläutert.

Wilde Behauptungen kommen von dir, von jemanden der Messungen anderer entweder aus aberwitzigen Gründen nicht anerkennt, oder dann mit Rosinenpickerei kommt.
Selbiger behauptet dann ei Desktopmodellen 15% mehr IPC eines 7850k gegenüber eines 6800k zu sehen, die nach Benchmarks und vergleichen faktisch nicht existent sind.

Leistung ist es aber nicht. Und das wird auch nicht mehr. Egal wie viele Jahre der Prozess läuft. IBM hat da grundsätzlich was verbockt. Glofo hat lediglich Bugfixing betrieben so gut es ging.

Man kann Bulldozer auch in 14nm Finfet bei Intel fertigen und schneller würde der nicht werden, sondern wenn sparsamer und ließe sich aufgrunddessen vielleicht etwas höher takten.
Besonders die Taktbarkeit bei Globalfoundries 32nm ist excellent, es gibt keine Anzeichen für eine schlechte Fertigung, zumindest jetzt nicht mehr.

Nicht wirklich. Eher kämpft Intel noch mit den AMD GPUs von vor 6 Jahren.

Dann schau dir doch mal die Performancewerte eines i7 970/960 oder 975 an und vergleiche diese mit Vishera.
Die sind teilweise sogar noch besser bei vergleichbarer Stromaufnahme, die nehmen sich im Mittel nix.
Siehe Benchmarks bei CB ( Anwendungen )

Und zwar Chipsatz IGPs.

Ah klar, natürlich. Chipsatz IGp´s sind ja auch noch so wichtig aktuell.

Und mir brauchst du nicht vorwerfen, AMD absichtlich mit Anwendungen besser hinzustellen. Das belegen Benchmarks und Messungen, die eben jene Performance aufzeigen wollen/sollen und dies auch können. Sry, aber dein Nichtverstehen oder Verdrehen von Sachverhalten ist echt nur noch zum Kopfschütteln. Hauptsache immer irgendwas Gegenteiliges sagen. Egal ob es Sinn macht oder nicht. Und bei dir suche ich leider in den meisten Fällen nach dem Sinn.

Dann erkläre doch mal, warum die offensichtlichen Spielebenchmarks von CPu´s nix wert sind, obwohl die Werte es eindeutig beweisen?

Es ist aber naiv zu glauben, dass Spieleperformance nur von der CPU oder gar nur von der CPU Architektur abhängt.

Hängt sie auch nicht, aber in gewissen Settings zu 99%.


Es kam noch nie etwas von dir, was deiner Argumente untermauer. Tatsache. Ich kenne die ewiglangen Diskussionen zur Genüge.
Und als dir mehrfach Messungen und CPU Skalierung gezeigt wurde, wurde deine Rabulistik und Polemik noch absurder.

Ja, und mehr kannst und verstehst du halt leider nicht. Das ist das Problem.

Naja, immerhin sind seine Messungen mehr wert, als deine Überzeugungen, die durch nichts belegt oder verifiziert wurden.

Und gerade in Spielen sind diese Kommunikationsebenen komplexer und deren Isolierung komplizierter als in anderen Anwendungen. Und deshalb bringt es auch wenig, die Leistungsfähigkeit einer CPU Architektur mit Spielen zu messen.

Tatsache ist aber auch dass diese Kommunikationsebenen unter gewissen Einstellungen kaum eine Rolle spielen und lieferst keine Belege dafür dass die Rollle beachtenswert wäre.
Das zeigen übrigens auch die Skalierungsmessungen die mittlerweile in vielen PCGH Heften abgedruckt wurden, solltest dir vielleicht mal eins kaufen.

Doch, das kann durchaus der Fall sein. Wenn die GPU nicht reinspielen würde, dann hättest du gar keine Werte.

Reinspielen insofern nicht, dass die GPU die FPS die angezeigt werden bestimmt, sondern die CPU, weil die GPU 100000 FPS anzeigen könnte und lediglich auf die Daten der CPU wartet um das Bild zu erzeugen.
Wieso soll da die GPU nun reinspielen?

Wenn 1000 Leute vor der Tür stehen und pro Sekunde nur einer wegen der geringen Bandbreite durchpasst, dann wirst du doch auch nicht Behaupten, dass es was bringt, wenn man die CPU höher taktet, wenn es an der Bandbreite hängt.:stupid:
Und genauso läuft es bei einem CPU oder GPU Limit, der eine wartet auf den anderen.
Und wenn der eine viel schneller ist als der andere, dann bauche in den anderen auch nicht hochtakten, weil nix dabei rauskommt.

Und genau deswegen ist der Einfluss gering, das ist völlig logisch.
Und dein bei deinem I/O ist das ganz genauso, wenn das limitieren würde, würde man es ja wohl sehen, wenn der höhere CPU Takt nicht durchschlägt.

Hänge ich bei Star Craft 2 im CPU Limit dann bringt mehr Takt 1:1 mehr Performance.
 
Zuletzt bearbeitet:
Schau dir doch die AMD Produkte mehr an. Da gibts im Ultramobilen Bereich eher wenig.
eventuell weil das Intel nicht zulässt?
Ultrabooks dürfen ja nur Ultrabooks heißen, wenn eine entsprechende Intel-CPU drin ist
von daher...
 
Was ja auch so gut wie kein Gamer will. Ein Gamer interessiert keine dicke GPU in der CPU so wie sie AMD zz mit dem Kaveri hat.
Wie definierst du denn Gamer? Leute, die nur AAA Titel bei >=FHD/4K und Schlag-mich-tot-AA-AF-Downsampling-Einstellungen zocken? Das interessiert vielleicht 10-20% des gesamten Spielemarktes. Falls überhaupt. Man sollte nicht vergessen, die meisten Leute spielen eh auf irgendwelchen älteren oder gar schwachbrüstigen Notebooks/Desktops. Und zwar nicht AAA, sondern irgendwelches simples Online oder Casual Gedöns. Die haben auch nicht die Anforderungen wie die Leute hier im Forum. Aber selbst für anspruchsvollere Gamer wird die iGPU immer interessanter. Schon heute lassen sich die meisten Sachen bei FHD und niedrigen/mittleren Einstellungen spielen. Fertigungsprozesse mit kleineren Strukturen ermöglichen immer mehr Shader auf gleicher Fläche / bei gleicher TDP. Und Stacked Memory wird effektiv das Bandbreitenlimit bekämpfen. Es ist also nur eine Frage der Zeit, bis dGPUs für Gamer uninteressanter werden. Die Vorteile von APUs (SoCs) überwiegen einfach.

"Daher finde ich diesen APU Quatsch von AMD total Kostspielig und unpassend im moment."
Dieser "APU Quatsch" wurde aber nicht exklusiv für Gamer gemacht, sondern auch mit Hinblick auf HSA entwickelt. Zudem hat man mit den Konsolen ein wichtiges Standbein genau diesem "APU Quatsch" und Gamern zu verdanken.


Mich wundert das es den laden AMD überhaupt noch gibt bei den Schulden.
Nur zur Info, Intel hat weitaus mehr Schulden als AMD. Und Nvidia ist auch nicht schuldenfrei. Zwar weniger als AMD, aber sie machen halt auch weniger Umsatz als AMD.


Nein, aber das muss ich auch gar nicht...
Du vielleicht nicht. Wenn man aber herausfinden will, wie leistungsfähig und effizient eine Architektur ist, dann muss man das aber sehr wohl. Anders geht's nicht. Und das geht noch deutlich detaillierter. Kannst dir ja mal anschauen, was zB Agner Fog in seinem Mikroarchitektur Guide seit Jahren macht.

"Viel eher wäre also interessant, dass du uns diese Anwendungen lieferst, mit dehnen wir diese Aussage nachvollziehen können..."
Eine wird hier doch gerne zitiert, Cinebench. Sicherlich nicht die beste, aber eine von denen womit du DP FP Performance messen kannst. Kannst du auch leicht herausfinden, wenn du mal einen Profiler drüber jagst. Zeige mir ein Spiel, mit dem du gezielt DP FP Performance messen kannst. Oder SST für Integer. Oder RMMA für Cache. Die Liste kannst du beliebig fortsetzen. Und das geht noch wesentlich spezifischer mit speziell programmierten Tools. So wie sie eben auch Agner Fog nutzt.

"Denn ich sehe nach wie vor ein Leistungsplus, wenn ich einen FX8350 im CB Anwendungsrating mit einem i3-4330 vergleiche von knappen 30%, wärend im Spielerating ein Leistungsdefizit zwischen diesen beiden Modellen von 3% steht."
Was einfach daran liegt und was ich bereits sagte, ich wiederhole mich also nur, dass in Anwendungen die CPU wesentlich besser ausgelastet werden kann und somit auch besser die tatsächliche Leistungsfähigkeit wiedergibt.

"Nein, wie ich oben schon erwähnt hatte beginnt 2015 in auf den Tag genau 3 Wochen."
Doch. Denn das ändert rein gar nichts an den CPUs die vor 2015 gelaunched wurden.

"Ergo werden die heutigen Produkte auch in 2015 (meint damit ja dann wohl klar die Zukunft) das Mittel zur Erfüllung von Kundenwünschen bei AMD sein..."
Nein. 2015 kommt erst mal Carrizo mit verbesserter Excavator Architektur. Ob und was Skybridge 2015 noch bringt, bleibt abzuwarten. 2016 soll dann K12 und Zen kommen. Was uns da erwartet, kann noch niemand sagen. Ebenso ist 2017 bisher noch völlig offen. Ich sehe also nicht, was dein Rumreiten auf den FX von 2013 grossartig mit "AMD's Gaming Zukunft 2015-2017" zu tun haben soll.


na dann zeig doch mal auf, wo ein FX bei Teillast effizienter ist als ein 1150-Haswell.
Warum sollte ich? Wüsste nicht, dass ich derartiges behauptet hätte. Schade, dass ich nicht sehe, wie du rot wirst bei all deinen peinlichen Versuchen, Aussagen zu verdrehen.

"Die Aussage halte ich angesichts meines Berufes und Studiums für zu überheblich, ich erläutere quasi täglich technische Details und Architekturen."
Ja, vielleicht Takt, Anzahl an Kernen und was sonst noch auf Folien der Marketingabteilung zu finden ist. Sehr beeindruckende technische Details.

"Deswegen sind bei CPU-Tests ja OS, Treiber, GPU, RAM und SSD identisch - alles außer der CPU eben."
Nein, das können sie gar nicht. Oder ist neuerdings eine AMD und Intel CPU auf ein und demselben Board nutzbar? Genauso wenig ist der Cache oder die Speicheranbindung zwischen AMD und Intel identisch. Von eventuellen unterschiedlichen Codepfaden will ich da gar nicht erst anfangen. Zumal das auch wenig mit I/O zu tun hat.


Die kommen nicht von der Software
Doch, das tun sie. Software kann erheblich viel ausmachen. Das wurde auch schon alles mit alternativen Builds nachgewiesen. Aber was soll ich mir jedes mal den Mund fusselig reden. Wird ja eh immer wieder ignoriert. Nur um dann fälschlicherweise behaupten zu können, es würde nichts kommen. :stupid: Von dir hingegen kommen immer nur leere Behauptungen oder maximal nichtssagende FPS Diagramme. Ich habe zB noch nicht einmal ein Auslastungsdiagramm von dir gesehen. Obwohl das ganz wenige Seiten sogar machen. Und es wäre noch wesentlich mehr notwendig bei dem Thema.

"Ich erinnere mich an die 50% mehr Performance bei 33% mehr Kernen"
Was sich allerdings auf Opterons und Serverbenchmarks (speziell SPEC) bezog. Hatte mit Desktops und Spielen herzlich wenig zu tun.

"Bulldozer war nie darauf ausgelegt mehr Leistung pro Takt zu besitzen als wir jetzt bei Piledriver sehen."
Aktuell ist aber Steamroller. Und dass Bulldozer auf mehr Performance pro Takt ausgelegt war, hat ja auch keiner behauptet.

"Und deine Überzeugungen sind immer nur rot eingefärbt."
Nein. Wenn sie das wären, dann würde ich ganz anders schreiben. Es ist eher so, dass Leute wie du nur schwarz und weiss sehen (wollen). Alles was nicht den eigenen Vorlieben entspricht, ist automatisch komplett schlecht. Was einfach Unsinn ist.

"Wo sind den Quellen und Begründungen dafür, dass AMD´s Architektur Leistungsfähiger ist?"
Schau dir dafür Mikrobenchnmarks wie zB MR² CPU-Mark an. Übrigens, wenn du aufmerksam liest, dann fällt dir vielleicht auf, dass ich leistungsfähigere Architektur schrieb. Ich schrieb nicht leistungsfähiger bei einem Thread oder mehr IPC bei einem Thread. Scheinbar ist das für dich das gleiche. Ist es aber nicht. Die Architekturimplementierung umfasst bei Bulldozer ein Modul und zwei Threads mittels CMT, bei Intel einen Kern und zwei Threads mittels HTT.

"Es geht darum mit Haarspalterei die schnellere Intel Spieleperformance zu negieren, indem man behauptet, man könne sie nicht messen."
Und was willst du dann von mir? Ich habe weder Intels Performance in Spielen negiert, noch habe ich behauptet, man könne Spieleperformance nicht messen. Ich sagte lediglich, dass man Spiele nicht ausschliesslich auf die CPU Architektur reduzieren kann. Selbst wenn man alle anderen Einflüsse vermeintlich isoliert. Das trifft auf normale Anwendungen zwar auch zu. Aber weit weniger kritisch.

"Soviele Parameter existieren, aber sie haben keinen großen Einfluss."
Nein, natürlich nicht. Auf der einen Seite predigen, man solle nur bei niedrigen Auflösungen testen, um ein "CPU-Limit" zu erzeugen. Auf der anderen Seiten haben aber all diese Parameter keinen grossen Einfluss. Sehr glaubwürdiger Standpunkt. :rolleyes:

"Die IPC ist halt nunmal das wichtigste."
Nein, ganz sicher nicht. Generell sind Flächen- und Energieeffizienz das wichtigste. Konkret bei Spielen ist die GPU das wichtigste. Das wichtigste an der CPU bei Spielen gibt es eigentlich nicht. Das Gesamtpaket sollte stimmen. Und da ist IPC nicht wichtiger als zB Takt. Aber das gilt bei anderen Anwendungen natürlich genauso.

"Viel eher ist es so, dass deine Aussage niemand versteht und sie auch keinen Sinn ergibt."
Mich wundert ehrlich gesagt nicht, wenn du nicht mal verstehst, was Workloads sind. Wenn man es wüsste, würde man auch den Sinn verstehen.

"Theorie"
Schon klar. Selbst nichts bringen, immer von anderen Messwerte fordern und wenn diese aufgezeigt werden, Theorie schreien. Merkst du eigentlich noch, wie lächerlich deine ganze Argumentationsweise ist?

"Und was ist dann für Messungen geeignet?"
Welche, die nur die CPU messen? Oder zumindest welche, die Idle-Load-Differenzen berechnen und den Wirkungsgrad der SpaWas berücksichtigen? Oder was glaubst du? :rolleyes: Alles andere ist nur das, was du leider andauernd machst. Rätselraten und Vermuten, ohne fürs Thema relevante Fakten.

"Man kann Bulldozer auch in 14nm Finfet bei Intel fertigen und schneller würde der nicht werden, sondern wenn sparsamer"
Und ist nicht das worum es bei der Aussage ging, eine höhere Leistungsaufnahme? Aber schön, wenn du deine eigenen falschen Aussagen selbst korrigierst. Da muss ich das nicht machen.

"Besonders die Taktbarkeit bei Globalfoundries 32nm ist excellent"
Aber nicht die Energieeffizienz. Oberhalb von etwa 3 GHz nimmt diese stark ab. Und das ist bei 28nm nicht besser. Aber der Prozess war eh mehr ausgelegt auf die GPU.

"Dann schau dir doch mal die Performancewerte eines i7 970/960 oder 975 an und vergleiche diese mit Vishera."
Was soll ich mir da gross anschauen? Bei Wald- und Wiesencode liegt auch ein SB nicht weit davor. Bei entsprechend optimierten Sachen mag das anders ausschauen. Aber dann sieht Nehalem auch nicht mehr viel Land gegen Vishera.

"Es kam noch nie etwas von dir"
Doch, genügend. Aber gut, das kannst du vielleicht gar nicht alles mitbekommen. Wie auch, wenn du nur am rumstänkern und beleidigen bist und dann in den entsprechenden Foren mehrfach gesperrt wirst? Tatsache ist, dass von dir noch nie was brauchbares kam. Irrelevante Gesamtsystemmessungen (wie zuvor), Rosinenpickerei bei FPS Werten ohne technische Substanz, Ignorieren und Zerreden von klaren Messwerten und dergleichen.

"Naja, immerhin sind seine Messungen mehr wert, als deine Überzeugungen, die durch nichts belegt oder verifiziert wurden."
Was ich sage, sind keine Überzeugungen. Das sind technische Tatsachen. Und die wirst du in jeder guten Lektüre genauso nachlesen können. Überzeugungen hast nur du. Und leider solche, die mit Fakten wenig zu tun haben.

"Tatsache ist aber auch dass diese Kommunikationsebenen unter gewissen Einstellungen kaum eine Rolle spielen"
Die spielen unter allen Einstellungen die gleiche Rolle. Die Gewichtung ist maximal eine andere. Aber das scheint sich als dein hauptsächlicher Irrglaube herauszukristallisieren. Wenn du siehst, dass durch 10% mehr CPU Takt die FPS um 10% steigen, dann glaubst du, die CPU wäre zu 99% ausschlaggebend. Das kannst du aber nur nachweisen, wenn du Tests machst, die 99% Auslastung der CPU Pipeline zeigen. Sehe ich nur nirgendwo. Und solche Nachweise hast du auch noch nie gebracht.

"Und dein bei deinem I/O ist das ganz genauso, wenn das limitieren würde, würde man es ja wohl sehen, wenn der höhere CPU Takt nicht durchschlägt."
Limits sind nur eine Seite der Medaille. Wenn I/O Performance grundsätzlich schlechter ist, zB durch höhere Latenzen, dann sagen Limits gar nichts.
 
Denn ich sehe nach wie vor ein Leistungsplus, wenn ich einen FX8350 im CB Anwendungsrating mit einem i3-4330 vergleiche von knappen 30%, wärend im Spielerating ein Leistungsdefizit zwischen diesen beiden Modellen von 3% steht. Die Anwendungsseite misst also bei weitem was anders, als für die Spiele relevant. Ich schlussfolgere daraus, das keine der Anwendungen im CB Rating diejenigen sind, mit dehnen man deine Aussage belegen kann. Welche also dann?

Du beziehst dich auf Takt/IPC, damit beschreibt man einen CPU Kern, keinen Prozessor. Zu einem Prozessor gehört noch viel mehr, Cache, Speicher... ;)
Siehe z.B. hier, trotz gleicher IPC, aber mehr Takt, kaum Leistungssteigerung, obwohl mehr geht, siehe intel:
AMD FX-8370E Gaming Benchmark Results

Das was da rein Spielt, ist eben das Drum herum, Caches, Latenzen, HT->Chipsatz->PCIe gegenüber direktem PCIe bei intel,....

Rein vom Kern brauchen sich ein FX nicht vor einem Intel verstecken, aber es gibt eben ein Paar dinge, die Intel besser gelöst hat. Darunter z.B. schnellere Caches, PCIe in der CPU, höhere Takt im uncore (Bei Intel Prozessortakt, bei AMD 2,6GHZ).... da spielen eben noch ein paar mehr dinge eine Rolle, als nur Takt und IPC.
 
Auch sehe ich stand heute klar auch ein "Treiben" in die andere Richtung, wenn es auch etwas zögerlich erscheint... Mit dem S2011-3 hat Intel erstmals einen Desktop Prozessor als Hexacore + SMT Ausführung für deutlich unter 500€ geliefert. Und erstmals die acht Kern Ausführung mit vergleichsweise gutem Takt für eben den 1000er. Nimmt man es genau, besteht absolut gar keine Not dafür.
Naja, vergiss nicht dass du für den 2011-3er Sockel, zwingend teuren DDR4 brauchst! Damit relativiert sich der günstigere Preis des 6kerners wieder etwas, so dass man bei einem ähnlichen P/L Verhältnis ankommt wie es davor auch war, als der 6kerner teurer war.
Die Konstelation mit 8kerner kommt mit ordentlich RAM deutlich über den Tausender.
 
arum sollte ich? Wüsste nicht, dass ich derartiges behauptet hätte. Schade, dass ich nicht sehe, wie du rot wirst bei all deinen peinlichen Versuchen, Aussagen zu verdrehen.

Gemeint ist, wo ein FX in Teillastbereichen effizienter sein soll, etwa bei voller Auslastung.
Ein Beispiel habe ich gebracht, welches genau das Gegenteil zeigt, eben dasss ein 7850k Singlethreaded überhaupt nicht effizienter ist wie Multithreaded und das im Vergleich zu einem i3.
Aber das war ja wieder nicht in Ordnung, Begründung dass Cinebench dafür nicht geeignet sei. Aus welchem Grund auch immer.

Und wenn das Ergebnis nicht wissenschaftlich genug ist und nicht auf die Kommestelle 100% stimmt, dann geht mir das am A. vorbei.
Solange du es nicht schaffst bessere Messergebnisse zu finden, kannst du das auch schwerlich widerlegen.

Schau dir dafür Mikrobenchnmarks wie zB MR² CPU-Mark an. Übrigens, wenn du aufmerksam liest, dann fällt dir vielleicht auf, dass ich leistungsfähigere Architektur schrieb. Ich schrieb nicht leistungsfähiger bei einem Thread oder mehr IPC bei einem Thread. Scheinbar ist das für dich das gleiche. Ist es aber nicht.

Ich fragte nach leistungsfähigerer Architektur, du hast es selbst zitiert und ich meinte nicht leistungsfähiger bei einem Thread, das steht nirgends.

Und was willst du dann von mir? Ich habe weder Intels Performance in Spielen negiert, noch habe ich behauptet, man könne Spieleperformance nicht messen. Ich sagte lediglich, dass man Spiele nicht ausschliesslich auf die CPU Architektur reduzieren kann. Selbst wenn man alle anderen Einflüsse vermeintlich isoliert. Das trifft auf normale Anwendungen zwar auch zu. Aber weit weniger kritisch.

CPU Architektur? Thema war Spieleperformance der CPU und nicht Spieleperformance der CPU Architektur.
Wieso steigst du in das Thema ein, wenn du eh nichts dazu beizutragen hast? Wohl eher nur aus dem Grund, mit Haarspalterei zu versuchen, AMD´s schlechte Spieleperformance zu verschleiern.
Natürlich hast du das negiert, die ganze Zeit, indem du behauptest man könne das nicht messen. ;)

Oder was soll dann die Schlussfolgerung sein? Du hast nirgends davon gesprochen, dass eine Intel CPU in Spielen schneller wäre, vielmehr versuchst du den Eindruck zu vermitteln, dass genau diese Messungen für die Tonne sind.

Schon klar. Selbst nichts bringen, immer von anderen Messwerte fordern und wenn diese aufgezeigt werden, Theorie schreien. Merkst du eigentlich noch, wie lächerlich deine ganze Argumentationsweise ist?

Ich habe ja was gebracht, nur du akzeptierst diese Messwerte nicht aus irgendwelchen sinnfreien Begründungen heraus.
Wahrscheinlich deswegen weil du Cinebench lediglich nicht gut findest.
Wo hast du eigentlich MEsswerte gebracht? Ich sehe keine. Also hör auf Unsinn zu behaupten.

Welche, die nur die CPU messen? Oder zumindest welche, die Idle-Load-Differenzen berechnen und den Wirkungsgrad der SpaWas berücksichtigen? Oder was glaubst du? Alles andere ist nur das, was du leider andauernd machst. Rätselraten und Vermuten, ohne fürs Thema relevante Fakten.

Aha, und wo gibt es die wenn ich fragen darf? Wieso verlinkst du sie dann nicht und redest um den heißen Brei?
Fakten lieferst du 0,0, niente.
Und der eine Benchmark von Mr. Lolman aus dem 3D Center soll also der Weisheit letzter Schluss sein zur eigentlichen Leistung der Bulldozer Architektur? Sicher.
Es gibt Rosinen die eine gute Leistung bei Bulldozer zeigen, etwa c-Ray oder der Benchmark von dem du redest.

Warum der besonders dafür geeignet sein soll die Leistung der Bulldozer Prozessoren zu bestimmen , frag ich mich allerdings immernoch.

nd ist nicht das worum es bei der Aussage ging, eine höhere Leistungsaufnahme?

Nein, darum ging es nicht. Sondern um Performance.

Doch, genügend. Aber gut, das kannst du vielleicht gar nicht alles mitbekommen. Wie auch, wenn du nur am rumstänkern und beleidigen bist und dann in den entsprechenden Foren mehrfach gesperrt wirst? Tatsache ist, dass von dir noch nie was brauchbares kam. Irrelevante Gesamtsystemmessungen (wie zuvor), Rosinenpickerei bei FPS Werten ohne technische Substanz, Ignorieren und Zerreden von klaren Messwerten und dergleichen.

Wieso postest du dann keine Messungen? Vielleicht weil du keine besseren hast.;)

Was ich sage, sind keine Überzeugungen. Das sind technische Tatsachen. Und die wirst du in jeder guten Lektüre genauso nachlesen können. Überzeugungen hast nur du. Und leider solche, die mit Fakten wenig zu tun haben.

Wieso zeigst du dann keine Messungen die einen hohen Einfluss der Grafikkarte in solchen Settings zeigen? Willst du nicht oder kannst du nicht?
Alles graue Theorie, die man nirgends verifizieren kann, da du keine Quellen angibst.

Die spielen unter allen Einstellungen die gleiche Rolle. Die Gewichtung ist maximal eine andere.

Also gibst du zu, dass die eine geringe Rolle spielen und man sie daher ignorieren kann? ;)

Aber das scheint sich als dein hauptsächlicher Irrglaube herauszukristallisieren.

Nein, das ist kein Irrglaube, jedem ist klar das es kein 100% CPU Limit gibt, dafür kommt man nahe an das ran.

Wenn du siehst, dass durch 10% mehr CPU Takt die FPS um 10% steigen, dann glaubst du, die CPU wäre zu 99% ausschlaggebend.

Natürlich, was spricht denn da dagegen?

Das kannst du aber nur nachweisen, wenn du Tests machst, die 99% Auslastung der CPU Pipeline zeigen.

Warum sollte eine CPU Pipleine zu 99% ausgelastet sein? Das ist bei Anwendungen genausowenig der Fall und dort misst man ja auch die Performance ohne die Auslastung zu überprüfen.
Auslastungswerte sind, wie wir wissen oft nichtssagend.

Und solche Nachweise hast du auch noch nie gebracht.

Solche Nachweise kann auch niemand bringen, das ist utopisch und das ist genau wieder die Schiene du du fährst.
Utopische Anforderungen, aber selbst nichtmal Messungen bringen können, die einen hohen Einfluss der GPU in niedrigen Auflösungen und einem vermeintlichen CPU Limit zeigen.

Für was diskutieren wir überhaupt darüber, deine gesamten Aussagen sind eine reine Themaverfehlung.

Es geht um CPU Spieleperformance und nicht darum ein wissenschaftliches Ergebnis das alle Eventualitäten abdeckt und analysiert abzuliefern.
Oder verstehst du einen Prozessor im Detail und hast ihn entworfen? Das glaube ich wohl kaum.


Es geht letztendlich hier Sietenweise um gar nichts.

Es wird unter Verringerung des Einflusses der GPU die CPU Leistung in Spielen gemessen und wird daher Spieleleistung der CPU benamst, wer damit ein Problem hat, der soll alleine weiterdiskutieren.
Und ob hier nun der Cache der CPU, der L3 der CPU oder sonstwas den Grund ausmacht, warum die CPU lahm ist, kann einem scheißegal sein.

Letzten Endes gibt es daher eine Spieleperformance der CPU die sich von Anwendungen massiv unterscheidet, weil Spiele auch andere Anforderungen an eine CPU stellen.
Wie will man den Leuten ansonsten sagen wie schnell die CPU in Spielen arbeitet? Laut deiner Prämisse dann gar nicht, super dudi.
 
Zuletzt bearbeitet:
Rein vom Kern brauchen sich ein FX nicht vor einem Intel verstecken, aber es gibt eben ein Paar dinge, die Intel besser gelöst hat. Darunter z.B. schnellere Caches, PCIe in der CPU, höhere Takt im uncore (Bei Intel Prozessortakt, bei AMD 2,6GHZ).... da spielen eben noch ein paar mehr dinge eine Rolle, als nur Takt und IPC.

Mir ist das durchaus bewusst... Der "Cache, PCIe in der CPU, Takt im uncore" sind nunmal aber maßgeblich Teile der CPU. Ja wenn man es nicht ganz so genau nimmt, sogar Teile der "CPU Architektur"... Oder andersrum ausgedrückt, eben jene "Architektur" regelt diese und jene Entscheidnung, wie besagte Teile gehändelt werden.
Ich stimme dir bzw. auch mr.dude uneingeschränkt zu, das eine Trennung dieser Teile von der eigentlichen Kernarchitektur dahingehend Sinn ergibt, wenn es notwendig ist oder aber, wenn es tauschbar wäre. Aber dies ist doch nicht der Fall. AMD CPU gekauft und besagtes Beiwerk ist wie es ist. Intel CPU gekauft und ebenso ist das Beiwerk so wie es ist.
Somit spielt es irgendwie für den Themenkontext überhaupt keine Rolle hier irgendwelche Teile aus dem Prozessordesign rauszuklammern um andere Teile in das richtige Licht zu rücken, wenn am Ende einfach das rauskommt, was heute jeder selbst nachbenchen kann. Denn das Beharren an dieser Trennung vermittelt dem Leser hier, dass man eben versucht die Prozessoren besser dastehen zu lassen, als sie sind.

Was bleibt also hinten über? Wir können uns jetzt noch die nächsten 12-24 Monate auf die Mütze hauen, wie gut dies und jenes ist und wie schlecht dies und das funktioniert. Oder aber, einfach mal das hinnehmen, was hinten rauskommt... Was das ist, zeigen uns Spielebenchmarks, das zeigen uns Anwendungsbenchmarks usw. usf.

Du vielleicht nicht. Wenn man aber herausfinden will, wie leistungsfähig und effizient eine Architektur ist, dann muss man das aber sehr wohl. Anders geht's nicht. Und das geht noch deutlich detaillierter. Kannst dir ja mal anschauen, was zB Agner Fog in seinem Mikroarchitektur Guide seit Jahren macht.

"Viel eher wäre also interessant, dass du uns diese Anwendungen lieferst, mit dehnen wir diese Aussage nachvollziehen können..."
Eine wird hier doch gerne zitiert, Cinebench. Sicherlich nicht die beste, aber eine von denen womit du DP FP Performance messen kannst. Kannst du auch leicht herausfinden, wenn du mal einen Profiler drüber jagst. Zeige mir ein Spiel, mit dem du gezielt DP FP Performance messen kannst. Oder SST für Integer. Oder RMMA für Cache. Die Liste kannst du beliebig fortsetzen. Und das geht noch wesentlich spezifischer mit speziell programmierten Tools. So wie sie eben auch Agner Fog nutzt.

Wir sprechen hier nach wie vor über die Spieleperformance. Oder, du meinst ja, das gibt es nicht, dann eben über die Leistung, die eine CPU in Spielen abliefert. Was seit nunmehr guten 3 Seiten Posts immernoch meint, wie schnell ein Prozessor in Spielen sein Werk zu verrichten im Stande ist.
Weist du selbst überhaupt, warum du dich versuchst hier an einer Diskusion zu beteiligen? Für was soll ich dir beim markierten denn Anwendungen nennen? Ich sagte bereits, wenn du das wissen willst, schau dir geneigte Anwendungsbenchmarks an.

Naja, vergiss nicht dass du für den 2011-3er Sockel, zwingend teuren DDR4 brauchst! Damit relativiert sich der günstigere Preis des 6kerners wieder etwas, so dass man bei einem ähnlichen P/L Verhältnis ankommt wie es davor auch war, als der 6kerner teurer war.
Die Konstelation mit 8kerner kommt mit ordentlich RAM deutlich über den Tausender.

Heute stimmt das zwar schon (noch) so halbwegs... Wobei die Preise von neueren Speichergenerationen eigentlich zu Release immer teurer als die alten waren.
PS: 100% stimmts im übrigen auch nicht. ;) schau dir dir hochtaktenden DDR3 Module und deren Preise an. Um so höher du mit dem Takt gehst, desto besser steht DDR4 da. Bei ganz hohen Taktraten sind die DDR4er sogar günstiger, würde ich meinen ;) Ist zwar ein dünnes Argument, aber immerhin.

Und viel entscheidender für den Preisunterschied ist ja die Menge an RAM. Willst du 64GB, wirds freilich (absolut) mehr. Reichen dir 8 oder 16 bspw. ist der Preisunterschied absolut nicht sooo riesig. Wiegt faktisch keine 150€ stark, wie es der Preisrückgang des kleinsten Hexacores ist, auch wenn dieser weniger PCIe Lanes hat.

Spätestens mit Skylake und womöglich dann DDR4 auf dem Mainstreamsockel dürften sich die Preise dann auch langsam wieder einpegeln und DDR4 auch günstiger pro GB werden.
 
Zuletzt bearbeitet:
Wie definierst du denn Gamer? Leute, die nur AAA Titel bei >=FHD/4K und Schlag-mich-tot-AA-AF-Downsampling-Einstellungen zocken? Das interessiert vielleicht 10-20% des gesamten Spielemarktes.

Ich Defeniere Gamer als die einheitliche masse der Zocker die ich kenne.

Das sieht dann meistens so aus das sie ihre Aktuellen Spiele Titel wie zb Starcraft II, Diablo 3, World of Warcraft, Battlefield 3/4, Call of Duty, Skyrim, World of Tanks etc gerne Flüssig Spielen und keine frameeinbrüche im Onlinegaming haben wollen.

Das natürlich zusammen mit der Höchsten auflösung die ihr Monitor mitmacht, was heutzutage meistens 1680 oder 1920 ist.
Max AA/AF etc interessiert sie weniger, sondern eher Max Grafik Details und ein bischen AA/AF damit es gut aussieht, aber die fps halt nicht unnötig in den keller zieht, schließlich soll die fps auch in den extremsten situationen so stark bleiben das man keine gefühlte diashow hat, also immer mindestens +45 fps wenn nicht mehr in games wie Battlefield/Wot/World of Warcraft.

So Defeniere ich den durchschnittsgamer.

Aber selbst für anspruchsvollere Gamer wird die iGPU immer interessanter.

:lol:

Fertigungsprozesse mit kleineren Strukturen ermöglichen immer mehr Shader auf gleicher Fläche / bei gleicher TDP. Und Stacked Memory wird effektiv das Bandbreitenlimit bekämpfen. Es ist also nur eine Frage der Zeit, bis dGPUs für Gamer uninteressanter werden. Die Vorteile von APUs (SoCs) überwiegen einfach.

Wollen wir es hoffen, aber ehrlich gesagt denke ich wird das wohl noch viele Jahre dauern, wenn ich sehe das viele leute mit Crossfire und SLI oder Dual GPU rumhantieren für ihre 4k Auflösung oder Multi Monitoring.

Auch scheinen die meistgekauften grafikkarten noch auf einem niveau zu liegen welches AMD nichtmal mit einer 16nm APU erreichen können wird(GTX970/R9 280X), also ich denke so leicht wird eine Grafik Karte nicht ersetzt, vorallem da wir mit dem Shrinken ja eh ziemlich am Limit sind.

"Daher finde ich diesen APU Quatsch von AMD total Kostspielig und unpassend im moment."
Dieser "APU Quatsch" wurde aber nicht exklusiv für Gamer gemacht, sondern auch mit Hinblick auf HSA entwickelt. Zudem hat man mit den Konsolen ein wichtiges Standbein genau diesem "APU Quatsch" und Gamern zu verdanken.

Was bringt es mir in ein paar Monaten im Jahr 2015 fast 3 Jahre nach Trinity und 2 Jahre nach Steamroller ? In meinen games habe ich nichts davon, und die CPU lahmt auf einem Niveau welches AMD schon mit einem 32nm Phenom II erreicht hätte und Intel schon 2007 hatte.

Ich sehe also nicht, was dein Rumreiten auf den FX von 2013 grossartig mit "AMD's Gaming Zukunft 2015-2017" zu tun haben soll.

Der Vishera ist von 2012.
Warum wir auf dem Vishera herumreiten bei dem Titel ? Weil der Vishera auch 2013 und 2014 noch die Beste AMD CPU in sachen Gaming ist.

2015 wird sich nichts daran ändern.

Begründung ? Ein 2 Modul APU Excavator wird ohne mantle in den meisten Modernen Games, nicht mehr fps bringen als ein 4 Modul Vishera, so einfach ist das.

Und ich glaube selbst mit mantle würde der 2 Modul APU Excavator in Battlefield 4 genau so gegen den 4 Modul Vishera verlieren wie schon der Kaveri....

Von daher bleibt auch 2015 die Top CPU von AMD der alte Vishera von 2012, und das gilt es zu Kritisieren.

Wir dürfen froh sein wenn der 16nm Zen welcher 2016 als Quad Core kommen soll in Star Citizen und Battlefield 4 genausoviel fps bringt wie der Vishera 4 Moduler....

Denn sonnst hätte AMD nach 4 Jahren immernoch keinen wirklichen Fortschritt aus der sicht von uns Gamern gemacht, gerade weil ja immer mehr next Gen Games (vorallem mit Frostbite Engine) von 8 Kernen nutzen ziehen werden.

Bin echt mal gespannt ob der Zen ohne mantle einen Centurion FX9590 schlagen können wird in Battlefield 4 / Star Citizen... aber ehrlich gesagt, bin ich nicht gespannt, der Centurion gewinnt :d

Ich als treuer AMD fan muss sagen, AMD hat das fast unschaffbare geschaft, das Image noch mehr zu Ruinieren.
 
Zuletzt bearbeitet:
AMD hat einen lauffähigen ARM Prozessor, der in produktiven Serversystemen eingesetzt werden kann. ... Lief beim Xeon Phi zu Beginn übrigens auch nicht anders.
Dann kann man ja dem AMD Management nur gratulieren, dass sie diesen Chip noch nicht verkaufen. :rolleyes:
Im Gegensatz dazu verkauft Intel seinen Xeon Phi bereits und ist damit offenbar erfolgreicher als AMD mit seinen Beschleunigern, denn von 75 Supercomputern, die auf Beschleuniger setzen,
arbeiten 50 mit Nvidia GPUs, 25 mit Xeon Phis und nur drei mit AMD GPUs (siehe: November 2014 | TOP500 Supercomputer Sites).

Und was hat das mit dem Thema zu tun?
Mit Gaming hat das zwar nichts zu tun, aber ich habe die ARM Server auch nicht ins Spiel gebracht.
Jedenfalls scheint AMD dort noch keinen Umsatz zu generieren, während die Konkurrenten bereits Geld scheffeln. Und daran sind natürlich wieder die anderen schuld. :rolleyes:

AMD könnte in dem Fall sowieso nur gewinnen, Intel nur verlieren.
Klar, AMD gewinnt, wenn Apple bei seinen Macs auf eigene ARM Chips setzt und AMD dabei 0 Cent Umsatz generiert.
2017 wird AMD mit dieser Strategie so erfolgreich sein, dass sie Apple als wertvollstes Unternehmen ablösen werden. :rolleyes:

IBM hat da grundsätzlich was verbockt.
Natürlich sind wieder andere schuld.
Zwar erreicht IBM mit seinen POWER7/8 und zEC12 CPUs hohe Taktraten und hohe Performance, aber für das Versagen von AMD müssen sie wohl verantwortlich sein, denn schließlich war es IBM,
die Intel mit der Entwicklung einer CPU für den IBM PC beauftragt hatten und ohne IBM wäre Intel nie so groß geworden. (so nebenbei war es auch IBM, die AMD als Zweitquelle für jene CPU wollten ;))

Ultrabooks dürfen ja nur Ultrabooks heißen, wenn eine entsprechende Intel-CPU drin ist
Ja, Intel ist so böse und verbietet den AMD Jungs und Mädels einfach diesen Namen. Warum kann sich AMD nicht einfach einen eigenen Namen ausdenken?
Oder seine Notebook CPUs auf ITX-Boards als Stromsparlösung für den Desktopmarkt verkaufen? Usw., usw. ...

Für die Unfähigkeit des AMD Managements sind natürlich immer die anderen schuld. :rolleyes:


Wenn man aber herausfinden will, wie leistungsfähig und effizient eine Architektur ist,
Was ich als Kunde aber gar nicht will, denn da interessiert mich nur das Endergebnis und das scheint momentan bei Intel besser auszusehen (mehr Leistung bei geringerem Verbrauch). :p
Offensichtlich sehe nicht nur ich das so, sondern auch all die anderen Kunden, die AMD den Rücken gekehrt haben oder wie soll man die Tatsache erklären, dass Intels Umsatz wächst, während AMD abgibt?

... damit beschreibt man einen CPU Kern, keinen Prozessor. Zu einem Prozessor gehört noch viel mehr, Cache, Speicher... ;)
Siehe oben: Den Kunden interessiert es einen Sch...dreck ob der Kern gut ist, wenn das Gesamtpaket schlecht abschneidet. Ebenso interessiert es nicht ob der Intelcompiler eine AMD CPU benachteiligt,
denn der Entwickler optimiert auf die CPU, die am häufigsten verwendet wird und das ist im x86 Markt nunmal Intel (logisch, da sie x86 erfunden haben).
 
Warum sollte ich? Wüsste nicht, dass ich derartiges behauptet hätte.
Du wüsstest nicht, wo du behauptet hast, AMD sei bei Teillast effizienter? Hier ... wenngleich ich sicher bin, du meinst eine Ausrede zu haben.

2014-12-12_072855.png

Oder ist neuerdings eine AMD und Intel CPU auf ein und demselben Board nutzbar? Genauso wenig ist der Cache oder die Speicheranbindung zwischen AMD und Intel identisch.
Caches und Speicheranbindung gibt die CPU vor, damit das Board erst mal wenig zu tun.
 
Zuletzt bearbeitet:
Grad was cooles gelesen.

In Dragon Age Inquisition welches ja auch auf der neuen Frostbyte Engine basiert gibts mit nem Kaveri dank mantle unterstützung 45% mehr frames. (Getestet mit einer R9 290X)
Ohne mantle ist das game mit nem Kaveri nur eine Ruckelorgie auf Hohen Details. Dank Mantle kann man es dann geradenoch so Flüssig Spielen.

Es wurden leider keine 2 Kerner von Intel getestet aber ich hab auch schon den Grund erfahren.

We didn't test Dragon Age: Inquisition with any dual-core processors because the game wouldn't run. When using either an AMD or Intel dual-core CPU the game locks up at either the loading screen or the main menu if it gets that far. Both cores see 100% load while the system hangs.

Laut PCGH startet das game nichtmal mit nem Phenom II X3 weil 3 Kerne zu wenig für das game sind :fresse:

Also ein 4 Kerner ist eine mindestanforderung !

Der fps Unterschied zwischen einem 2 und 3 Moduler ist Brachial. 30% mehr FPS nur durch 1 Modul mehr.
(werte aus 720p weil bei 1080p die GTX980 limitiert.)

Daran sieht man gut wohin der trend geht mit der aufgemöbelte Frostbite-3-Engine.

Ohne mantle ist AMD in den Games von morgen völlig aufgeschmissen solange sie 2016 nicht wieder auf 4 Moduler bzw 6-8 Kern Zen CPU,s setzen.
Aber wir wissen ja schon das AMD 2016 einen Zen Quad Core bringt, als APU, und dadurch von mantle optimierung abhängig ist.

Ich will hier mal eine Provokante vermutung verewigen.

Und zwar diese.

Ein Vishera 4 Moduler wird im jahr 2017 in Star citizen & BF4 immernoch schneller sein als AMD,s bester Desktop Zen.

Zen wird mit mantle höchstens das niveau des Vishera 4 Modulers erreichen, so meine prognose.

mal sehen ob ich recht haben werde.
 
Zuletzt bearbeitet:
Und was kaufst du dir davon, wenn du Recht hast?

Ist doch egal, ob AMD, Cyrix, Intel, oder Motorola draufsteht.

Wichtig wäre, wenn die Leute verstehen würden, dass alles für den jeweiligen Einsatzzweck gekauft werden sollte und nicht für einen e-pe**s, oder Benchmarks.

Ich habe mir, soweit ich denken kann, immer das gekauft, was für mich P/L am besten war. Dabei war mir egal, ob AMD, ATI, Intel, Nvidia, Sapphire usw.
 
Nochwas wichtiges.

Mr.Dude sagte ja, die APU wird die Grafik Karten nach und nach verdrängen.

Problem 1 an der APU Lösung.

Dadurch das dieses Game sogar eine GTX980 in die Knie zwingt sobald man in 1080p auf High Details zocken will, zeigt es das man mit der Grafikeinheit aus APU,s nie ernsthaft was zocken können wird.

Die Grafik wird von 2014 bis 2017+ ja nicht schlechter, sondern eher besser. eine GTX980 ist in 3 jahren schonwieder alteisen und Midrange, wenn überhaupt.
Bevor AMD mit ihrer igpu auf GTX980 Niveau ankommt ist eine GTX980 nur noch Low End, wenn überhaupt.

Das ist kein Cherry Picking meinerseits, sondern Harte Realität.

Problem 2 an der APU Lösung.

Wenn man mantle nutzt, kann man die igpu nicht mehr zum Zocken nutzen, also benötigt dann so oder so eine eigene Grafik Karte.

Wenn Spiele wie Dragon Age / Battlefield 4 etc im Jahr 2014 schon mantle nutzen müssen weil die CPU zu schwach für High Details ist, wird das erst recht nichts mit APU als Grafikkarten ersatz.

- - - Updated - - -

Und was kaufst du dir davon, wenn du Recht hast?

Das Recht AMD für Dummheit zu Kritisieren weil ihre CPU von 2012 immernoch besser ist als ihr 2017er Top Modell und sie einfach mal eben 5 Jahre in die Falsche Richtung geforscht haben.
 
Nochwas wichtiges.

Mr.Dude sagte ja, die APU wird die Grafik Karten nach und nach verdrängen.

Problem 1 an der APU Lösung.

Dadurch das dieses Game sogar eine GTX980 in die Knie zwingt sobald man in 1080p auf High Details zocken will, zeigt es das man mit der Grafikeinheit aus APU,s nie ernsthaft was zocken können wird.

Die Grafik wird von 2014 bis 2017+ ja nicht schlechter, sondern eher besser. eine GTX980 ist in 3 jahren schonwieder alteisen und Midrange, wenn überhaupt.
Bevor AMD mit ihrer igpu auf GTX980 Niveau ankommt ist eine GTX980 nur noch Low End, wenn überhaupt.

Weisst du wieviele "Gamer" sich eine 980 kaufen?
Wahrscheinlich unter 0.5%.
Das kannst du unmöglich als Basis nehmen!

Nimm lieber eine Midrange graka ala R9 280(x). Das dürfte so in etwa die am meisten empfohlene Graka sein. Zumindest kommt diese Graka in den meisten empfohlenen Zusammenstellungen hier im Forum vor.
Ich für meinen teil halte es mit HBM für realistisch, eine APU mit dieser Leistung zu bauen.
Dann könnten solche APUs, sofern preislich sinnvoll platziert, durchaus Systeme mit ded. Graka ablösen.

Einziger Nachteil ist die fehlende Aufrüstbarkeit, aber es gäbe durchaus Leute die drüber hinwegsehen wenn das andere Vorteile bietet (günstiger, sowie einfacher zu kühlen, da nur noch ein Kühlkörper notwendig).

Selbstverständlich wird das Ded. grakas nicht vollständig ablösen. Wenn doch, würde sich AMD ja auch noch selbst Käufer abgraben.
Aber es wäre zumindest eine mögliche Alternative. Ich für meinen Teil glaube dass die APU-Niesche eher wachsen wird, als schrumpfen.

EDIT:

Das Recht AMD für Dummheit zu Kritisieren weil ihre CPU von 2012 immernoch besser ist als ihr 2017er Top Modell und sie einfach mal eben 5 Jahre in die Falsche Richtung geforscht haben.

Da wären wir wieder bei den dummen AMD Leuten... :rolleyes:
Halt mal die Füße still und warte ab.
 
Zuletzt bearbeitet:
Weisst du wieviele "Gamer" sich eine 980 kaufen?
Wahrscheinlich unter 0.5%.
Das kannst du unmöglich als Basis nehmen!

Nimm lieber eine Midrange graka ala R9 280(x). Das dürfte so in etwa die am meisten empfohlene Graka sein. Zumindest kommt diese Graka in den meisten empfohlenen Zusammenstellungen hier im Forum vor.

Du solltest meine Beiträge im Kontext lesen. Ich schrieb schon 2 x das aktuell eine Basis eher eine R9 280X / GTX 970 ist.

Die GTX980 habe ich nur als Leistungsträger der Next Gen Titel verwendet um Mr.Dude zu zeigen welche Power eine igpu in ein paar jahren in so gut wie allen Games stemmen muss, und es aufgrund dessen für sehr lange Zeit erstmal total unrealistisch ist das die Grafikkarten aus dem PC verschwinden.
 
Du solltest meine Beiträge im Kontext lesen. Ich schrieb schon 2 x das aktuell eine Basis eher eine R9 280X / GTX 970 ist.

Die GTX980 habe ich nur als Leistungsträger der Next Gen Titel verwendet um Mr.Dude zu zeigen welche Power eine igpu in ein paar jahren in so gut wie allen Games stemmen muss, und es aufgrund dessen für sehr lange Zeit erstmal total unrealistisch ist das die Grafikkarten aus dem PC verschwinden.

Schau mal bei Steam in die Hardware Survey rein, die meist vertretenen Grafikkarten sind ein paar stufen darunter angesiedelt.
Oder die "Gamer PCs" bei Media-Markt und Konsorten. Da ist zu einem für die Masse vertretbaren Preis, von max. 1000€ und das geben viele nicht für einen PC aus, eine GTX 760 das höchste der Gefühle.
Auch kommt hinzu, dass viele Menschen auf Notebooks setzten, da bekommst du noch weniger Spieleleistung und bist mit einer 860M (ca. 750 Ti) gut ausgestattet.

Eine 280X / 970 ist ein feuchter Traum für viele "Gamer"...

Und in die Regionen einer 750Ti könnte man mit den APUs mMn. locker kommen, wenn man das Bandbreiten Problem durch HBM oder DDR4 löst.
 
750TI schaft doch nichtmal High Details in World of Tanks.

Von Dragon Age, Battlefield etc ganz zu schweigen...

Also das man mit der 16nm APU ab 2016 mit einer igpu medium details in games von heute packt ist okay, aber für Richtige Zocker alles andere als begehrenswert.
 
aber für Richtige Zocker alles andere als begehrenswert.
und die Frage ist aber, wieviel vom Markt machen die "richtigen Zocker aus?
ich denke das ist irgendwo bei 10%
wenn also die anderen 90% mit der APU auskommen ist es doch wahnsinnig gut für AMD
 
und die Frage ist aber, wieviel vom Markt machen die "richtigen Zocker aus?
ich denke das ist irgendwo bei 10%
wenn also die anderen 90% mit der APU auskommen ist es doch wahnsinnig gut für AMD

denk dran, wir sprechen hier Zen welcher erst in 2 Jahren gekauft wird. Die Game anforderungen werden bis dahin auch wieder steigen.
Die Medium Details bezogen sich auf Titel von 2014 und Älter.

Also das neue Battlefield 5 von 2016 wird man dann nur noch auf Low zocken können zb.

Ich bezweifle das 90% der Battlefield Spieler, das Spiel auf Low Details spielen. Ich würde sogar sagen, es sind unter 20%.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh