AMD,s Gaming Zukunft 2015-2017

Naja, mich freut es zu sehen, das ihr Schattenguschteln jetzt noch mehr für eure CPUs zahlen könnt (müsst). Bei euch heißt es dann "Premium/Elite/Godlike".
Euro im Arsch, AMD auch, was will der debile Intel-Freak mehr?!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mr.dude schrieb:
Nein, natürlich nicht. Wenn Schaffe das sagt, dann muss es natürlich so sein. Entgegen sämtlicher bereits aufgeführter Fakten.

Deine Fakten ware bisher nur ganz ganz vorsichtige Vermutungen, es könnten hier andere ISA´s benutzt werden.
Werden sie aber nicht, schon gar nicht in den Programmen, die CB testet.
Vielleicht solltest du mal googeln und dir nicht immer so einen Müll aus den Fingern saugen.

Wenn AMD dann SMT unterstützt, ist es wieder das beste überhaupt.;)

AVX wird auch von diversen Bibliotheken unterstützt, wie DirectXMath. Ausschliessen kann man daher gar nichts.

Ah und das interessiert wen jetzt? Zeig mir doch mal im CB Test eine Software die das nutzt.;) Das kannst du nicht.

Dann zeige uns diesen Schnitt doch mal.

Schau doch die Benchmarks selber an. Da sind sogar Singlethreaded Benchmarks dabei, wo SMT nüscht bringt.
Von daher bringt es sehr wohl um die 30%.

Das einzige was du kannst ist sinnfrei irgendwelche Aussagen negieren, dann hanebüchenen Einwände wie AVX bringen, die nicht vorkommen und dann Zahlenbingo spielen.
Nein SMT ist absoluter Schwachsinn, weil ja von Intel.

Ich erinnere mich noch an deine Aussage vor kurzem, dass SMT ja eigentlich sinnlos ist.:bigok:
Und da fragst du dich noch ernsthaft, warum du dich gegen mehrere User verteidigen musst.

Weil AMD laut Leuten wie Schaffe, Duplex oder TARDIS ja nur Schrott im Angebot hat, der rein gar nichts kann und mit Intel der Unterschied gewaltig ist.

Also den FX-6300 finde ich aktuell noch okay. Vor 1 zwei Jahren war der FX-8350 imho noch ne Empfehlung wert, imho auch die APU´s, aber die haben die letzten beiden Jahre dermaßen an CPU Performance verloren, dass ich sie nicht mehr empfehle.
AMD war vor 1 oder 2 Jahren erheblich konkurrenzfähiger, daher habe ich Pauschalurteile zu den CPU´s auch sehr kritisch gesehen, aber jetzt, ist die Luft raus.

mr.dude schrieb:
Ach komm, das ist Wortklauberei. Jeder hier weiss, worüber fdsonne gesprochen hat. Er hat "böse" ja auch nicht grundlos in Anführungszeichen geschrieben.

Das ist keine Wortklauberei, niemand hat hier AMD CPU Käufer als "böse" angegriffen zumal du Tardis zitiert hast.
Es ist aktuell halt unklug eine AMD CPU zum Gamen zu kaufen, wenn das Geld da ist.

Solche lächerlichen Vorwürfe kannst du dir echt sparen. Zeige mir doch mal eine Aussage, wo ich "meine" Firma AMD verteidige. Ich verteidige hier niemanden.

Haha...lol das ist der Witz des Jahres. Kein Mensch im Netz verteidigt so vehement Aussagen die gegen AMD gerichtet sind, wie du.
Bei dir sind gleich immer alle AMD Basher.

Ich kritisiere lediglich unsachliches und polemisches Verhalten

Dann kehre mal vor deiner eigenen Haustür, da hat sich schon ziemlich viel Staub angesammelt.

Wie solche niveaulosen Beiträge von TARDIS beweisen. Und wie man solche Beiträge auch noch verteidigen kann, ist mir unverständlich. Oder musst du "deine" Firma Intel verteidigen?

Das war sicherlich niveaulos.
Der Inhalt der Aussage war trotzdem nicht das was du ansprangerst und wenn man es zuspitzen will, hat er irgendwo schon recht.
Brauchbar ist das was AMD derzeit anbietet nicht wirklich.

Natürlich kann man das. Und zwar so gut, dass Apple scheinbar vorhat, die Intels in den iMacs mit Cyclone basierten Prozessoren zu ersetzen. Ausserdem heisst es RISC und nicht RISK. Aber das wurde ja bereits gesagt.

Ah, da kann man das also schon, aber bei popeligen Benchmarks geht das nicht weil vielleicht irgendeine ISA genutzt wird - was du nicht nachweisen kannst und eh nicht genutzt wird.
Du stützt dich nur darauf, weil dir die Argumente ausgehen.

Ne ne, wir würden die Erklärung schon ganz gerne von dir hören und nicht von why_me.

Warum soll er was erklären? Die Erklärung wird entweder nicht zugelassen oder wird in der Luft zurissen, so wie du es mit allen unliebsamen Meinungen machst.

Ändert trotzdem nichts an der ursprünglichen Aussage, dass die schnellsten und effizientesten Supercomputer mittlerweile von TCUs beherrscht werden.

Lol, du widersprichst dir ja selbst. Wenn du mal BS schreibst, dann sind deine Aussagen unpräzise.
Wenn andere irgendetwas schreiben was nicht stimmt, dann Bashen die entweder AMD oder sie werden von dir persönlich attackiert und sind dann zugleich Märchenerzähler.
 
Zuletzt bearbeitet:
Ach komm, das ist Wortklauberei. Jeder hier weiss, worüber fdsonne gesprochen hat.

Das Problem ist nicht, was fdsonne geschrieben hat, sondern deine Lügen:

Du hast behauptet, hier würde jemand AMD Käufer als "böse" darstellen. Du konntest kein einziges Zitat als Beleg bringen. Du hast also gelogen.

Du hast behauptet, ich würde hier nur das AMD Management verteufeln. Du konntest kein einziges Zitat als Beleg bringen. Du hast also gelogen.

Du hast behauptet, Intel würde seine CPUs für lau abgeben und der "Käufer" kriegt auch noch $20 Cash oben drauf (kein Witz, das hat er behauptet) - ich warte immer noch auf den Link, wo ich die CPUs so bestellen kann und hoffe immer noch, dass du einmal nicht gelogen hast.

Aber es ist immer wieder schön zu sehen, wenn dir in einer Diskussion die sachlichen Argumente ausgehen.

Während ich nachprüfbare Benchmarks in die Diskussion einbringe - auf mehreren Anwendungen/Spielen und nicht nur einzelnen "Rosinen" basierend - kannst du dann nur noch versuchen, mich persönlich angreifen und versuchst meinen Alias mit Dreck zu bewerfen: "TARDIS... niveaulosen Beiträge... unsachliches und polemisches Verhalten... fanatisch, deplatziert und mit Rosinenpickerei ... destruktives Verhalten". Lol.

Wenn dein Verhalten nicht so traurig wäre, würde ich darüber lachen.

Merkst du nicht, dass du deinen eigenen Namen mit Dreck bewirfst? Merkst du nicht, dass du genau das Verhalten an den Tag legst, das du anderen vorwirfst? Du tust mir echt Leid.
 
Zuletzt bearbeitet:
@Bucho, Dragontear und Devil Ag:
Wie kommt man eigentlich auf die Idee, das man zwei Prozessorarchitekturen nur über die Software miteinander vergleichen kann?
Software sells Hardware! Kennst den Spruch?
War schon seit den Anfängen des Computerzeitalters so.
Mit was willst sonst vergleichen?
Ist genauso wie beim Kochen: Du hast zwar die Zutaten, aber ohne ein Rezept zu kennen, wirds nix mit dem leckeren Essen.
 
SB kam erst 2011, nicht 2010.

Ja mein Fehler, es war fast noch 2010. Sandy kam am 9. Jan. 2011.

Aber Fakt ist, sein vergleich war noch Pro AMD, weil Bulldozer erst 20 Monate später kam.

Dann solltest du aber nochmal genau hinschauen. Er hat unmissverständlich "Haswell hat 75 % mehr IPC" geschrieben. Und selbst wenn er SB gemeint hat, dann sind die 75% immer noch Quatsch.

So langsam verstehe ich warum andere immer mit dir Probleme haben. Wir Diskutieren jetzt schon 3 oder 4 seiten darüber was Duplex gemeint haben soll.
Aber ich habe auch einen Fehler gemacht in dem wirr warr mit dir. Ich sagte ja zuletzt "Er hat Zambezi nicht mit Haswell verglichen", und das war Falsch von mir.

Hab jetzt extra nochmal die genauen Sätze rausgesucht.

Zitat von Duplex
"bereits Sandy Bridge hat >50% mehr IPC als K10, Bulldozer ist damals mit weniger IPC als K10 gestartet."
"Heute liegen die Bulldozer Kerne bei der IPC ziemlich weit hinten, Haswell hat 75 % mehr IPC."

Er bezog sich nie auf Piledriver oder Steamroller.

Aus den aussagen geht hervor, Sandy hat 50% mehr IPC als K10
Haswell hat 75% mehr IPC als Bulldozer MK1

Kommt so in etwa hin weil Bulldozer im Multi Core IPC vergleich ca 10% langsamer als K10 war, = Sandy 60% mehr IPC als Zambezi (FX4100 vs i5 beim gleichen takt).

Und Haswell auf Sandy 16% im Multi Core IPC vergleich gut macht = 76% mehr IPC vs Zambezi (FX4100 vs i5 beim gleichen takt).
 
Zuletzt bearbeitet:
Ich wage mich schon kaum noch zu fragen, aber so am Rande des Thema´s:

Wäre es nicht möglich das AMD es schafft die Architektur so anzupassen, dass man die geballte Power der intregierten GPU in Ihren Chips "mitnutzen" könnte?
Immerhin nimmt ja selbige in den APUs sehr viel platz ein. Ich rede jetzt NICHT von den aktuellen, sondern von zukünftigen! Also sprich das der GPU Anteil sich wie ein CPU Kern verhält?
Weil dann wäre man doch gerade mit einer neuen Generation wieder gut aufgstellt, unabhängig von Fertigungsprozessen und Forschungsbudget mäßigem Rückstand.

p.s.
Ich nutze akutell nen Intel als SpielePC und eine APU für meinen HTPC :)
 
Das dürfte wohl am Grund scheitern das GPU <> CPU grundverschieden arbeiten und ausgelegt sind.

Denke ich mal.
 
Könnte man schon nur müsste das Betriebssystem und die Programme das unterstützen. Gibt ja heute auch schon viele Programme die den Grafikkern nutzen (Videoschnitt und Co.)
Hardware hängt immer von der Software ab.
Gibt nur einige die das nicht wahr haben wollen....
 
@Bucho
Mit I/O-Leistung war gemeint, dass der doch sehr niedrig getaktete I/O-Hub ein großes Hindernis ist. Ein hoch getakteter Ringbus z.B. macht sich hier deutlich besser. Das würde auch einen effizienteren LLC ermöglichen.

Nochmal:
VISC ist keine Konkurrenz zu RISC oder CISC. Diese Begriffe sind sowieso hochgradig veraltet, da alle Designs heute sowieso immer beides sind (dank µCode). VISC setzt aber noch einen drauf und versucht mit programmierbaren Decodern selbst bei problematischem Code den maximalen Backend-Durchsatz zu erreichen. Die versprechen nichts anderes als den heiligen Gral der CPU-Entwicklung. Ob das so kommt, wird sich zeigen, gesunde Skepsis ist angebracht. Aber es ist such gut, dass sich endlich mal jemand an so einer Sache versucht und einen unkonventionellen Lösungsansatz entwickelt hat.

Und um das auch noch mal klarzustellen: VISC gehört AMD, da hat Intel keinen Zugriff darauf. Zudem hat AMD noch das komplette Transmeta-KnowHow in Petto (was Intel auch nicht hat), das wird bei dieser Sache sehr hilfreich sein. Der Name Zen deutet ja auch auf sowas hin. Für AMD ist das ein sehr ungewöhnlicher Codename.
 
Zuletzt bearbeitet:
Und um das auch noch mal klarzustellen: VISC gehört AMD, da hat Intel keinen Zugriff darauf. Zudem hat AMD noch das komplette Transmeta-KnowHow in Petto (was Intel auch nicht hat), das wird bei dieser Sache sehr hilfreich sein. Der Name Zen deutet ja auch auf sowas hin. Für AMD ist das ein sehr ungewöhnlicher Codename.
Hat AMD Soft Machines gekauft oder denen VISC abgekauft? Bin da nicht so informiert wer wen und welche Patente kauft.
 
Ich wage mich schon kaum noch zu fragen, aber so am Rande des Thema´s:

Wäre es nicht möglich das AMD es schafft die Architektur so anzupassen, dass man die geballte Power der intregierten GPU in Ihren Chips "mitnutzen" könnte?
Immerhin nimmt ja selbige in den APUs sehr viel platz ein. Ich rede jetzt NICHT von den aktuellen, sondern von zukünftigen! Also sprich das der GPU Anteil sich wie ein CPU Kern verhält?
Weil dann wäre man doch gerade mit einer neuen Generation wieder gut aufgstellt, unabhängig von Fertigungsprozessen und Forschungsbudget mäßigem Rückstand.

p.s.
Ich nutze akutell nen Intel als SpielePC und eine APU für meinen HTPC :)

Solch einen Ansatz hat AMD tatsächlich mit "HSA". Wie schon erwähnt wurde, funktionieren Grafikeinheiten allerdings anders, eben weil sie auf Grafikberechnungen oiptimiert sind. Deshalb können sie keine herkömmlichen Assemblerbefehle verstehen, etc. aus denen alle Programme im Grunde bestehen. Man kommt nur über "Umwege" an diese "geballte Rechenleistung" und das erfordert zusätzlichen Aufwand beim Entwickeln der Software... diesen Aufwand betreiben nur wenige Studios solange es CPUs gibt die auch ohne sowas, genug Rechenleistung bieten :/
Irgendwo habe ich mal gehört dass immerhin das aktuelle MS Office an ein par Stellen von HSA gebrauch macht. Kann aber sein dass ich da was verwechsle.

Interessant ist dieses VISC aber eventuell auch dafür - theoretisch könnte dieser virtuelle Layer ja auch Befehle an die GP-Einheiten verteilen, aber erstmal muss das überhaupt praxisgerecht auf CPUs laufen...

Und um das auch noch mal klarzustellen: VISC gehört AMD, da hat Intel keinen Zugriff darauf. Zudem hat AMD noch das komplette Transmeta-KnowHow in Petto (was Intel auch nicht hat), das wird bei dieser Sache sehr hilfreich sein. Der Name Zen deutet ja auch auf sowas hin. Für AMD ist das ein sehr ungewöhnlicher Codename.
Huch, stimmt das wirklich? Ich konnte auf die Schnelle dazu nichts finden und in dem Sammler vor ein par Monaten war nur die Rede davon davon "dass die Technologie ideal für AMD wäre" o.o
Wenn ja, ist das wirklich vielversprechend.
 
Zuletzt bearbeitet:
Huch, stimmt das wirklich? Ich konnte auf die Schnelle dazu nichts finden und in dem Sammler vor ein par Monaten war nur die Rede davon davon "dass die Technologie ideal für AMD wäre" o.o
Wenn ja, ist das wirklich vielversprechend.
In der PDF hier findet man ganz unten, unter anderem das hier:

Corporate headquarters are in Santa Clara, California, USA with operations in India and Russia. Soft Machines investors include Samsung Ventures, AMD, Mubadala, RVC, KACST, RUSNANO and TAQNIA.

Hinzu kommt das Globalfoundries inzwischen IBM mit im Boot hat (ink. Entwicklung). :cool:
 
Weil GENAU das der potentielle Käufer macht!
Er sucht sich die Hardware anhand der Software aus die er nutzen will. Das gilt für Gamer ebenso für Profis die Business- oder Serversoftware einsetzen.

Fassen wir die Diskussion nochmal zusammen: (nur die Kernaussagen)

glaube Duplex: "Haswell ist 50% schneller als Steamroller (IPC), das kann AMD nie mit Zen aufholen"
mr.Dude: "Doch, Intel kocht auch nur mit Wasser, ein neuer Prozessor, ohne Haderware-Altlasten ist genauso schnell/schneller -> Beispiel Cyclone"
Du: "ARM und x86 kann man nicht vergleichen"
Ich: "Warum"
Du: "Wegen der Software und dem Betriebssystem und irgend was Komisches mit Assembler" (btw. Komplett das Thema verfehlt)
mr.dude und ich: "ARM und x86 unterscheiden sich kaum voneinander"
Du: "Interessiert ja den Kunden nicht" (die letzte Verteidigung, wenn man merkt, dass man keine Ahnung vom Thema hat)

Ich stelle grad fest wir sind wieder am selben Punkt über den fdsonne schon mal ausgiebig mit mr.dude diskutiert haben: Einer fokusiert sich nur auf den Hintergrund der Hardware - die in der Praxis nebensächlich ist, und wir anderen denken mehr an das Endprodukt und sehen uns als potentielle Käufer.

Du könntest auch einfach mal nicht antworten, wenn du keine Ahnung hast, aber dann müsste man ja jemandem wie mr.dude indirekt Recht geben..... sowas geht ja garnicht. Und zur not, kommt dann immernoch die Kann ich heute nicht kaufen, wird es nie geben, also total uninteressant Karte.... großes Kino.

@fdsonne: Frei übersetzt hat dein Post im Zusammenhang mit dem Kontext folgenden Inhalt:
"Postet irgend einen Schwachsinn. Komplett am Thema vorbei und dann sucht euch nen anderen Thread und macht dort das gleiche" ;)
Also wurden damit alle zum Trollen aufgefordert.
 
@fdsonne: Frei übersetzt hat dein Post im Zusammenhang mit dem Kontext folgenden Inhalt:
"Postet irgend einen Schwachsinn. Komplett am Thema vorbei und dann sucht euch nen anderen Thread und macht dort das gleiche" ;)
Also wurden damit alle zum Trollen aufgefordert.

??
Was soll ich jetzt bitte wieder gemacht haben?
"Postet irgend einen Schwachsinn" -> ich wüsste nicht, wo ich sowas jemals hier erwähnt haben sollte. Aber da du ja sogut weist, was ich geschrieben habe, wäre ich dir um einen Link zu diesem Post sehr verbunden... Alternativ wechsel mal deinen Translater, mir macht es den Eindruck als seien deine "Übersetzungen" ziemlich fernab jeglicher Realität...
 
Nein ist es nicht. Es ist genau das worüber ich gesprochen habe - du fühlst dich als "AMD käufer" viel zu schnell angegriffen.
Doch, es ist Wortklauberei. Oder willst du fdsonne tatsächlich unterstellen, er hätte wirklich böse gemeint, also im Sinne von boshaft bzw bösartig? Ich denke nicht, dass er das hat. Ich glaube eher, dass du dich angegriffen fühlst, wenn man das niveaulose Verhalten von Leuten wie TARDIS entlarvt.

Hört sich so an, als hättest du das aus irgendeinem Geschichtsbuch abgeschrieben. Wir leben nicht mehr in den 1990ern. Der ARM Befehlssatz ist mittlerweile auch ziemlich umfangreich. Und in Assembler wird heute auch nicht mehr programmiert. Bzw sieht man das nur noch in wenigen Anwendungen für spezielle Routinen. Vernachlässigbar.

Programmiert wird heutzutage fast ausschliesslich in Hochsprachen. Und Hochsprachen wie C oder C++ sind plattformunabhängig. D.h., der Programmierer schreibt seine Anwendung nur einmal. Mittels Compiler wird dann entschieden, für welches Betriebssystem und für welche Prozessorarchitektur übersetzt wird. Ob für ARM oder x86 ist kein weiterer Aufwand für den Programmierer. Er braucht nur den passenden Compiler. Den Rest macht dieser dann selbständig. Bei Sprachen wie Java oder C# gibt's idR noch eine Zwischenstufe, den Zwischen- bzw Bytecode, der vom Compiler erzeugt wird. Dieser Zwischencode wird dann wiederum von einer virtuellen Maschine in Maschinencode übersetzt und ausgeführt. HSAIL geht zB in eine ähnliche Richtung.

Programmierer müssen vielmehr aufs Betriebssystem schauen, weil nicht jeder Sprachstandard sämtliche Funktionalität abdeckt. C und C++ kennen zB keine "Grafik". Deshalb muss man dann auf entsprechende Bibliotheken zurückgreifen, wie zB OpenGL, um Plattformunabhängigkeit zu gewährleisten.

ARM und Java haben auch herzlich wenig miteinander zu tun. Daran ändert auch nichts, dass Android für die offizielle Entwicklung das JDK vorsieht. ARM ist schliesslich weder an eine spezielle Entwicklungsumgebung gebunden, noch an Android.

Also nochmal, was genau soll die "Grundproblematik" sein und warum soll AMD aufgrund von RISC "kein einziges % Marktanteil im Gamingsektor in der Zukunft gewinnen"? Ich sehe nach wie vor keine schlüssige Erklärung für diese Behauptungen.

Interessant ist dieses VISC aber eventuell auch dafür - theoretisch könnte dieser virtuelle Layer ja auch Befehle an die GP-Einheiten verteilen, aber erstmal muss das überhaupt praxisgerecht auf CPUs laufen...
VISC muss mMn erst mal zeigen, ob es mit vernünftigen Taktraten und niedrigem Energiebedarf laufen kann. Das Konzept schön und gut, nur ist dieser virtuelle Layer auch nicht gratis. 3-4 mal so hohe IPC nützt einem auch nichts, wenn ein Prozessor dann nur wie der Prototyp mit lediglich ein paar Hundert MHz läuft.


Aber Fakt ist, sein vergleich war noch Pro AMD, weil Bulldozer erst 20 Monate später kam.
20 Monate? Umfasst ein Jahr jetzt 50 Monate oder so? SB wurde offiziell Anfang 2011 vorgestellt. Aufgrund des Chipsatzfiaskos war der aber erst etwa Mitte 2011 richtig am Start. Bulldozer wurde Oktober 2011 gelaunched. Das ist weniger als ein halbes Jahr. Und selbst wenn man die offiziellen Launches vergleicht, dann sind das immer noch weit weniger als 20 Monate.

Aber ich habe auch einen Fehler gemacht in dem wirr warr mit dir. Ich sagte ja zuletzt "Er hat Zambezi nicht mit Haswell verglichen", und das war Falsch von mir.
Und wenn er das gemeint haben soll, dann kann ich meine Frage nur nochmal wiederholen. Wo genau liegt jetzt der Sinn, einen 2011er Kern von AMD (bdver1) mit dem aktuellen Haswell Kern von Intel zu vergleichen? Ich hoffe wir sind uns einig, dass das einfach nur Unsinn ist. Das gleiche könnte ich wie gesagt zB mit dem alten In-Order Atom und dem aktuellen Cat machen.

Aus den aussagen geht hervor, Sandy hat 50% mehr IPC als K10
Haswell hat 75% mehr IPC als Bulldozer MK1
So explizit stand das aber nicht dort. Da stand lediglich was von Bulldozer. Was unterschiedlich verstanden werden kann. Aufgrund der Einleitung, "Heute liegen ...", ist aber naheliegend, dass man eben auch die aktuellen Kerne von AMD und Intel meint. So oder so, es passt irgendwie zu Duplex' Diskussionen. Er schreibt oft so wirr, dass er vermutlich selbst nicht mal weiss, wovon er spricht. Der Glaubwürdigkeit seiner Aussagen dient das natürlich nicht.

Kommt so in etwa hin weil Bulldozer im Multi Core IPC vergleich ca 10% langsamer als K10 war
Multicore heisst bei dir was? FX8 vs X6? Da war bdver1 im Schnitt in etwa ähnlich bzw etwas besser als K10 bei Wald- und Wiesencode.

Sandy 60% mehr IPC als Zambezi (FX4100 vs i5 beim gleichen takt)
FX4 und i5 aus Sicht der Architektur zu vergleichen, macht exakt null Sinn. Du hast hier zum einen kastrierte Kerne beim i5. Wenn wir Architekturen vergleichen, dann vergleichen wir nur vollwertige Kerne. Und zum anderen hast du ein Architekturimplementations- bzw Pipelineverhältnis von 1:2. Da könnten wir Multicore genauso FX8 und i3 vergleichen. Macht genauso wenig Sinn.


Wäre es nicht möglich das AMD es schafft die Architektur so anzupassen, dass man die geballte Power der intregierten GPU in Ihren Chips "mitnutzen" könnte?
Dafür gibt's ja OpenCL & Co. Und genau deswegen entwickelt man auch HSA, was das ganze noch weiter vereinfachen, intuitiver für Softwareentwickler und performanter für Endanwender machen soll. Geht halt nur nicht alles von heute auf morgen. Das HSA SDK ist erst seit vergangenem Jahr verfügbar. Und hardwareseitige Unterstützung der vollständigen HSA 1.0 Spezifikation kommt auch erst mit Carrizo.


Du hast behauptet, hier würde jemand AMD Käufer als "böse" darstellen. Du konntest kein einziges Zitat als Beleg bringen.
Natürlich konnte ich das und das hat auch jeder gesehen. Ich kann ja nix dafür, wenn es dein niveauloses Verhalten entlarvt. Dafür bist einzig und alleine du verantwortlich. Und das ist genauso wie meine vorangegangenen Aussagen nur die Wahrheit.

Du hast behauptet, Intel würde seine CPUs für lau abgeben und der "Käufer" kriegt auch noch $20 Cash oben drauf (kein Witz, das hat er behauptet)
Ich frage mich, wie viele Märchen du eigentlich noch erzählen willst. Kommt dir das nicht selbst langsam mal peinlich vor? Ich habe nie etwas vom "Käufer" gesagt, falls du damit Endkunden meinst. Intels Partner, zB OEMs, bekommen die Prozessoren quasi für umsonst und noch zusätzliche "Vergütungen" obendrauf, um höhere Plattformkosten zu kompensieren. Und das sind nicht meine Behauptungen, das kannst du auf jeder gut informierten und objektiven Seite auch nachlesen. Intel selbst macht daraus ja gar keinen Hehl und die Milliardenverluste im mobilen Bereich belegen das auch sehr gut. Trotzdem interessant zu sehen, wie das von einigen weiter geleugnet wird. Aber schon klar, TARDIS & Co sind die Objektivität in Person und alle anderen nur AMD Mitarbeiter, die AMD verteidigen wollen. :rolleyes: Also ganz ehrlich, du hörst du weitaus mehr wie ein Intel Mitarbeiter an als ich wie ein AMD Mitarbeiter. Ich habe es auch nicht nötig, in Intel Threads rumzuhängen und AMD anzupreisen. Und nur dort würde es ja auch Sinn machen. In AMD Threads muss man sicherlich niemanden zu AMD bekehren. AMD User nutzen schliesslich bereits AMD und bei Intel Trollen ist es eh zwecklos. Du hingegen hängst auffällig oft in AMD Threads rum und preist Intel an. Vielleicht sollte das einem mal zu denken geben.

Während ich nachprüfbare Benchmarks
Du bringst trotzdem nur immer wieder die gleichen selektiven Benchmarks. Das ist Rosinenpickerei. Punkt.
 
Zuletzt bearbeitet:
Ach bei 20 monate hatte ich 1 jahr zuviel drauf gerechnet :fresse:

meinte natürlich grob 10 monate. sandy gabs anfang januar, bulldozer gabs oktober.
 
mr.dude schrieb:
Du hast hier zum einen kastrierte Kerne beim i5.

Was soll da außer SMT kastriert sein?:xmas:

Wieso erklärst du nicht mal ausführlich wieso man CPU Performane mit realitätsnahen Benchmarks misst, das wäre nach all den Jahren der mutwilligen AMD Verteidigerei angebracht.
Zumal du ja immer und immer wieder behauptest, aber bei Nachfrage keine Argumente lieferst.
Nimm als Beispiel am besten den von dir verlinkten Test von weiter vorne und erkläre mal was hier anhand des Tasmanagers bestimmt werden soll.
 
Zuletzt bearbeitet:
Okay das alles klingt interessant hier, deswegen noch eine weitere Frage:

Ist dann HSA (doof gesagt) ein Vermittler/ Übersetzer der für die interegierte GPU die Sachen "bearbeitbar" macht oder funktioniert das auf andere Ebene? ...... vllt. hat ja jemand nen Artikel zu HSA zum nach lesen.
Weil ihr auch gesagt habt "muss die Software dafür angepasst werden" ........ stehen wir dann nicht wieder vor dem selben Problem das AMD einst mit 3Dnow hatte ?
 
Ist dann HSA (doof gesagt) ein Vermittler/ Übersetzer der für die interegierte GPU die Sachen "bearbeitbar" macht oder funktioniert das auf andere Ebene? ...... vllt. hat ja jemand nen Artikel zu HSA zum nach lesen.
Weil ihr auch gesagt habt "muss die Software dafür angepasst werden" ........ stehen wir dann nicht wieder vor dem selben Problem das AMD einst mit 3Dnow hatte ?

Ja, das ist halt das Hauptproblem der ganzen Geschichte... Ohne entsprechende Software, sensibilisiert man den Markt nicht entsprechend. Und ohne Jemanden, der sich für das Thema einsetzt, wird sich an der gegenwertigen Situation nur unwesentlich was ändern.

Die größte Baustelle aktuell ist dabei halt die Software... Es ist ja nicht so, dass die Hardware langsam wäre (oder zu langsam), nur die Software kann überwiegend nix mit der GPU anfangen. Dazu kommt der Umstand, dass heutige Wald und Wiesen Software, die man tag täglich benutzt im Grunde gar keine "hohen" Anforderungen an die Hardware stellt. Wenn ich mir überlege, ich kann mit meinem Surface 2 Pro im Windows Energiesparmodus (also sehr niedrigem Takt) und dem popligen Dualcore Haswell in der Kiste im Grunde alle Alltäglichen Aufgaben ohne Nachteile ausführen. -> wozu also die GPU für irgendwas ranziehen, was auf dieser mini CPU schon schnell genug ausgeführt wird?

HSA und allgemein, das ganze Konstrukt mit GPU Beschleunigung wird genau dort sinnvolle Vorteile bringen, wo man generische Lasten erzeugt und vor allem auch, wo eben nicht nur ein paar poplige Aufgaben ausgeführt werden, sondern wo wirklich lange Zeit Last anliegt und jedes bisschen mehr Speed der Hardware im Endeffekt auch greifbare Vorteile bietet.
Das könnten Video Encoding/Rendering Szenarien sein, genau so wie bspw. irgendwelche wissenschaftlichen Berechnungen oder ähnliches...


Wenn ich das richtig sehe, ist der "Endausbau" AMDs Fusionskonzept dahingehend ausgelegt, dass man dann am Ende eben keine spezielle Software mehr benötigt. Sondern dass die Hardware einem selbst diesen Part übernimmt. Also ganz vereinfach gesagt, nach dem Motto, Programmcode kommt rein -> Hardware erkennt, oha, das läuft doch viel besser auf der GPU -> also auf die GPU damit. Für den Anwender sollte das völlig transparent passieren.
Im Gegensatz zu heutigen Ansätzen programmiert man eben heute noch den Code für die CPU -> und im Code wird dann die GPU mit Aufgaben betreut. Das Programm selbst läuft auf den CPU Einheiten, möglicherweise die Berechnungen aber auf den GPU Einheiten. -> dieses Auslagern der Berechnungen auf die GPU ist halt die (noch) notwendige Software Anpassung. Ohne die, gehts atm nicht...
Leider ist der Softwaremarkt extremst träge. Und vor allem im Desktop Bereich einfach mal festgefahren seit eh und je... Ein Umbewegen zur weitreichenden Nutzung der GPU in vieler (aller) Software, wird schwer bis unmöglich sein, wenn man dazu seitens der Programmierer Hand anlegen muss. Entsprechend bleibt das ganze Konstrukt heute eher den Sachen vorbehalten, wo man wirklich die Leistung benötigt -> generische Volllast Szenarien. Und hier beißt sich dann die Katze in den Schwanz, weil eben der "Markt" bis auf wenige Ausnahmen und Nieschen, so weiter macht wie bisher und das tollste Produkt somit auch keinen Durchbruch bringen kann...

Nicht vergessen bei allen Vergleichen sollte man halt, dass der Desktop Markt -> klassisches Windows x86 Geschäft alles andere als ein Markt wie im Smartphone Bereich ist. Denn dieser Markt "baut" im Grunde gerade darauf, dass es dort keine essentielle Änderung am Grundgerüst gibt. Ich kann heute meine Software von vor 20 Jahren noch nutzen... Völlig wurscht, ob da nun ein i7 irgendwas oder AMD Kaveri/Piledriver drin steckt -> es ist quasi vollständig abwärtzkompatibel. Bei vielen anderen Märkten hast du sowas nicht... Diese können sich idR aber auch einfach einen harten Cut erlauben ;) Siehe bspw. Apple damals mit dem Umstieg auf Intel. Oder die alle Nase lang im Smartphone bereich geschehenen Wechsel der Hardware. Selbst die Spielekonsolen sind nicht Hardware gebunden -> man entwickelt dort idR pro Gerät oder pro Zyklus/pro Jahre. Aber nicht "für die Ewigkeit"...
Nur die wenigsten würden es gutheißen, heute geschätzt 95%+ ihrer gekauften und idR auch teuren Software wegzuschmeißen, weil A) die Entwickler keine Updates mehr bringen und B) ein Architekturwechsel die Software nichtmehr lauffähig machen würde -> also hält man am Umstand fest. Fluch und Segen zugleich, wenn man so will ;)
-> bspw. mit ein Grund, warum sich NIE Intels native 64Bit CPUs durchsetzen konnten, sondern AMDs 64Bit Erweiterung des Rennen damals mit den A64 CPUs machte...
 
Weil ihr auch gesagt habt "muss die Software dafür angepasst werden" ........ stehen wir dann nicht wieder vor dem selben Problem das AMD einst mit 3Dnow hatte ?
3DNow! war exklusiv AMD. Der HSA Foundation gehören hingegen mehrere grosse namhafte Unternehmen an. Also da gibt's eine deutlich bessere Unterstützung seitens der Industrie. Und ja, die Software muss angepasst werden. Aber das muss sie sowieso bei fast jeder neuen Technologie. Aktuelle Spiele werden zB auch nicht einfach mit DirectX 12 laufen. Auch dafür muss die Software erst angepasst werden.
 
Aktuelle Spiele werden zB auch nicht einfach mit DirectX 12 laufen. Auch dafür muss die Software erst angepasst werden.

Der Vergleich hinkt doch aber auch etwas...
-> DX12 hat rein formal schonmal den Vorteil, dass über kurz oder lang ALLE neue Hardware in Sachen GPU dies supporten wird. Ensprechend es auch für Niemanden ein Problem darstellt, dafür Zeit zu investieren und sich eben über kurz oder lang Vorteile für den potentiellen Kunden einstellen werden... Womit wir wieder beim Problem wären, dass AMD aktuell nur Nieschen bedient und entsprechend auch der Anreiz das Ganze in der Software zu supporten geringer ausfällt. Damit beißt sich die Katze aber in den Schwanz, wenn "Keiner" auf die Optimierungen setzt, die notwendig sind um mehr potentielle Kunden an die Hardware zu locken!?

Wie will man das Problem lösen?
 
Auch wenn es vll nur am Rande mit der Gaming Zukunft zu tun hat...

Ich habe die ganze Zeit am FX festgehalten in der Hoffnung das da bis jetzt endlich mal was kommt.
Aber mehr außer höher getaktete 8350er kamen ja da nicht...

Jetzt die Meldung das vor 2016 gar nichts mehr kommt im Performance bereich.

Also was soll ich da nun tun?
Mein FX rennt auf 4,7 GHz und ich habe jetzt schon in mehreren Spielen immer öfter das Problem mit dem CPU Limit.
Bis vor kurzen habe ich die mitschuld noch bei der Graka gesucht das ihr die Puste ausgeht (270x), jetzt habe ich aber eine 970 und heute diese Benches gemacht (man verzeihe mir den Crosspost in den Fall, war eigentlich im Bezug auf das Speicher Problem gedacht, hier aber im anderen Kontext gemeint)


Hab mal ein knapp 10 Minuten Gameplay Video von BF Hardline aufgenommen inkl. Afterburner und den Ingame Graphen.
Sowohl in 1280 / 1920 und auch 2560 @ alles Ultra 4x MSAA (2560er zwischen durch auch mit 2x MSAA)

https://www.youtube.com/watch?v=vurNcGo7xg0&feature=youtu.be

Also damit scheint die GTX absolut kein Thema zu haben.
Allerdings könnt ich mein FX um so mehr aus dem Fenster schmeißen....

Und hier noch einmal nur in Ultra HD und da schaffe ich es erst mit 4X MSAA in auf 3,7 GB Vram verbrauch zu kommen bei ~20FPS. Witziger weise kackte da aber eh der Server ab :fresse: aber auch so in Ultra HD @ Ultra ohne MSAA sind es nur noch ~30-45 FPS bei einem VRam verbrauch unterhalb der 3,5 GB.

https://www.youtube.com/watch?v=KfhOL9CNOJY&feature=youtu.be

Aufgezeichnet mit ShadowPlay in Niedrigen Qualitätsmodus. Frisst also so gut wie keine Leistung während der Aufnahme.

Bitte nicht auf das Gameplay achten. Das war gar nichts. Zum einen da es mir nur darum ging das mal zu Benchen und zu Demonstrieren und daher die Augen mehr an den Statistiken hangen als im Game, und zum anderen weil die Graphen zu dem das Radar geraubt haben wo normal immer eins meiner Augen hängt ;)

System:

Asus Crosshair Formula IV / FX 8320 @ 4,7 GHz / 16GB DDR3 1600er Ram / GTX 970 @ 1484 GPU / 3500 Ram , und das Game liegt auf einer Crucial MX100 256GB SSD.

Falls es nicht HD sein sollte, kurz warten bis YouTube es freigegeben hat.

Edit:

Wenn wer noch was getestet haben möchte mit der 970 einfach Bescheid sagen. Wenn ich das game habe, kein Problem.

Also wäre die einzige Möglichkeit 2015 sauber mit einer AMD CPU zu Gamen @ 60 FPS , ebenfalls auf eine AMD Karte zu setzen und zu hoffen das so gut wie jedes Spiel Mantle am Start hat... oder aber DX12 sich wahnsinnig schnell verbreitet was ja in etwa den gleichen Effekt wie Mantle haben soll.

Also müsste ich zu meinem Stromfressenden FX noch eine Stromfressende AMD GPU stecken (ja es sind keine Welten zu NV aber in Kombination kommt da schon was rum) um ein halbwegs vernünftig AMD Spiele Paket zu kriegen.

Wie eben aufgeführt wurde darf aber bezweifelt werden das Mantle sich überall finden wird und bis DX12 Standard ist wird es wohl sicher auch 2016/17 werden, wenn man sich anschaut wie lange alte Versionen brauchten "überall" an Board zu sein.

Also führt mich das unter dem Strich dazu das ich dieses Jahr meine AMD CPU ausmustern werde und leider leider zu Intel rüber muss um meinen Anspruch gerecht zu werden, und wieso sollte ich dann bitte 2016 wieder ein neues Board + CPU kaufen von AMD falls die endlich was bringen ... ?

Und ich denke so denke nicht nur ich und haben schon viele vor mir Gedacht, weswegen AMD für die Gaming Zukunft es wohl erstmal wieder sehr schwer haben wird sich einen "Namen" zu machen und die Leute zur "Rückkehr" zu bewegen. Vor allem wenn die Leistung mit dem dann aktuellen System ja noch reicht und AMD nicht wirklich mehr bieten sollte als das was dann so "aktuell" ist.
 
was genau hast du mit deiner CPU gemacht?
nur den Takt angehoben?
NB-Takt unangetastet gelassen
1600er RAM?

komm schon, das ist wenig

zudem ist Hardline noch eine Beta
von daher würde ich da nicht so viel drauf geben
 
Zuletzt bearbeitet:
Bei BF4 ist es genauso ;)

NB Takt rennt bei 2,6 GHz, mehr gibt sie nicht her.

Wenn ich 2x 4 GB streifen raus nehme und denn Ram auf 1866 fahren lasse ändert sich auch nicht wirklich was.

Alles in Hinblick auf 64 Mann Server wo sie entsprechend ackern muss.

Edit:

Ich bin der letzte Mensch der AMD nicht die Stange hält, seit K6-2 450 Zeiten dabei.
Nur einmal ein P4 gehabt , und ganz schnell wieder ausgemustert (P4 Willamette...)
 
Zuletzt bearbeitet:
Ja gut, wenn du solche Spiele spielst bist du bei AMD halt falsch
mir würde nach den neuen Infos nichts einfallen was man da evenutell noch verbessern kann

ich bin nicht weiter als BF3 und das läuft gut
mehr will ich gar nicht
hab noch andere alte Spiele die noch gespielt werden wollen

in Crysis schlagen sich die FX nicht so schlecht
also ist es nicht die vorhande Rohleistung, an dem es den FX fehlt sondern das die SW es nicht nutzt
aber da drehen wir uns dann halt ewig im Kreis

wie gesagt:
solche Spiele -> Intel oder abwarten was AMD bringt und danach dann entscheiden
 
BF3 rennt einwandfrei, vorgestern erst gespielt, das kann ich bestätigen.

Hab allerdings auch letzten Mass Effect 2 gespielt (2+3 wollen noch durch gespielt werden)
Da waren auch ewig weg sackende FPS.

DayZ führe ich mal nicht an, genauso wenig wie GW2. Wäre auch ein wenig unfair.

Schade nur das dass mit unter genau die Spiele sind die ich Spiele. Neben dem "Haupt Spiel" Battlefield. Wobei das seit BF4 stark abgenommen hat. An BF3 hang ich ewig... Hardline könnt aber evt. wieder was werden.

Mit Mordors Schatten z.B. oder AC:U habe ich keine Probleme. AC:U lastet alle Kerne sogar ziemlich gut aus. FC4 war da schon wieder teils Problematisch.

Es ist halt dieses hin und her zwischen den Games... mal läuft alles rund, dann im nächsten Game, könnst das ding wieder in die Ecke schmeißen... und ich mach das jetzt schon die ganze Zeit mit, und irgendwann nervt es halt einfach nur noch wenn man nicht weiß beim Spiele kauf -> läuft es rund oder gibt es Frust. (Abseits von den üblichen Probleme der Spiele im Allgemeinen. )

Edit:

Und der rennt ja hier schon am Anschlag mit 4,7 GHz / 2,6 GHz auf SB/NB. Wie ergeht es da erst Leuten mittlerweile die den Stock fahren.
 
Zuletzt bearbeitet:
Mass Effect ist aber auch nicht auf breite CPUs ausgelegt sondern auf wenige Kerne mit viel IPC
is halt so

Day-Z kann man doch nirgends als Maßstab führen so wie es ist


jo, ist ne doofe Situation
wobei ich persönlich sagen würde, die SW trägt den größten Teil bei
 
Glaube ich auch. Habe ja selbst die Vermutung angestellt das jetzt wo wir "next gen" ( :lol: ) haben und AMD da drin sitzt, spiele hoffentlich mehr eben breiter ausgelegt werden womit wir AMD User auch bei den PC Portierungen profitieren. Aber auch das wird man erst sehen müssen.

Sagte ja DayZ oder GW2 als Vergleich ran zu ziehen wäre etwas unfair. Wobei es für den Anwender dabei bleibt das es nicht gut läuft und er sich nicht wirklich fragt, wieso nicht bzw. ihm relativ egal sein wird warum das so ist. Sondern sich dann was kauft womit es gut läuft.

Und wenn sie das gemacht haben , haben sie den "Doofen AMD PC" im Kopf und den "Tollen Intel PC" . Und dann krieg diese Leute erstmal wieder dazu ein AMD PC zu kaufen.

Ich schaue nach P/L. Beschäftige mich auch mit der HW. Und richte mich zu dem mit nach meinem Geld Beutel. Bis auf letzteres macht das der Otto aber nicht.

Edit: und dann kommt noch erschwerend dazu ,das wenn diese Leute sich dann jetzt einen "Tollen Intel PC" kaufen, weil der Standard AMD PC vermehrt schwächelt , in der regel genug Leistung haben und 2016 / 17 vermutlich nicht noch mal drüber nach denken ein neuen Rechner zu kaufen.

Das Problem meiner Meinung nach ist nicht, das es eine Leistungsschere zwischen AMD und Intel gibt, sondern das diese mittlerweile schlicht zu groß ist, und dann sollst noch n Jahr warten wo eventuell wieder was gutes kommt... da kommt Frust auf.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh