AMD,s Gaming Zukunft 2015-2017

@[HOT]
Embedded Server? Das klingt fast ein bischen nach Core m Konkurrenz. :)

@Schaffe89
Mir als Kunde bringen Balken nicht viel, wenn jemand damit was Anfangen kann Bitte gern.
Ich schau öfter z.B. bei TechReport vorbei, die machen wenigstens ein paar Frametime Diagramme.
So schlecht sieht der Pentium dort nicht aus, wenn diese doofen Peaks nicht dabei wären.

Irgendwie witzig, bei 29 Threads ist die CPU mit 44% ausgelastet: Bild: bf4_mantle_testgelnde0krl9.jpg - abload.de
Somit wurde auch ein Kern schlafen gelegt. :fresse:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mir als Kunde bringen Balken nicht viel, wenn jemand damit was Anfangen kann Bitte gern.

Abgesehen davon, dass ich mich frage warum du die AMD CPU nicht durch eine 40% schnellere Intel CPU ersetzt um dein Crossfire auslasten zu können, halte ich die Behauptung dass Balken nicht viel bringen, für falsch.
Man muss leidglich die richtigen Balken anschauen und schon erhält man die Informationen die man benötigt.
 
@Schaffe89
Aber wozu denn? Damit ich auf die Energieoptionen beim Spielen verzichten muss oder damit ich mehr als 200FPS auf meinem 60Hz TV darstellen kann?
Von mir aus kann die Auslastung bei 10% sein, wenn die FPS hoch genug sind, entsprechend weniger Verbraucht dann mein System auch.
Zudem bin ich einfach zu lang dabei, nach über 16 Jahren AMD only will ich jetzt nichts anderes mehr. (Überzeugt worden)
 
Ich Frage mich, weshalb Effizienz etwas mit Überzeugung zu tun hat.

Ich hab mit Atari, Commodore und Amiga angefangen, deshalb bin ich aber trotzdem soweit Realist, dass ich das kaufe, was perfekt zu meinen Anforderungen passt, egal ob Rot, oder Grün...
 
Kaveri ist auch nicht für Max Settings gedacht. Viele verstehen AMD nicht.

Wenn Du ein AMD A8 7600 kaufst dann hat Intel NICHTS in diesem Anwendungsgebiet anzubieten. Mit Intel wird die CPU teuerer sein, das gleiche Board auch teuerer, auch wenn nicht um viel, und noch brauchst du eine Grafikkarte, um auf A8 7600 zu kommen.

Es geht nicht um Leistung pro takt, pro Core oder um Test Scores. Es geht im Leben überall um Leistung pro Kosten. Hier ist AMD immer gut platziert und hat immer bessere Leistung pro Kosten als Intel gezeigt.

Es sollte einem wirklich egal sein, ob die CPU acht, zwei oder tausend Kerne hat. Es ist völlig egal ob ein 4 Kern AMD in manchen Tests hinter Dual Core i3 bleibt. Völlig egal, denn er kostet auch weniger als i3 und bietet auch eine bessere iGPU, hat also insgesamt bessere Leistung pro Kosten.

Wenn Du WoW, Sonic all star racing, world of tanks und Mario spielen willst, macht es keinen Sinn mehr Geld für ein Intel System auszugeben.

Durch niedrigere CPU Mainboard Kosten könnt ihr ja auch das Geld in bessere Grafikkarte investieren, hier hat AMD auch eine bessere Leistung pro Preis. Also wenn ihr ein 350 Euro Rechner baut könnt ihr mit AMD insgesamt besseren Spiele-PC bauen. Und Intel kauft man wenn einem das Geld egal ist oder man braucht die CPU Power (3D oder Video/Bildbearbeitung oder was auch immer man mit CPU macht)
 
Zuletzt bearbeitet:
Mit Spielen misst du Spiele, das geht mit Anwendungen nicht.
Es ging um Workloads. Die kannst du mit Anwendungen gezielt messen. Und zwar alles mögliche. Mit Spielen geht das nicht. Dort ist es ein Mix aus verschiedenen Workloads. Und der kann von Spiel zu Spiel ganz unterschiedlich ausfallen. Wenn deine CPU also in Spiel A gut abschneidet, heisst das noch lange nicht, dass sie in Spiel B genauso gut abschneidet.

Bei Teillast im Vergleich zu Intel auch sehr ineffizient.
Nein.


In dem von mir verlinkten CB-Test ist Intels High-End CPU im Idle mit einem um 10W höheren Verbrauch etwas hungriger als AMD Mainstream Plattform (bietet aber auch Quadchannel, mehr PCIe Lanes und SATA Ports). Bei Teillast liegt sie minimal darunter.
Einzelne Gesamtsystemmessungen sagen einem nicht viel, weil durch das Board die Ergebnisse zu sehr variieren können. Ich sprach nur von der CPU. Der Vergleich mit Haswell-E hinkt aber sowieso.

Von denen kann man auch keine Wunder erwarten. Solange nichts konkretes über die Zen Architektur bekannt wird, bleibt AMD auf der Verliererstraße.
Da können sie dann ja einen Klub mit Intel aufmachen. Die sind im Moment auf der Verliererstrasse, falls du das noch nicht mitbekommen hast. Und zwar gegenüber ARM. Atom kriegt kein Bein auf den Boden, während die versammelte ARM Konkurrenz einen Absatzrekord nach dem nächsten feiert. Intels Contra Revenue Programm bringt denen da auch nichts ausser Verlusten in Milliardenhöhe. Und sollte ARM weiter Bestrebungen Richtung Server (so wie es bereits der Fall ist), Notebooks und Desktops machen, schaut es da auch bald nicht mehr so toll für Intel aus. Aber mach dir ruhig weiter was vor mit deiner überteuerten byzantinischen Intel CPU und 10-20% mehr ePenis™. Gibt zum Glück weit mehr Leute, die nicht so denken, für echten Wettbewerb sind und P/L schätzen. ;)

Übrigens, von Wunderroadmaps hat keiner was gesagt. Die Rede war nur von Roadmaps, völlig nüchtern. Wenn du nichts sinnvolles dazu zu sagen hast, musst du auch nichts dazu sagen.
 
Fragst du mich das? Eine CPU hat keine "Spieleperformance". Spieleperformance entsteht durch das gesamte System. Und dazu gehören mehr Komponenten als nur die CPU. Hauptkomponente ist und bleibt nach wie vor die GPU. Zum Rest kann ich nur das nochmal wiederholen, was ich bereits sagte:

Deswegen wird in den Tests ja vermehrt versucht, die GPU möglichst groß zu wählen um den Einfluss dieser auf die FPS Leistung der Messungen möglichst gering zu halten. Ich behaupte mal, du kennst derartige CPU Leistungstests in Spielen ziemlich genau und ebenso ist dir der Umstand bewusst, dass dort eklatante Leistungsunterschiede zwischen den verschiedenen Modellen zu verzeichnen sind.
Wie erklärst du denn, dass ein i3 im Mittel einem i7 (also bisschen mehr Cache, bisschen mehr Takt und doppelte Coreanzahl) weit unterlegen ist? -> es ist und bleibt die einzige Komponente, die in den Tests getauscht wurde. Wenn die CPU also keine Spieleperformance hätte, dann dürfte es keine Unteschiede geben. Offenbar gibt es die aber? Oder sehe ich schief?

PCIe Gen3 gibt's bei AMD auch. Mit Carrizo sogar als SoC. Und AVX2 gibt's dann auch. Beides hat im Moment allerdings nur geringen Nutzen. Umgekehrt bietet Cat immerhin AVX, was Atom im Moment nicht bietet. Und die Leistungsaufnahme ist bei AMD auch nicht so schlecht, wie sie gerne gemacht wird. Schau einfach mal auf übliche Idle- und Teillastszenarien abseits von FX-8350 & Co und Extremlasttests.

PCIe 3.0 bietet weit mehr Vorteile anstatt nur irgendwelche Grafikkarten anzubinden.
Ich nehme lieber 16x PCIe 3.0 Lanes als 16x PCIe 2.0 Lanes... Warum? Ich kann trotz schmalerer Slotbreite gleich viel Daten/sec übertragen. Bei ner Single Steckkarte vielleicht uninteressant. Was aber, wenn mehr steckt als nur ne Grafikkarte? Ich für meinen Teil nutze ne Raidcontrollerkarte. Mittlerweile mit 8x Anbindung. Bietet mein Board aber nicht im MGPU Betrieb. Hätte das Teil PCIe 3.0, wäre ich mit 4x/4x Anbindung für die beiden GPUs nicht langsamer als jetzt, hätte aber noch 8x Lanes frei für den Raidcontroller. So steckt bei mir die Karte aktuell im 4x Slot des Chipsatzes, welcher die Bandbreite noch mit diversen anderen Gerätschaften shared und dazu über das schmale DMI angebunden ist. -> alles andere als Optimal.

Und ja, AMD bietet mit anderen Plattformen auch PCIe 3.0. Nur finde ich dort wiederum keine acht Thread CPUs ;) Wie man es dreht und wendet, es bleiben Nachteile. Es gibt einerseits Pluspunkte, auf der anderen Seite Negativpunkte. Gilt natürlich auch für Intel und Andere. Hier muss man abwegen, was man genau benötigt. Deswegen sagte ich ja mehrfach, man solle bedarfsgerecht entscheiden, vor allem dann, wenn die Basisleistung der CPU, egal was es für ein Hersteller ist, im Grunde ausreichend ist, anstatt seine Verbundenheit zum Hersteller von ein paar m³ Silizium die Entscheidung zu überlassen...

Kaveri ist auch nicht für Max Settings gedacht. Viele verstehen AMD nicht.

Wenn Du ein AMD A8 7600 kaufst dann hat Intel NICHTS in diesem Anwendungsgebiet anzubieten. Mit Intel wird die CPU teuerer sein, das gleiche Board auch teuerer, auch wenn nicht um viel, und noch brauchst du eine Grafikkarte, um auf A8 7600 zu kommen.

Das mag ja sein. Aber es bezieht sich auch nur auf diese eine APU. Es gibt schlicht nicht für jedes Produkt ein 1:1 Gegenstück. :wink:
Auch ein FX6300 steht im P/L (selbst ohne GPU) sehr gut da.
Aber es gibt halt auch andere Kombinationen, die ebenso gut dastehen. Zum Beispiel würde ich persönlich die Kombo mit einem X4 Athlon für FM2(+) + dGPU jeglichen A10 Kaveris vorziehen, wenn man ansatzweise wert auf GPU Performance legt. Denn du bekommst für ein paar Prozente mehr Geld eben auch die bedeutend bessere Performance, gerade in der GPU Power und bist CPU seitig schlechtestenfalls nicht langsamer, eher besser unterwegs. Oder die Kombo mit nem Dualcore Pentium + dGPU, wenn man sogut wie gar keine MT Software nutzt usw.

P/L richtet sich in erster Linie nach dem Bedarf des Anwenders und nicht primär nach irgendwelchen Benchmarkpunkten von sonstweden Tests. Ein Anwender, der primär keine MT Software nutzt, wird die Vorteile eines FX63xx oder FX83xx gar nicht ausspielen können. Oder ein Anwender, der keine GPU Power benötigt, wird die Kaveri/Richland APUs in Sachen GPU gar nicht benötigen. Wenn er aber das eine nicht primär braucht, heist das lange nicht, dass andere Sachen genau so unwichtig sind.

Jemand der fast ausschließlich massive MT Workloads nutzt, wird wohl sogar mit S2011-3, ggf. sogar 8+ Core breiten Xeon CPUs eher an sein Ziel kommen. Alles eine Frage des Bedarfs ;)
 
Aber Hauptsache mein Beitrag wurde gelöscht.
Die Diskussion ist genau dort, wie ich es geschildert habe. Zudem die absolut gleichen Texte wie es sie in hunderten von anderen Threads schon gibt.

Also Mädels. Nicht labern, sondern ab an den PC, Bewerbung schreiben und schon könnt ihr den kompletten Rum einhamsen.
Wie?
Ach dafür reicht es nicht.
Ok, doch was sollen die immer gleichen Texte von immer den gleichen Usern bringen?
Achso, Zeitvertreiben.
Ich verstehe......
 
das heißt du würdest dich freuen, wenn AMD pleite geht, richtig?^^
Zu 486er und Pentium Zeiten hätte ich sofort mit "Ja" geantwortet, denn damals gab es mit Alpha, MIPS, POWER/PowerPC und SPARC genug innovativere
(64bit, integrierter Speichercontroller, SMT & serielle Point-2-Point Verbindung zw. mehreren CPUs) RISC Architekturen, die mit Intel im Desktopmarkt konkurriert hätten.
So blieb es nur bei halbherzigen Versuchen (z.B. Highscreen Alpha bei Vobis), die im kurzen Intermezzo der PowerPCs bei Apple gipfelten,
denn mit AMD gab es ja schon einen direkten Konkurrenten für Intel und die RISC Hersteller suchten ihr Heil im Workstation- und Servergeschäft.

Resultat:
Zuerst verdrängte x86 die RISC Architekturen im Workstationmarkt, dann bei den kleineren und mittleren Servern und jetzt macht sich Intel mit den Xeons der E7 Serie auch noch auf
die letzte Bastion der RISC Hersteller zu schleifen. AMD spielt da keine Rolle mehr. ;)

Wie Dude richtig erkannt hat, heisst die Konkurrenz ARM, aber bei diesem Kampf der Architekturen kann AMD momentan nicht bzw. kaum mitmischen. :rolleyes:
 
Dazu hätte ich Bitte gern eine fundierten Beleg in Form von Zertifizierten Messgeräten ink. ein Protokoll das einen abfrageintervall von mindestens 100 pro Sekunde bietet. Kann sich keiner Leisten nur ein Labor kann das, also ist die Aussage auch ineffizient.
Man kann's auch übertreiben ...

Messungen mit einem Wert pro Sekunde über workloads von 10+ Minuten mit zB Stapelverabeitung via Photoshop zeigen, dass ein FX-8350 deutlich ineffizienter als ein Core i5-4460 ist (bis auf MoBo identisches System). Das trifft bei Volllast mit x264 UHD ebenfalls zu: der FX ist hier zwar flotter, benötigt aber exorbitant mehr Energie.

Wenn deine CPU also in Spiel A gut abschneidet, heisst das noch lange nicht, dass sie in Spiel B genauso gut abschneidet.
Eine CPU, die in Anwendung A gut abschneidet, muss nicht auch in Anwendung B gut abschneiden.

Bloß keine Argumente.
 
Man kann's auch übertreiben ...

Messungen mit einem Wert pro Sekunde über workloads von 10+ Minuten mit zB Stapelverabeitung via Photoshop zeigen, dass ein FX-8350 deutlich ineffizienter als ein Core i5-4460 ist (bis auf MoBo identisches System). Das trifft bei Volllast mit x264 UHD ebenfalls zu: der FX ist hier zwar flotter, benötigt aber exorbitant mehr Energie.
Sorry, 11 Jahre 3D Messtechnik im IS0 17025 Labor färben etwas ab!
Da gibt es immer ein Protokoll ink. Zertifikat, aber unsere Kunden sind keine Enduser sondern Auto-, Flugzeug und Bahn Industrie (sind noch weitere aber das würde zu lang dauern sie alle aufzuzählen).
Wenn ein FX innerhalb eines Takt Zyklus die Kerne ein und ausschalten kann wie oft macht er das dann in einer Sekunde?

€dit: unsere Encoder haben eine Abfrageintervall von 750000 pro Sekunde...
 
Zuletzt bearbeitet:
[...]

Wie Dude richtig erkannt hat, heisst die Konkurrenz ARM, aber bei diesem Kampf der Architekturen kann AMD momentan nicht bzw. kaum mitmischen. :rolleyes:

Ähm was? K12 vergessen wie? AMDs neue Basis-High-End Architektur ist ARM. Zudem ist AMD einer der ersten Anbieter für 8-Kern-ARM-SoCs mit massivem I/O (viel PCIe, Cache, Netzwerkcontroller etc.), die über FreedomFabric laufen werden. AMDs gesamte Serverlandschaft 2015 ist ARM (+Berlin und Warsaw), Skybridge ist sogar beides.
 
Zuletzt bearbeitet:
Wie Dude richtig erkannt hat, heisst die Konkurrenz ARM, aber bei diesem Kampf der Architekturen kann AMD momentan nicht bzw. kaum mitmischen. :rolleyes:

Ähm was? K12 vergessen wie? AMDs neue Basis-High-End Architektur ist ARM. Zudem ist AMD einer der ersten Anbieter für 8-Kern-ARM-SoCs mit massivem I/O (viel PCIe, Cache, Netzwerkcontroller etc.), die über FreedomFabric laufen werden. AMDs gesamte Serverlandschaft 2015 ist ARM (+Berlin und Warsaw), Skybridge ist sogar beides.

Er spricht vom hier und heute, du von morgen ;)


Mich persönlich wundert aber der Drang in Richtung ARM doch schon etwas... Für mich ist "Server" nach wie vor das, was der AMD Opteron respektive die Intel Xeons sind. Nicht irgendwelche winzig Atom oder sonstwas Ableger. Wenn man also im Serverbereich (wieder) Fuß fassen will, dann wird das da wohl nicht mit irgendwelchen ARM Geschichten laufen... Wenn ich das richtig sehe dürfte der Anteil der LowPower Prozessoren bei Intel im Vergleich zur Xeon Reihe (E3, E5 und E7) winzig sein? Oder seh ich das falsch?
-> Klingt für mich eher so, als will AMD da weitere Märkte versuchen zu erreichen... Denn ob man Intel mit ARM Produkten ernsthaft Konkurenz im x86 Markt machen kann, sprich Produkte/Lösungen darauf umgestellt werden? Sehe ich als schwierig an...

Auch aus dem Grund, das ich (vermehrt im Netzwerkbereich) mittlerweile sehe, dass da einige Größen auch vermehrt auf Virtualisierung setzen und das Ganze dann auch eben primär auf x86 ausgerichtet ist. So hat es ne Sophos UTM halt in "Hardware" quasi mit Xeon Technik. (bis auf die kleinsten Modelle) oder irgendwelche virtuellen Cisco Appliances sind da länger schon mit x86 Techik versorgt, obwohl es von Außen faktisch nicht den Anschein macht, das da irgendwas "PC" technisches drin ist... Auch wenn es natürlich da klar auch Modelle mit ARM based Prozessoren gibt, keine Frage. Bis jetzt aber wenn ich das richtig sehe, eher die kleineren Versionen. (die kleine UTM 120/220 von Sophos, oder irgend ne mini Cisco ASA)
 
Den Thread haben ich nicht gelesen, aber dies muss man schon mal richtig stellen:

Seit dem hat Intel den Core 2 immer mehr verfeinert.

Mit dem Nehalem wurde der Speicherkontroller integriert, mit dem Sandy Bridge gab es durch mehrere Verfeinerungen auch wieder 15% oder mehr Leistung Pro Takt.
Nehalem und Sandy Bridge waren neue Mikroarchitekturen (Tock), Sandy Bridge wurde auch von einem anderen Team entwickelt als Nehalem.

Mit dem Ivy bridge ging es dann fröhlich weiter, und mit dem Haswell hat Intel wieder einmal seine CPU Optimiert.
Was damit dann auch falsch ist, Ivy Bridge war ein Die Skrink (Tick) von Sandy Bridge und Haswell wieder eine neue Mikroarchitektur. Bei den Ticks gibt es zwar auch kleine Optimierungen an der Architektur, aber vor allem den Shrink. Man sollte Intels Tick-Tock Entwicklungsstrategie kennen, wenn man darüber schreiben will.

dessen Nachfolger, den Skylake heraus, welcher wieder 5-15% mehr Leistung pro Takt haben wird.
Skylake kommt wieder von dem Teams was Sandy Bridge entwickelt hat, da kann man schwer vorhersagen, was die auf die Beine gestellt haben und ob ein ähnlicher Wurf wie damals mit Sandy Bridge geglückt ist. Wichtig sind vor allem die Verbesserungen beim Chipsatz wie die DMI 3 (entspricht PCIe 3.0 x4) Anbindung und mehr PCIe Lanes, die dann auch PCIe 3.0 sein werden.

Somit könnte der Skylake der im kommendem Sommer erscheinen soll, schon 15-30% mehr Leistung pro Takt bieten, als die jetzig verfügbaren modelle mit Haswell Architektur.
Wohl eher 15 als 30.

Während Intel seit 2006 bei einer Architektur bleibt und sie nach und nach veredelt und perfektioniert
Wie neu die neuen Mikroarchitekturen letztlich jeweils waren, darüber kann man wohl genauso end- wie fruchtlos diskutieren wie über die frage ob AMD Bulldozer Module wirklich 2 Kerne sind. Lassen wir das also, AMD bezeichnet ein Modul als zwei Kerne und Intel eine Mikroarchitektur als neu und wer das eine akzeptiert sollte auch das andere hinnehmen.
wechselt AMD im jahr 2015 nun schon zum 2ten mal die Hauptarchitektur für den Desktop, und will mit "Zen" wieder
Das stimmt schon eher, da es von Bulldozer bis Evacuator wirklich nur Optimierungen waren, was Zen bringt und ob Zen überhaupt noch kommt oder den ständigen Einsparungen oder wem Schwenk zur ARM Architektur zum Opfer fällt, kann noch keiner vorhersagen. Bulldozer wurde auch mit großen Vorschusslorbeeren versehen und groß angekündigt, war dann aber eine große Enttäuschung. Von daher würde ich einfach mal abwarten was am Ende rauskommt, denn die Aufgabe den Rückstand aufzuholen ist gewaltig, zumal Intel bei der Fertigungstechnik auch weit vorne liegt.

Zen wird keine Performance CPU, sondern auf effizienz getrimmt werden.
Wenn die Effizienz gut ist und auch gut skaliert, kann darauf auch leicht eine Performance CPU werden, da die Grundanforderungen sehr ähnlich sind, andernfalls wird es für Intel i7 keine Konkurrenz mehr geben.

AMD steckt nun also im Dilemma. Sie müssen hoffen das Gaming Freunde von AMD auf Games setzen welche mit Mantle optimiert sind
Da auch AMDs Marktanteil bei den Grakas schrumpft, wird das Dilemma nicht geringer, denn wenn der Marktanteil und damit die Verbreitung einen kritischen Punkt unterschreiten hat, wird es mit der Unterstützung neuer Technologieren wie Mantel und HSA schwer.
 
Der Servermarkt ist nicht so sehr abhängig von der ISA, von daher ist man mit ARM natürlich ganz gut bedient als Anbieter von Serverhardware/Software. Man lizenziert einfach die ISA und gut. Mit x86 ist das nicht möglich, deshalb tendiert der Servermarkt Richtung ARM, ganz einfach. Viele Firmen wollen weg von Intel, denn Abhängigkeit will keiner. Und Prozessoranbieter gibts ja einige, die ins Servergeschäft wollen. Es könnte sich einfach kostentechnisch sehr auszahlen Richtung ARM zu gehen. Das Ganze startet aber jetzt erst durch, deshalb zähle ich AMD zu den ARM-Server-Pionieren. Es gibt da noch andere, aber keinen, der schonmal dick im Servergeschäft war wie AMD. MMn hat AMD mit Seattle genau richtig die Kurve gekriegt. Und es war mMn auch richtig von AMD Mobiltelefone/Tablets nicht zu bedienen.
Es ist ganz klar, AMD tendiert wieder ganz klar Richtung "Dickschiffe" und möchte sowohl dicke ARMs im Serverbereich als auch konkurrenzfühige x86er für Server/Desktop/Mobile anbieten, deshalb gibt es Zen. Man plant quasi den Wiedereinstieg in den x86-Markt und gleichzeitig Pionierarbeit für moderne Servertechnik auf ARM-Basis.
Als Basis für das alles dient ein 20nm-Prozess - ob jetzt mit oder ohne FinFETs wird sich dann zeigen. Jedenfalls scheint sich AMD derzeit von TSMC komplett zu verabschieden und tendiert stark Richtung GloFo. Zudem gibts ja das ganze Interposergetöse. In Kombination kann das funktionieren, warten wir es ab.
 
Zuletzt bearbeitet:
Deswegen wird in den Tests ja vermehrt versucht, die GPU möglichst groß zu wählen um den Einfluss dieser auf die FPS Leistung der Messungen möglichst gering zu halten.
"Gering" ist er deswegen trotzdem nicht. Das ist ungefähr so, als würdest du deine Skier möglichst gut wachsen, um den Reibungskoeffizient so gering wie möglich zu halten. Hört sich toll an, ist es aber nicht, wenn du mal komplett ohne Reibung Ski fahren könntest. ;) Ach ja, und es ist nicht nur die GPU. Es kommen zB noch i/O Geschichten hinzu, wie zB die HDD/SDD, wenn Modelle, Texturen und dergleichen nachgeladen werden müssen.

"Ich behaupte mal, du kennst derartige CPU Leistungstests in Spielen ziemlich genau und ebenso ist dir der Umstand bewusst, dass dort eklatante Leistungsunterschiede zwischen den verschiedenen Modellen zu verzeichnen sind."
Die kommen aber weniger durch die CPU Architektur ansich zustande. Hautgründe dafür sind vor allem unterschiedliche Ausstattung (Takt, Kerne), I/O (Cache, Speicheranbindung, PCIe, Treiber, etc) und Softwareoptimierungen.

"Wie erklärst du denn, dass ein i3 im Mittel einem i7 (also bisschen mehr Cache, bisschen mehr Takt und doppelte Coreanzahl) weit unterlegen ist?"
Dann skaliert die Anwendung halt gut mit Kernen. Was ist daran jetzt aussergewöhnlich? Hat mit meiner Aussage doch nichts zu tun. Im Gegenteil, das bestätigt meine Aussage nur. In normalen multithreaded Anwendungen hast du meist eine sehr gute Skalierung. In Spielen ist eine solche Skalierung deutlich geringer, selbst wenn die Engine auf Multithreading ausgelegt ist. Hinzu kommen Inkonsistenzen, was man an Beispielen wie BF4 gut sehen kann. Je nach Architektur, Taktrate und Anzahl an Kernen fällt die Skalierung völlig unterschiedlich aus. Da müsste doch auch dir auffallen, dass nicht nur die CPU eine Rolle spielt. Selbst wenn man vermeintlich alle anderen Komponenten isoliert. Normale Benchmarks skalieren hingegen so gut wie immer gleich, egal welche Architektur, Taktrate oder Kernanzahl.

"Ich nehme lieber 16x PCIe 3.0 Lanes als 16x PCIe 2.0 Lanes... Warum? Ich kann trotz schmalerer Slotbreite gleich viel Daten/sec übertragen. Bei ner Single Steckkarte vielleicht uninteressant."
Sag ich ja. Im Moment nur geringer Nutzen.

Mich persönlich wundert aber der Drang in Richtung ARM doch schon etwas... Für mich ist "Server" nach wie vor das, was der AMD Opteron respektive die Intel Xeons sind. Nicht irgendwelche winzig Atom oder sonstwas Ableger. Wenn man also im Serverbereich (wieder) Fuß fassen will, dann wird das da wohl nicht mit irgendwelchen ARM Geschichten laufen...
Wieso nicht? Begründe das mal bitte plausibel. Wenn man sich Cyclone so anschaut, der ist weder winzig, noch schwach auf der Brust. Man sollte bitte nicht glauben, ARM bestünde nur Standard Cortex Designs. Gerade die Custom ARM Designs sind die wirklich interessanten. Der Knackpunkt wird aber sowieso weniger die Hardware sein, sondern vor allem das Softwareökosystem. Aber da tut sich ja mittlerweile auch einiges. ZB Microsoft hatte jüngst erst verlauten lassen, dass man auf ARM portiert.


Wie Dude richtig erkannt hat, heisst die Konkurrenz ARM, aber bei diesem Kampf der Architekturen kann AMD momentan nicht bzw. kaum mitmischen.
Im Gegensatz zu Intel hat AMD mit Seattle aber momentan bereits einen ARM Prozessor am Start. Und das ist kein kleiner mit 8 Kernen und 8 MB L3. Sozusagen die Low-Cost/Low-Power Variante von Orochi. Und das vermutlich bei ähnlicher Performance, aber wesentlich besserer Effizienz. Und das mit A57 Kernen. K12 wird nochmal eine ganz andere Hausnummer. AMD kann da sehr wohl mitmischen. ;) Momentan bietet gerade die Serverlandschaft aus Sicht von ARM noch viele Möglichkeiten. Und das kann sich sehr schnell auf Notebooks und Desktops ausweiten lassen. Ich könnte mir zB auch gut vorstellen, dass die Konsolen in Zukunft mit ARM SoCs von AMD ausgerüstet werden.


Eine CPU, die in Anwendung A gut abschneidet, muss nicht auch in Anwendung B gut abschneiden.
Du hast anscheinend überhaupt nicht verstanden, was ich sagte. Wenn eine CPU in Anwendung A mit Workload X gut abschneidet, dann wird sie auch in Anwendung B mit Workload X gut abschneiden. Schlechte Compileroptimierungen mal aussen vor gelassen. Gleiches kann man von Spielen eben nicht behaupten aufgrund der bereits genannten Ursachen.

Bloß keine Argumente.
Stimmt, umschreibt deine Behauptung ganz gut.
 
Der Servermarkt ist nicht so sehr abhängig von der ISA, von daher ist man mit ARM natürlich ganz gut bedient als Anbieter von Serverhardware/Software. Man lizenziert einfach die ISA und gut. Mit x86 ist das nicht möglich, deshalb tendiert der Servermarkt Richtung ARM, ganz einfach.
Tja, da wären noch IBM mit (Open)POWER und Oracle/Fujitsu mit SPARC.
Das sind zwar größere Kaliber, aber dafür gibt es bereits Software und Serverhersteller die, die Produkte anbieten.
Zwar bringt HP seinen Moonshot jetzt auch mit ARM CPUs raus, aber setzt lieber auf Applied Micro und TI.

AMD ist also alles andere als ein Pionier im ARM Geschäft (besonders, wenn man noch die diversen NAS-SoCs mitzählt).
Wenn man noch den von ARM dominierten Smartphone- und Tabletmarkt dazurechnet (in dem AMD gar nicht bis kaum vertreten ist),
wird aus AMD eine noch kleinere Nummer und die Zahl der Konkurrenten erhöht sich deutlich.
Und auch Intel schläft nicht und positioniert seine Stromspar-Xeons gegen die Konkurrenz von ARM, während die E7 die letzte Bastion der RISC Hersteller erobern sollen.

Warum sollte ein Serverhersteller wie z.B. Dell also auf AMD setzen, wenn
a) andere CPU Anbieter schon fertige ARM Lösungen liefern können
b) Intel mit vergleichbaren x86 Lösungen aufwarten kann

Da müsste AMD mit Zen schon einen richtigen Blockbuster landen, der leistungsfähiger als die Konkurrenz ist und dabei noch weniger Strom verbraucht
(was bei Intels Fertigungsvorteil schwierig werden dürfte), um die Firmen auf seine Seite ziehen zu können.
 
"Gering" ist er deswegen trotzdem nicht. Das ist ungefähr so, als würdest du deine Skier möglichst gut wachsen, um den Reibungskoeffizient so gering wie möglich zu halten. Hört sich toll an, ist es aber nicht, wenn du mal komplett ohne Reibung Ski fahren könntest. ;) Ach ja, und es ist nicht nur die GPU. Es kommen zB noch i/O Geschichten hinzu, wie zB die HDD/SDD, wenn Modelle, Texturen und dergleichen nachgeladen werden müssen.

"Ich behaupte mal, du kennst derartige CPU Leistungstests in Spielen ziemlich genau und ebenso ist dir der Umstand bewusst, dass dort eklatante Leistungsunterschiede zwischen den verschiedenen Modellen zu verzeichnen sind."
Die kommen aber weniger durch die CPU Architektur ansich zustande. Hautgründe dafür sind vor allem unterschiedliche Ausstattung (Takt, Kerne), I/O (Cache, Speicheranbindung, PCIe, Treiber, etc) und Softwareoptimierungen.

Aber komischerweise lassen sich die Ergebnisse vorhersagen. Und das Systemübergreifend. Es ist im Grunde "scheiß" egal, ob du da ne SSD oder ne HDD verbaust, von irgendwelchen Ladescreens mal völlig abgesehen, die mit SSD und viel RAM zweifelsfrei schneller durchlaufen als wenn man das nicht hätte. Der Performancefaktor in Sachen FPS wird dabei nur in den aller seltensten Fällen beeinflusst. Dennoch ist es so, dass du ein und das selbe System mit Wechsel von Board + CPU dazu bringen kannst, völlig verschiedene, vor allem aber nachvollziehbare Ergebnise abzuliefern. Es ist ja nicht so, das es willkürlich hin und her schwankt, nein es ist an der Komponente fest. Große, breite CPU mit hoher IPC/Takt = viele FPS, kleine schmale CPU mit wenig IPC/Takt = wenig(er) FPS. Noch dazu werden bei AAA-Titeln häufiger auch dedizierte CPU Tests gemacht. (CB und PCGH sind oft mit im Boot). Auffallend ist dort auch, dass oftmals ein gewisser Basistakt und eine gewisse Basis-Threadanzahl benötigt wird, für die grundlegende Funktion. Alles drunter bricht stark weg, während alles drüber eher mau bis gar nicht skaliert. Dennoch gibt es idR eklatante Unterschiede zwischen AMD und Intel Systemen...

Vergleichst du nun direkt AMD zu Intel bei Threadgleichheit, fällt in erster Linie bei Spielebenches auf, das wenig fette Cores (ggf. + SMT) häufig bessere FPS bringt als mehr schmale Cores in Modulbauweise. Auch fällt auf, wenn man eins und eins zusammen zählt, das die Thread/Breitenskalierung AMD intern und Intel intern quasi fast identisch ausfällt. Auch die Taktskalierung/IPC AMD intern und Intel intern ist quasi fast identisch.
Ja und nun zähl einfach eins und eins zusammen... Offenbar gibt es dann doch eine "Spieleperformance" bei CPUs, die eben direkt von der CPU (oder wenn du es unbedingt trennen willst) von den Teilen IN der CPU verschuldet sind.

Ganz ehrlich, ich kann gerade nicht ganz nachvollziehen, worauf deine Argumentation abziehlt. Denn es macht den Eindruck, als wird hier gerade versucht den Lesern die Augen zu verschließen, damit sie nicht auf Spielebenches gucken (weil da AMD schlechter dasteht) und stattdessen eher Anwendungen gebencht werden sollten (weil man dort besser dasteht). Für den nicht Spieler sicher die richtige Entscheidung, für den Spieler allerdings?

Dann skaliert die Anwendung halt gut mit Kernen. Was ist daran jetzt aussergewöhnlich? Hat mit meiner Aussage doch nichts zu tun. Im Gegenteil, das bestätigt meine Aussage nur. In normalen multithreaded Anwendungen hast du meist eine sehr gute Skalierung. In Spielen ist eine solche Skalierung deutlich geringer, selbst wenn die Engine auf Multithreading ausgelegt ist. Hinzu kommen Inkonsistenzen, was man an Beispielen wie BF4 gut sehen kann. Je nach Architektur, Taktrate und Anzahl an Kernen fällt die Skalierung völlig unterschiedlich aus. Da müsste doch auch dir auffallen, dass nicht nur die CPU eine Rolle spielt. Selbst wenn man vermeintlich alle anderen Komponenten isoliert. Normale Benchmarks skalieren hingegen so gut wie immer gleich, egal welche Architektur, Taktrate oder Kernanzahl.
Wenn ich mir das letzte CB CPU Rating in Spielen zu Rate ziehe, dann sehe ich eine Leistungsskalierung von 34% von einem i3-4330 zu einem i7-4770 bei in etwa gleichem Takt. Der Richland 6800K zu FX-8350 skaliert mit 26% in etwa ähnlich "ähnlich"...
Dennoch liegt zwischen dem langsamen Intel und dem schnellen AMD eine 3% Differenz zugunsten des i3!
Woher kommt denn die, wenn nicht von der CPU? Denn wir haben weiter oben ja festgestellt, das die Skalierung über den Takt und die Threads/Cores/Module doch in etwa gleich ist... Dann sagtest du, liegt an irgendwas anderem. Nur ist das Restsystem bis auf das Board vergleichbar. Gleiche GPU, gleiche HDD/SDD, quasi gleich schneller RAM. Es unterscheidet sich eben nur im Board und dem, was der jeweilige Hersteller da verbaut hat. Nur sind das wie angesprochen alles Sachen, die man nicht beeinflussen kann. Kaufe Intel und leb mit dem, was Intel da baut. Kaufe AMD und leb mit dem, was AMD da bringt. Es gibt stand heute nicht, kaufe AMD CPU und Intel "Board/System/IO-Geschichten" usw.
Vielleicht ist es rein technisch falsch ausgedrückt, den Zusammenhang auf die CPU abzuwälzen, da gebe ich dir durchaus recht. Aber man kann es schlicht nicht verändern... Wenn AMD CPU, dann inkl. allen Vor- und Nachteilen. Oder wenn Intel CPU, dann ebenso inkl. aller Vor- und Nachteilen.

Wieso nicht? Begründe das mal bitte plausibel. Wenn man sich Cyclone so anschaut, der ist weder winzig, noch schwach auf der Brust. Man sollte bitte nicht glauben, ARM bestünde nur Standard Cortex Designs. Gerade die Custom ARM Designs sind die wirklich interessanten. Der Knackpunkt wird aber sowieso weniger die Hardware sein, sondern vor allem das Softwareökosystem. Aber da tut sich ja mittlerweile auch einiges. ZB Microsoft hatte jüngst erst verlauten lassen, dass man auf ARM portiert.

Wie oben schon erwähnt sehe ich den Trend stand heute eher in Richtung Virtualisierung laufen. Gerade was den Netzwerkbereich angeht. Im Serverbereich sowieso, da wird doch außer im HPC Markt und bei kleinst Systemen schon fast ausschließlich virtualisiert... Die namenhaften Hersteller dieses Equipments scheinen da auch ganz heiß drauf zu sein. Sprich ich sehe dort den Trend eher weg vom Single Prozessor pro Device hin zu "großen" Büchsen mit einem oder wenigen Prozessoren für viele verschiedene Aufgaben. Und Stand heute steht dort wohl x86 zumindest noch!! als das Mittel der größten Flexibilität. Was man ja auch schon daran erahnen kann, dass eben Devices aus diesem Breich mit x86 Technik ausgestattet sind anstatt mit Alternativen. Warum macht man das? Entweder es war schweine günstig... Oder es gibt andere Pläne ;) Und es ist ja auch nicht so, dass alte Core2 based Systeme nun die Energieffizientesten wären... Dennoch finden sie Verwendung. Teils heute noch in Neuprodukten!
 
Leute kommt mal wieder runter! Etwas mehr Topic Bitte z.B. Twitch
 
Tja, IBM gibt es nicht mehr, die PC Sparte wurde komplett inklusive Patente von Globalfoundries übernommen.
Wobei man meinen könnte IBM wäre da etwas besser aufgestellt als AMD, Pustekuchen!

Power gibts schon noch, aber Power und SPARC sind absolute Nischenmärkte. Die Dinger werden nun aber eben nicht mehr von IBM selbst gefertigt, sondern von GloFo, mehr ändert sich da nicht. IBM wird die teure Prozessentwicklung und die teure East-Fishkill-Fab los und GloFo bekommt vollen Zugriff auf alle IBM-Fertigungsverfahren (also auch alles, was mit SOI in irgendeiner Form zu tun hat). ARM-Server drohen x86 als Standard-Markt abzulösen. Die fetten 2p/4p oder gar 8p-Maschinen sind ja auch nicht mehr so gefragt, NUMA ist auf dem Rückzug. In große Strukturen eingebettete 1P-Module mit 8-16 Threads sind schwer im Kommen. AMD verwendet (wie andere ARM-Serverhersteller auch) 8 A57-Kerne. Die werden dann später durch die eigene K12-Architektur mit ARM-ISA abgelöst, die sicherlich 16 oder 32 Thread-SoCs mit massivem I/O bieten mit 4 10GBit-LAN-Controllern oder so. Das ist die Zukunft. Auch andere Hersteller entwickeln dicke Custom-ARM-Kerne.
Mit dem Interposer-Krempel könnten die ARM-Hersteller sogar 4 32Thread-Dies verhältnismäßig preiswert auf einen Träger bringen, wer braucht da noch veralteten, superteuren 2p/4p-NUMA-Kram?
 
Zuletzt bearbeitet:
Die fetten 2p/4p oder gar 8p-Maschinen sind ja auch nicht mehr so gefragt, NUMA ist auf dem Rückzug. In große Strukturen eingebettete 1P-Module mit 8-16 Threads sind schwer im Kommen.

Stichwort Virtualisierung, wo du vor Jahren noch für jeden Dienst nen Single Server hingestellt hast, tuts heute ne Hand voll großer Bleche, und du betreibst alles virtuell.
Ich betreue auf der Arbeit gute 300 VMs verteilt auf in Summe knappe 25 Hosts. Davon liegen im Hauptcluster allein 200 VMs verteilt auf vier Hosts... Und die CPU ist nicht das Problem mit Auslastungen von im Tagesmittel 15-25%!
Der Bedarf geht entsprechend auch klar zurück. Ein Grund, warum die größeren CPUs auch immer teurer werden... Du kannst mehr machen und musst entsprechend mehr für Zahlen, weil weniger Menge umgesetzt wird.

Ob dabei nun NUMA ein Nachteil ist oder nicht? Würde ich nicht primär behaupten. Du kannst das Problem ganz elegant umgehen, wenn du viele kleine Aufgaben verteilt auf die NUMA Nodes betreibst... So das keine Querkommunikation notwendig ist. Dann hat es eher keinen Nachteil.

Was aber, wie oben erwähnt, schwierig erscheint, dass du mit ARM diesen Markt nicht überrumpeln kannst. Das klappt vielleicht bei einigen Diensten unter Linux, wo es gescheiten Code für andere Architekturen gibt. Aber keine Windows Server Appliakation läuft aktuell auf ARM! Das heist, nix mit Exchange, nix mit AD, nix mit MSSQL, nix mit Sharepoint, nix mit CRM und wie sie alle heißen ;)
Wenn Microsoft da nicht mitzieht, wird diese Bastion auf absehbare Zeit bei Intel bleiben... Und weg von diesen MS Diensten? Glaube ich passiert auf absehbare Zeit nicht.
Aus meiner Sicht ist die Wahl des Prozessors stand heute eher eine Frage der Anwendungen und der notwendigen Flexibilität. Die schnellste, effizienteste ARM CPU nutzt dir nix, wenn du keine Software hast, die darauf läuft. Oder andersrum, hast du Software, die x86 only ist, dann geht halt auch kein ARM.

Und der Part, das Cisco aktuell ganz stark auf virtuelle Lösungen im Netzwerk und Security Bereich baut (muss kein Nachteil für ARM sein!) lässt mich zumindest auch darauf schließen, dass dort der absolute Absatz zurückgehen wird. Wenn der Anwender am Ende dann seine Firewall/Router/Netzwerklösungen virtuell im Cluster betreibt, anstatt wie heute noch üblich, Hardware zu kaufen, wäre ebenso x86 weiterhin das Mittel zum Zweck. Einfach weil du die anderen Geschichten aktuell nicht für ARM bekommst aus Mangel an Hardware. -> könnte allerdings in 5 Jahren ganz anders ausschauen... Der Markt ist aber faktisch sehr träge bei sowas.
 
Ganz ehrlich, ich kann gerade nicht ganz nachvollziehen, worauf deine Argumentation abziehlt. Denn es macht den Eindruck, als wird hier gerade versucht den Lesern die Augen zu verschließen, damit sie nicht auf Spielebenches gucken (weil da AMD schlechter dasteht) und stattdessen eher Anwendungen gebencht werden sollten (weil man dort besser dasteht). Für den nicht Spieler sicher die richtige Entscheidung, für den Spieler allerdings?
Seit bald 10 Jahren trollt er sich mit dem gleichen Quatsch durch die Foren. Die Spiele-Leistung von CPUs misst man nun mal mit Spielen, die Resultate sprechen für sich und die Leute interessiert es. Dass Leistungsunterschiede "weniger durch die CPU Architektur ansich zustande" kommen, ist freilich Unfug, wie regelmäßige IPC-Tests von Architekturen bei gleicher Kernanzahl, Cache, Takt etc zeigen.
 
Zuletzt bearbeitet:
Im Gegensatz zu Intel hat AMD mit Seattle aber momentan bereits einen ARM Prozessor am Start.
Nein, alles was AMD hat, ist ein Evaluierungskit. Erst mit einem fertigen & marktreifem Produkt - oder noch besser, einem Produkt, dessen Umsatz bereits in die Bilanz einfließt - hätten sie etwas am Start.
So hat aber Applied Micro das Rennen um den ersten 64bit ARM für Server gemacht (Dell scheint bei seinen 64bit ARM Gehversuchen ebenfalls auf Applied Micro zu setzen).
Währenddessen werkeln andere ARM-Konkurrenten an eigenen Serverlösungen und verkaufen nebenbei noch SoCs für Smartphones & Tablets, während AMD dabei weitgehend leer ausgeht.

Ich will ja nicht bestreiten, dass K12 angesichts der renommierten Entwickler ein großer Wurf werden könnte, aber solange er nicht erhältlich ist, bleibt der große Wurf zunächst nur ein Wunschdenken.
Zudem stellt sich die Frage ob ein potentieller Kunde wie z.B. Apple überhaupt Interesse hätte von x86 mit Intel auf ARM mit AMD zu wechseln, wenn er über eine eigene Architekturlizenz für ARM Prozessoren verfügt.

Ich könnte mir zB auch gut vorstellen, dass die Konsolen in Zukunft mit ARM SoCs von AMD ausgerüstet werden.
Das könnte ich mir auch vorstellen, aber zunächst gilt der Vertrag mit dem Jaguar-SoC und ein Umstieg auf ARM käme erst mit der nächsten Generation in Frage,
wobei es dann auch mehr Wettbewerber geben wird als bei einer auf x86 basierenden Konsole.


Tja, IBM gibt es nicht mehr, die PC Sparte wurde komplett inklusive Patente von Globalfoundries übernommen.
Wobei man meinen könnte IBM wäre da etwas besser aufgestellt als AMD, Pustekuchen!
IBM gibt es immer noch und wie üblich macht IBM mehr Gewinn als AMD an Umsatz einfahren kann.
Die PC Sparte ging vor einem Jahrzehnt an Lenovo, während die x86 Server Anfang 2014 an die Chinesen veräußert wurden.
IBMs Chipfertigung in East Fishkill (NY) geht an Globalfoundries, wobei der Deal erst 2015 abgeschlossen sein dürfte und IBM eine Belieferung in den nächsten 10 Jahren zugesichert wird.

Ahnungslosigkeit war ja schon immer deine Stärke, aber was soll man von einem 88er Nick auch erwarten können? :rolleyes:
 
IBM gibt es immer noch und wie üblich macht IBM mehr Gewinn als AMD an Umsatz einfahren kann.
Die PC Sparte ging vor einem Jahrzehnt an Lenovo, während die x86 Server Anfang 2014 an die Chinesen veräußert wurden.
IBMs Chipfertigung in East Fishkill (NY) geht an Globalfoundries, wobei der Deal erst 2015 abgeschlossen sein dürfte und IBM eine Belieferung in den nächsten 10 Jahren zugesichert wird.

Ahnungslosigkeit war ja schon immer deine Stärke, aber was soll man von einem 88er Nick auch erwarten können? :rolleyes:
Hm, villeicht hätte ich die Quelle Angeben sollen: IBM fängt Hardwareschwund mit Einsparungen auf | c't

Mein Name ist Hase!
 
Seit bald 10 Jahren trollt er sich mit dem gleichen Quatsch durch die Foren. Die Spiele-Leistung von CPUs misst man nun mal mit Spielen, die Resultate sprechen für sich und die Leute interessiert es. Dass Leistungsunterschiede "weniger durch die CPU Architektur ansich zustande" kommen, ist freilich Unfug, wie regelmäßige IPC-Tests von Architekturen bei gleicher Kernanzahl, Cache, Takt etc zeigen.

Ich weiss nicht. Niemand trollt 10 Jahre, das ist ein Widerspruch in sich. Es gibt nunmal Überzeugungen und es ist auch nicht falsch seinen Überzeugungen zu folgen. Es ist nur eben oft lästig und kann natürlich auch verbohrt sein. Meistens handelt es sich aber um Missverständnisse, weil niemand so redet/schreibt, wie er wirklich denkt. Dazu ist Schrift/Sprache einfach nicht mächtig genug.

Und was das Thema Spiele angeht ist es doch ziemlich klar: Wenn neue Spiele auf massives MT mit zig Threads setzen wird IPC zunehmend irrelevant und Threadleistung wichtig. Damit sind die BDs dann plötzlich wieder konkurrenzfähig. Bei der letzten, grade zuendegegangenen Spielegeneration, die alle eh schnell genug laufen ist BD meist nicht konkurrenzfähig, daher diese gewaltigen Rückstände. Aber es ist doch so, dass sich die Applikationslandschaft ebenfalls stark geändert hat, seit der erste BD in einer Review zerrissen wurde. Heute redet keiner mehr davon, dass ein BD in nicht-Spielen einem entsprechenden SB unterlegen sei. Diese Veränderung findet jetzt mit den 8-Thread-Konsolen auch bei der jetzt aktuell werdenden Spielegeneration ebenfalls statt. Sicher, BD wird nie toll in Spielen sein, aber ein BD wird auch in Zukunft hier nicht gegen Limits stossen und das ist das Entscheidende.
 
Zuletzt bearbeitet:
Missverständnisse? Nein, viel eher Überzeugungen, die sich nicht mit Fakten belegen wohl aber widerlegen lassen, weil es eben nur Überzeugungen sind (idR geknüpft an persönliche Anfeindungen). Was die FX anbelangt: Erst mit nahezu idealem Threading liegt ein 8350 deutlich vor einem i5-4460, so weit sind aber nur die wenigsten Spiele. Threading alleine reicht nicht, auch die IPC muss halbwegs passen - da war Steamroller ein guter Schritt.
 
Tja, IBM gibt es nicht mehr, die PC Sparte wurde komplett inklusive Patente von Globalfoundries übernommen.
Das sind ja mal wieder massive Fehlinformationen, die IBMs PC Parte wurde schon vor Jahren von Lenovo übernommen: IBM-PC-Sparte ist seit zehn Jahren bei Lenovo | heise online

Was Du meinst ist die Chipsparte, die hat IBM gerade an Globalfoundries ist der Prozess wohl noch in nicht abgeschlossen.
Wobei man meinen könnte IBM wäre da etwas besser aufgestellt als AMD, Pustekuchen!
Wie kann man nur IBM und AMD als Konkurrenten sehen? Die beiden Firmen haben doch nun wirklich kaum Berührungspunkte. Geheim haben sie nur, dass beide mal Chips selbst hergestellt haben und die Fabs jetzt (bzw. bei IBM dann demnächst nach Abschluss der Transaktion) zu Globalfoundries gehören, aber die Chips haben doch nie miteinander konkurriert.
Davon könnte dann AMD auch profitieren, wenn es Globalfoundries mit IBMs Mitteln und Know-How gelingt den Rückstand in der Prozesstechnologie zu verringern oder gar aufzuholen, wobei letzteres schwer werden dürfte.

- - - Updated - - -

Und im übrigen ist die zukünftige Ausrichtung beide Firmen auch komplett unterschiedlich:
Von einem Ausstieg aus dem Hardwaregeschäft kann wohl bei AMD nicht die Rede sein, dann wäre auch nur noch wenig von der Firma übrig.
 
Und was das Thema Spiele angeht ist es doch ziemlich klar: Wenn neue Spiele auf massives MT mit zig Threads setzen wird IPC zunehmend irrelevant und Threadleistung wichtig. Damit sind die BDs dann plötzlich wieder konkurrenzfähig.

Aus Programmiersicht stimme ich da aber nur bedingt zu... MT ist nicht unbedingt ausschließlich dafür da, möglichst eine Sache schneller zu sachen, sondern soll doch viel eher mehr Sachen in der selben Zeit abhändeln. Das heist unterm Strich, die Basisleistung muss vorhanden sein. Egal in welche Dimension. Die "Höhe", also Takt/IPC muss stimmen und die "Breite", also Anzahl der Threads ebenso. Stimmt eins davon nicht, geht die Leistung runter... Und nur weil aktuell die Titel auch in die "Breite" gehen, heist das lange nicht, dass die Höhe irrelevant wird. Nichtmal zunehmend.
Man kann ja gerne mal einen Vergleich machen, Dual/Quadsockel Netburst Xeons (Mit HT) mit PCIe Schnittstellen gibts für relativ günstig zu erstehen... Spiel damit mal aktuelle Titel wie BF4. Da hast du breite CPUs, aber eben ohne IPC/Takt. Also die Höhe stimmt nicht und die Leistung ist deswegen trotzdem nicht da. Oder anders ausgedrückt, das fehlende Eine kannst du durch mehr Anderes eben nicht beliebig ausgleichen... Ganz anders als beispielsweise in Tools wie einem Cinema4D. Dem gerenderten Material ist es völlig egal, ob es durch xxx Threads läuft und bei nem einzelnen Thread und hohem Takt/IPC gleich schnell fertig wird. Im Gegensatz zu den Spielen lässt sich hier die Breite durchaus mit der Höhe ausgleichen.


Bei der letzten, grade zuendegegangenen Spielegeneration, die alle eh schnell genug laufen ist BD meist nicht konkurrenzfähig, daher diese gewaltigen Rückstände.
...
Sicher, BD wird nie toll in Spielen sein, aber ein BD wird auch in Zukunft hier nicht gegen Limits stossen und das ist das Entscheidende.

Die Frage ist, wer definitiv die Limits? Für den einen sind 30 FPS spielbar, der andere will 120 FPS. Ein ziemlich eklatanter Unterschied und vor allem letzteres erreichst du heute warscheinlich nur mit den schnellsten CPUs im Schnitt. Oder du verzichtest auf irgendwas in der BQ (sofern es geht)

Aus meiner persönlichen Sicht wird eine Hardware nicht schneller durch eine Software. Sondern die Software wird bestenfalls schneller durch eine Hardware. Das heist, nicht die Software muss sich nach der Hardware richten, sondern die Hardware sollte sich nach dem Bedarf an Leistung der Software richten. Niemand nutzt die tollste Hardware was, wenn die Software es nicht kann. Und niemand nutzt exobitant Leistung fordernde Software was, wenn es dafür keine Hardware gibt, die es stemmt. -> In Summe wird die Sache dabei zu einem simplen und ganz nüchternen Vergleich. Software starten, Hardware testen, Ergebnis notieren. Wer am Ende die Nase vorn hat, gewinnt den "Preis". Nicht mehr udn nicht weniger... Da braucht keiner ewig lange Diskusionen wie toll dies und jenes ist oder was mit XYZ an "Verbiegen" noch alles aus der Hardware zu holen geht. Ne, ehrlich nicht.

Ich weiss nicht. Niemand trollt 10 Jahre, das ist ein Widerspruch in sich. Es gibt nunmal Überzeugungen und es ist auch nicht falsch seinen Überzeugungen zu folgen.

Das Problem bei den Diskusionen hier ist aber, das viel zu viel emozionale Bindung zu einem Stück Silizium einfließt. Wenn ich sowas hier lese, dann wird mir fast schlecht:
"Generell ist Bulldozer aber alles andere als lahm. Die eigentliche Kernarchitektur ist sogar um einiges leistungsfähiger als die von Intel. Das Problem ist vielmehr, dass davon viel durch langsamere Caches, schlechtere Fertigungen und schlechtere Softwareoptimierungen verlorengeht." Das hat dann auch nix mehr mit Überzeugung zu tun. Sondern geht schon arg in die Richtung des bösen Wortes mit dem "t" vorn...
 
Aber wozu denn? Damit ich auf die Energieoptionen beim Spielen verzichten muss oder damit ich mehr als 200FPS auf meinem 60Hz TV darstellen kann?
Von mir aus kann die Auslastung bei 10% sein, wenn die FPS hoch genug sind, entsprechend weniger Verbraucht dann mein System auch.

Weil das Quatsch mit Soße ist. Du Verteidigst dein System lediglich.
Ich hatte damals selbst mit einer 7970 schon mit einem FX-8350 Probleme nicht immer ins CPU Limit zu rutschen.
Und jetzt willst du mir erzählen du kannst das CF mit einem FX-8350 ausfahren, wo noch zusätzlicher Overhead dazukommt? Not.

Mag ja sein, dass man genügend Performance hat oder das es Settings gibt, wo das keine Rolle spielt.
Im Mittel verschenkst du aber sicher 10 bis 20% Performance, teils auch erheblich mehr.

Es ging um Workloads. Die kannst du mit Anwendungen gezielt messen. Und zwar alles mögliche. Mit Spielen geht das nicht. Dort ist es ein Mix aus verschiedenen Workloads. Und der kann von Spiel zu Spiel ganz unterschiedlich ausfallen. Wenn deine CPU also in Spiel A gut abschneidet, heisst das noch lange nicht, dass sie in Spiel B genauso gut abschneidet.

Interessant dass du immer allen erzählen willst um was es geht.
Aber ich sags mal um was es geht. Spieleperformance

Und bei Anwendungen ist es das gleiche. Dort gibts CPU´s die in Anwendung A gut abschneiden und in Anwendung B abstinken.
Tatsache ist dass AMD CPU´s in Spielen wesentlich schlechter dastehen wie in Anwendungen und das liegt an der Leistung pro Takt und an den langsamen Chaches.
Spieleperformance misst man mit Spielen und Anwendungsperformance mit Anwendungen.


Dann zeig doch mal ein paar Messwerte wo das so sein soll.
Selbst bei 2 Threads Last ist die AMD CPU genauso ineffizient wie bei 8 Threads.
Bei 8 Threads und mehr wird die CPU eher wieder effizienter, als ineffizienter, absolut gesehen.

http://www.computerbase.de/2014-07/intel-core-i5-4690k-test-uebertakten-benchmarks/3/#diagramm-leistungsaufnahme-teillast-cinebench-1-cpu

Vergleiche doch einfach mal die Werte in Cinebench bei 1Thread und bei MUltithread.
Multithreaded wird der 7850k deutlich effizienter im Vergleich zum i5, dort ist der Abstand der Leistungsaufnahme auf die Threads gerechnet viel geringer als bei einem.

Das gleiche bei Bulldozer. Also wieder nur Märchen von dir.

Da können sie dann ja einen Klub mit Intel aufmachen. Die sind im Moment auf der Verliererstrasse

Na wenn Intel dann auf der Verliererstraße ist, ist es AMD ja noch umsomehr...;)

Ganz ehrlich, ich kann gerade nicht ganz nachvollziehen, worauf deine Argumentation abziehlt. Denn es macht den Eindruck, als wird hier gerade versucht den Lesern die Augen zu verschließen, damit sie nicht auf Spielebenches gucken (weil da AMD schlechter dasteht) und stattdessen eher Anwendungen gebencht werden sollten (weil man dort besser dasteht). Für den nicht Spieler sicher die richtige Entscheidung, für den Spieler allerdings?

Exakt das genau ist der Fall, genauso fing die Diskussion damals an.
Und da ging es nicht darum, dass man Spieleperformance nicht messen könnte, sondern in erster Linie darum, dass niedrige Auflösungen nichts zur CPU Performance aussagen.
Alles bereits widerlegt.

Mr.Dude ist ein Scharlatan, der versucht durch wissenschaftliche Haarspalterei die schlechte AMD Spieleperformance herunterzuspielen.
Was die Theorie angeht mag er recht haben, aber die hat bei weitem nichts mit der Spieleperformance von CPU´s zu tun, sondern mit den Vorgängen innerhalb der CPU, das könnte man genauso auf Anwendungen ummünzen.

Er akzeptiert das schlechte Abschneiden von AMD CPU´s in Spielen einfach nicht, das ist das einzige Problem und deswegen wirft er sich auf die Messungenauigkeit, was das Verhalten der CPU mit GPU und umgekehrt angeht.
Das sind wenige Prozent, völlig uninteressant.

Zur Sprache kam ebenso das "Softwarelimit" das für das schwache Abschneiden der CPU´s in Spielen verantwortlich ist.
Hieraus ergibt sich die nächste Polemik, dass quasi die AMD CPU nichts dafür kann, wenn nicht genug Threads supportet werden.

mr.dude schrieb:
"Gering" ist er deswegen trotzdem nicht.

Natürlich ist der Einfluss sehr gering, das wurde anhand x Messungen schon mehrfach anhand mehr CPU Takt gezeigt.
Liegt ein CPU Limit zu 99% vor, dann skaliert auch die CPU mit mehr Takt in dieser Form nach oben.
Sicher gibt es hier auch Einflüsse des Grafikkartentreibers, aber die sind auch wiederum nur minimal.

Dass das kein absolut Wissenschaftliches Messergebnis ist, ist völlig klar, weil Grafiktreiber und Karte eine Rolle spielen, die Rolle aber als so groß anzusehen, dass die Werte unbrauchbar sind, ist völlig Quatsch.
Dafür fehlen dir komplett die Begründungen und die Beweise oder Messungen.

Und die wirst du auch nicht liefern und nicht liefern können, denn wenn du das tust, dann widersprichst du dir quasi selbst und die Alibiargumente fallen in sich zusammen, was sie ohnehin schon tun, aber vielleicht würdest du es dann auch mal selbst merken, dass das Käse ist.

Zeig doch bitte Performancewerte die zeigen dass der Einfluss nicht gering ist.
boxleitnerb/y33H@ und andere haben mehrfach schon gezeigt, wie die CPU Skalierung in einem CPU Limit oder in einem annähernden CPU Limit aussieht.

Von dir kam nichts und jetzt kommt auch nichts.

Dein AMD Schöngerede mit inhaltlichen Lügen, tut mittlerweile schon ziemlich weh.

Bulldozer ist eigentlich Leistungsfähiger als Intels i7, na aber sicher doch.

Die Fertigung ist Schuld und die Caches sind schuld.
Wer wirklich glaubt der 32nm Prozess von Globalfoundries ist jetzt noch nicht ausgereift genug um auf dem Niveau von dem Intels 2011 zu sein, um wenigstens an Sandy Bridge heranzukommen, der muss schon ziemlich verwirrt sein.
AMD kämpft immernoch mit den Intel CPu´s von vor 6 Jahren.

Und zwar mit Nehalem.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh