AMD,s Gaming Zukunft 2015-2017

fdsonne
alles über 30fps. Das kann BD mit 3,5GHz+ und 6 Threads nahezu überall garantieren. Intel Konkurrenzprodukt als i3 aber nicht, der macht in modernen Spielen keine gute Figur mehr. Man kann mit IPC nicht alles erreichen, eben so wie BD mit seinen 8 schwachen Threads in der Vergangenheit ebenso schlecht aussah. Aber da war FPS-technisch aufgrund der niedrigeren Grundanforderungen trotzdem alles im grünen Bereich. In den Preisbereichen, in denen BD angeboten wird, ist er gut, ist halt ein Billigheimer, das hatte AMD in der Geschichte ja schon ein paar mal. Das Wichtige ist, dass er einen auch in Spielen nicht im Stich lassen wird, deshalb würde ich ihn den den Preisbereichen, in denen er angeboten wird auch viel eher empfehlen als einen i3. Denn die tolle Sparsamkeit nützt dir nix, wenn du mit einem FX6300+HD7870 DAI beispielsweise in allen Lebenslagen flüssig spielen kannst und mit einem i3 wirds dann u.U. eng. Die CPU-Last wird ja nicht weniger.

Schaffe89
Was am BD Schuld an der schlechten Spieleleistung ist, ist unmöglich zu sagen. Das muss ne Kombination aus einigen Faktoren sein, sonst hätte AMD das schon längst gefixt. Es wird nach wie vor das Frontend (also das komplexeste Teil) in Kombination mit dem langsamen I/O-Hub sein. SR versucht mit seinen Decodern die Latenzen etwas zu verringern, aber offenbar bringt das auch nicht die Welt. Deshalb nimmt Zen davon ja offenbar wieder Abschied. Dieser Architekturtyp mit mehreren Interger-Clustern hat eben auch Nachteile. Wobei ich ernsthaft denke, dass wir evtl. in 10nm sowas wieder sehen könnten, vielleicht sogar von Intel. Man kanns auch so sehen: Der Ur-K8 war visionär früh, der K9 und ur-K10 war immer noch viel zu früh und BD war nur noch zu früh... in 2018 passts dann :d.

IBMs 32nm-SOI-Prozess, auf dem der GloFo 32nm-Prozess basiert ist auch für extreme Die-Größen und Hachtakt-Deisgns mit 4GHz+ gedacht. Sowas wird normalerweise stark heruntergekühlt und braucht dann immer noch ordentlich Saft. Aber ich halte Intels 32nm-Prozess für noch deutlich schlechter. Das Sandy etwas besser als BD war, lag vor allem an der extremen Optimierungszeit, die Intel sich aufgrund der integrierten Grafik gegönnt hat. Sandy existierte ab Anfang 2009(!) in Silizium. Intel hat sich 2 Jahre und 8 Respins auf einem produktionsreifen Prozess Zeit gelassen, bis man ihn gebracht hat, das hat natürlich Früchte getragen. BD existierte ab Mitte 2010 als Silizium und dann wurde mit Prozessfehlern bis Mitte 2011 gekämpft... da muss man sich ja schon fast wundern, dass da tatsächlich noch was halbwegs brauchbares bei rumgekommen ist. Am Prozess lags meiner Ansicht nach definitiv nicht, der hatte "nur" Anlaufschwierigkeiten (wegen GateFirst vielleicht? War die allererste HKMG-Implementation für GloFo!). Allerdings hat AMD auch keine große weitere Arbeit da hineingesteckt. Es gab 3 Designs, Llano und Trinity mit je einem Respin (wobei Trinity sogar als Rev.A verkauft wurde) und Orochi mit 3 Respins (C0 ab Ende 2012 erst). Designs ohne großartige Optimierungsarbeit lauffähig gebügelt, rausgerotzt und fertig. Nicht mal um GCN hat man sich gekümmert in Trinity, das war schon zuviel Arbeit. Die eigentliche Arbeit ab 2012 ist in Zen und K12 geflossen. GCN melkt man bis zum Umkippen und der alte Kram wird so gut es halt geht weiterentwickelt um eine Hardwarebasis für die neuen Softwareprojekte zu schaffen (HSA insbesondere).
Das einzige, was AMD ab dem Prozessdesaster 2012 noch machen wird, man wird meiner Ansicht nach in Dresden mit GloFo zusammen einen eigenen 20nm-Prozess entwickeln, dessen "Abfall" 28nm SHP war.

Um mal ein Gefühl für die Zeiträume zu bekommen: (meine Schätzungen, wie es abgelaufen sein dürfte)
1.) BD-Entwicklung -> Beginn (der eigentlichen Chip-Entwicklung) Mitte 2007 (SSE5 als Stichwort), 45nm-Cancel in 2008, Neubeginn 2009 mit FMACs für 32nm -> Silizium ca. ab April/Mai 2010 -> Release nach einem Respin eigentlich April 2011, nach Problemen mit 32nm und üblen Cache-Timing-Fehlern Release erst Oktober 2011 -> erste C0-Samples zeitgleich, Release nach kleiner Piledriver-Erweiterung Oktober 2012 als C0 - seither nichts
2.) Trinity-Entwicklung -> Beginn irgendwann in 2010, Silizium ab Anfang 2011, Release April 2012, Rev.B alias Richland dann Anfang 2013 -> Projekt benndet
3.) Llano-Entwicklung -> Beginn 2009, Silizium ab April/Mai 2010 -> Release ursprünglich Januar 2011, nach Prozessproblemen erst Mitte 2011 (mit superschlechtem Yield in Massenproduktion) -> Projekt schon in 2012 beendet, weil man die Yields nicht in den Griff bekam. Das dürfte AMDs teuerster Prozessor ever gewesen sein
4.) Komodo/Sepang -> Beginn 2010 -> Cancel durch Interims-CEO
5.) Kaveri- Entwicklung -> Beginn 2011, Silizium ab 2012 - total unbrauchbare Prozesse (28nm SOI gecancelt, 28nm LPx von GloFo einfach unterirdisch) -> Prozessentwicklung in Kooperation mit AMD erweitert für 28 und 20nm HP (mMn) -> als Prozess prototypenfertig -> erneutes Tapeout A1 Kaveri Anfang 2013, Produktionsstart bei Prozessreife Ende 2013 -> Release Anfang 2014 als A1-Kaveri. Keine Architekturänderungen um Zeit zu sparen
6.) Excavator-(40h)-Entwicklung -> Beginn Ende 2011, Silizium 2012 abgrund des unzureichenden Prozesses gecancelt (28nm SOI gecancelt, 20nm SOI gecancelt, Abbruch der Kooperation mit IBM, 28nm LPx GloFo völlig unzureichend), Neuoptimierung des Deisgns (60h, unter Federführung von Jim Keller), erneutes Tapeout Ende 2013, Release Anfang/Mitte 2015 als Carrizo, recht stark durchoptimiertes Design (wahrscheinlich Bx, seit langer Zeit mal wieder) aber dafür "nur" in 28nm
7) Zen -> Projektstart irgendwann in 2011 -> Start der Chip-Entwicklung mit Neuzugang Jim Keller 2.HJ 2012 -> erstes Testchip-Tapout in eigenen 20nm (mMn) Ende 2013 -> Release als Cx durchoptimiert in 20nm Anfang-Mitte 2016 - gut Ding will Weile haben

Als Vergleich:
Sandy-Bridge -> Entwicklung sicherlich ab 2007 (nach Core2 eben, Quereinflüsse aus der Nehalem-Entwicklung) -> Silizium ab Anfang 2009 -> Release mehr oder weniger wie geplant Anfang 2011
Das sind ganz andere Zeiträume. Zu der Zeit hatte Intel einen Vorsprung (jedenfalls nach Zahlen) im Prozess von fast 2 Jahren
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
fdsonne
alles über 30fps. Das kann BD mit 3,5GHz+ und 6 Threads nahezu überall garantieren. Intel Konkurrenzprodukt als i3 aber nicht, der macht in modernen Spielen keine gute Figur mehr.

Deswegen würde ich es ja auch nicht auf diese zwei Produkte fest drehen... Denn wer sagt, dass der Kunde nur Geld bis zum i3/FX6 ausgeben kann? Die Palette ist weit größer, als dass die beim i3/FX6 aufhört. Der i3 hat eindeutig den Vorteil der hohen IPC Leistung und eben dem vergleichweise gutem Takt. Da er aber vergleichsweise schmal ist, hat das halt auch Nachteile. Das Ganze über einen Kamm zu scheren ist da wenig zielführend. Der Anwender bekommt schlicht nicht die Eierlegende Wollmilchsau für fast geschenkt... Das gibt es nicht. Um so sinniger ist es, nach dem Bedarf zu wählen.
Und wenn der Bedarf eben mehr ST als MT Software ist, pro i3. Wenn er mehr MT als ST Software ist, dann pro FX... Es wird immer Vor- und Nachteile geben. Der eine will noch ne IGP dazu -> da kann der FX gar nicht liefern. Der andere braucht diese nicht, da wäre der FX wieder im Rennen, wieder andere brauchen PCIe 3.0, M.2 Slots usw. -> auch hier kann der FX nicht liefern usw.

Unterm Strich? Das festzurren auf irgendwelche einzelnen Modelle bringt nix, wenn es nicht zum Bedarf passt. Und der Bedarf kommt klar vom potentiellen Kunden... Wenn Grün und Blau den Bedarf decken können, entscheiden halt andere Faktoren, wie Preis, Featureumfang, Verbrauch, Boardwahl usw. Im Grunde also normale rationale Denkweise... Nur sollte eben genau das auch so akzeptiert werden anstatt anzufangen (wie oben nun mehrfach ausgeführt), die Tatsachen so hinzubiegen, damit irgendwas gerade gut dasteht -> obwohl das völlig an der Realtät oder dem Bedarf vorbei geht!
 
Diese "I3 ist toll für Spiele" mag zwar oft gelten, aber leider meist da wo es nicht relevant ist oder bei Spielen die technisch richtig beschissen sind, wie SC2. Bei wirklich fodernden Games sieht das anders aus, beispielsweise DAI:
Dragon Age: Inquisition im Technik-Test - Jetzt mit CPU-Skalierungs-Benchmarks (Update)
Da sind 2 Kerne mit SMT total überfordert, da brauchts bereits 4GHz um überhaupt über die Spielbarkeitsmarke zu springen.

Wo steht das in deinem Link? Ich kann da nichts über den i3 lesen, ausser dass er ausreichen soll, um das Spiel zu spielen:

Wie man sieht, skaliert die Game-Engine mit bis zu acht Threads, oberhalb von drei Modulen/sechs Kernen sind die Zuwächse aber überschaubar. Ohne einen 4-Thread-Prozessor (u. a. Core i3 mit SMT ...) läuft Dragon Age Inquisition definitiv nicht,...

Und viel interessanter ist doch diese Zitat aus deinem Link:

Und selbst unser Testrechner, ein Intel Core i7-4790K @ 4,5 GHz hängt unter Direct X 11 mit mindestens einem Thread nahe der maximalen Auslastung.

D.h. es gibt anscheinend einen Masterthread, der die Leistung limitieren kann. So etwas gibt es meines Wissens in den meisten Spielen - egal ob neu oder alt. Deshalb sollte man als Gamer immer zu einer CPU mit möglichst hoher Pro-Thread Leistung greifen. Eine lahme AMD CPU würde ich als Gamer niemals nehmen.

Intel Konkurrenzprodukt als i3 aber nicht, der macht in modernen Spielen keine gute Figur mehr.

Hast du dafür einen Beleg? Habe ich verpasst, dass es schon BF5, Crysis 4 oder einen neuen Elder Scroll Titel gibt? Denn ansonsten finde ich diesen Benchmark immer noch recht treffend:


Quelle

Und sollte der i3 tatsächlich eines Tages nicht reichen, kann man ihn problemlos gegen einen i5, i7 oder Xenon für mehr Power tauschen. Dagegen ist der Pseudo-8-Kern FX bereits das Ende der Fahnenstange. Wenn der nicht mehr reicht, dann muss man komplett umrüsten und vermutlich landet man dann eh bei Intel.

Wozu sollte man also heute einem Gamer noch so einen gammeligen AMD Schrott empfehlen? Ernsthaft. Aus Mitleid für AMD? Nicht wirklich.
 
Zuletzt bearbeitet:
Es ist ganz klar, AMD tendiert wieder ganz klar Richtung "Dickschiffe" und möchte sowohl dicke ARMs im Serverbereich
Kein bisher angekündigtes ARM Server Produkt ist für "Dickschiffe" geeignet, unter anderem weil den ARM CPUs einfach die IO-Bandbreite fehlt. IBM ist dabei den POWER8 für Kunden zu öffnen unter anderem Google und Mitac (Tyan) sind mit an Board.

- - - Updated - - -

Die fetten 2p/4p oder gar 8p-Maschinen sind ja auch nicht mehr so gefragt, NUMA ist auf dem Rückzug.
Die Brot&Butter Server Büchse hat zwei Xeon E5 drin, es gibt kaum noch Xeon E5 Single Socket Systeme auf dem Markt. 4 und 8 Sockel Systeme sind deutlich teurer, aber wenn man sich gerade den SAP HANA Hype anschaut, dann sind Xeon E7 4 und 8 Sockel Maschinen gerade gut genug. Oracle, Fujitsu und IBM haben damit ein Problem, weil die BigIrons billiger werden müssen. IBM hat mit der Öffnung der Power Plattform reagiert, mal sehen was daraus wird und was Oracle und Fujitsu machen werden.
 
Weil das Quatsch mit Soße ist. Du Verteidigst dein System lediglich.
Ich hatte damals selbst mit einer 7970 schon mit einem FX-8350 Probleme nicht immer ins CPU Limit zu rutschen.
Und jetzt willst du mir erzählen du kannst das CF mit einem FX-8350 ausfahren, wo noch zusätzlicher Overhead dazukommt? Not.

Mag ja sein, dass man genügend Performance hat oder das es Settings gibt, wo das keine Rolle spielt.
Im Mittel verschenkst du aber sicher 10 bis 20% Performance, teils auch erheblich mehr.
Na dann zeig mir mal ein paar Frametimes von einem Intel System mit standard Takt.
Es wird schon seine Gründe haben, weshalb die meisten Redaktionen ihre Systeme übertakten. ;)

Ich bin einfach zu faul etwas zu ändern wegen 10-20%.
 
AMD,s einziger vorteil (6-8 Kerne für Lau) wird mit Zen schwinden, und somit auch die Extra Performance in Spielen wie Battlefield/StarCitizen und anderen 8 Kern Fähigen Spielen.

Dafür bringt AMD dann 2015 oder 2016 einen Quad Core, der zu 100% schwächer wird als Haswell, und aufgrund seiner igpu auch vom Fertiungsprozess her nicht so hohe taktraten erreichen können wird wie ein 32nm Bulldozer.

Wer brauch das ?

Wenn AMD wieder im gaming segment einsteigen wollte, hätten sie viel lieber die letzten Jahre darauf hingearbeitet zu 2015 eine neue Plattform zu bringen, mit 3 & 4 Modul Excavatorn ohne iGPU und mit L3 Chache. Eigene masken versteht sich, und keine deaktivierten iGPU,s die die fertigung erschweren und Platz auf dem DIE wegnehmen.

Dann 2016 den Shrink auf den neuen 16/20nm und DDR4 Support und 2017 dann wieder einige Architektur Optimierungen ähnlich wie bei Intels Tick Tock.

Fakt ist, Tests zeigen das der L3 Chache bei den Bulldozern sehr wichtig ist. So war zb ein Piledriver ohne L3 in games nicht schneller als ein Bulldozer MK1.

Daran sieht man das ein L3 Chache gerade in games doch bis zu 10% IPC ausmacht.
Steamroller fehlt dieser und hat nur 2 Module und ist daher für alle Gamer welche Grafik Karten benutzen uninteressant da er quasi nur ein Vishera FX4 mit schlechterem Taktverhalten ist.

Wir hätten mit einem Excavator mit L3 also mal eben eine mindestens 10% Schnellere CPU, und evtl sogar 20-25% schnellere CPU als die derzeitigen Kaveris.
Das gepaart mit 3-4 Modulen und schon könnte AMD viele gamer locken.

Dann halt nächstes Jahr Shrinks + DDR4 und wir hätten auch keine krassen Effizienznachteile mehr, aber nein amd verwurstelt ja alles mit APU,s....
 
Zuletzt bearbeitet:
Seit bald 10 Jahren trollt er sich mit dem gleichen Quatsch durch die Foren. Die Spiele-Leistung von CPUs misst man nun mal mit Spielen, die Resultate sprechen für sich und die Leute interessiert es. Dass Leistungsunterschiede "weniger durch die CPU Architektur ansich zustande" kommen, ist freilich Unfug, wie regelmäßige IPC-Tests von Architekturen bei gleicher Kernanzahl, Cache, Takt etc zeigen.
Um einfach mal deine Zahl 10 zu nehmen.

Und seit 10 Jahren kommen immer die gleichen Texte von immer den gleichen Leuten. Niemals hat auch nur einer von den Leuten an einer CPU Architektur gearbeitet. Niemals hat auch nur einer jemals bei AMD seine Vorstellungen vorgebracht.

Was ist also an deinem Beitrag anders?
Wie bringen Intels Server CPU einen Zusammenhang zum Thema AMD Gaming Zukunft?
Wo bleiben deine Worte der Mahnung beim Thema zu bleiben?
Warum gehst du auf ein Themen ein, dass schon tausendmal geschrieben wurden, anstatt hinzuweisen, dass das Thema damit verfehlt wird?
Das Thema CPU Test unter Spiele ist hier völlig fehl am Platz.

Zu diesem Thema kann man maximal schreiben, dass wir bis 2016 warten müssen. Mal sehen was AMD mit der neuen Architektur und Plattform bringen wird. Fertig. Nebenbei könnte man noch darüber schreiben, wie wohl die Architektur aussehen könnte.

Aber Hauptsache die Moderation löscht meinen Beitrag und selbst der Moderator fdsonne macht fleißig beim verfehlen vom Thema mit.

Ich sehe die AMD Spiele CPU Zukunft als ungewiss an. Wir haben einfach keine Ahnung was AMD leisten wird. Die Prognose kann man negativ sehen, weil eben schon lange nichts mehr aus dieser Richtung kam.
AMD hat gute Produkte, allerdings ist die Konkurrenz Intel groß und bietet am Ende nichts wirklich schlechteres an, doch aber auch viel besseres.
Alle anderen Felder die AMD bedient, haben absolut nichts mit diesem Thema zu tun. Klar könnte man nun noch über Grafikkarten schreiben. Nur was würde dann dieses Thema unter dem Unterforum CPU machen?
 
Zuletzt bearbeitet:
AMD,s einziger vorteil (6-8 Kerne für Lau) wird mit Zen schwinden, und somit auch die Extra Performance in Spielen wie Battlefield/StarCitizen und anderen 8 Kern Fähigen Spielen.

Dafür bringt AMD dann 2015 oder 2016 einen Quad Core, der zu 100% schwächer wird als Haswell, und aufgrund seiner igpu auch vom Fertiungsprozess her nicht so hohe taktraten erreichen können wird wie ein 32nm Bulldozer.

Wer brauch das ?
Manchmal denke ich die Leute hier glauben alle hochbezahlten Mitarbeiter bei AMD seien dumm wie Brot :hmm:

Glaubst du ernsthaft, wenn das was du sagst stimmen würde, würden sie es so durchziehen?
Ich bin mir recht sicher wenn überhaupt, dann wird etwas sinnvolleres kommen als ein direktes, aber schlechteres Konkurenzprodukt zu Intel!
Was genau? Dafür ist es zu früh um das zu beantworten.
Denkbar sind größe RAM Mengen onDie (ala HBM) und/oder ordentliche IGP (>Intel's) die durchgängig die CPU bei Berechnungen unterstützen kann, etc, etc.

Warten wir es ab...
 
Ich hoffe ja das zumindest mal irgendwann Folien auftauchen oder Herr Keller mal was twittert oder was weiss ich an dem man ungefähr sehen kann was wir erwarten können.
Bei mir steht ein Umzug meiner Rechner an. Ich habe einfach keine Lust mehr zwei Desktop Rechner zu besitzen an zwei Orten.
Also werde ich in ein Enthoo Evolv ziehen welches ich mit nehmen kann. Und da bleibt bei dem Formfaktor einfach nur der Griff zu Intel.
Wird noch einige Zeit dauern, aber wenn man keine Info bekommt ob sich das Warten lohnt, dann wird es bei mir zum ersten Mal seit ich einen PC besitze eine Intel CPU so Leid mir das tut.
Zumal ich jetzt schon gerne mehr Min FPS hätte mit meinem 144Hz Super Duper haste nicht gesehen Monitor.
 
Manchmal denke ich die Leute hier glauben alle hochbezahlten Mitarbeiter bei AMD seien dumm wie Brot :hmm:

Glaubst du ernsthaft, wenn das was du sagst stimmen würde, würden sie es so durchziehen?
Ich bin mir recht sicher wenn überhaupt, dann wird etwas sinnvolleres kommen als ein direktes, aber schlechteres Konkurenzprodukt zu Intel!
Was genau? Dafür ist es zu früh um das zu beantworten.
Denkbar sind größe RAM Mengen onDie (ala HBM) und/oder ordentliche IGP (>Intel's) die durchgängig die CPU bei Berechnungen unterstützen kann, etc, etc.

Warten wir es ab...

IGPU,s hat amd ja jetzt schon bessere als Intel, aber was nützt es wenn die meisten gamer eine grafik karte nutzen (weil den meisten gamern sogar eine R9 270 zu lahm ist) und die igpu softwaretechnisch nur eine handvoll spiele mit mantle supportet ?
(only browsergame gamer meine ich übrigens nicht mit gamer)
 
Zuletzt bearbeitet:
Kann ja noch deutlich stärker werden als die aktuellen APUs.
Wenn ordentlich CPUleistung da ist (wenn auch lange nicht bei Haswell) und auch das aktuelle Bandbreitenproblem durch HBM gelöst ist, wäre eine ordentliche GPU onboard denkbar.
Sinnvoll wäre das natürlich nur wenn die GPU auch im Alltag unterstützen kann... allein die Gamer werden AMD's CPU-Sparte ziemlich sicher nicht wieder in die schwarzen Zahlen bringen.
 
Sinnvoll wäre das natürlich nur wenn die GPU auch im Alltag unterstützen kann...

Das ist das problem weswegen Zen für Gamer uninteressant wird es sei denn "low budge" systeme unter 600 euro.
 
AMD,s einziger vorteil (6-8 Kerne für Lau) wird mit Zen schwinden, und somit auch die Extra Performance in Spielen wie Battlefield/StarCitizen und anderen 8 Kern Fähigen Spielen.

Dafür bringt AMD dann 2015 oder 2016 einen Quad Core, der zu 100% schwächer wird als Haswell, und aufgrund seiner igpu auch vom Fertiungsprozess her nicht so hohe taktraten erreichen können wird wie ein 32nm Bulldozer.

Sieh es andersrum :fresse: AM3+ ist tot, ausgehend von Kaveri bspw. aktuellen AM1 und FM2+ Modellen kann es dann ja nur besser werden ;)
Und ob man acht Thread CPUs ganz aufgibt, vor allem mit den kommenden K12/Zen Geschichten, ist ja nicht raus... Ich denke nicht, dass AMD ewig auf vier Threads bleiben wird. Wohl aber, das heute auf FM2+ gar keine vier Moduler (inkl. L3 Cache) + dicke GPU drin wären. Der große Kaveri säuft unter CPU + GPU Last ja schon die Leistung fast weg, die der Sockel zu Bieten im Stande ist. Doppelt so breite CPU + womöglich noch breitere GPU wäre da wohl gar nicht drin stand heute. Und so eine Designstudie wie die FX9 CPUs für AM3+ will wohl auch nicht unbedingt Jeder haben...

Es wird schon seine Gründe haben, weshalb die meisten Redaktionen ihre Systeme übertakten. ;)

Ich bin einfach zu faul etwas zu ändern wegen 10-20%.

Die Gründe liegen auf der Hand, Teile davon wurden oben im übrigen schon erwähnt... übertaktete CPUs nutzt man in GPU Reviews um den Einfluss der CPU Geschwindigkeit bei GPU Tests möglichst gering zu halten und große, ggf. übertaktete GPUs nutzt man bei CPU Tests um eben den GPU Einfluss möglichst gering zu halten.
So erhälst du als Leser ein Bild von der Komponente, was sie zu leisten im Stande ist, wenn sie quasi freien Lauf bekommt...

Interessiert dich das nicht unbedingt und du willst realitätsnahe bzw. realitätsnähere Benches/Werte, dann schau dich bei PCGH oder auch CB in den jeweiligen Spieletests um. Da werden idR mehrere CPUs und mehrere GPUs getestet. Und diese dann untereinander auch ohne OC.
Gibt dann halt bloß keine Gesamtübersicht über mehrere Titel, die kann man sich aber selbst erstellen, wenn einen das interessiert.

Zum Anderen, wenn es denn nur 10-20% wären ;) Benches zur Folge kann der Unterschied auf weit mehr wie 20% anwachsen. Je nach Spiel, Szene, Einstellung usw. halt. Aber mit einem CF bist du quasi schon in einem recht hohen Ungleichgewicht von GPU Power und CPU Leistung. Aber kann ja jeder halten wie er will. Laufen wird es stand heute auch mit AMD.

Und seit 10 Jahren kommen immer die gleichen Texte von immer den gleichen Leuten. Niemals hat auch nur einer von den Leuten an einer CPU Architektur gearbeitet. Niemals hat auch nur einer jemals bei AMD seine Vorstellungen vorgebracht.

Würde man bei allen Firmen arbeiten, deren Produkte/Machenschaften usw. man als potentieller Endkunde/User kritisiert, müsste der Tag weit mehr wie 24h haben... Dein Argument ist ziemlich dünn... Vor allem geht es auch gar nicht darum, das Produkt als solches schlechter zu machen als es ist, sondern viel eher den Vergleich zu waren.

Aber Hey, ich bewerb mich dann mal fix bei der NSA, schließlich gehe ich mit deren Methoden nicht ganz konform... ;)

Aber Hauptsache die Moderation löscht meinen Beitrag und selbst der Moderator fdsonne macht fleißig beim verfehlen vom Thema mit.

Das sehe ich etwas anders... Schau mal auf die Uhr. Da steht 11.12.2014! In so ziemlich genau drei Wochen ist 2015... Glaubst du ernsthaft, das man seitens der CPU Hersteller neue Produkte binnen der nächsten drei Wochen minus einem Tag zu sehen bekommt? Ich nicht... Ergo ist das, was wir heute sehen auch das, was wir zumindest für Teile von 2015 auch haben werden. Jegliche Diskusion über diese Produkte (ja das wird hier gerade gemacht) in Verbindung mit Gaming ist also voll im Themenrahmen.
Selbst der Ausflug über die Servergeschichten weiter oben, wenn man es von der Seite sieht, dass diese Produkte womöglich eben NICHT zum spielen taugen, kann man dabei also mindestens auch erwähnen. Eben nach dem Motto, wenn vorerst ARM Server-CPU, dann kein Produkt für Spieler... Der Spieler darf sich dazu sogar noch zurecht aufregen, wenn er der Meinung ist, dass diese Ausrichtung aufgrund der aktuellen Konkurenz in diesem Marktbereich als wenig erfolgreich ausschaut.

Im übrigen, der Themenbezug deiner nunmehr drei (oder vier??) Beiträge in diesem Thread ist bestenfalls dürftig, wenn überhaupt vorhanden... Glashaus und so. :wink:

Kann ja noch deutlich stärker werden als die aktuellen APUs.
Wenn ordentlich CPUleistung da ist (wenn auch lange nicht bei Haswell) und auch das aktuelle Bandbreitenproblem durch HBM gelöst ist, wäre eine ordentliche GPU onboard denkbar.
Sinnvoll wäre das natürlich nur wenn die GPU auch im Alltag unterstützen kann... allein die Gamer werden AMD's CPU-Sparte ziemlich sicher nicht wieder in die schwarzen Zahlen bringen.

Ich sehe bei der Geschichte HBM die Gefahr, dass es A) zu teuer wird und B) dass es einfach nicht genügend RAM Menge wird...
Für mich wären 8GB RAM für die CPU+GPU als shared Memory, wie es aktuelle APUs halten, das absolute Minimum. Ob das allerdings in 1-2 Jahren noch reicht? Abwarten. HBM scheint faktisch nicht mehr aufstockbar zu sein. Also mal eben fix zwei 8GB Riegel nachschieben, wenn es Eng wird, ist dann nicht mehr.

Auch sehe ich irgendwie das Konzept von HSA damit etwas in Mitleidenschaft gezogen... Denn man will ja den shared Memory für GPU und CPU Part. Der CPU Part profitiert aber höchstwarscheinlich sogut wie gar nicht von der Bandbreite. Wohl aber sollte die Größe angemessen sein (FM2+ heute bis 32GB steckbar, 64GB womöglich mit 16GB DDR3 Modulen auch?) Wärend der GPU Part diese quasi zwingend braucht. (da werden aber für die GPU allein keine riesigen Mengen benötigt, mit 2-4GB sollte das auf absehbare Zeit ausreichend sein)
Wie also unter einen Hut bringen? -> wenn das Mittel zum Zweck dann die Splittung von GPU und CPU RAM in verschiedene Techniken ist, passt es definitiv wieder nicht mit HSA so recht unter einen Hut. Ein Kompromiss muss also her und mich dünkt, dass dieser zu ungunsten der absoluten Speichermenge ausfallen wird.
 
Zuletzt bearbeitet:
Wie bringen Intels Server CPU einen Zusammenhang zum Thema AMD Gaming Zukunft?
Der Servermarkt war für AMD äußerst wichtig, weil darüber auch die Entwicklung der für Gamer relevanten Desktop CPUs finanziert wurde. AMD verwendete denselben Die für Desktop (insbesondere Gamer CPUs) und Server CPUs, selbst in den Opteron 6x00 stecken zwei Dies drin, die sich auch wieder im Desktop wiederfinden. Da Intel nun den Servermarkt komplett aufgerollt hat, kann AMD hier nichts mehr verkaufen. Aus diesem Grund fehlt das Geld neue CPUs zu entwickeln. Zudem hat AMD früher nie das Kapital sowie Intel zwei CPU Familien für Desktop und Server getrennt zu entwickeln.
 
allein die Gamer werden AMD's CPU-Sparte ziemlich sicher nicht wieder in die schwarzen Zahlen bringen.

Das ist hier im Forum das Denkproblem schlechthin. 80% der Posts beziehen sich auf Games und Nerds. Im Bekanntenkreis spielen bei mir 3 von 10 Leuten Games.

Der Rest surft, macht Excel, Photoshop, Word, PDFs und druckt alle Jahre wieder Dokumente. 5 von 10 Leuten nutzen ein Notebook. Für genannte Tätigkeiten reicht jede CPU mit Onboardgrafik. Die Performance ist zweitrangig.

Worauf schauen diese Leute:
- Das Angebot und Image (Was für Produkte gibt es? - Intel zu 80%)
- Der Preis (Wenn eine Marke den Markt überschwemmt, vergleiche ich die Produkte untereinander.)
- Der Verbrauch (Green IT)

* AMD muss sein Image aufpolieren!
* AMD muss zuerst seine Produkte besser vermarkten!
* AMD muss effizienter werden!
* AMD muss seine Performance erhöhen!

MMn versucht die Firma dies in kleinen Schritten. Das Budget bei 1.5 Mrd Umsatz und +|- Gewinn lässt keine großen Sprünge zu. Die müssten eine Revolution am Markt lostreten mit einem Bombendesign. Ob sich so ein Genie findet, der gängige Prozesse auf den Kopf stellt? :hmm:

Bisher hatte ich viele Plattformen unter meinen Fittichen, angefangen mit 486, K6... Ivy, FM2+. Mit jedem System konnte ich arbeiten und spielen. Meistens war die Grafikkarte der limitierende Faktor. Wenn Spiele mit besseren Treibern, neuer API und guten Multithread Design kommen werden, wird das Limit die Grafikkarte vorgeben. Hoffe bis dahin, das AMD eine ordentliche günstige CPU anbietet. Wünschen würde ich mir das die Firma eine richtigen Knaller auf dem Markt bringt.
 
Zuletzt bearbeitet:
Ich denke nicht, dass AMD ewig auf vier Threads bleiben wird. Wohl aber, das heute auf FM2+ gar keine vier Moduler (inkl. L3 Cache) + dicke GPU drin wären.

Was ja auch so gut wie kein Gamer will. Ein Gamer interessiert keine dicke GPU in der CPU so wie sie AMD zz mit dem Kaveri hat.

Der Gamer kauft sich seine R9 290/280 oder Geforce 770/970 etc und achtet bei der CPU Wahl neben verbrauch und Preis nur auf aussreichend CPU Power für seine Games.

Daher finde ich diesen APU Quatsch von AMD total Kostspielig und unpassend im moment. Wenn AMD unbedingt eine gpu in einer CPU haben wollte, hätten sie nicht so viel Geld und Ressourcen in eine Starke APU stecken sollen, sondern eine schwache APU für Büromaschinen etc und eine Gute CPU für Server und Gamer entwickeln sollen.

28nm hat AMD evtl einen strich durch die rechnung gemacht, aber die hätten mit Richtigen CPU,s Garantiert mehr absatz gemacht als im moment mit diesem nichts halbem nichts ganzen.
 
* AMD muss sein Image aufpolieren!
* AMD muss zuerst seine Produkte besser vermarkten!
* AMD muss effizienter werden!
* AMD muss seine Performance erhöhen!
Jop, das hat AMD bitter nötig. Intel-CPUs gelten immer als zuverlässiger und schneller, Nvidia GPUs gelten ebenfalls als zuverlässiger und schneller. Dabei ist beides nicht wahr ( na gut, Intel-CPUs sind momentan wirklich schneller ). Es ist schon bezeichnend, wenn Leute sich das Maul über ein kaum bekanntes Produkt zerreißen und es von vornherein schlecht reden. Die 290X kann in eigentlich allen Belangen mit Nvidias Spitze mithalten, je nach Spiel auch ausstechen und bis auf den teuren Mega-Brocken von Chip, dem GK110 mit 0,55cm² Fläche, steht AMD den Nvidia-Pendants in nichts nach. Auch Preis/Leistung stimmt bei fast allen AMD Karten, aber überall wird nur Nvidia empfohlen, warum auch immer. Auch das Gerede über miese Treiber kann ich seit den Catalysts kaum nachvollziehen, es gibt bei Launch optimierte Beta-Treiber für neue Spiele und ich fahre seit der HD 4870 nur noch AMD Karten in meinem Gaming-PC, niemals Treiberprobleme gehabt.

Bei den CPUs ist ein FX8350 auch noch ausreichend für eigentlich jedes Spiel, natürlich würde heute niemand bei klarem Verstand einen 8350 für einen Neukauf empfehlen, die CPUs sind fast 3 Jahre alt. Aber auch hier fühlen sich viele, warum auch immer, genötigt eine Intel-Plattform zu kaufen obwohl der 8350 sicher nicht der Flaschenhals ist. AMD hat wirklich ein Image-Problem, bei den APUs ( die Intels Versuchen überlegen sind ) wird ebenfalls rumgenölt die könnten nicht - ich habe vor ein paar Tagen Enslaved - Odyssey to the West in 1080p und hohen Details auf einem A10-5800k gespielt sowie Batman -Arkham City in 720p und hohen Details - mit einer APU!

Die müssten eine Revolution am Markt lostreten mit einem Bombendesign. Ob sich so ein Genie findet, der gängige Prozesse auf den Kopf stellt? :hmm:
Ich denke, der Keller als Lead Designer wird da schon was ziemlich ordentliches auf die Beine stellen. Wenn man sich ansieht, an was der gute Mann seit dem K8 so alles gearbeitet hat, glaube ich nicht an eine nur mittelmäßige Architektur. Das einzig große Problem von AMD sehe ich in der Fertigung und man kann nur hoffen, dass die Auftragsfertiger endlich Anschluss an Intel finden. Momentan sieht es auch gar nicht mal so schlecht aus, erste 16nm FinFETs kommen langsam aus ihren Löchern gekrochen und mit dem Abkommen zwischen Samsung und GlobalFoundries wird eine Menge Zeit und Kosten gespart. Wenn es GF nicht verhaut und bis zum ZEN-Release anständige 16-12nm hin bekommt, sollte es ein netter Zweikampf werden.
 
Die Gründe liegen auf der Hand, Teile davon wurden oben im übrigen schon erwähnt... übertaktete CPUs nutzt man in GPU Reviews um den Einfluss der CPU Geschwindigkeit bei GPU Tests möglichst gering zu halten und große, ggf. übertaktete GPUs nutzt man bei CPU Tests um eben den GPU Einfluss möglichst gering zu halten.
So erhälst du als Leser ein Bild von der Komponente, was sie zu leisten im Stande ist, wenn sie quasi freien Lauf bekommt...

Interessiert dich das nicht unbedingt und du willst realitätsnahe bzw. realitätsnähere Benches/Werte, dann schau dich bei PCGH oder auch CB in den jeweiligen Spieletests um. Da werden idR mehrere CPUs und mehrere GPUs getestet. Und diese dann untereinander auch ohne OC.
Gibt dann halt bloß keine Gesamtübersicht über mehrere Titel, die kann man sich aber selbst erstellen, wenn einen das interessiert.

Zum Anderen, wenn es denn nur 10-20% wären ;) Benches zur Folge kann der Unterschied auf weit mehr wie 20% anwachsen. Je nach Spiel, Szene, Einstellung usw. halt. Aber mit einem CF bist du quasi schon in einem recht hohen Ungleichgewicht von GPU Power und CPU Leistung. Aber kann ja jeder halten wie er will. Laufen wird es stand heute auch mit AMD.
So schaut ein gutes Review aus: Overclocking Intel's Pentium G3258 'Anniversary Edition' processor - The Tech Report - Page 3
Wenn es nur FPS Angaben gibt dann Bitte Vollständig mit Minimum, AVG und Maximum wobei Min-Max keine Mittelwerte sein sollten.

Ausnahme bei dem Test ist der x264 Benchmark, ein I5-2500 soll schneller als ein FX-8350? lol
 
ich habe vor ein paar Tagen Enslaved - Odyssey to the West in 1080p und hohen Details auf einem A10-5800k gespielt sowie Batman -Arkham City in 720p und hohen Details - mit einer APU!

Das Lustige ist ja, das die iGPU im Kaveri in der lage ist Titel wie Wold of Tanks in Hohen Details Darzustellen, aber die CPU Leider nicht :fresse:

Aber okay das ist Kirschenpickerei meinerseits weil world of tanks quasi der AMD killer schlechthin ist. aber ist leider nunmal eines der meistgespielten games der welt zz und auch mein lieblingsgame atm :drool:
 
Das Lustige ist ja, das die iGPU im Kaveri in der lage ist Titel wie Wold of Tanks in Hohen Details Darzustellen, aber die CPU Leider nicht :fresse:

Wäre interessant, wie es mit Mantle aussehen würde :d
Wobei ich mich frage, woher der riesen Workload kommt. Das Game sieht aus wie Operation Flashpoint >_>
 
Das ist hier im Forum das Denkproblem schlechthin. 80% der Posts beziehen sich auf Games und Nerds. Im Bekanntenkreis spielen bei mir 3 von 10 Leuten Games.

Der Rest surft, macht Excel, Photoshop, Word, PDFs und druckt alle Jahre wieder Dokumente. 5 von 10 Leuten nutzen ein Notebook. Für genannte Tätigkeiten reicht jede CPU mit Onboardgrafik. Die Performance ist zweitrangig.

Ich stimme dir vollkommen zu. Um so problematischer ist aber dann auch die Auswahl der Hardware... Wenn alle potentiellen Kandidaten die Basis liefern, entscheiden halt andere Faktoren. Und da sieht es eben nicht minder gut aus, wie bei der reinen Performance. Das ist doch das Problem.
Hätten wir Modelle, die sich fast 1:1 in nahezu jedem Belang vergleichen lassen und vor allem, wo es keine eklatanten Nachteile gäbe, dann wäre doch die Diskusion gar nicht so festgefahren... Aus meiner Sicht kauft aber heute kein normaler Mensch bei klarem Verstand mit absicht das schlechtere Produkt, wenn er für welchen Mittelaufwand auch immer (und wie er das auch immer verargumentiert) ein für sich besseres Stück bekommt. Denn entscheidend ist der Preisrahmen. Wer 300€ für ne CPU ausgeben kann, wird dies auch tun. Eventuell lässt er sich überzeugen ein Modell für 200 zu nehmen. Aber versuch diesen Personen mal was für 50€ anzudrehen. Was funktioniert nicht!

Wir sind halt lange schon darüber hinaus, dass man weit oben im Regal einsteigen muss um die Basis abzudecken... Es entscheidet also nicht mehr die Basisleistung die Wahl des Produkts, sondern das was an "Bonus" oben drauf kommt. Das ganze gepaart mit dem Umstand, dass die Preise immer niedriger werden um die Basis zu befriedigen.
Ein 50€ Prozessor wirkt im Vergleich zu 300 oder 500€ von vor 5-10 Jahren einfach "billig".

Zweifelsfrei aber kein Problem vom Hersteller von CPUs. Definitiv nicht ;) Aber wenn dieser Hersteller dann nix an Produkten hat, die mehr bieten als diese günstigen Modelle, wirkt auch das für den potentiellen Kunden eher negativ, möchte ich meinen...

28nm hat AMD evtl einen strich durch die rechnung gemacht, aber die hätten mit Richtigen CPU,s Garantiert mehr absatz gemacht als im moment mit diesem nichts halbem nichts ganzen.

Neja ich sag mal so, wenn man CPU seitig nicht weiter kommt und so sieht es ja im Moment aus (bis Zen/K12), dann muss man halt gucken, wo man sich eine Niesche schafft... Mit den APUs klappt das schon. Gerade im mobilen Markt klappt das... Mir persönlich fehlt aber etwas der Fokus auf die CPU. Etwas mehr CPU und etwas weniger GPU wäre da nicht minder verkehrt. Ich als Kunde habe aktuell einfach nicht die Wahl. Will ich mehr CPU als Kaveri kann (im Mobilen Markt), gibts halt nix. Egal auf welchem Sockel von AMD.
Andererseits sucht die GPU aber auch nicht mehr ihresgleichen... Stichwort Iris Pro von Intel. Vielleicht nicht ganz so schnell, aber gepaart mit nem vergleichsweise gut taktenden mobile i7 Quad. Da stehen fast 50-100% mehr CPU Power auf der Uhr, wenn es hoch kommt. Einziges Manko aktuell, der Preis. Schweine teuer... Aber gerade diese Preise würden auch AMD schmecken. Denn offenbar sind Kunden bereit dies zu zahlen.

Jop, das hat AMD bitter nötig. Intel-CPUs gelten immer als zuverlässiger und schneller, Nvidia GPUs gelten ebenfalls als zuverlässiger und schneller. Dabei ist beides nicht wahr ( na gut, Intel-CPUs sind momentan wirklich schneller ). Es ist schon bezeichnend, wenn Leute sich das Maul über ein kaum bekanntes Produkt zerreißen und es von vornherein schlecht reden. Die 290X kann in eigentlich allen Belangen mit Nvidias Spitze mithalten, je nach Spiel auch ausstechen und bis auf den teuren Mega-Brocken von Chip, dem GK110 mit 0,55cm² Fläche, steht AMD den Nvidia-Pendants in nichts nach. Auch Preis/Leistung stimmt bei fast allen AMD Karten, aber überall wird nur Nvidia empfohlen, warum auch immer.

Das was du gerade den Leuten vorwirfst, machst du unterschwällig aber exakt genau so ;)
Ich zum Beispiel kaufe NV GPUs, weil ich damit mehr Möglichenkeiten in Sachen BQ Optimierung habe. Stichwort DS(R), Stichwort AA-Bits... Da gibts noch ganz andere Themen, die man da aufführen könnte, wie FramePacing/MGPU Support usw.
Nur weil es irgendwann mal geliefert wird, heist das lange nicht, dass der zufriedene Kunde aufspringt und sofort zu Konkurenz rennt.
Auch wenn AMD die Tage VSR vorgestellt hat, fehlt es seit Jahren bspw. an einem Gegenstück zu den AA Bits...
Die Produktwahl, wie auch oben schon mehrfach erwähnt, wird um so schwieriger, wenn die Basisleistung passt. Und reinen P/L umgemüntzt auf absolute FPS pro Euro sind eben dann nur die halbe Wahrheit.
Hier muss der potentielle Käufer sich klar plazieren, was er will und was ihm wichtig ist. Ensprechend fallen Produkte aus dem Raster und andere rücken in den Fokus.

Auch finde ich das "Gemecker" über die Fokusierung potentieller Kunden auf einen Hersteller irgendwie etwas neben der Spur... Darf doch jeder kaufen was er will ;)


Ich denke wir müssen uns hier nicht darüber unterhalten, wie ein Review auszusehen hat. Das ist dann doch etwas arg am Thema vorbei...
Aber dein Link zeigt doch eigentlich ziemlich klar, was das Problem bei so Komplexen Reviews ist. Es ist einfach nicht die Zeit das flächendeckend zu machen... Bei dir sind zwar viele Detailwerte im Link zu sehen. Dafür aber nur ein Spiel. -> wenig aussagekräftig. Und auch wurde nur mit einer GPU (also einem Hersteller) gebencht -> ebenso wenig Aussagekräftig.
Auch müssen die Werte wohl für den Leser verständlich sein. FPS kennt er idR... Diese Angaben in ms sagen aber eher wenig aus. Zumal nicht wirklich nachvollziehbar ;)

PS: Thema min/max. FPS. Das ist eigentlich völlig unsinnig diese zu benennen. Denn es sind Momentaufnahmen. Schießt irgendwas quer, hast du da starke Ausreißer drin... Dann lieber sowas wie es bspw. damals der Fear Benchmark anbot, wo man ein FPS Niveau über gewisse Zeitspannen ermittelt, ausgegeben hat. Von nem besseren min FPS Wert kann sich niemand was kaufen, wenn alle Nase lang dieser Wert in ähnlicher Form erreicht wird im Vergleich zu einem anderen Produkt, was zwar einmalig weniger min FPS erreicht, dafür aber diese Ausreißer nach unten nicht bietet... Stichwört wäre hier ein Frameverlaufsdiagramm ;)
 
Das was du gerade den Leuten vorwirfst, machst du unterschwällig aber exakt genau so ;)
Ich zum Beispiel kaufe NV GPUs, weil ich damit mehr Möglichenkeiten in Sachen BQ Optimierung habe. Stichwort DS(R), Stichwort AA-Bits... Da gibts noch ganz andere Themen, die man da aufführen könnte, wie FramePacing/MGPU Support usw.
Nur weil es irgendwann mal geliefert wird, heist das lange nicht, dass der zufriedene Kunde aufspringt und sofort zu Konkurenz rennt.
Auch wenn AMD die Tage VSR vorgestellt hat, fehlt es seit Jahren bspw. an einem Gegenstück zu den AA Bits...
Die Produktwahl, wie auch oben schon mehrfach erwähnt, wird um so schwieriger, wenn die Basisleistung passt. Und reinen P/L umgemüntzt auf absolute FPS pro Euro sind eben dann nur die halbe Wahrheit.
Ich habe mir vor ein paar Tagen noch eine GTX 760 für 100€ gekauft und Wasche meine Hände in Fanboy-Unschuld :d
Ich meine eigentlich eher den eigentlichen Tenor der im GPU-Markt herrscht. Nvidia-Produkte werden generell in den Himmel gelobt und AMD-Produkte sehr häufig tot geredet und das, bevor entsprechende Produkte überhaupt auf dem Markt sind ( bestes Beispiel Maxwell ). Die Empfehlung für Gaming-PCs, wo FPS/€ halt am wichtigsten sind, lautet eigentlich auch am häufigsten Nvidia, was ich nicht verstehen kann. Bei etwa 300€ Budget führt momentan kein Weg an einer GTX 970 vorbei, aber für 100€ weniger gibt es eine R9 280X und gerade in dem Preisbereich lese ich häufig, man solle zu Nvidia greifen. Kommt wohl auch etwas auf das Forum an, aber die AMD-Miesmacherei hat schon fast System. Hier wird doch auch schon versucht Zen schlecht zu reden, obwohl niemand auch nur Ansatzweise etwas von der neuen Architektur weiß und die meisten Leute hier nicht mal wissen, wie man sowas entwickelt. Hatte da letztens noch eine nette Unterhaltung mit meinem Computerarchitektur-Dozenten, der dem Keller schon mal persönlich begegnet ist, er sagte mir es sei immer genug Raum für Optimierungen, weil sich die Softwareanforderungen stets weiter entwickeln und man solle einfach gespannt sein, ob die Ingenieure den richtigen Riecher beweisen :)
 
Wozu sollte man also heute einem Gamer noch so einen gammeligen AMD Schrott empfehlen? Ernsthaft. Aus Mitleid für AMD? Nicht wirklich.

Ich habe nach 10 Jahren AMD Treue auch umrüsten müssen/wollen....aber das kann man auch anders sagen!
 
Das Lustige ist ja, das die iGPU im Kaveri in der lage ist Titel wie Wold of Tanks in Hohen Details Darzustellen, aber die CPU Leider nicht :fresse:

Aber okay das ist Kirschenpickerei meinerseits weil world of tanks quasi der AMD killer schlechthin ist. aber ist leider nunmal eines der meistgespielten games der welt zz und auch mein lieblingsgame atm :drool:

Mit den Aussagen würde ich vorsichtig sein! Damit triffst du genau in die Kerbe, die Diablokiller999 angesprochen hat.

Einen FX6300 @4.7 GHz habe ich im Schnitt über 50 Fps gehabt mit einer Geforce GTX580 1.5GB @OC auf Ultra @FullHD. Dabei hat sich CPU und GPU-Limit immer abgewechselt. Glaube nicht, dass der Grafikpart der APU für FullHD geeignet ist und erst recht nicht auf hohen Einstellungen. Die CPU wird dir (gegebenfalls mit Anpassung) 30-60 Fps liefern.

Ich spiele das Game mit einem Llano und den richtigen Einstellungen an den Reglern komme ich nicht unter 30 Fps. Dies geschieht auch dann nur, wenn ich aus der Karte auf die höchste Stufe herauszoome.

@Diablo
Eine R9 290 gibt es ab 250 Euro inklusive 4 Spiele und die sehr gute PowerColor Radeon R9 290 PCS+ für 260 Euro. Für mich eines der besten Produkte die es momentan gibt mit AMD Chip.
 
Zuletzt bearbeitet:
Ich denke wir müssen uns hier nicht darüber unterhalten, wie ein Review auszusehen hat. Das ist dann doch etwas arg am Thema vorbei...
Aber dein Link zeigt doch eigentlich ziemlich klar, was das Problem bei so Komplexen Reviews ist. Es ist einfach nicht die Zeit das flächendeckend zu machen... Bei dir sind zwar viele Detailwerte im Link zu sehen. Dafür aber nur ein Spiel. -> wenig aussagekräftig. Und auch wurde nur mit einer GPU (also einem Hersteller) gebencht -> ebenso wenig Aussagekräftig.
Auch müssen die Werte wohl für den Leser verständlich sein. FPS kennt er idR... Diese Angaben in ms sagen aber eher wenig aus. Zumal nicht wirklich nachvollziehbar ;)

PS: Thema min/max. FPS. Das ist eigentlich völlig unsinnig diese zu benennen. Denn es sind Momentaufnahmen. Schießt irgendwas quer, hast du da starke Ausreißer drin... Dann lieber sowas wie es bspw. damals der Fear Benchmark anbot, wo man ein FPS Niveau über gewisse Zeitspannen ermittelt, ausgegeben hat. Von nem besseren min FPS Wert kann sich niemand was kaufen, wenn alle Nase lang dieser Wert in ähnlicher Form erreicht wird im Vergleich zu einem anderen Produkt, was zwar einmalig weniger min FPS erreicht, dafür aber diese Ausreißer nach unten nicht bietet... Stichwört wäre hier ein Frameverlaufsdiagramm ;)
Wenn man ein erhliches Review machen will oder z.B. selbst auf Fehler suche ist führt kein Weg vorbei an den Frametimes.
Mann könnte z.B. zwei drei Peaks mit 500FPS einfließen lassen schon sind die AVG FPS höher, darauf folgt aber ein PowerLimit weshalb das nächste Frame länger dauert.
Die ZickZack geschichte aka µ-Ruckler sind geboren.
 
Ich habe mir vor ein paar Tagen noch eine GTX 760 für 100€ gekauft und Wasche meine Hände in Fanboy-Unschuld :d
Ich meine eigentlich eher den eigentlichen Tenor der im GPU-Markt herrscht. Nvidia-Produkte werden generell in den Himmel gelobt und AMD-Produkte sehr häufig tot geredet und das, bevor entsprechende Produkte überhaupt auf dem Markt sind ( bestes Beispiel Maxwell ). Die Empfehlung für Gaming-PCs, wo FPS/€ halt am wichtigsten sind, lautet eigentlich auch am häufigsten Nvidia, was ich nicht verstehen kann. Bei etwa 300€ Budget führt momentan kein Weg an einer GTX 970 vorbei, aber für 100€ weniger gibt es eine R9 280X und gerade in dem Preisbereich lese ich häufig, man solle zu Nvidia greifen. Kommt wohl auch etwas auf das Forum an, aber die AMD-Miesmacherei hat schon fast System.

Wie gesagt, es entscheidet der Bedarf. Wenn die 280X in einen Preisrahmen passt und es kein Gegenstück von NV gibt (gibts ja so recht nicht, außer ggf. einer 770er, die aber auch Nachteile hätte mit 2GB VRAM bspw.) dann ist es doch nur legitim. Das entscheidende an der Ganzen Sache ist aber wie ich finde, dass es häufig Anfragen gibt, die eben auf NV abzielen... Wenn der Käufer nunmal nur NV will, soll er doch NV kaufen. Ich sehe da kein Problem dran. Wenn er Treiber Probleme hat/hatte, dann bleibt das halt im Hinterkopf.
Und ich muss definitiv widersprechen, wenn es darum geht, das keine Treiberprobleme vorhanden wären. Die gibts zweifelsfrei und das auf beiden Seiten. Bzw. wenn man Intel mit ins Boot nimmt, dann auf allen drei! Zu sagen, es gäbe keine, widerspricht hingegen den Erfahrungen der Leute.

Hier wird doch auch schon versucht Zen schlecht zu reden, obwohl niemand auch nur Ansatzweise etwas von der neuen Architektur weiß und die meisten Leute hier nicht mal wissen, wie man sowas entwickelt. Hatte da letztens noch eine nette Unterhaltung mit meinem Computerarchitektur-Dozenten, der dem Keller schon mal persönlich begegnet ist, er sagte mir es sei immer genug Raum für Optimierungen, weil sich die Softwareanforderungen stets weiter entwickeln und man solle einfach gespannt sein, ob die Ingenieure den richtigen Riecher beweisen :)

Ich sehe aber auch nur die wenigsten, die dies tun. Also Zen schlecht zu reden... Den Meisten hier gehts wohl eher um die realistische Einschätzung, was machbar ist... Und anhand des aktuellen Leistungsungleichgewicht (mit Themenbezug, primär in Games) ist es halt nicht ganz abwegig, Zweifel zu äußern. Es ist ja nicht so, als wäre es ein Kinderspiel das mal eben völlig umzukrämpeln. Wäre es das, hätte man es lange schon gemacht.
Der Fokus auf 2016 bzw. Ende 2015 könnte, mit etwas bösem Willen auch für Unmut sorgen. Ist ja nicht so, das Blau schläft wärend der Zeit oder die Entwicklung stagniert.

Wenn ich mir ansehe, das Intel den Haswell-Refresh mit nem überdurchschnittlich hohem Taktupdate für den großen i7 gebracht hat, lässt das für mich die Vermutung zu, dass da einfach der Mittelaufwand die Leistung anders zu erhalten, immer schwerer wird und man den Takt eben mitnimmt, weil man es stand heute kann... Zieht man wieder AMD mit ins Boot bleiben immernoch Zweifel übrig, das man mal eben so aus der Kalten nach nunmehr guten 10 Jahren was aus dem Ärmel zaubert um die Konkurenz das Fürchten zu lehren.

Die Diskusion darüber hier fährt sich halt auch dahingehend immer gegen die Wand, weil es Leute gibt, die keine Zweifel akzeptieren und dann mit Überzeugung versuchen, das eigentlich unterlegene Produkt "in den Himmel" zu loben. Gepaart mit Vorwürfen über Randgegebenheiten, die ja für das Problem verantwortlich sind usw. wird das etwas haarig. Ich würde zum Beispiel behaupten, dass ein aktueller FX8350 Piledriver auch im kommenden "Boardwell" Herstellungsprozess von Intel nicht konkurenzfähig wäre... Einfach weil die Rohleistung selbst nicht mit der Fertigungstechnik skaliert. Es gehen also die Meinungen auch stark auseinander und es lässt idR nichtmal belegen/widerlegen ;)

@Phantomias88
zwei drei 500 FPS Peaks schieben die avg. FPS bestenfalls unwesentlich nach oben ;)
Was glaubst du, warum sich normale Spielereviews nicht eignen um bei einem Spiel ein VRAM Limit und auftretende Nachladeruckler nachzuweisen? Einfach aus dem Grund, weil diese Nachladeruckler die avg. FPS nur unwesentlich beeinflussen. Und der min FPS Wert als Momentaufnahme auch nichts dergleichen verrät. -> Peaks nach oben sind das gleiche nur andersrum.

PS: was meinst du eigentlich mit Microrucklern? Ich habe sowas nicht... Nichtmal im SLI (zumindest bei anständigen FPS Raten). Oder ich bin Blind auf die Klüsen ;)
 
Zuletzt bearbeitet:
@Phantomias88
zwei drei 500 FPS Peaks schieben die avg. FPS bestenfalls unwesentlich nach oben ;)
Was glaubst du, warum sich normale Spielereviews nicht eignen um bei einem Spiel ein VRAM Limit und auftretende Nachladeruckler nachzuweisen? Einfach aus dem Grund, weil diese Nachladeruckler die avg. FPS nur unwesentlich beeinflussen. Und der min FPS Wert als Momentaufnahme auch nichts dergleichen verrät. -> Peaks nach oben sind das gleiche nur andersrum.

PS: was meinst du eigentlich mit Microrucklern? Ich habe sowas nicht... Nichtmal im SLI (zumindest bei anständigen FPS Raten). Oder ich bin Blind auf die Klüsen ;)
Das kommt dann darauf an wie lange man die FPS aufzeichnet, soweit mir bekannt nimmt FRAPS eh immer alle drei auf, wo ist das Problem sie auch anzugeben.
Wenn bei mir z.B. Frame Pacing an ist, werden die maximum FPS gekappt, sowas sieht man dann auch nicht.

Blind bist du bestimmt nicht, evt. hast du ein sehr guten Monitor der das "ausgleicht"
 
Tja, IBM gibt es nicht mehr, die PC Sparte wurde komplett inklusive Patente von Globalfoundries übernommen.
Meines Wissens hat man lediglich die Fertigung abgestossen. Wobei man wohl nach wie vor an neuen Verfahren forscht. An der Sparte der Prozessorentwicklung hat sich erst mal nicht viel geändert. Am nächsten POWER wird weiterhin gearbeitet.


Aber komischerweise lassen sich die Ergebnisse vorhersagen.
Über pauschale Aussagen hinaus, nicht wirklich.

"Große, breite CPU mit hoher IPC/Takt = viele FPS, kleine schmale CPU mit wenig IPC/Takt = wenig(er) FPS."
Das hat nur mit Spielen nicht das geringste zu tun. Das gilt für alle Anwendungen. Mal abgesehen davon, dass die Metrik nicht FPS, sondern Punkte, Zeit oder was auch immer ist. Und nein, eine "Spieleperformance" bei CPUs gibt es nicht. Zumindest nicht mehr. Das war vielleicht mal in den 90ern noch so, als tatsächlich alles von einem CPU Kern gemacht werden musste und die GPU nur zur Bildausgabe genutzt wurde. Heutzutage ist die CPU mehr oder weniger Beiwerk.

"Ganz ehrlich, ich kann gerade nicht ganz nachvollziehen, worauf deine Argumentation abziehlt. Denn es macht den Eindruck, als wird hier gerade versucht den Lesern die Augen zu verschließen, damit sie nicht auf Spielebenches gucken (weil da AMD schlechter dasteht) und stattdessen eher Anwendungen gebencht werden sollten (weil man dort besser dasteht). Für den nicht Spieler sicher die richtige Entscheidung, für den Spieler allerdings?"
Erstens, ich würde nicht sagen, dass du es nicht nachvollziehen kannst. Du scheinst den Kontext schlichtweg nicht zu verstehen. So wird eher ein Schuh draus. Und zweitens, niemandem sollen die Augen verschlossen werden. Da könnte ich dir jetzt auch vorwerfen, AMD absichtlich mit Spielen schlechter hinzustellen, als sie sind. Hier geht es nicht um besser oder schlechter. Warum sind Leute wie du immer nur auf solchen Kinderkram fixiert? Bleib doch mal sachlich und nüchtern. Es ging lediglich um die Leistungsfähigkeit einer CPU. Völlig egal von welchem Hersteller die kommt. Und die Leistungsfähigkeit kann man mit normalen Anwendungen nun mal weitaus zuverlässiger ermitteln. Es wird doch niemandem verboten, sich Spielebenchmarks anzuschauen, wenn man wissen will, wie viele FPS mit GPU X und CPU Y und Auflösung Z und Qualität W und Details U in Spiel V mit Patch T herausspringen.

"Wenn ich mir das letzte CB CPU Rating in Spielen zu Rate ziehe, dann sehe ich eine Leistungsskalierung von 34% von einem i3-4330 zu einem i7-4770 bei in etwa gleichem Takt. Der Richland 6800K zu FX-8350 skaliert mit 26% in etwa ähnlich "ähnlich"...
Dennoch liegt zwischen dem langsamen Intel und dem schnellen AMD eine 3% Differenz zugunsten des i3!
Woher kommt denn die, wenn nicht von der CPU?"

Von der Software? Vom Cache? Von der Speicheranbindung? Es gibt mehrere Ursachen, die dazu beitragen können. Es gibt nicht nur die CPU Architektur. Das sollte man langsam mal verstanden haben.

"Wie oben schon erwähnt sehe ich den Trend stand heute eher in Richtung Virtualisierung laufen."
Und weiter? Wo ist da jetzt das Argument gegen ARM? Auch mit ARM kann man virtualisieren, falls dir das nicht bewusst sein sollte. Der Rest liegt wie gesagt am momentanen Softwareökosystem. Aber das wird nicht so bleiben. Der Trend geht eindeutig zu kosten- und effizienzsensitiven Lösungen. Und da macht ARM im Moment keiner was vor. Und ich sehe ehrlich gesagt nichts, was dagegen sprechen sollte, dass sie diese Vorteile aus dem Smartphone- und Tablet-Markt auch auf andere Märkte übertragen können. DAS Problem für ARM im Servermarkt war bisher einfach die fehlende 64-bit Architektur. Seit AArch64 ist dieses Hindernis aber Geschichte.

Das Problem bei den Diskusionen hier ist aber, das viel zu viel emozionale Bindung zu einem Stück Silizium einfließt. Wenn ich sowas hier lese, dann wird mir fast schlecht:
"Generell ist Bulldozer aber alles andere als lahm. Die eigentliche Kernarchitektur ist sogar um einiges leistungsfähiger als die von Intel. Das Problem ist vielmehr, dass davon viel durch langsamere Caches, schlechtere Fertigungen und schlechtere Softwareoptimierungen verlorengeht." Das hat dann auch nix mehr mit Überzeugung zu tun. Sondern geht schon arg in die Richtung des bösen Wortes mit dem "t" vorn...
Das liegt dann aber an deiner emotionalen Bindung. Wenn du diese Aussage mal objektiv und unbefangen lesen würdest, dann würdest du erkennen, dass sie völlig sachlich und nüchtern ist. Das habe ich mir ja auch nicht aus den Fingern gesogen, sondern kann man mit Mikrobenchmarks, die maximal im L1 laufen, nachweisen.


Missverständnisse? Nein, viel eher Überzeugungen, die sich nicht mit Fakten belegen wohl aber widerlegen lassen, weil es eben nur Überzeugungen sind (idR geknüpft an persönliche Anfeindungen).
Ja, und diese persönlichen Anfeindungen könntest du dir echt sparen. Dass deine Überzeugungen nur Überzeugungen sind und sich problemlos widerlegen lassen, rechtfertigen diese persönlichen Anfeindungen nicht.

"Threading alleine reicht nicht, auch die IPC muss halbwegs passen"
IPC alleine reicht auch nicht. Auch der Takt muss halbwegs passen. Takt alleine reicht auch nicht. Auch der Cache muss halbwegs passen. Cache alleine reicht auch nicht. Auch die Speicheranbindung muss halbwegs passen. To be continued... Das Problem für viele ist, und dazu gehörst auch du, dass sie nicht verstehen, dass Performance nur aus dem Zusammenspiel diverser Komponenten entsteht und man die reine CPU Architektur trotzdem separat davon betrachten und sogar deren Leistungsfähigkeit messen kann. Nur mit Spielen geht das eben relativ schlecht. ;)


Nein, alles was AMD hat, ist ein Evaluierungskit.
Nein, das ist nur das, was wir bisher wissen. AMD hat einen lauffähigen ARM Prozessor, der in produktiven Serversystemen eingesetzt werden kann. Das war mit "am Start" gemeint und ist nach wie vor richtig. Nicht mehr und nicht weniger. Lief beim Xeon Phi zu Beginn übrigens auch nicht anders.

"So hat aber Applied Micro das Rennen um den ersten 64bit ARM für Server gemacht (Dell scheint bei seinen 64bit ARM Gehversuchen ebenfalls auf Applied Micro zu setzen)."
Und was hat das mit dem Thema zu tun? Das widerlegt doch nichts an meiner Aussage, dass er ARM Servermarkt bisher quasi noch Neuland ist und für Unternehmen gute Möglichkeiten zum Einstieg bietet.

"Zudem stellt sich die Frage ob ein potentieller Kunde wie z.B. Apple überhaupt Interesse hätte von x86 mit Intel auf ARM mit AMD zu wechseln, wenn er über eine eigene Architekturlizenz für ARM Prozessoren verfügt."
Hat das denn jemand behauptet? AMD könnte in dem Fall sowieso nur gewinnen, Intel nur verlieren.


Aber ich sags mal um was es geht. Spieleperformance
Richtig. Interessant, dass du oder fdsonne immer allen erzählen wollt, dass technische Diskussionen deshalb keinen interessieren und die Welt nur schwarz und weiss ist.

"Und bei Anwendungen ist es das gleiche. Dort gibts CPU´s die in Anwendung A gut abschneiden und in Anwendung B abstinken."
Du hast die Aussage genauso wenig verstanden wie y33H@. Anwendung A und Anwendung B ist was anderes als Workload A und Workload B.

"Selbst bei 2 Threads Last ist die AMD CPU genauso ineffizient wie bei 8 Threads."
Nein. Das hat drei Ursachen. Erstens greifen bei Teillast Stromsparmechanismen besser, Stichwort clock grid. Zweitens spart Intel durch den Wegfall und die geringere Auslastung der HTT Threads weniger ein als AMD bei ganzen Kernen oder grösserer Teile eines Moduls (#1). Und drittens kann AMD bei kleineren und Nicht-K Modellen sparsamer mit der Spannung umgehen, was die Leistungsaufnahme durchgängig reduziert. Grundsätzlich arbeitet da AMD mit mehr Reserven als Intel. Deshalb liessen sich viele AMD Prozessoren in der Vergangenheit auch sehr gut untervolten.

"Vergleiche doch einfach mal die Werte in Cinebench bei 1Thread und bei MUltithread."
Ohne Aussagekraft. Erstens, weil es Cinebench ist. Und zweitens, weil die nur Werte für das gesamte System haben. Über die CPU selbst sagt das wenig. Ausserdem ist selbst der 1-CPU Test nur eines von mehreren Szenarien für Teillast.

"Natürlich ist der Einfluss sehr gering"
Nein, ist er nicht. Das haben genügend Messungen auch gezeigt.

"Liegt ein CPU Limit zu 99% vor..."
Was in Spielen aber reine Utopie ist. Selbst bei 640x480 und CF/SLI ist das nicht der Fall. Selbst dann liegt der Einfluss von GPU und I/O immer noch irgendwo bei vielleicht 15-30%.

"boxleitnerb/y33H@ und andere haben mehrfach schon gezeigt"
Ausser wilden Behauptungen und Rosinenpickerei haben die bisher rein gar nichts gezeigt. Und daran hat sich bisher nichts geändert, trotz deiner mehrfachen Behauptungen, dass sie es getan hätten. Aber wie sollen sie es auch zeigen, wenn es nicht geht? Die technischen Ursachen dafür habe ich mehr als einmal erläutert.

"Wer wirklich glaubt der 32nm Prozess von Globalfoundries ist jetzt noch nicht ausgereift genug um auf dem Niveau von dem Intels 2011 zu sein, um wenigstens an Sandy Bridge heranzukommen, der muss schon ziemlich verwirrt sein."
Auch das verstehen viele wie du nicht. Es gibt zwei Aspekte für die Fertigung, Leistung und Yields. Yields mögen schon lange ausgereift sein, Leistung ist es aber nicht. Und das wird auch nicht mehr. Egal wie viele Jahre der Prozess läuft. IBM hat da grundsätzlich was verbockt. Glofo hat lediglich Bugfixing betrieben so gut es ging.

"AMD kämpft immernoch mit den Intel CPu´s von vor 6 Jahren."
Nicht wirklich. Eher kämpft Intel noch mit den AMD GPUs von vor 6 Jahren.

Und zwar Chipsatz IGPs.
 
Zuletzt bearbeitet:
"Große, breite CPU mit hoher IPC/Takt = viele FPS, kleine schmale CPU mit wenig IPC/Takt = wenig(er) FPS."
Das hat nur mit Spielen nicht das geringste zu tun. Das gilt für alle Anwendungen.
Also mehr FPS in Spielen hat mit Spielen nix zun tun? Mhhh interessante These...
Das es für Anwendungen "auch" gilt, bestreitet im übrigen Niemand. Es ging darum, dass das, was für Anwendungen gilt nicht gleichbedeutent mit dem ist, was für Spiele gilt.

"Ganz ehrlich, ich kann gerade nicht ganz nachvollziehen, worauf deine Argumentation abziehlt. Denn es macht den Eindruck, als wird hier gerade versucht den Lesern die Augen zu verschließen, damit sie nicht auf Spielebenches gucken (weil da AMD schlechter dasteht) und stattdessen eher Anwendungen gebencht werden sollten (weil man dort besser dasteht). Für den nicht Spieler sicher die richtige Entscheidung, für den Spieler allerdings?"
Erstens, ich würde nicht sagen, dass du es nicht nachvollziehen kannst. Du scheinst den Kontext schlichtweg nicht zu verstehen. So wird eher ein Schuh draus. Und zweitens, niemandem sollen die Augen verschlossen werden. Da könnte ich dir jetzt auch vorwerfen, AMD absichtlich mit Spielen schlechter hinzustellen, als sie sind. Hier geht es nicht um besser oder schlechter. Warum sind Leute wie du immer nur auf solchen Kinderkram fixiert? Bleib doch mal sachlich und nüchtern. Es ging lediglich um die Leistungsfähigkeit einer CPU. Völlig egal von welchem Hersteller die kommt. Und die Leistungsfähigkeit kann man mit normalen Anwendungen nun mal weitaus zuverlässiger ermitteln. Es wird doch niemandem verboten, sich Spielebenchmarks anzuschauen, wenn man wissen will, wie viele FPS mit GPU X und CPU Y und Auflösung Z und Qualität W und Details U in Spiel V mit Patch T herausspringen.
Das brauchst du mir nicht vorwerfen, das belegen Benchmarks und Messungen, die eben jene Spieleperformance aufzeigen wollen/sollen und dies auch können.
Mal ganz davon ab, betreibst du schon wieder unsinnige Wortklauberei. Es geht nach wie vor um die Performance in Spielen. Und nicht in Anwendungen... Mir also vorwerfen zu wollen, das ich MIT Spielen die CPU Performance schlechter machen wöllte, als sie ist, ist dann doch etwas arg am Thema vorbei. Stichwort Threadtitel lesen, wäre mal angebracht ;)

"Wenn ich mir das letzte CB CPU Rating in Spielen zu Rate ziehe, dann sehe ich eine Leistungsskalierung von 34% von einem i3-4330 zu einem i7-4770 bei in etwa gleichem Takt. Der Richland 6800K zu FX-8350 skaliert mit 26% in etwa ähnlich "ähnlich"...
Dennoch liegt zwischen dem langsamen Intel und dem schnellen AMD eine 3% Differenz zugunsten des i3!
Woher kommt denn die, wenn nicht von der CPU?"

Von der Software? Vom Cache? Von der Speicheranbindung? Es gibt mehrere Ursachen, die dazu beitragen können. Es gibt nicht nur die CPU Architektur. Das sollte man langsam mal verstanden haben.
Dann liegts halt nicht an der Architektur... Unterm Strich auch völlig nebensächlich woran es liegt. Es geht immernoch um den Umstand, das es so ist wie es ist... Da kann man noch so viele Komponenten aufzählen, die allesamt dazu noch irgendwie direkt mit dem Prozessor was zu tun haben, es ändert sich am Umstand nix.

"Wie oben schon erwähnt sehe ich den Trend stand heute eher in Richtung Virtualisierung laufen."
Und weiter? Wo ist da jetzt das Argument gegen ARM? Auch mit ARM kann man virtualisieren, falls dir das nicht bewusst sein sollte. Der Rest liegt wie gesagt am momentanen Softwareökosystem. Aber das wird nicht so bleiben. Der Trend geht eindeutig zu kosten- und effizienzsensitiven Lösungen. Und da macht ARM im Moment keiner was vor. Und ich sehe ehrlich gesagt nichts, was dagegen sprechen sollte, dass sie diese Vorteile aus dem Smartphone- und Tablet-Markt auch auf andere Märkte übertragen können. DAS Problem für ARM im Servermarkt war bisher einfach die fehlende 64-bit Architektur. Seit AArch64 ist dieses Hindernis aber Geschichte.
Dann ließ meine Aussage weiter... Um das auf ARM abzufackeln benötigt der geneigte Kunde eben ein zweites System... Denn er hat ggf. schon ein x86 based System stehen. Was wird er also machen? Das vorhandene System nutzen oder sich ein zweites daneben stellen, was dann ausschließlich für diese Aufgaben denkbar ist?
Hat er hingegen nix, ist es durchaus eine Alternative. Zumindest bis zu dem Punkt wo es heist, auf diesem System noch x86 based Sachen abzufackeln. Stichwort Microsoft Server "Software". Mit ARM stand heute? Fehlanzeige...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh