Nö, im Medrange Bereich ist die Marke weniger wichtig als P/L - im high-End Bereich gucken die Leute mehr auf die Marke.
Ähm... ja? HD 7000 - Market share ~34%... und der von Nvidia ist nach dem 600'er Release sogar noch gestiegen, obwohl die 7000'er Serie die bis heute übertrumpft. Ist doch genau mein Argument.
Sie haben unterproportional bei besseren Karten verkauft und überproportional bei schlechteren Karten verloren. Deswegen konzentiert sich AMD jetzt auf den Bereich, der noch am besten funktioniert hat - was wirtschaftlich auch völlig logisch ist.
Ich habe dich zuvor gefragt, ob im Midrange und Highend die Marke egal sei. Da hast du mir beides bejaht. Deine Begründung war sogar ->
Der High-End Enthusiast kauft die Graka, die den längsten Balken hat
Keine Ahnung, aber vielleicht bilde ich mir auch einfach nur ein, dass du dir da ständig selber widersprichst..
Wenn die HD700er Serie der 600er Serie doch so überlegen war. Warum hat AMD eine GHZ Edition hinterher geworfen?
Die 680 war schneller als eine HD7970 und dies bei einem etwas geringeren Verbrauch. Zu der Zeit gab es noch einen echten Schlagabtausch, denn eine 680 war nicht in jedem Spiel gnadenlos überlegen, sondern es gab Titel, welche der Nvidia besser gepasst haben und welche, der der von AMD besser gepasst haben. Über die Gesamtheit aller Spiele war aber die Tendenz 680 > 7970. AMD hat dann paar Monate später die 7970GE auf den Markt geworfen, um sich die Leistungskrone zu ergattern. Dies haben sie auch geschafft, aber auf Kosten eines höheren Verbrauchs. Aber auch dies nicht gnadenlos über alle Spiele.
Und hier noch einmal so kleine Reminder - auch auf die Gefahr hin dein Weltbild zu zerstören -, warum sich die 600er Serie besser verkauft hat:
tomshardware.com schrieb:
anandtech.com schrieb:
Du kannst ja gerne weiter auf deiner subjektiven Einschätzung beharren. Ist nicht mein Bier. Aber hör bitte auf dies als einen objektiven Fakt darzustellen.
Die Kritik ist hier also absolut berechtig - aber: Wenn Nvidia Code-Segmente löschen lässt, um damit ihr Game-Works zu pushen, ist das genauso Banane. Warum nicht Hairworks und Tress-FX gleichzeitig rausbringen? Gibt ja für beide sogar vorgefertigte Vorlagen. Hier ist meine Kernkritik an Nvidia: Die pushen ihre eigene Technologie proprietär und drücken Alternativen *komplett* raus, oder du kannst sie gar nicht benutzen.
Tun sie das wirklich oder haben die Entwickler einfach keinen Bock/keine Zeit mehrere redundante Teile zu implementieren?
Z.B wurden bei GTA V bei den Schatten beide Option, also einmal die von Nvidia (PCSS) und einmal die von AMD (CHS), implementiert. (Bitte keine Diskussion, was denn besser sei)
Gab es hier etwa eine Sonderregelung von Nvidia oder lassen sie doch die Entwickler entscheiden?
Ich weiß es echt nicht. Ich lasse mich aber gerne eines besseren belehren. Natürlich nur wenn es Fakten sind und kein subjektives Gelaber, denn deine Meinung zu Gameworks ist ja bekannt..
Och, in den ersten 24h nach Release gabs noch genug Karten. So hab ich meine auch bekommen.
Das war auf die Hersteller bezogen, siehe meine Verlinkung. Du Pfeife
Andersrum: Ich mag Nvidia nicht und da bleibt halt nur AMD übrig.
Ja und deswegen reitest du jetzt auf einmal noch auf der Anti-Intel-Propganda rum.. though.
Tja, bis kurz vorm Ryzen-Release hat Intel keine weiteren Kerne in den Mainstream-bereich gebracht. Erst nach Ryzen gibts jetzt 4 weitere Kerne - also mal eben eine Verdopplung - und das genau im Zeitraum, wo Ryzen eingeschlagen hat.
Eigentlich ist es relativ sinnlos darüber zu argumentieren, da es einfach nur Behauptung gegen Behauptung ist. Du hast deine und ich habe meine.
Aber denk dir doch einmal folgendes: AMD hat dann 2015 spitz bekommen, dass Intel plant Cores zu erhöhen und hat daraufhin 2 CCX auf ein Die geklascht statt einer IGPU, um Intel zu kontern.
Ja ich weiß, next-level-shit und so
Also, die Vega 64 klettert da von 68 FPS auf 73 - 7700K zu 2700X. (Mal ganz davon abgesehen, dass ich nen 2700X nicht mit deren Spezis betreiben würde, aber hey... 2400 MHz DDR4 und auf 3.7 GHz runtergrbügelt. Jeder Straßengamer versucht nen Ryzen auf 3200'er RAM laufen zu lassen - und wenn nicht jeder Chip die 4 GHz knackt, die 3.9 schaffen so ziemlich alle - der 2700X ist btw auf 2933 MHz spezifiziert, ist also ein "kleiner" Ausrustscher in der Systemkonfiguartion, selbst WENN man alles auf Stock behält)
Unter diesen Gesichtspunkten liefert der 2700X sogar eine ziemlich passable Performance ab. MBT hat das ganze mal unter ausgereizten Bedingungen getestet und da liegt der 7700k halt einfach mal tot im Reisfeld. (Und ja, beide Systeme sind auf max overclock)
https://www.youtube.com/watch?v=RZS2XHcQdqA
Du hast den Bench von GameGPU rausgesucht und nicht ich. Zumal warum betreibst du jetzt auf einmal Cherrypicking?!
Wir vergleichen hier CPUs. Also wollen wir möglichst kein GPU-Limit sehen, ergo muss die GPU möglichst potent sein. Da macht es nicht wirklich Sinn von dem Bench mit einer 1080ti, welche auch schon limitiert, auf eine deutlich schwächere Vega64 zu switchen.. So biste voll im GPU-Limit.. Dann nimm doch gleich die Vega56, da sind alle gleich auf. Ach ne die abweichenden Ergebnisse der 64er passen besser in die eigene Propaganda
Auch genau dasselbe machst du mit diesem dubiosen Video von diesem dubiosen MBT.
Wieder ein richtig toller CPU-Bench voll um GPU-Limit, da kann man ja richtig gut die wirkliche CPU-Performance vergleichen. Dann ignoriert man noch den Fakt, dass der 7700k mit schwächerem RAM getestet wurde und hat einen echt fairen sowie aussagekräftigen CPU-Test. Das so zum Thema
gleiche Grundvoraussetzungen :Wall:
Warum verlinkst du denn nicht das Video von dem, wo er eine 1080ti und bei beiden CPUs den gleich RAM verwendet? Passt es nicht in die Propaganda?
Will a GTX 1080 Ti underperform with RYZEN 7 + 3600MHZ RAM? - YouTube
Sag mir jetzt nicht, dass du es nicht kanntest. Du kamst mir schon öfters mit der Masche und ich habe dir dann das andere Video von dem verlinkt. Daher kenne ich schon dein nächstes Argument, aber tue ganz überrascht, wenn ich es lese
Warum alte Benchmarks? Warum nicht mal ein realistisches Szenario mit dem 2700X vs 8700k?
https://www.youtube.com/watch?v=1A2yatfyLoo
Und wenn du alleine daddelst, hast du ja die bessere Kernskalierung modernerer APIs, die zur Zeit bei praktisch jedem neue Releasten AAA Spiel rauskommen.
Nenn es doch einfach realistischen Cherrypick
Aber ja, seit Ryzen ist jeder ein professioneller Streamer, welcher die bestmögliche Qualität brauch und solche Geschichten wie Quicksync oder Nvenc sind für diese überhaupt keine Option. Klar kennen wir schon alle.
Und jetzt bitte nochmal die Benchmarks im Vergleich (gerne auch AMD) und dann haben wir ein komplettes Bild. Phoronix hat das getestet und bei Server-Loads teilweise 30% Verlust bei Intel gemessen.
Habe ich doch erwähnt?! -> "andere Bereiche abseits Heimanwender erleiden teils größere Verluste"
Keine Ahnung, warum ich das hinter Meltdown gesetzt habe. Ich meinte damit aber, dass die Maßnahmen gegen Spectre und Meltdown zu teils größeren Verlusten führen, abseits Heimanwender.