Erste Benchmarks zur Radeon R9 390X aufgetaucht

Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und bei gleicher größe braucht man eben weniger AA um auf die gleiche Qualität zu kommen. Auch wenn dann der Windows desktop beschissen aussieht, das spielt hier erstmal keine Rolle.

Mal als Beispiel, ein FHD und ein UHD Monitor, beide gleich groß, beide im gleichen Abstand vom Betrachter aufgestellt:
Wenn ich jetzt bei dem FHD Montiro für die gleiche Qualität 16xAA und 16xAF einstellen muss und beim UHD nichts davon nötig ist, dann braucht der UHD Monitor ersteinmal nicht 100-300% mehr Leistung (bezogen auf deine 50-75% FPS verlust) sondern vielleicht 10%, vielleicht auch garnichts. Evtl ist der sogar Schneller unterwegs.... wäre mal ein interessanter test (klar alles subjektiv, aber dennoch interessant). Beim VRAM Verbrauch könnte es sich dann ähnlich verhalten... Deswegen sind solche pauschalen Aussagen erstmal Falsch.

Ich stimme dir da grundsätzlich zu. Das Problem ist doch aber viel eher, das es heute, gerade bei den AAA-Titeln gar kein richtiges AA mehr gibt. Irgendwelche PostProcessing Weichzeichner kosten unterm Strich nur bedingt Leistung. Alles andere als echtes MSAA oder SGSSAA wie von früher. Du hast als User also gar nicht unbedingt die Wahl den Modus zur Kantenglättung runter zu drehen.

Dennoch ist es eben so, das man sinnvollerweise die Szenen mit gleichen BQ Einstellungen vergleichen sollte. Was bringt es unterm Strich die BQ soweit runter zu drücken, dass das Bild gleich ausschaut? Da hat doch dann keiner was von. Dafür gibts halt die Skalierungsbenches mit der Auflösung. Es ist ja nicht so, dass diese Benchs zwingend mit 8xMSAA oder 4xMSAA gemacht werden müssen. Es würde sich am Bild ohne AA nicht sonderlich viel ändern ;)
Zumal DS(R) bzw. native Auflösung bei höherer Pixeldichte idR mehr Performance frisst als ein entsprechender AA Mode, wenn ich das richtig sehe. Und je nach AA Modus du sogar noch andere Verbesserungen bekommst. SGSSAA macht das Bild nicht nur "glatt", sondern bringt dir auch noch Verbesserungen in der Filteroptik. AF wegzulassen macht auch imho wenig Sinn bei reiner Auflösungserhöhung um mal dein Beispiel aufzugreifen. Aber ja, du hast dahingehend recht, dass man der Treppchenbildung bei höherer DPI Zahl mit niedrigeren AA Modi entgegenwirken kann.
Was aber, wenn gar kein AA geht in den Titeln? Wie im Beispiel von mir oben von Max Payne 3, da lässt mich das Spiel gerade mal 2xMSAA einstellen, wenn ich auf UHD gehe und ich habe dennoch im ersten Level nur um die 60-80 FPS mit meinem SLI System... Was will ich da noch an BQ einsparen?

PS: und ja, atm spiele ich im Vergleich mit einem 40" bei FHD und einem 55" bei UHD. Letzterer macht halt leider nur 30Hz mit HDMI, weil die 780TIs kein HDMI 2.0 haben und es aktuell keine DP1.2 auf HDMI 2.0 Converter gibt, die UHD@60Hz können.
Was man halt bei reiner Auflösungserhöhung immernoch hat, ist der Umstand der schwarfen Kanten. Das, was bei kleineren Monitoren auch zum flimmern neigt sind schwarfe Kanten, die nicht primär geglättet werden. Das hast du, selbst bei UHD und großer Fläche, immernoch auf dem Schrim. So ganz ohne BQ steigernde Maßnahmen kommt man da aus meiner Sicht noch nicht aus...

Hier fehlt mir eine fundierte Aussage in Bezug auf PhysX. Geht es noch oder nicht? Falls Nein segelt meine Titan in den MP wenn die 390X rauskommen.

Neja es geht bedingt... Soweit ich das mitbekommen habe eigenen sich stand heute keine der Maxwell GPUs. Sprich die 750(TI) und die 900er Karten gehen nicht. Ob eine 780(TI) geht, weis ich allerdings nicht 100%. Man müsste mal gucken, ob die 780TI schon vom alten 314er Treiber erkannt wird. Wenn ja, dann geht es generell erstmal.
Aber diese Modgeschichten haben leider teilweise den Nachteil, das einige der Befehle nicht sauber laufen... Sprich es werden nicht alle PhysX Titel unterstützt bzw. laufen fehlerfrei. Es ist und bleibt auf jedenfall "Gebastel" ohne jegliche Garantie ;)
 
Zuletzt bearbeitet:
Und du machst das nun eben an diesen drei Titeln fest?

Zum Markierten, auch das kann ich nicht nachvollziehen. Ja mit absolut niedrigsten Einstellungen kann man sogar noch auf ner HD2900XT heute spielen.

Ich hab 150 Spiele in Steam und fahre meistens die maximalen Settings.
Die Spiele die auf max nicht zufriedenstellend laufen sind die wenigsten.

Um eines zu nennen: Watchdogs
 
Neja es geht bedingt... Soweit ich das mitbekommen habe eigenen sich stand heute keine der Maxwell GPUs. Sprich die 750(TI) und die 900er Karten gehen nicht. Ob eine 780(TI) geht, weis ich allerdings nicht 100%. Man müsste mal gucken, ob die 780TI schon vom alten 314er Treiber erkannt wird. Wenn ja, dann geht es generell erstmal.
Aber diese Modgeschichten haben leider teilweise den Nachteil, das einige der Befehle nicht sauber laufen... Sprich es werden nicht alle PhysX Titel unterstützt bzw. laufen fehlerfrei. Es ist und bleibt auf jedenfall "Gebastel" ohne jegliche Garantie ;)

ich probiere es dann mal aus wenn die Karten auf dem Markt sind und ich sie kaufe. Habe den passenden MOD Treiber schon mal gefunden. Möchte jedenfalls wieder Crossfire, da hatte mit zwei 7970 Matrix ich im Gegensatz zu SLI mit zwei EVGA GTX 780 Titan Black SC keine Mikroruckler.
 
AMD hat Nvidia mit ihrem Framepacing mindestens schon eingeholt.
 
ist zwar schon 2 tage alt, aber wenns sonst niemand macht:

http://wccftech.com/amd-fiji-xt-r9-390x-shipping/
28-nanometer is going to be the dominant space for a long period of time. We’re going to leverage that, it’s got the best dollars, the best yield. It plays in a lot of the businesses we’re going after. We will go cutting edge on certain parts like high-end graphics and even into some of the PC and embedded space, but we want to catch that curve where it makes sense.

AMD-Embedded-Solutions-2012-2016-Roadmap.jpg
 
Zuletzt bearbeitet:
Hmm.. wie ist das zu interpretieren?
Bei den dedizierten Grakas ist ja die Rede von seltsam wenig vRAM...

Interessant ist aber dass AMD offenbar sein Porfolio in Sachen APUs deutlich erweitern will. Wir dürfen gespannt sein.
 
Was yBobs Grafik hier soll weiss ich auch nicht - die Sprengt hier alle Rahmen bezüglich ihrer Größe

@ANgelDUst32

Weil man ja für PhysX auch unbedingt ne Titan braucht. Meines Wissens reicht für die reine PhysX berechnung neben einer vorhande Grafikkarte sogar ne GT210 aus...
 
die Sprengt hier alle Rahmen bezüglich ihrer Größe

Eigentlich nicht:

(§ 7) Grafiken und Videos im Forum:


Die maximale Bildgröße für Grafiken jeglicher Art in Forenposts ist aufgehoben! Größere Grafiken passen sich automatisch der Breite des Browserfensters an. Allerdings ist darauf zu achten, dass die Dateigröße einer Grafik 600 KB nicht überschreitet. Wenn innerhalb eines Threads Regeln gefunden werden, die die Forenregeln in Bezug auf Größe und Ausmaß nach unten beschränken, so sind allerdings diese gültig.

-->
unbenannt0mxee.jpg


Bildtechnisch ist da alles Regelkonform.
 
@ANgelDUst32

Weil man ja für PhysX auch unbedingt ne Titan braucht. Meines Wissens reicht für die reine PhysX berechnung neben einer vorhande Grafikkarte sogar ne GT210 aus...

???

Habe mit meiner GTX 275 (Vorgänger meiner aktuellen Karte) selbst kein einziges PhysX Spiel gespielt.

Wiso @Mich wenn ich nur auf die Frage der möglichen Verwendung antworte (Intention ?)
 
AMD embedded solutions roadmap ;-)

z.b.
http://www.amd.com/Documents/AMD-Radeon-E6760-Discrete-GPU-product-brief.pdf

Was genau die Roadmap im r9 390er Thread aussagen soll, weiß ich allerdings auch nicht, lasse mich da aber gerne belehren.
Die unterste Zeile spricht aber immerhin von "discrete graphics". Sind damit nicht doch richtige Grafikkarten gemeint?


EDIT: Was PhysX angeht: Hoffe ihr meint das nicht ernst, Monster wie ne 780 oder Titan dafür drin zu lassen o_O
Lieber ne 750ti und vom restlichen Geld in ein (teures) Restaurant mit der Freundin oder Familie gehen ;)
 
Zuletzt bearbeitet:
Mit embedded GPU´s sind GPU´s für Spieleautomaten und die Industrie gemeint.
 
Was yBobs Grafik hier soll weiss ich auch nicht - die Sprengt hier alle Rahmen bezüglich ihrer Größe

@ANgelDUst32

Weil man ja für PhysX auch unbedingt ne Titan braucht. Meines Wissens reicht für die reine PhysX berechnung neben einer vorhande Grafikkarte sogar ne GT210 aus...

???

Habe mit meiner GTX 275 (Vorgänger meiner aktuellen Karte) selbst kein einziges PhysX Spiel gespielt.

Wiso @Mich wenn ich nur auf die Frage der möglichen Verwendung antworte (Intention ?)

Das ging wohl an meine Adresse. @HWK: Ich würde die Titan drin lassen, wenn es denn funktioniert, weil ich sie schon habe und keinen Bock auf große Verluste in Bezug auf Verkauf da mich die Karte inkl. VollWaKü über 1100€ gekostet hat im Sommer. Daher und nicht wegen PhysX.
 
Das ging wohl an meine Adresse. @HWK: Ich würde die Titan drin lassen, wenn es denn funktioniert, weil ich sie schon habe und keinen Bock auf große Verluste in Bezug auf Verkauf da mich die Karte inkl. VollWaKü über 1100€ gekostet hat im Sommer. Daher und nicht wegen PhysX.
Hmm, dann denke ich mal dass du planst sie als Rentner an ein Museum zu verkaufen :d Denn davor wird der Wertverlust nur steigen...

@Schaffe89: Ahh, habs jetzt verstanden.
Okey, dann ist die Grafik hier wirklich fehl am Platz.
 
Hmm, dann denke ich mal dass du planst sie als Rentner an ein Museum zu verkaufen :d Denn davor wird der Wertverlust nur steigen...

@Schaffe89: Ahh, habs jetzt verstanden.
Okey, dann ist die Grafik hier wirklich fehl am Platz.

nein das nicht :) Sehe ich keinen Unterschied zum normalem Spiel geht sie eh raus in den MP, also vorher mal testen :) Was nützt mir ein nur messbarer Wert. Ich spiele mit den Augen, bzw die sehen das Spiel und kein Messgerät :)
 
nein das nicht :) Sehe ich keinen Unterschied zum normalem Spiel geht sie eh raus in den MP, also vorher mal testen :) Was nützt mir ein nur messbarer Wert. Ich spiele mit den Augen, bzw die sehen das Spiel und kein Messgerät :)

Du wirst halt bestenfalls Unterschiede in PhysX Titeln sehen... ;) Mehr auch nicht.
Aber ja, ich fahre eine ähnliche Politik und nutze idR die GPU der alten Generation, die so oder so hier vorhanden ist nach dem Wechsel auf was neues weiter. So betrieb ich fast ein Jahr lang eine 680 als zweit GPU neben einer 780TI. Mittlerweile ist die 680er rausgeflogen und wurde durch ne zweite 780TI ersetzt.

Der Mehrwert von PhysX ist bestenfalls dürftig... Es gibt nur ein paar wenige Titel, wo es überhaupt funkt und ob man diese dann spielt? Muss man selbst wissen...
The Witcher 3 könnte nächstes Jahr aber gut Anforderungen an PhysX haben.

Weil man ja für PhysX auch unbedingt ne Titan braucht. Meines Wissens reicht für die reine PhysX berechnung neben einer vorhande Grafikkarte sogar ne GT210 aus...

Kommt auf das Spiel an. Um so neuer das PhysX Spiel, desto besser fährst du mit neuerer GPU Technik. Ne alte G8x oder G9x GPU von vor X Jahren kann potentiell auch PhysX, taugt in neuesten Titeln aber einfach nicht als Beschleunigerkarte.
Da gibts Tests von ein paar Redaktionen zu. Ich glaube PCGH hatte da mal ne 9800GT gegen eine GT630? gestellt und diese mit ner Titan gepaart. In AC4 war ersteres schlicht nicht zu gebrauchen bspw.

Man muss aber auch dazu sagen um so mehr GPU Power man auf der Main GPU hat, desto weniger benötigt man auch eine dedizierte PhysX GPU.
Der Leistungsbedarf von reinem PhysX ist heute im Vergleich weit geringer als noch vor 5 oder mehr Jahren... Wohl auch ein Tribut daran, das die Mittelklasse GPUs gar nicht in der Lage sind, das alles alleine zu stemmen (inkl. der Bildberechnung bei steigender Auflösung)

Metro LL erzeugte bei mir auf der 680er im default Takt gerade mal um die 15-20% Load. Die FPS waren aber auch nicht wirklich besser, als hätte die 780TI PhysX mit berechnet ;)

Und dazu kommt, dass das GameWorks Programm sogar noch undurchsichtiger ist für den Anwender. Sprich es ist nichtmal klar, ob der PhysX Schalter im Treiber überhaupt alle GameWorks Bestandteile auf die CPU/zweit GPU umbiegt oder ob (ähnlich TressFX von AMD) einfach die MainGPU dafür rangezogen wird. Wenn letzteres der Fall ist, dann lohnt ne dedizierte PhysX GPU um so weniger.
 
Wenn November 2013 vor 2 Tagen war, dann geht das wohl in Ordnung. ;)

Abgesehen davon findet sich keinerlei Bezug zur R9 390X bzw. kommenden Grafikkartengeneration von AMD...


AMD next-gen graphics are Caribbean Islands

AMD Pirate Islands heißt angeblich Caribbean Islands: Release erst im Sommer?

Es ging um dieses Zitat(quote tag war verkrüppelt):
28-nanometer is going to be the dominant space for a long period of time. We’re going to leverage that, it’s got the best dollars, the best yield. It plays in a lot of the businesses we’re going after. We will go cutting edge on certain parts like high-end graphics and even into some of the PC and embedded space, but we want to catch that curve where it makes sense.

Der einzige Grund anzunehmen, dass die nächste AMD GPU in 20nm gefertigt wird, war dieses Zitat von Lisa Su:
We’re currently at 28nm in 2014, we’ll be transitioning to 20nm in 2015 and we’ll go to FinFET after that

Wie die Grafik zeigt, war mit "20nm" aber Puma und Cortex gemeint.
Zusammen mit dem ersten Zitat dürfte nun klar sein, dass er in 28nm gefertigt wird.

AMD Fiji XT R9 390X Spotted Again, Release Date Creeping In

Wenn es sicht um eine High-End GPU(R9 390X zB) handelt, wird es also um im 28nm Prozess ca. 550mm² groß und entsprechend teuer.
Unsere einzige Hoffnung ist, dass alle Hipster auf der gesammten Welt den Tod finden und kein einziges Ipad und Iphone mehr gekauft wird.
 
Du wirst halt bestenfalls Unterschiede in PhysX Titeln sehen... ;) Mehr auch nicht.
Aber ja, ich fahre eine ähnliche Politik und nutze idR die GPU der alten Generation, die so oder so hier vorhanden ist nach dem Wechsel auf was neues weiter. So betrieb ich fast ein Jahr lang eine 680 als zweit GPU neben einer 780TI. Mittlerweile ist die 680er rausgeflogen und wurde durch ne zweite 780TI ersetzt.

Der Mehrwert von PhysX ist bestenfalls dürftig... Es gibt nur ein paar wenige Titel, wo es überhaupt funkt und ob man diese dann spielt? Muss man selbst wissen...
The Witcher 3 könnte nächstes Jahr aber gut Anforderungen an PhysX haben.



Kommt auf das Spiel an. Um so neuer das PhysX Spiel, desto besser fährst du mit neuerer GPU Technik. Ne alte G8x oder G9x GPU von vor X Jahren kann potentiell auch PhysX, taugt in neuesten Titeln aber einfach nicht als Beschleunigerkarte.
Da gibts Tests von ein paar Redaktionen zu. Ich glaube PCGH hatte da mal ne 9800GT gegen eine GT630? gestellt und diese mit ner Titan gepaart. In AC4 war ersteres schlicht nicht zu gebrauchen bspw.

Man muss aber auch dazu sagen um so mehr GPU Power man auf der Main GPU hat, desto weniger benötigt man auch eine dedizierte PhysX GPU.
Der Leistungsbedarf von reinem PhysX ist heute im Vergleich weit geringer als noch vor 5 oder mehr Jahren... Wohl auch ein Tribut daran, das die Mittelklasse GPUs gar nicht in der Lage sind, das alles alleine zu stemmen (inkl. der Bildberechnung bei steigender Auflösung)

Metro LL erzeugte bei mir auf der 680er im default Takt gerade mal um die 15-20% Load. Die FPS waren aber auch nicht wirklich besser, als hätte die 780TI PhysX mit berechnet ;)

Und dazu kommt, dass das GameWorks Programm sogar noch undurchsichtiger ist für den Anwender. Sprich es ist nichtmal klar, ob der PhysX Schalter im Treiber überhaupt alle GameWorks Bestandteile auf die CPU/zweit GPU umbiegt oder ob (ähnlich TressFX von AMD) einfach die MainGPU dafür rangezogen wird. Wenn letzteres der Fall ist, dann lohnt ne dedizierte PhysX GPU um so weniger.

ich spiele nur Battlefield und CoD. Ab und an FEAR. Weiß jetzt gar nicht ob die Games überhaupt PhysX unterstützen :( Falls nicht brauche ich mir keine Gedanken machen.
 
BF? Nein
CoD? -> CoD:Ghosts ja, ich hab das aber damals mit CPU PhysX gespielt (also die SP Kampagne) und das lief ebenso schmerzfrei... Es hat ne Fellsimulation für den Hund. Mehr aber auch nicht.
Fear? ebenso Nein.

Also du kannst es dir wohl schenken ;)
 
Zusammen mit dem ersten Zitat dürfte nun klar sein, dass er in 28nm gefertigt wird.

AMD Fiji XT R9 390X Spotted Again, Release Date Creeping In

Wenn es sicht um eine High-End GPU(R9 390X zB) handelt, wird es also um im 28nm Prozess ca. 550mm² groß und entsprechend teuer.

Hast du dir den kompletten, von dir verlinkten Text durchgelesen? Da steht nämlich noch mehr drin, was die 28nm doch nicht so klar machen.

Mich stört bei 28nm nur ein Punkt. Wieso wartet man so lange? Wegen HBM?

From all of AMD’s official commentary and various leaks it’s obvious that FinFETs which is what TSMC actually markets as 16FF/16FF+ and Samsung/GloFo market as 14 LPE and LPP is going to be the prime candidate for Fiji. There’s absolutely no reason for AMD to have skipped releasing Fiji already, had it actually been a 28nm part it would’ve been out by now. What AMD is doing is what it has always done in the past. Which is to simply wait for the right spot in the yield and cost curves for the new process to begin volume production.

Historically speaking, between AMD & Nvidia, AMD has always been the first to jump to a new node, often introducing products 3-9 months ahead of Nvidia. This was true for 28nm, 40nm, 55nm, 65nm and even prior to that.

Unsere einzige Hoffnung ist, dass alle Hipster auf der gesammten Welt den Tod finden und kein einziges Ipad und Iphone mehr gekauft wird.

:xmas:
 
Mich stört bei 28nm nur ein Punkt. Wieso wartet man so lange? Wegen HBM?

Es scheint aktuell nur 4GB HBM zu geben. Sprich so eine "fette" GPU würde sich nicht im Profimarkt verkaufen können. Da sind Speicherausbauten von 12-16GB heute zu sehen! Kommst du da mit 4GB um die Ecke, kannst du das gleich wieder wegpacken.
Könnte ein Grund sein, warum man wartet. Denn so ein Stück Hardware auf absehbare Zeit ausschließlich im oberen Gamermarkt zu platzieren und das, wo AMDs Marktanteil in diesem Bereich eher mau als gut ist, wäre wohl auch etwas Geldverbrennung.

Ansonsten gehen die Spekulationen da aktuell weit auseinander... Von 28nm und ohne HBM bis 20nm mit HBM ist da alles dabei. Ggf. auch ne Mischform bzw. eine Art "Shrink" oder "Refresh" von ersterem nach letzterem.


Leider sieht man bei den AMD internen Codenames irgendwie so gar nicht durch... Es gibt wenig greifbares um das ganze in vergleichbare Schubladen zu stecken. Heist halt unterm Strich auch, das gerade solche Newsmeldungen da auch ne ganze Menge durcheinander werfen könnten ;)
 
Zuletzt bearbeitet:
Wird ja nicht mehr soo lange dauern bis wir was greifbares haben, nehme ich an :)
Wobei ich hoffe dass AMD's Markettingabteilung klug genug ist, die neuen Grakas zumindest vor Weihnachten anzukündigen.
 
Hast du dir den kompletten, von dir verlinkten Text durchgelesen? Da steht nämlich noch mehr drin, was die 28nm doch nicht so klar machen.

Mich stört bei 28nm nur ein Punkt. Wieso wartet man so lange? Wegen HBM?





:xmas:
Da steht ja nur, dass Fiji erst im Sommer kommt. Es gibt ja noch Tonga(R9 380(X)).
Ich kann mir nicht vorstellen, dass AMD nVidia 8 Monate lang den Markt überlässt.
Der einzige Grund warum noch nicht jeder eine GTX980/GTX970 hat, ist wahrschelnlich das Spulenfiepen.
Ich schätze mal dass die 380er früher kommen und in 28nm gefertigt werden.
Dass auf HBM gewartet wurde war auch meine Vermutung.
AMD-nVidia-Grafikkarten-Roadmap-19.-November-2014.png
Laut dieser "roadmap" soll Tonga garnicht HBM nutzen, sondern nur die absoluten High-End GPUs(Fiji).
Wenn das stimmt, ist es immer noch möglich, dass AMD auf 20nm gewartet hat und dann mit Entsetzen feststellen musste, dass Apple dass doppelte pro Wafer zahlen kann.
Die geringe Abwärme des Benchmarks suggeriert aber, dass hier kein High-End Chip mit HBM kombiniert wurde, sondern ein R9 380er.

Wie verlässlich war Chiphell in der Vergangheit? die haben schon schon die 7000er und R9 290 geleakt.
 
Zuletzt bearbeitet:
Da steht ja nur, dass Fiji erst im Sommer kommt. Es gibt ja noch Tonga(R9 380(X)).

Warum findet sich dann auf den Lieferunterlagen der letzten Wochen/Monate jetzt schon explizit der Name "Fiji XT"?

Bisher stehen zwei Termine im Raum Q1 2015 und Q3 2015. Wenn in Q1 2015 etwas kommt, dann muss diese Veröffentlichung eine GTX980/970 schlagen. Ansonsten macht es wenig Sinn etwas neues zu veröffentlichen. Die Frage ist nun, wie will man das schaffen? Kann AMD die GTX980/970 mit 28nm und GDDR5 schlagen? Unter dem Vorbehalt, dass in den Benchmarks hier etwas Wahrheit steckt, kann ich mir das in dieser Kombination nicht vorstellen. Folglich muss sich mind. eine der 2 Faktoren ändern, entweder der Fertigungsprozess, der Speicher oder beides. Damit ließe sich dann auch das (lange) Zögern von AMD begründen.

Sinn macht also nur...

1. 28nm + HBM
2. 16/20nm + GDDR5
3. 16/20nm + HBM

Für mich am wahrscheinlichsten wäre 28nm + HBM, da diese Lösung aus meiner Sicht auch am kosteneffizientesten wäre. 28nm ist ausgereift und erzielt somit eine gute Ausbeute. 20nm erbringt außerdem laut TSMC nicht soviel Vorteile wie man sich das erhofft habe. Zusammen mit HBM, was die Komplexität des Speichercontrollers zusätzlich vereinfacht, wäre dieser Ansatz also durchaus denkbar. Ebenso muss man bedenken, das eine Karte kommen muss, die sich um die 300 Euro plaziert und ähnlich Effizient und auch performant ist wie eine GTX970, was den Kostenaspekt noch zusätzlich bekräftigt.

Erst im Sommer bzw. Q3 2015 werden wir dann wahrscheinlich die Verkleinerung auf 16/20nm sehen evtl. mit einen überarbeiteten Chip. Was sollte sonst in Q3 kommen wenn jetzt schon 16/20nm + HBM gefahren wird? Nur wenn ich die Sache so betrachte wird aus den bisherigen Informationen ein Schuh für mich draus.

Ein weiterer Punkt wäre auch noch der GM200 von nVidia, welcher ebenfalls noch in 28nm gefertigt werden soll. AMD wäre mit HBM + 28nm dann auch gut aufgestellt, evtl. wäre man minimal langsamer als GM200 dafür aber kosteneffizienter unterwegs, bis es dann in Q3 2015 weiter geht.

Aber mal schauen wieviel davon auch wirklich eintritt. :)
 
Zuletzt bearbeitet:
BF? Nein
CoD? -> CoD:Ghosts ja, ich hab das aber damals mit CPU PhysX gespielt (also die SP Kampagne) und das lief ebenso schmerzfrei... Es hat ne Fellsimulation für den Hund. Mehr aber auch nicht.
Fear? ebenso Nein.

Also du kannst es dir wohl schenken ;)

ja, sieht so aus. Sprich das, wenn die 390x erscheinen, die Titan in den MP wandert.
 
@Cippoli
das ist doch aber alles noch etwas sehr waage...

An was machst du die Kosten fest? Du sprichst ja explizit von Kosten... Nur an was gemessen?
Kosten erzeugt doch in erster Linie die Produktion des Siliziums. Ebenso fallen die Yields da rein... Mehr Ausschuss heist weniger verkaufte Chips bei gleichem Waferpreis, ergo höhere Produktionskosten.
Wenn 28nm und davon gehe ich aus, kostengünstiger ist als ein 20nm Prozess, dann hat das alles zumindest etwas Hand und Fuß. Die große Unbekannte ist aber, was erzeugt HBM überhaupt für Kosten? Zum einen produziert man die Speicherlogik und zum Anderen muss man diese Logik mit der GPU-Chip Logik verkoppeln.

Aus meiner Sicht entsteht dabei ein nicht zu vernachlässigbares Risiko. Sprich wenn du ne fiktive Yield-Rate von 100% bei der Chipproduktion hast, dir aber 50% der Chips durch das Verheiraten unnutzbar wären, kostet dich HBM effektiv 50% mehr. (mal als Beispiel)

20nm + HBM würde sogar doppeltes Risiko bedeuten. Beschissene Yields am Anfang + Risiko durch HBM. Was den Hersteller das am Ende kosten wird? Ist aus meiner Sicht faktisch gar nicht geklärt noch ansatzweise heute irgendwie erklärbar ohne konkrete Zahlen.


In erster Linie ist also HBM sicher kein Garant für niedrigere Kosten ;) Dazu kommt der Umstand mit der Speichergröße. Die Kosten von GDDR5 Anbindung sind im Grunde völlig nebensächlich, wenn man mit HBM keine Ausbauten größer 4GB (stand heute) hinbekommt. Denn egal was es kostet, eine adäquate Leistung via HBM scheint aktuell nicht machbar...


Thema GM200 oder wie der heißen mag. Auch hier sehe ich klar keine Paralellen... Wer sagt denn, dass das AMD Gegenstück günstiger wird? Gerade bei den HighEnd GPUs steht und fällt ein reletiv großer Teil der Transistorlogik mit dem Featureumfang für den Profimarkt. Stichwort GPGPU. Ne reinrassige GamerGPU bekommt man da wohl gut entschlackt. Ne ProfiGPU mit massiver DP Power und dazu noch möglichst effizient ist da dann schon ne andere Baustelle. Bei NV ist man den Weg gegangen, deutlich mehr ALUs zu verbauen mit Kepler. (mehr Fläche) Mit Maxwell geht man den Schritt auf mehr "IPC" pro ALU. (mehr Leistung pro Fläche) Wie viel das am Ende ausmachen wird, wissen wir noch nicht. Kepler kann SP/DP von 3/1. AMD mit Hawaii kann 2/1, was einen Speedvorteil bei entsprechendem Aufbau bringt.
Interessant bei der Sache dürfte dann werden, dass der spekulierte GM200 nicht wirklich mehr ALUs besitzt als ein Kepler GK110. Auch scheint nach aktuellen Gerüchten die DIE-Size nicht stark zu wachsen. Sprich die Kosten sind wohl recht überschaubar im Vergleich zu Kepler. Je nach Leistungszuwachs kann man aber (und das wird Titan II sicher auch tun) mit den Preisen wieder richtig in die Vollen gehen.

Bei AMD hingegen steigt die DIE-Size wohl "stark" an. Ne fette ~550mm² GPU wird für Fiji spekuliert. Das sind schonmal mehr wie 20% mehr DIE-Size als es Hawaii heute kann. Gepaart mit der womöglich beschisseneren Yield-Ausbeute bei größeren/komplexeren DIEs, dem womöglichen Ausschuss durch vermurkste HBM "Heirat" und sonstweden anderen Problemen...
Ich sehe hier klar aktuell NV mit GM200 in Sachen Kosten am Drücker... Undbekannt ist nur der Mitteleinsatz für die "Forschung". Das AMD Flackschiff muss schon richtig mit der Titan II den Boden wischen, dass die verbohrte Kundschaft weg von NV geht. -> ob man das allerdings im HighEnd Geschäft erreicht? P/L Kracher sind eher in der Mittelklasse zu erwarten. Siehe bspw. damals einer HD4870 für ~120-130€ und zum Ende hin laut Steamumfrage einer Verbreitung von ~15% allein für dieses Modell! So nen riesigen Anteil gabs darauf hin nie wieder...
Auch halte ich die Verkaufspreise der HighEnd GPUs für völlig an der Nase herbeigezogen. Da kosten dich wenige Prozente mehr Performance deutlich mehr Aufpreis. Ja auf der einen Seite begründet man das mit dem HighEnd Aufschlag, auf der anderen Seite wirtschaftet das dem Unternehmen in die Tasche, keine Frage. Soll heißen, wenn AMD keine GPU anbietet, die schneller als eine GM204 in Form der 970er wird, und ebenso viel kostet, dann ist das nicht unbedingt ein Beinbruch, wenn man dafür aber in der Mittelklasse richtig viel absetzt. Das gleiche gilt auch für die größeren GPUs.
 
@Cippoli
das ist doch aber alles noch etwas sehr waage...

Na, machen wir die Sache nicht unnötig kompliziert, wenn wir sowieso nur spekulieren und keine Ahnung haben - einfach und überschaubar find ich dann besser. ;)

fdsonne schrieb:
An was machst du die Kosten fest? Du sprichst ja explizit von Kosten... Nur an was gemessen?
Kosten erzeugt doch in erster Linie die Produktion des Siliziums. Ebenso fallen die Yields da rein... Mehr Ausschuss heist weniger verkaufte Chips bei gleichem Waferpreis, ergo höhere Produktionskosten.
Wenn 28nm und davon gehe ich aus, kostengünstiger ist als ein 20nm Prozess, dann hat das alles zumindest etwas Hand und Fuß. Die große Unbekannte ist aber, was erzeugt HBM überhaupt für Kosten? Zum einen produziert man die Speicherlogik und zum Anderen muss man diese Logik mit der GPU-Chip Logik verkoppeln.

Auch ich gehe davon aus, dass die 28nm Produktion (TSMC) im Moment noch kosteneffizienter vonstatten geht als die 20nm. Nagel mich jetzt aber nicht auf Details oder konkrete Zahlen fest. Ich setzte das halt mal voraus. Genaue Yieldraten kann ich jedenfalls nicht nennen. Das Auftragvolumen wird da sicher auch noch eine Rolle. Aber im Netz finden sich Informationen, die diese Annahme unterstützen. Das sollte erstmal reichen...

Ja, HBM ist eine etwas unbekannte Konstante. Ich gehe aber mal von vergleichbaren bzw. unwesentlich höheren Kosten zu GDDR5 aus. Zum einen würde es doch wenig Sinn machen die Serienproduktion von HBM anlaufen zu lassen, wenn die Kosten für den Markt (damit auch den Nutzen) nicht bereit wären. Zum anderen, wenn man bedenkt, das HBM-Speicher primär auf Grafikkarten verbaut werden soll, dann lauten die einzigen Großabnehmer AMD und nVidia. Von daher wird man die Kosten sicher ein Stück weit im Blick haben, sonst würde ein Übergang zur Serienproduktion sicher fatal enden. Sollte also eine Karte mit HBM kommen, wird man diese unbekannte im Vorfeld sicher bedacht haben.

fdsonne schrieb:
Aus meiner Sicht entsteht dabei ein nicht zu vernachlässigbares Risiko. Sprich wenn du ne fiktive Yield-Rate von 100% bei der Chipproduktion hast, dir aber 50% der Chips durch das Verheiraten unnutzbar wären, kostet dich HBM effektiv 50% mehr. (mal als Beispiel)

Schon, aber dann wäre man für die Serienproduktion (auf Grafikkarten) eben noch nicht bereit.

fdsonne schrieb:
20nm + HBM würde sogar doppeltes Risiko bedeuten. Beschissene Yields am Anfang + Risiko durch HBM. Was den Hersteller das am Ende kosten wird? Ist aus meiner Sicht faktisch gar nicht geklärt noch ansatzweise heute irgendwie erklärbar ohne konkrete Zahlen.

In erster Linie ist also HBM sicher kein Garant für niedrigere Kosten ;) Dazu kommt der Umstand mit der Speichergröße. Die Kosten von GDDR5 Anbindung sind im Grunde völlig nebensächlich, wenn man mit HBM keine Ausbauten größer 4GB (stand heute) hinbekommt. Denn egal was es kostet, eine adäquate Leistung via HBM scheint aktuell nicht machbar...

Man muss das auch immer in Relation zu den anderen Alternativen sehen. Auch wenn es so sein sollte, das dich HBM etwas mehr kostet, so kann der Vorteil durch HBM insgesamt doch wieder überwiegen. Da möchte ich auch nicht mehr zu schreiben, lass es mal so stehen, hast ja auch nicht unrecht, mal abwarten und schauen wie sich das entwickelt...

Meinst du, ausgehend von dem Benchmark hier, AMD kann es mit 28nm + GDDR5 schaffen (kosteneffizient) so performant zu sein?

fdsonne schrieb:
Bei AMD hingegen steigt die DIE-Size wohl "stark" an. Ne fette ~550mm² GPU wird für Fiji spekuliert. Das sind schonmal mehr wie 20% mehr DIE-Size als es Hawaii heute kann. Gepaart mit der womöglich beschisseneren Yield-Ausbeute bei größeren/komplexeren DIEs, dem womöglichen Ausschuss durch vermurkste HBM "Heirat" und sonstweden anderen Problemen...

Joa, ich seh das nicht ganz so schwarz. Warten wir mal ab...

fdsonne schrieb:
Auch halte ich die Verkaufspreise der HighEnd GPUs für völlig an der Nase herbeigezogen. Da kosten dich wenige Prozente mehr Performance deutlich mehr Aufpreis. Ja auf der einen Seite begründet man das mit dem HighEnd Aufschlag, auf der anderen Seite wirtschaftet das dem Unternehmen in die Tasche, keine Frage. Soll heißen, wenn AMD keine GPU anbietet, die schneller als eine GM204 in Form der 970er wird, und ebenso viel kostet, dann ist das nicht unbedingt ein Beinbruch, wenn man dafür aber in der Mittelklasse richtig viel absetzt. Das gleiche gilt auch für die größeren GPUs.

Interessant ist auch, das HBM erstmal nur bei den High-End Karten zu finden sein soll. Da hier, wie du schreibst, bei der Preisgestaltung mehr Spielraum zur Verfügung steht, könnte das tatsächlich darauf beruhen, das HBM nicht viel billiger, gar ein teurer Spaß werden wird...
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh