Gerücht: AMD Radeon R9 390X vermutlich mit 4.096 Streamprozessoren

ich bezog mich damit nicht speziell auf AMD/ATI.

- - - Updated - - -

Es ist also heute um so wichtiger die Effizienz zu steigern um mehr Luft für mehr Leistung fabrizieren zu können.
Nimm dir mal den GM204 als aktuell "neueste" Generation GPU auf dem Markt und vergleiche den GM204 einer GTX 970 gegen einen GF110 einer GTX 580.
-> du hast in etwa eine Leistungsverdopplung.
-> du hast in etwa eine Verbrauchshalbierung.

Unterm Strich steigt das Perf/Watt Verhältnis um Faktor 4 (in Games) -> Perf/Watt in GPGPU Anwendungen mit DP Leistungsbedarf sogar noch weit höher.

Was willst du mehr?

Bei AMD sieht das nicht minder schlecht aus, nur dass dort eben noch der Gegenpart einer GM204 Maxwell GPU fehlt -> der kommt aber sicher noch.

genau diese argumentation ist für mich ungültig da sie mit einer spekualtion begründet wird die erst noch eintreffen muss.

wie ich bereits schrieb war AMD von der architektur her 2011 am "zenit" der schnellen entwicklung, Nvidia ist es erst jetzt mit Maxwell.
daher ist es klar das Nvidia stärkere leistungen pro watt erzielen konnte als AMD. der langsamere kann eben mehr aufholen als der schnellere.
wenn man die heutige aktuelle derzeit auf dem markt verfügbare High End R9 290X kaufen würde, und deinen vergleich mit der HD7970 von 2011 macht, und bedenkt das da jetzt 3 jahre zwischen liegen, und dann mal schaut was in 3 jahren zwischen 2003 und 2006 oder 2001 und 2004 der fall an steigerung war, wirst du merken das der fortschritt wirklich deutlich abgenommen hat, größtenteils eben wegen den fehlenden shrinks, was man aber wohl auch sagen dürfen wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich glaube kaum, das ein 512Bit Interface besonders sparsam ist. Auch wenn der Speicher moderat getaktet wird. Laut Aussage verbrauchen High-End-Grakkas alleine für die Speicheranbindung bis zu 80 Watt !
Mit HBM wird dieser Energiehunger in etwas halbiert bei gleichzeitig höhere Speicherbandbreite.

Ich denke, AMD wird mit Fiji genau die selbe Linie fahren wie NVIDIA es tut. 20nm bedeuten eine etwa 30% kleinere Fertigung. Bedenkt man noch dazu, das höchst wahrscheinlich die Tonga-Architektur einfließen wird, und die Packdichte auch noch deutlich zugelegt hat, so ist Fiji mit 4096 Shadern vielleicht nur 330-350mm² groß. Ein 512 Bit-SI ist ja dann nicht mehr nötig.
Somit fängt AMD nun auch an erst einmal die kleineren Chips als High-End zu vermarkten um später dann auch die größeren Chips bauen zu können.

Warum nicht ? NVIDIA macht das ja schon seit ein paar Jahren so.

Wenn Fiji allerdings noch in 28nm kommt, dann würde das die Wasserkühlung erklären.
 
Denke auch das 80W vielleicht bei der R9-290x beim 512Bit Bus anfallen. Wenn ein 256Bit Bus dann noch die hälfte braucht wären das 40W und das klingt schon eher realistisch.
Die geringeren Taktraten des Speichers machen sicher auch einiges aus beim Verbrauch.

50W ersparnis bei einer R9-290(x) würden vermutlich dazu genutzt die höheren Taktraten länger zu halten. Aber 50W macht schon den Unterschied zwischen einem Energiehungrigen Monster und einer von der breiten Masse akzeptierten Grafikkarte.
 
Da stimme ich dir zu, viele sind im total übertriebenen Stromsparwahn und nehmen dafür ggf. sogar zig Euros Aufpreis in Kauf....
 
Duplex schrieb was interessantes in einem anderen Forum zu der 390X.

"Der Chip soll in 28nm gefertigt werden, spekuliert wird schon länger über ein >600mm² DIE.
Ich denke das AMD 28nm noch bis mitte 2016 nutzen wird, danach kommen wohl die R400 Chips in 16nm von TSMC.
"
 
2006 war ja die geforce 8800 total das monster und ein quantensprung.

Mhhh... Eher nicht.
Zu Release von G80 lagen ca. 60% im Schnitt zugunsten der 8800GTX auf eine X1950XTX (was die schnellste Single GPU davor war) an.
Das ist nicht sooo viel, wie man es heute gern hinstellt...
Was die G80 gut gemacht hat ist die Tatsache, dass der Chip extrem lange ganz oben mitgeschwommen ist... Warum? Es gab bis zum RV770/G200 keinen Chip, der adequate Mehrleistung fabrizieren konnte. Und diese beiden GPUs kamen erst fast 2 Jahre später als der G80 auf den Markt. Was für damalige Releasezyklen eben eine verdammt lange Zeit war.

Ein GK110 in Form einer GTX 780TI ist im Schnitt bspw. nicht minder langsamer als ein GK104 in Form einer GTX 680 oder Tahiti GPU in Form einer HD7970. Nimmst du dir Werks OC Modelle dazu, wird die Lücke sogar noch drastisch größer und steigt bis fast auf Faktor 2 an.

Was heute völlig anders läuft als damals noch. Die Hersteller releasen ihre Produkte in eher kleinen Zyklen. Und mittlerweile nur noch kläckerweise. Also erst die GTX Titan als teildeaktiveres Modell zu hohem Preis. Dann die GTX 780 als noch mehr abgespecktes Modell, dafür preislich attraktiver. Und am Ende die GTX 780TI als volles Modell mit wenig VRAM + GTX TitanBE als volles Modell mit doppeltem VRAM.
Vier Karten vom selben GPU Produkt mit teils ziemlich großen Unterschieden über mehr als ein halbes Jahr Zeitunterschied.

AMD hatte vor Maxwell die bessere Architektur als Nvidia. Nvidia hat jetzt aufgeschlossen, aber im endeffekt haben sie ca das gleiche niveau. da passiert nicht mehr viel. jedenfalls nicht mehr so viel wie im vergleich von vor 10 jahren im selben zeitraum passiert wäre.

Wer definiert denn besser?
Was ist an GCN denn besser?
Offenbar liegen die meisten Kritikpunkte nicht in der Architektur selbst, sondern viel eher in der Umsetzung der Produkte am Ende...

Soll heißen, die beste Architektur nutzt dir als Hersteller gar nix, wenn die Umsetzungen kappes sind. AMD kann leider ein Liedchen davon singen, wie man Produkte mit Sachen kombiniert und so etwas gutes zu einer schlechten Umsetzung ummünzen kann. Stichwort Referenzkühlung der HD7970/7970GHz oder 290/290X Karten.
 
R 400 hört sich immer gut an ;)


Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
wie ich bereits schrieb war AMD von der architektur her 2011 am "zenit" der schnellen entwicklung, Nvidia ist es erst jetzt mit Maxwell.

Das ist doch aber unfug...
AMD brachte 2007 die VLIW5. Diese wurde bis einschließlich den RV870 Modellen verwendet.
Darauf folgte mit Cayman mit VLIW4. Man selbst sprach von einer Verbesserung, am Ende war es aber nicht wirklich ein großer Schritt und wurde im nächsten Schritt gleich wieder beerdigt.
Ende 2011 folgte dann GCN und somit eine völlige Überarbeitung des Ganzen. Das war der erste Schritt seit langem, da mal frischen Wind in die Hütte zu kriegen.

Im Vergleich. NV hällt seit dem G80 am eigentlichen Grundprinzip fest.
Hat aber mit dem GF100 an der Technik was verändert (wegfall des zusätzlichen MULs pro Takt) und mit Kepler den Hotclock zugunsten von einfacheren und dafür in der Anzahl deutlich gesteigerten ALUs verändert.
Das Grundprinzip ist aber immernoch identisch! Auch bei Maxwell ist das nicht anders.
Den Schritt den man mit Kepler eingegangen ist, brachte in die NV Technik erstmalig seit langem eine vergleichsweise gute Effizienz in Sachen Leistung pro Watt hinein. Mit Maxwell hat man das ganze nochmal weiter verfeinert und stark an den Energieoptionen geschraubt.

Ich sehe da ganz und gar nicht den Punkt, das irgendwas da am "Zenit" angekommen ist. Ganz im Gegenteil... Das was NV heute macht kann sich AMD angucken und ggf. Rückschlüsse auf die eigene Technik ziehen. Zum Teil ist das ganze ja nichtmal ein großes Geheimniss. Andersrum funkt das ebenso.

PS: Pascal kommt übrigens bei NV ebenso, bekommt ebenso angeblich irgendwelche geänderte RAM Anbindung weg vom GDDR5 und wird in Sachen Leistung/Watt weiter vorran gehen. Ob AMD oder NV da am Ende die Nase vorn haben wird, steht völlig in den Sternen.
Ich an deiner Stelle würde mich aber nicht auf das dünne Eis hinaus begeben und da anfangen was von besserer Architektur oder Zenit in der Entwicklung rumposaunen. Denn da sind wir lange nicht angekommen ;)
 
4GB währe etwas wenig alles unter 6GB währe schwach.

Wieso? Hättest du eine GPU lieber mit 8GB DDR3 als mit 4GB GDDR5? HBM hat nicht nur eine deutlich höhere Speicherbandbreite, sonder auch viel niedrigere Latenzen, das ergibt deutlich mehr Leistung. Der HBM auf einer theoretischen R9 390X sollte mehr als doppelt so schnell sein wie der GGDR5 auf einer R9 290X.
 
das traurige ist ja, das es seit den 80er jahren spätestens alle 2 jahre deutliche architektur verbesserungen gab.
dieser trent endete mit der HD7970 von Dezember 2011. daher kann man jetzt nur noch auf shrinks und energiesparmaßnahmen warten um noch mehr recheneinheiten bzw takt zu verbauen.
Das Problem ist, AMDs echte Next-Gen Architektur (GCN2) war auf 20nm ausgelegt und sollte schon im vergangenen Jahr kommen. Leider kommt TSMC mit 20nm nicht aus dem Quark. Deshalb gab es zuletzt immer nur inkrementelle Architekturupdates von AMD. Und deshalb sollte man auch bei Fiji erst mal abwarten, ob es sich tatsächlich um GCN2 und 20nm handelt. Zumindest letzteres halte ich für wenig wahrscheinlich. Es schaut im Moment weiterhin nach 28nm aus. Ich frage mich, warum in der Tabelle 20nm als Fakt hingestellt wird. Gesichert ist das nicht. Ein Fragezeichen dahinter wäre passender.


Ja das laß ich auch... Aber offenbar scheint das ganze dann am Ende doch nicht soooo extrem reinzuknallen wie man es sich denkt.
Wo soll denn bspw. eine GTX 970 unter normaler Gaminglast 80W allein für das GDDR5 Speicherinterface nebst Chips verblasen, wenn da unter Gaminglast gerade mal 150W gesamt auf der Uhr stehen? Dann würden für den Rest ja nur noch 70W über bleiben, was ich als extrem unrealistisch halte.
Dir ist aber schon klar, dass sich diese Werte nicht auf eine GTX 970 beziehen? Natürlich haut HBM ordentlich rein. Allerdings mehr bei Karten mit hoher TDP und hohem Bandbreitenbedarf und weniger bei Karten mit wenig TDP und wenig Bandbreitenbedarf. Übrigens, auch Nvidia sieht hier eine Einsparung von ~2/3 was den Speicher betrifft. Dazu gibt's auch ein PDF. ;) Allerdings kommt von denen nix vor 2016. AMD wird hier also mindestens ein Jahr Vorsprung haben. Den eigentlichen Vorteil von HBM sehe ich allerdings weniger bei dGPUs, sondern vor allem bei APUs. Diese werden im Moment am meisten durch fehlende Bandbreite limitiert.
 
Wieso? Hättest du eine GPU lieber mit 8GB DDR3 als mit 4GB GDDR5? HBM hat nicht nur eine deutlich höhere Speicherbandbreite, sonder auch viel niedrigere Latenzen, das ergibt deutlich mehr Leistung. Der HBM auf einer theoretischen R9 390X sollte mehr als doppelt so schnell sein wie der GGDR5 auf einer R9 290X.

Wenn RAM voll dann voll da bringt einen die speed allein leider nicht weiter.
Im CF und 4K wäre schnell Alete mit 4GB .
 
bin gespannt was es wird, imho versaubeutelt AMD die GCN Architectur bzw macht wie bei Bulldozer einfach immer mehr Kerne/cores bzw parallelisiert einfach.

das geht imho nicht und das Ding wird Saft brauchen den man durch HBM spart

vom Papier werden die sich gegenüberstehen, auf Augenhöhe, bleibt abzuwarten was in 16nm kommt
 
Zuletzt bearbeitet:
Irgendwie habe ich Angst das der notwendige große DIE von 600mm² im 28nm Prozess stark auf die Produktionskosten auswirkt und AMD noch Öl ins Feuer kippt und anstatt endlich mal an der Effizienz zu feilen noch mehr Leistung auf den Chip verbraten kann welche man ja am neuen Speicher spart. Am Ende wird AMD ne schnelle Karte vorzeigen, aber von Preis oder Energieverbrauch erwarte ich keine Wunder.
 
Zuletzt bearbeitet:
AMD macht jetzt mal wieder ernst und baut eine richtige Grafikkarte und kein Spielzeug.
Hohe Bandbreite für viel Speicher und anspruchsvolle Auflösungen sind immer ein gutes Zeichen, für die Rohleistung einer neuen GPU.
Bei AMD bekommt man Technologien aus der Zukunft für den Preis von Gestern.

Mit Treibern vom letzten Jahrhundert
 
Wenn RAM voll dann voll da bringt einen die speed allein leider nicht weiter.
Im CF und 4K wäre schnell Alete mit 4GB .

Ok, also 8GB DDR3 > 5GB GDDR5? Das war ja meine Ausgangsfrage. Hättest du auch gleich beantworten können :)


Mit Treibern vom letzten Jahrhundert

Naja, immer noch nicht so schlecht wie der Beta-Müll von Nvidia den man nicht mal mehr entfernen kann und oft muss man das Mainboard wechseln, weil der Treiber alles versaut hat.
 
Zuletzt bearbeitet:
Naja, immer noch nicht so schlecht wie der Beta-Müll von Nvidia den man nicht mal mehr entfernen kann und oft muss man das Mainboard wechseln, weil der Treiber alles versaut hat.

genau, Mainboard kaputt

aber kenn ich, bei AMD Treibern muss mein Auto immer in die Werkstatt, geht einfach nicht mehr an
 
Immer diese Fanboys...
Ich werde die schnellste Karte kaufen.

Aber am meisten hoffe ich bei der 390X auf 20nm + Freesync + 8GB Ram, das Ganze gepaart mit 40% mehr Leistung zur 780ti für max 500€, das wäre mal eine Karte die ich mir für meinen PC vorstellen könnte. Sollter aber nVidia wieder ne schnellere Karte haben, wirds halt die.

Mir Lachs ob AMD oder Nvidia...
 
genau, Mainboard kaputt

aber kenn ich, bei AMD Treibern muss mein Auto immer in die Werkstatt, geht einfach nicht mehr an

Meine Antwort war genauso wahr wie der Post von RoughNeck.
 
Einen weiteren Fanboy Krieg brauchen wir nicht, bleibt bitte sachlich.
 
Einen weiteren Fanboy Krieg brauchen wir nicht, bleibt bitte sachlich.

Wenn sie erwachsen wären und sich informieren würden, dann hätten wir sowas sicherlich nicht.

Übrigens an alle die sagen, dass AMD zu viel Saft braucht. Ihr kauft euch doch eh jedes Jahr oder alle 2 Jahre eine neue Graka! Und es gibt auch einige die dann innerhalb von 6 Monaten einfach noch mal upgraden auf z.b 2x NVIDIA Grakas. Sehr schön, dann gebt ihr mehr Geld aus und heult immer noch rum, dass die AMD Grakas mehr Strom benötigen würden. Denkt vorher mal realistisch!
 
Zuletzt bearbeitet:
Sehr schön, dann gebt ihr mehr Geld aus und heult immer noch rum, dass die AMD Grakas mehr Strom benötigen würden. Denkt vorher mal realistisch!
Naja, glaube den meisten geht es da weniger um die Stromkosten, sondern mehr um die Lautstärke die aus einem schwerer zu kühlenden Chip resultiert... Zusätzlich hat AMD bei der Ref 290(x) ja auch noch das Paradebeispiel eines schlechten Kühlsystems präsentiert.
Denke zumindest den Fehler werden sie auf jeden Fall nicht nochmal machen.
 
Exakt genau das ist der Grund, wieso ich dem Stromverbrauch eine recht hohe Priorität einräume. Gerade dann, wenn mehrere Monitore im Spiel sind und die Grafikkarte schon auf dem Desktop den Lüfter hochdreht, ist das nur noch nervig.
 
Geld für ne 500 Euro GPU aber für ne Wakü ist dann keins mehr da?

Mein geprügelten Stromschleuder-Tahiti höre ich nie.
 
Wozu nicht, wenn Geld nicht so wichtig ist aber dann die 50W extra die arme Luftkühlung plötzlich so unerträglich laut machen?
 
Dann kauft man einfach eine erträglich laute Grafikkarte der Konkurrenz, wenn es die mit ähnlicher Leistung zu einem ähnlichen Preis gibt. Ich glaube es gibt wenige andere Bereiche, wo die Menschen sich einer Marke so zugehörig fühlen, dass sie ihre Produkte auch dann noch kaufen, wenn sie deutliche Nachteile zur Konkurrenz mitbringen, wie bei Grafikkarten.
 
Naja ne R9 290X TriX von Sapphire hat nen deutlich besseren Kühler als die meisten Nvidia Karten die weniger Strom verbrauchen... aber genauso besser als die meisten Kühler auf AMD Karten!


Aber das Fanboytum bei Grafikkarten ist echt einfach nur Krass, selbst Apple gegen Samsung oder Playstation vs. XBOX ist nicht ansatzweise so schlimm...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh