Gerücht: AMD Radeon R9 390X vermutlich mit 4.096 Streamprozessoren

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img src="/images/stories/logos-2013/amd-radeon-2013.jpg" width="100" height="100" alt="amd-radeon-2013" style="margin: 10px; float: left;" />Nachdem wir gestern die neusten <a href="index.php/news/hardware/grafikkarten/33310-neue-geruechte-zur-nvidia-geforce-gtx-960-und-titan-ii.html">Gerüchte zur kommenden NVIDIA GeForce GTX 960 und wohl einer neuen Titan-Grafikkarte </a>aufzeigen konnten, ist heute die Konkurrenz an der Reihe, denn auch hier kamen in den letzten Stunden weitere Details ans Tageslicht. So tauchte in der Datenbank von SiSoftware erneut eine bislang unbekannte Grafikkarte auf. Die Einträge sind dort zwar schon seit dem 20. Oktober zu finden, allerdings wurden sie erst jetzt von den Kollegen von WCCFtech.com entdeckt.</p>
<p>Demnach könnte AMD bei seinem...<br /><br /><a href="/index.php/news/hardware/grafikkarten/33319-geruecht-amd-radeon-r9-390x-vermutlich-mit-4096-streamprozessoren.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da werde ich mit der neuen Graka mal noch warten. Hoffe das dauert nicht mehr so lange. Q1 15 wäre doch nett.
 
ich bin ja schon knapp drann mir nach langer zeit wieder mal ne nvidia zu holen, bei der 980 würde es mir schon in den Fingern jucken

aber wenn die inneren Werte halbwegs und vor allem der kleinere Fertigungsprozess stimmen,

dann hoffe ich das es nicht mehr allzulange dauert, und ich meine 7970 lightning mit einer R390X lightning ersetzen kann

edit:
was meint ihr wenn die Karte so kommen würde, würde die Leistung einer einzelnen Karte für vernüftiges Gaming in 4K reichen, wohl eher noch nicht oder ?
 
Zuletzt bearbeitet:
AMD macht jetzt mal wieder ernst und baut eine richtige Grafikkarte und kein Spielzeug.
Hohe Bandbreite für viel Speicher und anspruchsvolle Auflösungen sind immer ein gutes Zeichen, für die Rohleistung einer neuen GPU.
Bei AMD bekommt man Technologien aus der Zukunft für den Preis von Gestern.
 
ließt sich wie eine wunschliste....
sollte diesmal der ref. kühler eine aio wakü sein dann wird die karte einschalgen wie eine bombe, oder so viel kosten wie eine nvidia...man wird sehen.
fanboys gibts hier ja zum glück nicht so viele aber ich sag mal so
/fanboygelaberon : sobald die karte rauskommt seh ich schwarz für nvidia /fanboygelaberoff
 
Naja... der war noch besser ... Aber man kennt ihn ja ^^

:rofl:

Fiji XT alias Radeon R9 390X: AMDs High-End-Grafikkarte mit schnellem Speicher beim Zoll - Golem.de

"Neue Speicher-Technologie

Beim Speicher gelten inzwischen High-Bandwith-Chips von SK Hynix als gesetzt, wohl ein Grund weshalb die Datenbank von einem 4.096 Bit breiten Speicherinterface ausgeht. Bei HBM-Speicher werden die Speicherchips nicht mehr einzeln auf der Platine verbaut und meist im Doppelpack über einen 64-Bit-Controller angeschlossen, sondern in mehreren Lagen übereinander gestapelt und zu einem Stack zusammengeschlossen. Pro Lage sollen gleich zwei 128-Bit-Interfaces zur Verfügung stehen, womit jeder Stack über 1.024 Bit angeschlossen wäre.

SK Hynix hat die erste Ausbaustufe seines neuen HBM-Speichers mit einer Taktrate von 1.000 MHz spezifiziert, woraus eine Speicherbandbreite von knapp über 512 GB pro Sekunde resultieren würde. Die Daten der SiSoftware-Datenbank sprechen allerdings von leicht höheren Taktraten. Bei den angegebenen 1,25 GHz für den Speicher könnte dieser sogar eine Datentransferrate von 640 GB pro Sekunde erreichen. Zum Vergleich: Eine AMD Radeon R9 290X bringt es hier mit ihrem 512-Bit-Inteface und GDDR5-Videospeicher mit 1.250 MHz noch auf knapp 320 GB pro Sekunde."
 
Zuletzt bearbeitet:
dochurt
Du als selbsternannter AMD Hasser hast natürlich massive Komplexe, wenn AMD neue Techniken bringt.

Wie kann man eigentlich so inkonsequent wie du sein? AMD hassen, aber zu jedem AMD Thema kommen deine substanzlosen Buchstaben. Ohne AMD würdest du wohl nicht mehr wissen, was du mit deiner Zeit anstellen sollst. Du solltest einen AMD Schrein in dein Zimmer stellen.

Bin gespannt was dabei raus kommt. Nvidia hat ja doch mit ihren 970/980 Karten ein überaus positives Image gesetzt. Wobei ich das zu überbewertet sehe.
 
Zuletzt bearbeitet:
Es wäre klasse, wenn an stelle von Evolution mal wieder eine kleine Revolution geschieht.
Mit dem Neuen Speichermodell bin ich höchst gespannt, was da auf die Beine gestellt wird..

Und das AMD hier die Nase vorn hat in Sachen Neuheit ist genial. Denen gönne ich den Schritt.. Jetzt muss er nurnoch "glorios" werden
 
Sehr fein wäre noch Klasse wen AMD noch die Monate dazwischen für weitere Software feature nutzen würde .
Downsampling im Treiber wie bei NV würde ich mir wünschen.
Das wird wieder ein großer Schlagabtausch an der Spitze.
Bin aber auch gespannt ob das in 20Nm erreicht wird oder in 28Nm.
 
hier stand ein brainfart :)
 
Denke 20Nm, denn AMD war bei den Prozessen immer Vorreiter und für Fiji wirds wohl auch weitaus idelaer sein auf 20Nm zu setzen, so viele Karten braucht es ja nicht zum Release, und in 1-2 Monaten dürfte es schon besser aussehen.
Wichtig ist dass man was gegen NV in der Hinterhand vorbereitet!
und die R9 290(X) werden über Weihnachten sehr gut abverkauft werden, denn der Preis ist nun echt heiss, auch jener der 8GB Modelle!
 
Bin mal gespannt wie der Speicher in der 1. Generation einschlägt. Aber das könnte endlich mal wieder ein größerer Schritt werden.
4096 cores und 4096 Datenleitungen. Das schlachtet das Marketing doch bestimmt als die 4k Karte aus oder so.
4k cores 4k Speicherkinterface 4GB RAM für 4x4 fehlt also nur noch 4GHz Takt ;-)
 
4GB währe etwas wenig alles unter 6GB währe schwach.
 
Bin mal gespannt wie der Speicher in der 1. Generation einschlägt. Aber das könnte endlich mal wieder ein größerer Schritt werden.

Warum?

Also ich sag mal so, nimmt man es ganz nüchtern, sind 4096 wohl eher das minimum an ALUs, die so ne GPU bekommen sollte.
Denn wir wissen atm was der GM204 zu leisten im Stande ist. Wir wissen ebenso, das noch ein GM200/210 kommt und das nicht noch Jahre dauern wird.
Spekuliert wird dafür aktuell eine Anzahl von 3072 ALUs. Was 50% größer GM204 entspricht.

Stellt sich jetzt die Frage, was AMD noch alles aus GCN rausquetschen kann. Ansich ist die Technik nicht ineffizient oder ähnliches. Sondern es besteht eher ein Problem mit dem Strombedarf.
Breiterer Chip heist erstmal möglicherweise gut effizient in Sachen Perf/Watt. Nur muss das ganze dann auch entsprechend in gewissen Rahmen gehalten werden. Eine HighClock Version, die auf Biegen und Brechen die letzten paar Prozentpunkte Leistung rauskitzelt, wird definitiv nicht das Effizienzwunder werden.

4096 ALUs heist also grob 45% mehr wie sie Hawaii bei einer 290X liefert. -> damit kann man sich in etwa ausmahlen, wohin die Reise geht.


Ich sehe auch aktuell kein wirkliches Bandbreitenproblem bei den aktuellen HighEnd Chips. Und mit 50% mehr ALUs wird man da wohl auch nicht derart stark steigern, dass dies zum wirklichen Limit wird.
Die Technik selbst ist durchaus interessant. Bleibt die Frage nach der Umsetzung und dem Vorzug am Ende.
Mit 512Bit SI und 1750MHz GDDR5 Chips kommt man auf knappe 450GB/sec.
Die 4096Bit HBM Chips mit spekulierten 1000MHz kommen auf grob 500GB/sec.
Das ist nun nicht unbedingt der riesen Unterschied...

Interessanter bei dem Thema wird eher die Speichergröße. 4GB in Summe sind schon etwas wenig für so ein Modell.
Ob das aktuell mit HBM umsetzbar ist? Ich weis es nicht...

Auch interessant dürften die Kosten für das ganze werden. Wenn NV zuerst mit einem neuen Titan Aufguss um die Ecke kommt und AMD mit der 390X gegen hält, können wir uns faktisch vorerst günstige HighEnd GPUs abschminken. Sollte sich dazu herrausstellen, das das AMD Produkt bedeutende Vorteile gegenüber der NV Lösung hat, gleich um so mehr...
 
Gibts dazu schon zahlen?

Also was benötigt Hawaii aktuell allein durch die GDDR5 Speicheranbindung an (mehr) Strom?
 
was meint ihr wenn die Karte so kommen würde, würde die Leistung einer einzelnen Karte für vernüftiges Gaming in 4K reichen, wohl eher noch nicht oder ?

Für einen großteil der Spiele, ja. Zumindest für >60Fps, sofern du das unter "vernüftiges" gameplay verstehst :)

hier stand ein brainfart :)

:rofl:

@Topic
Hört sich ja soweit ganz gut an. Aber lassen wir uns erst einmal überraschen, was da am Ende bei rum kommt.
Der Stromverbrauch müsste eigtl schon sinken durch den neuen Speicheraufbau.
Wobei mich und wahrscheinlich der größste Teil der Kundschaft eher die Leistung interessiert.
 
Die Speicheranbindung verursacht einen nicher gerade kleinen Teil des Engergiebedarfs aktueller Hight-End Grafikkarten. Und das Platinenlayout ist bei breiterer Speicheranbindung mit klassischem GDDR5 speicher auch nicht gerade einfach.
Sollte das Speicherinterface für HBM weniger Energie benötigen bliebe ein bisschen mehr für die GPU (wenn man sich die R9-290x ansieht limitiert da ja schon irgendwie die abwärme) oder ein geringerer Verbrauch. Beides wäre ganz nett.
Das einfachere Platinenlayout kann Produktionskosten senken und die Karten vielleicht mal wieder ein bisschen kürzen.

Das ganze wäre halt alles auch gerade für die mitteklasse Karten interessant.
Da klatscht man halt einfach 4 1GB HBM Module auf so eine Karte neben eine ordentliche GPU betreibt das ganze bei moderatem Takt und man hat was für die Leute die gern mal Zocken und keine Turbine unterm Tisch stehen haben wollen.
Das der Markt für sowas nicht gerade klein ist sieht man ja am Erfolg der GTX970.

Mittlerweile wäre man ja schon froh über 30% Performance Gewinn bei einer neuen Grafikkarten Generation.
Und wenn was an den Gerüchten dran ist, dann liegt der Zuwachs bei gleichen Takt im Vergleich zur 290x möglicherweise zwischen ~30% (~30%mehr cores) und 100% (100% mehr speicherbandbreite)
Wenn das ohne höheren Energieverbrauch klappen sollte wäre das so traurig das ist die größte Leistungssteigerung seit erscheinen der HD7970 evtl. auch 6970.


edit: ich habe mal irgendwo gelesen, dass sich am Speicherinterface zwischen 30W und 50Watt sparen lassen könnten. Aber ich habe keine Ahnung ob das irgendwas mit der Realität zu tun haben könnte. Wie das so mit Dingen ist die man irgendwo im Internet aufschnappt. Manche sind halt 1:1 so und manche liegen soweit daneben, dass man sich schämen muss dem ganzen mal getraut zu haben.
Aber das ein leistungsfähiges Speicherinterface Energiehungrig sein kann sieht man bei den CPUs ja auch beim Socket 2011
 
Zuletzt bearbeitet:
Gibts dazu schon zahlen?

Also was benötigt Hawaii aktuell allein durch die GDDR5 Speicheranbindung an (mehr) Strom?

"...........High Bandwith Memory soll nicht nur mehr Datentransferrate und weniger Platz auf der Platine belegen, sondern auch weniger Energie benötigen als GDDR5-Speicher. SK Hynix spricht von unter 30 statt über 80 Watt, welche die Chips und der Controller zusammen an Leistung aufnehmen............."
 
das traurige ist ja, das es seit den 80er jahren spätestens alle 2 jahre deutliche architektur verbesserungen gab.
dieser trent endete mit der HD7970 von Dezember 2011. daher kann man jetzt nur noch auf shrinks und energiesparmaßnahmen warten um noch mehr recheneinheiten bzw takt zu verbauen.
 
Die Speicheranbindung verursacht einen nicher gerade kleinen Teil des Engergiebedarfs aktueller Hight-End Grafikkarten. Und das Platinenlayout ist bei breiterer Speicheranbindung mit klassischem GDDR5 speicher auch nicht gerade einfach.

Ja das laß ich auch... Aber offenbar scheint das ganze dann am Ende doch nicht soooo extrem reinzuknallen wie man es sich denkt.
Wo soll denn bspw. eine GTX 970 unter normaler Gaminglast 80W allein für das GDDR5 Speicherinterface nebst Chips verblasen, wenn da unter Gaminglast gerade mal 150W gesamt auf der Uhr stehen? Dann würden für den Rest ja nur noch 70W über bleiben, was ich als extrem unrealistisch halte.
Heist also unterm Strich, die Werte sollten klar differenziert werden...

Ich denke mal der Weg wird auch bei AMD dahingehend übergehen, dass wir in Zukunft Produkte sehen, die sehr schnell zwischen Last und Idle state umschalten können um so möglichst nur dann Energie zu verbrauchen, wenn auch Last da ist. Da liegt wohl sehr hohes Potential, wie GM204 aktuell zeigt.

Was das Layout angeht, da wäre es halt die Frage... Ist es wirklich weniger komplex?
Im Grunde heist gestapelter RAM ja nicht unbedingt, dass die Datenleitungen weniger werden...

Mittlerweile wäre man ja schon froh über 30% Performance Gewinn bei einer neuen Grafikkarten Generation.
Und wenn was an den Gerüchten dran ist, dann liegt der Zuwachs bei gleichen Takt im Vergleich zur 290x möglicherweise zwischen ~30% (~30%mehr cores) und 100% (100% mehr speicherbandbreite)
Wenn das ohne höheren Energieverbrauch klappen sollte wäre das so traurig das ist die größte Leistungssteigerung seit erscheinen der HD7970 evtl. auch 6970.

Hier stellt sich mir die Frage, was vergleicht man wirklich?
Ich würde bspw. einen GF110 vs. GK104 vs. GK110 vergleichen.
Oder einen Cayman vs. Tahiti vs. Hawaii.
Je nachdem sind da durchaus größere Sprünge drin...

Zwischen GF110 und GK110 liegt knapp eine Leistungsverdopplung bei weniger Verbrauch.
Zwischen Cayman und Hawaii liegt mehr als eine Leistungsverdopplung bei ähnlich hohem Verbrauch.

"...........High Bandwith Memory soll nicht nur mehr Datentransferrate und weniger Platz auf der Platine belegen, sondern auch weniger Energie benötigen als GDDR5-Speicher. SK Hynix spricht von unter 30 statt über 80 Watt, welche die Chips und der Controller zusammen an Leistung aufnehmen............."

Wie oben schon erwähnt, das kenne ich auch. Nur unter welchen Bedinungen ist das ausgesagt wurden?
Äpfel mit Birnen kann man da schnell bilden um irgendwelche Zahlen in den Raum zu stellen. Nur haben diese Hand und Fuß?

Eine GM204 GPU erzeugt wohl definitiv keine 80W Verbrauch über das Speichersubsystem bei 150W gesamt Load für Games.
Auch gewinnt bspw. ein Tonga allein durch das veringerte SI nicht derart viel ggü. Tahiti.

Und gerade bei solchen Karten wie Tahiti sieht man doch recht schön, das die Teildeaktivierten Modelle klar massiv sparsamer sind als die Vollausbau Modelle, obwohl sich am Speichersubsystem gar nix ändert. Und OC Modelle obenrum in Verbrauch nochmals drastisch zulegen können auch ohne, dass da viel am Speicher selbst gedreht wird.

Nach aktuellem Kenntnisstand schätze ich den Einfluss auf den reinen Gesamtkartenverbrauch runtergebrochen auf die Speicheranbindung als eher gering ein. Zumindest in Sachen Performance bis HighEnd Modelle...
Bei den kleinen Karten könnte das hingegen anders ausschauen...
 
das traurige ist ja, das es seit den 80er jahren spätestens alle 2 jahre deutliche architektur verbesserungen gab.
dieser trent endete mit der HD7970 von Dezember 2011. daher kann man jetzt nur noch auf shrinks und energiesparmaßnahmen warten um noch mehr recheneinheiten bzw takt zu verbauen.

Wenn man sich nur auf AMD beschränkt hast du recht.
Die Maxwell Architektur war jedefalls ebenfalls eine bedeutende Architekturverbesserung: Mit deutlich weniger Recheneinheiten, gleichauf mit dem Vollausbau der letzen gen!
Takt und Recheneinheiten sind nicht alles.

- - - Updated - - -

Wo soll denn bspw. eine GTX 970 unter normaler Gaminglast 80W allein für das GDDR5 Speicherinterface nebst Chips verblasen, wenn da unter Gaminglast gerade mal 150W gesamt auf der Uhr stehen?
Der Wert von 80W bezog sich ja wohl sicher auf die 512Bit Anbindung der R9 290(x). Bei der 256bit von NV dürfte es sicherlich weniger sein.
Außerdem ging es ja nicht nur um den Controler der sparsamer sei, sondern auch um die neuen Speicherzellen.
 
Zuletzt bearbeitet:
wenn ich dran denke wie rapide das damals noch war mit den leistungssprüngen.
2006 war ja die geforce 8800 total das monster und ein quantensprung.
die Geforce 7800 von 2005 war aber auch nicht gerade alt.
die geforce 6800 und ATI X800 serie war aber auch gerade mal von 2004
und 2003 Dominierten noch Radeon 9800 und Geforce 5900 wohingegen 1 jahr zuvor noch die meisten leute mit Geforce 2 und geforce 4 unterwegs waren.

diese tollen zeiten waren auch der grund für mein hardwarehobby und beitritt hier im forum und konsum von pc hardware zeitschriften.
Das waren noch quantensprünge. iergentwie ist das alles seit 2011 tot und vorbei.

- - - Updated - - -

Wenn man sich nur auf AMD beschränkt hast du recht.
Die Maxwell Architektur war jedefalls ebenfalls eine bedeutende Architekturverbesserung: Mit deutlich weniger Recheneinheiten, gleichauf mit dem Vollausbau der letzen gen!

AMD hatte vor Maxwell die bessere Architektur als Nvidia. Nvidia hat jetzt aufgeschlossen, aber im endeffekt haben sie ca das gleiche niveau. da passiert nicht mehr viel. jedenfalls nicht mehr so viel wie im vergleich von vor 10 jahren im selben zeitraum passiert wäre.
 
Klar, denn wer erinnert sich nicht an die legendären AMD-3D-Beschleuniger aus den 80ern...
 
das traurige ist ja, das es seit den 80er jahren spätestens alle 2 jahre deutliche architektur verbesserungen gab.
dieser trent endete mit der HD7970 von Dezember 2011. daher kann man jetzt nur noch auf shrinks und energiesparmaßnahmen warten um noch mehr recheneinheiten bzw takt zu verbauen.

Den versteh ich schon wieder nicht...
Der Trend (wie ich dir dazu schon bestimmt 10 mal gesagt habe) geht klar in Richtung Effizienz. Also Leistung pro Watt...
Warum? Weil wir nicht wie bis dato üblich die Leistung über den Verbrauch steigern können.

Es ist also heute um so wichtiger die Effizienz zu steigern um mehr Luft für mehr Leistung fabrizieren zu können.
Nimm dir mal den GM204 als aktuell "neueste" Generation GPU auf dem Markt und vergleiche den GM204 einer GTX 970 gegen einen GF110 einer GTX 580.
-> du hast in etwa eine Leistungsverdopplung.
-> du hast in etwa eine Verbrauchshalbierung.

Unterm Strich steigt das Perf/Watt Verhältnis um Faktor 4 (in Games) -> Perf/Watt in GPGPU Anwendungen mit DP Leistungsbedarf sogar noch weit höher.

Was willst du mehr?

Bei AMD sieht das nicht minder schlecht aus, nur dass dort eben noch der Gegenpart einer GM204 Maxwell GPU fehlt -> der kommt aber sicher noch.

Der Wert von 80W bezog sich ja wohl sicher auf die 512Bit Anbindung der R9 290(x). Bei der 256bit von NV dürfte es sicherlich weniger sein.

Steht aber wo?
Irgendwas annehmen kann jeder. Fakten müssen auf den Tisch.

Oder man lässt sich gern vom Marketinggeblubber blenden ;)

PS: mal davon ab, Hawaii bedient sich dank breitem SI eher niedrig taktenden Speichern, wärend NV mit GM204/GK110 das aktuell eben andersrum macht.

Die Werte werden sich wohl viel eher auf irgendwelche Labormessungen beziehen. Aber selbst dann stellt sich noch die Frage, was genau wurde denn da ermittelt?
Ist das 4096 Bit SI bei 1GHz vllt das effizienteste, was HBM atm kann? Oder wurde gar das ineffizienteste Konstrukt mit GDDR5 als Gegenpart genutzt?
-> ich weis es aktuell nicht. Deswegen die Frage nach den Zahlen. Aber ich seh schon, hier ist faktisch auch nix zu holen. :wink: Von daher, Ball flach halten und abwarten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh