Gerücht: AMD Radeon R9 390X vermutlich mit 4.096 Streamprozessoren

Nimm es mir auch nicht übel, aber du hast mal wieder keine Ahnung !
Hättest du nur im Ansatz das verstanden, was ich geschrieben habe, so würdest du nicht so etwas hier schreiben.

Die Desktop-Grafikkarten sind nicht für das "Durchschleifen" des Bildmaterials von der iGPU auf ihren Videoausgang ausgelegt, wenn die Grafikkarte abgeschaltet ist ! Auch die Desktops-Boards können nicht sowohl iGPU als auch GPUs über PCIe ansteuern. Das funktioniert nur mit Hydra, was sich ja bis jetzt nicht durchgesetzt hat.
Zero-Core von AMD schaltet nur die Grafikkarte ab, die man nicht für die Bildausgabe benötigt !
Es ist also keine Frage der Software, sondern es ist technisch nicht möglich. Dazu benötigt man andere Hardware, die dafür ausgelegt ist.
Der Grund warum es bei Notebokks/Laptops geht liegt daran, weil sie immer den selben Videoausgang verwenden. Nur so am Rande. Da ist es also technisch kein Problem die diskrete GPU abzuschalten und intern auf iGPU zu stellen.

Ich habe mich extra kurz gehalten, damit du das auch verstehen kannst. :wink:

Sich im Nachhinein informieren und dann so tun als hätte man es von Anfang an gemeint ... herrlich.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also ganz ehrlich, nach dem ganzen Spulengeschrei um dei 970ger, kann man eigentlich nur eines machen => nen großen Bogen um nvidia :coffee:
 
Also ich bin kein fanboy von irgendwas... doch vom tj11 :)
Aber eine 970 ohne spulenfiepen hab ich schon mal zumindest live gesehen. ..

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Aufgeräumt. Euren AMD vs NVIDIA und User vs User Krieg könnt ihr bei Ikea im Kinderparadies ausfechten, der Thread bleibt davon verschont.
 
Ich wollte jetzt nicht 11 Seiten getrolle durchlesen. Wieviel vram soll das Schätzchen denn bekommen

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Laut technischen Unterlagen über HBM liegt er noch bei 4GB. Was aber noch ausreichend ist. Erst in der 2.Generation von HBM können mehr Speicher verbaut werden.
Vorausgesetzt, die R9 390X kommt schon mit HBM-Speicher. ;)
 
Das Problem mit HBM ist wohl dass Bandbreite und Menge des RAMs miteinander verknüpft sind.
Damit dürften höhere Speicherausbauten wohl noch teurer werden als bisher...
 
Wobei "nur 4GB" für 4K mit so extrem schnellem VRAM + Optimierung (verlustfreie Komprimierung) dann vielleicht gar keine Probleme machen.
 
Zuletzt bearbeitet:
Das Problem mit HBM ist wohl dass Bandbreite und Menge des RAMs miteinander verknüpft sind.
Damit dürften höhere Speicherausbauten wohl noch teurer werden als bisher...
Nein, Bandbreite und Menge des Speichers sind nicht miteinander verknüpft. Mit HBM2 wird die Kapazität der Stacks ordentlich aufgestockt. Dann sind mit 8 Stacks bis zu 32 GB drin. Verfügbar voraussichtlich 2H 2015 / 1H 2016. Langfristig wird HBM dabei helfen, Kosten zu sparen.
 
Nein, Bandbreite und Menge des Speichers sind nicht miteinander verknüpft. Mit HBM2 wird die Kapazität der Stacks ordentlich aufgestockt. Dann sind mit 8 Stacks bis zu 32 GB drin. Verfügbar voraussichtlich 2H 2015 / 1H 2016. Langfristig wird HBM dabei helfen, Kosten zu sparen.

Naja, sie sind nicht 1 zu eins miteinander verknüpft. Aber soweit ich das verstanden habe, enthält jedes Modul seinen eigenen Speichercontroler. D.h. verbaust du mehr Chips, steigt damit auch die Bandbreite. Das war bei normalem vRam mit dem Controler in der GPU, anders.
Um bei gleicher Bandbreite, mehr Speicher zu verbauen, muss man mit HBM jetzt auf die Erweiterung der Technologie warten...
 
Ich glaube, du haust hier einiges durcheinander. Um das Thema zu verstehen, sollte man vielleicht nochmal die Topologie zu HBM erläutern. Den Kern von HBM bilden sogenannte Stacks. Diese bestehen aus mehreren übereinander gestapelten DRAM Chips und einem Basischip, verbunden mit dem Prozessor über einen Interposer.



Die Breite des Speicherinterfaces ist pro Stack immer gleich, 1024 Bit. Die Bandbreite hängt also von der Taktrate (1-2 GHz) und der Anzahl der Stacks (4-8) ab. Bei zB 1 GHz und 4 Stacks käme man auf 4096 Gb/s bzw 512 GB/s. Die Speicherkapazität hingegen hängt von der Kapazität der DRAM Chips, der Anzahl der DRAM Chips pro Stack und der Anzahl der Stacks ab. Man kann daher nicht sagen, "dass Bandbreite und Menge des RAMs miteinander verknüpft sind". Sie haben lediglich einen gemeinsamen Faktor, nämlich die Anzahl der Stacks.
 
Also das war mal wirklich gut erklärt. Danke

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Naja, sie sind nicht 1 zu eins miteinander verknüpft. Aber soweit ich das verstanden habe, enthält jedes Modul seinen eigenen Speichercontroler. D.h. verbaust du mehr Chips, steigt damit auch die Bandbreite. Das war bei normalem vRam mit dem Controler in der GPU, anders.

Der der aktuellen Speichergeneration auf GPUs ist das auch nicht anders.
Der Knackpunkt liegt wohl viel eher darin, das wir mittlerweile genügend große Speicherchips haben um auch bei geringer Anbindung brauchbare Mengen an Speicher verbauen zu können ;)
Dafür verbessern die Hersteller aber auch die Chips immer weiter.

Bei ner R9-290 hat es halt 16 Chips zu je 32Bit. Es gibt acht 64Bit Controller an der GPU. Um auf 4GB zu kommen bedient man sich damit also 16x256MB Chips. Bei 8GB derer 512MB und bei 16GB halt 1GB Chips. Was potentiell auch geht ist die Menge der Chips zu verdoppeln, somit wäre man bei 32 Chips auch auf doppelt so viel Größe gekommen. Das hat aber trotzdem alles Limits. So zu sehen bei Karten mit 256Bit SI um auf große VRAM Ausbauten zu kommen.

Eine Beziehung besteht dahingehend trotzdem. Sagen wir 16GB GDDR5 über ein 64Bit SI anzubinden wäre wohl technisch heute nicht machbar. Weil man nicht derart große Chips am Markt bekommt (stand heute)
Bei HBM ist das nun nicht unbedingt anders. Da hast du es dann halt pro Stack (vergleichbar mit der Anzahl der 64Bit Controller des SI), der Speicherchipgröße innerhalb eines Stacks (vergleichbar mit der Chipgröße der Speicherbausteinen pro 64Bit Controller des SI) und der Anzahl der "Lagen" pro Stack (vergleichbar mit der Anzahl der Chips pro 64Bit Controller des SI).

Im Grunde nicht anders in der Abhängigkeit von Größe zu Anbindung/Breite. Nur das wir wohl anfangs eben da keine horenden Größen sehen werden, weil diese noch nicht verfügbar sind.
 
Ich hoffe AMD limitiert den Speicher der 390 nicht nur auf 4GB, weil in 2015 4k-Auflösungen zum Standard werden und viele Spiele dies unterstützen werden.
Macht eventuell eine größere Bandbreite des Speichers den geringeren Speicher wett?
 
2015 4k standard?
für wen? doch wohl nur die, die es sich leisten können.
ich glaub nicht, dass die Masse sein wird und finds fraglich, ob man das dann "standard" nennen kann ...
 
Nein ;)
Entweder die Daten passen in den VRAM oder eben nicht... Wenn letzteres eintritt, kommt es (je nach Grad der Überbuchung) zu Nachladerucklern oder im schlimmsten Fall, zu dauerhaft einstelligen FPS... Das will man nicht haben, schon gar nicht, wenn die Hardware HighEnd ist und man womöglich ein heiden Geld dafür ausgegeben hat.

Aber wie oben schon erwähnt wurde, der Faktor VRAM Größe hängt hier viel eher davon ab, was mit HBM möglich sein wird zum gegebenen Zeitpunkt. Ist mehr wie 4GB nicht drin, weil nicht verfügbar, wird man auch nicht mehr verbauen können.
Ob allerdings die Bandbreite, die man durch HBM gewinnt derart von Vorteil sein wird (zumindest in der ersten Generation von GPUs, die darauf setzen werden) waage ich stand heute zu bezweifeln.
Weder die Hawaii noch die GK110 GPU klammern aktuell derart an der Bandbreite, dass sich das, was aktuell spekuliert wird über den Hawaii Nachfolger nach massiv gesteigertem VRAM Bandbreitenbedarf anhört...
Klingt für mich eher wie so ne Art Technikstudie. Man nutzt das HighEnd Gerät für die nächste Generation, weil dort vergleichsweise hohe Margen pro Gerät drin sind um Erfahrungen mit dem Produkt zu gewinnen.
 
Ob allerdings die Bandbreite, die man durch HBM gewinnt derart von Vorteil sein wird (zumindest in der ersten Generation von GPUs, die darauf setzen werden) waage ich stand heute zu bezweifeln.
Weder die Hawaii noch die GK110 GPU klammern aktuell derart an der Bandbreite, dass sich das, was aktuell spekuliert wird über den Hawaii Nachfolger nach massiv gesteigertem VRAM Bandbreitenbedarf anhört...

AMD muss bei ihrer nächsten Generation auf HBM setzen. Hawaii ist, was den Speichertakt angeht und der daraus folgenden Bandbreite, gerade so am Limit um keinen Einbruch zu bekommen. Übertaktet man Hawaii, so profitiert man sogar massiv vom Speicher-OC. Selber schon getestet.
Fiji wird voraussichtlich noch in 28nm kommen und über 45% mehr Shader besitzen. Da reicht die aktuelle Bandbreite nicht mehr aus. Vor allem nicht, wenn OC im Spiel ist.
AMD könnte zwar auf schnelleren GDDR5 umsteigen, Samsung hat ja schon GDDR5 mit 8Gbit/s am Start, aber 1. hat AMD mit Hynix einen Vertrag und 2. würden 8Gb/s nochmals mehr Energie benötigen. Und genau das will AMD mit Fiji nicht noch zusätzlich haben.

HBM ist daher die einzige Alternative, die genügend Speicherbandbreite zur Verfügung stellt und darüber hinaus, auch noch die Leistungsaufnahme entlastet, und wir reden hier nicht von 5 Watt. Da sind 20-40 Watt drin, die ausschlaggebend sein werden.
 
Was kostet überhaupt HBM im Vergleich zu GDDR5 mehr/weniger?
 
Das Problem mit HBM ist wohl dass Bandbreite und Menge des RAMs miteinander verknüpft sind.

Ja das sehe ich kurzfristig auch als ziemliches Problem.
Sollte AMD nicht HBM2 nutzen können, verhungern die Karten in 4K am nur 4GB großen V-ram.

mr.dude schrieb:
Man kann daher nicht sagen, "dass Bandbreite und Menge des RAMs miteinander verknüpft sind". Sie haben lediglich einen gemeinsamen Faktor, nämlich die Anzahl der Stacks.

Und dadurch sind sie verknüpft, weil die Verknüpfung beim gemeinsamen Faktor entsteht, der Anzahl der Stacks.
Zu sagen die seien nicht verknüpft, ist nichts anderes als Wortklauberei und mal wieder ein ganz schlauer Beitrag von mr. dude.:shake:
 
Die Karte ließt sich sehr interessant... hätte aber mal eine Frage:
Wie sieht es denn aus mit den 4GB VRAM? Die meisten Konsolen-Ports brauchen für Ultra-Res Texturen auf 1080p ca. 4GB VRAM (Shadows of Mordor angeblich 6GB VRAM).
Watch Dogs hat beispielsweise sichtbares stuttering auf der Ultra-Textur Einstellung, wenn die Grafikkarte weniger als 4GB VRAM hat... und damit meine ich nicht die Framerate, die bleibt davon unberührt.
Für mich als Leihe sieht es so aus als wäre das Hauptproblem nicht der Grafikspeicher, sondern der Fakt das beide Konsolen unified Memory nutzen, die PS4 ist sogar zu 100% in der hUMA Spezifikation.
Dementsprechend gehe ich davon aus das mit dem erscheinen von DX12 die derzeit exorbitanten VRAM-Anforderungen sinken werden, weil sich dann auch der System-Speicher effektiver von der GPU nutzen lässt.
Wenn man dann noch bedenkt das DDR4 eine sehr hoche Speicherdichte pro Modul hat und ohnehin einen sehr hohen Standardtakt hat (2400 MHz), müsste die GPU davon doch extrem profitieren können?
Man könnte dadurch die hiRes-Texturen (welche den höchsten Speicherbedarf haben) in den DDR4-Pool schreiben und die Physik, den Frame-Buffer etc. in das HBM laden.

...ich habe also die Vermutung das 4GB VRAM mit dem Erscheinen von DX12 kein Bottleneck mehr verursachen werden.
Sollte dem so sein würde ich eine 390x@4GB HBM einer 980@8GB GDDR5 vorziehen, sofern sich die Specs bewahrheiten.
 
Zuletzt bearbeitet:
Naja PCIe 3.0 16x hat 15754 MB/s an Bandbreite. Wenn da irgendwas in den Arbeitsspeicher ausgelagert wird ist halt das der Flaschenhals. Da kann DDR4 noch so toll sein. Ich denke aber, dass die 4GB an VRAM den Meisten reichen wird. Da zum Release aber dann bestimmt nur über Skyrim, SoM und Watch Dogs gesprochen wird, wirds wohl wieder Fankrieg geben ^^
 
2015 4k standard?
für wen? doch wohl nur die, die es sich leisten können.
ich glaub nicht, dass die Masse sein wird und finds fraglich, ob man das dann "standard" nennen kann ...

Für die, die eine solche Highend Karte kaufen könnte es der Standard werden. Die Highend Karte spricht den Enthusiasten an. Der gurkt nicht mit einem alten 1080p Monitor rum.
Ich kann die neue Generation kaum abwarten. Meine aktuelle 290er ist absolut am Limit und SLI/corssfire ist dank Oculus Rift und mangelnder Unterstützung bei den Spielen die ich zocke keine Option. Zum Einsatz kommen drei Monitore = 5892x1080 Auflösung (ich wollte mehr aber es gibt keine Karte die das vernünftig befeuern kann) bzw ein Oculus Rift DK2.
4 GB Grafikspeicher werden da schon knapp. Einige Spiele lasten die 4 GB meiner 290er komplett aus. Ob es die Performance negativ beeinflusst weiß ich nicht aber es ist ein Thema für mich. Wenn bei dieser Auflösung der Speicher limitiert, dann wird es eben eine Titan 2 oder wie auch immer Nvidia das Teil dann nennt.
 
Zuletzt bearbeitet:
AMD muss bei ihrer nächsten Generation auf HBM setzen. Hawaii ist, was den Speichertakt angeht und der daraus folgenden Bandbreite, gerade so am Limit um keinen Einbruch zu bekommen. Übertaktet man Hawaii, so profitiert man sogar massiv vom Speicher-OC. Selber schon getestet.


Selten so ein Quark gehört :eek:
MASSIV vom Ram OC ...., ich kann aus eigener Erfahrung sagen, dass Ram OC gerade bei der 290er so gut wie garnichts bringt.
Selbst als ich 1750mhz am laufen hatte, war das Messbar in Benchmarks mit 1-4%, das wars dann auch... Und ich rede von GPU taktraten um die 1,2Ghz...

Das ist absoluter Quark was du schreibst!

Eagle
 
Selten so ein Quark gehört :eek:
MASSIV vom Ram OC ...., ich kann aus eigener Erfahrung sagen, dass Ram OC gerade bei der 290er so gut wie garnichts bringt.
Selbst als ich 1750mhz am laufen hatte, war das Messbar in Benchmarks mit 1-4%, das wars dann auch... Und ich rede von GPU taktraten um die 1,2Ghz...

Das ist absoluter Quark was du schreibst!

Eagle
Kann ich nur unterschreiben.
Mit genung Saft machen meine Hynix über 1600mhz. Der Nutzen ist praktisch fast nicht messbar. Deshalb laufen die bei 1450mhz - da muß ich nicht so viel Spannung draufgeben. Wenn sie anstatt 1450 nur 1350 machen würden, würde ich den Unterschied auch nicht spüren.
 
Ich finds einfach nur schade das wohl nichts mehr vor dem neuen Jahr erscheint, die Zeit um Weihnachten ist die Zeit wo ich das meiste Geld habe und am leichtesten bereit bin solche Ausgaben zu tätigen :d
 
Kann ich nur unterschreiben.
Mit genung Saft machen meine Hynix über 1600mhz. Der Nutzen ist praktisch fast nicht messbar. Deshalb laufen die bei 1450mhz - da muß ich nicht so viel Spannung draufgeben. Wenn sie anstatt 1450 nur 1350 machen würden, würde ich den Unterschied auch nicht spüren.

So sieht es aus, die 512Bit sorgen dafür, dass selbst bei 1250mhz genug Durchsatz da ist. Natürlich macht das Ocen Spaß, aber das ist eben quasie nicht relevant für die Leistung der Karte.

Eagle

Gesendet von meinem XT890 mit der Hardwareluxx App
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh