Erste Benchmarks zur Radeon R9 390X aufgetaucht

Bin auch mal gespannt was da auf uns zu kommt!
Sollten die Benches stimmen dann könnte eine 390X glatt meine 780ti ablösen. Natürlich verkauf ich diese nicht, kommt dann eben als PhysX Beschleuniger mit rein und gut ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was hier durch den Benchmark - ob er denn nun wahr ist oder nicht - suggeriert wird, wäre sowohl in 28nm als auch in 20nm denkbar.
Q1 2015 ist also sehr realistisch. Fragt sich nur zu welchem Preis. 28nm wäre teuer weil er >500mm² hätte. 20nm wäre teuer, wenn die hohe Nachfrage an Tablets und Smartphones mit 20nm CPUs(zB Iphones) anhält.
 
Und woher willst du wissen dass GlobalFoundries nicht produziert?
Ein Release noch vor Weihnachten ist ausgeschlossen.
 
einen Refresh in 28NM mit HBM oder was weiß ich, könnte man aber doch jetzt auch schon produzieren, 28NM Kapazitäten sind da genug vorhanden ?

warum überlässt man dann nvidia mit 980/970 quasi kampflos das Weihnachtsgeschäft ?

ist doch irgendwie sinnfrei...
 
Bin auch mal gespannt was da auf uns zu kommt!
Sollten die Benches stimmen dann könnte eine 390X glatt meine 780ti ablösen. Natürlich verkauf ich diese nicht, kommt dann eben als PhysX Beschleuniger mit rein und gut ist.

Geht das noch??

Ich dachte das Nvidia vor 2-3 Monaten endgültig unmöglich gemacht?



Übrigens könnte die Karte sehr wohl von Global Foundries kommen, und zwar aus Dresden, wo das aktuellste 28nm Global Foundries Werk steht!

Der neue Global Foundries Prozess für 28nm soll nochmal deutlich Effizienter als der von TSMC sein (ist auch jünger und fortgeschrittener), Beema und Mullins werden dort gefertigt und diese sind ja fast Effizienzwunder, welche leider nicht so wirklich in den Tabletmarkt kommen :(


14nm wird Global Foundries bestimmt eher machen können als TSMC, denn dort haben sie ja eine Kooperation mit Samsung was den Prozess angeht!
 
sehr unwahscheinlich
Aktualisierte Fertigungsverfahren-Roadmap: GlobalFoundries & TSMC bei 14nm/16nm fast zeitgleich | 3DCenter.org

die leute welche auf die graka warten sollten das berücksichtigen und nicht all zu hohe erwartungen haben
dann kann man auch nicht so enttäuscht werden

nochmal diese effezienzverbesserung ist durchaus mit 28nm zu machen
und richtig interessant wird es erst mit 16nm

Diese Infos hatte ich noch gar nicht, danke dafür.

Sieht dann ja wohl so aus als ob wie nie 20nm sehen werden, sondern 16nm oder 14nm, dann allerdings auch erst 2016... Verdammt. Hoffentlich holen die aus dem 28nm Prozess dann noch einiges raus oder meint ihr ein Maxwell Vollausbau könnte auch in 28nm erscheinen...
 
Naja 200W sind auch nicht wenig wenn HBM wirklich 20-50W beim Speicher gespart hat entsteht die Wärme ja jetzt allein an der GPU und den Spannungswandlern.

Am meisten wird am Speichercontroller gespart und der liegt in der GPU.
Hier mal noch eine Info zu HBM.
AMD: HBM-Speicher für künftige Radeons

Mit der Umstellung auf HBM sinkt die benötigte Leistung auf unter 30 Watt !! :eek:
Das ist schon ordentlich und obendrein wird die Speicherbandbreite verdoppelt !

"HBM ist dagegen deutlich sparsamer, weil er mit einer geringeren Spannung von 1,2 V statt 1,5 V betrieben werden kann. Außerdem können einfachere Controller verwendet werden, die nur ein Viertel von dem verbrauchen, was ihre aktuellen Pendants benötigen."
 
Zuletzt bearbeitet:
Vor Allem der Speicher braucht Saft, mit meiner Sapphire R9 290 AMD Referenz 850/ 1100 Speicher und Untervolting -100mV
bleibt die GPU unter 93 Grad mit gerade mal 40 bis 42% Lüfter
Also sollte HBM mit unter 85 Grad relativ LEISE kühlbar sein!

Somit darf man auf ein weitaus Besseres AMD Referenz Design hoffen, und dies gar ohne AIO Kühlung!
 
Mit der Umstellung auf HBM sinkt die benötigte Leistung auf unter 30 Watt !! :eek:
Das ist schon ordentlich und obendrein wird die Speicherbandbreite verdoppelt !

Glaubt doch nicht immer jeglichen Marketing sülz...

Das was im Artikel erwähnt wurde, würde bedeuten, dass bei ausgesagten 85W bei 6G GDDR5 Speichern und 512Bit SI eine GTX 970 mit halbem SI und 7G Speichern minimum 42,5W allein für die Speicheranbindung versaufen würde. Eher mehr, da die Speicher ja höher takten... Das heist im Umkehrschluss, unter Spielelast erzeugt die GPU gerade mal 107,5W. Eher weniger, da die Speicher immernoch höher takten.
Man mag ja den GM204 effizient nennen, aber ganz ehrlich, das wäre doch etwas arg niedrig aus meiner Sicht... Das wäre zum GK110 einer 780TI mal fast eine Effizienzverdopplung im gleichen Prozess.

Real dürfte der Anteil der Speicheranbindung in der Gaminglast weit geringer sein.
Also entweder die Werte sind geschönt und beziehen sich einzig und allein auf irgendwelche Labormessungen unter künstlichen Volllast Simulationen oder aber, Spielelast erzeugt deutlich weniger Verbrauch auf dem Speichersubsystem. Egal wie man es dreht, eine möglicherweise kommende 390X mit HBM Speichern wird für die hier wohl idR relevanten Spieleverbrauchsmessungen deutlich geringere Vorteile aus HBM ziehen, wie es diese Effizienzangaben vorhersagen ;)
 
Das was im Artikel erwähnt wurde, würde bedeuten, dass bei ausgesagten 85W bei 6G GDDR5 Speichern und 512Bit SI eine GTX 970 mit halbem SI und 7G Speichern minimum 42,5W allein für die Speicheranbindung versaufen würde. Eher mehr, da die Speicher ja höher takten... Das heist im Umkehrschluss, unter Spielelast erzeugt die GPU gerade mal 107,5W. Eher weniger, da die Speicher immernoch höher takten.

Im Artikel wird eine hypothetische Annahme eingerechnet, wo der Speicher mit 8Gbit/s an einem 512bit-Interface läuft um auf 512 GB/s Bandbreite zu kommen(R9 290X).
Dabei würde er 85Watt Leistungsaufnahme benötigen. Mit HBM erreicht man ebenfalls 512 GB/s Bandbreite, kommt aber unter 30 Watt.
Dazu kommt noch, das NVIDIA ihren Speicher anders ansteuert. Da kommt ein Komprimierungsverfahren zum Einsatz, der die benötigte Speicherbandbreite verringert.
Daher ist es schwer zu sagen, was NVIDIA-Karten nun wirklich für ihre Speicheranbindung verbrauchen.

Real dürfte der Anteil der Speicheranbindung in der Gaminglast weit geringer sein.

Warum sollte der Speicher, der voll belegt und benötigt wird, plötzlich weniger verbrauchen ??
Ich bezweifle ganz stark, das der Speicher in Games weniger belastet wird, als es bei GPGPU-Berechnungen der Fall ist.

Also entweder die Werte sind geschönt und beziehen sich einzig und allein auf irgendwelche Labormessungen unter künstlichen Volllast Simulationen oder aber, Spielelast erzeugt deutlich weniger Verbrauch auf dem Speichersubsystem. Egal wie man es dreht, eine möglicherweise kommende 390X mit HBM Speichern wird für die hier wohl idR relevanten Spieleverbrauchsmessungen deutlich geringere Vorteile aus HBM ziehen, wie es diese Effizienzangaben vorhersagen ;)

Nehmen wir mal deine Hypothese einfach mal an.
Das sind alles Labormesswerte und können in der Praxis nicht so angewendet werden.
Gut. Dann stimmen weder die 85 Watt noch die 30 Watt. Also verbraucht die Karte im Gamingbetrieb vielleicht nur 60 Watt in der Speicheranbindung. Aber HBM würde dann nur 15-20 Watt benötigen, denn HBM würde dann folglich auch in der realen Gamingauslastung weniger verbrauchen, als angegeben wurde !
 
Das was im Artikel erwähnt wurde, würde bedeuten, dass bei ausgesagten 85W bei 6G GDDR5 Speichern und 512Bit SI eine GTX 970 mit halbem SI und 7G Speichern minimum 42,5W allein für die Speicheranbindung versaufen würde. Eher mehr, da die Speicher ja höher takten... Das heist im Umkehrschluss, unter Spielelast erzeugt die GPU gerade mal 107,5W. Eher weniger, da die Speicher immernoch höher takten.
Man mag ja den GM204 effizient nennen, aber ganz ehrlich, das wäre doch etwas arg niedrig aus meiner Sicht... Das wäre zum GK110 einer 780TI mal fast eine Effizienzverdopplung im gleichen Prozess.

Ist aber eine Rechnung mit vielen Fragezeichen! Zum einen kennt man die Spezifikation der beiden Speichertypen nicht um sie miteinander vergleichen zu können. Und zum anderen denke ich nicht, dass sich die Leistungsaufnahme zwangsläufig bei halbierten SI ebenfalls halbiert.

Wenn man die absoluten Zahlen einmal weg lässt, ist der Artikel aber sehr interessant. Demnach ist der HBM-Speicher selbst nur zu einen geringen Anteil an der Leistungseinsparung verantwortlich. Der großteil der Einsparung liegt an der weit weniger komplexen Anbindung des HBM-Speichers zu GDDR5.

Konkret wäre es im Falle der R9 390X damit also möglich mehr Streamprozessoren auf den Die zu verbauen ohne dabei die Fläche des Die zu groß anwachsen zu lassen bzw. durch die Flächeneinsparung mehr SP zu verbauen als dies mit GDDR5 möglich wäre.
 
Zuletzt bearbeitet:
Im Artikel wird eine hypothetische Annahme eingerechnet, wo der Speicher mit 8Gbit/s an einem 512bit-Interface läuft um auf 512 GB/s Bandbreite zu kommen(R9 290X).
Dabei würde er 85Watt Leistungsaufnahme benötigen. Mit HBM erreicht man ebenfalls 512 GB/s Bandbreite, kommt aber unter 30 Watt.
Dazu kommt noch, das NVIDIA ihren Speicher anders ansteuert. Da kommt ein Komprimierungsverfahren zum Einsatz, der die benötigte Speicherbandbreite verringert.
Daher ist es schwer zu sagen, was NVIDIA-Karten nun wirklich für ihre Speicheranbindung verbrauchen.

Oh stimmt, sorry, mein Fehler. Die 8G hab ich irgendwie unterschlagen... :wink:

Aber sei es drum, das Komprimierungsverfahren verändert zwar den Bandbreitenbedarf, aber nicht den Verbrauch. Denn wenn die Bandbreite da ist, wird sie auch genutzt. Es ist ja nicht so, das die Daten auf einmal durch die Komprimierung langsamer durch das System wandern... Sondern viel eher so, das die Daten immer gleich schnell wandern, aber einfach durch die Komprimierung weniger Daten geschoben werden. -> was den Bandbreitenbedarf verringert.
Vergleichbar ist das mit CPUs. Hast du 2GHz oder 4GHz in einem Beispiel. So benötigt deine Anwendung bei 2GHz einfach länger. Effektiv bei diesem Beispiel erzeugt die 2GHz CPU eben die doppelte Zeit lang Last. Entsprechend auch Verbrauch. Diesen Wert muss man dann gegenrechnen.

Warum sollte der Speicher, der voll belegt und benötigt wird, plötzlich weniger verbrauchen ??
Ich bezweifle ganz stark, das der Speicher in Games weniger belastet wird, als es bei GPGPU-Berechnungen der Fall ist.
Weil die Rechnung sonst, siehe oben, nicht hinkommen kann... Oder glaubst du daran, das ein Drittel des Verbrauchs einer GTX 970 allein durch den Speicher drauf geht? Das würde die reine GPU Leistungs-Effizienz schlagartig extrem anheben. Vor allem, da sich ja die Speicheranbindung der GPUs nicht wirklich nennenswert unterscheidet.

Gut. Dann stimmen weder die 85 Watt noch die 30 Watt. Also verbraucht die Karte im Gamingbetrieb vielleicht nur 60 Watt in der Speicheranbindung. Aber HBM würde dann nur 15-20 Watt benötigen, denn HBM würde dann folglich auch in der realen Gamingauslastung weniger verbrauchen, als angegeben wurde !

Ja ;) Ich wollte damit eher darauf hinaus, dass der absolute Verbrauchsgewinn aus meiner Sicht im Spielelastbetrieb sehr gering ausfallen wird.
Wenn von fiktiven 250W 60W für die Speicher drauf gehen, dann bleiben 190W für die GPU. Braucht nun das HBM System nur noch 15-20W, gepaart mit den 190W für die GPU sind das dann 205-210W. Was eine Einsparung von 16-18% wären.
Nimmt man die Werte oben 1:1, wären es aber bei fiktivem 250W gesamt Verbrauch "nur" 165W für die GPU. Und die ~28W (also 1/3) bei HBM würden bedeuten, dass man eine Einsparung von 22,8% hätte. Was bedeutend mehr sind als 16-18% ;)

Und zum anderen denke ich nicht, dass sich die Leistungsaufnahme zwangsläufig bei halbierten SI ebenfalls halbiert.

Ob nun exakt halbiert oder in etwa, hab ich mal ausgeblendet. Aber durch halbierung des SI halbiert sich effektiv alles am Speichersubsystem. Angefangen von den Controllerteilen in der GPU selbst, den Transistoren, die dafür notwendig sind, der Anzahl der Speicherchips, die Größe dieser usw.
Eine Halbierung ist da schon realistisch...

Rechnet man das weiter, und gesetz dem Fall, du hast recht, dass eine Halbierung des Verbrauchs nicht hin kommt, dann kann bestenfalls weniger als eine Halbierung des Verbrauchs raus kommen. Durch Halbierung der Bauteile mehr als eine Halbierung des Verbrauchs zu erhalten wäre technisch unsinn. Bleibt also bestenfalls eine Abflachende Kurve. Aber das würde mein Beispiel von oben mit der 970 GTX noch verschlimmern. Denn dann wären aus 85W bei 512Bit SI nicht 42,5W sondern mehr wie 42,5W geworden. Der Anteil der GPU im Vergleich zum Gesamtverbrauch sinkt damit also...

Unterm Strich, die Halbierung ist schon das "Optimum" an schlechtester Annahme in diesem Fall...
Oder habe ich einen Denkfehler?
 
Oder habe ich einen Denkfehler?

Nein, ich denke es passt soweit. Mir gefällt der Vergleich zur 970 trotzdem nicht so wirklich. Wir wissen z.B. nicht, ob es beim Speicherinterface unterschiede zwischen AMD und nVidia gibt. Dein Vergleich beruht darauf, das der Aufbau bei beiden gleich ist, was wir aber nicht mit Sicherheit sagen können. Sehr gut möglich das es da unterschiedliche Implementierungen gibt. Außerdem ist nicht zu 100% klar wie AMD in der Folie diese Messwerte zum Energieverbrauch ermittelt hat.

Dann wäre da noch das Power Target bei der nVidia bzw. der 970. Wenn man dieses freigibt relativiert sich der Vergleich auch wieder etwas. Also um es kurz zu machen, mir sind da noch zu viele unsichere Faktoren um das so an absoluten Zahlen festzumachen.
 
Mit der Umstellung auf HBM sinkt die benötigte Leistung auf unter 30 Watt !! :eek:
Das ist schon ordentlich und obendrein wird die Speicherbandbreite verdoppelt !
Du bekommst allerdings nicht beides gleichzeitig. Die Reduzierung der Leistungsaufnahme um etwa 2/3 von 85W auf unter 30W gilt laut der Folie bei vergleichbarer Bandbreite (~500 GB/s). Wenn die Speicherbandbreite verdoppelt wird, zB von 250 auf 500 GB/s, ist sicherlich nicht mit so viel Einsparung zu rechnen.
 
Du bekommst allerdings nicht beides gleichzeitig. Die Reduzierung der Leistungsaufnahme um etwa 2/3 von 85W auf unter 30W gilt laut der Folie bei vergleichbarer Bandbreite (~500 GB/s). Wenn die Speicherbandbreite verdoppelt wird, zB von 250 auf 500 GB/s, ist sicherlich nicht mit so viel Einsparung zu rechnen.

Eine Verdoppelung der Speicherbamdbreite mit deutlich weniger Leistungsaufnahme ist bemerkenswert.
 
Da werden einige wieder Gesichter ziehen, wenn die Leistungsaufnahme 50 bis 70 watt über einer GTX 980 liegt...
 
Da werden einige wieder Gesichter ziehen, wenn die Leistungsaufnahme 50 bis 70 watt über einer GTX 980 liegt...

und ich werde dann wieder schmunzeln und mir denken: ok hunderte euros für die hardware sind da, die 3,50€ an Stromkosten im Jahr aber nicht.....
 
"Captain Jack":banana: Da muss sich Nvidia aber warm anziehen

 
Also bei 30% mehr Leistung für 30% mehr Strom (980OC) ist doch ganz okey
Das wäre nicht nur okay, sondern sogar recht gut. Nach oben hin nimmt die Effizienz bekanntlich sowieso ab. Sieht man ja auch gut an Maxwell. Sobald man da die Taktschraube anzieht, geht es dahin mit der Effizienz. Bezogen auf das Gesamtsystem kann sich das dann allerdings wieder umdrehen.
 
Von mir aus kann die Strom saugen so viel sie will. Ich brauch eine single GPU mit deutlich mehr Leistung.
Oculus Rift bzw drei Monitore fordern ihren Tribut und SLI/crossfire wird von praktisch keinem meiner Lieblingsspiele unterstützt.
Mehr Effizient ist schön und gut aber mit VR und 4k Monitoren auf dem Markt wird es Zeit für mehr rohe Grafikleistung.
 
Von mir aus kann die Strom saugen so viel sie will. Ich brauch eine single GPU mit deutlich mehr Leistung.
Oculus Rift bzw drei Monitore fordern ihren Tribut und SLI/crossfire wird von praktisch keinem meiner Lieblingsspiele unterstützt.
Mehr Effizient ist schön und gut aber mit VR und 4k Monitoren auf dem Markt wird es Zeit für mehr rohe Grafikleistung.

warum?
 
Was? Wieso VR mehr Leistung braucht?
Weil die Displays viel mehr Sichtfläche einnehmen als ein normaler Monitor und entsprechend höhere Auflösungen noch viel wichtiger sind!
Hinzu läuft die OCculus mit 75Fps in Zukunft.

dev kit 2 hat 2x 960x1080 was 1920x1080 entspricht.
 
Ist halt ein dev kit und ich denke das man fps einbrüche bei VR einfach noch viel störender wahrnimmt als an einem Monitor.
Um eine wirklich gute Illusion zu schaffen braucht man gleichmäßig ausreichend hohe Bildraten. 75Hz klingt da auch schon deutlich besser als 60Hz finde ich.

Aber ich denke auch für 4k Monitore wird ein bisschen mehr GPU power noch wichtiger.
 
Das oculus rift consumer product wird mindestens 95Hz haben(ursprünglich waren 120Hz geplant) und eine höhere Auflösung.
Allerdings erscheint es erst 2016. Bis dahin gibt es 14/16nm GPUs. Warum muss es also unbedingt jetzt sein, wo TSMCs 20nm Prozess für alles außer extrem kleiner Dies ungeeignet ist?
 
Zuletzt bearbeitet:
Von mir aus muss es nicht jetzt sein, vor einem Jahr wäre neue Hardware auch gut gewesen ;-)
Ich freue mich immer wenn es was neues leistungsfähigeres gibt dabei ist mir auch relativ egal von wem das gefertigt wird.

Was nicht bedeutet das ich mir alles neue auch direkt kaufe, ich finde ein deutlicher Mehrwert im vergleich zum Vorgänger sollte schon da sein.
Naja und deshalb nutze ich im Moment privat alte hardware. Mein 2500k den ich mit 4-4.5GHz betreibe ist von anfang 2011 und miene HD7950 setzt auch langsam Staub an.
Eine GTX970 habe ich mal ausprobiert, ist wegen des fiepens zurückgegangen. Aber bei 4k werden selbst alte Spielchen zum Daumenkino.
Meine Nächste Grafikkarte sollte einfach genug power für höhere Auflösungen mitbringen. Genau wie eine neue CPU spürbare Mehrlsitung bringen sollte.

Ich denke einfach lust auf neue Hardware mit mehr power haben halt viele. Und nächstes Jahr gibt es preiswerte 4k Monitore. Wäre doch eine schande wenn da keine passende Grafikkarte zu lieferbar wäre.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh