Gerücht: AMD Radeon R9 390X vermutlich mit 4.096 Streamprozessoren

Also wenn die Karte mit 4096 Shadern kommt, hat sie 45% mehr Recheneinheiten, sollte der Speicher mit ~1GHz takten, kommt die Karte auf 60% mehr Speicherdurchsatz. Wenn AMD jetzt die Shader noch optimiert hat, ist das bei ähnlichem Takt einfach nur der logische Schritt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für mich als Leihe sieht es so aus als wäre das Hauptproblem nicht der Grafikspeicher, sondern der Fakt das beide Konsolen unified Memory nutzen, die PS4 ist sogar zu 100% in der hUMA Spezifikation.

Mit hUMA hat das nix zu tun... Das ändert am gesamten quasi gar nix. hUMA hat den Vorteil, das eben keine Daten mehr übertragen werden müssen. Sprich du sparst dir die Zeit zum kopieren der Daten vom RAM in den VRAM. Bei APUs kann das sinnvoll sein, weil eben die Daten nicht in zwei verschiedenen Speichern liegen, sondern in ein und dem selben Pool liegen. Man kopiert also Daten vom RAM Bereich in den VRAM Bereich, das kostet Zeit und Bandbreite. Mit hUMA spart man sich den Schritt und biegt einfach nur ein paar Zeiger um.

Das Problem an der ganzen Sache ist eher, dass der Nutzen dieser Aktion eher Gering ausfällt. Warum? Daten die einmal im VRAM liegen (sofern genügend Platz ist) bleiben dort und sind schnell verfügbar. Es ändert sich am VRAM Bestand während der Spielzeit so extrem viel nicht. Vor allem wechseln die Daten nicht permanent durch, sondern häufig wird einfach nur nachgeladen anstatt ausgetauscht.
Bestenfalls der Punkt im VRAM Limit könnte mit hUMA besser werden. Ob das allerdings mit dem popligen Flaschenhals von PCIe überhaupt sinnvoll ist? Fraglich... Wir sprechen hier über mehrere hundert GB/sec, was der VRAM schnell ist. Wärend der PCIe Slot selbst in voller 16x PCIe 3.0 Ausführung davon nur nen Bruchteil bereit stellen kann...


Sollte dem so sein würde ich eine 390x@4GB HBM einer 980@8GB GDDR5 vorziehen, sofern sich die Specs bewahrheiten.

Das wird wie gesagt wohl so nichts werden...
Es gibt aktuell soweit ich weis keinen Ansatz, wie man die Geschichten trennt. Auch spricht HSA und hUMA im Grunde eher genau vom Gegenteil. Nämlich dem zusammenlegen der Speicherbereiche anstatt dem Trennen dieser ;)
Denkt man auch nochmal einen Schritt weiter, so sind zwar die Texturen grundsätzlich der mit Abstand größte Part (im Out-of-the-Box-Zustand)
Aber geht man über BQ steigernde Maßnahmen, kann sich das schnell ändern. SGSSAA benötigt bspw. je nach Spiel und Einstellung gern mal horende Mengen an Speicher...
 
Selten so ein Quark gehört :eek:
MASSIV vom Ram OC ...., ich kann aus eigener Erfahrung sagen, dass Ram OC gerade bei der 290er so gut wie garnichts bringt.
Selbst als ich 1750mhz am laufen hatte, war das Messbar in Benchmarks mit 1-4%, das wars dann auch... Und ich rede von GPU taktraten um die 1,2Ghz...

Das ist absoluter Quark was du schreibst!

Schonmal daran gedacht, das der Speicher selber dicht macht, wenn er zu viele Fehler erzeugt ?
Zu hohes OC ist da äußerst kontraproduktiv !
Zudem setzt bei Hawaii das Power-Target ein und begrenzt dadurch das OC selber !! Die Karte wird dann insgesamt langsamer. Weiteres OC bringt da nichts mehr.
Du übertaktest die GPU und den Ram und erhöhst auch noch die Spannung des Speichers. Da nützen dann auch die +50% Powertarget nichts mehr.
Bei Hawaii sind 1500 MHZ-Speichertakt die Obergrenze. Alles darüber wird wieder langsamer.

Hier mal ein Test von Tomb Raider Interner-Benchmark mit Stock GPU.
Bei 1250 Mhz VRAM-Takt = 103,1 FPS bei 1450 MHz VRAM-Takt = 110 FPS

Jetzt mit GPU Übertaktung auf 1100 MHz. Das selbe Spiel.
1250 Mhz VRAM-Takt = 106 FPS bei 1450 Mhz VRAM-Takt =120 FPS.

Man sieht, die 1100 MHZ GPU bringen fast gar nichts. Speicherbandbreitelimit.
Erst, als der Speicher hochgezogen wurde, geht die Grakka wieder ab und bringt 14 FPS mehr !

Daraus folgt, die GPU ist im OC sehr viel mehr Speicherbandbreitenlimitiert.
Ist natürlich anwendungsbedingt, kann aber nicht generell ausgeschlossen werden, so wie du es hier sagst.

Kann ich nur unterschreiben.
Mit genung Saft machen meine Hynix über 1600mhz. Der Nutzen ist praktisch fast nicht messbar. Deshalb laufen die bei 1450mhz - da muß ich nicht so viel Spannung draufgeben. Wenn sie anstatt 1450 nur 1350 machen würden, würde ich den Unterschied auch nicht spüren.

Selber Fehler wie Oben.
Speicher-OC mit Spannungserhöhung bringt bei Hawaii rein gar nichts, weil der Speicher bei zu hoher Frequenz selber zu macht. Selbst mit erhöhter Spannung läuft deine Grakka dann ins Powerttarget und wird insgesamt langsamer, selbst wenn der Speicher schneller ist, weil die GPU wieder langsamer wird.

Aber ihr seit euch sicherlich dessen bewusst. ;)

Und hier noch ein Link zu einem Test. Speicher-OC im sinnvollen Bereich bringt bis zu 10% mehr FPS.
http://www.pcgameshardware.de/Gefor...257241/Tests/Radeon-R9-290-im-Test-1095627/4/
 
Zuletzt bearbeitet:

Folgende Rechnungen sind höchst Spekulativ!!!
31% mehr als die R9 290X

wenn man jetzt einfach ungenau die 2816 SPs mal 1,31 nimmt = 3688 SPs

Also schauen wir mal was die Gerüchteküche so in letzter Zeit meinte:
R9 390X 4096 SPs Bermuda
R9 390 dazwischen
R9 380X 3072 SPs Fiji

die 31% Mehrleistung über R9 290X sind entweder die R9 390 oder eine nicht Optimierte R9 390X (Treiber und co)

also die Vermutung das dies ne R9 390 ist, klingt recht plausibel!


Auf jeden Fall:
Wenn das kein Fake ist, dann definitiv in 20nm!!! denn weniger als 200W und so gigantisch viel Leistung?


Aber das ist ja toll wenn jetzt schon Datenbankeinträge und Benchmarks in der Küche landen, da wird man doch total auf die Folter gespannt wenn man auf die Karte wartet... :(



Aber wenn die Benchmarks und der Verbrauchstest dort kein Fake sind, na dann hat AMD endlich mal wieder was um Nvidia eins über zu klatschen, so wie damals die HD7970, was die R9 290X letztes Jahr nicht so schaffte!
Wird also mal wieder Zeit :d
 
Zuletzt bearbeitet:
Wenn das kein Fake ist, dann definitiv in 20nm!!! denn weniger als 200W und so gigantisch viel Leistung?

Naja, muss nicht sein. Vorausgesetzt AMD hat hier einiges "optimiert" und man die GTX980/GTX970 mit 185W und 167W daneben stellt, dann würde das ebenso auch noch zu 28nm passen.
 
hmm knapp 15% Mehrleistung zur GTX980 dafür nur etwas mehr als 6% Verbrauch, da hätte amd aber ordentlich optimiert bei 28nm wenn man schaut was aktuell die 290x verbraucht

natürlich immer unter der annahme das es keine Fakes sind
 
hmm knapp 15% Mehrleistung zur GTX980 dafür nur etwas mehr als 6% Verbrauch, da hätte amd aber ordentlich optimiert bei 28nm wenn man schaut was aktuell die 290x verbraucht

natürlich immer unter der annahme das es keine Fakes sind

Klar, alles Spekulation...aber wenn sie evtl. mit HBM-Speicher kommen, dann rückt es das Bild wieder grade.

Außerdem schau dir mal an welche Auflösung da gewählt wurde...alles über Full-HD konnte AMD doch immer etwas aufholen.
 
Zuletzt bearbeitet:
Naja WQHD ist bei den high Ende Karten auch sinnvoller weil es Richtung 4K geht und die Zeit für 4K langsam kommt!

Und in 28 nm so viel optimiert?

30 Prozent mehr Leistung als 290X dabei nur 2/3 Leistungsaufnahme das heißt die Leistung pro Watt auf 200% der 290X!!!
Das wäre kein optimieren sondern hexen.


Gesendet von meinem Nexus 5 mit der Hardwareluxx App
 
Schonmal daran gedacht, das der Speicher selber dicht macht, wenn er zu viele Fehler erzeugt ?
Zu hohes OC ist da äußerst kontraproduktiv !
Zudem setzt bei Hawaii das Power-Target ein und begrenzt dadurch das OC selber !! Die Karte wird dann insgesamt langsamer. Weiteres OC bringt da nichts mehr.
Du übertaktest die GPU und den Ram und erhöhst auch noch die Spannung des Speichers. Da nützen dann auch die +50% Powertarget nichts mehr.
Bei Hawaii sind 1500 MHZ-Speichertakt die Obergrenze. Alles darüber wird wieder langsamer.

Hier mal ein Test von Tomb Raider Interner-Benchmark mit Stock GPU.
Bei 1250 Mhz VRAM-Takt = 103,1 FPS bei 1450 MHz VRAM-Takt = 110 FPS

Jetzt mit GPU Übertaktung auf 1100 MHz. Das selbe Spiel.
1250 Mhz VRAM-Takt = 106 FPS bei 1450 Mhz VRAM-Takt =120 FPS.

Man sieht, die 1100 MHZ GPU bringen fast gar nichts. Speicherbandbreitelimit.
Erst, als der Speicher hochgezogen wurde, geht die Grakka wieder ab und bringt 14 FPS mehr !

Daraus folgt, die GPU ist im OC sehr viel mehr Speicherbandbreitenlimitiert.
Ist natürlich anwendungsbedingt, kann aber nicht generell ausgeschlossen werden, so wie du es hier sagst.



Selber Fehler wie Oben.
Speicher-OC mit Spannungserhöhung bringt bei Hawaii rein gar nichts, weil der Speicher bei zu hoher Frequenz selber zu macht. Selbst mit erhöhter Spannung läuft deine Grakka dann ins Powerttarget und wird insgesamt langsamer, selbst wenn der Speicher schneller ist, weil die GPU wieder langsamer wird.

Aber ihr seit euch sicherlich dessen bewusst. ;)

Und hier noch ein Link zu einem Test. Speicher-OC im sinnvollen Bereich bringt bis zu 10% mehr FPS.
http://www.pcgameshardware.de/Gefor...257241/Tests/Radeon-R9-290-im-Test-1095627/4/

Nur mal so am rande ich weis wenn speicher zu hoch geoct ist, das dieser fehler produziert und es im endeffekt weniger Leistung bringt. Und glaube mir OC des Ram bei der 290er bringt Nichts ;)



Gesendet von meinem XT890 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Naja WQHD ist bei den high Ende Karten auch sinnvoller weil es Richtung 4K geht und die Zeit für 4K langsam kommt!

Und in 28 nm so viel optimiert?

30 Prozent mehr Leistung als 290X dabei nur 2/3 Leistungsaufnahme das heißt die Leistung pro Watt auf 200% der 290X!!!
Das wäre kein optimieren sondern hexen.


Gesendet von meinem Nexus 5 mit der Hardwareluxx App

Also ich komme auf 3W/FPS bei der getestetetn Karte, da man hier die 290X im Uber Mode getestet hat ist der Effizienzvergleich mal voll fürn Popo.
Die 980 kommt auf 3,25W/FPS, warum sollte AMD hier nicht auf ähnliche Werte kommen? Achja stimmt ist ja AMD...
 
Sollten das wirklich 20nm werden und NV haut noch mal 30-40% Mehrleistung im 28nm Prozess auf die 980 drauf wäre das wohl ein recht kleiner Chip von AMD mit um die 350mm2.
Bin gespannt wie sich das nun entwickelt .
 
Zuletzt bearbeitet:
Also ich komme auf 3W/FPS bei der getestetetn Karte, da man hier die 290X im Uber Mode getestet hat ist der Effizienzvergleich mal voll fürn Popo.
Die 980 kommt auf 3,25W/FPS, warum sollte AMD hier nicht auf ähnliche Werte kommen? Achja stimmt ist ja AMD...

Ich habe nicht behauptet das AMD das nicht schafft sondern das dies in 28 nm nicht gehen wird egal wie weit man optimiert so eine Effizienzsteigerung innerhalb 28 nm? Geht nicht.
Da hast du mich wohl etwas falsch verstanden.


Gesendet von meinem Nexus 5 mit der Hardwareluxx App
 
Naja WQHD ist bei den high Ende Karten auch sinnvoller weil es Richtung 4K geht und die Zeit für 4K langsam kommt!

Durchaus, aber mir ging es nicht um sinnvoll oder nicht, sondern eher um den Punkt das AMD bei höheren Auflösungen prozentual näher an die nVidia Konkurrenz rückt. Bedeutet soviel wie, das der Test hier die Karte etwas besser aussehen lässt, als sie dies z.B. in HD-Auflösung tun würde. Ein Schelm wer böses dabei denkt... ;)

Und in 28 nm so viel optimiert?

30 Prozent mehr Leistung als 290X dabei nur 2/3 Leistungsaufnahme das heißt die Leistung pro Watt auf 200% der 290X!!!
Das wäre kein optimieren sondern hexen.

Halte ich nicht für unmöglich! AMD hat ähnliches doch schon mit der R9 285er bewiesen. Sollten die Karten dazu noch mit energieeffizienteren HBM-Speicher kommen, dann würde es aus meiner Sicht auch mit den 28nm passen.

Aber warten wir mal ab, versteifen wir uns nicht zu sehr auf diesen einen Test hier. Wer weiß wieviel da wirklich dran ist...
 
Und die 285 hat 1/3 weniger Speicher und Speichercontroller!

Gesendet von meinem Nexus 5 mit der Hardwareluxx App
 
natürlich geht das wenn der HBM speicher weniger strom braucht

20nm ist es nicht dafür wärs zu schlecht

Wenn es ein kleiner Chip wird man halt noch sehen müssen man weiss es halt noch nicht .
Kann mir aber irgend wie nur schwer vorstellen das es noch ein Grösserer Chip in 28NM wird der dann weniger Leistungsaufnahme hat als der der 290x und dabei 30% Mehr stammt.
Ich meine es wäre super wenn AMD das bewerkstelligen könnte zum jetzigen Zeitpunkt aber für mich noch nicht Vorstellbar bei 200W.
 
Zuletzt bearbeitet:
Nur durch HBM?? ja wird vlt. 15 Watt an sich ändern, keine 100W bei 30% mehr Leistung!


Und für 20nm wärs zu schlecht??? hääää??
Effizienzverdoppleng und zu schlecht???

keiner hat eine Ahnung wie groß der Chip ist (bei der Effizienz sicher kein Monster)!
Denn was AMD will ist schnell viele 20nm Chips, für die Riesengroßen werden sicherlich keine Fertigungskapazitäten frei sein!
 
Für 20nm + HBM-Speicher wäre die Leistung aber wirklich nicht spektakulär, wenn es denn eine 390(X) sein soll. Man stelle sich nur einmal Maxwell 2.0 (noch 28nm!) mit HBM-Speicher vor...
 
Durchaus, aber mir ging es nicht um sinnvoll oder nicht, sondern eher um den Punkt das AMD bei höheren Auflösungen prozentual näher an die nVidia Konkurrenz rückt. Bedeutet soviel wie, das der Test hier die Karte etwas besser aussehen lässt, als sie dies z.B. in HD-Auflösung tun würde. Ein Schelm wer böses dabei denkt... ;)

Andersrum wird ein Schuh draus... Benchen in geringer Auflösung bedeutet vielmals nahes/anliegendes CPU Limit. Und bekanntermaßen ist die AMD DX11 Umsetzung häufig nicht der absolute Leistungsansatz.
Die Karte gewinnt also nicht mit steigender Auflösung, sondern viel eher verliert sie mit sinkenden Anforderungen (weil im CPU Limit mehr Leistung liegen gelassen wird)
Benches darüber gibts einige zum nachlesen. Siehe Mantle vs. AMD DX11 vs. NV DX11. -> der AMD DX11 Part ist öfters weit abgeschlagen. Speziell wenn es richtig häftig ins CPU Limit geht...

Um so weniger die CPU limitiert und die Karte wirklich ins GPU Limit rennt, desto besser kann sie also auch ihre Rohleistung ausspielen.
Rückblickend über die Jahre hat AMD dieses Problem schon seit geraumer Zeit ;)

Für 20nm + HBM-Speicher wäre die Leistung aber wirklich nicht spektakulär, wenn es denn eine 390(X) sein soll. Man stelle sich nur einmal Maxwell 2.0 (noch 28nm!) mit HBM-Speicher vor...

Warum HBM für Maxwell?
Was soll da passieren?
Wir wissen doch nichtmal den Bandbreitenanforderungen von Maxwell GM200/GM210. Darauf zu spekulieren, das HBM so viel bringt ist also ziemlich unsinnig. Fakt ist, der GM204 in Form einer GTX 970/980 zeigt in Spielelast und dessen Verbrauch, dass rein für den Speicher bei ~150W für die 970er definitiv nicht viel Anteil dabei sein kann!

Ich habe nicht behauptet das AMD das nicht schafft sondern das dies in 28 nm nicht gehen wird egal wie weit man optimiert so eine Effizienzsteigerung innerhalb 28 nm? Geht nicht.
Da hast du mich wohl etwas falsch verstanden.

Warum sollte das nicht gehen?
Wenn NV bei TSMC im 28nm Prozess effiziente Karten bauen kann, dann kann das AMD genau so im gleichen Prozess.
Viel interessanter dabei ist eher, wie viel trägt das Powermanagement der Maxwell GPUs am Ende wirklich zur Effizienzsteigerung bei und wo muss AMD noch nacharbeiten?

Nimmt man sich Leistungsmessungen bei Computerbase zu Rate, so erreicht die 780TI bei 250W 100% Leistung. Die 970 bei 150W 94%. Und die 290X bei 250W 92%.
Das ganze umgemützt wären 2,5W pro Prozentpunkt für die 780TI, 1,6W pro Prozentpunkt bei der 970 und 2,7W pro Prozentpunkt bei der 290X.
Tahiti in Form der 280X kommt bspw. auf 220W bei 77% aka 2,86W pro Prozentpunkt.
Die GTX 770 in Form von GK104 erreicht bspw. ebenso 2,87W pro Prozentpunkt (195W bei 68%)

Auffallend ist, das die Karten der "ersten" Generation sich alle irgendwie halbwegs nah beieinander bewegen. Aber die GM204 970er tanzt massiv aus der Effizienzreihe... -> und das ist immernoch 28nm im gleichen Prozess.


Sicher finde ich noch andere Karten, die da die 3W pro Prozentpunkt sprengen ;)
 
Zuletzt bearbeitet:
Wenn das kein Fake ist, dann definitiv in 20nm!!! denn weniger als 200W und so gigantisch viel Leistung?
Naja, gigantisch ist die Performance jetzt nicht gerade. Es ist eher die Effizienz, die laut der Folie sehr deutlich steigen würde, um etwa 85%. Das ist durchaus auch in 28nm möglich. Aber nur mit 390/390X. Bei 380/380X erscheint mir das unrealistisch.

Schauen wir uns doch mal an, was es für Möglichkeiten gibt. Erstens, das breitere Design mit knapp 50% mehr Einheiten. In die Breite zu bauen kann bei solchen Prozessoren immer die Effizienz verbessern. Ganz einfach, weil sie gut skalieren und die normalerweise höhere Leistungsaufnahme aufgrund der zusätzlichen Einheiten mit moderaten Takt- und Spannungssenkungen kompensiert werden können. Bis zu 20% mehr Effizienz erscheint mir realistisch. Zweitens, die Architektur selbst kann natürlich auch effizienter gestaltet werden. Also dass die einzelnen Einheiten bei gleicher Leistungsaufnahme mehr leisten. Bis zu 20% sind sicherlich auch hier drin. Drittens, HBM. Laut Hynix lassen sich damit 2/3 der Speicherleistungsaufnahme sparen. Sagen wir mal ein Drittel der gesamten Leistungsaufnahme fällt auf den Speicher ab. 2/3 davon wären 2/9 der gesamten Leistungsaufnahme bzw gut 60 W im Fall der 290X. Fallen diese weg, käme man nur noch auf etwa 220 W. Was 25-30% mehr Effizienz bedeutet. Rechnen wir alles zusammen, kommt man auf 80-90% mehr Effizienz. Ambitioniert für 28nm, aber machbar mit einem entsprechend grossen Chip (>500 mm²). Mit 20nm wäre das dann auch mit einem deutlich kleineren Chip machbar. Dann könnte es in der Tat auch lediglich die 380X sein.

Und da ist noch ganz anderes vorstellbar. Ich kann mich noch an die Aussage eines AMD Ingenieurs erinnern, der vor geraumer Zeit mal meinte, man habe einen Weg gefunden, die Shader doppelt so effizient zu machen. Geplant war das ganze offenbar für die GCN2 Architektur, die aufgrund der Verschiebung von 20nm bisher aber noch nicht gelaunched wurde. Stattdessen gab es lediglich Updates für GCN1. Sofern es sich bei Pirate Islands um GCN2 handelt, sind also durchaus auch wieder grössere Sprünge architekturseitig möglich als zuletzt mit Hawaii oder Tonga. Oder bessere Stromsparmechanismen, die bereits bei Maxwell einen grossen Anteil der Einsparungen in Spielen ausmachen.


Die 285 war nur ne Handvoll Prozent efektiver...
Die 285 ist ein "Abfallprodukt". Die besten Tonga Chips hat Apple bekommen. Dort gibt es auch den vollen Tonga. Die 285 besitzt lediglich einen teildeaktivierten Tonga. Tonga gehört auch lediglich zur Volcanic Islands Familie, nicht zu Pirate Islands.
 
Zuletzt bearbeitet:
die Kapazitäten für die 28NM Produktion wären ja durchaus vorhanden für AMD nur bei 20 NM hapert es ja, meint ihr wirklich wenn die neue Generation noch in 28NM kommen würde, das AMD dann über ein halbes Jahr Nvidia quasi kampflos (nur durch erhebliche Preisreduktion der 280/290 Karten) den Markt und vor allem das Weihnachtsgeschäft überlässt ?

ich glaube wenn die neuen Karten noch in 28NM kommen dann wären sie schon da...
 
Andersrum wird ein Schuh draus... Benchen in geringer Auflösung bedeutet vielmals nahes/anliegendes CPU Limit. Und bekanntermaßen ist die AMD DX11 Umsetzung häufig nicht der absolute Leistungsansatz.
Die Karte gewinnt also nicht mit steigender Auflösung, sondern viel eher verliert sie mit sinkenden Anforderungen (weil im CPU Limit mehr Leistung liegen gelassen wird)
Benches darüber gibts einige zum nachlesen. Siehe Mantle vs. AMD DX11 vs. NV DX11. -> der AMD DX11 Part ist öfters weit abgeschlagen. Speziell wenn es richtig häftig ins CPU Limit geht...

Um so weniger die CPU limitiert und die Karte wirklich ins GPU Limit rennt, desto besser kann sie also auch ihre Rohleistung ausspielen.
Rückblickend über die Jahre hat AMD dieses Problem schon seit geraumer Zeit ;)

Da hast du den Kern des Übels gut beschrieben, aber warum du mich Lügen strafen willst, verstehe ich nicht ganz. Habe doch nichts geschrieben was dem widersprechen würde. :)

Warum HBM für Maxwell?
Was soll da passieren?
Wir wissen doch nichtmal den Bandbreitenanforderungen von Maxwell GM200/GM210. Darauf zu spekulieren, das HBM so viel bringt ist also ziemlich unsinnig. Fakt ist, der GM204 in Form einer GTX 970/980 zeigt in Spielelast und dessen Verbrauch, dass rein für den Speicher bei ~150W für die 970er definitiv nicht viel Anteil dabei sein kann!

Nicht so ernst nehmen, ist alles nur Spekulatius... ;)

Bandbreite sollte wirklich nicht so entscheidend sein, aber ich gehe halt schon davon aus, dass HBM zu GDDR5 etwas an Energie einsparen sollte. Wieviel genau keine Ahnung, kann mich auch irren und letztenendes ist es genau andersrum. Aber selbst wenn es "nur" 5-10W wären, dann halte ich das schon für einen schönen Schritt nach vorne.
 
Da hast du den Kern des Übels gut beschrieben, aber warum du mich Lügen strafen willst, verstehe ich nicht ganz. Habe doch nichts geschrieben was dem widersprechen würde. :)

Das war nicht absicht :fresse: Ich würde es halt nur drehen... Weil die Aussage damit eher dem Sinn entspricht. Denn zwischen verliert Leistung bei niedrigen Settings und gewinnt Leistung bei höheren Settings liegt ein kleiner aber (ganz) feiner Unterschied. Wie oben erwähnt.
Oder anders ausgedrückt, der Lücke wäre mit niedriger Auflösung/Belastung auch kleiner, wenn die AMD DX11 Umsetzung da etwas besser arbeiten würde. Das es prinzipiell mit der Hardware geht, zeigt ja Mantle in ein paar Titeln. Aber das es im Grunde nicht primär an DX11 selbst liegt, zeigt NV eben mit ihrer Umsetzung ebenso. -> deswegen würde ich das drehen.

Hawaii ist definitiv nicht langsam. Nur eben etwas stromhungriger und AMD hat den Release versämmelt weil man das Ref. Design an die Redaktionen versendet hat, was in den Köpfen der Leser fest bestehen bleibt.

Bandbreite sollte wirklich nicht so entscheidend sein, aber ich gehe halt schon davon aus, dass HBM zu GDDR5 etwas an Energie einsparen sollte. Wieviel genau keine Ahnung, kann mich auch irren und letztenendes ist es genau andersrum. Aber selbst wenn es "nur" 5-10W wären, dann halte ich das schon für einen schönen Schritt nach vorne.

So sehe ich das auch... Deswegen auch die Frage, was Maxwell mit HBM wöllte. Das bisschen mehr reißt es dann wohl primär nicht raus.
Auch halte ich die "Rechnung" von mr.dude oben für weit übertrieben. 1/3 der gesamt Leistungsaufnahme von Hawaii auf den Speicher zu schieben wäre etwas hoch. Das würde in der Milchmädchen Umkehrrechnung bedeuten, das 1/3 von GM204 für den Speicher drauf gehen. Was mal schlappe 50W bei der 970er währen. -> never...
Zumal wir nichtmal die Gegebenheiten der Aussage kennen... Denn die Leistungsaufnahme des Speichersystems sollte normal auch mit der Last steigen. Erzeugen Spiele wirklich viel Last? Wer weis... Eventuell sind die Werte doch realistisch, nur im Spielebetrieb eben nicht? Dann würde sich aber mit HBM selbst auch unter Spielelast weniger sparen lassen.

Bleibt wohl vorerst beim Abwarten ;)
 
Also an Maxwell Effizienz glaube ich eher nicht.
Für was sonst die Wakübestellungen? Ich denke eher dass man die Effizienz etwas steigert und die Karte bei 250 Watt TDP 30% vor Hawai liegen wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh