Erste Benchmarks zur Radeon R9 390X aufgetaucht

Weiss auch nicht wie man darauf kommt das Leistung sparen am Speicher mit mehr Performance des Chips gleichzusetzen ist.
Die Rechnung kann nur funktionieren wenn der Speicher auf dem Chip integriert sitzen würde und somit die Leistungsdichte des kritischen Elements GPU sinkt.

Man muss den Speicher doch auch ansteuern können. In der GPU befindet sich das Speicherinterface, das mit dem Speicher kommuniziert. Dieses benötigt, je nach Komplexität (z.B. 512bit) einen nicht unerheblichen Anteil der Gesamtfläche des GPU-Dies und somit auch entsprechend Energie. Durch HBM soll es nun möglich werden, die Komplexität dieses SI erheblich zu vereinfachen, somit würde man Die-Fläche einsparen, welche nun z.B. für mehr Streamprozessoren bereit stünde. Dadurch würde dann natürlich auch die Leistung und die Effizienz der GPU indirekt ansteigen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die höhere Bandbreite benötigt anscheinend aktuell kein Chip
Aktuelle APUs könnten höhere Bandbreite sehr gut gebrauchen. Aber hier geht's ja um die R9 390X. Was die mit vielleicht 4096 Shadern an Bandbreite benötigt, kann man noch nicht sagen. Aber je weniger es ist, umso besser für HBM. Und umso mehr kannst du an Energie sparen, die dann eben für anderes genutzt werden kann.

Und die geringere Leistungsaufnahme ... wayne ...
Selbst wenn HBM 50% einsparen würde, sprechen wir hier über läppische 25 Watt. Bei einer Gesamtaufnahme von ~200W imho zu vernachlässigen.
Es sind aber eher zwei Drittel. Und bei einer Bandbreite von 500 MB/s reden wir da von 50-60 W. Nehmen wir mal an, die R9 390X kommt mit etwa 400 MB/s, dann könnten das immer noch ~45 W sein. Bei 250 W TDP nicht wenig. Oder mit anderen Worten, eine GPU mit GDDR5 und 250 W TDP könnte man mit identischen Leistungsdaten und HBM mit ~205 W TDP spezifizieren. Behält man die TDP von 250 W hingegen bei, hat man ein zusätzliches TDP Budget von über 20%. Das im Optimalfall eben auch in mindestens 20% mehr Performance durch mehr Takt und/oder Shader investiert werden könnte.


Es mag zwar stimmen, das man durch Bandbreite alleine nicht mit viel mehr Performance rechnen kann.
Aber nur durch Shader ohne Bandbreite, wird auch nicht viel mehr herum kommen. Es ist immer eine Symbiose aus Rohleistung und Bandbreite. Sind einer dieser Faktoren davon zu knapp, leidet die gesamte Karte darunter.
Richtig. Ich denke es war auch für (fast) jeden klar, was mit direkt und indirekt gemeint war. Naja, Schaffe ist heute mal wieder im T-Modus. Halt ein Tag wie jeder andere.
 
Und die kommende R9 390X besitzt "nur" mehr Bandbreite oder wie ?

Das habe ich doch gar nicht gemeint. Aber erstmal muss Bandbreite auch benötigt werden, damit es mehr Performance bringt.
Pauschal gesehen bringt das erstmal gar nichts, weil Bandbreite alleine keine Performane bringt.
Das sieht man wenn man den Speichertakt in einigen Spielen erhöht, das bringt vor allem bei Hawai sogut wie nichts.

ber nur durch Shader ohne Bandbreite, wird auch nicht viel mehr herum kommen. Es ist immer eine Symbiose aus Rohleistung und Bandbreite. Sind einer dieser Faktoren davon zu knapp, leidet die gesamte Karte darunter.

DAs versuchte ich damit zu sagen. AMD wird imho nicht viel durch die höhere Bandbreite reißen, weil die Bandbreite ja eh schon recht massig vorhanden ist.

Mehr als das sieht AMD die Möglichkeit, mit HBM ihre Effizienz steigern zu können, um erst dadurch einen größeren Chip mit deutlich mehr Shadern herstellen zu können.

Das ist sicherlich interessant, ich befürchte aber dass hierbei nicht viel rumkommt, vielleicht 20Watt. Besser als nix.

Richtig. Ich denke es war auch für (fast) jeden klar, was mit direkt und indirekt gemeint war.

Und trotzdem ist die Aussage inhaltlich falsch. Du bist der letzte der bei ungenauen Aussagen die Aussagen nicht zitiert und richtig stellt. Wieso darf ich das dann nicht?
Ist das dann in deinen Augen Getrolle? Aha.:stupid:

Und dass mehr Bandbreiite selbst bei mehr Shadern mehr Performance bringen soll, muss auch erstmal abgewartet werden, bevor man meint es bringe was.
Die 2900XT hatte vielmehr Shader wie eine 1950 XTX und auch viel mehr Bandbreite, half alles nichts.
 
Zuletzt bearbeitet:
mr.dude schrieb:
Nein, ist es nicht. HBM hat zwei Vorteile, höhere Bandbreite und geringere Leistungsaufnahme. Das erste bringt direkt mehr Performance.

Dann erkläre doch mal wie Bandbreite alleine direkt mehr Performance bringen soll, gesetz dem Fall, die Bandbreite stellt keine Limitierung dar.
Dann bringt das gar nichts.
Aber mr.dude ist ja die Erhabenheit in Person.:fresse:

Das ist etwa so, wie wenn man behauptet, ein schnellerer Cache bringt direkt mehr Performance.
Das ist genauso Blödsinn.
Das witzige daran ist, dass gerade du immer derjenige bist, der allen erklärt wie sich Performance durch das Zusammenwirken mehrerer Komponenten innerhalb einer CPU und außerhalb zusammensetzt.

Du widersprichst dir quasi selbst und bist zu überheblich das zuzugeben, Kindergarten.
 
Zuletzt bearbeitet:
Dann erkläre doch mal wie Bandbreite alleine direkt mehr Performance bringen soll, gesetz dem Fall, die Bandbreite stellt keine Limitierung dar.
Dann bringt das gar nichts.

Er meinte damit ausgehend von einer R9 390X. Das bei einer R9 290X kaum bis keine Performance mehr herrauspringt, sollte klar sein oder ?
Es ist immer wieder schwer hier etwas im Forum zu posten, weil jeder sich irgendwie nicht bemüht einmal mit zu denken.
Alles wird komplett wörtlich genommen und sinnverdreht, wie es einem passt. Und wenn man sich mal Mühe gibt und alles ausführlich schreibt, liest es eh keiner...

Also, bei einer zukünftigen R9 390X mit schätzungsweise 40-50% mehr Shader und dadurch höhere Rohleistung ist eine Steigerung der Bandbreite durch HBM direkt mit Performancezugewinn verbunden.
Alternativ lässt sich auch noch GDDR5 verwenden, was aber deutlich mehr Stromhunger verspricht.
Zudem bräuchte AMD dann schnellere Speicherchips von SAMSUNG, wodurch sie ihren Partner Hynix nun abwerfen müssten, mit dem sie zusammen HBM entwickelt haben.
Macht also keinen Sinn nicht auf HBM umzusteigen. Die Vorteile überwiegen einfach die Kosten. Zudem hat AMD sicherlich einiges bei Hynix gut und kann Sonderkonditionen verlangen. ;)
 
Zuletzt bearbeitet:
Zudem bräuchte AMD dann schnellere Speicherchips von SAMSUNG, wodurch sie ihren Partner Hynix nun abwerfen müssten, mit dem sie zusammen HBM entwickelt haben.

Soweit mir bekannt, tun sich beide da nicht viel. Samsung und Hynix haben jeweils GDDR5 mit maximal 8GHz im Programm.
 
Also, bei einer zukünftigen R9 390X mit schätzungsweise 40-50% mehr Shader und dadurch höhere Rohleistung ist eine Steigerung der Bandbreite durch HBM direkt mit Performancezugewinn verbunden.
Richtig. Und genauso war es auch gemeint. In welchem konkreten Szenario es dann wie viel bringt, ist nochmal eine andere Geschichte und war nicht Gegenstand meiner Aussage. Die Verringerung der Leistungsaufnahme hat im Gegensatz dazu eben keinen direkten Einfluss auf die Performance. Lediglich indirekt, wenn man mit diesem gewonnenen TDP Budget bei anderen Leistungsfaktoren, wie Takt oder Einheiten, zulegen kann. Jeder scheint das auch verstanden zu haben. Ausser Schaffe natürlich. Aber gut, Schaffe im T-Modus ist eh ein Fall für sich. Und das ist leider oft der einzige Kindergarten. Nicht nur hier. :rolleyes:
 
Zuletzt bearbeitet:
Richtig. Und genauso war es auch gemeint.

Schaffe meint wohl viel eher, dass die höhere Performance aber nicht direkt von HBM kommt. Sondern die kommt von der GPU, den ALUs bzw. der höheren Zahl dieser und womöglich der Architekturverbesserung oder anderen Sachen, die man in die neuen Karten einfließen lassen wird. Aber nicht durch HBM als Speicher allein. Oder anders ausgedrückt, ohne GPU hast du gar keine Performance.
Du oben sprachst aber davon, das "HBM direkt mehr Performance" bringt. Und das ist eben nicht wahr... Und ja, ich gehe stark davon aus, dass hier quasi "Alle" gewust haben, was du damit ausdrücken wolltest. Es ändert aber am Fakt schlicht nix. Wenn jemand darauf hinweisen will, steht ihm das auch frei. :wink:
 
Zuletzt bearbeitet:
Also, bei einer zukünftigen R9 390X mit schätzungsweise 40-50% mehr Shader und dadurch höhere Rohleistung ist eine Steigerung der Bandbreite durch HBM direkt mit Performancezugewinn verbunden.

Das ist vom workload abhängig, pauschale Aussagen hierzu sind falsch, aber du sagtest es ja selbst schon.
Zudem hat AMD ein Verfahren wie Nvidia entwickelt was den "Verbrauch" an Bandbreite bis zu 40% vermindern kann.
Insofern erwarte ich keine direkte Merhleistung durch HBM in Spielen, sondern eher Merhleistung dort wo die Bandbreite fehlt, im professionellen Bereich, bei speziellen workloads.

Vielleicht mag die Performance mit HBM im Schnitt bei hohen Auflösungen spürbar sein. Ich wüsste aber nicht wo davon gesprochen wurde.

fdsonne schrieb:
Und ja, ich gehe stark davon aus, dass hier quasi "Alle" gewust haben, was du damit ausdrücken wolltest. Es ändert aber am Fakt schlicht nix. Wenn jemand darauf hinweisen will, steht ihm das auch frei.

Ich habe das nicht gewusst, da mr.dude auf einen Beitrag geantwortet hat der die Behauptung aufgestellt hat, es sei unerheblich ob HBM oder GDDR5 genutzt wird.
Ich sehe das zumindest bei der nächsten Gen die AMD auflegt fast genauso.

Fehlende Bandbreite kann durch Color Compression ausgeglichen werden und dass das gut funktioniert sieht man an der r9 285.
Zudem bezweifel ich auch dass wir 2015 überhaupt eine AMD Gaming! Karte mit HBM sehen werden.




____________________________________________________________________________________________________________


Fijii und Bermuda vs. GTX 980 GM200 Salvage und GM200 Full

Sieht nicht nach einer Nvidiadominanz aus, eher ausgeglichen.

133741b1t4cvhxm4thhza76qrh.png


http://www.chiphell.com/thread-1196441-1-1.html
 
Zuletzt bearbeitet:
Fehlende Bandbreite kann durch Color Compression ausgeglichen werden und dass das gut funktioniert sieht man an der r9 285.
Zudem bezweifel ich auch dass wir 2015 überhaupt eine AMD Gaming! Karte mit HBM sehen werden.

HBM bietet auch andere Möglichkeiten als reine Bandbreite. Man könnte auch den Speichertakt deutlich reduzieren und hätte keine Verluste in der Bandbreite. Aber eine noch deutlichere Effizienzsteigerung. AMD muss effizienter werden und dabei schneller. Sonnst verlieren sie den Anschluss !

Fijii und Bermuda vs. GTX 980 GM200 Salvage und GM200 Full

Sieht nicht nach einer Nvidiadominanz aus, eher ausgeglichen.

Was es nicht alles schon im Netz gibt und das so kurz vor Weihnachten ? Da will wohl jemand NVIDIAs Weihnachtsgeschäft vermiesen. ;)
Ich dachte immer das Fiji der Big-Hawaii wird und nicht Bermuda. Aber da sieht man man wieder, das man eigentlich gar nichts weiß. :banana:

Ich hoffe, das es bald seriöse Quellen gibt. Erst dann können wird wirklich diskutieren.

Wie auch immer.
Das Jahr 2015, wird nicht nur das Jahr sein, indem Autos fliegen können.
https://www.youtube.com/watch?v=d68yRIE9OvQ

Nein ! Es wird das Jahr der 4k IPS-Monitore und CrossFire/SLI-Systeme sein !! ;)
 
Zuletzt bearbeitet:
gleich 4 samples? :rofl:
im leben nicht.

der Junge muss mehr als nur gute bekannte haben.
vor allem gleich noch mit treiber.
 
Zuletzt bearbeitet:
Chiphell ist schon eine gute Quelle, in der Regel kommen da einige sehr früh an Dinge dran, die sie gar nicht haben sollten. In der Vergangenheit haben solche geleakten Benchmarks meist tatsächlich die neuen Chips gezeigt. Allerdings fehlt dann immer noch ein angepasster Treiber, wodurch die Benchmarks dann doch eher "grobe" Werte waren.
 
Abwarten was da kommt... In die Region ~40%+ geht es sicher schon.
Mich wundern allerdings die Werte der angeblichen AMD Karte. Das wären zum Teil 60+% Nicht unmöglich, aber eher unwarscheinlich ;) Könnte natürlich auch einfach sein, die aktuellen Spekulationen sind derart neben der Spur :fresse:
Die für den GM200 hingegen halte ich für ziemlich realistisch. Bei 50% mehr Ausführungseinheiten um dei 40-50% mehr Performance als GM204 kommt schon hin. Die Frage bleibt am Ende, bei welchem Takt? Dass GM200 mit 1,2 und mehr GHz läuft, glaube ich ehrlich gesagt nicht.

Bei der AMD Geschichte hingegen ist das alles noch so derart ungewiss... Keiner hat heute irgendwie ansatzweise Fakten zur Technik. Und keiner weis, wie das Ding performt. Bei NV hingegen wissen wir, wie Maxwell performt.
 
Dauert ja nicht mehr lange, dann wissen wir es genau. Warum du der AMD Karte aber keinen Sprung um 60% zutraust, verstehe ich nicht.
 
Weil aktuell von ca. 45% mehr Shadern ausgegangen wird ;)
Das wäre die erste GPU (OK eigentlich die zweite, wenn man Maxwell von NV mit einbezieht) die mal wirklich deutlich mehr Leistung aus ihren Ausführungseinheiten rausholt.
Seit dem G80/R600 war es eher so, das die mehr Ausführungseinheiten keinesfalls 1:1 skalierten. Bestenfalls höchsten annähernd 1:1. Aber das auch idR nur intern in einer Generation.

Also ist RV770 zu RV870 trotz doppelter Ausführungseinheiten nicht doppelt so schnell. Selbst bei Taktgleichheit nicht. Tahiti zu Hawaii ist auch nicht so schnell, wie man es von den Ausführungseinheiten erwarten würde usw.
Bei NV das selbe Spiel... Um so mehr Ausführungseinheiten, desto flacher die Skalierungskurve.

Maxwell GM204 ist bis jetzt die einzige Ausnahe. Und auch dort ist maßgeblich wohl auch der höhere Takt ausschlaggebend, warum die 980er eben gegen eine 780TI im default Clock minimal gewinnen kann. Trotz weniger Ausführungseinheiten.

Sprich wenn die aktuell spekulierten 4096 ALUs annähernd der Realität entsprechen, dann wäre das schon ne reife Leistung von AMD, da um die 60% und teils mehr rauszuhauen... ;) Oder aber, die 4096 ALUs entsprechen nicht der Realität und das Teil wird einfach breiter... Dann wirds auch wieder warscheinlicher...
 
Zuletzt bearbeitet:
Eine höhere Effizienz der Ausführungseinheiten halte ich aber für Wahrscheinlich. Man kann es zwar nicht vergleichen, aber nVidia scheint mir hier in den letzten Generationen Effizienter gewesen zu sein, eventuell hat sich AMD sich hier etwas abgeschaut um sich selbst zu verbessern. Eventuell ist HBM nicht nur in Sofern interessant, dass die Bandbreite höher ausfallen kann und die Stromaufnahmen sinkt, ich vermute mal ganz stark, dass die Latencen deutlich geringer ausfallen was auch ein Leistungsschub erzeugen kann. Nimmt man das alles zusammen.... möglich wären 60% und ich traue es AMD auch zu.
Ich hab die Diskussion hier nicht groß verfolgt, also keine Ahnung was ihr da schon durch habt. Ich warte einfach auf die Ergebnisse wenn die Karte/n draußen ist/sind.
 
Eine höhere Effizienz der Ausführungseinheiten halte ich aber für Wahrscheinlich. Man kann es zwar nicht vergleichen, aber nVidia scheint mir hier in den letzten Generationen Effizienter gewesen zu sein, eventuell hat sich AMD sich hier etwas abgeschaut um sich selbst zu verbessern.

Klar ist Maxwell effizienter pro ALU. NV selbst sprich von ca. 35% wenn ich das recht in Erinnerung habe. In der Praxis dürften es aber eher weniger sein... Vielleicht 15-20%. Maxwell GM204 hat halt im Vergleich zum GK110 weit höhere Taktraten. Das gleicht die Einheitenanzahl halt ebenso ein Stück weit aus.
Das sich da AMD was "abschaut" ist zwar machbar. Aber bedenke, dass die GPUs nicht binnen einem halben Jahr entwickelt werden. Da dürften eher was um die 3-5 Jahre Entwicklungszeit auf der Uhr stehen. Sprich die Grundstöcke der kommenden AMD GPUs sind schon lange fix. Auch das Grunddesign würde ich behaupten. Die Effizienz der Ausführungseinheiten lässt sich da dann im Nachgang eher schwerer wirklich signifikant steigern.

Was noch dazu kommt, die Gerüchteküche ist sich aktuell völlig uneinig, was die Fertigung angeht. Ggf. ist das Bild oben auch wirklich nur ein Fake?
Man munkelt ggf. sogar von einem gestaffelten Release. Also erst irgendwas in 28nm von TSMC (ggf. sogar noch mit GDDR5 Anbindung), das könnte nach der Folie oben der Fiji sein. Und im zweiten Step dann einen 20nm GloFo Prozess (oder 2Xnm FF Prozess) hinterher mit einem Refresh oder nochmals aufgebohrten Chip, was dann auf den Bermuda treffen könnte.
Die Frage ist und bleibt, was werden wir davon wann sehen?

Im 3DC munkelt man übrigens auch, dass AMD an der Architektur eben gerade nichts wirklich signifikant verbessert hat ;) -> das würde auch gegen mehr Leistungseffizienz der Ausführungseinheiten sprechen.
 
@Red_Bull
wieso ernüchternd? ~40-50% mehr Performance auf die Vorgänger ist alles andere als ernüchternd... Schau dir die damaligen Werte der G80 (8800GTX) von NV an. Das Teil gilt immernoch als "DER" Maßstab in Sachen Performanceplus. Auf ne X1950XTX kamen da im Schnitt ~60% mehr Leistung bei rum.
40-50% im womöglich gleichen Prozess ist schon ziemlich gut. Viel mehr würde ich nicht erwarten. Wenn AMD allerdings auf 20nm geht, könnte es auch mehr werden. Ob das allerdings eintrifft? abwarten...
Das ne 295X2 getopt wird, ist ebenso quasi ausgeschlossen... Eigentlich von Anfang an war das quasi ausgeschlossen. Eher realistischer ist, das man die TitanZ topt, wenn auch das schon arg knapp werden würde.
 
Zuletzt bearbeitet:
Ich denke mehr als 40% Mehrleistung als eine R9 290X ist unrealistisch...
Ist nur meine Einschätzung, aber mehr ist das alles hier auch nicht.
 
naja der benchmark ist ja noch nicht wirklich nützlich für mich da die spiele und auflösung welche ich nutze nicht dabei sind
und wer weis wie das in FHD aussiet

Nicht nennenswert anders... Es sei denn, du kommst in FHD in ein CPU Limit... Dann flacht die Leistungskurve zweifelsfrei ab ;)
UHD Benches auf heutiger HighEnd Hardware, selbst im Doppelgespann bringen idR aber derart viel Performancebedarf an die GPUs, dass du da sogut wie nicht im CPU Limit agierst (von ganz alten Kamellen mal abgesehen)... Von daher. Und selbst FHD heute bringt dir mit den richtigen BQ Settings zwei HighEnd GPUs derart aus dem Tritt, dass die CPU nur noch eine bestenfalls untergeordnete Rolle bei den FPS spielt...
Bsp: The Witcher II mit Übersampling, max. Details und InGame alles auf max. ohne irgendwelche AA Spielereien, ohne DS(R)/VSR oder sonstwede Mods schaffen zwei 780TIs bei 1200MHz mit ca. 60FPS im Schnitt in Außenarealen. In Häusern auch mal mehr wie 100FPS... GPU Load quasi strich 99%, mit ein paar Ausreißern nach unten, was aber eher an Ladeszenen oder ähnlichem liegt.
 
Weil aktuell von ca. 45% mehr Shadern ausgegangen wird ;)
Das wäre die erste GPU (OK eigentlich die zweite, wenn man Maxwell von NV mit einbezieht) die mal wirklich deutlich mehr Leistung aus ihren Ausführungseinheiten rausholt.
Seit dem G80/R600 war es eher so, das die mehr Ausführungseinheiten keinesfalls 1:1 skalierten. Bestenfalls höchsten annähernd 1:1. Aber das auch idR nur intern in einer Generation.
[...]
Die Aussage kannste eigentlich vergessen, weil du die Powertargets vergessen hast. Wenn eine 980 ein Powertarget von 180W hat und ein GM200 von 275W, dann kann es durchaus problemlos möglich sein, dass der GM200 trotz nur 30% mehr Shader soviel mehr schneller ist.
Bestes Beispiel ist hier Hawaii: Ein Referenz 290X hat ein Powertarget von 240W. Eine Ur 290 non-X hatte damals ein Powertarget von 200W. AMD änderte das mit einem der ersten Catalyst-Treibern nach Release von Hawaii jedoch auf 230 oder 240W bei der 290 non-X, weil die 290 zu schlapp war - mit dem Ergebnis, dass eine 290 jetzt oftmals die 290X erreicht, trotz weniger Shader. Ganz einfach, weil die 290X im µsec-Bereich oft mehr auf niedrigere Takte runter muss als die 290 (damit ist kein Throtteln gemeint. Das passiert nur bei Überhitzung). Die 200-Serie hat fast das gleiche Powerverhalten wie Maxwell (es sei denn du übertaktest oder gehst in den Uber-Modus).
 
Zuletzt bearbeitet:
Die Aussage kannste eigentlich vergessen, weil du die Powertargets vergessen hast. Wenn eine 980 ein Powertarget von 180W hat und ein GM200 von 275W, dann kann es durchaus problemlos möglich sein, dass der GM200 trotz nur 30% mehr Shader soviel mehr schneller ist.

Das glaube ich nicht... Warum? A) soll GM200 ja 3072 ALUs beherbergen. (was 50% mehr sind und nicht 30%) Ich gehe davon aus, das auch der halbwegs Spielerelevante Rest in ähnlichen Regionen mitskaliert. B) legt die 980er selbst mit hartem OC nicht derart stark zu, wenn man das PT maximiert. Und C) kennen wir ja die Ausgangsituation des GM200 gar nicht. Wenn der 50% mehr Ausführungseinheiten hat aber 50% weniger Takt als GM204, dann bleibt da unterm Strich keine Mehrleistung bei über. Auch gehe ich davon aus, das GM200 nicht die Taktraten der GM204 erreichen wird (bestenfalls mit Werks OC Modellen).
Auch gehe ich ebenso davon aus, dass das PT nicht derart die Spieleleistung verunstaltet muss ich ehrlich gesagt gestehen.
Im CB Leistungsrating der Partnerkarten sinds 13% mehr Gesamtperformance zwischen der Ref. 980er gegen die schnellste Werks OC Karte. Nur stehen da eben auch 200MHz mehr auf der Uhr (irgendwas um die 15% rum).

Um den Vergleich zu AMD zu wahren, die 290er Modelle, egal ob nun X oder nicht X reißen aber mit max. PowerTune nichts rauß. Da werden unter 5% gemessen... :wink: Zumal der Vergleich mit NV dahingehend hinkt, das Boost V2 von NV einfach mal variabel mit den Takraten umgeht, wärend der Boost bei AMD einen maximalen Boost anliegend hat. Ob sich das ändert? Weis heute keiner... Hält die Karte (aus welchen Gründen auch immer) den Takt nicht, geht die Leistung folglich runter. Bei NV ists genau andersrum, ausgehend von der Basistaktrate oder dem min. Boost zeigt GM204, dass da ganz paar MHz mehr nach oben drin sind. Erst dann irgendwo obendrüber deckelt das PT/TT... Und erst wenn es deckelt, geht dir Leistung verloren. Das Ref. Layout der 980er ist auch (laut CB) Temptarget limitiert... Also zumindest im default Zustand. Da deckelt das PT einfach nicht, sondern die Temperatur ist zu hoch um die Taktrate maximal halten zu können...
 
Warum wartet ihr einfach nicht bis die Karten draußen sind. Bin mir 99% Sicher das die Karten hier die Wenigsten Kaufen werden.
 
Weil das laaaaaaangweilig ist! 😎👍
 
Schaffe meint wohl viel eher, dass die höhere Performance aber nicht direkt von HBM kommt.
Er meinte, dass mehr Bandbreite nur dann mehr Performance bringt, wenn sie auch limitiert. Was eh jedem hier klar sein sollte und wie gesagt nicht Gegenstand meiner Aussage war.

"Du oben sprachst aber davon, das "HBM direkt mehr Performance" bringt."
Nein, das sind nicht meine Worte. Du solltest gründlicher lesen. Ich sagte, dass HBM höhere Bandbreite und geringere Leistungsaufnahme ermöglicht. Und erstes, also Bandbreite, hat direkten Einfluss auf die Performance. Geringere Leistungsaufnahme hingegen kann nur indirekt in mehr Performance umgewandelt werden. Und daran ist nach wie vor nichts unwahr. ;) Ich habe nie gesagt, dass HBM direkt mehr Performance bringt. Wobei das auch nicht so falsch wäre, da HBM auch geringere Latenzen als GDDR5 besitzt, die praktisch bei jedem Speicherzugriff zum Tragen kommen. Dafür muss die Bandbreite nicht mal limitieren.


Delta Color Compression hilft sicherlich auch gegen Bandbreitenlimitierung. Allerdings sollte man bedenken, die vorhandene Bandbreite wird damit effektiver genutzt. Es erhöht die Bandbreite nicht. Ein kleiner aber feiner Unterschied. Je nach Anwendungsszenario kann sich das also durchaus unterschiedlich auswirken, da der Kompressionsfaktor nicht konstant ist, die Bandbreite hingegen schon.


Die für den GM200 hingegen halte ich für ziemlich realistisch. Bei 50% mehr Ausführungseinheiten um dei 40-50% mehr Performance als GM204 kommt schon hin.
Laut den Werten eher 30-40%. Passt aber trotzdem bei 50% mehr Einheiten und vermutlich etwas weniger Takt.

Maxwell GM204 ist bis jetzt die einzige Ausnahe. Und auch dort ist maßgeblich wohl auch der höhere Takt ausschlaggebend, warum die 980er eben gegen eine 780TI im default Clock minimal gewinnen kann. Trotz weniger Ausführungseinheiten.
Nicht ganz. Von VLIW5 auf VLIW4 hat AMD auch schon mehr aus den Shadern rausgeholt. Cayman war trotz weniger Shader schneller als Cypress. Ebenso von VLIW4 auf GCN wurden die Shader leistungsfähiger. Auch wenn das dort weitaus deutlich bei Computing sichtbar wurde.
 
Zuletzt bearbeitet:
"Du oben sprachst aber davon, das "HBM direkt mehr Performance" bringt."
Nein, das sind nicht meine Worte. Du solltest gründlicher lesen. Ich sagte, dass HBM höhere Bandbreite und geringere Leistungsaufnahme ermöglicht. Und erstes, also Bandbreite, hat direkten Einfluss auf die Performance. Geringere Leistungsaufnahme hingegen kann nur indirekt in mehr Performance umgewandelt werden. Und daran ist nach wie vor nichts unwahr. ;)

Ja dann ließ doch bitte nochmal nach...
Deine Worte waren: "HBM hat zwei Vorteile, höhere Bandbreite und geringere Leistungsaufnahme. Das erste bringt direkt mehr Performance."
Wenn HBM also den Vorteil von mehr Bandbreite hat UND! mehr Bandbreite direkt mehr Performance bringt, sprichst du also davon, das HBM direkt mehr Performance bringt... Das lässt sich selbst Mathematisch belegen, wenn A gleich B ist und B gleich C ist, ist folglich A = C.
Das die Bandbreite "nur" direkten Einfluss auf die Performance hätte, steht dort im übrigen auch nicht. Keineswegs... Und hätte das dort gestanden, hätte auch niemand was dazu gesagt, denn es wäre exakt auch so richtig gewesen. Oben steht aber, dass es mehr Performance bringt. Und mehr ist es eben nicht zwingend. Es könnte theoretisch auch weniger sein.

Wenn wir schon klugscheißen wollen, dann bitte richtig.

Nicht ganz. Von VLIW5 auf VLIW4 hat AMD auch schon mehr aus den Shadern rausgeholt. Cayman war trotz weniger Shader schneller als Cypress. Ebenso von VLIW4 auf GCN wurden die Shader leistungsfähiger. Auch wenn das dort weitaus deutlich bei Computing sichtbar wurde.

Nach der eigentlichen Zählweise sollten es aber 320 VLIW5 Einheiten vs. 384 VLIW4 Einheiten sein.
Ebenso hat das "Einkürzen" zur Folge, dass Sachen, die vorher auf der "SFU" liefen nun im Nachgang 3/4 "Blöcken" belegen...
Aber wie auch immer. Ich sehe zumindest in den damaligen Leistungsmessungen im Schnitt irgendwo um die 15-20% Leistungsvorteil pro Cayman. Erst mit großen Auflösungen und/oder DX11 Workload (Tesselation) wird die Lücke größer als die rechnerisch mehr ALUs. Also ist das für mich nicht effizienter...
Auch Tahiti. Da stehen absolut zwar mehr Einheiten auf der "Uhr". Es sind 33% mehr + Takt... Und es kommen im Schnitt 35-40% mehr Leistung bei rum... Also wirklich effizienter arbeitet das Ganze zumindest in Spielen auch nicht. Eher im Schnitt annähernd gleich.

Ansonsten stimme ich dir allerdings zu, was GCN und Computing Power anging... Aber das ist für mich hier eher irrelevant, auch wenn es zweifelsfrei so richtig ist.

Laut den Werten eher 30-40%. Passt aber trotzdem bei 50% mehr Einheiten und vermutlich etwas weniger Takt.

Für mich persönlich ist der Takt allein seit Boost v2 relativ... Es wird wohl analog dem GK110 und auch GM204 so laufen, dass die Karte einfach schneller ist, wenn sie kühler bleibt. Und das am Ende obliegt mitunter auch dem User ;) Wenn das Teil annähernd mit der ALU Anzahl skaliert und vor allem auch sich an der reinen Taktfreudigkeit der GPU im Vergleich zum GM204 nichts ändert, lassen sich dort mit Werks OC Modellen wohl auch mehr wie 40% rauspressen... Ob man die 50% packt? Abwarten... Könnte allerdings schwer werden, es sei denn, GM204 und GM200 verhalten sich anders auf mehr Takt. Wünschenswert wäre auf jedenfall, dass Messungen in FHD vs. UHD nicht derart mit den FPS in den Keller zusammen brechen. Eventuell können die Hersteller, also AMD und NV da was hinzaubern ;)
 
Zuletzt bearbeitet:
Nein, das sind nicht meine Worte. Du solltest gründlicher lesen. Ich sagte, dass HBM höhere Bandbreite und geringere Leistungsaufnahme ermöglicht. Und erstes, also Bandbreite, hat direkten Einfluss auf die Performance.

Du meinst wohl eher ich soll mich gründlicher verlesen?:rofl:
Ich habe das doch gerade moniert, weil der Herr höchstselbst immer mit solchen Haarspaltereien in Diskussionen einsteigt ( siehe CPU Spieleperformance ) und da interessiert es nicht was gemeint ist, sondern was dasteht, oder jetzt wieder doch nicht?
Zumal das Gerede von direkt mehr Performance in der Sache sowieso falsch ist, aber wenn du das zugeben würdest, brichst du dir nen Zacken aus der Krone.

Und Einfluss auf die Performance und direkt mehr Performance bringen ist wohl Inhaltich vom Sinn/Zusammenhang etwas völlig unterschiedliches.

"Ich habe kein Problem damit, Fehler zuzugeben. Ganz im Gegensatz zu anderen wie Schaffe. " Dein Wort in Gottes Ohr.
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh