Vega-Architektur mit HBM2 und neuer Compute-Engine vorgestellt

NV hat eher auf möglichst hohen Takt optimiert, dass ist offensichtlich und wurde auch in der GTX 1080- Präsentation (Edit: indirekt) gesagt. Der höhere Wirkungsgrad bei höherem Verbrauch, bedeutet natürlich höheren Maximaltakt, weil der Takt den Verbrauch und damit die Temperatur erhöht.

Es ist schon richtig, dass man einen höheren Takt u.a. durch eine geringere Restwelligkeit der Stromversorgung ermöglicht, wodurch dann auch in der Konsequenz die Effizienz der Wandlung steigt. Die Frage dabei ist nur wie gut diese bei AMD bereits ist. Was Jen-Hsun da babbelt suggeriert einen es wäre etwas weltbewegend neues, was es im Grunde aber nicht ist. So könnte AMD bereits seit eh und je eine mindestens genauso gute Restwelligkeit/Effizienz bei den aktuellen Karten erzielen, werben mit diesen m.M.n. lächerlichen Aspekt nur nicht explizit. Bei "Craftsmanship" musste ich jedenfalls schon etwas schmunzeln...

Fury X vs. 980 Ti: 8,6 vs. 6 TFLOPS, beide bei etwa gleicher Chipgröße.

Wie sich das in der aktuellen Generation auswirkt, wenn AMD die Struktur auch zugunsten des Takts verändert ist noch nicht absehbar, aber tendenziell gehe ich davon aus, dass AMD eher noch ein Stück mehr in Richtung der Rohleistung bleibt, und nicht alle Karten auf maximalen Takt setzt.

Auf Seiten der Hardware bildet bei der Fury X das Front-End den größten Flaschenhals. Es ist ja nicht so, dass die Fury X ihre 8,6 TFLOPS generell nicht ausspielen kann. Lediglich bezogen auf Games ist es eine architekturbedingte Limitierung gegenüber nVidias Implemetierung. Sollte Vega hier tatsächlich die TFLOPS besser umsetzen können, dann wird das weniger etwas mit dem Takt zu tun haben, sondern viel eher mit der homogeneren Optimierung zwischen Front,- und Back-End.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf Seiten der Hardware bildet bei der Fury X das Front-End den größten Flaschenhals. Es ist ja nicht so, dass die Fury X ihre 8,6 TFLOPS generell nicht ausspielen kann.

Ohne jetzt genau die Gründe zu erörtern, sieht man definitiv, dass die Fury X selbst in Titeln Probleme hat, die Rohleistung umzusetzen, die bei anderen Karten anscheinend keine Probleme mit der Auslastung haben. Die Karte ist also schon irgendwie doppelt gebeutelt. Auch Vega wird nicht in jedem Titel voll belastet sein, aber ich bin mir sicher, dass AMD da beide Probleme angeht, vor allem TBR scheint bisher nicht so weitgehend wie bei Nvidia implementiert zu sein und könnte die Shaderauslastung extrem erhöhen. Trotzdem denke ich, dass höherer Takt das effektivste Mittel für Prozessoren ist, die nicht genug gleichzeitige Aufgaben bekommen.


Übrigens, falls jemand Interesse daran hat, lasse ich es mal hier stehen:
Kyle Bennett schrieb:
OK. Got information back on this. Everything I have mentioned here is definitively correct.

Intel is licensing AMD GPU technology. No money has changed hands yet, so there is not financial impact till late in the year, hence nothing in the current earnings report.

The first product AMD is working on for Intel is a Kaby Lake processor variant that will positioned in the entry-to-mid level performance segment. It is in fact an MCM (multi-chip-module), and will not be on-die with the KB CPU. It is scheduled to come to market before the end of the year. I would expect more collaboration between AMD and Intel in the future on the graphics side.
Quelle
 
Zuletzt bearbeitet:
Indem man das optimale Verhältnis zwischen Shaderanzahl auf engstem Raum und möglichst hohem Takt wählt, was wieder Raum kostet. Also so, dass das Produkt, die TFLOPS, möglichst groß ist. NV hat eher auf möglichst hohen Takt optimiert, dass ist offensichtlich und wurde auch in der GTX 1080- Präsentation (Edit: indirekt) gesagt. Der höhere Wirkungsgrad bei höherem Verbrauch, bedeutet natürlich höheren Maximaltakt, weil der Takt den Verbrauch und damit die Temperatur erhöht.
Du hast nen Denkfehler... Rohleistung ist nicht Einheitenanzahl. Rohleistung ist Einheitenanzahl x Takt x Effizienz der Einheiten. Es spielt absolut keine Rolle ob du 2048 ALUs mit 2GHz oder 4096 ALUs mit 1GHz fährst, sofern der Rest absolut vergleichbar ist kommt das gleiche hinten bei rum. Desweiteren zählt, was noch dran/drauf ist. Tesselationleistung ist seit Ewigkeiten pro NV. Pixel/Texelfüllraten können massiv die FPS beeinflussen, es gibt teils eine Abhängigkeit zur Bandbreite, die nicht vernachlässigbar ist usw. usf.
Mal davon ab, wer definiert, was "optimal" ist? AMD hat das gemacht, was sie zu leisten im Stande waren, NV ebenso... Die Packdichte bei AMD ist seit einiger Zeit etwas höher, die Taktraten dafür etwas niedriger. Die Anzahl ggf. etwas höher, die Effizienz dafür wieder niedriger usw. Es ist und bleibt am Ende eine Designentscheidung. Irgendwo zu behaupten, das wäre eine Optimierung nach Rohleistung, halte ich für völlig verkehrt, da es das einfach nicht ist.

Dreh den Spieß doch mal völlig andersrum und stell dir die Frage was passiert wäre, wenn hätte AMD die Rohleistung seinerzeit mit der ersten Tahiti, Hawaii und Fiji so ausfahren können wie es heute der Fall ist? Meinst du ernsthaft, NV würde teils 30-40% Taktpotential liegen lassen? Die AMD Modelle laufen effektiv am Taktlimit, da ist das maximale schon drauf, was geht.
Was man AMD zumindest für Tahiti und Hawaii zugestehen muss, sie haben einen Zwitter für Profimarkt und Gamermarkt geschaffen, der in beiden Welten gut bis sehr gut dasteht. NV hat das, zumindest seit Maxwell mit zwei GPUs fabriziert... Und bauen entsprechend nur dort das drauf, was drauf muss/soll. Das gibt mehr Spielraum und bringt idR Vorteile bei der Energieeffizienz.

Fury X vs. 980 Ti: 8,6 vs. 6 TFLOPS, beide bei etwa gleicher Chipgröße.

Wie sich das in der aktuellen Generation auswirkt, wenn AMD die Struktur auch zugunsten des Takts verändert ist noch nicht absehbar, aber tendenziell gehe ich davon aus, dass AMD eher noch ein Stück mehr in Richtung der Rohleistung bleibt, und nicht alle Karten auf maximalen Takt setzt.

Das Beispiel passt nun nicht zwangsweise...
Im Schnitt dürfte eine default 980TI in etwa 1,2GHz halten -> das macht 6,6 vs. 8,6. Nur ist GM200 auf der 980TI nicht der Vollausbau. Die TitanX läuft mit ähnlichem Takt und kommt auf knapp 7,3 vs. 8,6 mit einem gewaltigen Vorteil im VRAM, der sich, nunmehr auch massiv ggü. der Fury ausgehen kann. Bspw. in G3ckos RE7 würde es extrem Punkte bringen...
Schaut man sich mal die Titel so an, dann ist idR ein Patt zu erkennen. Mal was mehr, mal was weniger genau. Es gibt aber auch andere, wo die Fury klar die Nase vorn hat, genau so wie es welche gibt, wo die 980TI die Nase stark vorn hat. Stellt sich nunmehr die Frage, warum? Was machen diese Titel anders?

Was AMD mit Vega verändert und vor allem, was das am Ende bringt, bleibt im Moment abzuwarten... Nach den Gerüchten zur Folge wird das Dingens ein ziemliches "Monster". Das heist, da wird ne Menge bei rum kommen... Wie sich das im Verbrauch ausgehen wird, werden wir dann sehen. 300W wird sich AMD wohl nicht geben und wenn dann nur unter Wasser. Bei ~250-275W gibts weniger Spielraum. Aus meiner Sicht definiert die Polaris 10 GPU in etwa vor, wohin die Reise gehen wird. Ausgehend von der 470er wird es doppelt so viele ALUs geben -> das macht tendentiell in etwa doppelten Verbrauch. Kommen also ~240W raus. Dazu die Takterhöhung + weitere Anpassungen und Effizienzssteigerungen, ggf. geänderte Fertigung usw. Von den Gerüchten mit teils 1,7GHz und mehr halte ich absolut gar nix. Das ist Wunschdenken... AMD will Geld verdienen und braucht dafür Kunden. Man wird sich nicht freiwillig eine bescheidene Energieeffizienz im Taktmaximum geben, wenn man es nicht muss. 4096 ALUs und die angedachten ~1,5GHz werden wohl klar für den Turbo gelten. Real wird das Ding wohl drunter liegen (wie bei AMD ebenso mittlerweile üblich -> Custom Modelle können das anders halten)
Damit erreicht man im Peak ca. 25% mehr als eine Custom OC 1080er, die ihre ~1,95GHz halten kann, was keine Ausnahme ist. Interessant wird das Ding im Vergleich zur TitanX mit GP102. Real kommen ohne händisches Zutun da ~1,55GHz bei rum. Von den Ketten gelassen (anständige Kühlung, angepasste Takt/Spannungskurve, Takterhöhung allgemein) gehen auch mal 1,8GHz oder gar noch mehr... Default, also mit ~1,55GHz liegen 11GFlop/sec an, bei 1,8GHz sind es schon 12,9. Im Vollausbau bei gleichem Takt wären es gar 14,6. (könnte dann eine Custom OC 1080TI oder 1180TI oder 2080 oder wie auch immer man das Ding nennt, sein)

Unter der Vorraussicht muss AMD erstmal liefern... Denn die genannten NV Modelle kannst du schon kaufen (außer eben den Vollausbau GP102). Bei AMD gibts im Moment gar nix... Um so weniger würde es mich verwundern, wenn AMD wieder eher in die Vollen geht und NV nochmal nachlegt.



EDIT:
Auf Seiten der Hardware bildet bei der Fury X das Front-End den größten Flaschenhals. Es ist ja nicht so, dass die Fury X ihre 8,6 TFLOPS generell nicht ausspielen kann. Lediglich bezogen auf Games ist es eine architekturbedingte Limitierung gegenüber nVidias Implemetierung. Sollte Vega hier tatsächlich die TFLOPS besser umsetzen können, dann wird das weniger etwas mit dem Takt zu tun haben, sondern viel eher mit der homogeneren Optimierung zwischen Front,- und Back-End.

Ich rechne im Moment mit einem gleichen Grundaufbau wie bei Fiji. Aber mit stark angepassten Einheiten... Am ein 8x breites FrontEnd will ich im Moment nicht glauben...
Auch sehe ich bei AMD lange nicht die reine Rohleistung als das Problem. Da ist seit je her (mindestens seit R600) genügend drauf. Die müssen das aber einfach mal ab Start weg auf die Straße bringen und nicht erst nach x-Jahren durch angepasste Games ausspielen.

Übrigens, falls jemand Interesse daran hat, lasse ich es mal hier stehen:

Quelle

Mal schauen was draus wird und ob sich AMD (sofern da überhaupt was brauchbares bei rum kommt) nicht selbst Stöcke in den Weg schmeißt. Ich mein, nen mobile Kaby, hoch effizienz, Quadcore + hoher Takt und dazu noch ne anständige GPU OnDIE? Das wäre für die Gamer ne recht interessante Kiste und auch für Otto Normalo ggf. noch mit Vorteilen gespickt (HSA und Co)
Nur ernste Frage, welches Interesse sollte AMD an so einem Modell haben? Entweder die beißen sich die Zähne an Intels Mainstream Modellen aus (CPU Power/Energieeffizienz) und versuchen noch so was von Kuchen abzubekommen oder die bringen was adequates oder toppen die Teile sogar. -> WARUM! sollte AMD mit Intel Hand in Hand gehen? Neben Mobile Gaming dürfte der Markt, der nach viel "IGP" Power schreit eher im Business liegen... Und AMD hat mit Raven Ridge alles in der Hand um das zu liefern... So recht passt die Meldung darüber irgendwie nicht ins Bild :fresse:
 
Zuletzt bearbeitet:
WARUM! sollte AMD mit Intel Hand in Hand gehen?
Gibt mehrere Szenarien:
1. "Nette Konkurrenten" leihen einem in der Not gerne Geld ;) - weiß nicht, ob das passiert ist, aber wäre üblich, dass man für eine "Gefälligkeit" in besseren Zeiten, seine Konkurrenz nicht vor die Hunde gehen lässt...
2. AMD braucht Marktanteile, und zwar auf dem Desktopsegment. Wenn Intel genug Kohle rüberwachsen lässt, und am Ende "AMD" auf der GPU steht, oder wenigstens die Entwickler dann auf die AMD- Architektur besser optimieren/Vulkan oder DX12 vermehrt einsetzen, ein Gewinn für AMD und natürlich wären solche Verträge auch erst mal befristet...
3. Intel weiß, dass sie völlig im Eimer sind, wenn AMD mit gleicher CPU- Leistung ihren eigenen IGP verbindet. Bei allem, was mit OpenCL zu tun hat, würde Intel alt aussehen(Mit dem AMD HSA/HCC- Konzept ohnehin)... nicht nur in Spielen. Intel wird die AMD- Technologie viel Geld wert sein, um Zeit zum Entwickeln besserer, eigener GPUs zu bekommen, ohne komplett unterzugehen, und eventuell dann auf dem Niveau herumzuhängen, das AMD jetzt jahrelang hatte und heftig Federn gelassen hat.

Also - eigentlich halte ich es auch nicht für logisch, dass AMD mit Intel so einen Vertrag schließt, aber Intel hat andererseits das Geld und sieht eventuell, wo die Reise hin geht, wenn der IGP viel schlechter als der der Konkurrenz ist.
 
Zuletzt bearbeitet:
Ich rechne im Moment mit einem gleichen Grundaufbau wie bei Fiji. Aber mit stark angepassten Einheiten... Am ein 8x breites FrontEnd will ich im Moment nicht glauben...
Auch sehe ich bei AMD lange nicht die reine Rohleistung als das Problem. Da ist seit je her (mindestens seit R600) genügend drauf. Die müssen das aber einfach mal ab Start weg auf die Straße bringen und nicht erst nach x-Jahren durch angepasste Games ausspielen.

Genau! Zwischen TFLOPS (Rohleistung) und den tatsächlich dabei erzielten FPS klafft die Lücke, zumindest im direkten Vergleich zu nVidias Architektur(en). Soweit ich das von der Vega Tech-Dokumentation noch korrekt im Kopf habe, wird man bei 4 Geo-Engines bleiben, nur werden diese dann pro Takt 11 Polygone statt wie bisher 4 berechnen können. Theoretisch wäre das also fast eine Verdreifachung beim Durchsatz. Naja, mal schauen...
 
Also - eigentlich halte ich es auch nicht für logisch, dass AMD mit Intel so einen Vertrag schließt, aber Intel hat andererseits das Geld und sieht eventuell, wo die Reise hin geht, wenn der IGP viel schlechter als der der Konkurrenz ist.

Das Problem ist doch aber dabei, die reine GPU Leistung interessiert in den gefilden doch nicht die Bohne...
Der einzig valide Grund, der mir da überhaupt einfällt, Intel hat keine Lust auf eigene/teure Entwicklung von GPUs, wo man sich den Spaß scheinbar auch für nen schmalen Taler einkaufen kann...
Rein vom logischen her, die Verhandlungsposition, die AMD ggü. Intel inne hat, KANN nur für winzige Preise hinauslaufen, sofern das überhaupt um Geldtransfers bei der Nummer geht.

Das Thema AMD will Technologie an den "Mann" bringen halte ich übrigens für übertrieben. Für das, wo die Dinger eingesetzt werden, dürfte es wenig bis gar keine Rolle spielen, ob da Intel, AMD oder NV drauf steht... Die Software, die solche Hardware darstellen muss, tickt nach ganz anderen Maßstäben. Das durfte AMD in der letzten Zeit selbst lernen, wo ein Markt eben nicht bereit ist, Produkte anzunehmen...

Also - eigentlich halte ich es auch nicht für logisch, dass AMD mit Intel so einen Vertrag schließt, aber Intel hat andererseits das Geld und sieht eventuell, wo die Reise hin geht, wenn der IGP viel schlechter als der der Konkurrenz ist.
Nunja, bis auf die Iris Pro Modelle -> und die dürften gemessen an der Absatzmenge der normalen Modelle eher nen Bruchteil ausmachen, liegt Intel weit weit hinten mit der reinen GPU Leistung... Das zieht also nicht unbedingt als Argument. :wink:

Was für mich völlig unklar ist, warum sollte ein potentieller Kunde, bei einem Intel vs. AMD Vergleich zum AMD Modell greifen, wenn er doch AMD Technik auch auf Intel bekommt? -> kann ich so irgendwie nicht nachvollziehen. Das würde genau dann nicht der Fall sein, wenn AMD konkurenzfähige (CPU!) APUs ggü. Intel herstellen kann und wird. Ob allerdings Raven Ridge das liefert? Abwarten...
Mir erschließt sich einfach nicht, für welches Einsatzszenario eine APU oder CPU inkl. GPU mit massiv viel GPU Power notwendig sein soll(te)... Abseits von Gaming und/oder Konsolen.

Genau! Zwischen TFLOPS (Rohleistung) und den tatsächlich dabei erzielten FPS klafft die Lücke, zumindest im direkten Vergleich zu nVidias Architektur(en). Soweit ich das von der Vega Tech-Dokumentation noch korrekt im Kopf habe, wird man bei 4 Geo-Engines bleiben, nur werden diese dann pro Takt 11 Polygone statt wie bisher 4 berechnen können. Theoretisch wäre das also fast eine Verdreifachung beim Durchsatz. Naja, mal schauen...

Das dürfte noch interessant werden unter diesem Gesichtspunkt.
Die 11 sind aber (spekuliert) weiterhin Theorie, was praktisch bei rum kommt und was bei rum kommen kann, werden wir dann ja sehen... Die von mir oben verlinkte Seite hat das mit aktueller Technik mal gegenüber gestellt. Kepler scheindet dort kapital schlecht ab im direkten Vergleich! Maxwell besser, Pascal klar und uneingeschränkt an der Spitze. Auch klafft eine "Lücke" zwischen den wirklich gezeichneten und den berechneten Objekten.
 
Was für mich völlig unklar ist, warum sollte ein potentieller Kunde, bei einem Intel vs. AMD Vergleich zum AMD Modell greifen, wenn er doch AMD Technik auch auf Intel bekommt?
Naja, wie gesagt, macht für mich auch nicht viel Sinn aber ich weiß nicht, ob Intel da mit AMD irgendwas ausgemacht hat, wo sie sich jetzt dran halten müssen, oder ob Intel pro GPU vielleicht auch einfach so viel zahlt, dass AMD dann die Chance nutzt, um ihre GPUs zu verbreiten, denn sie wissen ja sowieso, dass man nie 100% Marktabdeckung haben kann, weil es immer Fanboys und uninformierte gibt, selbst wenn man noch so ein gutes Produkt liefert(sonst wäre AMD jetzt auch vielleicht schon weg...)

Mir erschließt sich einfach nicht, für welches Einsatzszenario eine APU oder CPU inkl. GPU mit massiv viel GPU Power notwendig sein soll(te)... Abseits von Gaming und/oder Konsolen.
Es haut sich heutzutage doch so ziemlich jeder Hobbygrafiker(und das ist gefühlt fast jeder zweite, der hier eine PC- Zusammenstellung will) seine RX 460/RX 470(natürlich mit 4GiB) als CoProzessor mit in die Kiste... der IGP von Intel ist ja ganz nett, aber für einen echten OpenCL-Boost eher nicht brauchbar.

Massiv GPU- Power ist das ja eigentlich nicht... sondern halt einfach die Kandidaten mit dem besten FLOPS/€- Verhältnis eher im ganz unteren Preissegment, vor dem Abgrund, wo man die "Restposten" noch abstauben kann, die dann zu bald wieder legacy sind :).
Die Adobe- Sachen profitieren zwar nur zum Teil von OpenCL, sodass man auch ohne GPU klar käme, aber andere Programme profitieren sehr stark, beispielsweise Darktable. Da reicht es bereits, sich einfach nur auf dem Bild zu bewegen... Die zusätzliche GPU würde dann in solchen Fällen in Zukunft immer wegfallen, weil die 460er- Leistung ja schon in der CPU steckt. Da ist klar, dass die Intel- CPU nur bei denen sinnvoll ist, die wirklich nur surfen und Briefe schreiben, und dann müsste sie auch noch merklich billiger als eine vergleichbare AMD- APU sein, weil ja sicher niemand was gegen die GPU- Leistung einzuwenden hätte, auch wenn er sie nicht sofort braucht... Das könnte dann schon sehr problematisch werden...
 
Die von mir oben verlinkte Seite hat das mit aktueller Technik mal gegenüber gestellt. Kepler scheindet dort kapital schlecht ab im direkten Vergleich! Maxwell besser, Pascal klar und uneingeschränkt an der Spitze. Auch klafft eine "Lücke" zwischen den wirklich gezeichneten und den berechneten Objekten.

Nun, das ist auch ein lange bekanntes "Problem" der Architektur und u.a. auch ein Grund warum sich Fiji in vielen Games (wo eben viel Geometrie berechnet werden muss) kaum von Hawaii und Polaris absetzen kann. Es zeigt, das Fijis Front-End (in Bezug auf Games) einfach unterdimensioniert ist. Sogar Polaris 10 mit beinahe nur der hälfte an Shadern (zu Fiji) kann Geometrie schneller abarbeiten. Das Verhältniss zwischen Geometrie,- und Shaderleistung ist homogener abgestimmt und trägt damit auch dazu bei, das Polaris die TFLOPS (Rohleistung) besser umsetzen kann. Ich gehe davon aus, dass Vega hier noch mit tiefgreifenderen Optimierungen ausgestattet sein wird.
 
@oooverclocker: Hobbygrafiker haben meist Null Plan und deren hardware-Käufe bezüglich ihres Hobbys seh ich pers als dermaßen planlos (und blöd), dass ich diese Gruppe bei deiner Rechnung zum Wohle AMDs gar nicht erst anführen würde.
 
Was darf denn der ganze spaß kosten (oder weiß man das noch nicht?)
 
Fury X hatte einen MSRP von 650$, die kleine non X Fury ging da mit 550$ an den Start. Da kann man sich die Vega10 MSRP's aus der Nase popeln...Hint: billiger wirds wohl kaum werden dank HBM2.
 
Allerdings hat die nur 2 HBM2 Stacks statt vier, also wird es von der Herstellung auch jeden Fall etwas günstiger - auch weil im Die das SI dann nur halb so viel Platz einnimmt... Außerdem ist die GTX 1080 schon lange Zeit draußen und kostet 600€, und durch den feineren Herstellungsprozess wird einiges an Fläche gespart. Deshalb denke ich, dass Vega auch max. 600€ UVP haben wird.
 
Das klingt net schlecht
 
Außerdem ist die GTX 1080 schon lange Zeit draußen und kostet 600€, und durch den feineren Herstellungsprozess wird einiges an Fläche gespart.
VEGA wird aber komplexer als GP104 ;)
Tippe auf 650-700€ UVP für Vega, wenn die Karte gut ist wird AMD auch einen ordentlichen Preis dafür verlangen, warum sollten sie Ihre Produkte verschenken.

Gegenspieler sollte ja eher eine GTX1080Ti (oder wie sie auch immer heißen wird) und die kommt sicher mit einem UVP von 800-1000€. (abhängig davon wann sie jetzt kommt und ob es bis dorthin schon eine Konkurrenz gibt in der Leistungsklasse)
Wenn die Ti im März kommt und VEGA Ende Q2, dann wird NV natürlich mit einem höheren Preis starten (1000€ UVP) und macht dann bei VEGA-Release eine Preisreduktion
 
Du hast nen Denkfehler... Rohleistung ist nicht Einheitenanzahl. Rohleistung ist Einheitenanzahl x Takt x Effizienz der Einheiten. Es spielt absolut keine Rolle ob du 2048 ALUs mit 2GHz oder 4096 ALUs mit 1GHz fährst, sofern der Rest absolut vergleichbar ist kommt das gleiche hinten bei rum.
Für die Rohleistung spielt Einheitenanzahl und Takt eine Rolle, die Effizienz ist hingegen vollkommen gleichfültig. Die kommt erst ins Spiel, wenn es um die effektive Leistung (Rohleistung × Effizienz) geht.

Mal davon ab, wer definiert, was "optimal" ist? AMD hat das gemacht, was sie zu leisten im Stande waren, NV ebenso... Die Packdichte bei AMD ist seit einiger Zeit etwas höher, die Taktraten dafür etwas niedriger. Die Anzahl ggf. etwas höher, die Effizienz dafür wieder niedriger usw. Es ist und bleibt am Ende eine Designentscheidung. Irgendwo zu behaupten, das wäre eine Optimierung nach Rohleistung, halte ich für völlig verkehrt, da es das einfach nicht ist.
Das ist eine tolle Begründung: Es ist verkehrt weil es einfach verkehrt ist. AMD hat sich für ein Design mit sehr kompakten und trotzdem einigermaßen gut taktbaren Einheiten entschieden. Das spricht sehr dafür, dass Rohleistung das primäre Ziel war. Hätte man auf Kosten oder Energieeffizienz optimiert, wären ganz andere Designs herausgekommen. AMD hat den Schwenk hin zu stärker auf Energieeffienz optimierten Designs verschlafen. Intel (Sandy Bridge) und nVidia (Maxwell) waren da eindeutig früher dran. Mit Ryzen und Vega werden sie hoffentlich die Kurve kriegen.

Aus meiner Sicht definiert die Polaris 10 GPU in etwa vor, wohin die Reise gehen wird.
Das denke ich nicht. Polaris hat außer einigen wenigen Tweaks in erste Linie den Shrink als Vorteil gegenüber seinen Vorgängern. Im Vergleich dazu soll Vega eine neue Architektur werden. Das da etwas dran ist, merkt man schon an der Größe. Vergleicht man Polaris mit dem was man über Vega weiß, sind dessen Shadereinheiten deutlich größer geworden. Ein doppelter Polaris10-Chip hätte trotz 2x256Bit SI deutlich mehr Einheiten als Vega10 mit "nur" zwei HBM2-Stacks. Auch im Vergleich zu Fury fällt das auf. Bei gleicher Einheitenzahl und halbierter SI-Breite müsste ein einfacher Shrink von 28nm auf 14nm die Größe min. halbieren. Wenn Vega10 allerdings wirklich knapp unter 500mm² liegt, wären das keine 20%.
 
@oooverclocker: Hobbygrafiker haben meist Null Plan und deren hardware-Käufe bezüglich ihres Hobbys seh ich pers als dermaßen planlos (und blöd), dass ich diese Gruppe bei deiner Rechnung zum Wohle AMDs gar nicht erst anführen würde.
Da kommt er wieder aus sich raus, der Intel/nVidia-Fanatiker!
Yeah!!!! Gibs uns AMD-Käufern mal so richtig..... wollte vor AMD erst dumm schreiben, aber das hat sich mit dir ja erledigt.

- - - Updated - - -

Für die Rohleistung spielt Einheitenanzahl und Takt eine Rolle, die Effizienz ist hingegen vollkommen gleichfültig. Die kommt erst ins Spiel, wenn es um die effektive Leistung (Rohleistung × Effizienz) geht.


Das ist eine tolle Begründung: Es ist verkehrt weil es einfach verkehrt ist. AMD hat sich für ein Design mit sehr kompakten und trotzdem einigermaßen gut taktbaren Einheiten entschieden. Das spricht sehr dafür, dass Rohleistung das primäre Ziel war. Hätte man auf Kosten oder Energieeffizienz optimiert, wären ganz andere Designs herausgekommen. AMD hat den Schwenk hin zu stärker auf Energieeffienz optimierten Designs verschlafen. Intel (Sandy Bridge) und nVidia (Maxwell) waren da eindeutig früher dran. Mit Ryzen und Vega werden sie hoffentlich die Kurve kriegen.


Das denke ich nicht. Polaris hat außer einigen wenigen Tweaks in erste Linie den Shrink als Vorteil gegenüber seinen Vorgängern. Im Vergleich dazu soll Vega eine neue Architektur werden. Das da etwas dran ist, merkt man schon an der Größe. Vergleicht man Polaris mit dem was man über Vega weiß, sind dessen Shadereinheiten deutlich größer geworden. Ein doppelter Polaris10-Chip hätte trotz 2x256Bit SI deutlich mehr Einheiten als Vega10 mit "nur" zwei HBM2-Stacks. Auch im Vergleich zu Fury fällt das auf. Bei gleicher Einheitenzahl und halbierter SI-Breite müsste ein einfacher Shrink von 28nm auf 14nm die Größe min. halbieren. Wenn Vega10 allerdings wirklich knapp unter 500mm² liegt, wären das keine 20%.

Danke, das du unserem Godfather versucht hast, etwas beizubringen. Nur leider ist er lernresistent.
 
Für die Rohleistung spielt Einheitenanzahl und Takt eine Rolle, die Effizienz ist hingegen vollkommen gleichfültig. Die kommt erst ins Spiel, wenn es um die effektive Leistung (Rohleistung × Effizienz) geht.
Einheiteneffizienz ist nicht Stromverbrauch... Einheiteneffizienz meint pro Takt Performance. Vergleichbar mit dem, was AMD für Polaris aussagte (up to 15%) oder NV mit Maxwell (up to 35%)
Oder vergleichbar mit CPUs. Ein Sandy Bridge ist nicht gleich schnell pro Takt und Anzahl der Cores wie ein aktueller Kaby Lake Prozessor. Beide basieren im Grunde aber auf der P6 Microarchitektur. Oder AMDs Bulldozer, der als Bulldozer, Vishera, Steamroller, Excavator als Verbesserungen hat, welche ebenso nicht gleich schnell sind -> dabei spricht man von Einheiteneffizienz, nämlich wie schnell die Einheit bei gleicher Zeit ist.

Das ist eine tolle Begründung: Es ist verkehrt weil es einfach verkehrt ist. AMD hat sich für ein Design mit sehr kompakten und trotzdem einigermaßen gut taktbaren Einheiten entschieden. Das spricht sehr dafür, dass Rohleistung das primäre Ziel war.
An welche Stelle kommt dort die Rohleistung ins Spiel? Oder anders gefragt, woran sieht man eine Optimierung auf die Rohleistung?
Und natürlich ist die Aussage meinerseits so als Begründung tragbar. Denn ich benannte doch etwas, aus so nicht stattfindet. Und nicht, das findet so nicht statt, weil es nicht stattfindet. Eine Begründung, warum das so ist, habe ich doch gar nicht angestrebt, sondern rein den Umstand erwähnt, dass es so eben nicht ist.

Das denke ich nicht.

Warum reist du den Satz aus dem Zusammenhang? Es ging um den Verbrauch in dem Fall... Kannst du Gegenteilige Aussage wenigstens mit Indizien belegen, warum der Verbrauch einer 4096 ALU breiten GPU nicht in etwa dem doppelten einer Polaris GPU entsprechen sollte? -> die Rechnung bzw. das, worauf die Aussage basiert, hast du ja gekonnt einfach weggelassen beim Quote.

Danke, das du unserem Godfather versucht hast, etwas beizubringen. Nur leider ist er lernresistent.

Eins habe ich in den letzten Wochen und Monaten hier definitiv gelernt -> du hast KEINEN einzigen Post mit Themenbezug hier seit Wochen abgeliefert. :wink:
 
Zuletzt bearbeitet:
Kann es sein das gleich zu Begin von Vega, gescheite Custom Modelle rauskommen werden wie bei den RX Karten und auch bei Nvidia Karten?

Ich überlege ob ich jetzt eine RX 480 kaufe und bis Ende des Jahres damit zocke, da ich spekuliere, wenn Vega GPU's spätestens im Juni kommen sollen, dürfte gescheite Custom Modelle zum Ende des Jahres hin verfügbar sein. Wenn aber schon gute Kühler gleich zu begin auf dem Markt sein sollte, dann würde es sich eher nicht lohnen denke ich.
 
Lässt sich nicht beantworten... Warscheinlich kommen die Customs aber gleich zum Start. Ob dein gewünschtes Modell dabei ist, ist aber nicht sicher... In der Vergangenheit haben sich so manche Partner durchaus auch Zeit gelassen nach dem Release, so dass erst ein, zwei, drei Monate später das entsprechende Modell am Start war.

Jetzt Polaris zu kaufen für den Übergang ist aus meiner Sicht unsinnig... Such dir für nen sehr schmalen Taler ne gebrauchte 290er und überbrück die Zeit bis zum gewünschten Zeitpunkt. Säuft Strom ohne Ende, aber für ein paar Monate kann das vertretbar sein. So ne gebrauchte 290er dürfte man gut unter 200€ bekommen. Je nach Modell und Verhandlungsgeschick... Oder nutze einfach das weiter, was du jetzt nutzt...
 
@fdsonne
Ich nutze nix, dass ist es ja aber gut. Warten kann ich noch wenn du meinst es ist unsinnig und wahrscheinlich das gescheite Karten kommen. Ist vielleicht doch nicht so lange da das ich mit einem Kauf warte.
 
Es ist halt deine Entscheidung...

Wir wissen die Preise von Vega oder GP102 nicht
Wir wissen nicht vollends, was bei rum kommen wird
Wir wissen nicht, ob dein bevorzugtes Custom Modell gleich zum Start kommt

Es ist halt vieles offen... Je nach Budget kann es sein, das du nicht so viel ausgeben willst, wie die Dinger kosten werden. Dann wäre die 480er als solide Mittelklasse wohl nicht schlecht.
Für einen reinen Übergang mit dem definitiven Drang, so oder so was fixes zu kaufen, wäre es mir aber zu teuer. Deswegen vote4 290er nach Wahl in Gebraucht. Günstig + viel Leistung... Und bis in einem halben Jahr ca. dürfte sich der 4GB VRAM auch nicht extrem viel problematischer als heute erweisen. Außer dem Verbrauch und der Flexibilität in der Modellvielfalt spricht nicht so viel für die 480er als reiner Übergang zum großen Modell. Eine 470er wäre ggf. aber auch nicht unsinnig ;) Etwas langsamer, aber eben auch günstiger.
 
Diese Heimlichtuerei ist zum kotzen. Statt die Leute schon auf etwas fixieren zu lassen und Gewissheit zu haben, immer diese Quatsch. Ich bete jeden Tag das eine dritte Firm aus dem Boden emporsteigt, was bessere für wenig Geld rausbringt, viele Marktanteile erobert und rot und grün dumm aussehen läßt.
 
Einheiteneffizienz ist nicht Stromverbrauch... Einheiteneffizienz meint pro Takt Performance.
Wer hat irgendetwas von Stromverbrauch gesagt? Jedenfalls gehört die Effizienz nicht zur Rohleistung, sondern beschreibt wieviel von der Rohleistung am Ende in effektive Leistung (Anwendungs-/Spiele-Leistung) umgesetzt wird.

An welche Stelle kommt dort die Rohleistung ins Spiel? Oder anders gefragt, woran sieht man eine Optimierung auf die Rohleistung?
Anhand von bestimmten Design-Entscheidungen kann man abschätzen worauf die Entwickler besonders Wert gelegt haben. Wird auf Kosten optimiert, wählt man z.B. gerne kleine Einheiten und versucht diese hoch zu takten, denn je kleiner die Einheiten und je höher der Takt desto weniger Fläche braucht man um eine bestimmte Leistung zu erreichen.
Optimiert man auf Energieeffizienz versucht man die Auslastung zu maximieren und nimmt dafür auch größere Einheiten in Kauf (größere Buffer/Caches, aufwendigere Sprungvorhersage, ...). Tendenziell wählt man auch eher moderate Taktraten.
Eine Optimierung auf Rohleistung erkennt man an sehr vielen, aber relativ kleinen, Einheiten bei gleichzeitig möglichst hohen Taktraten. Dieses Schema erkennt man bis Kepler bzw. Fiji und teilweise Polaris. nVidia setzte dabei mehr auf Takt und AMD auf mehr Einheiten.

Und natürlich ist die Aussage meinerseits so als Begründung tragbar. Denn ich benannte doch etwas, aus so nicht stattfindet. Und nicht, das findet so nicht statt, weil es nicht stattfindet. Eine Begründung, warum das so ist, habe ich doch gar nicht angestrebt, sondern rein den Umstand erwähnt, dass es so eben nicht ist.
Muss man das verstehen? Deine Aussage ist weder eine allgemeingültige Erkenntnis noch eine reine Beobachtung und bedarf damit auf jeden Fall einer Begründung.

Warum reist du den Satz aus dem Zusammenhang? Es ging um den Verbrauch in dem Fall... Kannst du Gegenteilige Aussage wenigstens mit Indizien belegen, warum der Verbrauch einer 4096 ALU breiten GPU nicht in etwa dem doppelten einer Polaris GPU entsprechen sollte?
Ganz einfach, die Shadereinheiten wurden deutlich verändert. Hätte man einfach leicht veränderte Einheiten von Polaris genommen, würde man bei der Fläche und dem kleineren SI problemlos auf >5000, evtl sogar auf >6000 Einheiten kommen. Für eine deutlich geänderte Architektur spricht auch, dass AMD der ISA eine neue Versionsnummer gegeben hat (nicht der Fall bei Polaris), die Notwendigkeit von umfangreichen Treiberanpassungen und die Gerüchte über deutlich höhere Taktraten. Warum sollte man also die Energieeffizienz der alten Architektur so einfach auf die neue übertragen können, denn nur dann würde deine Rechnung Sinn ergeben. Dass eine neue Architektur viele verändern kann hat man bei Kepler zu Maxwell gesehen.


Gesendet von meinem LG-V500 mit Tapatalk
 
Einheiteneffizienz meint pro Takt Performance. Vergleichbar mit dem, was AMD für Polaris aussagte (up to 15%) oder NV mit Maxwell (up to 35%)
Oder vergleichbar mit CPUs. Ein Sandy Bridge ist nicht gleich schnell pro Takt und Anzahl der Cores wie ein aktueller Kaby Lake Prozessor. Beide basieren im Grunde aber auf der P6 Microarchitektur. Oder AMDs Bulldozer, der als Bulldozer, Vishera, Steamroller, Excavator als Verbesserungen hat, welche ebenso nicht gleich schnell sind -> dabei spricht man von Einheiteneffizienz, nämlich wie schnell die Einheit bei gleicher Zeit ist.
Ähm, Du hast da aber einen Denkfehler. Bei CPUs kann man auch FLOP/Zyklus berechnen, das heißt mit mehr IPC steigen die FLOPS logischerweise auch an. Mehr Befehle = mehr Operationen pro Sekunde. Du kannst aber eine 32 Bit FPU nicht 1,2 32 Bit- Zahlen gleichzeitig berechnen lassen - sie steckt aber im Produkt der FLOPS, somit sind FLOPS nicht unterschiedlich viel wert, sondern gleichwertig.
Der Rest ist dann durch Limitierungen im Datenfluss, wie effizient komplexere Instruktionen durch elementare umgesetzt sind, etc. begründbar. Da hatte die Fury X offensichtlich eine ziemliche Schwäche, aber das ist eine Ausnahme gewesen und man kann damit rechnen, dass es bei der Vega - Architektur bereinigt wurde. Und je näher die Spiele an den reinen elementaren Float- Operationen mit Vulkan/DX12 sind, umso ausschlaggebender sind auch die reinen FLOPS statt dem Overhead durch Abstraktionsschichten.
 
Zuletzt bearbeitet:
Ich bete jeden Tag das eine dritte Firm aus dem Boden emporsteigt, was bessere für wenig Geld rausbringt, viele Marktanteile erobert und rot und grün dumm aussehen läßt.

Jensen ist ein Urgestein im GPU Segment; die NV1 kam 1995 heraus. Außer ATI hat sich niemand weiter gehalten im Business. PowerVR lebt noch ein wenig weiter mit ihren Tile Based Rendering approach (siehe Nvidia Maxwell/Pascal Series und AMD Vega) und vielleicht kommt ja auch nochmal Glaze3D zurück samt Bitboys Marketing :d aber das ist eher unwahrscheinlich atm.

Was immer bleiben wird ist Team Green, was aus Team Red mal wird bleibt abzuwarten...
 
Zuletzt bearbeitet:
Wer hat irgendetwas von Stromverbrauch gesagt? Jedenfalls gehört die Effizienz nicht zur Rohleistung, sondern beschreibt wieviel von der Rohleistung am Ende in effektive Leistung (Anwendungs-/Spiele-Leistung) umgesetzt wird.
Ich ging davon aus, du dachtest ich würde Effizienz den Stromverbrauch/die Energieeffizienz meinen -> wenn dem nicht so war, um so besser ;)
Dennoch benötigt es einen Dritten Faktor in der Rechnung und wenn du dich noch so sehr dagegen stellst, es macht es nicht richtiger diesen wegzulassen. Auch bitte ich dich dir den genauen Themenbezug auf die Aussagen von oooverclocker (abermals) anzusehen. Ich habe nämlich keine Lust, Aussagen die in einem Bezug standen mit irgendwas zu erklären, was mit dem Ursprungsbezug nichts mehr am Hut haben.
Für dich zusammengefasst, es ging um die Behauptung: "Optimierung auf Rohleistung" und im späteren Verlauf auf die Frage, wie man das denn anstellen sollte "so viele wie möglich Einheiten auf so wenig wie möglich Fläche bei so hohem Takt wie möglich". So oder so ähnlich...

Es viel definitiv allerdings im Zusammenhang Rohleistung die Maßeinheit GFlop/sec. Schau bitte selbst oben nach, dass ich dir da keinen Mist erzähle!
-> wenn du dir nun die Formel zur Bildung der "Rohleistung" in GFlop/sec ansiehst wirst du sehr schnell merken, dass da exakt 3, in Worten DREI Faktoren vor dem Gleichheitszeichen stehen. Schimpf den dritten Faktor von mir aus wie du willst. Für mich ist das eine Art Einheiteneffizienzfaktor. Nämlich im Falle der aktuellen AMD Umsetzungen die 2, stellvertretend für ein "MADD". Es gab in der Vergangenheit, wie du vielleicht weist auch andere GPUs aus dem Hause AMD, wo dort eine 10 oder 8 stand. (VLIW5, VLIW4), bei NV stand dort sogar mal eine 3 (MADD + MUL) beim G80/G200.

Also erkläre mir bitte, wie du ohne einen dritten Faktor bei der Formel:
"ALU count" x "clockrate in GHz" = "performance in GFlop/sec kommen willst. Das geht schlicht und ergreifend nicht auf. FAKT!

Die Rechnung im konkreten Beispiel einer RX-480 lautet richtigerweise:
2304 x 1,266 x 2 = 5833,728 GFlop/sec

Der Spaß wird übrigens auch aus einem anderen Blickwinkel rund, nämlich unter dem, dass in den Faktor Rohleistung ebenso einfließen _kann_, wie schnell Einheit überhaupt ist. Wie du vielleicht ebenso weist, gibt es neben ALUs noch andere Einheiten auf der GPU. Und auch diese Besitzen eine Rohleistung. Das, was die ROPs durchschubsen oder das, was die TMUs durchschubsen kann von Generation zu Generation bspw. unterschiedlich sein. Auch hier benötigt es also einen Faktor, der das Ergebnis in die richtige Region lenkt.

Ein weiterer Umstand, der gegen eine ausschließlich "Takt x Anzahl" Rechnung spricht ist bspw. die Ermittlung der jeweiligen Rohleistung auf eine gewisse Prezision, denn es fehlt zusätzlich ein Faktor, der benennt, was überhaupt gleichzeitig geht.
Hawaii hat bekanntermaßen ein SP/DP Verhältnis von 2/1. GK110 hat 3/1.
Nur verwendet Hawaii 4x11x64=2818 ALUs bei SP und 4x11x64/2 = 2818/2 ALUs bei DP. Denn in DP rechnen jeweils zwei ALUs an einem FP64 Wert.
Beim GK110 ist das völlig anders. GK110 hat 5x3x192=2880 ALUs für FP32. UND dazu 5x1x192=960 ALUs für FP64!
Die Rechnung auf Rohleistung ist beim GK110 aber defakto NICHT! (2880+960) x 0,928 x 2 = 4661,76 GFlop/sec. Sondern man man trennt FP32 und FP64. Es arbeiten also NICHT alle Einheiten zur gleichen Zeit bzw. können dies wohl auch gar nicht. Schubst du FP64 durch, liegen die FP32er ALUs brach und andersrum. Eigentlich bedingt das sogar noch einem vierten Faktor -> nämlich dem, der angibt, was überhaupt alles gleichzeitig laufen _kann_... Auch der fehlt in deiner Rohleistungsformel!

Bitte tue mir den Gefallen und erkläre mir auf technisch sachlicher Ebene, wo und an welcher Stelle es richtig wäre, diesen dritten Faktor aus der Rechnung auszuklammern!? Und was das mit der Ursprungspauschalisierung, man würde auf Rohleistung optimieren zu tun hat!?

Anhand von bestimmten Design-Entscheidungen kann man abschätzen worauf die Entwickler besonders Wert gelegt haben. Wird auf Kosten optimiert, wählt man z.B. gerne kleine Einheiten und versucht diese hoch zu takten, denn je kleiner die Einheiten und je höher der Takt desto weniger Fläche braucht man um eine bestimmte Leistung zu erreichen.
Optimiert man auf Energieeffizienz versucht man die Auslastung zu maximieren und nimmt dafür auch größere Einheiten in Kauf (größere Buffer/Caches, aufwendigere Sprungvorhersage, ...). Tendenziell wählt man auch eher moderate Taktraten.
Eine Optimierung auf Rohleistung erkennt man an sehr vielen, aber relativ kleinen, Einheiten bei gleichzeitig möglichst hohen Taktraten. Dieses Schema erkennt man bis Kepler bzw. Fiji und teilweise Polaris. nVidia setzte dabei mehr auf Takt und AMD auf mehr Einheiten.
Das sind aber nur Indizien, keinesfalls Fakten... Die Behauptung, man (stellvertretend für AMD) optimiert auf Rohleistung und NV optimiert auf Takt ist und bleibt quatsch, vor allem da sich die Aussage insich widerspricht. Deswegen sagte ich eingans auch, dass Rohleistung eben nicht aus nur der Einheitenanzahl besteht. Denn wenn Rohleistung (laut deiner eigenen Aussage) aus Takt x Anzahl besteht, wie kann dann eine Ausrichtung auf Takt x Anzahl eine Rohleistungsoptimierung sein und eine Ausrichtung auf Takt eben nicht? Die Faktoren in der Formel sind gleichgewichtig. Eine Ausrichtung auf Takt _oder_ auf Anzahl _oder_ auf beides -> wäre IMMER eine Rohleistungsoptimierung. Denn bei jeder GPU wird man möglichst das optimale Verhältnis aus Takt und Anzahl anstreben. Unter gewissen Bedingungen, wie der Gesamtfläche, dem Energieverbrauch, der Kosten und vor allem im technisch möglichen Rahmen -> die GPU besteht halt nicht ausschließlich aus ALUs, mal eben da welche dran klatschen ist also nicht. Im Umkehrschluss bedeutet das aber auch, eine Optimierung durch Erhöhung des ALU Counts zieht gleichbedeutend eine Erhöung von Teilen anderer Einheiten nachsich. Damit skaliert man also nicht die Rohleistung der ALUs, sondern man skaliert die komplette GPU. So kann eben ein GP104 x Faktor 1,5 ein GP102 sein. Indem man stupide anstatt 4x vollwertigen GPCs einfach deren 6x verbaut. Man baut aber schlicht nicht 4x GPCs und erhöht dort einfach mal den ALU Count um 1,5 auf 3840 ohne den Rest zu skalieren. Weder bei NV noch bei AMD!
Wobei sich AMD dort in der Vergangenheit recht schwer getan hat, das korrekte Verhältnis aus CUs und Frontend zu finden. Im Moment sieht es so aus (bis einschließlich Polaris) dass 8-10 CUs pro Stück FrontEnd am besten skalieren und Modelle mit bis 16 CUs einfach nicht die Power auf die Straße bringen...

Schau dir dazu vllt einfach den Aufbau gängier Modelle an. AMD verwendet eine Skalierung (jeweils der Vollausbauten) von 8-16 CUs pro Teil am FrontEnd. Bei NV ist das starrer und weniger Flexibel. NV nutzt eine Anzahl von GPCs, je nach Generation (Kepler, Maxwell, Pascal) sind pro GPC eine Anzahl an Shaderblocken mit einem fixen Einheitencount vorhanden. Auch dort siehst du ein Verhältnis, was als Designentscheidung vorgegeben ist und eine Erhöhung ohne weiteres nicht möglich macht!

Muss man das verstehen? Deine Aussage ist weder eine allgemeingültige Erkenntnis noch eine reine Beobachtung und bedarf damit auf jeden Fall einer Begründung.
Die Aussage, dass eine Optimierung auf Rohleistung unwar ist bedarf doch keiner Begründung... Das ist eben der Vorteil in dieser Gesprächsposition, es ist äußerst einfach Aussagen zu widerlegen während die Belegung der Aussage in anderer Richtung schwer bis unmöglich ist. Ich sehe weiterhin keine Belege für eine Rohleistungsoptimierung, habe dir aber eine ganze Menge Aussagen gebraucht, warum das eben nicht der Fall ist.

Ganz einfach, die Shadereinheiten wurden deutlich verändert. Hätte man einfach leicht veränderte Einheiten von Polaris genommen, würde man bei der Fläche und dem kleineren SI problemlos auf >5000, evtl sogar auf >6000 Einheiten kommen. Für eine deutlich geänderte Architektur spricht auch, dass AMD der ISA eine neue Versionsnummer gegeben hat (nicht der Fall bei Polaris), die Notwendigkeit von umfangreichen Treiberanpassungen und die Gerüchte über deutlich höhere Taktraten. Warum sollte man also die Energieeffizienz der alten Architektur so einfach auf die neue übertragen können, denn nur dann würde deine Rechnung Sinn ergeben. Dass eine neue Architektur viele verändern kann hat man bei Kepler zu Maxwell gesehen.

Nunja, nenn es Intuition ;) Ich sprach ja auch nicht davon, dass es so ist. Sondern ich sprach, dass ich davon ausgehe, Polaris gibt die Reise vor... Schimpf es von mir aus auch Spekulation. Kann richtig sein oder kann auch falsch sein... Wir werden es sehen. Dennoch deckt sich meine Annahme dahingehend mit den Spekulationen, dass der große Vega im Moment mit bis 300W gehandelt wird. Die Rechnung Polaris x 2 im Verbrauch erzeugt das selbe Ergebnis, wie ich oben vorrechnete.
Mit Kepler/Maxwell hat das einfach wenig zu tun... Kepler krankt an anderer Baustelle bzw. Maxwell macht es bedeutend besser. :wink:

Ähm, Du hast da aber einen Denkfehler. Bei CPUs kann man auch FLOP/Zyklus berechnen, das heißt mit mehr IPC steigen die FLOPS logischerweise auch an. Mehr Befehle = mehr Operationen pro Sekunde. Du kannst aber eine 32 Bit FPU nicht 1,2 32 Bit- Zahlen gleichzeitig berechnen lassen - sie steckt aber im Produkt der FLOPS, somit sind FLOPS nicht unterschiedlich viel wert, sondern gleichwertig.

Du denkst wieder zu kurz... Schau dir bspw. die Prozessoren an, Sandy hat 3x ALUs, Haswell und jünger haben 4x ALUs. Die Rechnung auf die Rohleistung steigt... In dem Fall ist der Faktor zur Benennung (siehe oben die Erklärung, WARUM dieser Faktor da drin ist) der Einheitenleistung also gleich. Anders schaut das auf der FPU aus. 256Bit vs. 128Bit -> wie ermittelst du den Speed als reinen Rohwert, wenn es derartige Unterschied gibt? Auch siehe dazu oben die Aussage bzgl. Kepler FP32/FP64 vs. Hawaii FP32/FP64. :wink:
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh