AMD stellt eigenen Entwicklungspfad für Primitive Shader ein (2. Update)

Vermutlich einfach GPU Culling aktiveren...wie ID-Tech und Dice schon mitteilen sind ihre Engine deutlich ALU lastiger und profitieren von FP16 auch immens. Dice meinte bestimmte Berechnungen könnten 30% schneller ausgeführt werden. Schon die PS4 beherrscht 2 Operationen pro FP16, es wäre ja blöd dass auf dGPUs nicht fortzuführen - wenn es den Engine-Overhead minimiert.

Nvidia kann bisher kein schnelles FP16 das für Games relevant wäre, daher werden sie es auch gezielt boykottieren. Selbst Volta kann es nicht...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist doch wie immer. AMD liefert aber keiner nutzt es. Erinnert mich irgendwie damals an DX10.1. Nur AMD konnte dies unterstützen.
Direct3D 10.1 im Test: Fünf Spiele mit Microsofts API im Vergleich (Seite 9) - ComputerBase

Interessant ist die Antwort auf die Frage, warum das so ist. Mögliche Antworten sind, dass die Spielehersteller von NVIDIA (finanziell?) unterstützt werden. Das macht AMD auch nicht anders, jedoch haben die nicht die finanziellen Möglichkeiten. Und somit entsteht ein Teufelskreis, weil ein marktbeherrschender Hersteller seine Marktposition gegenüber des Konkurenten weiter ausbauen kann. Am Ende ist das schlecht für uns Kunden.
DirectX10.1, DirectX 12, Vulcan, .. das sind alles Beispiele. Zumal DirectX12 offen für NVIDIA ist - stattdessen entwickeln viele Hersteller weiterhin auf NVIDIA-eigenen Produkten. Und das machen die bestimmt nicht freiwillig, da es zusätzliche Arbeit bedeutet.

Ich kann also Kunde nur hoffen, dass AMD durch ihren Anteil am Konsolenmarkt dazu beitragen, dass wieder mehr hersteller-übergreifend entwickelt wird.

BTT:

Nvidia kann bisher kein schnelles FP16 das für Games relevant wäre, daher werden sie es auch gezielt boykottieren. Selbst Volta kann es nicht...

Ist FP16 eine AMD eigene Sache, die NVIDIA nicht unterstützen darf? Praktisch sowas wie CUDA oder Hairworks? FP16 und FP32 sind doch allgemein offene Dinge, die jede GPU unterstützt...?

Oder geht es hier nur um die Tatsache, dass AMD mit Rapid Packet Math zwei FP16 Operationen innerhalb einer FP32 Operation ausführen kann? Das könnte NVIDIA ja genauso implementieren, oder nicht?
 
Zuletzt bearbeitet:
DirectX10.1, DirectX 12, Vulcan, .. das sind alles Beispiele. Zumal DirectX12 offen für NVIDIA ist - stattdessen entwickeln viele Hersteller weiterhin auf NVIDIA-eigenen Produkten. Und das machen die bestimmt nicht freiwillig, da es zusätzliche Arbeit bedeutet.

Ich kann also Kunde nur hoffen, dass AMD durch ihren Anteil am Konsolenmarkt dazu beitragen, dass wieder mehr hersteller-übergreifend entwickelt wird.
nVidia hat doch viele Jahre lang directX zugunsten von Cuda/Gameworks & Co völlig boykottiert, dass war auch bei directX 10 so. Man bräuchte die Feature nicht um schnell zu sein, die Neuerungen waren Nvidia insgesamt zu seicht, Zugewinne bei mehr Aufwand zu gering.

Heute ist es so, dass viele Hardwarefeature auch optional aus dem directX Baukasten zielgerichtet genutzt werden können (Runtime Versionen mit ihren Featurelevel bis 12.1) und die Hardware directX Level optional ausführen können (jede directX 11 GPU war ja directX 12 ready). Erst ab directX 12.1 und unter bestimmten Leveln gibt es einen Umbruch beim Renderingmodell, dann wenn die Feature nicht mehr optional genutzt werden können. Ich vermute Microsoft hat es absichtlich so gestaltet, um alle Interessen der Hersteller und Entwickler zu berücksichtigen, niemanden direkter zu bevorteilen und dass der Wechsel nicht zu hart ausfällt. Studios und Publisher werden immer erst eine Nutzen-Kosten-Relation aufstellen, bevor sie eine Weiterentwicklung der Engine in höhere Level finanzieren, dass weiß auch Nvidia und mit ihrem Marktanteil können sie diesen Entwicklungsprozess auch beeinflussen. Große Teile des R&D Bugets bestehen nicht nur aus der Unterstützung bei der reinen Spiele-Entwicklung, sondern auch aus dem gezieltem Gameworkspushing und damit ihre eignen proprietären Ansätze in der Entwicklung einzusetzen. Das ist nicht verboten. Letztlich haben sie aus ihren Fehlern gelernt und sind bestrebt auch höhere Level schneller durch Ihre Entwicklungen unterstützen zu lassen und sie auch in Gameworks zu integrieren. Natürlich schauen sie auch, was sich ihre Partnerstudios oder der Entwickler wünscht (mehr VRAM, welche und ob fortgeschrittenen Technologiesupport bei Engines (UE4), Vorgaben beim Shadermodell und vieles mehr). Manchmal ist es halt wie Lotto.

Pascal war ein guter Ansatz siehe directX 12.1 Unterstützung und profitiert von der Maxwelleffizienz. AMD zog mit Vega nach, legt aber typisch auf openCL (und open source) mehr Wert, kann dabei aber den Effizienzvorteil in einer Gen nicht wett machen. Gezieltes Compute braucht bei AMD halt Saft, wobei sie keine reine Gamer GPU in ihrer Entwicklungspipeline vorweisen können - die ab Highend was reissen könnte (also den 1080ti Killer den sich alle wünschten oder hypten). Zudem brauchen sie von allem mehr, war ja schon immer so. ATI war zumeist fortgeschrittener was die Unterstützung neuerer APIs anging, da nehmen sich eigentlich alle nichts, denn das ist ein stetiger Schlagabtausch. Sehr modern bei Erscheinen war Intels neuste iGPU, mit komplettem API directX 12.1 Support. Für Highend-/Highcore-Gamer sicher nicht so relevant. Vielleicht kann man sogar von Intel mehr erwarten, sollten die wirklich in dGPU Gamermarkt einsteigen wollen, Gewinne macht man dort jedenfalls genug und von CPUs allein kann man wohl nicht leben (man braucht ja Steigerungen), wenn AMD wieder mehr Anteile mit Zen/Zen+ zurückgewinnt sowieso.


Oder geht es hier nur um die Tatsache, dass AMD mit Rapid Packet Math zwei FP16 Operationen innerhalb einer FP32 Operation ausführen kann? Das könnte NVIDIA ja genauso implementieren, oder nicht?

Rapid Packed Math bewirkt FP16-/ und INT16 Berechnungen doppelt so schnell ausführen zu können, wie die übliche FP32 Berechnung - also resultiert dadurch ein Zeitgewinn bei zwei Operaten. Das muss man glaube ich, in Hardware unterstützen und wie Nvidia das löst kann ich nicht sagen.
 
Zuletzt bearbeitet:
Danke für die Erklärung :bigok:

- - - Updated - - -

Rapid Packed Math bewirkt FP16-/ und INT16 Berechnungen doppelt so schnell ausführen zu können, wie die übliche FP32 Berechnung - also resultiert dadurch ein Zeitgewinn bei zwei Operaten. Das muss man glaube ich, in Hardware unterstützen und wie Nvidia das löst kann ich nicht sagen.

Eine FP16 wird nicht doppelt so schnell ausgeführt, sondern es können zwei FP16 Operationen innerhalb einer FP32 gleichzeitig ausgeführt werden. Die Dauer der einzelnen FP16 Operation ist damit genauso schnell. Das kann am Ende (im Idealfal) zu einer doppelten Performance führen, kommt aber auf den Anwendungsfall an.
 
Danke für die Erklärung :bigok:

- - - Updated - - -



Eine FP16 wird nicht doppelt so schnell ausgeführt, sondern es können zwei FP16 Operationen innerhalb einer FP32 gleichzeitig ausgeführt werden. Die Dauer der einzelnen FP16 Operation ist damit genauso schnell. Das kann am Ende (im Idealfal) zu einer doppelten Performance führen, kommt aber auf den Anwendungsfall an.

Was habe ich denn geschrieben? Das führt in keinen Fall zu einer doppelten Performance. FP16 kann doppelt so schnell ausgeführt werden wie FP32. Alternativ, ist mehr Qualität bei gleicher Leistung denkbar. Für bestimmte Darstellungen sind FP16 einfach ausreichend. Vega kann pro Takt doppelt so viele FP16 ausführen wie FP32? Und natürlich ergibt dies einen zeitlichen Vorteil. Was soll daran falsch sein? Man kann ja viel mehr Operationen pro Takt ausführen. Damit verkürzt sich auch die Berechnungszeit insgesamt. Eine reine fps Steigerung resultiert womöglich in 15-20% je nach Szene. Die schnelle Abarbeitung der Operationen kann aber auch zu höherer Effizienz oder höherem GPU Takt führen. Die GPU berechnet den Inhalt insgesamt schneller ab (braucht also weniger Takte dafür). Shaderberechnungen auf einer GPU werden pro Takt ausgeführt, bei doppelt so breitem Register steigt auch der Durchsatz und das verkürzt auch die Berechnungszeit für die darzustellende Sequenz. Als Vergleichsmodell diente AMD dabei Fiji.
 
Ich stimme dir insgesamt zu und es ist wahrscheinlich Haarspalterei.
Vorausgesetzt eine FP16 Operation dauert genauso lange wie eine FP32 Operation (zum Beispiel jeweils einen Takt), dann wird durch Rapid Packed Math nicht die Geschwindigkeit einer FP16 Operation verändert, sondern nur der Durchsatz mehrerer FP16 Operationen, da man diese eben in eine FP32 Operation "packen" kann und nicht mehr auf FP16 verteilen muss.
Da man überlicherweise mehr als eine FP16 Operation zur Berechnung benötigt, resultiert dieser höhere Durchsatz auch in mehr Performance.

Sowie ich das aber verstehe, dient es nicht primär zur Steigerung der Performance (= mehr FPS) sondern zur Steigerung der Effizienz. Statt unnötigerweise mit der vollen FP32 Präzision zu rechnen, reichen oftmals INT16 / FP16 aus.

Problem:
Kaum eine x86 Applikation (z.B. Spiele) nutzt FP16, sondern direkt FP32. Das bedeutet, dass die Applikation FP16 explizit unterstützen muss und das dann über eine API auch ansprechen, damit zwei FP16 Operationen innerhalb einer FP32 Operation verarbeitet werden. (Das Ergebniss muss ja anders abgefangen werden).

Somit geht AMD (mal wieder) das Risiko ein, eine eigentlich tolle und zugleich simple Technik anzubieten, die aber explizit von der Applikation unterstützt werden muss.
 
Far Cry? Ist ja wohl Nvidia Gameworksland wo AMD da wildert? Die profitieren im übrigen auch von explizieten Technologien, siehe Cuda.
Ich wollte andere (Mehrzahl!) Titel. Und bitte auch welche, die bereits veröffentlicht sind, sodass man nachvollziehen kann, dass es etwas bringt. ;)

Die Shader sind da, sie können auch genutzt werden, wenn man auf GPUopen setzen will. Nvidia macht es nicht anders mit Gameworks & Co. Ziemlich erfolgreich, warum soll das bei AMD nicht funktionieren mit offenen Standards? Fiji wird mir noch viele Jahre gute Dienste leisten wie auch Vega, Fiji wird zur Zeit in einem mITX Projekt verwurstet. Die Leistung reicht doch vollkommen für 1080p oder 1440p bis 60Hz. Wenn man heutige Preise von Graka's sieht, muss da langsam ein Umdenken stattfinden, Hardware für die Bildwiedergabe dann auch mal länger zu verwenden als nur ein Jahr. Feature oder Techniken dann über gewisse Zeiträume freizuschalten, hat sich bei den Konsolen jedenfalls bewährt und wird von den Entwicklern auch angenommen. Das es zwischen AMD und Nvidia Konkurrenzen gibt ist doch i.O., dass belebt zumindest diesen Markt. Nicht jeder Entwickler ist käuflich, soviel dazu.
Welche offenen Standards von AMD meinst du? Meinst du die pseudoffenen, die total auf AMD optimiert sind und daher in der Bedeutungslosigkeit verschwinden? Für AMD ist das Geld- und Zeitverschwendung.

Ist doch wie immer. AMD liefert aber keiner nutzt es. Erinnert mich irgendwie damals an DX10.1. Nur AMD konnte dies unterstützen.
Direct3D 10.1 im Test: Fünf Spiele mit Microsofts API im Vergleich (Seite 9) - ComputerBase
Was hat einem DX10.1 genutzt wenn selbst 10.0 kaum jemand genutzt hat, da Vista exklusiv? Da sieht man halt das Problem von AMD: man setzt gerne auf das was keine Zukunft hat. Die Anzahl an Spielen mit 10.1 war auch extrem gering:
List of games with DirectX 10 support - Wikipedia

Die Anzahl der Spiele mit DX10 die vor DX11 rausgekommen sind ist ebenfalls gering.

nVidia hat doch viele Jahre lang directX zugunsten von Cuda/Gameworks & Co völlig boykottiert, dass war auch bei directX 10 so.
DX10 war von Anfang an wegen der Vista Exklusivität unbeliebt. Da hätte Nvidia machen können was sie wollen.
 
Zuletzt bearbeitet:
Kaum eine x86 Applikation (z.B. Spiele) nutzt FP16, sondern direkt FP32.
Es ist Haarspalterei...und es wird bereits unterstützt, wie sie mitteilten. In Dice's BF1 war schon eine Form von FP16 implementiert, nur konnte es keine dGPU ausführen, wahrscheinlich dann für die Konsolen.

Bsp.: ich benötige 50Shader für eine Haardarstellung und 50MHz GPU Takt 1ms lang (einfach mal so gewählt - nur zur Darstellung als Rechenbsp.), was denkst wie schnell ist FP16 oder FP32 und was kommt dabei raus?

Du meinst es so:
1ms=50Shader und 50Mhz? bei 50Primitiven (a 20Pixel=1000Pixel)
1ms=50Shader und 25Mhz? bei 50Primitiven (a 20Pixel=1000Pixel)

Ich eher so:
1ms=50Shader und 50Mhz? bei 100Primitiven (a 20Pixel=2000Pixel)

Ich berechne die gleiche Anzahl bei weniger Takt, oder mehr bei gleichem.

Wenn eine Sequenz 1000Primitive braucht (a 20Pixel=20000Pixel)...was dann? Modell 3 braucht dann 10ms oder? Alle anderen 20ms. Modell 3 kann auch 2000Primitive bei 20ms/50Shader/50Hz und 40.000Pixel berechnen (wobei das alles noch in den Framebuffer passen muss).

Man kann ja auch freiwerdende GPU-Ressourcen für was anderes nutzen (sie parallel ausführen), genau das ist ja expliziet möglich und auch die Zukunft würde ich sagen. Was würde wohl schneller sein oder besser aussehen?

*das wird mir wohl jeder Entwickler hier, um die Ohren hauen...Asche auf mein Haupt.;)
 
Zuletzt bearbeitet:
Ich stimme dir zu mit den Rechenbeispielen. Meine Haarspalterei bezog sich nur auf deine Aussage zur Ausführung einer FP16 Operation.

Zum Thema Unterstützung von FP16:
Einfache Genauigkeit (FP32) ist oftmals benötigt in Berechnungen, somit kann man es nicht komplett mit FP16 ersetzen.
Grundsätzlich macht es Sinn während der Entwicklung sich über die tatsächlich benötigte Genauigkeit Gedanken zu machen, um Speicher einzusparen.
Erfahrungsgemäß machen sich Entwickler bei vielen Applikationen immer weniger Gedanken um Speicherverbrauch sondern mehr um Entwicklungszeit (=Entwicklungskosten). Somit wird einfach "alles" in FP32 gemacht, obwohl es gar nicht notwendig ist. Dieser Trend wird zwar zum Teil von Programmiersprachen höheren Levels aufgefangen (C#, JAVA), indem die Compiler und die RuntimeEngine optimiert - aber das geht natürlich nicht auf diesem Level.
 
Einfache Genauigkeit (FP32) ist oftmals benötigt in Berechnungen, somit kann man es nicht komplett mit FP16 ersetzen. Grundsätzlich macht es Sinn während der Entwicklung sich über die tatsächlich benötigte Genauigkeit Gedanken zu machen, um Speicher einzusparen.
Ist ja auch nur ein Rechenbeispiel um es zu verdeutlichen, siehe es wie bei PUBG, erst als AMD Engineer's nach Bluehole schickte wurde PUBG deutlicher beschleunigt, nicht jeder Entwickler kann sich expilziet mit den Hardwareeigenschaften auseinandersetzen (Whitepaper und SDK hin oder her), es gibt ja auch Vorgaben wann etwas zu stehen hat und die IHVs werden darüber auch informiert, wenn man bei AMD wegen anderen Prioritäten mal die E-Mails nicht checkt, naja...

Was das Thema Treiber oder nicht Treiber angeht, wie soll denn das funktionieren? Ab bestimmten Leveln wollten die IHVs die Kontrolle an die Entwickler abgeben (das war ja so erwünscht, die Treiber sollen immer weniger bestimmten oder beeinflussen, ob wer schnell oder langsam programmieren kann und wie das Ergebnis letztendlich aussieht), dass beinhaltete directX12 und andere APIs auf jeden Fall, es wäre ja blödsinnig den Support für die PS dann selbst vorzunehmen und ihn dann per Treiber womöglich auszubremsen, das wäre ja Gecheate. Das AMD diesen Treiberpfad aufgibt ist nur richtig. Für mich hat Rys einfach gespamt...wahrscheinlich war er genervt, weil man ihn zu textete und alle in der Öffentlichkeit behaupteten Vega wäre teildefekt und AMD hätte bei der Vorstellung gelogen. Ich hätte darauf nicht mal geantwortet und gut, weils sicher NDA war.

Jetzt wird auf Entwicklerseite dann wieder gejammert, dass macht alles zu viel Arbeit - die wissen auch nicht was sie wollen.
 
Zuletzt bearbeitet:
Nagut, nach dem Update2 hier in der News, bleibt noch Rapid Packed Math, mal sehen, ob sich das bei Farcry5 durchsetzen wird .... PS erst mit Navi wäre natürlich schade. :shake:
 
Nagut, nach dem Update2 hier in der News, bleibt noch Rapid Packed Math, mal sehen, ob sich das bei Farcry5 durchsetzen wird .... PS erst mit Navi wäre natürlich schade. :shake:

Das Ding ist einfach ein Shader der Geometrieberechnungen beschleunigt den kannst du gerne in wenig geometrielastigen Spielen drauf pappen, aber was soll das bringen? Ja, er ist Teil des NGG Path, der kann aber neben der PS Variante auch dem "Normalmodus" (Aufteilung) unterstützen. Der größte Teil der Beschleunigung liegt doch an den geänderten Cachegrößen und der Aufteilung 1, 2, 3 + gemeinsam...

Für FC5 ist der PS bedeutungslos...

Auch HBBC ist Entwicklerarbeit, wenn man genug VRAM zur Verfügung hat oder damit sinnvoll umgeht, braucht man HBCC nicht und dann beschleunigt er auch nichts. Die GPU kann halt in Hardware verwalten, was in den VRAM geladen wird und was nicht, da Entwickler gerne alles in den schnellen Cache der Grafikkarte müllen. Nicht genutzte oder nicht gebrauchte Daten muss man dort aber gar nicht ablegen.
 
Somit stimmt es also, dass sie bisher nicht "aktiv" waren - es konnte sie ja keiner ansteuern, wenn es dafür keine API gab.
Nur weil sie bisher nicht explizit angesteuert werden können, heisst das ja nicht, dass sie inaktiv sind. ;) Wie der AMD Typ sagte, "The driver takes care of it for you".
 
NVIDIA macht seit Jahren genau das gleiche mit ihren Gameworks Sachen. Da wird in der Entwicklung speziell für NVIDIA Grafikkarten entwickelt und optimiert. Das Ergebnis ist dann, dass bei diversen Spielen NVIDIA schneller ist. Wie das aussieht, wenn man das Spiel andersrum spielt - also wenn ein Spiel für AMD optimiert ist, sieht man wunderbar bei Wolfenstein, wo die VEGA 64 so schnell wie eine 1080 Ti ist und selbst die Vega 56 nur knapp dahinter.

Der Vergleich ist aus meiner Sicht unpassend. Gameworks wie auch hier irgendwelche Auf-Hardware-Optimierungen sind Themen, die der Entwickler wollen muss. Kein Hardwarehersteller zwingt dazu.
Der Unterschied ist aber, NV braucht kein Gameworks um "schnell" zu sein. Die aktuellen Titel im Gameworksprogramm nutzen auch nur noch sehr sehr wenige Teile, häufig auch nur optionales Zeug. Das war mal anders. Ein Metro 2033 mit GPU PhysX und vollen Details nur mit NV GPU bspw. -> gibts heute nicht mehr...

Mal davon ab, wer freut sich bitte über eine Vega64 auf 1080TI Niveau? Rein von den Rohdaten her ist das eher das, was man von dem Teil erwarten sollte. -> und auch aus diesem Punkt passt der NV Vergleich nicht. Denn all diese genannten Features, die man bei Vega wünscht, werden im Gedanken mit einem Speedupgrade vermischt eben um an die TI oder über der TI rauszukommen.
Wäre die Basis aber richtig, wäre Vega auf TI Niveau und die Features hätten, wie bspw. Gameworks Effekte, für Optische Vorteile gesorgt, WENN die Entwickler es gewollt hätten. Aber da sind wir mit Vega lange noch nicht.

Erstaunlich ist, dass bisher relativ wenig von anderen Redaktionen darüber berichtet wird, was auf eine noch recht dünne Faktenlage schließen lässt, was ja auch kein Wunder ist, da sich AMD dazu offiziell noch nicht geäußert hat, warten wir mal ab....

Sei doch froh - nach dem ganzen Quatsch zur Securitythematik bei CPUs und dem, was die Medien draus gemacht haben, sollte man das waldbrandartige Verbreiten von "News" in den Medien mit Vorsicht genießen. Was bringt es dir, wenn alle voneinander abschreiben und dann alle den selben Müll posten?? Nichts...

Interessant ist die Antwort auf die Frage, warum das so ist. Mögliche Antworten sind, dass die Spielehersteller von NVIDIA (finanziell?) unterstützt werden. Das macht AMD auch nicht anders, jedoch haben die nicht die finanziellen Möglichkeiten. Und somit entsteht ein Teufelskreis, weil ein marktbeherrschender Hersteller seine Marktposition gegenüber des Konkurenten weiter ausbauen kann. Am Ende ist das schlecht für uns Kunden.
DirectX10.1, DirectX 12, Vulcan, .. das sind alles Beispiele. Zumal DirectX12 offen für NVIDIA ist - stattdessen entwickeln viele Hersteller weiterhin auf NVIDIA-eigenen Produkten. Und das machen die bestimmt nicht freiwillig, da es zusätzliche Arbeit bedeutet.

Ich kann also Kunde nur hoffen, dass AMD durch ihren Anteil am Konsolenmarkt dazu beitragen, dass wieder mehr hersteller-übergreifend entwickelt wird.

Naja, AMD hat nicht erst seit heute Probleme, was dGPUs für Gamer angeht. Rückblickend lassen sich ein paar Gründe klar beziffern.
A) Energieeffizienz, die GPUs in den Statistiken mit den meisten Absatzzahlen stehen idR ganz oben bei FPS/Watt -> seit der HD6000/7000er Reihe ist AMD da teils deutlich hinten dran, vor allem im HighEnd.
B) Zeitpunkt, mit der 5000er Reihe war man zeitlich VOR NV, mit der 6000er Reihe ähnlich, mit der 7000er Reihe wieder leicht vorn. Seit dem? Ist man hinten dran. Vor Vega Release war die schnellste GPU der aktuellen Fertigung ein Modell mit Leistung aus 2013 (R9-290er Performance Niveau). Vier Jahre Stillstand oder alternativ ne VRAM Krücke, wenn man mehr bei AMD wollte. Absehbar, wenn du mich fragst.
C) AMD setzt vermehrt auf technische Pionierleistungen - mit dem Nachteil, dass diese gern auch mal nach hinten losgehen oder die Nachteile aus einer frühen Einführung überwiegen. Fiji verhungert am 4GB VRAM Limit, ne 6GB 980TI tut es heute noch. Ne 12GB TitanX noch viel mehr und 24GB wären bei Bedarf auch drin gewesen. Fiji war auf 4GB gedeckelt und 8GB nur mit doppeltem Mitteleinsatz. Vega hat durch HBMv2 wahrscheinlich zeitlich auch stark verloren. AMD konzentriert sich seit spätestens Mantle vermehrt auf APIs abseits der breiten DX11 Masse - das kann man machen, aber wenn die DX11 Basis Boden verliert, wirds schwer mit Marktanteilen.
Es gab mal Zeiten, da war das völlig andersrum... Effiziente X800 GPUs, ohne irgendwelche großen Neuankündigungen bei den APIs, BQ Technisch vor der Konkurenz und für nen schmalen Taler. Bei der R300 aka 9x00 Reihe auch. Selbst die X1900er waren da noch gut dabei, auch wenn man die Brechstange bei der Leistungsaufnahme schon vernehmen konnte. HD3000 als viel bessere 2000er Reihe, die 4000er und natürlich die 5000er Reihe. Man hat(te) früher vieles richtig gemacht...

Was die Konsolen angeht - das Argument ließt man seit es PS4/XBox One gibt. Daraus geworden ist absolut gar nichts. Mittlerweile ist auch AMD schon bei den GPUs mit Vega weiter als das, was die Konsolen können. Und bis 2019 (wenn da überhaupt was kommt in der Richtung) wird wohl Vega Backend in so ziemlich allen Bereichen bei AMDs GPU Reihe drin sein. Dann brauch es wieder seine Zeit bis die Entwickler nachziehen - und wieder werden alle drauf Hoffen und am Strohhalm klammern bis dann irgendwann wieder die Ernüchterung eintritt.

Pascal war ein guter Ansatz siehe directX 12.1 Unterstützung und profitiert von der Maxwelleffizienz. AMD zog mit Vega nach, legt aber typisch auf openCL (und open source) mehr Wert, kann dabei aber den Effizienzvorteil in einer Gen nicht wett machen. Gezieltes Compute braucht bei AMD halt Saft, wobei sie keine reine Gamer GPU in ihrer Entwicklungspipeline vorweisen können - die ab Highend was reissen könnte (also den 1080ti Killer den sich alle wünschten oder hypten).

Das würde ich so nicht sagen - vor allem über die Monate und Jahre stellt(e) sich heraus, Hawaii ist ggü. dem Kepler GK110 eigentlich allen relevanten Punkten beim Gaming ebenbürdig oder gar besser aufgestellt. NV hat also nur eine einzige Gen. gebraucht um das zu Ändern - und das war Maxwell. Pascal ist immernoch nur ein leicht aufgebohrter Maxwell (abseits des Aufbaugeänderten GP100 und Überarbeitetem GV100).

Der Fehler, wo man viel Potential liegen lassen hat war aus meiner Sicht bei Polaris 10 schluss zu machen. Hätten se wenigstens nen Fiji Refresh oder doppelten Polaris 10 gebracht. Das runterfahren des Gamerfokus bei AMD ist bspw. auch einer der potentiellen Gründe... NV verdient damit immernoch am meisten, wenn mich nicht alles täuscht. Bei der potentiell profitablesten Sparte den Hahn abzudrehen KANN man machen, wenn man was im Petto hat um das auszugleichen. Aber was wäre das bei AMDs GPU Sparte? Sie hätten vllt rückblickend eher bei den effizenzgetrimmten Modellen bleiben sollen anstatt mit NV wieder ein HighEnd-Kopf an Kopf Rennen vom Zaun zu brechen. AMD hat sicher gewusst, was Vega ist und wird. Vor allem im Vergleich zu Fiji... Hier hätte man schon lange vorher umdenken können... Bleibt nur zu hoffen, das wenigstens die Vega Architekturänderungen mittelfristig Erfolge bringen. Ich warte dafür noch die APUs ab und vor allem das Intel CFL-H Teil mit dem HBM Stack... Der erste Vega Anlauf mit der 64er Vega GPU war ne Luftnummer.

Wenn ich das richtig in Erinnerung habe soll aber vorerst nichts neues in Sachen GPUs bei AMD kommen da oben. Also eine Vega GPU als Polaris Nachfolger mit Vega56-64 Leistungsniveau bei 150-200W Verbrauch kommt so schnell wohl nicht... Eine 1180 oder 2080 genannte Karte von NV kommend wohl irgendwann dieses Jahr erwarte ich hingegen schon auf 1080TI Niveau bei um die 200W vllt gar drunter... Und später dann den großen Volta/Ampera mit TI +-40-50% und 250W Einstufung. Ob das dieses Jahr wird, kein Plan - GV100 zeigt aber heute schon vor, wohin die Reise gehen wird. Ich sehe nichts, absolut gar nichts, was AMD da gegen stellen will.
 
Ich sehe aktuell nichts, was Nvidia gegen AMD stellen kann. Diskrete Grafikkarten sind bald nur noch für Randgruppen interessant, weil die Vega-IGPs in den ganzen CPUs die meisten ihrer diskreten Konkurrenten sowieso überflüssig machen. Und wenn erst mal ein signifikanter Anteil solche IGPs nutzt, werden die Spiele und vor allem die großen Standardengines viele Optimierungen vornehmen, da sie damit ihre Kundenzufriedenheit massiv steigern können.
So ein Tegra von Nvidia ist auf der CPU-Seite viel zu lahm, um irgendwie mithalten zu können.
Die Nvidia-Taktik war schon immer auf kurzfristigen Gewinn ausgelegt und so hat man die Entwicklungen verschlafen und in Konservierung der Macht investiert - dass mittelfristig sowieso alles auf SoCs hinausläuft, war schon vor Jahren absehbar.
 
Zuletzt bearbeitet:

Dann hätte AMD doch lange was in der Pipeline -> auf irgend ner Roadmap und wir würden wenigstens im Ansatz was davon wissen...
Aber vllt weis ICH es ja nur nicht ;)
Ich rechne frühestens in 3 Jahren mit einem vorzeigbaren Produkt, sowohl was Koduri bei Intel als auch die beiden "neuen" bei AMD angeht. Vllt gar noch länger.

Ich sehe aktuell nichts, was Nvidia gegen AMD stellen kann. Diskrete Grafikkarten sind bald nur noch für Randgruppen interessant, weil die Vega-IGPs in den ganzen CPUs die meisten ihrer diskreten Konkurrenten sowieso überflüssig machen. Und wenn erst mal ein signifikanter Anteil solche IGPs nutzt, werden die Spiele und vor allem die großen Standardengines viele Optimierungen vornehmen, da sie damit ihre Kundenzufriedenheit massiv steigern können.

Strohhalm oder glaubst du das wirklich? Und was ist "bald"? Morgen? Übermorgen? In ner Woche? Und vor allem, über was für eine Markt redest du hier überhaupt?
Es ging hier um Spieler und konkret sogar Desktop-PC-Spieler... "Randgruppe" sind stand jetzt die, die überhaupt nen Desktop PC nutzen. Das inkludiert all diese Leute von Haus aus... Dennoch verdient sich NV ne goldene Nase ausschließlich mit dGPUs.

Ich geb dich mal nen Tip, nirgends stand was von wegen, NV würde irgendwo APUs angreifen und/oder in deren Gebiet wildern.
Aber solange sich an der baulichen Situation nichts ändert - dass dGPUs um Faktor x schneller agieren können als die APU, warum sollte sich an der aktuellen Situation was ändern?
Das ganze Argument krankt an zwei entscheidenden Punkten - du gehst A) davon aus, dass sich der GPU Markt von unten aufholen lässt. Das wird aber so erstmal nicht passieren. Das was du unten wegnimmst, legst du oben auf der dGPU wieder drauf (wenn du kannst natürlich - Vega64 KANN im Moment nicht) und...
B) gehst du davon aus, dass die Software-Entwicklung stehen bleibt -> also der Leistungsbedarf nicht steigt... Auch das wird nicht passieren. Gerade in Games ist viel viel Luft nach oben. Und BQ nur etwas abseits der Masse fällt stark negativ auf im Vergleich, wenn nicht irgendwie kaschiert ;)



Nimmt man es mal nüchtern, von der reinen Anzahl her - die Masse nutzt heute schon länger keine dGPUs für anspruchslose Desktop Darstellung mehr... Also nicht dass wir uns falsch verstehen. Aber allein dieser Fakt sollte dir zeigen, dass das Vorhandensein und der Nutzen von IGPs in breiter Masse lange nicht bedeutet, dass es bald dGPUs nur noch in Randgruppen gibt? -> das ist einzig deine Wunschvorstellung abseits jeglicher Realität. Denn die Randgruppe verglichen mit dem gesamten Markt IST heute schon der Spieler. Um so entscheidender ist es, wer von diesen Spielern nutzt welche GPU Technik... Ob das absehbar Vega IGPs sind? Abwarten... Im Moment haben wir da zwei schwer lieferbare dGPU Verbrauchsmonster und exakt zwei lieferbare schmalspur 15W APUs. MEHR ist nicht... Und auf dem Ankündigungsblatt gibts ein drittes Notebook sowie nen Desktop Ableger, der am Bandbreitenlimit verhungern wird. Der CFL-H könnte es besser machen - aber wird denke ich ein eher schlechtes P/L haben und damit eher Niesche bleiben. 4C only im Moment machen es auch nicht besser....
 
Ich sehe aktuell nichts, was Nvidia gegen AMD stellen kann. Diskrete Grafikkarten sind bald nur noch für Randgruppen interessant, weil die Vega-IGPs in den ganzen CPUs die meisten ihrer diskreten Konkurrenten sowieso überflüssig machen. Und wenn erst mal ein signifikanter Anteil solche IGPs nutzt, werden die Spiele und vor allem die großen Standardengines viele Optimierungen vornehmen, da sie damit ihre Kundenzufriedenheit massiv steigern können.
Aber auch nur für Leute, die für eine neue GPU gleich einen komplett neuen Rechner kaufen, weil auch gleichzeitig die CPU (und ggf. Mainboard und RAM) zwingend getauscht werden muss.
Ob das für Spieler sinnvoll ist wage ich stark zu bezweifeln. Oder tauschst du mit der GPU immer auch CPU (+ ggf. Board und RAM)?
 
Dann hätte AMD doch lange was in der Pipeline -> auf irgend ner Roadmap und wir würden wenigstens im Ansatz was davon wissen...
Aber vllt weis ICH es ja nur nicht ;)
Ich rechne frühestens in 3 Jahren mit einem vorzeigbaren Produkt, sowohl was Koduri bei Intel als auch die beiden "neuen" bei AMD angeht. Vllt gar noch länger.

Naja auf der Roadmap steht Navi, ist ziemlich konkret und soll wohl auch gegen die Konkurrenz antreten können aber ob die beiden "neuen" bei AMD damit zutun haben, also vermutlich schon. ;)
 
Der Fehler, wo man viel Potential liegen lassen hat war aus meiner Sicht bei Polaris 10 schluss zu machen. Hätten se wenigstens nen Fiji Refresh oder doppelten Polaris 10 gebracht. Das runterfahren des Gamerfokus bei AMD ist bspw. auch einer der potentiellen Gründe... NV verdient damit immernoch am meisten, wenn mich nicht alles täuscht. Bei der potentiell profitablesten Sparte den Hahn abzudrehen KANN man machen, wenn man was im Petto hat um das auszugleichen. Aber was wäre das bei AMDs GPU Sparte? Sie hätten vllt rückblickend eher bei den effizenzgetrimmten Modellen bleiben sollen anstatt mit NV wieder ein HighEnd-Kopf an Kopf Rennen vom Zaun zu brechen. AMD hat sicher gewusst, was Vega ist und wird. Vor allem im Vergleich zu Fiji... Hier hätte man schon lange vorher umdenken können... Bleibt nur zu hoffen, das wenigstens die Vega Architekturänderungen mittelfristig Erfolge bringen. Ich warte dafür noch die APUs ab und vor allem das Intel CFL-H Teil mit dem HBM Stack... Der erste Vega Anlauf mit der 64er Vega GPU war ne Luftnummer.

AMD hat die RTG Entwicklungen mehrfach zurückgestellt und sich auf Zen konzentriert, man muss/musste eine finanzielle Basis schaffen. RTG musste sich mehrere Jahre allein finanzieren und Su hat so gar noch Ressourcen aus dem Bereich abgezogen. Die hatten das da schon nicht einfach, dass da überhaupt noch Vega so wie er jetzt - rausgekommen ist, ist bei dem Buget schon ein kleines Wunder. AMD GPU hatte zwischenzeitlich etwas die Kontrolle verloren, die RTG dann wieder auf den Weg brachte (Celebration!) Einen der wichtigsten Entwickler dann auch noch als Manager einzusetzen war einfach gaga, wie man sieht hat Su daraus gelernt und stellt jetzt einen für die wirtschaftlichen und den anderen für die entwicklungstechnischen Interessen an. Richtig, die Frau lernt schnell.

Bei Maxwell und Pascal profitiert Nvidia immer noch vom G80, diesen Luxus hatte AMD nicht. VLIW war nicht leistunsgfähig genug und etwas neues zu finden ist nicht einfach. VLIW ist als Arch-Stand Gen 5 schon zu sequentiell, ihr fehlt die weiterreichende (scalare) parallele Pipelinearchitektur. Leerinstructionen kann sich heute keiner mehr leisten und der Code lässt sich nicht auf andere Prozesse hin portieren. Siehe Itanium von Intel.

Vega scheint ein ein Fijirefresh zu sein, mit Verbesserungen die sich lohnen, ich denke das war Koduris Auftrag und den hat er erfüllt. Polaris an sich ist doch keinen schlechte Plattform und das was für AMD Brot und Butter bringt.
 
Also wenn man deutlich über 4 TFLOPS auf einem Package mit der CPU mit den bisherigen IGPs mit vielleicht 250 GFLOPS vergleicht, bringt es aus meiner Sicht nichts, darauf noch irgendwie einzugehen.

Aber auch nur für Leute, die für eine neue GPU gleich einen komplett neuen Rechner kaufen, weil auch gleichzeitig die CPU (und ggf. Mainboard und RAM) zwingend getauscht werden muss.
Ob das für Spieler sinnvoll ist wage ich stark zu bezweifeln. Oder tauschst du mit der GPU immer auch CPU (+ ggf. Board und RAM)?

Gefühlt die Hälfte der Desktop-Nutzer setzt sowieso auf Notebooks. Workstation-Nutzer brauchen häufig mal GPU beschleunigte OpenCL-Rechnungen, wofür sich ein schneller, sparsamer IGP eignet - wenn der über den RAM läuft, kann man sogar billig an ECC dafür kommen falls unterstützt.

Es gibt ein paar Gamingsysteme, aber am gesamten PC-Markt ist der Anteil doch eher gering. Und die Besitzer dieser Systeme kaufen in der Regel den PC als Gesamtpaket.

Man muss nur mal überlegen, wie massiv das ALU und Kupfer spart, wenn man nur noch einen Chip hat, auf dem alles läuft.
Auch das ganze Gold für die Kontakte fällt weg. Es wird preislich zu einer riesigen Lücke führen - mittelmäßige Leistung wird es schon für 200-300€ im Package geben, für mehr Leistung werden ab 300-400€ dann noch dGPUs verkauft.

Ich sehe mich ehrlich gesagt eher nicht als Zocker und schon gar nicht als Durchschnittsuser. Der baut da nichts um.
 
mittelmäßige Leistung wird es schon für 200-300€ im Package geben
Träum mal weiter. Als ob die Hersteller irgendwelche Ersparnisse an den Kunden weitergeben.

Ich sehe mich ehrlich gesagt eher nicht als Zocker und schon gar nicht als Durchschnittsuser. Der baut da nichts um.
Also praktisch einer derjenigen, die selbst eine Mittelklasse GPU nicht nutzen und denen eine Geforce 1030 oder Intel GPU/AMD/APU bisher locker ausgereicht hat. ;)
 
Also wenn man deutlich über 4 TFLOPS auf einem Package mit der CPU mit den bisherigen IGPs mit vielleicht 250 GFLOPS vergleicht, bringt es aus meiner Sicht nichts, darauf noch irgendwie einzugehen.

Deswegen erhöht sich der Leistungsbedarf weiterhin - genau so wie es obenraus weiter steigen wird.
Keine Ahnung was du dir da zusammen reimst. Aber HighEnd IST im Moment eine GV100... Das sind 15TFlop/sec nutzbar. 4TFlop/sec in der Basis grob 1/4tel davon.
Die solide Gamer-Mittelklasse hat üblicherweise ca. 1/3-1/2 der HighEnd Leistung. Zumindest in letzter Zeit... Da kommst du lange nicht hin.

Und mal konkret gefragt, woher kommen die "deutlich über 4TFLOPS" genau?
Und die "250 GFLOPS"?

Ich kenne die Zahlen der Intel DB, da spricht man im Moment von 24 CUs bei 1,19GHz im Boost. Ob das Ding höher boosten wird, abwarten. Vor allem bei Games mit hoher CPU Last.
Das sind nichtmal 4GFlop/sec :wink:
Intel Coreâ„¢ i7-8809G Processor with Radeonâ„¢ RX Vega M GH graphics (8M Cache, up to 4.20 GHz) Produktspezifikationen
Bristol Ridge im Vollausbau bringt es auf über 1TFlop/sec... Du verschätzt dich um Faktor 5.
Während du bei der anderen Gesichte offenbar übers Ziel hinaus schießt...

Das sind rein von der Rohleistung um die 40-50% auf dem Papier mehr wie eine 560er Radeon. Mal sehen, wie das in der Praxis aussieht. Die 560er allein säuft schon leicht über 70W ;)

Gefühlt die Hälfte der Desktop-Nutzer setzt sowieso auf Notebooks. Workstation-Nutzer brauchen häufig mal GPU beschleunigte OpenCL-Rechnungen, wofür sich ein schneller, sparsamer IGP eignet - wenn der über den RAM läuft, kann man sogar billig an ECC dafür kommen falls unterstützt.

Es gibt ein paar Gamingsysteme, aber am gesamten PC-Markt ist der Anteil doch eher gering. Und die Besitzer dieser Systeme kaufen in der Regel den PC als Gesamtpaket.

Warum "fühlen"? Bring doch bitte Fakten, wenn du irgendwelche Behauptungen aufstellst... Das würde deiner Argumentation gut tun.
Im Moment sind es ca. 75% Mobile Anteil. Kannst du gern anhand aktueller Statistiken aus 2017 überprüfen. Allein das sollte dir klar machen, dass die Anzahl der IGP Nutzer, die damit heute schon lange klar kommen, nicht auf einmal rapide steigt. Die SIND! schon "alle" auf IGP. Und kommen offenbar spielend mit den lahmen Krücken klar - oder bauen auf IGP + dGPU. Was gerade im Notebook nicht verkehrt ist, da bis dato die IGP nochmal nen Zacken besser in der Effizienz war.

Ein 24 CU Vega im kommenden Intel Modell ist dann ca. halbe Strecke 560 zu 570. Oder anders, irgendwo 1050 bis vllt 1050TI Niveau. Damit "KANN" man schon spielen. Aber Mittelklasse ist das lange nicht. Mittelklasse ist 570-580/1060 Niveau. Ja gemessen an der TitanV sogar eher 1070 Niveau. -> also die Brot und Butter Gamer Hardware :wink:
So viel anders als sonst ist das auch gar nicht - Kaveri war mit der 7800er Version ca. 1/5tel der GPU Rohleistung der 7970. Das Intel + Vega + HBM Teil als absolute HighEnd APU ihrer Klasse bringt es gerade auf 1/4tel von HighEnd dGPU. Und wird ganz sicher nicht nur 150€ kosten ;)
 
Zuletzt bearbeitet:
Nvidia kann bisher kein schnelles FP16 das für Games relevant wäre, daher werden sie es auch gezielt boykottieren. Selbst Volta kann es nicht...

NVIDIA kann mit dem Einzug von Pascal zwei FP16 Operationen statt einer FP32 ausführen, quasi "identisch" mit dem was AMD veranstaltet und selbstverständlich kann dies auch Volta und vermutlich auch alle zukünftigen Architekturen. Maxwell verarbeitet FP16 noch als "FP32" und hatte dadurch keine Vorteile.

Der Haken ist nur, dass NVIDIA die Gamer GPUs künstlich beschneidet, damit AMD Besitzer wenigstens in einer Disziplin (FP16) schneller sind ;) Spaß beiseite, NVIDIA verdient kräftig im "Deep Lerning" Segment und würde den Pro GPUs das Wasser abgraben, wenn sie die Gamer GPUs nicht beschneiden würden. So zumindest die Marketing-Theorie. Ferner können sie die Gaming Ableger so schlicht günstiger produzieren.

Beim GP104 ist die FP16 Leistung dadurch 1:64, da pro SM nur ein FP16x2 Core vorhanden ist. Selbige Beschneidung gilt übrigens für FP64, welches im Verhältnis 1:32 berechnet wird. Beim GP100 haben wir FP16 2:1 und FP64 1:2, so wie es sein sollte. Die Aussage, dass es NVIDIA "nicht kann" ist also schlichtweg falsch. Volta kommt sogar dank der Tensor Cores auf eine noch höhere FP16 Leistung.

Was am Ende beim Gamer ankommen wird ist eine andere Frage, aber sollte AMD es schaffen NVIDIA durch FP16 das Wasser abzugraben, kann man davon ausgehen, dass es nach einem Ti Refresh auch noch ein Ti16 Refresh geben wird :) bzw. eben jeder SM ein paar mehr FP16x2 Cores oder eventuell Tensor Cores bekommt um zumindest mit AMD gleichzuziehen.

Aber logisch AMD zieht ja Kreise um NVIDIA und die grünen können denen so gar kein Wasser reichen. Die verdienen nur deutlich mehr mit den paar Tropfen die sie rausrücken. Kann man als unverschämt sehen, ist aber Marktwirtschaft. Steht ja jedem frei bei AMD zu kaufen oder nur seinen IGP zu nutzen.

PS Wer meint ein IGP würde für tatsächliche Compute-Anwendungen reichen, hat solche noch nicht genutzt. Beim Einsatz von Team Grün kommt dazu, dass man gratis zu den offenen Standards auch noch CUDA nutzen kann. Unverzichtbar in bestimmten Bereichen.
 
Zuletzt bearbeitet:
Vielleicht findet sich ja eine Kryptowährung, die von Primitive Shadern profitieren kann (oder es gibt schon eine?), dann haben die Miner auch was von ihren Vegas. :fresse:
 
HighEnd IST im Moment eine GV100... Das sind 15TFlop/sec nutzbar. 4TFlop/sec in der Basis grob 1/4tel davon.
Du konstruierst immer wieder so komische Sachen... jetzt bezeichnest Du eine 3.000€-Karte als Maßstab für Zocker? Und wenn jetzt Nvidia zehn Chips draufpackt und sie für 30.000 verkauft? -> Was machst Du dann?
Sowas ist doch komplett an der Realität vorbei. Selbst die GTX 1080 Ti hat kaum Marktanteile. Die kostet jetzt schon mindestens 850€... mehr gibt tendenziell kein Mensch dafür aus, wie sich Nvidia auch verbiegt.
Eine GTX 1080 ist gerademal doppelt so stark vertreten wie eine GTX 1080 Ti. Und eine GTX 1070 doppelt so stark wie die GTX 1080. Das ist nicht mal 2% am Gesamtmarkt. Den mit weitem Abstand größten Marktanteil aktueller Gaming-Karten hat eine GTX 1060(ca. 15%), dicht gefolgt von der GTX 1050.

Die solide Gamer-Mittelklasse hat üblicherweise ca. 1/3-1/2 der HighEnd Leistung. Zumindest in letzter Zeit... Da kommst du lange nicht hin.
HighEnd als Maßstab zu nehmen ist echt witzig. Du vergleichst doch auch keinen Bughatti mit einem Opel und sagst dann, dass es ein Wunder ist, dass sich der Opel überhaupt bewegt. Es kann ja jeder Kasper ankommen und irgendwelches noch teureres Zeug erfinden, das dann keiner kauft. Dadurch wird ja das "normale" nicht schlechter.

Die "oberen 3%" haben eine GTX 1070, GTX 1080 und GTX1080 Ti - zusammengenommen. Da müsste über den Daumen gepeilt ein Durchschnittswert von etwa 8 TFLOPS herauskommen. Und wenn Du jetzt 8 durch 2 oder 3 teilst, weißt Du, warum so viele Leute nur eine GTX 1060, oder 1050 haben, und somit eine Karte der "soliden Gamer-Mittelklasse".



Und mal konkret gefragt, woher kommen die "deutlich über 4TFLOPS" genau?
Das war mein Fehler - das Ding hat "nur" 3,6 TFLOPS und bewegt sich somit zwischen einer GTX 1050 und einer GTX 1060.

Und die "250 GFLOPS"?
Die HD Graphics 4000 kommt am meisten in "Gaming" - Rechnern vor, laut Steam. Eine aktuelle HD 630 hat beispielsweise fast doppelt so viel Leistung - das ist mir bewusst, aber das ist vergleichsweise trotzdem ein Witz.


Im Moment sind es ca. 75% Mobile Anteil. Kannst du gern anhand aktueller Statistiken aus 2017 überprüfen.
Also ich habe anhand des Steam-Surveys abgeschätzt, welche Hardware Notebooks zuzurechnen ist, und welche eben von Desktoprechnern kommen muss. Das geht aufgrund der Taktraten eigentlich recht zuverlässig. Du schreibst jetzt "Mobile Anteil". Tablets oder Convertibles rechne ich da ja gar nicht rein. Aber es könnte plausibel sein, dass im Office-Bereich mehr Laptops eingesetzt werden, als wo Steam drauf läuft, und das würde zumindest für mehr als 50 % sprechen.

Allein das sollte dir klar machen, dass die Anzahl der IGP Nutzer, die damit heute schon lange klar kommen, nicht auf einmal rapide steigt. Die SIND! schon "alle" auf IGP.
Das ist keine Logik. Wenn man 1.000€ verdient und davon leben kann, würdest Du doch auch nicht sagen: "Wollen bestimmt nicht 4.000€, weil sie ja jetzt schon damit klar kommen".
Es ist komisch, dass Du jetzt wieder genauso argumentierst, wie bei Ryzen. Auch da hast Du prophezeit, dass Ryzen keiner bräuchte, weil ja vier Kerne sowieso reichen und wenn er mehr gewollt hätte, hätte er sich bestimmt für 1.000€ bereits einen Achtkerner gekauft... Das ist völlig unlogisch und es hat sich auch als komplett falsch erwiesen, wie die Verkaufszahlen zeigen.
Edit: Es ist doch sowieso absehbar, dass die Leute im Laden den "Gaming-Rechner" mit Vega 10 oder Vega 24-Grafik kaufen werden, weil er für den PC-Hersteller einfach viel billiger ist, als noch eine dGPU mit einzubauen. Warum soll sich Dell oder sonstwer denn unnötig Ärger schaffen?

Und kommen offenbar spielend mit den lahmen Krücken klar - oder bauen auf IGP + dGPU.
Was sollen sie auch bisher tun? - Sie sind ja dazu gezwungen, genauso wie vor einem Jahr die armen Leute noch Quadcores kaufen mussten, weil sie sich nicht mehr Kerne leisten konnten. Edit2: Nicht umsonst gibt es solche Bastellösungen mit externen Gehäusen für GPUs usw. Die Leute finden diese lahme Leistung nicht schön - das ist nur der unausweichliche Nachteil des Notebooks...

Ein 24 CU Vega im kommenden Intel Modell ist dann ca. halbe Strecke 560 zu 570.
Du vergleichst jetzt eine Vega mit der Polaris-Architektur. Wenn Rapid Packed Math und die ganzen Features besser unterstützt werden, wird die Leistung der Vega deutlich besser pro Takt sein, als die der Polaris. Und dass es sich auch lohnt, diese Leistungsoptimierungen zu bringen - dafür hat AMD mit den IGPs jetzt die Basis geschaffen. Denn wie Du schon schriebst, fast alle Geräte sind auf IGP und folglich kann AMD da sehr schnell Marktanteile gut machen, die Nvidia niemals einnehmen kann.
Man sollte nicht vergessen, dass AMD selbst bei Polaris durch mangelnde Unterstützung von Spielen nur etwa 80% von dem leistet, was sie in sehr gut optimierten Titeln leisten kann. Und auf die 20% Differenz kommen dann nochmal die Architekturverbesserungen von Vega obendrauf. Vorausgesetzt AMD verkauft auch wirklich genug IGPs, aber ich habe daran eigentlich keine wirklichen Zweifel.
 
Zuletzt bearbeitet:
Sowas ist doch komplett an der Realität vorbei. Selbst die GTX 1080 Ti hat kaum Marktanteile. Die kostet jetzt schon mindestens 850€... mehr gibt tendenziell kein Mensch dafür aus, wie sich Nvidia auch verbiegt.
Eine GTX 1080 ist gerademal doppelt so stark vertreten wie eine GTX 1080 Ti. Und eine GTX 1070 doppelt so stark wie die GTX 1080. Das ist nicht mal 2% am Gesamtmarkt. Den mit weitem Abstand größten Marktanteil aktueller Gaming-Karten hat eine GTX 1060(ca. 15%), dicht gefolgt von der GTX 1050.
Und wie hoch ist der Marktanteil 5 Jahre alter Karten? Denn so lange muss deine APU ja mindestens halten wenn die CPU-Leistung noch ausreicht (wovon auszugehen ist). Viel Spaß wenn die nur 4GB haben.
Die nicht vorhandene Flexibilität musst du bei deinen Vergleichen auch einberechnen.

Die HD Graphics 4000 kommt am meisten in "Gaming" - Rechnern vor, laut Steam. Eine aktuelle HD 630 hat beispielsweise fast doppelt so viel Leistung - das ist mir bewusst, aber das ist vergleichsweise trotzdem ein Witz.
Ich habe auch eine HD4600 und eine 530. Bei Spielen kommen die aber nicht zum Einsatz, sondern die 870M bzw. 1070.
Man sollte solche Zahlen auch einschätzen können. Die hohen Marktanteile bei Spielern haben einen Grund: die iGPUs sind bei fast jedem verbaut. Dank Optimus sind sie auch häufig aktiv.
 
Sicher ist der Umgang seitens AMD nicht optimal was PS angeht, aber die Tatsache, dass der Markt überwiegend die DX11 API befeuert und kaum Interesse an DX12 hat ist eigentlich eine Teufelsspirale die solange andauern wird, bis Nvidia sich dazu entscheidet den Markt mit DX12 Hardware zu fluten und auch eine vernünftiger Unterstützung für die API zu bieten.
Das einzige was man in den letzen Jahren von Nvidia gesehen hat waren weitere Zusätze für Gameworks die überwiegend nur mit DX11 Spielen Promotet wurden.

Fortschritt geht definitiv anders.
 
So gut wie Zen geworden ist, so bescheiden ist Vega geworden...
RTG hat echt extrem viel Bockmist gebaut.

Zumindest im High End Bereich finde ich Vega absolut uninteressant und deplatziert.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh