Was Nvidia hier macht ist sich selbst den Arsch retten. Irgendwann hast du eine GPU so effizient dass du sie einfach in die CPU integrierst. Mit RT haben sie nicht nur eine bessere Technologie implementiert, sondern auch dafür gesorgt dass der Chip schön groß und teuer bleibt und schön viel strom frisst, sodass eine effektive Angliederung an eine CPU vorerst unmöglich bleibt.
RT-Stuff kostet nachweislich wenig Chipfläche - der Stromverbrauch ist auch nicht gestiegen, eher im Gegenteil, ohne RTX Load ist die Effizienz trotz quasi ausgebliebenem Prozesswechsel zu Pascal ganz gut gestiegen. Und mit RTX lässt sich das schwer bis unmöglich vergleichen, weil Pascal einfach drastisch langsamer ist - und damit noch deutlich mehr Strom für das bisschen Leistung versäuft...
Wenn Intel und AMD nur genug Zeit haben, würden sie APUs bauen die so Leistungsstark sind, dass nur noch XX70/80 Aufwärts alleine Sinn macht. Du hättest immer noch Abstriche mit geteiltem RAM und langsamerer Anbindung dessen, aber in dem Preissegment geht es um Preis/Leistung. Keiner braucht 16 Kerne in einem Midrange System aber 8 Kerne und eine 1060 in einem? Das wäre was. Und siehe da AMD macht genau das. Es braucht zwar zeit bis du da ne ordentliche Leistung hast, aber in 10 Jahren würde doch keiner mehr eine Budget GPU kaufen. Es sei denn diese budget GPU hätte etwas das die APU (noch) nicht haben kann... ja was könnte das wohl sein? Etwas was viel Strom frisst, Platz braucht und noch möglichst viel VRAM. Etwas das so heiß wird dass du es unmöglich mit der selben Durchschnittskühllösung abspeisen kannst.
APUs unterliegen den selben physischen Beschränkungen wie ne dGPU auch. Woher soll der Effizienzsprung kommen? Wenn es möglich wäre im Powerbudget xyz CPU und GPU zu vereinen - dann geht das im selben Powerbudget auch mit CPU + dGPU. Eher sogar besser, weil die Möglichkeiten zum Wärmeabtransport steigen.
Die Restriktionen um in einer APU entsprechend schnell den GPU Part nutzen zu können, kommen sogar noch OnTop (Speicheranbindung bspw.)
Zumal das APU Argument auch schon wie lange alt ist? 10 Jahre?
Keine Ahnung wie oft man schon erzählt, dass APUs jetzt das Ruder übernehmen werden... Real praktisch hat sich eher gezeigt, wirklich groß GPU Power braucht Otto Normalo im Schnitt nicht. Dort wo es gebraucht wird (Games oder im Compute Bereich), macht man bei der kaufbaren Grenze ner APU nicht halt, sondern es skaliert eben auch weiter über ne dGPU bis teils hin zu MGPU Systemen.
Am Ende schiebt sich nur die Grenze nach oben...
Das heißt nicht, dass APUs generell quatsch sind - eher im Gegenteil. In ner Konsole macht sowas bspw. durchaus Sinn - aber das ist eben dann auch ein relativ klar abgestecktes System - keine Flexibilität, lange Laufzeit und fixe Hardwarebasis. Ob der RAM jetzt gesockelt oder verlötet ist, spielt dort keine Rolle - tauscht eh Keiner.
Aber stell dir die ganzen Fertig PCs vor, wo du nichtmal mehr den Speicher tauschen kannst, weil da ne Hand voll GB HBM oder GDDR irgendwas verlötet sind auf dem Board... Die Leute in den Foren hupen doch schon, wenn alle 2 Jahre Intel einen neuen Sockel bringt
Btw. Budget GPU ist immer so ne Sache - der Bedarf an der Basisperformance steigt aktuell seeeehr sehr langsam. Du kannst mit ner IGP von Intel fast jeden 0815 Basisspaß machen, ohne nennenswerte Einschränkungen, wenn überhaupt. Da brauchts halt keine Leistung, weil die Basis diese Anforderungen gar nicht (mehr) hat. Das war aber zu den Anfängen von IGPs bzw. OnBoard GPUs noch anders.
Ob das jemals über den Stand der absoluten Basiseinheit in der Fläche hinaus geht muss sich klar beweisen.
Nur hätte man ähnliche Effekte (physikalisch nicht 100% korrekt, aber wayne?) vermutlich auch faken können, so dass der sichtbare Unterschied sehr gering bis nicht wahrnehmbar ausfällt.
Die Frage ist, wie hoch ist der Aufwand für den Fake?
Das klingt immer so, als fällt ein halbwegs anständiges Beleuchtungskonzept einfach aus der Luft... Dabei ist eben genau dieses Thema einer der größten Pferdefüße von der Rasterisierung - während der Spaß im Raytracing einfach "per Design" abfällt.
Ich sag mal so - die Zukunft wird mMn nicht auf RT only liegen. Btw. ist auch das RTX an der Stelle komplett falsch - das Stichwort ist dort DXR -> RTX ist nur der Part von NV, die Schnittstelle oben ist DXR und hier können/werden/sollten an andere andocken. Unabhängig davon, ich sehe die Zukunft in einem Hybrid Modus, wo eben die Vorzüge von RT und die Vorzüge der Rastergeschichte in einem vereint werden. RT only fürs komplette Bild KANN man machen und das ist auch nicht schlecht, aber es kostet eben extremst viel Performance. Vllt erfindet wer irgendwann mal was, womit der Spaß viel viel effizienter zu berechnen geht als heute. Der Ansatz über den Denoiser die Anforderung massivst senken zu können ist bspw. genau so einer. Aber es ist halt alles noch sehr in den Kinderschuhen... Man sollte sich da keiner Illusion hingeben. RT wird im CGI Umfeld seit sonstwas genutzt - da sind teils riesige Renderfarmen am Strahlenschießen und man sieht dem Spaß an, dass es eben eine Computergrafik ist -> völlig utopisch das in Echtzeit in 250W auf einer Single GPU zu erwarten. Das Rennen wird also der machen, der den effizientesten Kompromiss erschaffen kann... Und der RTX Part bei NV ist da schonmal ein ziemlich guter, weil deutlich besser zu vorher, funktionierender Ansatz