Uff was geht denn hier ab?
...
deshalb muss nVidia ja aucj raytracing pushen, weil sie sonst in 5-7 jahren weg vom grafikkarten markt sind, wenn eine apu mit schnellem hbm in der mittelklasse wildert.
Klar denn "wenn eine apu mit schnellem hbm in der mittelklasse wildert" gibt es keinen Bedarf mehr an Performance, High End, HPC/Beschleuniger, generell dedizierten Lösungen etc.
Nicht jeder wird mit so eine APU bedient. Klar (je nach Preisgestaltung) fällt der Großteil der Low Budget GPUs weg (welch Wunder, ist ja jetzt schon so da die IGPs welche in den meisten Intel CPUs bzw. AMD APUs verbaut sind diesen Bereich ja schon jahrelang von unten anknabbern), aber das war's dann auch schon.
...
chipsatz hersteller die eigene chipsätze entwickelt haben für mainboaards haben auch keinen markt mehr im. siehe nVidia damals mit ihren nforce dingern.
Ein Chipsatz war auch für einen Computer etwas Essentielles ohne dem es nicht ging. Deswegen haben damals mehrere Unternehmen Lösungen geboten um teils CPUs verschiedenster Hersteller damit anzubinden. Ja die gute alte Zeit wo man noch Intel, AMD, Cyrix etc. auf ein und das selbe Board verbauen konnte.
Eine APU bzw. GPU mit schnellem HBM (zusammen auf einem Package/Interposer whatever) ist aber nichts Essentielles. Nicht jeder braucht oder will das. Den allermeisten genügt eine lumige Grafikeinheit um 2D, Office, Internet und ein wenig Video anzuzeigen. Und einigen genügt das alles nicht und die wollen das schnellste in Sachen 3D oder eben im Business Bereich Beschleuniger wo solche APUs teils auch fehl am Platz sind da zu langsam/zu klein etc.
Wir reden hier aber immer noch von APUs, nicht von High End, da passen 4 GB schon noch. Eine APU mit 16 GB HBM, wäre unnötig teuer (der Großteil der Software die man auf einer APU laufen lassen würde, bräuchte so schnellen RAM nicht). Vergiss nicht, dass wenn der Speicher mit auf die CPU kommt, dass dann weniger CPU Chiplets untergebracht werden können und die APU damit so oder so eher im Low End Bereich bleiben wird. Klar werden diese APUs dann Karten wie die 1050 oder so den Markt abgraben, aber mehr wird es auf absehbare Zeit auch nicht.
Der Markt, wo du 16 GB HBM auf einer APU verkaufen kannst, dürfte praktisch nicht existent sein (am ehesten noch fürs Minen). Da dürften 4 GB HBM + 8 / 16 GB DDR4 / DDR5 schon viel wahrscheinlicher sein und mehr Sinn machen.
Sehe ich genau so. Die Große Frage ist eben wenn HBM dann nur für die GPU oder für beides?
Eigentlich sollte der große Vorteil der APUs (wurde von AMD ja 2011 mit AMD Fusion groß beworben) ja sein daß sich CPU und APU den Speicher teilen und gemeinsam darauf zugreifen können. Stichwort HSA.
Irgendwie ist es zumindest seit RyZen dahingehend recht still geworden. Inwiefern die RyZen APUs noch in das Fusion/HSA Konzept passen weiß ich nicht, vielleicht hat da wer mehr Einblick. Ich denke das Hauptproblem ist daß es egal in welche Richtung immer Softwareunterstützung benötigt ein APU Konzept vorteilhaft ggü. dedizierten Lösungen hinzustellen. Ein wichtiger Teil wäre hier daß eben die CPU und die GPU den gleichen Speicherbereich nutzen - sprich es müssten nicht mehr Arbeitsspeicher der CPU genutzt werden um beispielweise ein Spiel zu laden - und dann dem VRAM der GPU noch mit Texturen vollzustopfen wenn diese ohnehin schon im CPU RAM liegen würden. Würde dies durch die Bank für jede Software (z.B. Spiele) funktionieren bräuchte man vielleicht nicht sehr viel HBM Speicher. Andersrum, wie viel ist ausreichend? 8GB? Ist vielleicht schon etwas wenig. 16GB wäre aber wieder recht teuer und brauch viel Platz am Package.
Also ich denke auch daß es vorerst so bleibt daß HBM dann nur für die GPU genutzt wird und die CPU DDR4/5 verbaut bekommt.
...Bedeutet auf die heutige Zeit runter gerechnet, wären die APU's dann so leistungsstark in desktop Rechnern wie eine 1080 oder besser.
Stark runter gebrochen wäre eine APU dann eine aktuelle Ryzen CPU mit einer 590 drinnen.
...
Wäre aktuell aber viel zu teuer und schwer zu kühlen. Wenn's dann mal billiger wird und durch besserer Fertigungen auch halbwegs kühlbar wird ist die Performance und High End Klasse schon wieder ein gutes Stück weiter. So wird's immer sein.
dieser Meinung bin ich auch da für 90% der Nutzer 4GB VRAM ausreicht.
Ich stelle mir sowas auch eher bei den OEM's vor die dann relativ kostengünstig ohne hohen Montageaufwand kleine, kostengünstige Rechner zusammenbauen.
z.B haben wir in unserem Unternehmen die HP 285 G3 serie mit 8GB DDR4 RAM, AMD Ryzen 5 2400G und 256GB PCIe SSD für unglaubliche 380€ EK. ...
Ja für so einen Gebrauch wird's das bestimmt geben, eben mit 4GB VRAM (nur für die GPU), und das ganze in Laptops und NUCs, HTPCs etc. Sprich wenig Raum und keine/kaum Upgrademöglichkeiten. Wenn wie gesagt der Preis und die technischen Details (Fertigung, Kühlung) passen. Ist beides eigentlich absehbar.
Kommt auf die Auflösung an. ...
Auch nicht zu vergessen: Der HBM Speicher übernimmt dann sowohl die Aufgabe des VRAMs als auch des System-RAMs. Beide wollen bezahlt werden. Wenn der HBM aber beide kombiniert, ist der auf einmal gar nicht mehr sooo teuer.
Nein die Auflösung macht oft nicht mal so viel am VRAM Bedarf aus wie Du glaubst. Wenn ein Spiel hochauflösende Texturen hat und riesige Levels bzw. so optimiert ist viel Speicher zu nutzen kannst die Auflösung noch so weit runterdrehen wie Du willst.
Klar je höher die Auflösung desto mehr VRAM wird benötigt, aber es steigt nicht so extrem an wie Du glaubst. Zumindest nicht mit der Auflösung alleine, kommen noch AA Methoden etc. dazu kannst schon etwas mehr werden. Dazu gibts eh einige Tests im Netz.
Naja noch ist preislich ein deutlicher Unterschied, vor allem bringt HBM für so kleine CPUs alleine aktuell bestimmt in kaum einen Fall eine bedeutende Mehrleistung. Siehe diverse Benchmarkvergleiche zwischen Single-, Dual- und Quad Channel RAM Anbindung oder Taktunterschiede.
... Und die Latenz beim HBM ist auch noch um ein vielfaches besser als beim derzeitigen DRAM - und es ist kein Gehemnis, dass AMD CPUs zur Zeit ein "kleines" Latenzproblem haben und von schnellerem Speicher deutlich profitieren.
Jetzt verbinde mal beides und schätze mal, mit viel viel mehr Performance du allein durch den wegfallenden Speicherflaschenhals aus der Tür gehen würdest und DANN klopf da drauf noch mal die Verbesserungen der Navi Architektur und die verbesserte IPC von der Ryzen 3000'er Serie.
...
Naja das Latenzproblem bei den RyZen kommt ja eher von der Kommunikation zwischen den CCX soviel ich das verstanden habe. Und ja, schnellerer Speicher beschleunigt auch diese Anbindung da der Infinity Fabric mit Speichertakt läuft, soviel ich das verstanden habe. Wie jetzt jedoch ein mögliches Design mit HBM aussehen könnte? Wenn es Chiplets sind mit einem I/O DIE dann wird wohl dieser I/O DIE mit dem HBM angebunden werden, wie es ja in diversen Diagrammen zu Zen2 mit DDR schon zu sehen ist. Die Chiplets dürften ja weiterhin mittels Infinity Fabric an die I/O DIE angebunden sein.
...
Nachrüsten ist auch bei Otto Normalverbraucher relativ wichtig. Neben den typischen Apple Laptops und den Nachmachern der anderen Hersteller, gibt es immer noch relativ viele wo man zumindest den Ram und meist auch HDD Nachrüsten kann. Im Desktop Bereich kaufen zwar viele Fertig PC's wenn sie nicht mehr wollen, doch die wenigsten von Uns wurden nicht schon mal gefragt 'was kann ich tun damit Tetris flüssiger läuft?'
Naja Nachrüsten, Aufrüsten etc. ist mittlerweile eigentlich relativ selten geworden, auch bei dem Otto Normalo. Nur die wenisten sind Selbstschrauber oder wollen nachträglich was an Ihrem PC ändern. Die kaufen den wie er ist und gut isses. Und wenn er denn irgendwann mal zu langsam, oder alt ist kommt ein neuer her.
Wie Du schon ansprichst, bei vielen Geräten ist es ja bereits jetzt gar nicht mehr möglich irgendwas zu machen. In Zeiten von fix verbauten Akkus, verlöteten Arbeitsspeicher, CPU, und teils SSDs geht da nicht mehr viel. Laptops gehen immer mehr in die Richtung. Kleine Desktops, Cubes, NUCs, Thin Clients etc. oft auch schon.
Einziger Faktor der bei Otto Normalos oft noch ein Punkt ist ist der Massespeicher, wenn das Ding mal voll ist oder so.
...
PS: Allerdings frage ich mich, ob es in zukunft nicht vielleicht möglich sein wird, das man HBM auch in externe Pakete stecken kann um sie ähnlich Ramriegeln zu verwenden. Der Ram auf heutigen Grakas geht ja auch teils bis zu 512bit hoch und man schafft es ihn über das PCB an zu binden an den Chip. Ist dann nur mehr die Frage ob noch genug Leistungen auf das PCB passen und diese auch nicht zu lang werden. Und PCIe Slots, genauso wie Prozessor Sockel schaffen ja auch eine ganze menge Pins auf kleinster Fläche, was mit Sicherheit noch zu optimieren geht.
Wird es ziemlich sicher nicht geben. Dazu hat HBM zu viele Pins auf zu kleinen Platz. Auch bei Grafikkarten mit GDDR3/4/5 etc. und auch welche mit 512Bit wie Du sagst gibt es sowas nicht zum "Nachrüsten". Ich glaube die letzte Generation wo ich das gesehen habe war noch mit SD-RAM, SG-RAM, MD-RAM und EDO ... frühe PCI (non Express) Karten Zeit - Matrox, Tseng Labs, ATI Rage3D etc. und das noch im 1-2 stellgen MB Bereich. Seit dem eigentlich nur noch verlötet.
...
Merke ich bei mir mit meinen zwei GTX680. Für viele Spiele noch zu gebrauchen. Aber ich hab nur 2GB Vram. Könnte ich es aufrüsten auf 4GB wäre sehr viel geholfen, weil die GPU's selbst in sehr vielen Spielen mehr können und ich ehr Nachladeruckler als mangelnde Leistung habe. (Natürlich kein Vergleich zu einer 1080 und aktuelle Spiele aufgedreht) Und APU's kommen ganz langsam an die Leistung einer meiner Grakas ran.
Bringt leider nicht sonderlich viel bei der Klasse an Karten. Gab schon einige Tests (sogar aktuellere) wo eine GTX 680/770 mit 2 und 4GB getestet wurde, oder auch ne GTX 780 mit 3 und 6GB etc. In ganz seltenen Fällen war die Leistung ein paar % höher. Sonst eigentlich identisch. Aber ja - mit SLI kann es etwas mehr bringen.
... und heterogenes computing ist zu mindest im Forschungsbereich angekommen. Mit APIs wie Vulkan und einem Studio, welches entsprechend gut optimiert, ist es durchaus möglich, dass Teile des reservierten Speichers sowohl von der CPU als auch der GPU geladen werden können.
Alle Befehle und entsprechende Speichereinträge, die sowohl von der CPU als auch der GPU bearbeitet werden können, müssen nicht doppelt geladen werden. Wie viel Speicher das jetzt effektiv spart kann ich nicht abschätzen - und auch ob die standard AAA-Branche überhaupt willig ist diese Techniken zu nutzen. Es hat ja 6 Jahre gebraucht, bis Spiele mehrkernfähig geworden sind, nachdem der erste Dual-Core draußen war und selbst heute sind viele Spiele noch sehr single-core lastig. Entsprechend bin ich da recht pessimistisch.
Das ist das was ich oben angesprochen habe. Das APU/HSA Konzept benötigt halt nach wie vor Software Unterstützung. Ohne dieser lädt die CPU die Daten und schaufelt die dann in den VRAM. Wenn beides am selben physischen Speicher liegt (HBM) dann braucht das dementsprechend soviel Belegung wie wenn's zwei physich unterschiedliche Speicher wären. Je nach Engine / API ist es ja wenigstens schon so gut daß die Texturen nicht im Arbeitspeicher bleiben.
...
Aber: Wenn eine solche APU-Architektur in die Konsolen kommt, sind die Studios praktisch dazu gezwungen darauf zu optimieren und dann ist dies nur noch eine kleine Hürde das Teil auch auf dem PC unterzubringen. Ich mache mir keine Illusionen, dass diese Technologie alleine jemals freiwillig von den AAA-PC Studios adaptiert werden würde. Die gehen weiter den Weg des geringsten Widerstandes. Bei den Konsolen ist der Druck aber noch groß genug, dass dort entsprechend optimiert wird.
Ich hätte ja nie gedacht, dass die Konsolen mal den PC-Technologie-Fortschritt retten würden... aber die Hoffnung stirbt zu zuletzt.
Da müssen wir eher drauf hoffen daß die Spiele gut portiert werden denn am PC hast Du das Problem der unzähligen Hard- und Softwarekombinationen. Macht keinen Sinn ein optimal auf eine XBox One optimiertes Spiel genau so auf den PC zu bringen da dieser ja einen anderen Hardwareaufbau hat. Und selbst wenn die nächsten Konsolen APUs haben und es diese (wohl Custom Dinger) in ähnlicher Form auch auf dem Desktop PC geben wird daß genau dafür auf am PC optimiert wird.
Mensch... Es ist doch seit HBM1 klar das der Vorteil der Speed ist. Das generell Flaschenhälste im System die sind welche Daten langsam übertragen und nicht bearbeiten. Wechsel von HDD zu SSD. Von DDR1 zu DDR2. Von AGP zu PCIe. etc. Das braucht man in einem Hardware Forum nicht mehr erklären.
...
Nur bezweifle ich daß aktuell der Speichercontroller bei einem normalen PC ein Flaschenhals ist. Gibt doch genug Benchmarkvergleiche mit Dual und Quad Channel Systemen und so viel bringt das nicht als daß nicht jedes System nun auf einmal HBM benötigen würde. Für die GPU - ja - kein Thema - da macht sowas Sinn. Für die CPU? Noch (länger) nicht denke ich.