schnitzel1979
Profi
- Mitglied seit
- 10.06.2020
- Beiträge
- 431
hoffe, dass dann die Termine eingehalten werden, aber da hilft wohl nur abwarten
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Naja, eigentlich sollte der VRAM in naher Zukunft eh relativ irrelevant werden, sobald DirectStorage einzug erhält. Wenn Du ad-hoc schnell genug Texturen direkt von der SSD in die GPU laden kannst entfällt die Notwendigkeit unmengen an VRAM vorzuhalten. Dass das prinzipiell wunderbar funktioniert kann man bei der PS5 und XBox-X sehen.Der UE5 Benchmark auf Steam hatte bei meiner 3080Ti die 12 GB Voll gemacht bei einer 3090 sollen ca 18 GB gefüllt werden und dort wird nur eine ganz kleine Insel gerendert.
Kann das denn per Treiber aktiviert werden, oder muss dafür auch die Hardware zur Verfügung stehen? Bei letzterem wäre dann ja auch bei Lovelace trotzdem noch genug VRAM notwendig. Aber selbst wenn DS kommt, ist man mit 24GB nie an der falschen Adresse.Naja, eigentlich sollte der VRAM in naher Zukunft eh relativ irrelevant werden, sobald DirectStorage einzug erhält. Wenn Du ad-hoc schnell genug Texturen direkt von der SSD in die GPU laden kannst entfällt die Notwendigkeit unmengen an VRAM vorzuhalten. Dass das prinzipiell wunderbar funktioniert kann man bei der PS5 und XBox-X sehen.
Die Hardware und Software muss dafür stimmen. Die Implementation von DirectStorage bei NVidia findet sich unter dem Namen "RTX IO" und wird mWn. erst ab den 30'er Karten unterstützt. Und die Spiele müssen natürlich auch das Streaming direkt von der SSD explizit implementieren.Kann das denn per Treiber aktiviert werden, oder muss dafür auch die Hardware zur Verfügung stehen?
RTX IO sollte es für alle RTX Karten geben, sprich auch schon für Ampere. Aber wie immer müssen die APIs auch von den Entwicklern aktiv eingebunden werden. Wie immer mit so Technologien wird es Jahre dauern, wenn überhaupt, dass das zu großen Teilen adaptiert wird.Die Hardware und Software muss dafür stimmen. Die Implementation von DirectStorage bei NVidia findet sich unter dem Namen "RTX IO" und wird mWn. erst ab den 30'er Karten unterstützt. Und die Spiele müssen natürlich auch das Streaming direkt von der SSD explizit implementieren.
Jaein, ich sagte nicht, dass er quasi komplett irrelevant wird, aber er muss nicht mehr massiv dimensioniert sein. Der größte Speicherfresser sind hochaufgelöste Texturen. Wenn die Texturen und deren Mipmaps schnell genug und ohne merkliche Verzögerung direkt aus dem Storage geladen werden können, braucht man einfach weniger VRAM in dem Bereich. Klar ist VRAM haben oft besser als brauchen, nur wird viel VRAM aktuell quasi als pre-cache verwendet um nachlade-stuttering/pop-in zu vermeiden. Außerdem ist schneller VRAM teuer und erzeugt viel Abwärme, je weniger man wirklich "braucht" umso besserZiemlicher irrglaube das DirectSorage oder RTX IO plötzlich den Framebuffer (VRAM) komplett unrelevant macht. Ein viel schnellerer VRAM (im Vergleich zur SSD) wird auch weiter durch nichts zu ersetzen sein.
Ich lass mich gerne in der Praxis vom Gegenteil überzeugen aber ich bin fest davon überzeugt, dass die Benefits sich sehr stark in Grenzen halten, insbesondere beim VRAM. Die Technologie hat definitiv eine Daseinsberechtigung aber letztendlich muss sie dann auch noch sauber in den Texture Streaming Engines der Spiele umgesetzt werden. Wir sehen sehr oft, wie schlecht da schon Heute optimiert wird. Noch mehr Aufwand wird die Sache nicht besser machen.Jaein, ich sagte nicht, dass er quasi komplett irrelevant wird, aber er muss nicht mehr massiv dimensioniert sein. Der größte Speicherfresser sind hochaufgelöste Texturen. Wenn die Texturen und deren Mipmaps schnell genug und ohne merkliche Verzögerung direkt aus dem Storage geladen werden können, braucht man einfach weniger VRAM in dem Bereich. Klar ist VRAM haben oft besser als brauchen, nur wird viel VRAM aktuell quasi als pre-cache verwendet um nachlade-stuttering/pop-in zu vermeiden. Außerdem ist schneller VRAM teuer und erzeugt viel Abwärme, je weniger man wirklich "braucht" umso besser
Für mich war 4K hier der Game Changer. Insbesondere in Ubisoft Titeln ist es da sehr einfach, mehr als 10GB voll zu machen.Um den VRAM wird schon ewig das selbe unnötige Geschiss wie um die CPU Kerne gemacht. Hauptsache viel von allem, ganz viel Mimimi und dann fliegt die Hardware eh weg bevor es gebraucht wird.
Das ist ein vielschichtiges Thema. Zum einen: Wenn Du viel Speicher hast willst/brauchst Du natürlich auch mehr Bandbreite, weil wenn Du nun 16 GB anstatt 8 GB bei selber Bandbreite hast, brauchst Du stark vereinfacht auch doppelt so viel Zeit um einmal auf die kompletten 16 GB zuzugreifen. Zum anderen: Bei mehr VRAM hast Du oft auch einen viel breiteren Bus, was u.U. die Latenzen verringert, weil Du weniger Daten seriell abfragen musst. 4x16MB über einen 32bit Bus parallel geht schneller als 1x64MB über einen 32bit Bus seriell. Nun kann man aber auch nicht einfach Speichermenge X beliebig schnell anbinden. Man hat Hierachien von unterschiedlich schnellen Speichern und die Kunst liegt darin, die GPU/CPU nicht leer laufen zu lassen und just-in-time die Daten parat zu haben, die benötigt werden. Das ist auch ein Grund warum der InfinityCache und X3D-Cache von AMD so einen Boost bringt, weil er dabei hilft die langsameren Speicherzugriffe zu Überbrücken.Und allgemein, wir sehen aktuell Grafikkarten die knapp 1TB/s Speicherbandbreite haben und trotzdem skaliert die Performance mit steigender Bandbreite noch immer.
Kommt stark auf die Implementierung an, es muss nicht zwingen zu langsam sein. Simpel/Bruteforce ist: Alle nötigen Ressourcen (Level, Geometrie, Texturen...) werden vorab geladen und die ganze Zeit im Speicher gehalten. Komplex ist: Das was ich brauche und neuer Kram kommt ad-hoc nach. Starte mal BF4 und siehe wie langsam die Texturen in höheren Auflösungen langsam reingeladen werden, selbst auf einer SSD. Sowas ist unschön, also lädt man so viel wie möglich vorab in den VRAM und viel davon auf gut Glück. Wenn die GPU nun quasi einen Durchgriff auf eine schnelle PCIe 4.0 SSD hat, ohne viel Overhead & Latenzen durch die CPU und das OS, dann kann man viel spezifischer ohne visuelle glitches Nachladen. Und ein Dutzend 4k oder gar 8k Texturen die ich mir im VRAM sparen kann verringern halt merklich den Speicherbedarf.Um da im Bedarf in "Echtzeit" Daten von der SSD übertragen zu müssen um VRAM einsparen zu können, wäre das viel zu langsam.
Du hast da einen denkfehler. Die GPU hat keinen direkten Durchgriff auf die SSD. Die Daten mit der die GPU arbeiten muss, müssen auch bei Direct Storage vorher im VRAM abgelegt werden. Ich habe mit dem was du beschreibst in erster Linie ein effizienteres Pre-Buffer System geschaffen, insbesondere weil die Daten nicht vorher erst von CPU und RAM unkromprimiert werden müssen. VRAM spart man dadurch trotzdem nicht.Wenn die GPU nun quasi einen Durchgriff auf eine schnelle PCIe 4.0 SSD hat, ohne viel Overhead & Latenzen durch die CPU und das OS, dann kann man viel spezifischer ohne visuelle glitches Nachladen. Und ein Dutzend 4k oder gar 8k Texturen die ich mir im VRAM sparen kann verringern halt merklich den Speicherbedarf.
Was du im letzten Absatz beschreibst, hat nichts mit DirectStorage zu tun. Das ist auch heute Aufgabe des Memory Management der Engine. Wenn die ineffizient arbeitet, ändert auch DS nichts daran oder löst das Problem.Die Annahme, dass RTX IO die SSD als VRAM nutzt, sei laut Nvidia eine falsche. Es sei tatsächlich so, dass durch RTX IO Daten mit einer sehr viel höheren Geschwindigkeit ausgelesen werden können und die GPU die Daten in einem komprimierten Format abspeichern, lesen und auch selbst dekomprimieren und nutzen kann. "Die SSD kann den Frame-Buffer-Speicher nicht ersetzen, aber die Daten können sehr viel schneller von der SSD zur GPU und ihrem Speicher gelangen. Mit wesentlich weniger CPU-Overhead."
Genau da gehen unsere Ansichten auseinander.wodurch man weniger "auf Halde" in den VRAM schieben muss sondern nur die wirklich benötigten, da alles weitere bei Bedarf schnell genug nachgeladen werden kann.
Dann lassen wir uns überraschen, wohin die Reise geht 😉Genau da gehen unsere Ansichten auseinander.
3080ti@16
Die Zielgruppe für 3090 & Co. ist aber die 'mir ist Geld scheißegal und ich will einfach das neueste und beste'-Fraktion. Da werden sich viele dann trotzdem eine 4090 kaufen. Darf man ja auch gerne so machen. Durch solche Käufer werden immerhin die technischen Fortschritte gefördert. Mir soll es also recht seinKommt darauf an, was man schon im System hat. Mit einer 3090 würde ich erst aufrüsten, wenn ein Spiel mal mehr braucht oder man sich n 4K Monitor zulegt.
Wen man sieht wo die 3090Ti steht kann man denke ich copypast machen!Solange die 4090 nicht 2000€ kostet, werde ich sie mir gönnen.