Lovelace Smalltalk Thread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wer von euch weint sich denn da bei Videocards wieder über die Preise aus. :ROFLMAO:
 
Der UE5 Benchmark auf Steam hatte bei meiner 3080Ti die 12 GB Voll gemacht bei einer 3090 sollen ca 18 GB gefüllt werden und dort wird nur eine ganz kleine Insel gerendert.
Naja, eigentlich sollte der VRAM in naher Zukunft eh relativ irrelevant werden, sobald DirectStorage einzug erhält. Wenn Du ad-hoc schnell genug Texturen direkt von der SSD in die GPU laden kannst entfällt die Notwendigkeit unmengen an VRAM vorzuhalten. Dass das prinzipiell wunderbar funktioniert kann man bei der PS5 und XBox-X sehen.
 
Glaube das Hauptproblem von Ampere ist/war einfach nur, dass die ganzen Karten alle so leicht unter dem Sweetspot an VRAM für aktuell "alles mit scharf" ausgestattet waren.

Die 3070 läuft bei manchen in 1440p voll bei sowas wie Forza.
Die 3080 läuft selten in UWQHD und gerne mal in 4k voll.
3080/12 und 3080ti können in 4k Probleme bekommen.

Wenn RTX 40 aber mit den Zahlen an VRAM kommen die angekündigt sind seh ich das Problem zukünftig sowieso nicht. Die allermeisten Spiele pendeln sich aktuell rund um 10-12GB max (in 4k wohlgemerkt) ein, alles darüber ist "Fringe-Anwendung" und heavy modding. Es wäre halt nett gewesen nicht gleich zu einer "Hybrid-Workstation"-Karte wie der 3090 greifen zu müssen um solche Sachen abfrühstücken zu können. Da hätte eine 16GB Flagschiff-Karte die meisten Probleme erledigt und die 3080ti@16 wäre auch vermutlich viel weniger als "unrunde" Karte verschrien gewesen.
 
Naja, eigentlich sollte der VRAM in naher Zukunft eh relativ irrelevant werden, sobald DirectStorage einzug erhält. Wenn Du ad-hoc schnell genug Texturen direkt von der SSD in die GPU laden kannst entfällt die Notwendigkeit unmengen an VRAM vorzuhalten. Dass das prinzipiell wunderbar funktioniert kann man bei der PS5 und XBox-X sehen.
Kann das denn per Treiber aktiviert werden, oder muss dafür auch die Hardware zur Verfügung stehen? Bei letzterem wäre dann ja auch bei Lovelace trotzdem noch genug VRAM notwendig. Aber selbst wenn DS kommt, ist man mit 24GB nie an der falschen Adresse.

Auf jedenfall wird man dann sicherlich noch bessere Kühlungen für die SSDs benötigen. Aber dafür werden die Grakas kühler.
 
Ich glaube man benötigt eine NVMe und Windows 11 damit das funktioniert. Sehe daher nicht, dass dies in naher Zukunft eine große Rolle spielen wird am PC, da WIndows 11 ja anscheinend nur schleppend angelaufen ist.
 
Kann das denn per Treiber aktiviert werden, oder muss dafür auch die Hardware zur Verfügung stehen?
Die Hardware und Software muss dafür stimmen. Die Implementation von DirectStorage bei NVidia findet sich unter dem Namen "RTX IO" und wird mWn. erst ab den 30'er Karten unterstützt. Und die Spiele müssen natürlich auch das Streaming direkt von der SSD explizit implementieren.
 
Gute Info, danke. Aber dann darf man sich mit einer 4000er Karte sicherlich gerne noch mit ausreichend Speicher eindecken, so richtig losgehen wird es damit wohl in den nächsten beiden Jahren nicht.
 
Ziemlicher irrglaube das DirectSorage oder RTX IO plötzlich den Framebuffer (VRAM) komplett unrelevant macht. Ein viel schnellerer VRAM (im Vergleich zur SSD) wird auch weiter durch nichts zu ersetzen sein. Der große Vorteil liegt eher darin, dass der CPU Overhead durch den direkten SSD-GPU Datenaustausch deutlich reduziert wird.
 
Die Hardware und Software muss dafür stimmen. Die Implementation von DirectStorage bei NVidia findet sich unter dem Namen "RTX IO" und wird mWn. erst ab den 30'er Karten unterstützt. Und die Spiele müssen natürlich auch das Streaming direkt von der SSD explizit implementieren.
RTX IO sollte es für alle RTX Karten geben, sprich auch schon für Ampere. Aber wie immer müssen die APIs auch von den Entwicklern aktiv eingebunden werden. Wie immer mit so Technologien wird es Jahre dauern, wenn überhaupt, dass das zu großen Teilen adaptiert wird.
 
Ziemlicher irrglaube das DirectSorage oder RTX IO plötzlich den Framebuffer (VRAM) komplett unrelevant macht. Ein viel schnellerer VRAM (im Vergleich zur SSD) wird auch weiter durch nichts zu ersetzen sein.
Jaein, ich sagte nicht, dass er quasi komplett irrelevant wird, aber er muss nicht mehr massiv dimensioniert sein. Der größte Speicherfresser sind hochaufgelöste Texturen. Wenn die Texturen und deren Mipmaps schnell genug und ohne merkliche Verzögerung direkt aus dem Storage geladen werden können, braucht man einfach weniger VRAM in dem Bereich. Klar ist VRAM haben oft besser als brauchen, nur wird viel VRAM aktuell quasi als pre-cache verwendet um nachlade-stuttering/pop-in zu vermeiden. Außerdem ist schneller VRAM teuer und erzeugt viel Abwärme, je weniger man wirklich "braucht" umso besser :)
 
Naja und ob dann die aktuellen Kühler der SSDs ausreichen werden, oder was das mit der Laufleistung macht... am Ende muss man immer einen Tod sterben und da hab ich zumindest vorerst lieber ausreichend VRAM. :)
 
Um den VRAM wird schon ewig das selbe unnötige Geschiss wie um die CPU Kerne gemacht. Hauptsache viel von allem, ganz viel Mimimi und dann fliegt die Hardware eh weg bevor es gebraucht wird.
 
Jaein, ich sagte nicht, dass er quasi komplett irrelevant wird, aber er muss nicht mehr massiv dimensioniert sein. Der größte Speicherfresser sind hochaufgelöste Texturen. Wenn die Texturen und deren Mipmaps schnell genug und ohne merkliche Verzögerung direkt aus dem Storage geladen werden können, braucht man einfach weniger VRAM in dem Bereich. Klar ist VRAM haben oft besser als brauchen, nur wird viel VRAM aktuell quasi als pre-cache verwendet um nachlade-stuttering/pop-in zu vermeiden. Außerdem ist schneller VRAM teuer und erzeugt viel Abwärme, je weniger man wirklich "braucht" umso besser :)
Ich lass mich gerne in der Praxis vom Gegenteil überzeugen aber ich bin fest davon überzeugt, dass die Benefits sich sehr stark in Grenzen halten, insbesondere beim VRAM. Die Technologie hat definitiv eine Daseinsberechtigung aber letztendlich muss sie dann auch noch sauber in den Texture Streaming Engines der Spiele umgesetzt werden. Wir sehen sehr oft, wie schlecht da schon Heute optimiert wird. Noch mehr Aufwand wird die Sache nicht besser machen.

Und allgemein, wir sehen aktuell Grafikkarten die knapp 1TB/s Speicherbandbreite haben und trotzdem skaliert die Performance mit steigender Bandbreite noch immer. Wenn ich jetzt mit einer 4.0 SSD 14GB/s an unkomprimierten Daten direkt in den VRAM übertragen kann, ist das im Verhältnis außerordentlich langsam. Um da im Bedarf in "Echtzeit" Daten von der SSD übertragen zu müssen um VRAM einsparen zu können, wäre das viel zu langsam. Es wird hier und da helfen den Pre-Buffer zu füllen aber hauptsächlich nur, weil die Daten nicht erst über die CPU zum Arbeitsspeicher und dann erst weiter zur GPU müssen. Die Vorteile liegen wie ich daher bereits sagte im wesentlich bei der CPU Utilization. Die Effekte werden sein, Levels laden dadurch schneller etc aber VRAM wird nicht eingespart.
 
Um den VRAM wird schon ewig das selbe unnötige Geschiss wie um die CPU Kerne gemacht. Hauptsache viel von allem, ganz viel Mimimi und dann fliegt die Hardware eh weg bevor es gebraucht wird.
Für mich war 4K hier der Game Changer. Insbesondere in Ubisoft Titeln ist es da sehr einfach, mehr als 10GB voll zu machen.

Und es war noch nie "Geschiss". Zu wenig Speicher bemerkst Du immer sofort und zwar massiv. Klar fragt man sich warum eine 3060 12GB bekommt und eine 3080 nur 10GB. Also gerade auf den kleineren 1080p Karten ist das sicherlich manchmal viel Lärm um nichts, zugegeben. Ändert aber nix an der Tatsache, dass Du einfach genug brauchst, egal auf welcher Auflösung.
 
Und allgemein, wir sehen aktuell Grafikkarten die knapp 1TB/s Speicherbandbreite haben und trotzdem skaliert die Performance mit steigender Bandbreite noch immer.
Das ist ein vielschichtiges Thema. Zum einen: Wenn Du viel Speicher hast willst/brauchst Du natürlich auch mehr Bandbreite, weil wenn Du nun 16 GB anstatt 8 GB bei selber Bandbreite hast, brauchst Du stark vereinfacht auch doppelt so viel Zeit um einmal auf die kompletten 16 GB zuzugreifen. Zum anderen: Bei mehr VRAM hast Du oft auch einen viel breiteren Bus, was u.U. die Latenzen verringert, weil Du weniger Daten seriell abfragen musst. 4x16MB über einen 32bit Bus parallel geht schneller als 1x64MB über einen 32bit Bus seriell. Nun kann man aber auch nicht einfach Speichermenge X beliebig schnell anbinden. Man hat Hierachien von unterschiedlich schnellen Speichern und die Kunst liegt darin, die GPU/CPU nicht leer laufen zu lassen und just-in-time die Daten parat zu haben, die benötigt werden. Das ist auch ein Grund warum der InfinityCache und X3D-Cache von AMD so einen Boost bringt, weil er dabei hilft die langsameren Speicherzugriffe zu Überbrücken.
Um da im Bedarf in "Echtzeit" Daten von der SSD übertragen zu müssen um VRAM einsparen zu können, wäre das viel zu langsam.
Kommt stark auf die Implementierung an, es muss nicht zwingen zu langsam sein. Simpel/Bruteforce ist: Alle nötigen Ressourcen (Level, Geometrie, Texturen...) werden vorab geladen und die ganze Zeit im Speicher gehalten. Komplex ist: Das was ich brauche und neuer Kram kommt ad-hoc nach. Starte mal BF4 und siehe wie langsam die Texturen in höheren Auflösungen langsam reingeladen werden, selbst auf einer SSD. Sowas ist unschön, also lädt man so viel wie möglich vorab in den VRAM und viel davon auf gut Glück. Wenn die GPU nun quasi einen Durchgriff auf eine schnelle PCIe 4.0 SSD hat, ohne viel Overhead & Latenzen durch die CPU und das OS, dann kann man viel spezifischer ohne visuelle glitches Nachladen. Und ein Dutzend 4k oder gar 8k Texturen die ich mir im VRAM sparen kann verringern halt merklich den Speicherbedarf.

Wie auch immer. Es gibt bei VRAM mMn. einen Sweet-Spot und eine Vernunftsgrenze, je nach Anwendungsfall. Ja ich kann 10 GB, 12 GB, 16 GB und auch 24 GB irgendwie voll bekommen. Macht das immer Sinn? Kommt drauf an, auf einer Workstation mit sehr komplexen CAD-Szenen sicherlich. Beim Gaming? Ich würde behaupten oft eher nicht, da ich die Geometrie nicht unendlich aufblasen kann ohne dass irgendwann die GPU-Performance massiv leidet und High-Res-Texturen ohne Ende sind idR. auch Käse. Denn selbst wenn ich einen 8K Viewport habe habe ich visuell wenig davon, wenn auf einem 500x500 Pixel-Ausschnit davon ein Objekt mit einer 8K Textur (+Normal, +Specular-Map) gerendert wird.
 
Zuletzt bearbeitet:
Wenn die GPU nun quasi einen Durchgriff auf eine schnelle PCIe 4.0 SSD hat, ohne viel Overhead & Latenzen durch die CPU und das OS, dann kann man viel spezifischer ohne visuelle glitches Nachladen. Und ein Dutzend 4k oder gar 8k Texturen die ich mir im VRAM sparen kann verringern halt merklich den Speicherbedarf.
Du hast da einen denkfehler. Die GPU hat keinen direkten Durchgriff auf die SSD. Die Daten mit der die GPU arbeiten muss, müssen auch bei Direct Storage vorher im VRAM abgelegt werden. Ich habe mit dem was du beschreibst in erster Linie ein effizienteres Pre-Buffer System geschaffen, insbesondere weil die Daten nicht vorher erst von CPU und RAM unkromprimiert werden müssen. VRAM spart man dadurch trotzdem nicht.

Übrigens sagt das auch nVidia selbst: https://www.pcgameshardware.de/Nvid...mierung-Overhead-erklaert-neue-Infos-1357550/
Die Annahme, dass RTX IO die SSD als VRAM nutzt, sei laut Nvidia eine falsche. Es sei tatsächlich so, dass durch RTX IO Daten mit einer sehr viel höheren Geschwindigkeit ausgelesen werden können und die GPU die Daten in einem komprimierten Format abspeichern, lesen und auch selbst dekomprimieren und nutzen kann. "Die SSD kann den Frame-Buffer-Speicher nicht ersetzen, aber die Daten können sehr viel schneller von der SSD zur GPU und ihrem Speicher gelangen. Mit wesentlich weniger CPU-Overhead."
Was du im letzten Absatz beschreibst, hat nichts mit DirectStorage zu tun. Das ist auch heute Aufgabe des Memory Management der Engine. Wenn die ineffizient arbeitet, ändert auch DS nichts daran oder löst das Problem.
 
@cHio Ich glaube da liegt ein Misverständnis vor. Ich schrieb nicht, dass die GPU die SSD quasi als "VRAM"-Erweiterung nutzt. Wie Du richtig schriebst, kann die GPU mit DirectStorage quasi direkt von der SSD lesen, ohne dass die CPU da noch viel tun muss. Dadurch, dass das Nachladen von der SSD nun ohne große Umwege geht wird der Pfad für ad-hoc Streaming von Ressourcen einfach viel praktikabler, wodurch man weniger "auf Halde" in den VRAM schieben muss sondern nur die wirklich benötigten, da alles weitere bei Bedarf schnell genug nachgeladen werden kann.
 
Am Ende wird sowieso alles in einem Chip untergebracht werden, so wie bei Apple. Die Kommunikation wie sie zur Zeit ist, CPU,RAM,GPU,SSD usw. ist alles nicht das Optimale. Zu lange Wege zu viele Bottlenecks.
Was dann aber auch heißt, dass irgendwann mal das Basteln gar nicht mehr möglich sein wird. Alles verlötet, signiert und haste nicht gesehen.

Aber ist noch sehr weit weg, wenn man sieht wieviel Watt die Dinger alle ziehen.
 

Würde ich mir für die 4080 wünschen....aber da ja erstmal die 4090 kommt...bleibt nur zu hoffen, dass der Preis moderat sein wird. Das ist in meinen Augen eine wirklich solide Strategie, um möglichst viele Kunden dazu zu verführen die 4090 zu kaufen, weil sie nicht auf die 4080 warten wollen. Klappt aber nur, wenn Preis und Verfügbarkeit der 4090 funktionieren. Wenn der DB bei der 4090 dann immer noch höher ist, wie bei der 4080, dann versuche ich halt dort den meisten Absatz zu generieren. Vielleicht kann ich ja als NVIDIA schon überblicken, dass ich eine wirklich tolle Chipausbeute für den 4090 haben werde.
 
@Goldeneye007
Dazu kommt aber auch noch das die spekulierten Specks eine Große Performance Lücke zwischen 4080 und 4090 zeigen !
Für mich sieht es aus als wen da noch ne 4080Ti mit 320 Bit kommt und 20 GB .
Mit dem großen Cache ist das jetzt auch kein Problem mit 320 Bit!
Ich denke mal das lässt NV sich erstmal offen um auf die AMD Produkte zu reagieren um noch Justieren zu können .
Aktuell sagt man der AMD ja um di 12*** shader bei einem Boost bis 3GHZ nach was da zu führen könnte das man die 4080 schlägt aber an der 4090 scheitert wen den die spekulierten Daten stimmen den zuvor waren auch mal 15*** shader die Raum standen.
 
Zuletzt bearbeitet:
Damit man möglichst lange Ruhe hat, sollte man die 4090 zu Beginn kaufen (vorausgesetzt man hat das Geld)....aber es müssen wirklich der Preis und die Verfügbarkeit zu Beginn stimmen.
Sonst befindet man sich vielleicht Monate im Wartezyklus bis zu einer 4080ti. Weil die 4080 ja auch zeitnah nach der 4090 kommen soll.
Eine solide Strategie schein mir auch z.B. zu sein den Zeitraum von 3080ti bis 4080ti als eigenen Zyklus zu betrachten. Aber es ist schon verführerisch, wenn man dann die 4090 und die 4080 an sich vorbeiziehen lassen muss, bis es irgendwann dann mal die 4080ti geben wird.
Ich hätte von der 3080 mit 10GB zu Beginn bis zu der 3080ti mit 12GB niemals durchgehalten. Vom 17.Sep 2020 bis zum 3.Juni 2021.
 
Kommt darauf an, was man schon im System hat. Mit einer 3090 würde ich erst aufrüsten, wenn ein Spiel mal mehr braucht oder man sich n 4K Monitor zulegt.
 
Wenn die 4090 zu teuer wird dann schau ich mir das Spielzeug von AMD an !
 
Kommt darauf an, was man schon im System hat. Mit einer 3090 würde ich erst aufrüsten, wenn ein Spiel mal mehr braucht oder man sich n 4K Monitor zulegt.
Die Zielgruppe für 3090 & Co. ist aber die 'mir ist Geld scheißegal und ich will einfach das neueste und beste'-Fraktion. Da werden sich viele dann trotzdem eine 4090 kaufen. Darf man ja auch gerne so machen. Durch solche Käufer werden immerhin die technischen Fortschritte gefördert. Mir soll es also recht sein :)
 
Solange die 4090 nicht 2000€ kostet, werde ich sie mir gönnen.
Wen man sieht wo die 3090Ti steht kann man denke ich copypast machen!
Sehe das zumindest als Minimum an !
So wird es keine Skalper geben und den Preis senken können die später immer noch.
Immerhin werden sie zu Release komplett Konkurrenzlos sein und mit Abstand die Weltschnellste Grafikkarte anbieten!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh