Neural Texture Compression: Neues Kompressionsverfahren soll für mehr Details sorgen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.964
NVIDIA hat ein Papier bzw. Forschungsergebnisse veröffentlicht, die ein neues Kompressionsverfahren beschreiben, welches besonders für Texturen und Materialoberfläche geeignet sein soll. Das dazugehörige PDF beschreibt ausführliche, welche Funktionsweise der Neural Texture Compression (NTC) verfolgt und welche Vor- und Nachteile zu erwarten sind. Auf der Siggraph 2023 vom 6. bis 10. August will NVIDIA die Technik in einer dann für Entwickler nutzbaren Form vorstellen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich finde es lustig. "Wir haben ein neues kompressionsverfahren, es komprimiert *weniger* und dauert länger, aber der boden sieh besser aus"
 
Ich finde es lustig. "Wir haben ein neues kompressionsverfahren, es komprimiert *weniger* und dauert länger, aber der boden sieh besser aus"
Ja, das Vergleichsbild ist für die Katz. Entweder gleiche Bildgröße, gleiche Qualität oder gleiche Geschwindigkeit voraussetzen (im Idealfall sogar zwei Größen gleich lassen, hier aber kaum zu realisieren). Wenn man JEDEN Parameter bei einem Vergleich gleichzeitig ändert, ist dieser einfach unbrauchbar.
 
wird dann 2025 als DLSS 4 für die RTX 5000 vermarktet, UVP 899 für RTX 5070 und der Hoffnung auf mehr VRAM und mehr Bandbreite , weil ja

es komprimiert *weniger*
 
KI und neuronale Netze sind sehr beliebt bei jedem Vertriebler.

Ich möchte nicht das meine Hardware einfach Details dazu erfindet die nicht da sind.
Das als Feature zu verkaufen ist merkwürdig.

Bin ich da der einzige?

Wenn die Hardware zu langsam ist, die Bandbreite nicht stimmt haben früher die Leute nicht gekauft.
Heute? Zahlen sie extra dafür.
 
KI und neuronale Netze sind sehr beliebt bei jedem Vertriebler.

Ich möchte nicht das meine Hardware einfach Details dazu erfindet die nicht da sind.
Das als Feature zu verkaufen ist merkwürdig.

Bin ich da der einzige?

Wenn die Hardware zu langsam ist, die Bandbreite nicht stimmt haben früher die Leute nicht gekauft.
Heute? Zahlen sie extra dafür.
Naja der einzige vielleicht nicht, aber ich sehe hier kein Problem. Und so geht es wohl vielen.

Wenn die Software bzw. KI wirklich dazu beitragen kann, dass schwächere Hardware Games besser betreiben kann, warum nicht.

Und alle die behaupten, sie können beim Zocken mit DLSS/FG/whatever überall Unterschiede zu native erkennen, dürfen halt nicht davon ausgehen, dass das allen so geht. Überall wo ich DLSS getestet habe, konnte ich da höchstens in Standbildern schlechter BQ wahrnehmen (Telegraphenleitungen etc), was aber Null dem Spielerlebnis abträglich war. DLDSR fand ich in älteren Games durchaus hilfreich.
 
KI und neuronale Netze sind sehr beliebt bei jedem Vertriebler.

Ich möchte nicht das meine Hardware einfach Details dazu erfindet die nicht da sind.
Das als Feature zu verkaufen ist merkwürdig.

Bin ich da der einzige?

Wenn die Hardware zu langsam ist, die Bandbreite nicht stimmt haben früher die Leute nicht gekauft.
Heute? Zahlen sie extra dafür.

Im Grunde holt die Technik nur die Details zurück die mit der Kamera schlechter aufgenommen wurden.

Sehe die Technik in 5 Jahren auch in Kameras, weil die Sensortechnik allein irgendwann am Limit ist.

 
@King Bill, das gibt es schon... allerdings richtig schlecht:


Sofern ich den AI Kram abschalten kann, ists in Ordnung. Aber mehr dafür zahlen? Ne, dann verkauft es mir ohne.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh