Variable Rate Shading: NVIDIAs Turing-Architektur lernt weitere Tricks

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
nvidia-rtx2080ti.jpg
Noch immer dürfen wir nicht über alle Details der Turing-Architektur sprechen. Doch neben zwei Leaks, die unter anderem das Blockdiagramm und die neue Cache-Hierarchie zur Turing-Architektur enthüllten, scheint NVIDIA selbst bereits einige Details veröffentlicht zu haben.Auf mehreren Seiten zu den neuen ... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
es scheint wie ein optisches mp3 zu funktionieren. das was einfach keinen oder wirklich kaum unterschied macht, wird weggelassen, steigert die effizienz.

es wird somit nicht die rohleistung gesteigert, sondern die effektive wirkleistung, dass das am ende rauskommt, und das ist nunmal eine effizienzsteigerung.

ich sehe nicht ein, warum das steigern der effizienz ein armutszeugniss darstellen soll, kannst du mir deinen gedankengang etwas näher erläutern?
 
Zuletzt bearbeitet:
Wenn ich damit die Framerate boosten könnte wäre das durchaus interessant, um 4K mit 100 FPS zu erreichen. Dann wäre das echt ein teures Jahr für mich... Aber eins in dem ich endlich in annehmbarer Auflösung und High-Hz zocken könnte.
 
das bekommen die leute anscheinend, die shader schaffen mehr endleistung.
 
eine kompression sehe ich da nicht - das wort im artikel ist schlecht gewählt. aber man sieht ja, dass es nötig ist, damit das gros der user auf dem wort und dessen assoziation in den köpfen aufbauend mit qualitätsvergleichen um die ecke kommt. kompression? schon mal gehört.. da wird was kleiner und schlechter.. :P

btw,
es ist keine kompression; es ist ein intelligenter umgang mit rechenlast pro frame.


(..)

mfg
tobi
 
Es ist vielleicht etwas ungünstig von Tricks hier zu sprechen, denn Nvidia sollte eine Mehrleistung nicht nur mit Tricks erreichen können.

Es gibt technisch eine Menge neue Ansätze, die sehr interessant anmuten und in Summe vermutlich ein gutes Plus an Leistung bringen werden, selten war ein Release so spannend wie diesmal. :)
 
Dann hast du eine andere Auffassung von Effizienzsteigerung als ich denn im Gegensatz zu mp3 wo ich weiterhin die Option habe auf unkomprimierte Daten zurückzugreifen, entfällt das hier.
Man kann übertrieben sagen es ist "GTX (Pascal) II" mit 10% mehr FPS bei 10% schlechterer Bildqualität also eher ein Kompromiss. Von H.264 auf H.265 ist für mich eine Effizienzsteigerung.

Man weiß noch nichts, aber schon mal aufregen :)
 
Es ist vielleicht etwas ungünstig von Tricks hier zu sprechen, denn Nvidia sollte eine Mehrleistung nicht nur mit Tricks erreichen können.

Es gibt technisch eine Menge neue Ansätze, die sehr interessant anmuten und in Summe vermutlich ein gutes Plus an Leistung bringen werden, selten war ein Release so spannend wie diesmal. :)


der "trick" ist AI respektive deren einsatz auch ohne sie direkt per engine anzusprechen. ein ausnutzen der (jetzt; im grunde seit volta) vorhandenen möglichkeiten zur steigerung der framerate. völlig legitim für mein verständnis und mehr technische evolution als ein trick. ein trick war es bestimmte texturen, die in ungünstigen winkeln liegen, nicht voll anisotrop zu filtern oder intern mit 16bit farbtiefe -bestenfalls mit 24bit- zu rechnen, aber das haben wir schon recht lange hinter uns.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ist dieses Verfahren dann nicht auch (theoretisch) mit vergangenen Grafikkartengenerationen verwendbar?
 
Erinnert an 'foveated rendering' aus dem VR Bereich, wo Bereiche des Bildes die gerade von der Fovea (Punkt des schärfsten Sehens) mit mehr Details/Auflösung berechnet werden als umgebende Bereiche (die das Auge eh nicht scharf sieht).
 
Erinnert mich etwas an die vergangenen Tricksereien bei der anisotropen Filterung und wenn solche Kompressionsverfahren ein Grund dafür sind warum der neu Chip schneller abreitet
dann ist das eher ein Armutszeugnis weil ja die tatsächliche Leistung gar nicht gesteigert wurde. Klar kann man es Optimierung nennen aber nur wenn wirklich nicht sichtbar schlechter.

Da hast du sowas von recht. Das wurde damals 1999/2000er (PowerVR z.B.) dazu genutzt, um mehr Performance zu erzeugen. Bei der Dreamcast war das sogar sehr gut umgesetzt.
 
Vor dem verteufeln sollte man doch erst mal Vergleichsbilder abwarten bzw. mehr Infos dazu.

Außerdem finde ich es witzig, auf der einen Seite wird RT schon fast schlecht gemacht, auf der anderen Seite reagiert man aber sofort giftig, wenn die Grafik schlechter sein könnte. Wollt ihr nun bessere Grafik oder nicht? Zumal diese Tricksereien vermutlich nicht mal richtig auffallen und man wieder vergrößerte Pixel zeigen muss, damit man den Unterschied richtig erkennt.

Viel interessanter fände ich aber, wenn die Grafik zum Bildrand hin mit geringerer Auflösung berechnet würde, UI Elemente ausgenommen. Den Rand hat man sowieso so gut wie nie direkt im Blick. Wobei richtig cool würde ich es ja finden, wenn man da mit einem EyeTracking Hersteller wie Tobii zusammen arbeiten würde, weil foveated rendering würde genauso am Monitor funktionieren, nur bräuchte man dazu eben einen EyeTracker (ich hab einen von Tobii). Ginge das direkt über die Grafikkarte, würde sich das auch eher durchsetzen, weil dann jedes neue Spiel das unterstützen würde, so wird das eher ein Traum bleiben, leider, weil dann muss es jeder Spieleentwickler selbst unterstützen. Damit ließe sich eine Menge Grafikkarten Leistung sparen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh