DLSS später abwärtskompatibel?

^^ Fanboy Gelaber. Und tschüss.
Ich hab selbst eine Nvidia Karte.
Schau dir wie man die 3090 Besitzer/Käufer hat fallen lassen wie eine heiße Kartoffel.
Das hat nichts mit Fanboy gelaber zu tun. Ist trotzdem kein guter Kundenumgang.
Die Karten sind gerade mal 2 Jahre alt schon gibt es keine Feature Updates mehr, nicht mal für die 3090.
Wäre das gerechtfertig wenn Nvidia in 2 Jahren was neues raus Bringt und die 4090 einfach nichts mehr bekommt außer essentielle Updates?
Edit: wir reden hier nichts von technisch unmöglichem, sondern von "Kundenservice".
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Frag mich ob du eigentlich überhaupt liest/schaust was du linkst, da steht eindeutig das hier drin:
"Laut Catanzaro bietet DLSS 3 für Besitzer älterer Geforce-Grafikkarten keine großen Vorteile. Hintergrund sind die Tensorkerne in Ada Lovelace, so der Codename der jüngsten Generation, und der Optical Flow Accelerator. Beides gibt es schon auf Turing-Karten, aber mit Lovelace wurden sie laut Nvidia immens verbessert."
 
Tja.
Gretchenfrage:
Ist das eine Engineering Aussage oder eine Marketing Aussage?

Und was sind "große Vorteile"?
Warum nicht freigeben und Leute herausfinden lassen dass es nicht gut funktioniert?
Es gibt auch RTX auf einer 2060, wo es nicht gut funktioniert...
 
Du wirst davon ausgehen können das man DLSS3.0 Features auch auf RTX20X0/30X0 Karten darstellen lassen kannst, wenn du da Entwicklungsaufwand reinsteckst. Wenn die internen Testungen aber zeigen, dass dies keinerlei Vorteile bringt, wieso sollte man da dann Ressourcen für binden?

Im Endeffekt ist das aber nur 'ne Spekulation und die Headline ist mit Absicht so gewählt, weil man mit "Kein DLSS 3.0 auf RTX30X0/20X0" Karten halt nicht so viele Klicks generiert, auch wenn diese Headline akkurater wäre. Es gab schon mehrere Versuche DLSS3.0 Features auf den alten Karten zu aktivieren, dies ist bisher noch niemandem gelungen - das soll schon was heißen. Wenn es so einfach wäre, dann würde es da schon längst was geben.
 
Hier wurde Frame Generation auf alter Hardware genutzt. Ja natürlich mit Bugs etc. Hat aber funktioniert und die Frames wie erwartet erzeugt.

Seitens NVIDIA ist da keine wirkliche
rein technische Hürde sondern Marketing "lock".
Das gleiche mit DLSS 1.9x als dann Tensor Grafikkarten auf den Markt kamen wurde das gänzlich eingestellt. Ja mag zwar alles sein das es nicht so super läuft wie auf nativer Hardware, aber es hätte funktioniert zumindest in letzter iteration bei Control

Vergleich 1080TI vs 2080 DLSS

Mega Entwicklungsaufwand wäre das nicht gewesen für die GTX Karten DLSS 1.9x verfügbar zu lassen. Man hätte sagen können das es auf dem Stand bleibt und eben verfügbar aber nicht mehr supportet wird, wie bei legacy Treibern. Man hat sich aber entschieden das Feature zu deaktivieren.
 
Nein, FG wurde nie auf der RTX 2070 genutzt.
Das wurde von irgend nem Typen auf Reddit behauptet und als man Ihn nach beweisen gefragt hat hat man den Dude nie wieder gesehen.
Da dein Argument auf dem Kartenhaus basiert, geh ich auf den Rest auch gar nicht erst ein.

Das beweist mal wieder meine These, dass hier niemand mehr macht als nur das bare minimum an research aber trotzdem behauptet es sei nen Fakt.
 
Ich habe Frame Generation in Witcher 3 und Hogwarts selbst ausprobiert. 4k max 120fps. Gestiegenen Intputlag konnte ich mit Gamepad nicht feststellen bzw. spüren. Den Kompromiss aus Leistungssteigerung und Bildqualität von DLSS3 inkl. FG finde ich sehr überzeugend. Darf aber jeder gerne selbst ausprobieren und für sich entscheiden.
 
Nein, FG wurde nie auf der RTX 2070 genutzt.
Das wurde von irgend nem Typen auf Reddit behauptet und als man Ihn nach beweisen gefragt hat hat man den Dude nie wieder gesehen.
Da dein Argument auf dem Kartenhaus basiert, geh ich auf den Rest auch gar nicht erst ein.

Das beweist mal wieder meine These, dass hier niemand mehr macht als nur das bare minimum an research aber trotzdem behauptet es sei nen Fakt.
Diese Hardware ist Bestandteil seit Turing:

Also selbst das Argument die haben die Hardware nicht, ist nicht vorhanden. Die haben die Hardware sehr wohl. Da ist alle vorhanden was notwendig wäre Frame Generation verfügbar zu machen.

Wenn man sich Ampere und Ada im feature Grid anschaut... haben beide gleiche features als wäre für Ampere kein technischer Grund vorhanden. Bei Turing scheint es einige Abstriche zu geben.
 
Mittlerweile wird es echt lächerlich.
Liest du dir überhaupt irgendwas durch von dem was du postest?

Das hier sind die Performancecharts:
1677743633457.png


Wenn Euch FG jetzt schon zu viel Inputlag erzeugt, dann viel Spaß mit dem DOPPELTEM Inputlag bei RTX30X0 und dem dreifachem bei RTX20X0.
Die grundsätzliche Hardware ist verfügbar, deswegen hat der Engineer ja auch gesagt, dass es THEORETISCH möglich ist, aber die Erfahrung der Features einfach scheiße sein wird.

Nvidia kann hier nur verlieren, egal was sie tun es wird ihnen vorgeworfen.
Keine Innovation? Nvidia nutzt die Marktmacht aus.
Innovation, aber nur für die neue Generation? Nvidia hält die Features mit Absicht zurück.

Solltest du nun noch ne Quelle zitieren, die du dir selber nicht durchgelesen hast, bin ich übrigens raus.
 
Meine Kritik ist von Anfang an eine grundsätzlichere:

Die aktuelle Technologie hinter FG ist Murks, weil Timing Problem und Input lag. Es wäre besser die upscaler weiter zu verbessern, weil es da technologiebedingt kein Timing Problem und Input lag gibt.
Siehe oben.

Und zu deinem anderen Punkt bin ich auch anderer Meinung:
Verfügbar machen, Enthusiasten testen lassen, Communities selbst herausfinden lassen dass es auf alter Hardware schlechter läuft.
Ebenfalls siehe oben.

Da kann jetzt jeder entscheiden ob er zustimmt oder Dinge anders bewertet und eine andere Meinung hat.
 
Zuletzt bearbeitet:
Mittlerweile wird es echt lächerlich.
Liest du dir überhaupt irgendwas durch von dem was du postest?

Das hier sind die Performancecharts:
Anhang anzeigen 861476

Wenn Euch FG jetzt schon zu viel Inputlag erzeugt, dann viel Spaß mit dem DOPPELTEM Inputlag bei RTX30X0 und dem dreifachem bei RTX20X0.
Die grundsätzliche Hardware ist verfügbar, deswegen hat der Engineer ja auch gesagt, dass es THEORETISCH möglich ist, aber die Erfahrung der Features einfach scheiße sein wird.

Nvidia kann hier nur verlieren, egal was sie tun es wird ihnen vorgeworfen.
Keine Innovation? Nvidia nutzt die Marktmacht aus.
Innovation, aber nur für die neue Generation? Nvidia hält die Features mit Absicht zurück.

Solltest du nun noch ne Quelle zitieren, die du dir selber nicht durchgelesen hast, bin ich übrigens raus.
Ich zitiere aus Nvidias eigener Quelle, weil hier der Geist herum ginge das der Optical Flow Accelerator nur auf Adas Architektur vorhanden wäre und es deshalb nicht auf Turing oder Ampere umsetzbar wäre.

Ich zitiere aus der dem Link der Tabelle:
Die haben hier mit einem Basis Takt gearbeitet bezüglich Vergleichbarkeit. Sie sagen selbst das es die Performance mit der Taktrate skaliert. Viele Karten schaffen locker 2000mhz Clock. Da komme ich wenn es linear skalieren würde mit Ampere schon auf 7,9ms (10,33ms bei Turing). Für Action basierte Spiele wie Shooter ist selbst Adas Latenz nicht befriedigend. Das habe ich schon einige Posts vorher formuliert wo es sich eher lohnt und da kommt es auch schon nicht mehr auf 4-8ms drauf an.

Wenn die Leute feststellen das Feature ist cool wie bei DLSS oder Raytracing aber meine Karte ist ne Gruke, werden die automatisch die neue Hardware kaufen wo es so viel besser läuft.
Wie 2k5lexi selbst formuliert, es sollen die Leute selbst heraus finden. Sollen Game Studios in Zukunft einfach Grafikkarten deaktivieren die nicht mindestens 60FPS schaffen? Weil die Experience dann nicht so ist wie sich das der Entwickler wünscht? Warum ist dann Raytracing bei neuen Titeln nicht für die 2060 deaktiviert? Soll doch der User entscheiden ob dafür andere Settings runterschrauben will um es Spielbar zu halten.

Es geht darum das es ein optionales Feature seien soll und bei einigen Games macht es sehr wahrscheinlich weniger Probleme als wir vermuten.
Persönlich halte ich das für ein Politikum seitens Nvidia: Wenn AMD mit FSR3.0 um die Ecke kommt, wird Nvidia FG zumindest für Ampere "unlocken".
Das ist wird alle nur PR scheiße sein. Wie damals bei Nvidia Broadcast:

https://www.tomshardware.com/news/rtx-voice-works-on-pascal-maxwell-kepler "überraschend"
But ironically, right after the app was released, a super-simple hack leaked allowing you to run RTX Voice on Windows 7 and, best of all, non-RTX GPUs.
So it's not too surprising that Nvidia eventually patched RTX Voice itself to support GTX graphics cards. However, the RTX nomenclature becomes very misleading with the new change.
 
Zuletzt bearbeitet:

Edit:
 
Zuletzt bearbeitet:
Du wirst davon ausgehen können das man DLSS3.0 Features auch auf RTX20X0/30X0 Karten darstellen lassen kannst, wenn du da Entwicklungsaufwand reinsteckst. Wenn die internen Testungen aber zeigen, dass dies keinerlei Vorteile bringt, wieso sollte man da dann Ressourcen für binden?

Im Endeffekt ist das aber nur 'ne Spekulation und die Headline ist mit Absicht so gewählt, weil man mit "Kein DLSS 3.0 auf RTX30X0/20X0" Karten halt nicht so viele Klicks generiert, auch wenn diese Headline akkurater wäre. Es gab schon mehrere Versuche DLSS3.0 Features auf den alten Karten zu aktivieren, dies ist bisher noch niemandem gelungen - das soll schon was heißen. Wenn es so einfach wäre, dann würde es da schon längst was geben.
Du kannst dich bei den Forumsteilnehmern glaube ich mal entschuldigen.. deine Annahmen waren durch die Bank falsch.. Sogar DLSS 3.5 läuft auf ALLEN RTX Karten..
 
Wieder einer der sich nur die Hälfte der Technologie durchliest und ne große Klappe hat.

Ich zitiere mal den Hardwareluxx-Test diesbezüglich:
Interessant ist auch, dass DLSS 3.5 auf allen GeForce-RTX-Karten funktioniert, während die Frame Generation den Ada-Lovelace-Karten vorbehalten ist. Etwas fragwürdig ist daher auch die Namensgebung. Ein DLSS 3 ist eigentlich nur ein DLSS 2 mit Frame Generation, wird aber von Pre GeForce-RTX-40-Karten nicht unterstützt. DLSS 3.5 hingegen aber schon, allerdings müssen Besitzer der vorherigen beiden Generationen hier weiterhin auf die Frame Generation verzichten. Ob NVIDIA hier einfach nur in der Versionsnummer vor AMD und FSR 3 liegen wollte und sich daher für DLSS 3.5 entschieden hat? Für eine Version 4 hat es offensichtlich noch nicht gereicht für NVIDIA.
 
Hallo,
ich frage mich, ob DLSS in späteren Versionen abwärtskompatibel ist. Also aktuell gibt es DLSS 3 und vermutlich irgendwann mal 4.0, 5.0... Wie ist das, wenn man eine RTX 4000 mit DLSS 3.0 besitzt, später die Titel aber DLSS 4 können. Kann ich dann trotzdem 3.0 nutzen, oder geht das dann nur mit 4.0, welches die RTX 4000 nicht besitzt?
Hallo, ich vermute das DLLS 4.0 nur für die bald neu erscheinen RTX 5000 Karten sein wird.
Nvidia weiss ganz genau das sich dann niemand eine neue Karte kaufen würde, wenn die DLLS 4.0 für alle RTX 4000 Karten frei geben würden.

Deshalb sage ich Dir willst Du DLLS 4.0 haben mußt Du dir eine Nvidia RTX 5080 oder eine RTX 5090 Grafikkarte kaufen!

Das war in der Vergangenheit schon einmal so.
Bei den RTX 3000 Karten war es auch schon so.
Und eine RTX 3080 Ti RTX 3090 und RTX 3090Ti, könnten alle DLLS 3.0!
Nur das wollte Nvidia nicht.
 
Zuletzt bearbeitet:
Hallo, ich vermute das DLLS 4.0 nur für die bald neu erscheinen RTX 5000 Karten sein wird.
Nvidia weiss ganz genau das sich dann niemand eine neue Karte kaufen würde, wenn die DLLS 4.0 für alle RTX 4000 Karten frei geben würden.

Deshalb sage ich Dir willst Du DLLS 4.0 haben mußt Du dir eine Nvidia RTX 5080 oder eine RTX 5090 Grafikkarte kaufen!

Das war in der Vergangenheit schon einmal so.
Bei den RTX 3000 Karten war es auch schon so.
Und eine RTX 3080 Ti RTX 3090 und RTX 3090Ti, könnten alle DLLS 3.0!
Nur das wollte Nvidia nicht.
Nicht unwahrscheinlich, bzw. man wird wieder features für die älteren Generationen streichen.
Das ist auch nicht grundsätzlich schlimm, wenn es einen technisch nachweislichen Nachteil bringt bis hin zur nicht Nützbarkeit.


Ist halt schon ein Armutszeugnis seitens Nvidia....

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/63064-direct-super-resolution-microsoft-stellte-api-für-dlss,-fsr-und-xess-bereit.html
Eine Sinnvolle Lösung, dadurch ist es egal was man für eine Grafikkarte hat. Der Entwickler integriert MSDSR und das nutzt halt vorhandene Ressourcen zum das angepasst zu nutzen.
Also je nach Hersteller dessen respektive Technologie und es muss keiner mehr ähnlich bei Adaptiv Sync seinen Schnickschnack implementieren und ist damit grundsätzlich automatisch kompatibel.
 
Also je nach Hersteller dessen respektive Technologie und es muss keiner mehr ähnlich bei Adaptiv Sync seinen Schnickschnack implementieren und ist damit grundsätzlich automatisch kompatibel.
Eigentlich umgekehrt, Weil jeder sein eigenes Süppchen kocht und das halt nervt, Mehraufwand und Inkompatibilitäten verursacht, macht man dann eine einheitliche Schnittstelle und die Hardwarehersteller müssen diese universelle Schnittstelle aus ihren Treibern raus bedienen. MSDSR ist nur die vereinheitlichte Schnittstelle, auf NVidia-Grakas wird hintendran trotzdem noch DLSS angewandt.
Je nachdem wie mans versteht ist damit auch nichts "automatisch kompatibel". Damits "automatisch kompatibel" wird, muss der GPU-Hersteller das in seinen Treiber einbauen.
Wenn sich also NVidia jetzt weigern würde MSDSR zu unterstützen, weil sie weiterhin ihr proprietäres DLSS forcieren wollen, dann ist da überhaupt nichts automatisch kompatibel.

Oft kommt das auch daher, das die Technik schneller voran geht als der Standard. Z.B. G-Sync und FreeSync. Weder bei HDMI noch DP war sowas schon im Standard enthalten, die Grakahersteller wollten aber nicht warten bis sowas mal in den Standard aufgenommen wird bevor sie das in Produkten anbieten können.

Der wesentliche Unterschied ist dann nur, der eine Hersteller bringt was offenes, der andere Hersteller bringt irgendwas geschlossenes. Und oh Überraschung, wenns dann mal zum Standard kommt, gehts auf die offene Variante zurück. ;)
 
Der wesentliche Unterschied ist dann nur, der eine Hersteller bringt was offenes, der andere Hersteller bringt irgendwas geschlossenes. Und oh Überraschung, wenns dann mal zum Standard kommt, gehts auf die offene Variante zurück. ;)
Ja stimmt. Die Hoffnung stirbt zuletzt das die Software Entwickler dann zumindest Microsofts API integrieren, dadurch ist es allen Grafikkarten Herstellern möglich ihre Treiber darin einzubinden. Anders als wenn ein Software Entwickler nur DLSS oder nur FSR oder XESS in das Game integriert.

Ja natürlich könnte Nvida - Nö sagen. Wollten sie auch aber auch bei der DX12 und MultiGPU API machen, die habe das Jahre lang bekämpft das jemand mit AMD Karte Nvidia Physics mit einer zusätzlichen Nvidia Karte einfach so nutzen kann. Microsoft hatte mit dem Entzug der DX12 Schnittstellen Nutzung gedroht und Nvidia hat dann eingelenkt oder so ähnlich.
Man muss zwar da jetzt immer noch ein bisschen tricksen unter Umständen, aber zumindest laufen alle Treiber und lassen sich ohne Sperren installieren.

Ich hab auch nichts gegen Proprietäre Lösungen, aber manche sind so Proprietär das sie selbst nur für ausgewählte Serien gelten. Ada vs Ampere und Frame Generation als Beispiel (vorerst).

Dann können das auch nicht alle Games, weil es keine Treiberseitige Integration ist und nahtlos mit allen DLSS Integrationen etc. Es ist halt auch nicht toll gelöst.

Da meines Wissens nach auch Intel an einer Frame Generation Lösung arbeitet, könnte hier auch Microsoft ausnahmsweise was sinnvolles stiften und dort auch eine direkte Schnittstelle anbieten.

Das würden den grundsätzlichen Diskurs der Bevorzugung eines einzelnen Grafikkarten Anbieters etwas entzerren.

Natürlich wird sich Nvidia was neues einfallen lassen, das machen die immer sobald etwas zum standard geworden sind - setzten sie standards Jajn, sie nutzen zumindest ihren Markteinfluss um die Wettbewerber zu beeinflussen, ob AMD oder Intel von selbst sowas entwickelt hätten? Das wissen wir nicht, aber weil Nvidia Vorreiter war wäre es einfach den anderen grundsätzliche Nachahmung zu unterstellen.
 
Zuletzt bearbeitet:
Ob man sich hier nicht verläuft?
KI Rendering ist schon eine interessante Sache, aber gut gemacht wohl doch ein ziemlicher Rechenaufwand.

Ich kann mir schwer vorstellen, dass es schneller sein könnte, ein KI Bild zu rendern (wo immer das Risiko besteht, dass die KI mehr oder weniger stark "daneben greift"), als das Bild konventionell mit der 3d Engine zu rendern.
KI Rendering toll, wenns keine "echten" Daten gibt, also z.B. ein bestehendes Video upscalen oder diesem Zwischenframes geben, damit es flüssiger läuft.
Upscaling ist auch noch eine interessante Sache, das kann ich mir noch am ehesten vorstellen (abhängig vom Upscaler).


Ich denke, gerade im Bereich Gaming, wäre es sinnvoller die Bemühungen in die effektive konventionelle Berechnung von Frames zu stecken, wie sie eben kommen.
Vielleicht wäre es sinnvoller zu überlegen, wie man mit weniger Ressourcenaufwand ein schönes Bild erzeugen kann (aus den Daten der 3d Engine), als sich zu überlegen, wie man Zwischenframes generieren kann. Gerade hinsichtlich Input-Lag und auch dem Rechenaufwand allgemein, kann das einfach nicht sinnvoll sein.
 
Ob man sich hier nicht verläuft?
KI Rendering ist schon eine interessante Sache, aber gut gemacht wohl doch ein ziemlicher Rechenaufwand.

Ich kann mir schwer vorstellen, dass es schneller sein könnte, ein KI Bild zu rendern (wo immer das Risiko besteht, dass die KI mehr oder weniger stark "daneben greift"), als das Bild konventionell mit der 3d Engine zu rendern.
KI Rendering toll, wenns keine "echten" Daten gibt, also z.B. ein bestehendes Video upscalen oder diesem Zwischenframes geben, damit es flüssiger läuft.
Upscaling ist auch noch eine interessante Sache, das kann ich mir noch am ehesten vorstellen (abhängig vom Upscaler).


Ich denke, gerade im Bereich Gaming, wäre es sinnvoller die Bemühungen in die effektive konventionelle Berechnung von Frames zu stecken, wie sie eben kommen.
Vielleicht wäre es sinnvoller zu überlegen, wie man mit weniger Ressourcenaufwand ein schönes Bild erzeugen kann (aus den Daten der 3d Engine), als sich zu überlegen, wie man Zwischenframes generieren kann. Gerade hinsichtlich Input-Lag und auch dem Rechenaufwand allgemein, kann das einfach nicht sinnvoll sein.
Die Ultimative Idee, ist einfach das es wie beim Menschen neural/intuitiv abläuft.

Du stellst dir etwas vor was dir jemand beschreibt und das Bild entsteht ohne das du dir darüber zu viel Gedanken machen musst wie du es erzeugst - "es ist einfach da" durch Vorstellung/breits erfolgte Erfahrung.
Ja von der Latenz her ist es noch etwas unvorteilhaft aber im Umkehrschluss spart das aber Rechenleistung.
Schätzen ist etwas sehr intuitives und das funktioniert sehr schnell ohne etwas zu berechnen, zumindest bei uns Menschen.

Allerdings wie es im echten Leben so ist, wird ein guter Handwerker Maße besser schätzen als ein evtl. ein Kaufmann.

Das Menschliche Gedächtnis arbeitet ja auch so ähnlich erzeugt auch Schattenbilder bzw. interpretiert das gesehene anders als es tatsächlich ist und lässt sich durch Illusionen täuschen.
Diesen Umstand kann man ausnutzen und wird auch ja schon so gemacht https://developer.nvidia.com/vrworks/graphics/variablerateshading.

Am sinnvollsten wäre es die Berechnung auf das zur reduzieren wo du als Spieler in Echtzeit gerade hinschaust. z. B hat man bei den modernen Doom teilen aus Performance gründen Assests teilweise weggelassen, diese sind nur 2D bzw. optisch 3D aber nicht voll sondern leer. Das spart enorme Rechenleistung, deshalb läuft modernes Doom auf jedem Toaster (fast 8-))
auch draw distance oder so ähnlich sorgt dafür das du alles in der Entfernung grundsätzlich nur primitiv dargestellt/berechnet wird, wie im echten Leben die Unschärfe in der Ferne.

Was halt sehr bequem geworden, wo man früher mehr Arbeit reingesteckt hatte ist die Optimierung von Hand. Jede Szene zu durchlaufen und zu schauen was kann man einsparen um die Performance zu verbessern oder die Optik zu verbessern....

.... hier sehe ich KI als potentiellen Assistenten. Man lässt eine KI ein Spiel durchspielen mit allen Facetten die ein normaler Spieler auch durchmache würde, am besten mit optischer Kamera.

Dann kann die KI dabei ein ausführliches Debugging schreiben und an die Entwickler weiterleiten z. B Grafikfehler oder Performance einbüßen, glitches etc.
 
Zuletzt bearbeitet:
Du stellst dir etwas vor was dir jemand beschreibt und das Bild entsteht ohne das du dir darüber zu viel Gedanken machen musst wie du es erzeugst - "es ist einfach da" durch Vorstellung/breits erfolgte Erfahrung.
Jeder stellt sich es anders vor, jeder versteht es anders.
Drum gibts z.B. ein Regelwerk für technische Zeichnungen, damit eben vom Betrachter unmissverständlich verstanden werden kann, was der Ersteller gemeint hat.

Ja von der Latenz her ist es noch etwas unvorteilhaft aber im Umkehrschluss spart das aber Rechenleistung.
Je mit Bild-KI gearbeitet? Wie viel man wirklich spart... wer weiss.

Ist halt immer so die Frage, obs sinnvoll ist etwas erraten zu wollen, was man auch errechnen kann.
 
Jeder stellt sich es anders vor, jeder versteht es anders.
Drum gibts z.B. ein Regelwerk für technische Zeichnungen, damit eben vom Betrachter unmissverständlich verstanden werden kann, was der Ersteller gemeint hat.


Je mit Bild-KI gearbeitet? Wie viel man wirklich spart... wer weiss.

Ist halt immer so die Frage, obs sinnvoll ist etwas erraten zu wollen, was man auch errechnen kann.
Die Idee ist das ein Bild nicht generiert werden muss sondern schon existiert und nur abgerufen werden müsste.... da sind wir noch sehr weit entfernt.

Ich denke die Chance mit Quantencomputern wäre dort besser bezüglich auch Verzögerung in der Information. Zumindest laut einigen Dokus die ich über Neuralwissenschaften geschaut habe ist es schon so zumindest im MRT/CT, dass eine gewisse art von Vorausschauen stattfindet. Quantenmechanisch haben wir die Information schon noch bevor wir aktiv darüber nachdenken.

Aber der aktuelle Zustand sind halt Kinderschuhe und nichts für Echtzeitanwendungen.
 
Schätzen ist etwas sehr intuitives und das funktioniert sehr schnell ohne etwas zu berechnen, zumindest bei uns Menschen.
Es funktioniert schnell, aber die nötige "Leistung" dafür ist gewaltig.
Mit "Rechenleistung" lässt es sich allerdings nur schwer vergleichen, weil das Gehirn nicht binär funktioniert. Das Gehirn ist sozusagen eine Vergleichsmaschine, welche allerdings nicht als Ergebnis liefert ob etwas exakt gleich ist, sondern "nur" ob etwas ähnlich ist.

Allerdings wie es im echten Leben so ist, wird ein guter Handwerker Maße besser schätzen als ein evtl. ein Kaufmann.
Das übernimmt beim Menschen wie auch KI das Training. ;)

Am sinnvollsten wäre es die Berechnung auf das zur reduzieren wo du als Spieler in Echtzeit gerade hinschaust.
Tut man eben schon. Und Upscaling und Framegeneration ist der Versuch die notwendige Rechenleistung zu reduzieren. Man berechnet weniger, indem man z.B. in niedrigerer Auflösung rendert, aber dann upscaled um ein finales Bild zu erhalten, das mit dem in nativer Auflösung gerendertem Bild mithalten kann.
Der ganze Ansatz beruht darauf, das das Upscalen weniger Rechenleistung benötigt, als das Bild direkt in voller Auflösung zu berechnen. Ansonsten wäre es ja sinnfrei.

Das beruht aber immernoch darauf, das man aus Geometriedaten erstmal ein Bild rastert. Erst das Bild wird dann "verbessert".
Der vielleicht (überüber)nächste Schritt könnte sein, das man Geometriedaten überhaupt nichtmehr klassisch rastert, sonder direkt aus diesen ein Bild "erschätzen" lässt.
Und noch 2-3 Schritte weiter man gar keine detailierte Geometrien mehr brechnet, also z.B. eine Kaffeemaschine gar kein hochdetailiertes Polygonmodell mehr sein muss, sondern nur noch ein Quader mit der Information "hier steht eine Kaffeemaschine, sie ist eingeschaltet und die Kanne halb voll, das Gehäuse ist blau" und eine KI erzeugt dann das komplette Bild.
 
Nicht unwahrscheinlich, bzw. man wird wieder features für die älteren Generationen streichen.
Das ist auch nicht grundsätzlich schlimm, wenn es einen technisch nachweislichen Nachteil bringt bis hin zur nicht Nützbarkeit.


Ist halt schon ein Armutszeugnis seitens Nvidia....

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/63064-direct-super-resolution-microsoft-stellte-api-für-dlss,-fsr-und-xess-bereit.html
Eine Sinnvolle Lösung, dadurch ist es egal was man für eine Grafikkarte hat. Der Entwickler integriert MSDSR und das nutzt halt vorhandene Ressourcen zum das angepasst zu nutzen.
Also je nach Hersteller dessen respektive Technologie und es muss keiner mehr ähnlich bei Adaptiv Sync seinen Schnickschnack implementieren und ist damit grundsätzlich automatisch kompatibel.
Es ist alles nur Marketing.

Nvidia ist eine AG.

Die müssen die Aktionäre glücklich machen.

Wie macht Nvidia dies?

Na ganz einfach mit ganz vielen neu Verkäufen.

Die sind überhaupt nicht dran interessiert, brandneue Technologien für ältere GPU Modelle freizugeben.

Natürlich würde es funktionieren, DLLS 3.0 auf RTX 3000 zum Laufen zu bringen.

Zumal ich auch derselben Meinung bin, wie der eine Moderator hier.

Enthusiasten sollten dies allein herausfinden können und dürfen, was geht und was nicht.

Daran merkt man doch sofort, dass nur für Nvidia nur die Verkaufszahlen stimmen müssen, mehr nicht.

Und weil ich das weiß, hatte ich die RTX 4000 Gen komplett ausgelassen.

Meine RTX 3090Ti läuft mit FSR 3.0 wunderbar mit sehr hohen FPS.

Weitaus höher als mit DLLS 2.0,

RTX 4000 Gen war eh eine pure Enttäuschung für mich.

Hatte mal kurzzeitig für 10 Tage eine RTX 4090.

Natürlich ist die RTX 4000 Serie besser als sie RTX 3000 Serie.

Nur fehlte da Displayport 2.1 Anschluss
für mich.

Und die Sache mit dem zu heißen GDDR6X Speicher.

Oder nicht vorhandenen PCI-EXPRESS 5.0 Anschluss!

Ich werde mir erst wieder eine neue GPU kaufen, wenn RTX 5000 release ist.

Die RTX 5000 Serie, hat das alles.

Und hat GDDR7 Speicher u. v. m.
 
Zuletzt bearbeitet:
Ja naja ich denke wie Nvidia typisch, wer sich alles ab einer 3080+ geholt kann immer in etwa 1 Generation aussparen und fährt besser damit nur alle 3-4 Jahre eine neue Grafikkarte zu kaufen. Außer wegen dem haben wollen, da ist es eh egal.
Aber es ist abhängig von den Features die man haben will/brauch. Frame Generation ist ja jetzt grundsätzlich kein must have.... aber ich sehe dessen Vorteile in Kombination mit Path Tracing - Dort wird die neue Generation denke ich auch ansetzen, mehr KI optimiertes Path Tracing.

Ich denke ehrlich gesagt hat auch vieles mit persönlichem Bedarf zu tun. Die 3090/Ti als Beispiel hat eigentlich auf dem Datenblatt fette Hardware, aber irgendwie haben die nicht viel Liebe in die Umsetzung gestellt... ich bin froh das ich damals nicht die 3090 gekauft hatte. Nicht weil es keine gute Grafikkarte ist sondern im Verhältnis zur 3080 doppelt so teuer war und effektiv nur der RAM der größere Impact war, aber bei fast doppeltem Preis zu überschaubarer effektiver Mehrleistung.

Hier ist viel potentielle Performance auf der Strecke geblieben, meiner Meinung nach.

Bei der 4090 ist es genau anders gekommen. Alles was drunter war hatte eine relativ schlechte Preis/Leistung.

Man sieht ja im allgemeinen wie knausrig Nvidia grundsätzlich mit RAM ist. Das ist schon geplante Veralterung.
 
Und die Sache mit dem zu heißen GDDR6X Speicher.
Der Unterschied bei meiner alten RTX 3080 Ti und der aktuellen RTX 4080 ist in Sachen GDDR6X-Speichertemp ziemlich groß. Mit der RTX 3080 Ti waren 86°C nicht selten. Mit der RTX 4080 komme ich trotz schnellerer RAM-Chips bei Weitem nicht ran. Das Höchste, was ich gesehen habe, waren 54°C und das ist für den RAM ein Witz. Dies liegt aber auch an dem üppigen Kühler.
 
Meine RTX 3090Ti läuft mit FSR 3.0 wunderbar mit sehr hohen FPS.

Weitaus höher als mit DLLS 2.0,
äpfel und birnen.

wozu pcie 5.0 wenn nichtmal 4.0 ausgereizt wird?

das eine neuere karte eventuell einen anderen speicher hat (gddr7 statt 6) ist logisch. das macht die vorherige karte aber nicht schlecht. zumal die 4090 absolut konkurrenzlos ist
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh