DLSS 3.5: Weg mit dem Entrauscher, her mit der KI-Unterstützung

Dann erklär mir warum man auf Shader basiert DLSS entwickelt hatte obwohl man schon die Tensor Cores hatte und wie Paddy sagt DLSS nur für die 2000er Generation (Tensor Cores) angekündigt wurde.

Ist ja grundsätzlich unbestritten das die Tensor Cores die bessere Variante ist. Ich denke hier hat man sich entscheiden bereits während der Entwicklung einfach umzuschwenken und einfach keinen Support für Tensor freie Karten zu bieten.
Heißt aber auch für mich, man hat ursprünglich auf Hardware ohne Tensor Cores Entwickelt. Ich spekuliere, Nvidia hatte das mal für die 1000er Generation angedacht, aber dann gedroppt und für die 2000er mit Tensor Cores weiterentwickelt.
Beitrag automatisch zusammengeführt:


Okay wie konnten die so schnell eine Shader Variante entwickeln wenn das nie das Ziel war? Ich bin mir sicher die haben das Ursprünglich für die 1000er angedacht und dann umgeschwenkt für die 2000er.
Sonst hätte es einfach gar keinen Sinn gemacht für Shader zu entwickeln wenn man sowieso Tensor verwenden wollte.

Warum hat Edison versucht Gleichstrom durchzusetzen obwohl Wechselstrom durch Tesla schon bekannt war?
Warum entwickelt man Tokamak Reaktoren, wenn es doch auch Stellaratoren, Trägheitseinschluss und Dense-Plasma Reaktoren gibt?
Warum wurde weiterhin Blei in Benzin gegeben obwohl man von den Nachteilen wusste und es Jahre dauerte, bis es verboten wurde?
Warum wurde weiter Asbest in Häuser verbaut obwohl klar war, dass es über kurz oder lang verboten werden würden?
Warum hat man radioaktives Radium in Uhren verbaut und in Lebensmitteln verarbeitet, welche man als besonders gesund bewarb?
Phlogiston. Ich sage nur Phlogiston.

Ich bin mir nicht so sicher, dass man damals schon mit Sicherheit davon ausging, dass ML der richtige Weg ist. Geahnt, vermutlich. Oft geht man mehrere Wege.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin mir nicht so sicher, dass man damals schon mit Sicherheit davon ausging, dass ML der richtige Weg ist. Gehant, vermutlich. Oft geht man mehrere Wege.
Richtig sie hatten ja quasi schon was ähnliches wie FSR1 sie hätten das einfach ohne trainierte DL Bilder rausbringen können für zumindest den Leuten mit älteren Geforce Karten.
Man hat sich am ende gegen den Kunden entschieden und für das Business, wenn jemand einen Upscaler haben wollte sollte er Turing kaufen.
Ich sage ja nicht das Methode2 über Tensor Cores nicht besser läuft, sie hätten zumindest Methode1 für breitflächige Nutzung fertig stellen können. Das ist die einzige Kritik.
DLSS 1.9 lief doch schon brauchbar. Hatten zwar Probleme, aber die DLSS Version die es jetzt gibt es halt auch Grenzen der Nutzbarkeit.. ich würde es niemals im Multiplayer z. B nutzen.
 
Weil hier die Frage nach FSR3.0 im Raum stand, ich habe vor nen paar Tagen den Artikel hier gefunden:

Angeblich ist es angepeilt mit dem Starfield Release auch FSR3.0 groß zu zeigen.
 
Weil hier die Frage nach FSR3.0 im Raum stand, ich habe vor nen paar Tagen den Artikel hier gefunden:

Angeblich ist es angepeilt mit dem Starfield Release auch FSR3.0 groß zu zeigen.
Das wir gemunkelt nach dem man sich bezüglich DLSS und warum es nicht bei Starfield dabei ist eher zurück gehalten hat.
 
Hat AMD noch eine PK auf der gamescom? Ich glaube wenn man da nichts von FSR 3 hört, ist es bei Starfield auch nicht dabei. Vielleicht später irgendwann, aber nicht zu Release.
 
Hat AMD noch eine PK auf der gamescom? Ich glaube wenn man da nichts von FSR 3 hört, ist es bei Starfield auch nicht dabei. Vielleicht später irgendwann, aber nicht zu Release.

1692789862777.png

Wenn das hier nicht dabei ist am Freitag und es mit Starfield selbst nicht vorgestellt werden wird. Dann nicht mehr.
 
Immer wieder lustig hier mitzulesen. Wusste gar nicht das die hälfte hier GPU's mitentwickelt. Ebenso diese ganzen "Verschwörungstheoretiker"... love it!
 
Vielleicht stellen sie es ja zusammen mit der 7800XT vor :d
Wenn dann sehr wahrscheinlich. So Guck mal 7800XT so schnell wie 4080 mit FSR3 :banana: Das glaub ich selbst nicht, aber könnte halt passen nach dem die 7800XT in Erwartung ja nicht wesentlich schneller als die RX6800XT ist.
Beitrag automatisch zusammengeführt:

Immer wieder lustig hier mitzulesen. Wusste gar nicht das die hälfte hier GPU's mitentwickelt. Ebenso diese ganzen "Verschwörungstheoretiker"... love it!
Du meinst wie GamersNexus bei der tour durchs AMD LAB die Vaporchamber CPUs entdeckt hat. Ein paar andere Sachen auch über die er leider nicht sprechen durfte.

Eine Verschwörung macht nur dann Sinn wenn es gewisse Indizien gibt das nicht alle so ist wie es scheint.
 
Wenn dann sehr wahrscheinlich. So Guck mal 7800XT so schnell wie 4080 mit FSR3 :banana: Das glaub ich selbst nicht, aber könnte halt passen nach dem die 7800XT in Erwartung ja nicht wesentlich schneller als die RX6800XT ist.
Beitrag automatisch zusammengeführt:


Du meinst wie GamersNexus bei der tour durchs AMD LAB die Vaporchamber CPUs entdeckt hat. Ein paar andere Sachen auch über die er leider nicht sprechen durfte.

Eine Verschwörung macht nur dann Sinn wenn es gewisse Indizien gibt das nicht alle so ist wie es scheint.

Nein, das bezieht sich wirklich nur auf diesen Thread bzw. die Aussage mancher Leute hier ;)
 
Nein, das bezieht sich wirklich nur auf diesen Thread bzw. die Aussage mancher Leute hier ;)
Alles möglich möchte jetzt nicht mit Whataboutismus um die Ecke kommen, aber auch bei VW bis alles rausgekommen ist hatten gewisse Leute Zweifel wie sie so gute Werte erreichen konnten.
Gerade die Hardcore Fans von Marken sind blind vor Liebe.

Btw. Nur weil man etwas hinterfragt ist es nicht gleiche eine Verschwörungstheorie. Es gibt Ungereimtheiten die nicht aufgelöst wurden, dadurch wird für die Gläubigen der Zweifel der andren zur Verschwörung.
 
Immer wieder lustig hier mitzulesen. Wusste gar nicht das die hälfte hier GPU's mitentwickelt. Ebenso diese ganzen "Verschwörungstheoretiker"... love it!

Na, na, na...
seit Corona wissen, oder sollten wir mittlerweile wissen, dass so ziemlich alle Verschwörungstheorien wahr werden 😝😂
Beitrag automatisch zusammengeführt:

Ich freue mich mehr für meinen Kumpel mit einer 3080 als für mich mit einer 4090 über dieses Feature, da er Cyberpunk 2077 über alles liebt und sich auf die Fortsetzung saumäßig freut. Bin mal gespannt wie es bei ihm performen wird.
 
Zuletzt bearbeitet:
Okay wie konnten die so schnell eine Shader Variante entwickeln wenn das nie das Ziel war? Ich bin mir sicher die haben das Ursprünglich für die 1000er angedacht und dann umgeschwenkt für die 2000er.
Sonst hätte es einfach gar keinen Sinn gemacht für Shader zu entwickeln wenn man sowieso Tensor verwenden wollte.
Ich kann nur Vermutungen anstellen, da ich die Interna von Nvidia nicht kenne. Vermutlich werden die Tensor Cores bei DLSS nur benötigt, um gewisse Berechnungen zu beschleunigen. So können dann mehr Daten analysiert werden bzw. ermöglicht dies erst bestimmte Analysen, die sonst nur die Latenzen zu stark erhöhen würden. Es wäre wohl auch möglich eine Variante von DLSS zu bringen, die komplett ohne Tesnor Cores laufen könnte, aber dann halt nur mit Abstrichen bei Qualität und Funktionsumfang.

Ähnlich macht es ja auch Intel bei XeSS. Auf deren GPUs liefert XeSS eine bessere Performance sowie Bildqualität, dank der XMX-Einheiten.
 
Okay wie konnten die so schnell eine Shader Variante entwickeln wenn das nie das Ziel war? Ich bin mir sicher die haben das Ursprünglich für die 1000er angedacht und dann umgeschwenkt für die 2000er.
Sonst hätte es einfach gar keinen Sinn gemacht für Shader zu entwickeln wenn man sowieso Tensor verwenden wollte.

Wenn man genau wie AMD wohl jetzt, sehr grosse, vil. sogar fast unlösbare Probleme gefunden hat, und es nicht so hinbekam, wie man es sich vorstellte?
Wozu dann noch Ressourcen versenken?

Es soll auch bei Games vorkommen, das man die fast zur Marktreife bringt, und trotzdem einstampft..............
 
Vor allem in jedem Thread immer die gleiche langweilige Leier. Ja ja, Kapitalismus böse, wir haben's verstanden...
 
I also think the setting is good, there are also a lot of side missions, if you "feel in" it a little bit and don't just gamble on mission completion, there are elements where you feel a little bit of the "fate" of the "game world" and you can also play with it a little bit AI and various transhumanistic elements.
krnl download
hdstreamz.uno
 
Zuletzt bearbeitet:
Setting find ich auch gut, auch viele Nebenmissionen, wenn man ein bissl "reinfühlt" und nicht nur auf Missionserfüllung zockt, sind da schon Elemente dabei, wo man so ein bissl das "Schicksal" der "Spielwelt" fühlt, wird auch bissl gespielt mit KI und diversen transhumanistischen Elementen.
Falscher Thread??? Fand die Story von DLSS bisher nicht so bewegend. :fresse:
 
Ohne Raytracing würde kein Hahn nach DLSS krähen. ;)
Das macht DLSS trotzdem nicht zu Raytracing. Wenn du versuchst die "DLSS" Spiegelung in einer Pfütze zu sehen. Sag doch einfach mal: okay, da habe ich wohl quatsch erzählt, anstatt zu versuchen den Quatsch mit noch mehr Quatsch zu verdecken. Es haben dir mehrere Leute erklärt wieso.
 
Vor allen Dingen ist DLSS völlig unabhängig von RT ne gute Sache, da auch das Anti Aliasing von der Quali her ziemlich gut ist. Ganz zu schweigen davon dass auch ohne RT einige Karten DLSS brauchen um über die 60FPS zu kommen.

Ich denke er will nun einfach trollen, nachdem er vorher so stolz verkündet hat, seine NVidia GPU für ne veraltete AMD Hardware ausgetauscht zu haben.
 
Ganz zu schweigen davon dass auch ohne RT einige Karten DLSS brauchen um über die 60FPS zu kommen.
Gerade deshalb ist DLSS eben keine gute Sache, es erspart den Entwicklern nur noch mehr Optimierungsarbeit.
Beispiel: Warzone 1 kann ich problemlos in 4K120 spielen in voller Auflösung, ganz ohne AA (so wie ich es bevorzuge).
Warzone 2 sind eher 80-90fps angesagt mit meiner 3080. Daher muss ich jetzt DLSS nutzen, bei viel schlechterer Optik weil jetzt natürlich alles total matschig und unscharf aussieht.
 
Gerade deshalb ist DLSS eben keine gute Sache, es erspart den Entwicklern nur noch mehr Optimierungsarbeit.
Beispiel: Warzone 1 kann ich problemlos in 4K120 spielen in voller Auflösung, ganz ohne AA (so wie ich es bevorzuge).
Warzone 2 sind eher 80-90fps angesagt mit meiner 3080. Daher muss ich jetzt DLSS nutzen, bei viel schlechterer Optik weil jetzt natürlich alles total matschig und unscharf aussieht.
Das eine hat mit dem anderen nur wenig zu tun. Dann sind die meisten Dinge schlecht, wenn du dieser Argumentation folgst. Egal was du machst.
 
Nunja er hat schon recht, DLSS/FSR haben (manche) Entwickler (sehr) faul gemacht…
Jeder Vortschritt sorgt dafür. Russische Entwickler haben früher ihr gesamtes Programm auf Papier durchgeplant, da Computerzeit stark limitiert war.
Das ist jetzt nicht mehr nötig, da es ausreichen PCs gibt.

Auch die Zunahme an Speicherkapazität hat dafür gesorgt, dass nicht mehr jedes Byte umsorgt wird und mit Speicher großzügig umgegangen wird. Es hat also nichts mit DLSS an sich zu tun und es wäre quatsch zu sagen DLSS hat die Entwickler faul gemacht. Der Mensch war schon immer faul in Bereichen, in denen er es sich leisten konnte. Weiter oben wurde erklärt, dass nur ca. 40 % aller Steam user DLSS 2+ nutzen können. Das heißt 60 % können es nicht. Trotzdem wird es als Argument genutzt warum Entwickler faul sein sollen. Irgendwas stimmt da nicht. Entweder DLSS ist nicht so wichtig, weil es zu wenig nutzen können oder es e ist so verbreitet und wichtig, dass sich Entwickler darauf ausruhen können. Beide Argumente gleichzeitig zu betreiben ergibt nicht wahnsinnig viel Sinn.
 
Zuletzt bearbeitet:
Nunja er hat schon recht, DLSS/FSR haben (manche) Entwickler (sehr) faul gemacht…

Naja so ein Game wie Farcry 6 oder Halo Infinite hätte DLSS schon gut getan. War mit einer 3090 teilweise Grenzwertig zum Teil.
Durch upscaling Technik läuft vieles ziemlich ordentlich in UHD, wenn man eine starke Karte hat.
 
Beide Argumente gleichzeitig zu betreiben ergibt nicht wahnsinnig viel Sinn.
Es wird vil. eher ein Schuh draus, wenn man es aus einer anderen Perspektive anschaut. Allein die vorhandene Möglichkeit das DLSS genutzt werden kann verschiebt so zusagen die Optimierung in Richtung Kunde und seiner Hardware=).
Ob der Kunde das zur Verfügung hat, ist da eher zweitranging, eventuell denkt man dann so: sollen se sich halt die Hardware dazu kaufen.

Dann gibts halt nur die Möglichkeiten:
Damit leben und hoffen es mit einer späteren Hardware gut spielen zu können ala Crysis, wenns mega gut ist.

Refounden, wenn man es früh genug merkt, das es so bleibt.

Damit leben und es mit dem Zustand zocken und vergessen^^.
 
Es wird vil. eher ein Schuh draus, wenn man es aus einer anderen Perspektive anschaut. Allein die vorhandene Möglichkeit das DLSS genutzt werden kann verschiebt so zusagen die Optimierung in Richtung Kunde und seiner Hardware=).
Ob der Kunde das zur Verfügung hat, ist da eher zweitranging, eventuell denkt man dann so: sollen se sich halt die Hardware dazu kaufen.

Dann gibts halt nur die Möglichkeiten:
Damit leben und hoffen es mit einer späteren Hardware gut spielen zu können ala Crysis, wenns mega gut ist.

Refounden, wenn man es früh genug merkt, das es so bleibt.

Damit leben und es mit dem Zustand zocken und vergessen^^.
Als ehemaliger Produktmanager, behaupte ich, dass die meisten Produktverantwortlichen eher den Weg gehen, ein möglichst großes Publikum anzusprechen und dabei ein möglichst homogenes Erlebnis anzustreben. Daher ist die Entwicklung, was die benötigte Power angeht sehr viel langsamer als die Hardwareentwicklung. Dann gibt es ab und zu einen Sprung und dann passiert wieder lange nichts.

Das ist vor allem dem geschuldet, dass die Breite Masse eben nicht jährlich upgradet und so viel Aufwand für eine kleine Gruppe an Spielern, die das dann nutzen können sich einfach nicht lohnt. Epic hat das ab und zu gemacht, also Games als Prestigeobjekt, um zu zeigen, was ihre Engine alles kann. Aber ansonsten kochen die meisten auf kleiner Flame. Es bringt einem großen Studio auch absolut nichts, wenn sie Spiele rauspumpen, die dann scheiße laufen. Es hat Jahre gedauert sich einen Ruf zu erarbeiten und das wirft man dann nicht einfach weg, weil man "zu faul" ist. Maurice Weber hat dazu ein gutes Video gemacht.

Wenn dann etwas so grandios schief läuft, dann hat das meist andere Gründe.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh