DLSS 3 und Frame Generation: Die KI-Revolution ist losgebrochen

Kann aber die Kritik hier an der Stelle schon verstehen, man kann aber auch ein Fass aufmachen.
Ja E-Sports werden mit Tastaturen/Mausskill Fertigkeiten und optischer Aufmerksamkeit nicht umsonst als Sport bezeichnet. Es fällt halt eher nur unter Competitiv und nicht unter E-Sports.
Auch hier wieder: mag sein. Ändert aber an der grundsätzlichen These nichts. Ich hätte nicht mal etwas geschrieben, wenn der Urheber der Liste nicht seine passiv-aggressive Schiene gefahren wäre und das ursprünglich nicht mal mir gegenüber sondern dem, der als erstes zurecht darauf hingewiesen hat.

Da der Urheber seine Art mir gegenüber fortgesetzt hat gehe ich einfach mal davon aus, dass das entweder generell sein Ding ist oder hier ein Fall von getroffene Hunde bellen vor liegt. Man möge sich heraussuchen was zutrifft.

@n3cron Was er möglicherweise möchte ist mich persönlich anzugreifen, dass gelingt ihm schlichtweg nicht. Er versucht krampfhaft einen Fehler zu suchen. Alles off topic.:btt2::btt:
Aha und warum sollte ich das machen? Weder kenne ich dich noch kann ich mich daran erinnern jemals zu vor mit dir kommuniziert zu haben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@n3cron Was er möglicherweise möchte ist mich persönlich anzugreifen, dass gelingt ihm schlichtweg nicht. Er versucht krampfhaft einen Fehler zu suchen. Alles off topic.:btt2::btt:
Ich wusste nicht mal das DLSS beim Kartenspiel Heartstone geht/verfügbar ist.
Ist natürlich ein Must have für ein statisches Bild, das auch eine iGPU wiedergeben könnte. :rofl:

:btt2: Chillt mal, Nvidia schafft schon selbst die Leute gegen sich zu bringen.

Die Follower "Jünger" mit "ich scheiß dich mit meinem Geld zu" und den Mistgabel Buddys mit "F*ck you, Preistreiber mit unnötigen Features".
 
Zuletzt bearbeitet:
alle regler auf hoch. kein ultra außer sowas wie texturen und AF.

RT OLD : AO und GI on. Reflections bei bedarf.

RT PT: kenn ich noch nicht. ist aber ohne DLSS und FG quasi eh nicht spielbar :d
wofür steht AO und GI? und dlss auf qualität oder was nimmt man da?
 
AO ambient occlusion

GI global illumination.
Beitrag automatisch zusammengeführt:

wofür steht AO und GI? und dlss auf qualität oder was nimmt man da?
DLSS halt nach geschmack. DLLS hat vorteile bzgl aliasing. aber man bekommt halt das typische DLSS bild.
 
ich dachte jetz es geht um die kombi RT und dlss dazu um die fps hochzuhalten, was nimmt man dann?
 
RT macht besseres Licht, isst aber GPUs zum Frühstück.

Um dagegen anzukommen werden Bilddetails möglichst originalgetreu hinzu und zurückgedichtet.
Nvidia hat dabei die Nase vorn und vermarktet es mit neuer Hardware.
intel und AMD machen es ähnlich oder beschreiten andere Ansätze.
Daher der Artikel.

Aber am Ende sieht das Bild nicht so aus, wie vom Spielehersteller beabsichtigt.
Die Techniken helfen überforderter Hardware spielbare FPS zu bieten.

Revolution? Oder mogeln?
Geld machen lässt sich damit jedenfalls :d

Und es zeigt das beispielsweise Konsolen mit Nvidia Chip echt einen Vorteil hätten.
 
Die Technik ist unglaublich. Nur 1/8 Pixel müssen berechnet werden, 7/8 kommen aus der KI. Cyberpunk 2077 kommt im Pathtracing im eigenen Benchmark auf 22 und mit DLSS auf 106 FPS. Performance um Faktor 4,8 multipliziert.

Cyberpunk2077_2023_04_11_16_40_47_706.jpg Cyberpunk2077_2023_04_11_16_22_20_304.jpg Cyberpunk2077_2023_04_11_16_19_51_729.jpg
 
Die Technik ist unglaublich. Nur 1/8 Pixel müssen berechnet werden, 7/8 kommen aus der KI. Cyberpunk 2077 kommt im Pathtracing im eigenen Benchmark auf 22 und mit DLSS auf 106 FPS. Performance um Faktor 4,8 multipliziert.

Anhang anzeigen 881074 Anhang anzeigen 881073 Anhang anzeigen 881072

Aber auch das ist nur ein notwendiges Übel für eine Evolution, die eher für die Developer eine ist als für den Verbraucher.

Das Ding an Pathtracing ist, dass man die vielen Tricks, die man sonst benutzt, um Licht und Schatten zu erzeugen nicht mehr braucht, sondern alle durch eine Technik sehr realistisch dargestellt werden können. Das ist eigentlich die Evolution oder von mir aus auch Revolution.

Aus Verbrauchersicht ist das gar kein so großer Schritt, da diese vielen alten Tricks mittlerweile echt gut ausgefeilt sind und man viele Unterschiede nur bemerkt, wenn man aktiv danach sucht. Auch bei RT wird noch viel "getrickst". Erst bei PT ist es aus einem Guss.

Um PT aber hinzubekommen, ohne dass die Hardware auf halbem Weg aufgibt, braucht man eine Krücke, welche die Performance verbessert und dafür sind DLSS und Co notwendig. Der Eigenwert ist aber eher... limitiert würde ich sagen. Der Hauptgrund ist eher PT und Co zu ermöglichen und das wiederum ist stand heute eher für Devs ein großer Schritt als für Gamer.

Ich möchte DLSS nicht den Erfolg absprechen. Es hilft natürlich auch schwächeren System. Aber als Krücke hat DLSS 3 seinen Alterativen gegenüber deutlichen Vorsprung. Aber eben eher aus technischer Sicht und nicht aus Usersicht.
 
Die Technik ist unglaublich. Nur 1/8 Pixel müssen berechnet werden, 7/8 kommen aus der KI. Cyberpunk 2077 kommt im Pathtracing im eigenen Benchmark auf 22 und mit DLSS auf 106 FPS. Performance um Faktor 4,8 multipliziert.

Anhang anzeigen 881074 Anhang anzeigen 881073 Anhang anzeigen 881072

Mich ärgert das ein wenig. Die KI muss aber vorher mit 8K Bildern trainiert werden. Das macht Nvidia in der Cloud. Die Trainigsdaten werden dann beim reinladen des Games verwendet.

Die KI ist nicht in der Lage mit einem unbekannten untrainiertem Game richtig zu funktionieren. Was die KI eigentlich macht is Puzzeln, es weiß wie das Bild aussieht und ergänzt den Rest einfach.

Im Prinzip ist es ne art halbes Cloud gaming.
Was dazu führt das, wenn die RTX2000er keinen Support mehr erhalten auch keine Trainigsdaten mehr einfließen. Das ist ein sehr bitterer Beigeschmack.
Beitrag automatisch zusammengeführt:

Nachtrag, hier kann der Hersteller dann bestimmen wie lange es Trainingsdaten geben soll.
2 - 3 Jahre nach Release und dann nur noch Bugs fixen und security-related patches bis 5 Jahre oder so ähnlich.

Damit wir der Kunde noch mehr motiviert schneller was neues zu kaufen.
 
Mich ärgert das ein wenig. Die KI muss aber vorher mit 8K Bildern trainiert werden. Das macht Nvidia in der Cloud. Die Trainigsdaten werden dann beim reinladen des Games verwendet.

Die KI ist nicht in der Lage mit einem unbekannten untrainiertem Game richtig zu funktionieren. Was die KI eigentlich macht is Puzzeln, es weiß wie das Bild aussieht und ergänzt den Rest einfach.

Im Prinzip ist es ne art halbes Cloud gaming.
Was dazu führt das, wenn die RTX2000er keinen Support mehr erhalten auch keine Trainigsdaten mehr einfließen. Das ist ein sehr bitterer Beigeschmack.
Beitrag automatisch zusammengeführt:

Nachtrag, hier kann der Hersteller dann bestimmen wie lange es Trainingsdaten geben soll.
2 - 3 Jahre nach Release und dann nur noch Bugs fixen und security-related patches bis 5 Jahre oder so ähnlich.

Damit wir der Kunde noch mehr motiviert schneller was neues zu kaufen.
Grundsätzlich richtig aber nicht ganz richtig. Erstmal, aber das ist eine persönliche Sache, rollen sich jedes mal meine Fußnägel hoch, wenn ich KI lesen. In diesem konkreten Fall wäre der Terminus Deeplearning korrekt. Aber darum geht es garnicht, sondern darum, dass mit zunehmenden Trainingsdaten, der Algorithmus immer eher dazu in der Lage ist, auch mit unbekannten Daten arbeiten zu können. Das ist ja überhaupt der Sinn von solchen Algorithmen - unbekannte Dinge zu erkennen. Würde es sich ausschließlich um bekannte Daten handeln, bräuchte ich kein DL sondern einfach eine Datenbank.
 
Was er möglicherweise möchte ist mich persönlich anzugreifen, dass gelingt ihm schlichtweg nicht. Er versucht krampfhaft einen Fehler zu suchen
Das lustige bei dir ist ja, dass jeder den Fehler sieht und sich seinen Teil denkt (okay, manch einer, und jetzt auch mal ich, fühlt sich genötigt sich darüber mit einem Beitrag zu amüsieren). Wenn sich dann aber mal wirklich einer die Mühe macht deine Zitate zusammenzufassen dann wird das ganze richtig spaßig. In dem Sinne, kein persönlicher Angriff, mach einfach weiter wie bisher, finde aktuell nur deine Schriftgröße bisschen klein ;)

Ich gehe jetzt erstmal ne Runde Gwint in Witcher zocken, hoffe der Inputlag lässt mich heute wenigstens mal eine Karte korrekt ausspielen :fresse2:
 
Ich sehe in DLSS 3 einfach einen unglaublichen Performance Sprung den es so noch nie gegeben hat. Bin auch schon seit 3Dfx und Quake Tagen unterwegs. Ob man diese massive Mehrleistung jetzt einsetzt um neue Technik wie Pathtracing zu realisieren, oder um einfach effizienter und z.B. stromsparender zu werden ist ja einem selbst überlassen. Die Diablo 4 Beta braucht auf der großen Karte etwas unter 100 Watt. Mit DLSS 3 (für release angekündigt) bin ich locker im 120 FPS Cap und ganz sicher deutlich unter 100 Watt. Bei 4k/120 und max. Details.
 
Einige Nutzer sind von der Vielfalt der Möglichkeiten in den Einstellungen zur DLSS überfordert oder sehen Abhängigkeiten, wo es eigentlich keine gibt.
Ich gebe zu, ich war so ein Kandidat, hatte mich allerdings auch bisher nie so wirklich im Detail damit befasst, also Danke für den verständlichen Artikel.

Gestern dann in Cyberpunk die Dinge ausprobiert und vor allem "Frame Generation" in Verbindung mit RT ist schon erstaunlich. 30-60 fps übern Daumen gepeilt an je nach dem mehr auf der Uhr. Für mich sind zumindest in CP die optischen Unterschiede durch DLSS zwar sichtbar, aber im Rahmen / kommt auf die Szene an. In Multiplayern würde ichs aber sowieso auch nicht nutzen / ist auch nirgends nötig, dann lieber an anderen Reglern drehen.
 
Inhaltlich sehr gut dargestellt, auch wenn ich dieser Technik immer noch skeptisch gegenüber stehe.
Hab allerdings selbst auf der 3080 nur ein paar Titel mit DSLL gesehen.
Leider nehmen auch bei euren Artikeln, wie auch anderswo, gerade bei PC-Welt o.Ä. auf Facebook, die Rechtschreibfehler immer mehr zu und es macht einfach keinen Spaß mehr solche Artikel zu lesen. Man kann durchaus mal ein Wort falsch schreiben, aber so penetrant Genitiv und Dativ zu verwechseln erinnert doch stark an Förderschule.
Sorry aber das musste mal raus.
 
Ich sehe in DLSS 3 einfach einen unglaublichen Performance Sprung den es so noch nie gegeben hat. Bin auch schon seit 3Dfx und Quake Tagen unterwegs. Ob man diese massive Mehrleistung jetzt einsetzt um neue Technik wie Pathtracing zu realisieren, oder um einfach effizienter und z.B. stromsparender zu werden ist ja einem selbst überlassen. Die Diablo 4 Beta braucht auf der großen Karte etwas unter 100 Watt. Mit DLSS 3 (für release angekündigt) bin ich locker im 120 FPS Cap und ganz sicher deutlich unter 100 Watt. Bei 4k/120 und max. Details.
Mir wäre das Risiko in Hardcore oder ähnliches zu hoch auf falsche Bildinformationen zu setzen. Ein falscher klick in ein Boss Geschoss oder Fähigkeit = TOD.
Das Risiko wäre mir zu hoch. Dann kommt noch die gute alte Latenz des Internets mit rein.
Deshalb ist Frame Generation weniger ein Problem bei lokalen Spielen als bei Internetspielen, kann mir das gut bei Horizon Zero Dawn, Assassin Creed etc. super gut vorstellen.
Wenn aber auf Lagschatten noch falsche Frameinformationen drauf kommen wird es eklig.
In Softcore wird es wohl kein Problem mal zu sterben... wäre mir aber zu ansträngend.
 
Das lustige bei dir ist ja, dass jeder den Fehler sieht und sich seinen Teil denkt (okay, manch einer, und jetzt auch mal ich, fühlt sich genötigt sich darüber mit einem Beitrag zu amüsieren). Wenn sich dann aber mal wirklich einer die Mühe macht deine Zitate zusammenzufassen dann wird das ganze richtig spaßig. In dem Sinne, kein persönlicher Angriff, mach einfach weiter wie bisher, finde aktuell nur deine Schriftgröße bisschen klein ;)
Man kann es niemanden recht machen, den einen ist meine Schriftgröße zu klein, den anderen zu groß: C'est la vie. Da gab es schon mindesten drei, die nichts besseres zu tun hatten, als meine ganzen Beiträge der letzten Jahre zu lesen, einfach :stupid:, hatten nichts besseres zu tun. Jeder ist gut, macht Dich nicht lächerlich, wenn ich sehe wie einige hier in diesen Forum mit mindesten vier Accounts unterwegs sind, um NVIDIA und INTEL zu verteidigen:lol::btt2::btt:

Zum Thema:
Die ganzen Techniken wie Super Resolution, KI usw., die Firmen haben gerade erst mit der Entwicklung angefangen, niemand weiß, wo die Entwicklung uns Menschen noch hinführt.

 
Die ganzen Techniken wie Super Resolution, KI usw., die Firmen haben gerade erst mit der Entwicklung angefangen, niemand weiß, wo die Entwicklung uns Menschen noch hinführt.
Die Innovation resultiert daraus, dass man eher versucht Hardware zu sparen und nein vor 10 Jahren hatten sich die wenigsten Big-Tech Konzerne dem Ökologischen Nachhaltigen gewidmet.
In der heutigen Zeit würde man das als Nachhaltigkeit verkaufen und eine Möglichkeit Ressourcen zu sparen.
Praktischer weise ist es das auch, nur das wird nie beim Kunden ankommen und war nie der Plan. Man wollte damit Produktkosten sparen bei gleich bleibenden oder höheren Preisen.
Abgesehen vom Mining sieht man das ja auch, wie sich das Nvidia vergolden lässt.

Aber genau ist auch das Problem beim genaueren hinschauen: Es sind nicht Grafikkarte im Einstieg oder der Mittelklasse die großzügig mit KI-/Deeplearnung "Tensor" Cores bestückt werden sondern immer das super High-End das sowieso schon so viele Transistoren hat, das die das eigentlich kaum brauchen.
Genau das untere Preissegment bedarf es preisgünstiger Hardware die mit Tricks halt eben mehr erreichen könne, als Hardware die sowieso schon massiv Rohleistung hat.
Schaut man sich 4070/4070TI an, sieht man ja wie man synthetisch das Produkt beschneidet... es könnte ja mit mehr Speicherbandbreite und Speicher die teuren Modelle obsolet machen/weniger attraktiv.

Egal was an Innovation kommt, es kommt wenig beim Kunden als Konsumentenrendite an. Das einzige was konstant bleibt sind die gebrauchtwaren Preise für gewisse GPUs oder CPUs, aber nichts das man davon profitieren könnte.
Rein technisch, ist die RTX 3000er in der Lage Framegeneration zu supporten. Es hat alle notwendigen Hardwareintegrationen.
Es ist einfach eine Frechheit wie mein teureres Produkt wie die 3090 einfach wie eine heiße Kartoffel fallen lässt. Das sagt mir einfach nur das es sich bei Nvidia nicht mehr lohnt High-End zu kaufen, weil es dort einfach genauso miesen Support gibt wie für eine 3050. Das einzige was die 3000er im Nachteil hätte wären leicht erhöhte Latenzen bei der Framegeneration. Aber ganz ehrlich das soll der Kunde doch selbst entscheiden... wie bei DLSS ob er Quality oder High Performance haben möchte. In dem Fall ob er Frame Generation haben möchte oder nicht.

Es ist sowieso nur eine Frage der Zeit, bist man Features als Pay-Service/Abo freischalten müsste. Also in der 5000er Generation könnte das erste mal zusätzlich Software as a Service dazu kommen, damit Frame Generation oder Pathtracing Features von der Grafikkarte unterstütz werden, extra kostet.
 
Zuletzt bearbeitet:
Aber ganz ehrlich das soll der Kunde doch selbst entscheiden... wie bei DLSS ob er Quality oder High Performance haben möchte.
Das tut er. In dem er kauft oder nicht kauft. Entweder man ist bereit einen Preis für eine gewisse Leistung zu zahlen oder nicht.

Ok, ich lasse das Argument gelten, dass du vorher nur bedingt wissen konntest, wie lange der Support später halten würde. Aber auch dann gilt die Entscheidung für die Zukunft. Negative Erfahrungen aus der Vergangenheit können in denn Entscheidungsprozess für die Zukunft einfließen.

Der Produzent steht auch unter Druck. Wenn Produzent B weniger Qualität für den gleichen Preis anbietet und der Konsument trotzdem kauft, muss Produzent A das ebenfalls machen, weil er sonst irgend wann aus dem Markt getränkt wird von Produzent B der mehr Ressourcen hat.

Genau so ist das auch mit Gebrauchtwagen in den USA passiert. Händler B hat Kunden abgezockt. Kunden haben das gerafft und haben ihre Erwartung angepasst. Auch ihre Preiserwartung. Die konnten von Händler A, der Kunden nicht abgezockt hat nicht mehr bedient werden und hat darum den Markt verlassen. Dann begann die Spirale, die den jeweils ehrlichsten nach einander rausgedrängt hat. Das Ergebnis war, dass fast noch noch Abzocker im Markt waren. Obwohl das keine Seite wollte. Weder die Kunden noch die A Händler.
 
Inputlag geht gar nicht, da kann man ja nicht mal Lemmings spielen!
 
Rein technisch, ist die RTX 3000er in der Lage Framegeneration zu supporten. Es hat alle notwendigen Hardwareintegrationen.
Hast du dazu ne Quelle? Kurz nach Release der 4000er Reiher gabs eine inoffizielle Aussage von einem NVidia Mitarbeiter, das der Optical Flow Accelerator auf einer 3000er Karte zu langsam wäre. Wenn man den Algorithmus weiter optimieren würde, wäre FG vielleicht machbar, aber das sei ungewiss. Oder zumindest hab ich das so in Erinnerung. Gibts da inzwischen neuere infos zu?
 
Hast du dazu ne Quelle? Kurz nach Release der 4000er Reiher gabs eine inoffizielle Aussage von einem NVidia Mitarbeiter, das der Optical Flow Accelerator auf einer 3000er Karte zu langsam wäre. Wenn man den Algorithmus weiter optimieren würde, wäre FG vielleicht machbar, aber das sei ungewiss. Oder zumindest hab ich das so in Erinnerung. Gibts da inzwischen neuere infos zu?
So ist mir das auch bekannt. Allerdings nicht die Karte sondern die Tensorkerne. Laut Nvidia hat sich deren Performance um den Faktor 2 - 2,5 verbessert. Die Performance der Tensorkerne der 3000er Generation sind nach Aussage Nvidias zu schwach um Frame Generation so anzubieten, dass der User einen Vorteil davon hat.

Ob das stimmt weiß ich nicht, es ist aber gut möglich und sogar wahrscheinlich.
 
selbst wenn es nur die hälfte an boost ist wie bei lovelace wäre es immer noch besser. und würde sich lohnen.

aber nvidia will ja die neue karten verkaufen. wenn man einer 3080/3080 fg spendieren würde, würde man sich die vekäufer der 4070/4070ti kaputt machen
 
selbst wenn es nur die hälfte an boost ist wie bei lovelace wäre es immer noch besser. und würde sich lohnen.

aber nvidia will ja die neue karten verkaufen. wenn man einer 3080/3080 fg spendieren würde, würde man sich die vekäufer der 4070/4070ti kaputt machen
Nein, da es nicht um die Frameraten geht sondern um den Lag.

Dein Ansatz ist: ok, dann ist der Bonus an extra FPS halt kleiner. Aber darum geht's gar nicht. Wir haben zwei Personen. Ein Kraftsportler und eine unsportliche Person. Der Kraftsportler stemmt 120 Kilo in die Luft. Dein Ansatz ist: okay, dann gebe ich der unsportlichen Person halt nur 1/ 3 des Gewichtes. Besser als nichts. Das ist aber nicht das Problem. Der unsportliche kann die Technik nicht. Darum bringt er garnichts in die Luft und bei dem Versuch verletzt er sich vermutlich.

Wenn ich es richtig verstanden habe würde der Lag der bei der Frame Generation eintritt sehr stark ansteigen und würde unter dem Strich bedeuten, dass ein bisschen mehr FPS mit hohen Lags einhergehen würde. Daher wird das nicht gemacht. Wie gesagt überprüfen kann ich das nicht.
 
der inputlag bei hogwarts ist geringer als der, den man damals be einem 60hz schirm mit vsync bekommt.

auch bei dying light 2 ist er sehr sehr gering.

natürlich ist das nix für competetive. aber jedes ernshafte competetive game rennt eh aufm toaster.
 
der inputlag bei hogwarts ist geringer als der, den man damals be einem 60hz schirm mit vsync bekommt.

auch bei dying light 2 ist er sehr sehr gering.

natürlich ist das nix für competetive. aber jedes ernshafte competetive game rennt eh aufm toaster.
Es geht aber nicht um den Toaster sondern um die Tensorekerne des Toasters. Wir wissen nicht wie hoch der Lag ausfällt. Du hast vielleicht den normalen im Sinn... der ist es aber vielleicht nicht...
 
Zuletzt bearbeitet:
Hast du dazu ne Quelle? Kurz nach Release der 4000er Reiher gabs eine inoffizielle Aussage von einem NVidia Mitarbeiter, das der Optical Flow Accelerator auf einer 3000er Karte zu langsam wäre. Wenn man den Algorithmus weiter optimieren würde, wäre FG vielleicht machbar, aber das sei ungewiss. Oder zumindest hab ich das so in Erinnerung. Gibts da inzwischen neuere infos zu?
1682684087706.png

1682684141740.png

Ich nehme mir hier anhand der technischen Dokumentation die Freiheit ein es würde funktionieren zu interpretieren.

Der Optical Flow Accelerator nach ist meines Wissens nach der Hauptbestandteil von Frame Generation.
Nach meiner Ansicht nach, müsste man nur Ampere "Whitelisten" und es würde out of the box funktionieren, da es die Hardware und Funktionen sogar 1:1 unterstützt.

Mit gewissen Anpassungen theoretisch und technisch bestimmt auch mit Turing machbar, allerdings könnte es dort eher mehr als Konzept funktonieren als tatsächlich irgendwie nützlich zu sein.

Meiner Anischt nach sollte das der Kunde selbst entscheiden, und bei älteren Karten einfach als experimentelles feature in den Treibereinstellungen locken und die User müssen halt den Bedinungen zustimmen das sich daraus keine Support oder rechtliche Ansprüche an der Nutztung enstehen und eben das so akzeptieren vor der Nutzung.

Das wie mit Intels AVX-512, es wäre gegangen und erste Tests haben nicht von technischen Problemen berichtet.
Es wurde einfach nachträglich entfernt "sry wir haben das nicht vailidert"... einfach lächerlich 8-)

Grüße
 
Zuletzt bearbeitet:
Anhang anzeigen 881624
Anhang anzeigen 881625
Ich nehme mir hier anhand der technischen Dokumentation die Freiheit ein es würde funktionieren zu interpretieren.

Der Optical Flow Accelerator nach ist meines Wissens nach der Hauptbestandteil von Frame Generation.
Nach meiner Ansicht nach, müsste man nur Ampere "Whitelisten" und es würde out of the box funktionieren, da es die Hardware und Funktionen sogar 1:1 unterstützt.

Mit gewissen Anpassungen theoretisch und technisch bestimmt auch mit Turing machbar, allerdings könnte es dort eher mehr als Konzept funktonieren als tatsächlich irgendwie nützlich zu sein.

Meiner Anischt nach sollte das der Kunde selbst entscheiden, und bei älteren Karten einfach als experimentelles feature in den Treibereinstellungen locken und die User müssen halt den Bedinungen zustimmen das sich daraus keine Support oder rechtliche Ansprüche an der Nutztung enstehen und eben das so akzeptieren vor der Nutzung.

Das wie mit Intels AVX-512, es wäre gegangen und erste Tests haben nicht von technischen Problemen berichtet.
Es wurde einfach nachträglich entfernt "sry wir haben das nicht vailidert"... einfach lächerlich 8-)

Grüße
Wo genau kann man in dieser Übersicht die Performance der Tensorkerne sehen?
 
Tabelle: 4 und Tabelle 3 die ist im Link.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh