Lovelace Smalltalk Thread

So, wo ist das jetzt bitte Quatsch, Fake News oder gelogen? Warum sollte Nvidia mit DLSS3 irgendeine Marketing Lüge abziehen wollen? Was hätten sie bitte davon?
Die haben bei der GTX970 über die Menge Vram gelogen (3.5gb gate). Sie verwenden in Demos nachweislich Äpfel und Birnen Daten.
Dein Bild oben zum Beispiel.
22 FPS ohne alles und dann 96 mit DLSS 2.4+3.0+Reflex. Und was weiß ich noch alles.
Auf jeden Fall nix was irgendwas über DLSS3.0 aussagt.
Ich könnte sicher noch mehr buddeln. Mehr nachweisbare Lügen von offiziellen Nvidia Vertretern raussuchen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
aluhut-shocked.gif
 
man müsste mal testen was passiert wenn man aus z.b. 30 fps heraus FG aktiviert. man hat ja quasi nur diese 30fps als Quelle und keine 60 oder 80 :)
 
Ich finde, seine Aussagen schaden dem Luxx als Teil des Hardwareluxx Teams… Ich konnte die beworbenen Frames nachstellen in Cyberpunk. Hatte 5K DLDSR mit allem auf Max + Path Tracing + FG + Ultra Performance getestet.
Ich finde deine Art ad hominem zu argumentieren schadet deiner Reputation.

Mach deinen Punkt über Technologie, nicht über Personen.
 
Im Debatierklub gut aufgepasst und den Begriff "Ad hominem argumentieren" für dich entdeckt?

Ich warte immer noch auf objektive, nachweisbare Beweise für deine steilen Thesen anstelle das du hier versucht dich moralisch über die anderen User zu stellen. Machst dich damit nur noch lächerlicher als mit deiner fehlenden Expertise.
 
man müsste mal testen was passiert wenn man aus z.b. 30 fps heraus FG aktiviert. man hat ja quasi nur diese 30fps als Quelle und keine 60 oder 80 :)
Was passiert ist klar, wenn man die Technologie verstanden hat.
30 FPS Basis, dazu jedes 2te Bild über FG, also 60. Dazu der Input von CPU und Eingabegerät immer ein Frame von der CPU, bzw. 2 Frames am Bildschirm, hinten dran.
Ich warte immer noch auf objektive, nachweisbare Beweise
Nimm die DLSS3.0 Videos von Hardware Unboxed, nimm deren Methodik, prüfe deren Ergebnisse.

Hast du jemals selbst FrameGeneration getestet?
Nö. Hab keine 4000er.
 
Zuletzt bearbeitet:
Nein, eben nicht. Es sind gefühlt 60FPS, weil ein Zwischenframe zwischen gerechnet wird, der durch AI (oder wie du es so schön nennst: nen Pixelalgorithmus) nen Bruchteil der Leistung eines normalen Frames kostet.

Wenn du wenigstens mit der Inputlagdebatte kommen würdest, dann hättest wenigstens worauf du dich beruhen kannst, aber so redest du nur Unsinn.
Oder wenn du die fehlende Bildqualität als Beweis heran ziehen würdest, wenn FG sich mal total verschätzt beim Zwischenframe.

Aber so redest du, mal wieder, nur Stuss. So reicht mir aber auch jetzt wirklich, reg mich wegen dir nur schon wieder auf.
 
Nein, eben nicht. Es sind gefühlt 60FPS, weil ein Zwischenframe zwischen gerechnet wird, der durch AI (oder wie du es so schön nennst: nen Pixelalgorithmus) nen Bruchteil der Leistung eines normalen Frames kostet.

Wenn du wenigstens mit der Inputlagdebatte kommen würdest, dann hättest wenigstens worauf du dich beruhen kannst, aber so redest du nur Unsinn.
Oder wenn du die fehlende Bildqualität als Beweis heran ziehen würdest, wenn FG sich mal total verschätzt beim Zwischenframe.

Aber so redest du, mal wieder, nur Stuss. So reicht mir aber auch jetzt wirklich, reg mich wegen dir nur schon wieder auf.
Du redest Stuss weil du immer noch nicht verstanden hast wie es funktioniert!

Der Algorithmus kennt keine Zukunft.
Er kennt nur Vergangenheit.
Um ein Frame irgendwo dazwischen zu schieben muss er wissen was ist und was sein wird.
Also wird die Zukunft verzögert. Damit er weiß was sein wird, dann kann er was dazwischen schieben. Die Darstellung des Bildes ist also immer mindestens 1 Frame versetzt gegenüber dem was der Input und die CPU tut.

Du brauchst immer 2 FPS von der CPU um etwas dazwischen zu schieben. Du verlängerst die Zeit bis etwas auf dem Bildschirm erscheint.

Zugegeben, ob das jetzt gefühlt halbierte FPS sind, weil die Frametime sich durch das verzögern verdoppelt, oder ob das gleiche Phänomen als Input lag bezeichnet wird ist geschenkt.

PS:
dein GIF oben find ich vor dem Hintergrund der 4080 12gb 4070ti doppelt lustig.
 
Zuletzt bearbeitet:
Gab es die Tage mal wieder einen 4090 FE Drop? Bzw. weiß jemand, wann der letzte Drop war?
 
Du redest Stuss weil du immer noch nicht verstanden hast wie es funktioniert!

Der Algorithmus kennt keine Zukunft.
Er kennt nur Vergangenheit.
Um ein Frame irgendwo dazwischen zu schieben muss er wissen was ist und was sein wird.
Also wird die Zukunft verzögert. Damit er weiß was sein wird, dann kann er was dazwischen schieben. Die Darstellung des Bildes ist also immer mindestens 1 Frame versetzt gegenüber dem was der Input und die CPU tut.

Du brauchst immer 2 FPS von der CPU um etwas dazwischen zu schieben.

... wieso versuchst du weiterhin über etwas zu diskutieren, was du nicht verstehst.
Wenn du wirklich glaubst, das FG auf den 2. realen Frame wartet, solltest du dir vllt. doch nochmal Basiswissen aneignen wie die Technik funktioniert, bevor du weiter nur unwahrheiten von dir gibst.
Laut deinem Beispiel würde sich der Inputlag bei FG ja verdoppeln und das sollte es ja super einfach für dich machen mich nun zu wiederlegen :) Viel Erfolg dabei.
 
... wieso versuchst du weiterhin über etwas zu diskutieren, was du nicht verstehst.
Wenn du wirklich glaubst, das FG auf den 2. realen Frame wartet, solltest du dir vllt. doch nochmal Basiswissen aneignen wie die Technik funktioniert, bevor du weiter nur unwahrheiten von dir gibst.
Welche Quelle hast du?
Wenn ich falsch liege hätte ich gerne eine Quelle um den korrekten Sachverhalt nachzulesen wie es funktioniert.

@*****
Du machst den gleichen Stunt wie das Nvidia Marketing. Du schmeißt alles mögliche in einen Topf um einen Punkt für DLSS3.0 FG zu machen.
Du solltest evtl für deine Argumentation alles ohne FG und alles incl. FG vergleichen, um eine Aussage über FG treffen zu können.
 
Zuletzt bearbeitet:
Die Fakenews-Seite schlechthin... nvidia.com
DLSS-3.0-Frames-scaled.jpg


Der Frame 2 wird auf Grundlage der Vergangenheit (caching) und dem aktuellem Frame berechnet - die Berechnung ist die Latency die extra dazu kommt.
Das ist auch der Grund wieso es teilweise zu grafischen Fehlern kommt, gerade bei UI Elementen, weil die Vergangenheit als Grundlage für die Zukunft genommen wird.
Wenn dem nicht so wäre, müsste man nicht die Zukunft vorhersagen, sondern würde einfach Frame 2 auf Basis von Frame 1 und 3 generieren, das würde den Inputlag nicht nur verdoppeln, sondern sogar noch höher setzen. Würde dann aber grafische Fehler eleminieren, da man ja nichts mehr vorhersagt, sondern an Hand von Fakten generiert.

Wird übrigens auch in dem von dir so oft zitierten Video von Hardwareunboxed so beschrieben soweit ich mich richtig erinnere.
 
Der Frame 2 wird auf Grundlage der Vergangenheit (caching) und dem aktuellem Frame berechnet - die Berechnung ist die Latency die extra dazu kommt.
Das ist auch der Grund wieso es teilweise zu grafischen Fehlern kommt, gerade bei UI Elementen, weil die Vergangenheit als Grundlage für die Zukunft genommen wird.
Wenn dem nicht so wäre, müsste man nicht die Zukunft vorhersagen, sondern würde einfach Frame 2 auf Basis von Frame 1 und 3 generieren, das würde den Inputlag nicht nur verdoppeln, sondern sogar noch höher setzen. Würde dann aber grafische Fehler eleminieren, da man ja nichts mehr vorhersagt, sondern an Hand von Fakten generiert.
Danke, dann muss ich noch Mal nachschauen und nachlesen woher welche Info kommt die ich mir gemerkt habe und wo der Fehler in meinem Kopf herkommt. Und mir dann was anderes merken.
Dann ist DLSS3.0 deutlich beeindruckender.
Mea culpa.
 
(Witcher 3 getestet).
Stimme dem zu, zocke W3 auch gerade mit DLSS+FG (neuste von techpowerup) und das Bild ist echt super, zocke mit nem 100fps cap wg "ultimate" settings per mod, das Bild ist echt super!

Ich würde diese ganzen NV features bei comp. shootern (oder selbst bei wz2) natürlich auch nicht nutzen, aber gerade bei den games wo dlss/fg zum Einsatz kommt, also AAA Games mit vielen (RT) Effekten, kann ich nicht verstehen wieso man damit ein Problem haben kann? Natürlich kann ich cyberpunk auch ohne RT Pathtracing zocken, aber PathTracing+DLSS/FG+4ß90 sieht einfach genial aus und läuft deutlich besser mit dlss/fg, als ohne :fresse2:
 
Gab es die Tage mal wieder einen 4090 FE Drop? Bzw. weiß jemand, wann der letzte Drop war?
Abends am 29.03.2023 ist der letzte gewesen. Die 4090 FE war da dann noch bis am 30.03.2023 in der Früh bestellbar.
 
Zuletzt bearbeitet:
4070 ca. 5 % hinter 3080, bei fast halbiertem Verbrauch.

Für unter 600 € sicher OK, für WQHD oder FullHD...
 
Puh da wird ne gebrauchte 3080 TI schon fast attraktiv wenn man ein gutes Angebot findet bei 600.
 
Gibt es schon Infos wo heute was eintrudelt bis auf die FE bei NBB?

Oder bin ich im falschen Thread für die 4070
 
Leider kam es bei der Initialisierung von AmazonPay zu einem Problem. Bitte versuche es erneut oder wähle eine andere Zahlart.

sonst noch jemand der die 4070 nicht kaufen kann?
 
Leider kam es bei der Initialisierung von AmazonPay zu einem Problem. Bitte versuche es erneut oder wähle eine andere Zahlart.

sonst noch jemand der die 4070 nicht kaufen kann?
Paypal ging, KK nicht
 
Bei mir kam über das Shop Menü nur Ups, obwoh ich eine für 659 und eine für 669 in der Produktübersicht gesehen hab.
Mit Link über NVidia zu NBB war die Bestellung mit PayPal dann möglich. KK ging nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh