Lovelace Smalltalk Thread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, wollte seinerzeit eine Gamerock für 1679 schießen (oder waren es sogar 1779?), daher weiß ich das noch. Auf jedenfall mehr als der Preis für die 4090 beim Mindstar. Aber keine Chance gegen die Scalper. verrückte Zeiten waren das. Kurz nach Launch dann nur noch Fantasiepreise...
 
Für 1499€ hatte man echt 0,0 Chancen beim 3090 Release. Weiß noch, ich hatte eine Asus Tuf für 1600€ bei Alternate bestellt, was der Startpreis war. Innerhalb weniger Minuten ging es hoch und meine Karte für 1,6K€ war dann komischerweise doch nicht lieferbar. Habe mehrere Monate die Bestellung einfach drin gelassen und Alternate hat auch Tufs ausgeliefert aber meine Bestellung dabei nicht mehr berücksichtigt. :fresse: Konnte aber kurz nach Launch zumindest ne Gainward kriegen für 1700€.
 
Die PNY 4090 XLR8 gibt's jetzt auch für 1.649 Euro im MindStar.
 

Anhänge

  • Screenshot_20230410_212922_DuckDuckGo.jpg
    Screenshot_20230410_212922_DuckDuckGo.jpg
    103,6 KB · Aufrufe: 57

Zitat aus dem Artikel:
Laut Nvidia soll die Geforce RTX 4070 ohne Frame Generation exakt die gleiche Leistung bieten wie die Geforce RTX 3080. Unter Verwendung von DLSS 2 soll die neue Mittelklasse 1,2× schneller sein als die Geforce RTX 3070 Ti und 1,3× schneller als die Geforce RTX 3070. Kommt DLSS 3 mit Frame Generation ins Spiel, soll die neue Grafikkarte bis zu 1,8× schneller sein als die Geforce RTX 3090 Ti.
 

Anhänge

  • Frostbite.PNG
    Frostbite.PNG
    154,9 KB · Aufrufe: 49
Bewertungen lesen sich nicht wirklich gut.
Immer wieder wird gebraucht als neu verkauft. Hm….
 
Immer wieder wird gebraucht als neu verkauft. Hm….
Fairerweise sind das vermutlich all die Karten die halt zu viel bestellt wurden und teilweise grundlos retoure gehen. Da ist dann halt das Siegel gebrochen ... Aber wenn du bestellst und du bekommst B-Ware kannst du ja auch wieder retournieren. Irgendwo müssen die ganzen Überbestellungen ja landen, musst nur mal hier durch die Threads schauen wo User teilweise 5 4090 gleichzeitig bestellt haben.
 
4070 12gb erwartete Performance:
1681226609876.png


Oh ich bin nicht up to date :d
 
4070 12gb erwartete Performance:
Anhang anzeigen 875647

Oh ich bin nicht up to date :d
Ich zitiere: Kommt DLSS 3 mit Frame Generation ins Spiel, soll die neue Grafikkarte bis zu 1,8× schneller sein als die Geforce RTX 3090 Ti.
 
Ich finde solche Leaks immer witzig, wenn wir schon in zwei Tagen alles ganz genau und offiziell wissen werden. Aber gut, der ein oder andere (siehe Dark Soul ;) ) möchte sich tatsächlich schon heute den Kopf darüber zerbrechen.
 
Ich werde mich jetzt maximal blamieren, aber kann man eigentlich die 4000er-Karten dazu zwingen DLSS3 zu benutzen, auch wenn ein bestimmtes Spiel das nicht unterstützt?
Also sagen wir mal, es gibt in Spiel XY in den Grafik-Einstellungen kein extra DLSS3, kann ich das dann in Nvidia-Control erzwingen, dass das trotzdem benutzt wird?
 
Mein Verständnis ist, dass das zwingend im Spiel implementiert werden muss und nicht extern erzwungen werden kann.
Wenn das möglich wäre, würde Nvidia es sicherlich bewerben ;)
 
Warum sollte man es überhaupt nutzen?

Hier ist die ganze Diskussion warum ich persönlich es als Murkstechnologie bewerte und auf Erkenntnis in der Branche hoffe
(Hardwareunboxed hat das eigene Wording auch schon geändert).
 
Warum sollte man es überhaupt nutzen?
Hab den verlinkten Thread mal schnell überflogen. Gehe da nicht mit, finde DLSS ne gute Technologie. Vielleicht nicht für alle, aber für mich persönlich schon, weil ich von den von dir bemängelten Input Lags irgendwie nichts merke, vielleicht bin ich zu alt.
Wie Nvidia die Bilder berechnet ist mir ehrlich gesagt wurscht, ob Nativ oder mit nem Würfelalgorythmus ist mir egal solange es gut aussieht und die Performance verbessert, bin da ganz pragmatisch :d Ob man da technisch ne Verschlechterung Messen kann ist ja erstmal nicht relevant wenn man es beim zocken nicht merkt. Wenn die Technologie für dich gar nicht funktioniert und du dadurch nen schlechteres Erlebnis hast will ich dir den Unmut natürlich nicht absprechen.
 
Input Lags irgendwie nichts merke, vielleicht bin ich zu alt.
Dann ist es auch egal und du kannst dir mit nem Edding ne beliebige Zahl auf den Monitor schreiben. Dann brauchst du DLSS3.0 auch nicht :shot:
 
Aber vielleicht finde ich es einfach toll, wenn da ne hohe FPS zahl steht? :fresse:

*edit*
Gefühlt bringt es ja aktuell alles eh nicht, weil irgendwie 80% der Spiele als absolut räudige Ports auf den Markt kommen, sodass man ganz andere Probleme hat.
 
Aber vielleicht finde ich es einfach toll, wenn da ne hohe FPS zahl steht? :fresse:
Das ist ja genau der Punkt. Nimm dir nen Edding und schreib ne Zahl auf den Bildschirm. 144, 240, was auch immer dir gefällt.
Ist genausogut wie DLSS3.0 :shot:

Da wo DLSS2.4 gut genug ist brauchst du es nicht mehr, und da wo DLSS2.4 nix mehr bringt ist DLSS3.0 auch fürn Eimer.
> Sinnlose Technologie. Nur Downside, keine Upside die man nicht auch mit nem Edding hinbekommen könnte.

Jetzt bin ich wieder still und hoffe du (und andere) kommen zur Vernunft und erkennen es :xmas:
 
Das Problem tritt aber nur bei FG auf, oder? Wenn das abschaltet und nur den Upscaler nutzt (Super Resolution oder wie das heißt) dann hat man das Problem ja nicht.
 
Warum sollte man es überhaupt nutzen?

Screen_Shot_2022_09_20_at_4.34.40_PM.jpg

Gegenfrage: Warum sollte man es nicht nutzen? Eben! Na, vielleicht weil 96 FPS besser sind als 22 FPS? Ja, es sitzt eine KI dahinter aber das ist ja das tolle.
Wenn man mit DLSS3 deutlich mehr Frames rausholen kann ohne die Grafikkarte zusätzlich zu belasten, ist das schon eine feine Sache.

Hier mal ein Zitat von Gamestar:
Denn vereinfacht ausgedrückt sagt der KI-Algorithmus nun nicht mehr einzelne Pixel voraus, sondern komplette Frames. Dadurch wird die Grafikkarte laut Nvidias PR-Aussagen so stark entlastet, dass man sogar in vielen Fällen ans CPU-Limit stößt, ehe man die FPS-Grenze der Grafikkarte erreicht.
 
Gegenfrage: Warum sollte man es nicht nutzen? Eben! Na, vielleicht weil 96 FPS besser sind als 22 FPS? Ja, es sitzt eine KI dahinter aber das ist ja das tolle.
Wenn man mit DLSS3 deutlich mehr Frames rausholen kann ohne die Grafikkarte zusätzlich zu belasten, ist das schon eine feine Sache.
Kann es sein dass du keinen Plan von Technologie hast und einfach nur Irgendwas hinklatschst ohne zu wissen was?
Ich hab keinen Plan wer dieses Bild gemacht hat (wahrscheinlich NV Marketing), aber es ist einfach nur Quatsch.

Und das Gamestar Zitat ist auch Quatsch. Es ist schlicht und einfach falsch. Fake News. Gelogen bzw. erfunden. Da wird nix vorhergesagt.

Ich empfehle zur Lektüre - bevor wir weiter Technologie diskutieren - diese Links:
Und dann müssen wir noch über Nvidia Reflex reden... naja.
 
Zuletzt bearbeitet:
Hat ja nun jeder verstanden, dass Du nichts davon hältst. Willst Du jetzt auch in diesem Thread so lange weiter machen bis einer sagt "ok, ich finde es auch scheisse, danke für die Erleuchtung"?

Ich hab FG bisher nur in einem Game (W3) ausprobiert, und da läuft es ohne Probleme. Und sollte es einen Input Lag geben, so spielt er hier keine Rolle. Da es zudem optional ist, gibt es überhaupt kein gut oder schlecht, sondern nur die persönliche Präferenz.
 
Lohnt sich nicht mit 2k5lexi zu diskutieren bei der Thematik... der hat sich da schon ziemlich fest gefressen und lässt sich von "Quellen" überzeugen, die seine Ansicht bestätigen, obwohl diese nachweislich falsch sind. Könnt das Thema oben ja mal durchlesen und schauen, welchen mentalen Spagat man da macht um die Technologie schlecht zu reden.

Gehe mit @***** mit, FG und DLSS sind geniale Techniken - solange man nicht professionell damit spielen will, da ist es dann fehl am Platze, da es (noch :d) nicht die Zeit vorhersehen kann.
 
Kann es sein dass du keinen Plan von Technologie hast und einfach nur Irgendwas hinklatschst ohne zu wissen was?
Ich hab keinen Plan wer dieses Bild gemacht hat (wahrscheinlich NV Marketing), aber es ist einfach nur Quatsch.

Und das Gamestar Zitat ist auch Quatsch. Es ist schlicht und einfach falsch. Fake News. Gelogen bzw. erfunden. Da wird nix vorhergesagt.

Ich empfehle zur Lektüre - bevor wir weiter Technologie diskutieren - diese Links:
Und dann müssen wir noch über Nvidia Reflex reden... naja.
Zitat von nvidia.com:
DLSS 3 mit Optical-Multi-Frame-Erstellung

"Erhöht die Leistung durch den Einsatz von KI, um mehr Frames zu generieren. DLSS analysiert sequenzielle Frames und Bewegungsdaten des neuen Optical-Flow-Beschleuniger auf GPUs der GeForce RTX 40-Serie, um zusätzliche qualitativ hochwertige Frames zu erstellen."

So, wo ist das jetzt bitte Quatsch, Fake News oder gelogen? Warum sollte Nvidia mit DLSS3 irgendeine Marketing Lüge abziehen wollen? Was hätten sie bitte davon?
Weiter unten auf der Homepage ist eine Grafik wo man deutlich den Leistungszuwachs mit aktiviertem DLSS sehen kann und das gleich bei mehreren Games.

Also wo hab ich jetzt bitte keinen Plan von Technologie? Ich habe lediglich ein Bild von Nvidias eigener Seite gepostet, aber ja das hat deren Marketingabteilung wahrscheinlich mit Photoshop erstellt..... :rolleyes2:
Du musst DLSS3 ja nicht nutzen wenn es dir zuwider ist! Die Framezahl wird in allen Spiele die DLSS3 unterstützen quasi verdoppelt. Von wegen Fake, was ist jetzt bitte so schlimm daran?
 
Lohnt sich nicht mit 2k5lexi zu diskutieren bei der Thematik... der hat sich da schon ziemlich fest gefressen und lässt sich von "Quellen" überzeugen, die seine Ansicht bestätigen, obwohl diese nachweislich falsch sind. Könnt das Thema oben ja mal durchlesen und schauen, welchen mentalen Spagat man da macht um die Technologie schlecht zu reden.
Du, der in eine Diskussion einsteigt und erstmal pauschal ad hominem diskutiert und bis zum Ende nicht verstanden hat was FG ist, wie es funktioniert, woher das Input lag kommt ... Du kommst jetzt um die Ecke und wirfst den Jungs von Hardware unboxed vor nachweislich falsch zu testen... Denen die Methodik offenlegen, Daten von Bewertung trennen und den mitunter saubersten Inhalt auf YouTube stellen...
Das sagt ne Menge über dich aus.
 
ich nutze FG aktuell in Hogwarts und habe es auch in cyberpunk probiert.

aufgrund meiner müll cpu muss ich das aktivieren um das cpu limit zu kaschieren und ob einige es glauben oder nicht, es funktioniert zumindest für mich so gut dass ich den klitzekleinen inputlag in kaufnehme um statt 60 dann 120fps zu haben.
heist, für mich sind die 120fps fake frames besser als wenn ich es auslassen würde.
artefakte konnte ich bis jetzt nicht so viele ausmachen. aber 2 spiele sind jetzt auch keine welt.

wenn die woche der 7800x3d kommt werd ich die 120fps evtl auch native haben und kann FG dann dort erstmal deaktivieren.


ein problem mit FG gibts in Dying Light 2. Dort gibts probleme mit dem Fadenkreuz was das spiel für mich z.b. nicht spielbar macht. vll ist das mitlerweile gepatcht, ka

FG zwingt mich außerdem den FPS limiter von RTSS nicht zu nutzen. Ich muss die FPS dann über das Nvidia Control Panel cappen oder ingame.

ich denke FG funktioniert dann besser wenn die grundframes noch halbwegs "hoch" sind. bei z.b. 30fps cpu limit kann ich mir vorstellen dass das ergebnis das schlechter ist als wenn die grundframes bei z.b. 60 oder 90 fps liegen
 
Zuletzt bearbeitet:
Du, der in eine Diskussion einsteigt und erstmal pauschal ad hominem diskutiert und bis zum Ende nicht verstanden hat was FG ist, wie es funktioniert, woher das Input lag kommt ... Du kommst jetzt um die Ecke und wirfst den Jungs von Hardware unboxed vor nachweislich falsch zu testen... Denen die Methodik offenlegen, Daten von Bewertung trennen und den mitunter saubersten Inhalt auf YouTube stellen...
Das sagt ne Menge über dich aus.

Puh... ich hab denen nirgendwo vorgeworfen falsch zu testen...
Ich glaub dein Langzeitgedächtnis brauch ne Auffrischung, vllt. liest du dir das Thema was du verlinkt hast nochmal selber durch?

Bin aber durch mit dir darüber zu diskutieren. Du hast bis heute nicht verstanden, was du redest und versuchst immer noch Leuten deine Meinung aufzudrücken, das mir ehrlich gesagt zu dumm.
Alleine das du nicht verstehst was n Algorithmus/ne KI ist disqualifiziert deine Meinung hier schon, da die Technik darauf aufbaut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh