Neue Hinweise: AMD blockiert offenbar die Umsetzung von DLSS

Das habe ich ja auch schon geschrieben - und wäre auf jeden Fall auch interessiert, mehr über die Gründe dafür zu erfahren.
Entschuldige - hab ich tatsächlich überlesen.

Interessanterweise scheint auch XeSS eine hohe Resilenz aufzuweisen, aber das kann auch auf die geringere Spieleanzahl und geringere mediale Aufmerksamkeit zurückzuführen sein.

Ich weiss ja nicht, ob man ein HU-Video da jetzt als fundierte Quelle nennen sollte, wenn man sich das hier behandelte Thema so anschaut ;)
Warum nicht? Es wird fundiert auf alle Aspekte eingegangen (nicht nur Standbilder) und eine breite Auswahl an Spielen in verschiedenen Qualitätsstufen verglichen mit insbesondere abschließender Wertung. Ich persönlich jedenfalls sehe HU auch ein bisschen als Benchmark-Referenz (zusammen mit Igor) mit immer recht viel Testaufwand und größeren Spiele-Samples und Auge fürs Detail (die REBAR-Geschichte mit den unterschiedlichen Standardeinstellungen pro Mainboard z.B., oder im Falle von Igor die Diskrepanz zwischen Z790 und Z690-Performance beim 7950X3D-Review damals).

Das DLSS vs. FSR-Video ist ja auch schon älter als das bezüglich der Sponsoring-Geschichte, insofern sehe ich da jetzt auch keine Anzeichen für eine Befangenheit in der Sache.

Das ist doch grds. eine bessere Quelle als die sonst häufig anzutreffenden Screenshotvergleiche von 1-3 Spielen mit einzelnen Szenen. Klar, zumindest für den Standbildvergleich persönlich schwerer nachzuvollziehen als jetzt z.B. ein Websiten-Vergleich mit Slider; da muss man sich dann auf die Glaubhaftigkeit des Channels verlassen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Interessanterweise scheint auch XeSS eine hohe Resilenz aufzuweisen, aber das kann auch nur an der geringeren Spieleanzahl und geringeren medialen Aufmerksamkeit liegen.
Das wäre in der Tat eine interessante Frage - vielleicht sorgt ja einfach der DL-Part für weniger (oder zumindest weniger komplizierten/fehleranfälligen) Optimierungsaufwand?

Wenn man etwas, das sich mit ganz einfacher BWL auf Seiten der Spieleentwickler erklären lässt zur großen Verschwörung von AMD aufbauscht, dann hat man in meinen Augen seine journalistische Glaubwürdigkeit auf dem Altar von Klicks und sensationsgeiler Aufmerksamkeit geopfert. Da reagiere ich heutzutage eher empfindlich drauf.

Klar, "Glaubwürdigkeit" ist immer ein sehr subjektives Thema, aber da HU bei mir auch davor jetzt nie wirklich groß positiv rausgestochen ist hat man da halt kein 'Vertrauenspolster' um einen solchen sensationsjournalistischen 'Ausrutscher' auszugleichen ;)

Generell muss man sich natürlich bei den Vergleichen immer auf den entsprechenden Tester verlassen - sowohl Standbilder als auch lossy komprimierte Videos sind dafür einfach nicht geeignet. Und lossless Videos werden ja in den seltensten Fällen bereitgestellt :d
Ich bezog mich da auch immer nicht auf meine eigenen Beurteilungen, sondern immer auf die Bewertung/Fazit der jeweiligen Tester.
 
Wenn FSR ähnlich gut wie DLSS wäre, gäbs auch auch keines und es wäre aus Verbrauchersicht wie damals bei Freesync auch wünschenswert, wenn es DLSS verdrängen würde. Ist es halt leider nicht, und zwar z.T. um Längen. FSR ist kein vergleichbares Surrogat, das ist ja gerade der Punkt.
Wenn DLSS nicht closed source wäre, gäbe auch schon von AMD oder Intel alternativen die kompatibel wäre.
Ohne Spezifizierte Nvidia Hardware kein DLSS.
 
Das wäre in der Tat eine interessante Frage - vielleicht sorgt ja einfach der DL-Part für weniger (oder zumindest weniger komplizierten/fehleranfälligen) Optimierungsaufwand?


Wenn man etwas, das sich mit ganz einfacher BWL auf Seiten der Spieleentwickler erklären lässt zur großen Verschwörung von AMD aufbauscht, dann hat man in meinen Augen seine journalistische Glaubwürdigkeit auf dem Altar von Klicks und sensationsgeiler Aufmerksamkeit geopfert. Da reagiere ich heutzutage eher empfindlich drauf.

Klar, "Glaubwürdigkeit" ist immer ein sehr subjektives Thema, aber da HU bei mir auch davor jetzt nie wirklich groß positiv rausgestochen ist hat man da halt kein 'Vertrauenspolster' um einen solchen sensationsjournalistischen 'Ausrutscher' auszugleichen ;)

Generell muss man sich natürlich bei den Vergleichen immer auf den entsprechenden Tester verlassen - sowohl Standbilder als auch lossy komprimierte Videos sind dafür einfach nicht geeignet. Und lossless Videos werden ja in den seltensten Fällen bereitgestellt :d
Ich bezog mich da auch immer nicht auf meine eigenen Beurteilungen, sondern immer auf die Bewertung/Fazit der jeweiligen Tester.
Ich zitiere mich einfach mal selbst:

So gut wie jede Bewertung die ich bisher gelesen habe, die von Experten kamen und nicht von Wald und Wiesen Boys der Grünen oder Roten Fraktion, attestierten DLSS die Überlegenheit. Die meisten Direktvergleiche stammten noch von FSR 2 / DLLS 2.x. Egal ob Igor, PCGH, PC-Welt, CB, Thoms Hardware, Hardwareluxx. Die einen attestieren einen größeren Abstand die anderen schätzen den Abstand kleiner ein. Allerdings ist da Framgeneration / DLSS 3 nicht enthalten und das verschiebt die ganze Sache auch noch mal. Was AMD nachschiebt wissen wir nicht. Kann super sein oder eben halt auch nicht.

Sag uns doch mal bitte welche Quelle behauptet zwischen DLSS und FSR gibt es im Output keine nennenswerten Unterschiede?
 
Wenn man etwas, das sich mit ganz einfacher BWL auf Seiten der Spieleentwickler erklären lässt zur großen Verschwörung von AMD aufbauscht, dann hat man in meinen Augen seine journalistische Glaubwürdigkeit auf dem Altar von Klicks und sensationsgeiler Aufmerksamkeit geopfert. Da reagiere ich heutzutage eher empfindlich drauf.

Klar, "Glaubwürdigkeit" ist immer ein sehr subjektives Thema, aber da HU bei mir auch davor jetzt nie wirklich groß positiv rausgestochen ist hat man da halt kein 'Vertrauenspolster' um einen solchen sensationsjournalistischen 'Ausrutscher' auszugleichen ;)
Sensationsjournalistischer Ausrutscher? Eine öffentlich kursierende Anschuldigung genauer unter die Lupe zu nehmen, dem Viewer die Faktenlage zu präsentieren und in einer Gesamtbetrachtung mit nur finaler Tendenz abzuwägen ('likely') ist doch das genaue Gegenteil von einem Ausrutscher, sondern solide Arbeit.

Und dass das mit einfacher BWL (im von dir suggerierten Sinne) beim Thema FSR/XeSS/DLSS mangels Implementierungsaufwand nicht hinkommt, wurde ja bereits zur genüge diskutiert. Gilt die einfache BWL für unbhängige Titel plötzlich nicht mehr - schläft da das Controlling? Da geht ja beides. Genau wie bei den Nvidia-Exklusivtiteln.
Ironischerweise sind es unter den AMD-sponsored Games auch ausgerechnet die Konsolenports, die trotzdem DLSS anbieten. Die einfache BWL würde doch gegenteilig suggerieren, dass hier DLSS vom Entwickler am meisten vernachlässtigt worden wäre. Überzeugender: Gegenüber Sony hatte AMD einfach nicht genügend leverage, um den Vertragspunkt durchzusetzen.

Selbstredend ist die 'einfache BWL' hier zentral - AMD hat ein erhebliches Interesse daran, Nvidias Konkurrenzvorteil in Form von DLSS zu torpedieren. Würde ich an Stelle Lisa Sus ja auch machen; es sagt keiner, dass das objektiv dummes Geschäftsgebahren wäre; man stört sich halt an der Verbraucherfeindlichkeit.
 
Sag uns doch mal bitte welche Quelle behauptet zwischen DLSS und FSR gibt es im Output keine nennenswerten Unterschiede?
Da du ja scheinbar selbst die von dir genannten selbst nicht betrachtet hast: z.b. https://www.computerbase.de/2022-05...itt_fsr_20_und_dlss_20_liegen_dicht_beisammen
Und das ist ja noch FSR2.0
Weitere Beispiele darfst du dir gerne selbst raus suchen ;)

Eine öffentlich kursierende Anschuldigung genauer unter die Lupe zu nehmen
Gab es diese wirklich schon vorher? Ich hatte jetzt den Eindruck, dass diese ganze Diskussion von HU losgetreten wurde? Wenn das wirklich so sein sollte ziehe ich die Aussage natürlich zurück ^^

mangels Implementierungsaufwand
Auch wenig Aufwand ist Aufwand.
Ich sage ja nicht, dass ich das gut heiße oder auch so machen würde - auch wenn ich von NVidias proprietärem Ansatz nichts halte, so ist Wahlfreiheit für den Kunden immer besser, vor allem wenn es wenig Aufwand bedeutet.
Aber ich kann eben auch verstehen, wenn gesagt wird "Lieber stecken wir die Entwicklerstunden (auch wenn es nur ein oder zwei Manntage sein sollten!) in xxx als in eine redundante Option, die nur einem Teil der Kunden zugute kommen kann".

AMD hat (meines Wissens, gerne korrigieren!) bisher keinen Track Record, solchen verbraucherfeindlichen Praktiken nachzugehen - daher halte ich obiges für deutlich schlüssiger, als dass AMD wegen einer solchen 'Nichtigkeit' einen Shitstorm riskieren würde.
 
Da du ja scheinbar selbst die von dir genannten selbst nicht betrachtet hast: z.b. https://www.computerbase.de/2022-05...itt_fsr_20_und_dlss_20_liegen_dicht_beisammen
Und das ist ja noch FSR2.0
Weitere Beispiele darfst du dir gerne selbst raus suchen ;)


Gab es diese wirklich schon vorher? Ich hatte jetzt den Eindruck, dass diese ganze Diskussion von HU losgetreten wurde? Wenn das wirklich so sein sollte ziehe ich die Aussage natürlich zurück ^^


Auch wenig Aufwand ist Aufwand.
Ich sage ja nicht, dass ich das gut heiße oder auch so machen würde - auch wenn ich von NVidias proprietärem Ansatz nichts halte, so ist Wahlfreiheit für den Kunden immer besser, vor allem wenn es wenig Aufwand bedeutet.
Aber ich kann eben auch verstehen, wenn gesagt wird "Lieber stecken wir die Entwicklerstunden (auch wenn es nur ein oder zwei Manntage sein sollten!) in xxx als in eine redundante Option, die nur einem Teil der Kunden zugute kommen kann".

AMD hat (meines Wissens, gerne korrigieren!) bisher keinen Track Record, solchen verbraucherfeindlichen Praktiken nachzugehen - daher halte ich obiges für deutlich schlüssiger, als dass AMD wegen einer solchen 'Nichtigkeit' einen Shitstorm riskieren würde.
Ne, ich würde eher sagen du hast es nicht gelesen oder nicht verstanden was ich geschrieben habe. Da stand: einige sagen der Abstand ist gering. Und da stand, die meisten Vergleiche beziehen sich auf DLSS 2.x - was hier genau der Fall ist - und dass DLSS 3 noch mal die Messlatte verschiebt.

Und nein, weitere Beispiele brauche ich mir nicht raus suchen, ich habe bereits etliche rausgesucht, von denen die Meisten einen größeren Abstand sehen und manche einen kleineren - bei der alten Technologie. Hier mal eins von PCGH um die Grafik kurz zu erklären - je mehr + desto größer der Abstand. Theoretisch gäbe es auch ein FSR + , ++ . +++ aber die tauchen in der Grafik halt nicht auf weil... ja... die Autoren der Meinung sind, FSR hat in keinem der gelistet Spiele einen Vorsprung.. Aber ich nehme an, dass alle die ich hier Aufzählen könnte sowieso gekauft sind oder keine Ahnung haben, richtig?


Hardware-Unboxed-pcgh.jpg
 
Zuletzt bearbeitet:
DLSS kann 5x so gut wie FSR sein, es löst keine Probleme. Wenn es ein feature 'on top' wäre, kein Problem. Aber mit jeder Verbesserung von DLSS reduziert NV die Hardware im gleichen Maße, abseits vom absoluten highend. Der Kunde bekommt also keinen Mehrwert, NV steigert nur die Marge bei der Herstellung, während der Kunde dann darauf angewiesen ist, dass die Technik auch unterstützt wird um nicht sogar weniger FPS als mit 4+ Jahre alten Midrange-GPUS zu bekommen...

NV versucht hier mal wieder (Hairworks lässt grüßen) ein separates Ökosystem aufzubauen um Kunden da zu fangen und dann alle Marktteilnehmer zu melken. Von daher egal wie gut DLSS ist (es kann die beste Technologie der Welt sein), Titel ohne DLSS zeigen den Kunden wie ihnen die Hardware unter dem Hintern zusammen gestrichen wird und das kann für den gesamten Markt nur etwas gutes sein.


1687972593886-png.898818

sowas hier ist nur mit DLSS möglich. For shame NV, for shame!
 
DLSS kann 5x so gut wie FSR sein, es löst keine Probleme. Wenn es ein feature 'on top' wäre, kein Problem. Aber mit jeder Verbesserung von DLSS reduziert NV die Hardware im gleichen Maße, abseits vom absoluten highend. Der Kunde bekommt also keinen Mehrwert, NV steigert nur die Marge bei der Herstellung, während der Kunde dann darauf angewiesen ist, dass die Technik auch unterstützt wird um nicht sogar weniger FPS als mit 4+ Jahre alten Midrange-GPUS zu bekommen...

NV versucht hier mal wieder (Hairworks lässt grüßen) ein separates Ökosystem aufzubauen um Kunden da zu fangen und dann alle Marktteilnehmer zu melken. Von daher egal wie gut DLSS ist (es kann die beste Technologie der Welt sein), Titel ohne DLSS zeigen den Kunden wie ihnen die Hardware unter dem Hintern zusammen gestrichen wird und das kann für den gesamten Markt nur etwas gutes sein.
Hast du irgend einen konkreten Beweis dafür, dass NV absichtlich die Hardware abspeckt nur weil "DLSS" da ist oder ist das genau so ein Verdacht, so wie das AMD DLSS blockiert?
 
Ne, ich würde eher sagen du hast es nicht gelesen oder nicht verstanden was ich geschrieben habe. Da stand: einige sagen der Abstand ist gering. Und da stand, die meisten Vergleiche beziehen sich auf DLSS 2.x - was hier genau der Fall ist - und dass DLSS 3 noch mal die Messlatte verschiebt.

Und nein, weitere Beispiele brauche ich mir nicht raus suchen, ich habe bereits etliche rausgesucht, von denen die Meisten einen größeren Abstand sehen und manche einen kleineren - bei der alten Technologie. Hier mal eins von PCGH um die Grafik kurz zu erklären - je mehr + desto größer der Abstand. Theoretisch gäbe es auch ein FSR + , ++ . +++ aber die tauchen in der Grafik halt nicht auf weil... ja... die Autoren der Meinung sind, FSR hat in keinem der gelistet Spiele einen Vorsprung.. Aber ich nehme an, dass alle die ich hier Aufzählen könnte sowieso gekauft sind oder keine Ahnung haben, richtig?


Anhang anzeigen 900884
Um die Thematik abzurunden, fairer wäre es ja Titel zu vergleichen die DLSS nicht können und von AMDs Treiberseitigem FSR profitieren würden

Aber das wäre ja unfair und nicht vergleichbar.
Aber Fanboys sind halt Fanboys egal wie man dreht und wendet. Dann müsste man die Titel mit DLSS 3 und FG vs Titel ohne DLSS und Treiberseitigem FSR aufrechnen.

Nvidia will immer seinen eigenen Stiefel nachziehen, das war mit G-Sync genauso. Da kommt ein Monitor der kann nur FreeSync und Adaptive Sync und Meute packt die Mistgabeln aus... das es aber an Nvidia selbst liegen könnte kommt keiner drauf. Die verlangen übrigens Geld wenn sie nicht freiwillig dir was zur Verfügung stellen oder von dir wollen.
Beitrag automatisch zusammengeführt:

DLSS kann 5x so gut wie FSR sein, es löst keine Probleme. Wenn es ein feature 'on top' wäre, kein Problem. Aber mit jeder Verbesserung von DLSS reduziert NV die Hardware im gleichen Maße, abseits vom absoluten highend. Der Kunde bekommt also keinen Mehrwert, NV steigert nur die Marge bei der Herstellung, während der Kunde dann darauf angewiesen ist, dass die Technik auch unterstützt wird um nicht sogar weniger FPS als mit 4+ Jahre alten Midrange-GPUS zu bekommen...

NV versucht hier mal wieder (Hairworks lässt grüßen) ein separates Ökosystem aufzubauen um Kunden da zu fangen und dann alle Marktteilnehmer zu melken. Von daher egal wie gut DLSS ist (es kann die beste Technologie der Welt sein), Titel ohne DLSS zeigen den Kunden wie ihnen die Hardware unter dem Hintern zusammen gestrichen wird und das kann für den gesamten Markt nur etwas gutes sein.


1687972593886-png.898818

sowas hier ist nur mit DLSS möglich. For shame NV, for shame!
Das macht einem auch sorgen, das man sich Hardware spart um das mit Software zu kaschieren = Mehr Geld verdienen weniger Hardware investieren.
Beitrag automatisch zusammengeführt:

Hast du irgend einen konkreten Beweis dafür, dass NV absichtlich die Hardware abspeckt nur weil "DLSS" da ist oder ist das genau so ein Verdacht, so wie das AMD DLSS blockiert?
Naja einfach die 3060 mit der 4060 vergleichen, bis auf die Leistungszuwächse mit DLSS3.0 und FG... ist es kein Kassenschlager. Hier wurde definitiv gespart.
 
Hast du irgend einen konkreten Beweis dafür, dass NV absichtlich die Hardware abspeckt nur weil "DLSS" da ist oder ist das genau so ein Verdacht, so wie das AMD DLSS blockiert?
Ja klar, guck dir Screenshot an, ist aus dem hardwareLUXX-test der 4060. Und dann guck dir noch die slides von NV an. Überall nur DLSS Framegen für Vergleiche zu den alten gens. Da ist die 4060 dann doppelt so schnell, während die Rohleistung gegenüber den Vorgänger-Generationen gefallen ist.

Besonders die 4060 ist gegenüber der 3060 in allen Belangen kastriert, weniger Vram, weniger AI-Cores, weniger Cuda Cores eine geringere Speicherbandbreite. Ohne Framegen könnte NV da keinerlei Vorteil vermarkten.
 
AMD hat (meines Wissens, gerne korrigieren!) bisher keinen Track Record, solchen verbraucherfeindlichen Praktiken nachzugehen - daher halte ich obiges für deutlich schlüssiger, als dass AMD wegen einer solchen 'Nichtigkeit' einen Shitstorm riskieren würde.
In letzter Vergangenheit:
- Zen 3 sollte ursprünglich nicht mit älteren AM4-Boards kompatibel sein, nach shitstorm revidiert (ging also technisch doch)
- Zen 3 und Zen 4 zogen merklich im UVP gegenüber der Vorgängergeneration an, als man sich ggü. Intel in der konkurrenzfähigeren Position sah
- Zeitlich vorgezogener Release des 7950X3Ds und 7900X3D vor dem 7800X3D
- Hotspot-Probleme mit den RDNA3-Referenzdesigns wurden zuerst versucht, unter den Tisch zu kehren, (nach shitstorm revidiert)
- RDNA3-Bepreisung: mit der Einführung der XTX wurde das Pricing-Tier ebenfalls um eine Stufe nach oben verschoben; Rohleistung bietet man zwar billiger als Nvidia an, allerdings nur mit genau dem einpreisbaren Abschlag bzgl. Feature-Disparität (DLSS, Raytracing, Stromverbrauch).

Klar: Nvidia agiert im derzeitigen Markt noch deutlich verbraucherfeindlicher (FG-Exklusivität für die 4000er-Generation, Preisgestaltung, VRAM-Ausstattung, ...). Es ist aber äußerst naiv zu glauben, AMD käme nie auf die Idee, verbaucherfeinlich zu handeln - ich zitiere mich mal selbst aus anderer Stelle:
Es macht auch gar keinen Sinn, Nvidias oder AMDs Verhalten zu moralisieren: beide Konzerne handeln nur aus ökonomischen Überlegungen. Beide werden immer dann verbraucherfeindlich handeln, wenn es ihnen konkret nützt. Imageverluste werden dabei als ökonomischer Nachteil eingepriesen. (Die gerne angestimmte Ballade vom rechtschaffenem Underdog ist insofern ziemlicher Unsinn, falls es AMD gelingen sollte, Marktführer zu werden, wird man sich auch wie einer verhalten.)
Offenkundig hat man einen potenziellen Shitstorm hingenommen oder falsch eingepreist. Dass AMD sich jetzt nicht äußert, um Vorwürfe aus dem Weg zu räumen, indiziert, dass man sich vielleicht tatsächlich unbeabsichtigt verschluckt hat.

Gerade deswegen ist es aber auch so wichtig, derartige Praktiken entsprechend öffentlich zu geißeln, damit es in der konkreten Sache zum Umdenken kommt; wie es auch bei Nvidia ständig versucht wird (da hat man leider den leverage, dass durchzudrücken; aber wenigstens bei der 4080 12GB hats funktioniert).

Gab es diese wirklich schon vorher? Ich hatte jetzt den Eindruck, dass diese ganze Diskussion von HU losgetreten wurde? Wenn das wirklich so sein sollte ziehe ich die Aussage natürlich zurück ^^
Der Stein kam vor über zwei Wochen ins Rollen, als AMD auf der WCCFTech der Frage offensichtlich ausgewichen ist, ob man DLSS in gesponsorten Titeln blockiert (im Sinne von "wir finden FSR gut und helfen den Entwicklern, es zu implementieren"), was von verschiedenstensten Outlets aufgegriffen wurde, wobei weitere Nachfragen seitens AMD ignoriert wurden. Ungünstigerweise für AMD hat man kurze Zeit später angekündigt, Exklusivpartner für Starfield zu sein, dem Hypegame des Jahres, und das hat die Sache ordentlich gepushed. HU ist dem Zug erst kürzlich aufgesprungen, indem sie geschaut haben, was eigentlich dran ist. Dass sie schon eine recht klare Indizienlage gefunden haben, hat jetzt zur zweiten Berichtswelle geführt.
Wohlgemerkt herrscht jetzt auch seit über zwei Wochen von Seiten AMDs auffällige Funkstille. Machts jetzt halt wirklich nicht besser, ganz im Gegenteil.
 
DLSS kann 5x so gut wie FSR sein, es löst keine Probleme. Wenn es ein feature 'on top' wäre, kein Problem.
Es würde Probleme lösen, wenn man die Hardware nicht kastrieren würde, weil die Software es ja dann wieder richtet. :ROFLMAO:

Ich hab mich damals, als das mit DLSS losging, schon gefragt, ob NVidia dann anfangen wird, die Leistung der Grafikkarten mit aktiviem DLSS anzupreisen oder gar an der Hardware spart, weils mit DLSS ja trotzdem schnell genug läuft.
Und da sind wir wieder beim Problem, das du ja schon genannt hast. DLSS ist proprietär. Es funktioniert nur mit NVidia-Grafikkarten UND mit Spielen die das auch unterstützen.

Ich denke, das Upscalingtechnologien unumgänglich werden, weil die pure Hardwareleistung nicht mehr mit den Ansprüchen/Auflösungen Schritt halten können wird.
Ich will sowas aber nicht als Insellösung haben, die dann nur mit Hardware eines bestimmten Herstellers funktioniert ODER nur mit bestimmten Spielen. NVidia erzwingt mit seiner Praxis aber gerade BEIDES. AMD tut mit FSR genau das Gegenteil. Auch wenn FSR nicht soooo gut funktionieren mag, wie DLSS es tut, es funktioniert mit jeder Grafikkarte und es kann in jedes Spiel eingebaut werden, ohne mit AMD anbandeln zu müssen.
 
Ja klar, guck dir Screenshot an, ist aus dem hardwareLUXX-test der 4060. Und dann guck dir noch die slides von NV an. Überall nur DLSS Framegen für Vergleiche zu den alten gens. Da ist die 4060 dann doppelt so schnell, während die Rohleistung gegenüber den Vorgänger-Generationen gefallen ist.

Besonders die 4060 ist gegenüber der 3060 in allen belangen kastriert, weniger Vram, weniger AI-Cores, weniger Cuda Cores eine geringere Speicherbandbreite. Ohne Framegen könnte NV da keinerlei Vorteil vermarkten.

Das sagt nur, dass die Leistung geringer ist - gibt aber nicht den Grund an. Zum Beispiel können es auch Kostengründe sein. Also doch nur eine Vermutung?
 
Ja klar, guck dir Screenshot an, ist aus dem hardwareLUXX-test der 4060. Und dann guck dir noch die slides von NV an. Überall nur DLSS Framegen für Vergleiche zu den alten gens. Da ist die 4060 dann doppelt so schnell, während die Rohleistung gegenüber den Vorgänger-Generationen gefallen ist.
Ja, die Karte ist ein Witz. Igor kam zu +10% Rohleistung ggü der 3060. Die RX 7600 als äquivalente Leistungsklasse ist ein genauso mieses Angebot - genau so viel günstiger, wies mans grob einpreisen kann (Stromverbrauch, DLSS, FG, Raytracing, Mindshare). Keiner ist hier der barmherzige Samariter!
 
Das sagt nur, dass die Leistung geringer ist - gibt aber nicht den Grund an. Zum Beispiel können es auch Kostengründe sein. Also doch nur eine Vermutung?
Sorry, aber was willst du noch für einen Beweis haben, außer dass die Hardware reduziert wird und NV ausschließlich mit Framegen wirbt? It walks like a duck, it quacks like a duck, it is a duck... Das NV keine Pressemitteilung rausgib a la "wir reduzieren die Hardware weil Framegen für hübsche Balken reicht" ist ja wohl offensichtlich.
Klar: Nvidia agiert im derzeitigen Markt noch deutlich verbraucherfeindlicher (FG-Exklusivität für die 4000er-Generation, Preisgestaltung, VRAM-Ausstattung, ...). Es ist aber äußerst naiv zu glauben, AMD käme nie auf die Idee, verbaucherfeinlich zu handeln - ich zitiere mich mal selbst aus anderer Stelle:
Ich glaube absolut niemand behauptet AMD wäre der Samariter, als den sie sich in der Vergangenheit dargestellt haben. NV ist aktuell halt nur das größere Übel, so wie es Intel war als AMD nichts zu melden hatte. Mit Ryzen hat Intel ja auch plötzlich entdeckt, dass mehr als 4 Kerne auf einer mainstream-plattform gehen.

Würde AMD in die Offensive gehen und bei den Preissteigerungen nicht 1:1 folgen, wäre es NV nicht möglich einfach aus einer 4050 eine 4060 zu machen. Die FSR-exlusivität ist lästig, aber im Gegensatz zu dem was NV mit DLSS vor hat harmlos. Die schielen nämlich neidisch auf den walled garden von Apple und darauf was die für jedes feature aufrufen.
 
Sorry, aber was willst du noch für einen Beweis haben, außer dass die Hardware reduziert wird und NV ausschließlich mit Framegen wirbt? It walks like a duck, it quacks like a duck, it is a duck... Das NV keine Pressemitteilung rausgib a la "wir reduzieren die Hardware weil Framegen für hübsche Balken reicht" ist ja wohl offensichtlich.
Komisch, bei AMD scheint das Argument nicht zu gelten? zumindest liest man hier recht viele Kommentare, die AMD abschirmen mit: Es sieht vielleicht aus wie eine Ente, es ist aber keine Ente.
Abgesehen davon, wie kommt es dann, dass das Konkurrenzprodukt ähnlich schlecht ist und das obwohl es kein DLSS hat?
 
Komisch, bei AMD scheint das Argument nicht zu gelten?
Abgesehen davon, wie kommt es dann, dass das Konkurrenzprodukt ähnlich schlecht ist und das obwohl es kein DLSS hat?
Das liegt daran, dass AMD aktuell nicht die für den Markt notwendige Rolle des Konkurrenten einnimmt. Die sind passiver Komplize, der NV schalten und walten lässt.

NV klaut den Kunden das Geld aus der Tasche während AMD daneben steht und eine Liedchen pfeift und im Anschluss die Münzen aufsammelt, die auf den Boden gefallen sind.

Mit der 7900XT & XTX hat AMD den Kunden den Mittelfinger gezeigt. Während NV jedem Käufer vor die Haustür scheißt, um es mal extra deutlich auszudrücken.
 
Das liegt daran, dass AMD aktuell nicht die für den Markt notwendige Rolle des Konkurrenten einnimmt. Die sind passiver Komplize, der NV schalten und walten lässt.

NV klaut den Kunden das Geld aus der Tasche während AMD daneben steht und eine Liedchen pfeift und im Anschluss die Münzen aufsammelt, die auf den Boden gefallen sind.
Und das schließt du woraus?
 
Ich hab mich damals, als das mit DLSS losging, schon gefragt, ob NVidia dann anfangen wird, die Leistung der Grafikkarten mit aktiviem DLSS anzupreisen oder gar an der Hardware spart, weils mit DLSS ja trotzdem schnell genug läuft.
Jein - es wird mit eingepreist, der Nvidia-Zuschlag bei vergleichbarer Rohleistung ist auch auf DLSS zurückzuführen. Ich war auch bereit, etwas mehr dafür zu zahlen; es bietet ja auch Mehrwert; das geht anderen vermutlich auch so. Sollte sich FG weit verbreiten, ist das halt auch ein gutes Argument.

Die P/L-Stagnation findest du allerdings nicht nur bei Nvidia-GPUs, die RX 7000er Serie machts genauso. Das ist der Tatsache geschuldet, dass man im Kryptowinter erkannt hat, dass auch der Spielermarkt durchaus zu höheren Preisen bereit ist, die beide Hersteller (Edit: mit der neuen Gen!) durchsetzen wollten und auch erfolgreich durchgesetzt haben. FG ist da nicht dran schuld (auch wenn man das marketingmäßig natürlich ausschlachtet, so weit es geht, um das durchwachsene Angebot schmackhaft zu machen).

Die nächste Generation wird vermutlich besser. Die Preise werden zwar nicht sinken, aber die höheren Margen sind jetzt etabliert und man hat gemerkt, dass der Markt schon durchaus preissensibel reagiert. Da gibts dann wieder ordentlich mehr P/L, würde ich vermuten, auch wenn eine 5080 und 8800XTX nicht merklich billiger sein dürften. Einzig die 5090 wird merklich teurer, falls sie gut wird, vermute ich. Denn der starke Nachfrageüberhang der 4090 (der ja anfangs zu Preisen deutlich über UVP geführt hat und ziemlicher Knappheit) hat Nvidia (und AMD, falls man den Erwartungen zuwider gleichziehen sollte) signalisiert, dass man jedenfalls bei Early-Adoptern noch stärker zulangen kann, solange auch die Leistung stimmt.
 
Zuletzt bearbeitet:
Und das schließt du woraus?
AMD ist aktuell das kleinere Arschloch und wenn sie mit dem FSR-Exklusivdeal die Großmachtsphantasien von NV stören ist das für mich ok.

Die Preise werden zwar nicht sinken, aber die höheren Margen sind jetzt etabliert und man hat gemerkt, dass der Markt schon durchaus preissensibel reagiert.
Na ich weiß nicht, die Verkaufszahlen vieler Modelle sind desaströs. Es bleibt zu hoffen, dass das in der Zukunft so weiter geht und die Margen sich eben nicht etablieren. Momentan ist das denke ich noch offen.
 
NV ist aktuell halt nur das größere Übel, so wie es Intel war als AMD nichts zu melden hatte. Mit Ryzen hat Intel ja auch plötzlich entdeckt, dass mehr als 4 Kerne auf einer mainstream-plattform gehen.

Würde AMD in die Offensive gehen und bei den Preissteigerungen nicht 1:1 folgen, wäre es NV nicht möglich einfach aus einer 4050 eine 4060 zu machen.
Du sagst es doch selbst: AMD könnte in die Offensive gehen, will aber nicht. Da ist momentan keiner das größere Übel, denn AMD könnte dem ja ein Ende bereiten. Nicht in der 4090-Leistungsklasse, aber ab der 4070Ti könnte man wirklich alles kannibalisieren.
 
Ich hoffe auf Intel, die machen aktuell ganz gute Fortschritte und werden sich nicht mit den aktuell 2% Marktanteil zufrieden geben, da wird AMD mit ihren lächerlichen 10% direkt unter Druck gesetzt und früher oder später auch Nvidia.

PS: Ich vemute das AMD nicht in die Offensive gehen wollte, weil die Lager rand voll mit alten Karten waren. Ich hoffe das ändert sich in der Zukunft noch. Bei 10% bleiben zu wollen, kann keine Lösung sein.
 
Na ich weiß nicht, die Verkaufszahlen vieler Modelle sind desaströs. Es bleibt zu hoffen, dass das in der Zukunft so weiter geht und die Margen sich eben nicht etablieren. Momentan ist das denke ich noch offen.
Was halt dank P/L-Stagnation daran liegt, dass du von der vorletzten Generation effektiv nur ca. eine Generation aufrüstest und von der aktuellen gar nicht, sondern nur ein höherklassiges Modell kaufst.
Wenn es nen P/L-Sprung gibt, geht das Zeug weg wie warme Semmeln. Das reicht ja dann vielleicht für 4090-Leistung bei sub-1000€. Bzgl. sinkenden Preisen pro Leistungsklasse würde ich mir wirklich keine Hoffnungen machen.
 
Jein - es wird mit eingepreist, der Nvidia-Zuschlag bei vergleichbarer Rohleistung ist auch auf DLSS zurückzuführen. Ich war auch bereit, etwas mehr dafür zu zahlen; es bietet ja auch Mehrwert; das geht anderen vermutlich auch so. Sollte sich FG weit verbreiten, ist das halt auch ein gutes Argument.

Die P/L-Stagnation findest du allerdings nicht nur bei Nvidia-GPUs, die RX 7000er Serie machts genauso. Das ist der Tatsache geschuldet, dass man im Kryptowinter erkannt hat, dass auch der Spielermarkt durchaus zu höheren Preisen bereit ist, die beide Hersteller durchsetzen wollten und auch erfolgreich durchgesetzt haben. FG ist da nicht dran schuld (auch wenn man das marketingmäßig natürlich ausschlachtet, so weit es geht, um das durchwachsene Angebot schmackhaft zu machen).

Die nächste Generation wird vermutlich besser. Die Preise werden zwar nicht sinken, aber die höheren Margen sind jetzt etabliert und man hat gemerkt, dass der Markt schon durchaus preissensibel reagiert. Da gibts dann wieder ordentlich mehr P/L, würde ich vermuten, auch wenn eine 5080 und 8800XTX nicht merklich billiger sein dürften. Einzig die 5090 wird merklich teurer, falls sie gut wird, vermute ich. Denn der starke Nachfrageüberhang der 4090 (der ja anfangs zu Preisen deutlich über UVP geführt hat und ziemlicher Knappheit) hat Nvidia (und AMD, falls man den Erwartungen zuwider gleichziehen sollte) signalisiert, dass man jedenfalls bei Early-Adoptern noch stärker zulangen kann, solange auch die Leistung stimmt.
Den meisten Dingen würde ich zustimmen. Bei der Preisbildung allerdings nicht. Die Preise können teilweise nicht billiger sein. Während des Crypto Accidents gab es viele Rufe danach die Preise zu senken bzw. das die Preise zu hoch sein, ohne zu verstehen, dass niedrigere Preise das Problem verstärken und nicht verringern würden.

Das Problem waren Arbitrageure, welche die beschränkten Bestände aufgekauft und für höhere Beträge weiter verkauften. Das geht aber nur, wenn a) die Nachfrage höher als das Angebot ist und b) der Verkaufspreis unter dem Gleichgewichtspreis liegt. Also wenn ich die Karten für weniger verkaufe als die Leute bereit wären zu zahlen. Niedrigere Preise hätten einfach nur noch mehr Arbitrageure auf den Plan gerufen um die Ineffizienz in der Preisbildung auszugleichen und oder hätte ihre Marge erhöht.

Im Endeffekt spielt es keine Rolle ob und wie der Preis gestaltet wird, solange die Nachfrage nicht abebbt und die Zahlungsbereitschaft vorhanden ist. Da kann man sich noch so sehr über exorbitante Preise beschweren - der Produzent kann daran nichts machen, solange er die Kapazitäten nicht nachhaltig erhöhen kann, da jede Preisanpassung durch den Markt wieder ausgeglichen werden würden.
 
Das Problem waren Arbitrageure, welche die beschränkten Bestände aufgekauft und für höhere Beträge weiter verkauften.
Das trifft auf die aktuelle Lage einfach nicht mehr zu. Die Lagerbestände sind durch die Bank vorhanden. AMD und NV möchten nur aus Sturheit die Preise nicht senken. Sturheit ist nur halt in einer echten Marktwirtschaft keine funktionierende Strategie.
 
Während des Crypto Accidents gab es viele Rufe danach die Preise zu senken bzw. das die Preise zu hoch sein, ohne zu verstehen, dass niedrigere Preise das Problem verstärken und nicht verringern würden.
Die waren insofern 'fair' bepreist, da will ich auch gar nichts anderes sagen. Ist jetzt halt ne andere Geschichte, denn der Umsatz ist ja unten.
Edit: meinte mit der Preisbildung die neuen Gens, nicht das bei Ampere und RDNA2.
 
Zuletzt bearbeitet:
Das trifft auf die aktuelle Lage einfach nicht mehr zu. Die Lagerbestände sind durch die Bank vorhanden. AMD und NV möchten nur aus Sturheit die Preise nicht senken. Sturheit ist nur halt in einer echten Marktwirtschaft keine funktionierende Strategie.
Da stand auch ein Zeitraum oder nicht?
 
Da stand auch ein Zeitraum oder nicht?
Warum sollte man über etwas diskutieren, was für die heutige Situation keinerlei Relevanz hat? Sonst könnte man auch über das Preisgefüge sprechen als 3DFX noch Karten hergestellt hat..

Da irrst du dich, fürchte ich, wer Marktmacht hat, kann und wird sie durchsetzen.
Die ultimative Macht liegt beim Kunden einfach nicht zu kaufen. GPUs sind keine essentiellen Güter und mit Konsolen und IGPUs gibt es sogar Substitute.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh