Playstation 5 gibt Hinweise auf die Raytracing-Implementierung bei AMD

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.569
rdna2.jpg
In diesem Jahr wird AMD mit den Big-Navi-GPUs die zweite Generation der RDNA-Architektur vorstellen. Die entsprechenden Grafikkarten sollen zum einen das High-End-Segment aufmischen, zum anderen werden sie aber auch eine hardwarebeschleunigte Berechnung von Raytracing-Effekten ermöglichen. Wie genau AMD dies umgesetzt wird, ist zum aktuellen Zeitpunkt noch nicht ganz klar, offenbar aber geht man einen etwas anderen Weg als NVIDIA mit den RT Cores.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist das nicht schon längst feststehend dass RDNA2 auch Raytracing besitzen wird? Ich denke auch NVIDIA wird langfristig einen Weg finden müssen für RTX ohne die Chips aufzublähen, das Ergebnis und die Leistung sind den Aufwand aktuell kaum wert. RTX in höheren Auflösungen ist ein Ding der Unmöglichkeit, außer man möchte 30 FPS.
 
Ich denke auch NVIDIA wird langfristig einen Weg finden müssen für RTX ohne die Chips aufzublähen,

Soweit ich das in Erinnerung habe belegen die RT Cores keine signifikant große Chipfläche.

„Pro TPC sprechen wir von zwei RT Cores, die sich auf 0,7 mm² verteilen und 16 Tensor Cores, die sich in den 1,25 mm² befinden sollten.“

 
Zuletzt bearbeitet:
Interessant wäre es, ob RT für die Konsolen geplant war, bevor NVidia das in Turing verbaut hat,... oder ob NVidia durch den Turing Launch wirklich 10 Jahre früher für RT gesorgt hat.
Wenn (wirklich dickes wenn), die Konsolen ohne RT bekommen wären, dann hätte sich RT sicher erst mit einer Playstation 6 durchsetzen lassen.
Dank der Konsolen wird das jetzt so stark im Fokus landen, dass richtig was weitergehen wird damit.

Lässt sich das von irgendwelchen Eurer Quellen rausfinden @Don?
Wurde da nachträglich was added in den letzten zwei Jahren, oder war RT von AMD, Sony, MS schon vor Turing geplant?
 
Nvidia meinte das man daran 10 Jahre gearbeitet hat, nicht das man 10 Jahre weiter sei, was schreibst du für ein wirres Zeug.
Nvidia hat das für seine Generation für marktreif erklärt und durchgezogen, neue Hardware kann AMD auch bei Konsolen bringen heutzutage, das RT hier ist zumindest bei der Entwicklung der Spiele auch etwas anders als OptiX.
AMD hat entweder gezwungener Maßen oder durch Weitblick rechtzeitig mitgezogen und wird das abliefern was geht (y).
Bei beispielsweise Ratchet and Clank und Gran Turismo sieht es aber tatsächlich nach einer On-Die Lösung aus die leistungsstark genug scheint wenn man mit dem Checkerboard trickst.
 
NVidia sagte, dass man 10 Jahre früher dran wäre als möglich gewesen wäre, ohne dedicated RT Cores. Das kein wirres Zeug, sondern aus deren Präsentation.
Auch andere haben die Einschätzung grob geteilt (kann ja niemand 100% sicher sagen was nu in 5 Jahren ist, oder 8, oder auch 10).

Im Blog steht Ähnliches, weniger reißerisch als in der Vorstellung allerdings: -> https://blogs.nvidia.com/blog/2018/08/20/geforce-rtx-real-time-ray-tracing/
And the technology — regarded as the “holy grail” of computer graphics — has come 10 years earlier than most predicted.

Es ist ja auch noch kein richtiges RayTracing, sondern ein kleiner Anfang. Richtig läuft das nu in Minecraft und Quake 2 (oder war es ein anderes Uraltgame?), aber sonst nirgends.
Sie haben RT damit halt "auf den Weg" gebracht.

Wenn RT für die Konsolen nicht geplant war ursprünglich, wäre das durchaus ein riesen Ding für manche. Im Endeffekt ist es zwar egal, wer, was, wo und wie getan hat, aber das Timing von Turing könnte echt kaum besser gewesen sein, WENN es die Konsolen echt beeinflusst hat. Die Fanboys würden es zwar nie zugeben, aber dann könnte man Team grün echt dankbar sein für zumindest die 8 Jahre der Konsolen Generation. Ich fände das persönlich einfach cool (wegen der Technik, nicht wegen der Farbe des "ersten"). Viel zu oft scheitern Technologien an Timing und zu frühen Veröffentlichungen. Die Rufe nach letzterem waren bei RT ja kaum zu überhören anfangs.
 
Zuletzt bearbeitet:
.. Ich denke auch NVIDIA wird langfristig einen Weg finden müssen für RTX ohne die Chips aufzublähen, das Ergebnis und die Leistung sind den Aufwand aktuell kaum wert. RTX in höheren Auflösungen ist ein Ding der Unmöglichkeit, außer man möchte 30 FPS.
Weshalb? Glaubst du die nvidia GPU seien wegen der RT Spielereien so pervers überteuert?
Das ist ausschließlich dem Quasimonopol zu verdanken, denn sie waren es auch schon vor RT.

..
Wenn (wirklich dickes wenn), die Konsolen ohne RT bekommen wären, dann hätte sich RT sicher erst mit einer Playstation 6 durchsetzen lassen.
..
Wird es doch auch, Seit wann sieht man das, was in dem PS Release-Trailern gezeigt wird bei der aktuell beworbenen Generation? Real kommt es doch eh erst auf der Nächsten :lol:
 
Zuletzt bearbeitet:
Mark my words: Es wird eh keine Playstation 6 mehr geben.

Die Rechenleistung ist mittlerweile so hoch gegangen das ein schnelles Upgrade weder bei Konsolen noch bei PCs nicht mehr nötig ist. Bis das nächste Upgrade ansteht wird es für das Spielekonsolen Segment ausreichend gut funktionierende Streamingdienste wie Stadia geben. Und die PC Gamer die mit dem Konzept nichts anfangen können werden genau da bleiben. Die Konsolen werden also nur noch als Clientboxen benötigt und da dürfte die PS5 ausreichend Leistung für haben selbst in Jahren noch.
 
DirectX DXR wurde mit DirectX12 eingeführt und kann theoretisch seit Windows 10 1809 genutzt werden, DXR wurde im Frühjahr 2018 offiziell vorgestellt. Vorher gab es Raytracing in DirectX nicht.
RT Cores hätten vorher keinen großen Sinn gemacht.
Das zumindest Mircrosoft für die neuen Konsolen nicht mit DXR geplant hat, ist aus meiner Sicht auch nicht wirklich realistisch. Warum sollten sie auf ihr ureigenes Feature verzichten wollen? Macht aus meiner Sicht keinen Sinn. Und die Custom Designs der Chips für die Xbox werden auch nicht von jetzt auf gleich fertig gestellt. Ein "Oh, es gibt ja Raytraycing, baut uns da mal schnell noch in den Konsolenchip ein, Nvidia macht das auch" ist sehr sehr unrealistisch. Und das Sony mit der Playstation nicht mitbekommen sollte, dass Microsoft mit ihrem DXR daran arbeitet, ist auch unwahrscheinlich. Die Blöse, dann selber kein Raytracing anbieten zu können, kann sich Sony nicht leisten.
Nvidia war mit den RTX-Karten der Erste, dass aber die anderen erst danach an RT gearbeitet haben, weil es Nvidia vormacht ist daher doch sehr unwahrscheinlich.

Cunhell
 
Mark my words: Es wird eh keine Playstation 6 mehr geben.

Die Rechenleistung ist mittlerweile so hoch gegangen das ein schnelles Upgrade weder bei Konsolen noch bei PCs nicht mehr nötig ist. ..

Weshalb würden seltene Hardwareupgrades denn gegen Konsolen sprechen? Genau das war es doch immer, was Konsolen den PCs zum Vorteil hatten: Eine neue Plattform hat ewig gehalten (z.B. 7 Jahre von NES zu SNES). So konnten die Spieler in Ruhe ihre Sammlung erweitern, ohne viel zu schnell von vorne anfangen zu müssen. Die Konsolenhersteller haben seit jeher vor Allem an der Lizensierung von Spielen verdient, nicht am Konsolenverkauf. Letzterer war sogar häufig subventioniert, um mehr Konsolen unter's Volk zu bringen und so anschließend mehr Spiele zu verkaufen.

Streaming mag für "Billigspieler", die sich nicht an Latenzen und Kompressionsartefakten stören eine Option sein, ein PS5 dafür zu verwenden wäre aber mit Kanonen auf Spatzen geschossen. Dafür wäre eine Minimalplattform mit aktuellem Videodecoder und evtl. etwas optimierter Netzwerkhardware, die keinen horrenden Stromverbrauch und Staubsaugerlautstärke nötig hat, voll ausreichend. Aber nicht nur von dort kann man ja potentielle Konkurrenz sehen, sondern auch von der in den Fernsehgeräten mitgelieferten Technik, die ja immer leistungsfähiger wird. Sobald Streaming sich etabliert hat und die Spieleentwicklung dadurch von der Endkundenhardware unabhängiger wird, könnte dies dazu führen, dass "echte" Entwicklerstudios beginnen mehr für Android(TV) zu produzieren.
 
Zuletzt bearbeitet:
Interessant wäre es, ob RT für die Konsolen geplant war, bevor NVidia das in Turing verbaut hat,... oder ob NVidia durch den Turing Launch wirklich 10 Jahre früher für RT gesorgt hat.
RT war bestimmt nicht geplant, da es für die Entwickler der Spiele und die Hardwareentwickler eine Mammut-Aufgabe ist, es halbwegs gut zu implementieren. Niemand bindet sich freiwillig so einen Stein ans Bein, wenns auch ohne geht. Hier muss ich einen Ast für Nvidia abbrechen und sagen, dass die dafür gesorgt haben, dass der Stein ins Rollen kommt und die Entwicklerstudios, Engine-Coder etc von oben den Auftrage bekommen haben, da doch mal was zu machen. Die limitierte RT-Fähigkeit der AMD-APUs auf den Konsolen führt ebenfalls zu einer studioweiten Optimierungswelle, wo sehr viele Techniken auch auf den PC übertragen werden können und AMD selbst hat mit dem Shaderbasierten RT-System einen skalierende Ansatz geschaffen, so dass die Entwickler selbst entscheiden können, in welchen Compute-Verhältnissen RT im Spiel umgesetzt wird.

Mich überrascht, dass die Konsolenspiele schon so kurz nach der Einführung ein so großes RT-Potential ausschöpfen können, obwohl die Hardware doch eher im mittleren Performance-Bereich angesiedelt ist. Da wird in Zukunft noch einiges passieren. Was für mich gesichert ist, ist dass AMD in der nächsten Generation auch anfangen wird mehr Fixed-Function auf oder an die GPU zu flanschen, um Flaschenhälse aufzulösen. Hardware-Scheduler für RT welcher direkt an den Command-Prozessoren angeschlossen sein wird, um die Auslastung zu optimieren und die Shader werden wohl ein erweitertes "FPGA-like" Verhalten bekommen, damit man mehr optimieren kann.
 
Wenn es nach Sweeney geht berechnet bestimmt die SSD das komplette Raytracing ahahaha :-)
 
DirectX DXR wurde mit DirectX12 eingeführt und kann theoretisch seit Windows 10 1809 genutzt werden, DXR wurde im Frühjahr 2018 offiziell vorgestellt. Vorher gab es Raytracing in DirectX nicht.
RT Cores hätten vorher keinen großen Sinn gemacht.
Das zumindest Mircrosoft für die neuen Konsolen nicht mit DXR geplant hat, ist aus meiner Sicht auch nicht wirklich realistisch. Warum sollten sie auf ihr ureigenes Feature verzichten wollen?

Du ignorierst dabei aber, dass die DXR Implementation mit NVidia, Intel und AMD passiert ist.
Da ist nicht einfach MS gekommen und hat das "mal implementiert". Da wird NVidia schon getriggert haben und gesagt haben: "Hey, wir wollen da was machen und es soll nicht NVidia only sein!".
Das wäre sonst schon ein richtig großer Zufall, oder?
 
Hier muss ich einen Ast für Nvidia abbrechen und sagen, dass die dafür gesorgt haben, dass der Stein ins Rollen kommt und die Entwicklerstudios, Engine-Coder etc von oben den Auftrage bekommen haben, da doch mal was zu machen.

Ohne die Einbindung von DXR in DirectX gäbe es RT in den Spielen nicht. Du glaubst doch nicht wirklich, Nvidia hätte ohne die Vorarbeiten, die in DirectX mit DXR eingebaut wurden, sich den Schuh alleine angezogen. Mal abgesehen davon hat sich Nvidia was DX12 angeht, welches Grundvoraussetzung für DXR ist, die ganzen Jahre nicht wirklich als Vorreiter hervorgetan. Dazu waren ihre Vorteile bei DX11 zu groß. Die große DX12-Liebe kam erst, nach dem ihre RTX-Karten markreif waren und das Feature nutzen konten
Nvidia hat als erster Hersteller die in DX12 möglichen DXR-Features in Hardware gebracht. Zu behaupten, Nvidia wäre überhaupt der Grund für RT in den Spielen, ist dagegen schon eine sehr gewagte Theorie.

Cunhell
Beitrag automatisch zusammengeführt:

Du ignorierst dabei aber, dass die DXR Implementation mit NVidia, Intel und AMD passiert ist.
Da ist nicht einfach MS gekommen und hat das "mal implementiert". Da wird NVidia schon getriggert haben und gesagt haben: "Hey, wir wollen da was machen und es soll nicht NVidia only sein!".
Das wäre sonst schon ein richtig großer Zufall, oder?

Ach Du meinst, sie würden es bei RT nicht so machen wie bei PhysiX? Träum weiter. Wenn sie so offen wären, hätten sie das PhysiX-Feature auf Non-Nvidiakarten nicht so blockiert wie sie es getan haben. Sie haben ja sogar verhindert, dass eine Nvidiakarte als PhysiX-Beschleuniger im PC neben einer AMD-Karte läuft in dem sie den Treiber entsprechend gebaut haben. Und bei RT wären sie dann plötzlich so cooperativ? Ernsthaft?
PhysiX haben sie nur zugekauft und danach für alle anderen Hersteller quasi unbrauchbar gemacht bis auf die grottige Singlecore-CPU-Implementierung. Hätten sie die RT-Hardware vorab gehabt, hätten sie nie im leben AMD oder andere an diesem zukünftgen Killerfeature teilhaben lassen.

Cunhell
 
Zuletzt bearbeitet:
Du ignorierst dabei aber, dass die DXR Implementation mit NVidia, Intel und AMD passiert ist. Da ist nicht einfach MS gekommen und hat das "mal implementiert".

Sicher nicht einfach so implementiert, aber der Anstoß wird schon von der Seite gekommen sein.

Da wird NVidia schon getriggert haben und gesagt haben: "Hey, wir wollen da was machen und es soll nicht NVidia only sein!".
Das wäre sonst schon ein richtig großer Zufall, oder?

Doch, wenn es von Nvidia ausgegangen wäre, dann wäre es genauso so, siehe Gameworks-Effekte, CUDA usw. Die haben doch kein Interesse, dass andere die Funktionen benutzen.
 
Ihr unterstellt aber, dass Nvidia das intern halten wollte.
Sie haben das ganz klar kommuniziert, dass sie es NICHT intern halten wollen.
Das wird supported damit, dass sie an EINEM TISCH mit MS, Intel und AMD gesessen sind, um die Specs zu vereinbaren.

Jetzt einfach zu behaupten das wäre ganz anders gewesen, bringt niemand etwas. Das sind Tatsachen, die von allen Seiten so bestätigt wurden, da können wir als Kunden jetzt nicht einfach behaupten das wäre nicht so gewesen. ;-)

Die Frage ist eigentlich nur, ob AMD vor diesen Treffen schon mit RT geplant hat.
Das MS nicht einfach RT in DX einbaut, wenn alle davon ausgehen, dass es noch gute 6-10 Jahre dauert,... ist wohl logisch. Niemand von uns würde seine Mitarbeiter dafür bezahlen etwas zu machen, dass erst in nem Jahrzehnt benötigt wird und bis dahin eh veraltet sein würde. Soviel Weitsicht dürfen wir MS schon zutrauen hehe.
Beitrag automatisch zusammengeführt:

Ohne die Einbindung von DXR in DirectX gäbe es RT in den Spielen nicht. Du glaubst doch nicht wirklich, Nvidia hätte ohne die Vorarbeiten, die in DirectX mit DXR eingebaut wurden, sich den Schuh alleine angezogen.

Das ist kein Henne / Ei Ding, sondern es wurde simultan und gemeinsam gemacht. Und das ist auch kein irgendwie geartetes Geheimnis. Keiner der Beteiligten hat das geheim gehalten.
 
Ihr unterstellt aber, dass Nvidia das intern halten wollte.
Sie haben das ganz klar kommuniziert, dass sie es NICHT intern halten wollen.
Das wird supported damit, dass sie an EINEM TISCH mit MS, Intel und AMD gesessen sind, um die Specs zu vereinbaren.
Weil sie es mussten. Ginge es nach Nvidia, würden sie es intern halten - können sie aber nicht, weil MS "Nein" gesagt hat. Sony wird es ähnlich sehen und nur titel akzeptieren, die halbwegs performant laufen. Entsprechend kann es sich kein studio erlauben, das Zeug geschlossen zu halten und brauchen eine ganzheitliche API - zu Mindest für die Grundlagen. Was später drangehängt wird, wie De-Noiser usw, das kann Nvidia dann gerne selbst brauen - aber AMD hat mit den Konsolen-Deals so ziemlich den besten strategischen Schachzug ever gemacht, da jetzt niemand mehr den Vendor-Lock-In spielen kann. Weder Nvidia, noch Microsoft, noch Sony noch sonstwer. Das muss alles gundlegend zueinander kompatibel sein.

Ich finde das prinzipiell sehr gut, auch wenn es Kopfschmerzen für die Entwickler bedeuten wird.
PS: die Entwicklung von DXR ist nicht abgeschlossen. Ähnlich wie bei Vulkan können auch hier Erweiterungen eingebaut werden - das werden wir dann aber in der Zukunft sehen.
 
Ob sie das so wollten, oder gezwungen wurden... ist mir eigentlich total egal. Wir können da alle nur vermuten und raten. Sicher wird es niemand rausfinden.

Was zählt, ist das Ergebnis: Es ist offen und war es von Anfang an.
Die Frage bleibt aber im Raum,... hätte AMD das in die Konsolen gepackt, wenn die vier Großen nicht gemeinsam an DXR gearbeitet hätten zum Turing Launch?
Da muss es doch irgendeinen Insider geben, der bestätigen oder widerlegen kann, ob da eine Anpassung vorgenommen wurde. (das es für AMD genauso wertvoll ist, wie für Nvidia ist klar und eine geniale Situation. Es muss nicht immer einer verlieren, damit der andere Gewinnt. Es können auch beide gewinnen!)
 
Weshalb? Glaubst du die nvidia GPU seien wegen der RT Spielereien so pervers überteuert?
Das ist ausschließlich dem Quasimonopol zu verdanken, denn sie waren es auch schon vor RT.
Öhm, naja...
Meine 1070 hat 2016 400€ gekostet. Eine 2060 hat zwar ein bisschen RTX, dafür aber nur 6GB, ist aber unterm Strich etwa gleich schnell. Kostete aber auch ~400€. Und das wäre noch nichtmal ein Leistungsupgrade.
Noch deutlicher sieht man das bei den High-End-Modellen. Eine GTX 1080ti lag bei ~800€. Die RTX2080ti dann aber schon eher bei 1100€.

Mag sein, das die Preise vor RTX auch schon wegen Monopol erhöht waren, aber mit RTX hat NVidia nochmal kräftig einen draufgeschlagen. Sozusagen die Preisklasse eine Leistungsklasse nach unten rutschen lassen, so das mit RTX auf einen Schlag praktisch alle Karten um rund 30% teurer wurden.
 
Die Frage bleibt aber im Raum,... hätte AMD das in die Konsolen gepackt, wenn die vier Großen nicht gemeinsam an DXR gearbeitet hätten zum Turing Launch?
Vulkan hat auch RT, ebenso wie einige Custom Engines die für die Playstation gebastelt werden. Aber ja, es wäre nicht reingebaut worden, wenn es nicht diesen massiven Hype/Druck gegeben hätte. Zu mindest nicht in dieser Generation.
 
Hier ist ja mal wieder alles falsch was nur falsch sein kann...
nvidia hat 10 Jahre SPÄTER für raytracing gesorgt: http://www.extremetech.com/extreme/...inally-moves-us-towards-real-time-ray-tracing
MS wollte RT implementiert haben um irgendwie noch den Zug zu stoppen, aber mittlerweile haben einige Engines eigene RT-Implementierungen eingebaut, auf Handys sogar der Regelfall:
solche powervrgpus stecken ja in nahezu jedem handheld device...
 
Vulkan hat auch RT, ebenso wie einige Custom Engines die für die Playstation gebastelt werden. Aber ja, es wäre nicht reingebaut worden, wenn es nicht diesen massiven Hype/Druck gegeben hätte. Zu mindest nicht in dieser Generation.
Vulkan RT wurde auch von den Parteien beeinflusst. Auch Vulkan hatte das nicht vorher "zufällig" mit drin.
Das war vor zwei Jahren ja alles ziemlich aufeinander abgestimmt. Sogar das Windows Update für DX war abgestimmt.

Da haben die großen Firmen alle mal gemeinsam gearbeitet und gemeinsame Release Timelines gehabt. Fand ich schon cool zu sehen, dass die eben nicht so hart gegeneinander Arbeiten, wie die Gamercommunity immer suggerieren will. Nutzen ja auch gegenseitig dutzende / hunderte Patente. ;-)
Beitrag automatisch zusammengeführt:

nvidia hat 10 Jahre SPÄTER für raytracing gesorgt

Ähm, Artikel selber gelesen? Und reflektiert darüber?
Raytracing gibt es schon mehr als nur 10 Jahre. Diese dedicated RayTracing Karten haben wie viele Frames pro MINUTE erzeugt?
Das war Hardware für Videos, nicht für Spiele, die 60+ Frames pro Sekunde, nicht pro Stunde brauchen.

Und wieder mal, ganz banaler Gegentest, ob Deine Theorie überhaupt Sinn ergibt:
Wenn böses NVidia 10 Jahre zu spät damit angefangen hat,... wieso hat AMD diese offensichtliche Schwäche nicht genutzt, um den Markt für sich zu gewinnen?
Oder die Firma, die diese dedicated RayTracing Karten gebaut hat? Na, wieso? Sie hätten den Platzhirsch ja vor 10 Jahren schon vertreiben können dann.

Da Leute jetzt schon meckern über FPS bei RT, wie wäre das vor 10 Jahren gewesen,... oder mit den 60 frames pro Stunde der gezeigten Karten hehe.

Sorry, aber da hat sich für den Artikel nur jemand wichtig machen wollen.
Das passiert öfter als man meint. Irgendjemand hat mal irgend einen proof-of-concept erstellt, der aber nie fertig gestellt werden konnte. Dann, gerne Jahrzehnte später, ist die Technik weit genug und andere bringen sie auf den Markt. Natürlich ist derjenige stinkig auf die Firma, aber auch irgendwie selber schuld. Niemand hat die guten Leute davon abgehalten das Produkt fertigzustellen. Sie haben es halt nicht gemacht, sondern eine andere Firma.
 
Zuletzt bearbeitet:
Weshalb würden seltene Hardwareupgrades denn gegen Konsolen sprechen? Im Gegenteil, das war genau immer das, was Konsolen von PCs unterschieden hat: Eine neue Plattform hat ewig gehalten (z.B. 7 Jahre von NES zu SNES). So konnten die Spiele rin Ruhe ihre Sammlung erweitern, ohne viel zu schnell von vorne anfangen zu müssen. Die Konsolenhersteller haben seit jeher vor Allem an de rLizensierung von Spielen verdient, nicht am Konsolenverkauf. Letzterer war sogar häufig subventioniert, um mehr Konsolen unter's Volk zu bringen und so anschließend mehr Spiele u verkaufen.
..

Mag sein, das die Preise vor RTX auch schon wegen Monopol erhöht waren, aber mit RTX hat NVidia nochmal kräftig einen draufgeschlagen. Sozusagen die Preisklasse eine Leistungsklasse nach unten rutschen lassen, so das mit RTX auf einen Schlag praktisch alle Karten um rund 30% teurer wurden.

Das ist schon richtig, das haben sie. IMHO aber halt im selben Zug wie zuvor, womit ich meine, dass sie das auch ohne RT getan hätten, als ihnen klar wurde, dass AMD langfristig nicht mehr kontern kann.Nach vielenn Jahre mit Konkurrenz, wo es darum ging, sich gegen die Produkte der anderen richtig zu positionieren, galt es ja seit ca. 2013 stattdessen darum, zu wissen, wo die oberste Schmerzgrenze der Käufer liegt, was man durch mit jeder Generation steigende Preise ermittelt; und ein Ende ist ja leider noch immer nicht klar absehbar (Big Navi wird ja vermutlich eine Klasse höher als die RX5700 XT erreichen können, aber leider wieder nicht im HighEnd Paroli bieten; dann gegen die RTX3080). Aber naja, ist eh nur Spekulation und wir können alle nur hoffen, dass diese Phase bald ein Ende hat..
 
Zuletzt bearbeitet:
Das ist schon richtig, das haben sie. IMHO aber halt im selben Tempo wie zuvor, womit ich meine, dass sie das auch ohne RT getan hätten, als ihnen klar wurde, dass AMD langfristig nicht mehr kontern kann. Aber naja, ist eh nur Spekulation und wir können alle nur hoffen, dass diese Phase bald ein Ende hat..
Nope, über diverse Generationen hinweg hatte z.B. die x60 Klasse einen Preis von ~250€. Für meine 660ti hab ich damals 250€ bezahlt und genau dort lag auch die 1060 3 Generationen später noch. Der Preis für die jeweilige Leistungsklasse blieb also mehr oder weniger konstant und eine deutliche Leistungssteigerung von Generation zu Generation war trotzdem noch vorhanden. Erst als Nvidia RTX als Alleinstellungsmerkmal hatten, haben sie die Preise kräftig angezogen und auf einmal kostete die Grafikkarte mit der gleichen Leistung in der neuen Generation quasi das gleiche wie ihr Vorgänger.
Wie jetzt Leistung und Preis genau skaliert, mag noch eine andere Frage sein, aber mit RTX hat Nvidia praktisch die gleiche Leistung Jahre später zum gleichen Preis wie die Vorgänger verkauft.
Wenn ich eine x70 habe und eine (x+1)70 kaufen will, dann erwarte ich eigentlich eine Leistungssteigerung zum gleichen Preis. Mit RTX war das nichtmehr so, da gabs eher die (x+1)70 mit der gleichen Leistung zum gleichen Preis (abgesehen von Raytracing ansich).
 
Ich berechne da halt noch die Titan ein. Die ist ja nichts Anderes als der Gaming-GPU Vollausbau, also in Wahrheit eine x80ti, die seit der Umbenennung maßlos überteuert verkauft wird. Und der Unterschied wird nach unten weiter gereicht. Die sogenannten x80Ti Modelle entsprechen seit Existenz der Titans nur den Nicht-Ti-Modellen von zuvor, die x80 Modelle sind eigentlich nur ein x70 Modell usw, bis ganz nach unten.
 
Big Navi wird ja vermutlich eine Klasse höher als die RX5700 XT erreichen können, aber leider wieder nicht im HighEnd Paroli bieten; dann gegen die RTX3080
Und was lässt dich das glauben? Wenn ich mal die 80CU der diversen Leaks betrachte und alleine die Skalierung von der 5700XT auf 80CUs setze, komme ich da schon auf +40% Mehrleistung zur 2080Ti, was in etwa den Projektionen zur Leistung der 3080Ti beträgt. Da ist weder IPC Steigerung, noch der höhere Takt von Big Navi mit eingerechnet.

Der O-Ton im Netz ist derzeit, dass die 6950XTX die 3080Ti in purer Rasterleistung schlagen kann, aber die 3080Ti besser im Raytracing ist. Natürlich wird das Marketingteam von Nvidia entsprechend versuchen, Raytracing > Rasterisation zu stellen und mit DLSS 2.0 per Upscaling "besser als nativ" auszusehen. Und die Leute werden diesen Pferdeschuh tragen, als wäre dieser aus Krokodilsleder.
 
Und was lässt dich das glauben? Wenn ich mal die 80CU der diversen Leaks betrachte und alleine die Skalierung von der 5700XT auf 80CUs setze, komme ich da schon auf +40% Mehrleistung zur 2080Ti, was in etwa den Projektionen zur Leistung der 3080Ti beträgt. Da ist weder IPC Steigerung, noch der höhere Takt von Big Navi mit eingerechnet.

Vllt. weil AMD in der Praxis immer nur die x80 non Ti der letzten Generationen erreicht hat, trotz der ganzen, tollen Spekulationen?
 
Öhm, naja...
Meine 1070 hat 2016 400€ gekostet. Eine 2060 hat zwar ein bisschen RTX, dafür aber nur 6GB, ist aber unterm Strich etwa gleich schnell. Kostete aber auch ~400€. Und das wäre noch nichtmal ein Leistungsupgrade.
Noch deutlicher sieht man das bei den High-End-Modellen. Eine GTX 1080ti lag bei ~800€. Die RTX2080ti dann aber schon eher bei 1100€.

Mag sein, das die Preise vor RTX auch schon wegen Monopol erhöht waren, aber mit RTX hat NVidia nochmal kräftig einen draufgeschlagen. Sozusagen die Preisklasse eine Leistungsklasse nach unten rutschen lassen, so das mit RTX auf einen Schlag praktisch alle Karten um rund 30% teurer wurden.

Das sage ich die ganze Zeit. Wer 2017 eine 1080 Ti gekauft hat, hat bis heute keinen Grund zu upgraden. Die 2080 ist bestenfalls ein Downgrade, da sie gleich viel Leistung aber weniger Speicher hat. NVIDIA hat dieses Mal praktisch alle Karten auf die nächste Preisstufe erhoben, sprich die X60 kostet nun soviel wie vorher eine X70 usw.

Das RTX ist für mich reines Marketinggewäsch, da es alles andere als ausgereift ist. Wenn man niedrige Auflösung oder Upscaling-Lügen akzeptieren kann reicht es, ich lasse mich aber nicht darüber hinwegtäuschen dass Turing für das was dafür verlangt wird viel zu teuer ist. Wir können nur hoffen dass AMD gut dabei sein wird und die Preise ordentlich fallen.
 
Immer dieses Märchen, dass wenn AMD gleiche Leistung biete, NVIDIA die Preise sinkt.
Nein, AMD hebt seine Preise an die der NVIDIA :p

Was BigNavi und die theoretische Leistung (80Cu, ...) angeht: es zählt am Ende das was "ankommt"
Man hat es schön bei der Vega 56/64 gesehen. Mehr Rohrleistung und wie sieht es in der Praxis aus?

Weder die AMD noch die NVIDIA Bannane werde ich sofort beim Release kaufen, sondern in Ruhe
schauen wie diese reift / schmeckt :d

Scheiß RT / RTX: 2020 und 4k Gaming ist nach wie vor:

- überteuert
- ein Witz

Von gehypten und mittlerweile halbtoten VR will ich garnicht erst sprechen :lol:
 
Danke für deinen letzten Satz. Ich wusste nicht ob du nur trollst oder nicht, der letzte Satz sagt alles.

Ich bin jedenfalls gespannt auf die neuen AMD Karten und ob sie etwas Schwung in den Grafikkarten Markt bringen können. Rechne allerdings nicht mit so einem großen Sprung, dass sich für mich ein Upgrade von meiner RTX 2080 preislich lohnt. Vermutlich wird auch eine entsprechende AMD Karte zu wenig Mehrwert bieten. Also eh gut möglich das ich auf die Übernächste Generation warten werde, wir werden sehen. Interessant ist neue Hardware aber immer.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh