Xbox: Entwickler spricht von dedizierter Ray-Tracing-Hardware von AMD

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.964
ray-tracing.jpg
Es wurde schon viel über die Hardware der kommenden Konsolengenerationen geschrieben. Sowohl Microsoft für die nächste Xbox als auch Sony für die nächste Playstation werden auf einen Custom-Chip von AMD zurückgreifen. In einem
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gähn!

Hat eigentlich Irgendjemand Rey-Tracing in Spielen gewünscht?
Da macht ein Hersteller mal Was anders, und schon muss Alles hinterherrennen, ohne zu reflektieren ob die User den Kunden überhaupt wollen. Aber man hat ja heute eh keine Wahl mehr, Friss oder stirb!
 
Hat eigentlich Irgendjemand Rey-Tracing in Spielen gewünscht?

Natürlich ist RAYtracing erwünscht und sollte auch so schnell wie möglich optimiert werden und der Standard für realistische Beleuchtungseffekte werden.
In welchem Hinterweltlerdorf muss man wohnen, um sowas nicht zu wollen. :fresse2:

Solang man die Option hat, es auszuschalten,
sollten die Effekte wider allem nicht zusagen oder weil man eben die extra Performance bei kompetetiven Spielen braucht,
sehe ich da kein Grund zur Beanstandung.

Weiter so!
 
Zuletzt bearbeitet:
Wie auch immer erfolgreich angesehen wird.

Nehmen wir die verkauften Einheiten, für die XBOX One, weil es so schön passt, Zitat von Wikipedia, nicht überprüft.

1 Call of Duty: Black Ops III 2015 7,38 Millionen
2 Grand Theft Auto V 2014 7,04 Millionen
3 Call of Duty: Advanced Warfare 2014 5,29 Millionen
4 Battlefield 1 2016 4,90 Millionen
5 Halo 5: Guardians 2015 4,85 Millionen
6 Fallout 4 2015 4,63 Millionen
7 Call of Duty: Infinite Warfare 2016 4,60 Millionen
8 Star Wars Battlefront 2015 4,19 Millionen
9 Minecraft 2014 4,12 Millionen
10 FIFA 17 2016 4,06 Millionen

Jetzt kann sich anhand der Liste mal jeder ein Bild davon machen, was erfolgreich war und wie die Grafik, im Vergleich zu anderen Spielen war/ist.
 
Ich denke mal hätte es nicht immer wieder neue Grafik(techniken) gegeben sähen die Spiele jetzt noch so aus wie vor 20 Jahren
 
Da macht ein Hersteller mal Was anders, und schon muss Alles hinterherrennen, ohne zu reflektieren ob die User den Kunden überhaupt wollen.
Wenn man sich danach richtet, was der Kunde HEUTE will und alles andere ignoriert, ist man MORGEN Pleite, weil man den Anschluss verloren hat.
HEUTE will der Kunde das beste was aktuell geht möglichst günstig. Davon was MORGEN gehen könnte, davon hat der keinen Plan, das kann er sich meist noch nichtmal vorstellen. Aber Rückschritte will er nicht hinnehmen, die sind aber bei einem Technologiewechsel häufig erstmal erforderlich.
Ich kann mich noch an das Aufkommen von LCD-Monitoren erinnern. Die wollte Anfangs auch keiner haben, weil die zu klein, zu träge, zu farbarm und was weiß ich sonst noch alles waren. Nicht zuletzt der Preis. Warum einen 15" LCD-Monitor für 600€ kaufen, wenn man eine 21"-Röhre schon für 200€ kriegt und die dann auch noch "besser" ist?

Die ersten 3D-Spiele waren auch "meh", weil sie viel viel schlechter aussahen, als derzeitige 2D-Titel. Nach deiner Argumentation hätte man das mit "3D" also lieber gleich bleiben lassen sollen, weil das damals keiner wollte, weil das was man in 2D schon hatte, eh besser war? Was würden wir dann heute wohl spielen?

Zumal bei Raytracing jetzt schon bekannt ist, dass das Verhältnis von Grafikqualität und Rechenaufwand ab einem gewissen Grad zugunsten von Raytracing kippen wird.
Bei aktueller Rasterization werden heute schon viele rechenaufwändige "Tricks" angewandt um Effekte hinzuschummeln, z.B. Spiegelungen. Und selbst das hat dabei schon Einschränkungen, wie z.B. das selbst mit Tricks via Rasterization nur mit Elementen geht die Onscreen sind, also sowieso gerendert werden müssen. Raytracing dagegen bringt das inklusive ohne diese Einschränkung.

Also Beispiel:
Rechenleistung von 10 - Rasterization - An Raytracing ist noch gar nicht zu denken
Rechenleistung von 20 - Rasterization aufgehübscht mit Tricks - Raytracing ist immernoch keine Option
Rechenleistung von 40 - Rasterization mit vielen Tricks - Raytracing wird denkbar
Rechenleistung von 80 - Rasterization mit noch mehr Tricks - Wird schon mit Raytracing kombiniert, weil es in Teilen effizienter ist und die Rechenleistung ausreicht um es partiell einzusetzen
Rechenleistung von 160 - Die Tricks von Rasterization lohnen sich nicht mehr, sie bedingen soviele und umständliche workarounds um etwas dann trotzdem nur notdrüftig zu faken, das es mit Raytracing effizienter und besser geht.

Wenn die Rechenleistung 160 erreicht, willst du als Weltmarktführer in 3D-Hardware aber nicht ohne Raytracing dastehen. Und wenn du dann erst damit anfängst, hast du die Entwicklung schon verpennt.

- - - Updated - - -

Geistert der Wunsch nach Echtzeit Raytracing in Videospielen nicht schon viele Jahre, im Internet rum? Damals gabs die Technik nicht, jetzt ist sie da.
Rytracingspielereien gabs afaik schon bevor Spiele überhaupt gerastert wurden. Es hat nur massiv an Rechenleistung gefehlt um das in Echtzeit hinzukriegen.
Ich habe Mitte der 90er schon mit PovRay rumgespielt, da kam gerade 3D-Rasterization für Spiele auf (PSX und so, nach ersten Versuchen auf z.B. dem SNES (Starwing und so) und so 2,5D-Engines wie Doom). Das was Povray damals schon geliefert hat, war schon dem überlegen, was wir heute spielen. Es fehlte nur an Rechenleistung. Mein 486er damals hat halt zum Rendern einer simplen Szene mit 3 Kugeln (inkl. Spiegelungen) nur eine Stunde gebraucht.
Oder andersrum gesagt: Raytracing gabs scho vor Rasterization.
 
Zuletzt bearbeitet:
NVIDIA kann die besonders aufwendigen Berechnungen also auslagern und hält somit die Ressourcen der Shader für das klassische Rasterization-Rendering frei

Stimmt das? Ich sehe bei Raytracing Benchmarks in denen eine 2080ti in FullHD bei unter 60fps rumkrebst. Wie passt das zusam

Wenn man sich danach richtet, was der Kunde HEUTE will und alles andere ignoriert, ist man MORGEN Pleite, weil man den Anschluss verloren hat.
HEUTE will der Kunde das beste was aktuell geht möglichst günstig. Davon was MORGEN gehen könnte, davon hat der keinen Plan, das kann er sich meist noch nichtmal vorstellen. Aber Rückschritte will er nicht hinnehmen, die sind aber bei einem Technologiewechsel häufig erstmal erforderlich.
Ich kann mich noch an das Aufkommen von LCD-Monitoren erinnern. Die wollte Anfangs auch keiner haben, weil die zu klein, zu träge, zu farbarm und was weiß ich sonst noch alles waren. Nicht zuletzt der Preis. Warum einen 15" LCD-Monitor für 600€ kaufen, wenn man eine 21"-Röhre schon für 200€ kriegt und die dann auch noch "besser" ist?

Die ersten 3D-Spiele waren auch "meh", weil sie viel viel schlechter aussahen, als derzeitige 2D-Titel. Nach deiner Argumentation hätte man das mit "3D" also lieber gleich bleiben lassen sollen, weil das damals keiner wollte, weil das was man in 2D schon hatte, eh besser war? Was würden wir dann heute wohl spielen?

Zumal bei Raytracing jetzt schon bekannt ist, dass das Verhältnis von Grafikqualität und Rechenaufwand ab einem gewissen Grad zugunsten von Raytracing kippen wird.
Bei aktueller Rasterization werden heute schon viele rechenaufwändige "Tricks" angewandt um Effekte hinzuschummeln, z.B. Spiegelungen. Und selbst das hat dabei schon Einschränkungen, wie z.B. das selbst mit Tricks via Rasterization nur mit Elementen geht die Onscreen sind, also sowieso gerendert werden müssen. Raytracing dagegen bringt das inklusive ohne diese Einschränkung.

Na da muss ich aber eine andere Meinung in den Raum werfen:
Über 1000€ für eine Grafikkarte ist weit ab von günstig. Alles unterhalb einer 2080ti kann man bezüglich Raytracing in die Tonne kloppen.
Bei TFT damals war nicht zu klein sondern zu teuer das Stichwort. Mein 21" Röhre mit 35kg war günstiger als mein 19" TFT der folgte. Wobei 21" damals schon übel war, in der Firma hat 17" Röhre 17" TFT abgelöst. Das aber in Einklang mit Raytracing und den völlig überteuerten Grafikkartenpreisen zu machen ist schon sehr krude.
Die ersten 3D Spiele waren geil. Es war aber ungewohnt und manchen wurde schlecht, vor allem weil dann Maussteuerung hinzugekommen ist. Duke3D mit seinem Fake3D/Wolfenstein bzw. Return to Castle Wolfenstein und co. waren schon der Hammer.

Ich für meinen Teil kann gerne auf RT verzichten bis eine 300€ Grafikkarte es anständig darstellen kann. Bis das passiert sind 4K Monitore Standard und bis das alles flüssig zueinander passt vergehen noch 5-X Jahre.
 
Stimmt das? Ich sehe bei Raytracing Benchmarks in denen eine 2080ti in FullHD bei unter 60fps rumkrebst. Wie passt das zusam
Das passt insofern zusammen, dass sie nicht alles direkt in Hardware beschleunigen, sondern auch auf Shader zurückgreifen.
Würden sie das NUR mit Shadern machen, wäre der Performanceeinbruch noch höher.


Na da muss ich aber eine andere Meinung in den Raum werfen:
Über 1000€ für eine Grafikkarte ist weit ab von günstig. Alles unterhalb einer 2080ti kann man bezüglich Raytracing in die Tonne kloppen.
Hast du meinen Beitrag den du zitiert hast gar nicht gelesen, oder nur nicht verstanden? Wo habe ich was von günstig (im finanziellen Sinne) geschrieben?


Bei TFT damals war nicht zu klein sondern zu teuer das Stichwort. Mein 21" Röhre mit 35kg war günstiger als mein 19" TFT der folgte. Wobei 21" damals schon übel war, in der Firma hat 17" Röhre 17" TFT abgelöst. Das aber in Einklang mit Raytracing und den völlig überteuerten Grafikkartenpreisen zu machen ist schon sehr krude.
Ah, bei den Monitoren lags am Preis, aber die Grafikkarten sind zu teuer, was natürlich nichts mit dem Preis zu tun hat.
Wer zwingt dich denn einen 2080Ti zu kaufen, wenn du eh kein Raytracing haben willst?

Ich für meinen Teil kann gerne auf RT verzichten bis eine 300€ Grafikkarte es anständig darstellen kann. Bis das passiert sind 4K Monitore Standard und bis das alles flüssig zueinander passt vergehen noch 5-X Jahre.
Richtig, BIS. Und wenn es dann soweit ist, freust du dich wie ein Schnitzel, das andere Leute (Early Adopter) die Entwicklung finanziert haben, andernfalls hättest du dann nämlich gar nichts neues und würdest immernoch spielen wie vor 10 Jahren.
 
Natürlich ist RAYtracing erwünscht und sollte auch so schnell wie möglich optimiert werden und der Standard für realistische Beleuchtungseffekte werden.
In welchem Hinterweltlerdorf muss man wohnen, um sowas nicht zu wollen. :fresse2:

Solang man die Option hat, es auszuschalten,
sollten die Effekte wider allem nicht zusagen oder weil man eben die extra Performance bei kompetetiven Spielen braucht,
sehe ich da kein Grund zur Beanstandung.

Weiter so!

War nur ein Tippfehler, habe schon mit 7 Jahren auf dem Amiga geraytraced ;)
Ich wollte damit vor Allem auf die nicht vorhandene Innovation hinweisen. Es gibt so wenig neue Ideen, dass gleich Alle immer nachmachen müssen, wenn mal einer eine bringt, wie halt das Echtzeitraytracing in Spielen-
Und Sinn wird dieses doch die nächsten 5 Jahre noch nicht machen, weil die GPUs einfach zu schwach sind. Deshalb biete es nur minimalistische Effekte, die eher in den Bereich des Marketings als den des wirklichen Nutzens gehören, wie man sämtlichen Tests ja ansehen kann. Und daran werden sicher auch die nächste Xbox und Playstation nichts ändern.
 
Zuletzt bearbeitet:
Ich wollte damit vor Allem auf die nicht vorhandene Innovsation hinweisen.
Keine Innovation, weils Raytracing ja schon seit 40 Jahren gibt?

Es gibt so wenig neue Ideen, dass gleich Alle immer nachmachen müssen, wenn mal einer eine bringt, wie halt das Echtzeitraytracing in Spielen-
Raytracing ist sozusagen die physikalisch korrekte Simulation. Damit du etwas also als "Innovation" ansehen würdest, müssten wir erst die Physik sprengen?


Und Sinn wird dieses doch die nächsten 5 Jahre noch nicht machen, weil die GPUs einach zu schwach sind.
Mutige Aussage. Hätte ich 1995 genauso für 3D-Grafik behauptet und wäre um 2000 rum eines besseren belehrt worden.

Oder dehne es mal etwas. Halflife 2001 - Crysis 2007.... ich wäre vorsichtig mit solchen Prognosen.
 
Zuletzt bearbeitet:
Keine Innovation, weils Raytracing ja schon seit 40 Jahren gibt?
Nein, weil's nvidia ebenfalls schon in Echtzeit macht. Und dieses Nachmachen in der Industrie geht gehörig auf den Sack. Seit ca 10 Jahren schon gibt es doch keine konkurrierenden neuen Ideen mehr, sondern Jeder springt immer nur auf den bereits fahrenden Hypetrain auf. Wir haben keine bessere Auswahl an wirklich unterschiedlichen Produkten mehr, als es damals in der DDR üblich war.

Raytracing ist sozusagen die physikalisch korrekte Simulation. Damit du etwas also als "Innovation" ansehen würdest, müssten wir erst die Physik sprengen?
Ist mir ebenfalls seit einstelligem Kindheitsalter bekannt. Ändert aber doch Nichts daran, dass die Hardware dafür einfach noch nicht taugt. Und deshalb ordne ich es bis auf Weiteres als "yet another Verbrauchertäuschung" ein (und man sollte nicht vergessen, dass so eine komplette Konsole deutlich weniger kosten muss, als eine RTX 2080ti solo).

Mutige Aussage. Hätte ich 1995 genauso für 3D-Grafik behauptet und wäre um 2000 rum eines besseren belehrt worden.
Denke ich nicht, weil die physikalisch korrekte Berechnung eben keine billigen Tricksereien zur massiven Einsparung von Rechenlast zulässt, wie sie bei der Rasterisation an der Tagesordnung sind, denn sonst würde sie ja an Realismus einbüßen, und wäre dementsprechend wieder kein vollwertiges Raytracing, sondern nur ein müder Abklatsch, also eine Täuschung (auch wenn diese Trickserei inzwischen auch bei CGI schon recht beliebt ist, um eben Renderkosten zu sparen..)
Deshalb ist z.B. dieser AI-Schärfungsmüll auch ein Unding. Auf der einen Seite für mikroskopische Unterschiede durch das Raytracing extreme Aufpreise verlangen, und auf der anderen Seite mit so einem Quatsch wieder das komplette Bild mit Fantasiepixeln "aufwerten".
 
Zuletzt bearbeitet:
Nein, weil's nvidia ebenfalls schon in Echtzeit macht. Und dieses Nachmachen in der Industrie geht gehörig auf den Sack. Seit ca 10 Jahren schon gibt es doch keine konkurrierenden neuen Ideen mehr, sondern Jeder springt immer nur auf den bereits fahrenden Hypetrain auf.
Öhm, wenn die Industrie in diese Richtung geht, was willst du dann auch sonst machen? Glaubst du das AMD da jetzt auf dem weißen Ross dahergeritten kommt und... ähm, naja, was denn eigentlich ganz anderes bringen könnte? Quantenphysik zur Simulation auf subatomarer Ebene um optische Erscheinung zu berechnen?

Ist mir ebenfalls seit einstelligem Kindheitsalter bekannt. Ändert aber doch Nichts daran, dass die Hardware dafür einfach noch nicht taugt.
NOCH... lies meinen Beitrag weiter oben nochmal.



Denke ich nicht, weil die physikalisch korrekte Berechnung eben keine billigen Tricksereien zur massiven Einsparung von Rechenlast zulässt, wie sie bei der Rasterisation an der Tagesordnung sind.
Du hast die Aussage eben umgedreht. Die Tricks die man braucht um das mit Rasterization hinzukriegen, übersteigen den Rechenaufwand irgendwann, statt es gleich korrekt zu Raytracen... nicht umgekehrt.
Und Rasterization spart keine Rechenleistung mit Tricks, sondern die wenden massiv Rechenleistung auf um Zeug zu simulieren, was mit Raytracing frei Haus käme. Nur NOCH reicht die Rechenleistung nicht für echtes, vollständiges Raytracing. Das was jetzt schon mit Raytracing kombiniert wird, kriegst du ohne den Raytracinganteil so gar nicht hin.
NOCH ist das günstiger, das streite ich ja gar nicht ab. Aber genau das kippt irgendwann.

Du hast meinen Beitrag wirklich nicht gelesen, oder?
 
Zuletzt bearbeitet:
Öhm, wenn die Industrie in diese Richtung geht, was willst du dann auch sonst machen? Glaubst du das AMD da jetzt auf dem weißen Ross dahergeritten kommt und... ähm, naja, was denn eigentlich ganz anderes bringen könnte? Quantenphysik zur Simulation auf subatomarer Ebene um optische Erscheinung zu berechnen?


NOCH... lies meinen Beitrag weiter oben nochmal.
Na siehst, du schon mal eine Alternative ;)
Es gäbe auch die Möglichkeit seine Entwicklungszeit jetzt nicht mit Raytracing zu verbringen und stattdessen mehr in die klassichen Rastermethoden zu stecken, was gerade für AMD nützlich wäre. Oder z.B. ein Neuaufleben des stereoskopischen Gamings, was ja heute mit 4K-Displays in Verbindung mit Interlaced Polfiltern im Gegensatz zu damals endlich Sinn machen würde, usw.
Genau dieses "in die Richtung gehen" ist doch das Problem. "Die Industrie" steht heute offensichtlich nicht mehr in einem kreativ stimulierenden Konkurrenzverhältnis, sondern hat eine entwicklungshemmende Gruppendynamik entwickelt.

Du hast die Aussage eben umgedreht. Die Tricks die man braucht um das mit Rasterization hinzukriegen, übersteigen den Rechenaufwand irgendwann, statt es gleich korrekt zu Raytracen... nicht umgekehrt.
Und Rasterization spart keine Rechenleistung mit Tricks, sondern die wenden massiv Rechenleistung auf um Zeug zu simulieren, was mit Raytracing frei Haus käme. Nur NOCH reicht die Rechenleistung nicht für echtes, vollständiges Raytracing. Das was jetzt schon mit Raytracing kombiniert wird, kriegst du ohne den Raytracinganteil so gar nicht hin.
NOCH ist das günstiger, das streite ich ja gar nicht ab. Aber genau das kippt irgendwann.

Du hast meinen Beitrag wirklich nicht gelesen, oder?
Doch, so lang war er doch nicht. Ich sehe das ja weitestgehend genau so, nur war meine Aussage eben, dass dieses "irgendwann" mit der nächsten Konsolengeneration noch nicht der Fall sein wird.
(So kam ich auch auf die 5 Jahre, denn so lange wird es ja mindestens dauern, bis deren Nachfolger erscheinen.)
 
Zuletzt bearbeitet:
Es gäbe auch die Möglichkeit seine Entwicklungszeit jetzt nicht mit Raytracing zu verbringen und stattdessen mehr in die klassichen Rastermethoden zu stecken,
Du hast Innvoation gefordert und jetzt soll man Entwicklung in die Technik stecken, die schon seit 20 Jahren standard ist?
Merkst du eigentlich selber, was du hier laberst?

was gerade für AMD nützlich wäre. Oder z.B. ein Neuaufleben des stereoskopischen Gamings, was ja heute mit 4K-Displays in Verbindung mit Interlaced Polfiltern im Gegensatz zu damals endlich Sinn machen würde, usw.
Du bist also AMD-Fan, und deswegen soll man nicht das machen, wo NVidia die Nase vorn hat?
Stereoskopie hat übrigens nichts mit Rasterization oder Raytracing zu tun. Auch Stereokopie wäre mit Raytracing exakter.
Und ich hätte selbst mit dem 128K-Display mit Polfilter immernoch das Problem, das ich von den Geisterbildern Kopfschmerzen kriege auch wenn die dann so hoch aufgelöst wären, das ich wirklich keine einzelnen Pixel mehr sehe.
VR hat das gleiche Problem: Es erfordert nunmal mehr Rechenleistung und VR-Games sehen halt mangels Rechenleistung nicht so pralle aus wie die Monitor-Version. Den Rückschritt wollen viele aber nicht gehen und beschweren sich darüber, das VR schlechter aussieht als das Spiel am Monitor.
Der "Rückstand" wird aber nicht verschwinden, weil wenn mehr Rechenleistung vorhanden ist, wird man die auch sofort in Rasterization-Tricks stecken und damit auch das Erscheinungsbild am Monitor verbessern und die VR-Darstellung ist wieder hinterher.
Zumal VR das Problem hat, dass es Optikbedingt nunmal eine wesentlich höhere Auflösung braucht. Derart hohe Auflösungen wären aber auf einem Monitor absolut sinnfrei. Also kann VR gar nicht aufholen.


Genau dieses "in die Richtung gehen" ist doch das Problem. "Die Industrie" steht heute offensichtlich nicht mehr in einem kreativ stimulierenden Konkurrenzverhältnis, sondern hat eine entwicklungshemmende Gruppendynamik entwickelt.
Ist nix neues, sondern war schon immer so. Das liegt daran, das man die vielversprechendste Technologie verfolgt und nicht versucht das Rad nochmal anders neu zu erfinden, nur um sagen zu können, das man halt was anderes macht.


Doch, so lang war er doch nicht. Ich sehe das ja weitestgehend genau so, nur war meine Aussage eben, dass dieses "irgendwann" mit der nächsten Konsolengeneration noch nicht der Fall sein wird.
Ich habe mit keinem Wort irgendwelche Konsolen oder konkrete Hardware erwähnt, noch behauptet, dass das nächstes Jahr mit der vermutlichen nächsten Konsolengeneration schon vollends kommen wird.
Bleib beim Thema, oder lass es ganz. Aber verdreh nicht meine Aussagen, wie es dir gerade passt.
 
Zuletzt bearbeitet:
Du hast Innvoation gefordert und jetzt soll man Entwicklung in die Technik stecken, die schon seit 20 Jahren standard ist?
Merkst du eigentlich selber, was du hier laberst?
Noch weniger innovativ ist es doch zweifelsfrei, das Selbe zu machen wie die Konkurrenz.

Du bist also AMD-Fan, und deswegen soll man nicht das machen, wo NVidia die Nase vorn hat?
Nö, bin ich nicht. Sie haben es einfach deshalb eher nötig, weil sie leistungstechnisch hinterherhinken.

Stereoskopie hat übrigens nichts mit Rasterization oder Raytracing zu tun. Auch Stereokopie wäre mit Raytracing exakter.
Und ich hätte selbst mit dem 128K-Display mit Polfilter immernoch das Problem, das ich von den Geisterbildern Kopfschmerzen kriege auch wenn die dann so hoch aufgelöst wären, das ich wirklich keine einzelnen Pixel mehr sehe.
Das ist klar. Aber die Entwicklung dementsprechender Treiber zur Ausgabe auf Geräten hat ja damit auch für den User gar nichts zu tun.
Es geht hierbei um die Priorisierung. Nvidia behandelt das Thema ja leider nur noch stiefmütterlich.


Ist nix neues, sondern war schon immer so. Das liegt daran, das man die vielversprechendste Technologie verfolgt und nicht versucht das Rad nochmal anders neu zu erfinden, nur um sagen zu können, das man halt was anderes macht.
Siehe z.B. damals MD vs. DCC usw. Das sind unterschiedliche Herangehensweisen, wie ich sie meine.

Ich habe mit keinem Wort irgendwelche Konsolen oder konkrete Hardware erwähnt, noch behauptet, dass das nächstes Jahr mit der vermutlichen nächsten Konsolengeneration schon vollends kommen wird.
Bleib beim Thema, oder lass es ganz. Aber verdreh nicht meine Aussagen, wie es dir gerade passt.
Ich habe Nichts verdreht, und du hast doch auch gar nichts Konkretes ausgesagt, sondern nur mir widersprochen. Deshalb versuche ich die ganze Zeit doch einfach nur dir klarzumachen, was ich aussagen möchte, weil du keine Möglichkeit auslässt meine Aussagen fehlzuinterpretieren ;)
 
Zuletzt bearbeitet:
Noch weniger innovativ ist es doch zweifelsfrei, das Selbe zu machen wie die Konkurrenz.
Wenn die Konkurrenz so stark ist, dass sie den ganzen Markt in diese Richtung drängt, dann kannst du nichts machen. Siehe Mantle und daraus resultieren Vulkan.

Nö, bin ich nicht. Sie haben es einfach deshalb eher nötig, weil sie leistungstechnisch hinterherhinken.
Und genau deswegen nicht die Ressourcen übrig, um was gänzlich neues zu erfinden. Zumal man Innovation nicht befehlen kann. Die kommt entweder oder sie kommt nicht. Und wenn sie nicht kommt, gehts halt nicht.

Das ist klar. Aber die Entwicklung dementsprechender Treiber zur Ausgabe auf Geräten hat ja damit auch für den User gar nichts zu tun.
Es geht hierbei um die Priorisierung.
Stereoskopie ist zum wievielten Mal jetzt gescheitert? Das bringts einfach nicht. Es ist umständlich, wegen dem Equipment lästig und taugt einfach nicht.
Die besten Chancen in der Hinsicht hat immernoch VR. Aber das taugt der Masse ja auch nicht. Zu teuer, zu schlecht. Und selbst VR nimmt gefühlt schon den 15ten Anlauf.


Siehe z.B. damals MD vs. DCC usw. Das sind unterschiedliche Herangehensweisen, wie ich sie meine.
Was ist (oder war) MD und DCC?
Ähnlich wie HD-DVD und Bluray oder VHS und Video2000?
Der Zweck war der gleiche, nur die technische Implementierung war unterschiedlich. Udn wie man sieht, hat sich nicht zwangsläufig das technisch bessere durchgesetzt.
Und das ist so auch hier. Nvidia kommt mit RT-Cores, AMD will das gleiche Resultat über wesentlich bessere Shader erreichen. Selber Zweck, unterschiedliche Technik.
Ein Ryzen ist auch anders aufgebaut als ein Core-I. Der Zweck ist aber der gleiche.

Ich habe Nichts verdreht, und du hast auch gar Nichts ausgesagt, außer mir zu widersprechen.
Mir scheint du missverstehst, dass ich nicht von JETZT spreche, sondern von irgendwann in der Zukunft. Was da sein wird, weiß jetzt noch keiner, aber meistens übertrifft es sogar die Vorstellung.
Ich habe nur begründet, warum es durchaus jetzt schon Sinn macht Richtung Raytracing zu gehen, auch wenn das jetzt noch nicht vollends funktioniert. Und genau das tut man ja. Und AMD MUSS mitziehen, mit gleicher oder anderer Technik, ist egal.
 
Ja, und ich habe eben die Konkretisierung des Irgendwanns gewagt, indem ich unterstelle, dass es mit der nächsten Konsolengeneration noch Nichts wird.
Unterschiedliche technische Ansätze zu verfolgen sehe ich als eine Vorraussetzung für eine wirkliche Weiterentwicklung von Technologien. Ansonsten ist es eben das übliche moderne Schema, das ich oben mit "Friss oder stirb" meinte, anstatt dass man als Käufer eine Wahl hätte. Würde sich AMD z.B. die vergangenen Jahre mal um eine anständige Unterstützung der stereoskopischen Ausgabe durch den eigenen Treiber bemüht haben, wäre ich nicht dazu gezwungen immer wieder die überteuerte nvidia Hardware zu kaufen, wo ich auch noch das momentan rudimentäte Raytracing mitbezahlen muss.
 
Ja, und ich habe eben die Konkretisierung des Irgendwanns gewagt, indem ich unterstelle, dass es mit der nächsten Konsolengeneration noch Nichts wird.
Unterschiedliche technische Ansätze zu verfolgen sehe ich als eine Vorraussetzung für eine wirkliche Weiterentwicklung von Technologien.
AMD und NVidia verfolgen doch unterschiedliche Ansätze für den gleichen Zweck: Raytracing.

Würde sich AMD z.B. die vergangenen Jahre mal um eine anständige Unterstützung der stereoskopischen Ausgabe durch den eigenen Treiber bemüht haben, wäre ich nicht dazu gezwungen immer wieder die überteuerte nvidia Hardware zu kaufen, wo ich auch noch das momentan rudimentäte Raytracing mitbezahlen muss.
Ich wiederhole: Stereoskopie hat nichts mit Rasterization oder Raytracing zu tun. Das du gerne Stereoskopie hättest, habe ich verstanden, aber das bedingt keine Entscheidung zwischen Rasterization und Raytracing, also pack deinen Wunsch nach Stereoskopie mal zur Seite, denn das hat überhaupt nichts mit der 3D-Berechnungsweise hier zu tun!
Das Nvidia RTX durchdrückt, weil man die High-End-Modelle nicht ohne kaufen kann, ist eine ganz andere Frage. Das kann sich aber NVidia auch nur leisten, weil in eben diesem Bereich (selbst ohne Raytracing) kein Konkurrent vorhanden ist.
Und das da kaum einer Aufwand in Stereoskopie investiert liegt wohl eher daran, dass es ausser dir und 5 anderen Leuten der Rest für untauglich befunden hat und kein Geld dafür bezahlen will.
Hab ich schon massig im Kino gesehen, meist hats sogar eher genervt und hab ich in Spielen schon auf der PS3 ausprobiert und es hat nix getaugt. Will halt keiner. Das ist nicht die Innovation, die du suchst, sondern das ist der Fail der eben nicht funktioniert und genau deswegen nicht in der Form weiterverfolgt wird, auch wenn du das persönlich super toll finden magst.
 
Ich denke mal AMD macht es wie damals mit der Tesselation die Berechnungen werden etwas weniger sein und man kann bestimmt wieder über den Treiber einstellen welche Stufe man nutzen will.
 
..
Ich wiederhole: Stereoskopie hat nichts mit Rasterization oder Raytracing zu tun. Das du gerne Stereoskopie hättest, habe ich verstanden, aber das bedingt keine Entscheidung zwischen Rasterization und Raytracing, also pack deinen Wunsch nach Stereoskopie mal zur Seite, denn das hat überhaupt nichts mit der 3D-Berechnungsweise hier zu tun!
..t.

Darum geht es doch auch gar nicht, habe ich auch nicht so gesagt. Ich habe es lediglich als Alternativbeispiel für einen nach meinen Nutzerwünschen besser angelegte Entwicklungsaufwand dargelegt, weil es a) mehr Effekt bringt als der momentane Stand des Raytracing, und b) mit der momentanen Technologie schon sehr gut machbar wäre. Angesichts der limitierten Resourcen ist es eben doch eine Entscheidung für das Eine oder das Andere, nicht etwa aus technischen Gründen.
 
Zuletzt bearbeitet:
Nicht vergessen das hier John Carmack on Twitter:
Braucht also den Vergleich mit einer deidizierten rtx 2080 ti im PC nicht scheuen.

Die Option dies in zukünftigen Spielen an-/ausschalten würde ich mir wünschen:
- 4k uhd 60 fps
oder
- 4k uhd 30 fps mit raytracing.
 
Was viele irgendwie vergessen ist wie stark Raytracing" am Ende in einem Spiel eingesetzt wird. Ich denke das ist pures Marketing und ja wir werden Raytracing sehen aber nicht in der Form wie manche Tech Demos es zeigen.
Und ganz ehrlich, schaut euch die Anforderungen der Quake 2 RTX Version an und das ist ein sehr sehr altes Spiel was aber sehr gut die Features zeigt.

Alle aktuellen Spiele währen mit diesem Effektoverload nahezu unspielbar, weshalb wir auch sehr weit entfernt von richtigem Raytracing in Spielen sind.

Aber hey es ist Raaaaytraaacing.

Its Ridge Racer bros - YouTube
 
Zuletzt bearbeitet:
Raytracing ist überhypter Blödsinn.
Warum rennt man immer dem Müll, den ein gewisser Herr von sich gibt, immer nach und glaubt den Schrott??
Macht euch doch mal selbst Gedanken, denkt mal bisserl darüber nach! Aber hey, wenn es diese Seite ist, die ein unsinniges feature, dass nur geringfügige Änderungen bringt, aber die Performance um 50% reduziert, ist das geil!!11
Nicht vergessen das hier John Carmack on Twitter:
Braucht also den Vergleich mit einer deidizierten rtx 2080 ti im PC nicht scheuen.
Der Beitrag ist ~5 Jahre alt.
Und war deutlich vor Mantle und dementsprechend auch DX12 und Vulkan.
Vulkan wurde initial erst 2016 veröffentlicht, DX12 mitte 2015.
Und auch Mantle schaut aus, dass das erst einige Monate nach Johns Posting erschien.

Nach diesen APIs könnte er seine Meinung geändert haben, denn die "Low Level APIs" sind ja eines der Punkte, warum Konsolen die Hardware besser ausnutzen.

Die Option dies in zukünftigen Spielen an-/ausschalten würde ich mir wünschen:
- 4k uhd 60 fps
oder
- 4k uhd 30 fps mit raytracing.
Ich nicht.

Aber schön, dass du selbst sagst, dass Raytracing 50% Performance kostet und das Spiel dann ohne doppelt so schnell läuft ;)
 
Tessellation hat am Anfang auch extrem viel Rechenleistung gekostet und heute? Kaum noch der Rede wert und Standard. Es gibt so viele Techniken, die bei Grafik genutzt werden, die am Anfang dermassen Leistung verschlungen haben es inzwischen aber nicht mehr tun. Selbst Anisotrope Filterung hat mal massig Leistung gekostet, heute spielt das für die FPS keine Rolle mehr ob es auf aus oder 16x steht. Und wer bitte sehr würde heute noch ohne AF spielen wollen? Ich definitiv nicht.

Bei RT wird es kein deut anders sein, in ein paar Jahren Standard und frisst deutlich weniger Leistung als heute und sieht dabei noch besser aus als heute.

Ist immer die gleiche nervige Diskussion wenn etwas neues kommt, egal ob Grafik Technik, Software allgemein oder auch Hardware. Es gibt immer die Klugscheißer, die wissen was alle wollen/brauchen und wie überflüssig doch etwas ist, weil ... <hier bitte irgend eine Kinderkrankheit der Technik eintragen>. Absolut null Weitsicht vorhanden, würden wir auf diese Leute hören, würden wir heute noch in Höhlen hausen.

Kein Bock mehr auf den Mist, darum bin ich hier auch direkt wieder raus.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh