HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.902
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Hat eigentlich Irgendjemand Rey-Tracing in Spielen gewünscht?
Gähn!
Hat eigentlich Irgendjemand Rey-Tracing in Spielen gewünscht?
Wenn man sich danach richtet, was der Kunde HEUTE will und alles andere ignoriert, ist man MORGEN Pleite, weil man den Anschluss verloren hat.Da macht ein Hersteller mal Was anders, und schon muss Alles hinterherrennen, ohne zu reflektieren ob die User den Kunden überhaupt wollen.
Rytracingspielereien gabs afaik schon bevor Spiele überhaupt gerastert wurden. Es hat nur massiv an Rechenleistung gefehlt um das in Echtzeit hinzukriegen.Geistert der Wunsch nach Echtzeit Raytracing in Videospielen nicht schon viele Jahre, im Internet rum? Damals gabs die Technik nicht, jetzt ist sie da.
NVIDIA kann die besonders aufwendigen Berechnungen also auslagern und hält somit die Ressourcen der Shader für das klassische Rasterization-Rendering frei
Wenn man sich danach richtet, was der Kunde HEUTE will und alles andere ignoriert, ist man MORGEN Pleite, weil man den Anschluss verloren hat.
HEUTE will der Kunde das beste was aktuell geht möglichst günstig. Davon was MORGEN gehen könnte, davon hat der keinen Plan, das kann er sich meist noch nichtmal vorstellen. Aber Rückschritte will er nicht hinnehmen, die sind aber bei einem Technologiewechsel häufig erstmal erforderlich.
Ich kann mich noch an das Aufkommen von LCD-Monitoren erinnern. Die wollte Anfangs auch keiner haben, weil die zu klein, zu träge, zu farbarm und was weiß ich sonst noch alles waren. Nicht zuletzt der Preis. Warum einen 15" LCD-Monitor für 600€ kaufen, wenn man eine 21"-Röhre schon für 200€ kriegt und die dann auch noch "besser" ist?
Die ersten 3D-Spiele waren auch "meh", weil sie viel viel schlechter aussahen, als derzeitige 2D-Titel. Nach deiner Argumentation hätte man das mit "3D" also lieber gleich bleiben lassen sollen, weil das damals keiner wollte, weil das was man in 2D schon hatte, eh besser war? Was würden wir dann heute wohl spielen?
Zumal bei Raytracing jetzt schon bekannt ist, dass das Verhältnis von Grafikqualität und Rechenaufwand ab einem gewissen Grad zugunsten von Raytracing kippen wird.
Bei aktueller Rasterization werden heute schon viele rechenaufwändige "Tricks" angewandt um Effekte hinzuschummeln, z.B. Spiegelungen. Und selbst das hat dabei schon Einschränkungen, wie z.B. das selbst mit Tricks via Rasterization nur mit Elementen geht die Onscreen sind, also sowieso gerendert werden müssen. Raytracing dagegen bringt das inklusive ohne diese Einschränkung.
Das passt insofern zusammen, dass sie nicht alles direkt in Hardware beschleunigen, sondern auch auf Shader zurückgreifen.Stimmt das? Ich sehe bei Raytracing Benchmarks in denen eine 2080ti in FullHD bei unter 60fps rumkrebst. Wie passt das zusam
Hast du meinen Beitrag den du zitiert hast gar nicht gelesen, oder nur nicht verstanden? Wo habe ich was von günstig (im finanziellen Sinne) geschrieben?Na da muss ich aber eine andere Meinung in den Raum werfen:
Über 1000€ für eine Grafikkarte ist weit ab von günstig. Alles unterhalb einer 2080ti kann man bezüglich Raytracing in die Tonne kloppen.
Ah, bei den Monitoren lags am Preis, aber die Grafikkarten sind zu teuer, was natürlich nichts mit dem Preis zu tun hat.Bei TFT damals war nicht zu klein sondern zu teuer das Stichwort. Mein 21" Röhre mit 35kg war günstiger als mein 19" TFT der folgte. Wobei 21" damals schon übel war, in der Firma hat 17" Röhre 17" TFT abgelöst. Das aber in Einklang mit Raytracing und den völlig überteuerten Grafikkartenpreisen zu machen ist schon sehr krude.
Richtig, BIS. Und wenn es dann soweit ist, freust du dich wie ein Schnitzel, das andere Leute (Early Adopter) die Entwicklung finanziert haben, andernfalls hättest du dann nämlich gar nichts neues und würdest immernoch spielen wie vor 10 Jahren.Ich für meinen Teil kann gerne auf RT verzichten bis eine 300€ Grafikkarte es anständig darstellen kann. Bis das passiert sind 4K Monitore Standard und bis das alles flüssig zueinander passt vergehen noch 5-X Jahre.
Natürlich ist RAYtracing erwünscht und sollte auch so schnell wie möglich optimiert werden und der Standard für realistische Beleuchtungseffekte werden.
In welchem Hinterweltlerdorf muss man wohnen, um sowas nicht zu wollen.
Solang man die Option hat, es auszuschalten,
sollten die Effekte wider allem nicht zusagen oder weil man eben die extra Performance bei kompetetiven Spielen braucht,
sehe ich da kein Grund zur Beanstandung.
Weiter so!
Keine Innovation, weils Raytracing ja schon seit 40 Jahren gibt?Ich wollte damit vor Allem auf die nicht vorhandene Innovsation hinweisen.
Raytracing ist sozusagen die physikalisch korrekte Simulation. Damit du etwas also als "Innovation" ansehen würdest, müssten wir erst die Physik sprengen?Es gibt so wenig neue Ideen, dass gleich Alle immer nachmachen müssen, wenn mal einer eine bringt, wie halt das Echtzeitraytracing in Spielen-
Mutige Aussage. Hätte ich 1995 genauso für 3D-Grafik behauptet und wäre um 2000 rum eines besseren belehrt worden.Und Sinn wird dieses doch die nächsten 5 Jahre noch nicht machen, weil die GPUs einach zu schwach sind.
Nein, weil's nvidia ebenfalls schon in Echtzeit macht. Und dieses Nachmachen in der Industrie geht gehörig auf den Sack. Seit ca 10 Jahren schon gibt es doch keine konkurrierenden neuen Ideen mehr, sondern Jeder springt immer nur auf den bereits fahrenden Hypetrain auf. Wir haben keine bessere Auswahl an wirklich unterschiedlichen Produkten mehr, als es damals in der DDR üblich war.Keine Innovation, weils Raytracing ja schon seit 40 Jahren gibt?
Ist mir ebenfalls seit einstelligem Kindheitsalter bekannt. Ändert aber doch Nichts daran, dass die Hardware dafür einfach noch nicht taugt. Und deshalb ordne ich es bis auf Weiteres als "yet another Verbrauchertäuschung" ein (und man sollte nicht vergessen, dass so eine komplette Konsole deutlich weniger kosten muss, als eine RTX 2080ti solo).Raytracing ist sozusagen die physikalisch korrekte Simulation. Damit du etwas also als "Innovation" ansehen würdest, müssten wir erst die Physik sprengen?
Denke ich nicht, weil die physikalisch korrekte Berechnung eben keine billigen Tricksereien zur massiven Einsparung von Rechenlast zulässt, wie sie bei der Rasterisation an der Tagesordnung sind, denn sonst würde sie ja an Realismus einbüßen, und wäre dementsprechend wieder kein vollwertiges Raytracing, sondern nur ein müder Abklatsch, also eine Täuschung (auch wenn diese Trickserei inzwischen auch bei CGI schon recht beliebt ist, um eben Renderkosten zu sparen..)Mutige Aussage. Hätte ich 1995 genauso für 3D-Grafik behauptet und wäre um 2000 rum eines besseren belehrt worden.
Öhm, wenn die Industrie in diese Richtung geht, was willst du dann auch sonst machen? Glaubst du das AMD da jetzt auf dem weißen Ross dahergeritten kommt und... ähm, naja, was denn eigentlich ganz anderes bringen könnte? Quantenphysik zur Simulation auf subatomarer Ebene um optische Erscheinung zu berechnen?Nein, weil's nvidia ebenfalls schon in Echtzeit macht. Und dieses Nachmachen in der Industrie geht gehörig auf den Sack. Seit ca 10 Jahren schon gibt es doch keine konkurrierenden neuen Ideen mehr, sondern Jeder springt immer nur auf den bereits fahrenden Hypetrain auf.
NOCH... lies meinen Beitrag weiter oben nochmal.Ist mir ebenfalls seit einstelligem Kindheitsalter bekannt. Ändert aber doch Nichts daran, dass die Hardware dafür einfach noch nicht taugt.
Du hast die Aussage eben umgedreht. Die Tricks die man braucht um das mit Rasterization hinzukriegen, übersteigen den Rechenaufwand irgendwann, statt es gleich korrekt zu Raytracen... nicht umgekehrt.Denke ich nicht, weil die physikalisch korrekte Berechnung eben keine billigen Tricksereien zur massiven Einsparung von Rechenlast zulässt, wie sie bei der Rasterisation an der Tagesordnung sind.
Na siehst, du schon mal eine AlternativeÖhm, wenn die Industrie in diese Richtung geht, was willst du dann auch sonst machen? Glaubst du das AMD da jetzt auf dem weißen Ross dahergeritten kommt und... ähm, naja, was denn eigentlich ganz anderes bringen könnte? Quantenphysik zur Simulation auf subatomarer Ebene um optische Erscheinung zu berechnen?
NOCH... lies meinen Beitrag weiter oben nochmal.
Doch, so lang war er doch nicht. Ich sehe das ja weitestgehend genau so, nur war meine Aussage eben, dass dieses "irgendwann" mit der nächsten Konsolengeneration noch nicht der Fall sein wird.Du hast die Aussage eben umgedreht. Die Tricks die man braucht um das mit Rasterization hinzukriegen, übersteigen den Rechenaufwand irgendwann, statt es gleich korrekt zu Raytracen... nicht umgekehrt.
Und Rasterization spart keine Rechenleistung mit Tricks, sondern die wenden massiv Rechenleistung auf um Zeug zu simulieren, was mit Raytracing frei Haus käme. Nur NOCH reicht die Rechenleistung nicht für echtes, vollständiges Raytracing. Das was jetzt schon mit Raytracing kombiniert wird, kriegst du ohne den Raytracinganteil so gar nicht hin.
NOCH ist das günstiger, das streite ich ja gar nicht ab. Aber genau das kippt irgendwann.
Du hast meinen Beitrag wirklich nicht gelesen, oder?
Du hast Innvoation gefordert und jetzt soll man Entwicklung in die Technik stecken, die schon seit 20 Jahren standard ist?Es gäbe auch die Möglichkeit seine Entwicklungszeit jetzt nicht mit Raytracing zu verbringen und stattdessen mehr in die klassichen Rastermethoden zu stecken,
Du bist also AMD-Fan, und deswegen soll man nicht das machen, wo NVidia die Nase vorn hat?was gerade für AMD nützlich wäre. Oder z.B. ein Neuaufleben des stereoskopischen Gamings, was ja heute mit 4K-Displays in Verbindung mit Interlaced Polfiltern im Gegensatz zu damals endlich Sinn machen würde, usw.
Ist nix neues, sondern war schon immer so. Das liegt daran, das man die vielversprechendste Technologie verfolgt und nicht versucht das Rad nochmal anders neu zu erfinden, nur um sagen zu können, das man halt was anderes macht.Genau dieses "in die Richtung gehen" ist doch das Problem. "Die Industrie" steht heute offensichtlich nicht mehr in einem kreativ stimulierenden Konkurrenzverhältnis, sondern hat eine entwicklungshemmende Gruppendynamik entwickelt.
Ich habe mit keinem Wort irgendwelche Konsolen oder konkrete Hardware erwähnt, noch behauptet, dass das nächstes Jahr mit der vermutlichen nächsten Konsolengeneration schon vollends kommen wird.Doch, so lang war er doch nicht. Ich sehe das ja weitestgehend genau so, nur war meine Aussage eben, dass dieses "irgendwann" mit der nächsten Konsolengeneration noch nicht der Fall sein wird.
Noch weniger innovativ ist es doch zweifelsfrei, das Selbe zu machen wie die Konkurrenz.Du hast Innvoation gefordert und jetzt soll man Entwicklung in die Technik stecken, die schon seit 20 Jahren standard ist?
Merkst du eigentlich selber, was du hier laberst?
Nö, bin ich nicht. Sie haben es einfach deshalb eher nötig, weil sie leistungstechnisch hinterherhinken.Du bist also AMD-Fan, und deswegen soll man nicht das machen, wo NVidia die Nase vorn hat?
Das ist klar. Aber die Entwicklung dementsprechender Treiber zur Ausgabe auf Geräten hat ja damit auch für den User gar nichts zu tun.Stereoskopie hat übrigens nichts mit Rasterization oder Raytracing zu tun. Auch Stereokopie wäre mit Raytracing exakter.
Und ich hätte selbst mit dem 128K-Display mit Polfilter immernoch das Problem, das ich von den Geisterbildern Kopfschmerzen kriege auch wenn die dann so hoch aufgelöst wären, das ich wirklich keine einzelnen Pixel mehr sehe.
Siehe z.B. damals MD vs. DCC usw. Das sind unterschiedliche Herangehensweisen, wie ich sie meine.Ist nix neues, sondern war schon immer so. Das liegt daran, das man die vielversprechendste Technologie verfolgt und nicht versucht das Rad nochmal anders neu zu erfinden, nur um sagen zu können, das man halt was anderes macht.
Ich habe Nichts verdreht, und du hast doch auch gar nichts Konkretes ausgesagt, sondern nur mir widersprochen. Deshalb versuche ich die ganze Zeit doch einfach nur dir klarzumachen, was ich aussagen möchte, weil du keine Möglichkeit auslässt meine Aussagen fehlzuinterpretierenIch habe mit keinem Wort irgendwelche Konsolen oder konkrete Hardware erwähnt, noch behauptet, dass das nächstes Jahr mit der vermutlichen nächsten Konsolengeneration schon vollends kommen wird.
Bleib beim Thema, oder lass es ganz. Aber verdreh nicht meine Aussagen, wie es dir gerade passt.
Wenn die Konkurrenz so stark ist, dass sie den ganzen Markt in diese Richtung drängt, dann kannst du nichts machen. Siehe Mantle und daraus resultieren Vulkan.Noch weniger innovativ ist es doch zweifelsfrei, das Selbe zu machen wie die Konkurrenz.
Und genau deswegen nicht die Ressourcen übrig, um was gänzlich neues zu erfinden. Zumal man Innovation nicht befehlen kann. Die kommt entweder oder sie kommt nicht. Und wenn sie nicht kommt, gehts halt nicht.Nö, bin ich nicht. Sie haben es einfach deshalb eher nötig, weil sie leistungstechnisch hinterherhinken.
Stereoskopie ist zum wievielten Mal jetzt gescheitert? Das bringts einfach nicht. Es ist umständlich, wegen dem Equipment lästig und taugt einfach nicht.Das ist klar. Aber die Entwicklung dementsprechender Treiber zur Ausgabe auf Geräten hat ja damit auch für den User gar nichts zu tun.
Es geht hierbei um die Priorisierung.
Was ist (oder war) MD und DCC?Siehe z.B. damals MD vs. DCC usw. Das sind unterschiedliche Herangehensweisen, wie ich sie meine.
Mir scheint du missverstehst, dass ich nicht von JETZT spreche, sondern von irgendwann in der Zukunft. Was da sein wird, weiß jetzt noch keiner, aber meistens übertrifft es sogar die Vorstellung.Ich habe Nichts verdreht, und du hast auch gar Nichts ausgesagt, außer mir zu widersprechen.
AMD und NVidia verfolgen doch unterschiedliche Ansätze für den gleichen Zweck: Raytracing.Ja, und ich habe eben die Konkretisierung des Irgendwanns gewagt, indem ich unterstelle, dass es mit der nächsten Konsolengeneration noch Nichts wird.
Unterschiedliche technische Ansätze zu verfolgen sehe ich als eine Vorraussetzung für eine wirkliche Weiterentwicklung von Technologien.
Ich wiederhole: Stereoskopie hat nichts mit Rasterization oder Raytracing zu tun. Das du gerne Stereoskopie hättest, habe ich verstanden, aber das bedingt keine Entscheidung zwischen Rasterization und Raytracing, also pack deinen Wunsch nach Stereoskopie mal zur Seite, denn das hat überhaupt nichts mit der 3D-Berechnungsweise hier zu tun!Würde sich AMD z.B. die vergangenen Jahre mal um eine anständige Unterstützung der stereoskopischen Ausgabe durch den eigenen Treiber bemüht haben, wäre ich nicht dazu gezwungen immer wieder die überteuerte nvidia Hardware zu kaufen, wo ich auch noch das momentan rudimentäte Raytracing mitbezahlen muss.
..
Ich wiederhole: Stereoskopie hat nichts mit Rasterization oder Raytracing zu tun. Das du gerne Stereoskopie hättest, habe ich verstanden, aber das bedingt keine Entscheidung zwischen Rasterization und Raytracing, also pack deinen Wunsch nach Stereoskopie mal zur Seite, denn das hat überhaupt nichts mit der 3D-Berechnungsweise hier zu tun!
..t.
Der Beitrag ist ~5 Jahre alt.Nicht vergessen das hier John Carmack on Twitter:
Braucht also den Vergleich mit einer deidizierten rtx 2080 ti im PC nicht scheuen.
Ich nicht.Die Option dies in zukünftigen Spielen an-/ausschalten würde ich mir wünschen:
- 4k uhd 60 fps
oder
- 4k uhd 30 fps mit raytracing.