3D-Entwickler deuten großes Potenzial der RT Cores an

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.600
chaosgroup.jpg
Viele Spieler warten auf die ersten belastbaren Zahlen zur Leistung der neuen GeForce-RTX-20-Serie. Die ersten Einschätzungen der Leistung in Rise of the Tomb Raider und Battlefield V sprechen von etwa 30 Bildern pro Sekunde bei 1080p-Auflösung. Selbst wenn wir hier am Ende bei 60 Bildern pro Sekunde landen, macht sich bereits die erste Enttäuschung breit – trotz aller Ray-Tracing-Effekte.Doch nicht nur Spieler sollen von einer dedizierten Hardwarebeschleunigung mittels RTX profitieren, die Entwickler von Spielen und...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und wo soll die Rechenpower herkommen? Wir brauchen für flüssiges spielen in 4K mit 60-100FPS ja gut und gerne die 8-10Fache Leistung. Nach NVs derzeitiger Preisgestaltung kosten diese Karten dann 10.000€. Fraglich ist auch wie schnell diese Entwicklung überhaupt möglich ist. Im Profibereich sind die Quadro Karten jetzt schon ein Segen. Hier arbeiten dann aber auch gern mal mehrer Karten parallel - und man spart trotzdem noch Zeit und Geld.
Für den Gamingmarkt sehe ich das derzeit als Marketing -Lockfeature oder für einzelne Effekte im Spiel. Gleichzeitig wird der Markt weiter fragmentiert.
 
sas könnten wir alles jetzt schon haben, EA hat mit stsr wars bewiesen, was eine entmistete engine alles kann und wie effizient man sachen gestalten kann.
 
Für den Gamingmarkt sehe ich das derzeit als Marketing -Lockfeature oder für einzelne Effekte im Spiel. Gleichzeitig wird der Markt weiter fragmentiert.

Ich finde es gut, dass endlich irgend jemand mit Hardware-Raytracing für Spiele-PCs anfängt. Das wird uns schon seit Jahrzehnten versprochen, aber passiert ist noch nichts. Bis jetzt.

Die jetzige RTX-Implementierung darf dabei gerne als erste Generation verstanden werden, die natürlich nicht optimal sein wird. Viel wichtiger als die Leistung jetzt und hier ist die Tatsache, dass Nvidia hier quasi sagt: von jetzt an gibt es das immer Standard, in jeder Karte. Das gibt Entwicklern die Möglichkeit, ganz neu zu denken und zu planen. Wenn jetzt noch AMD nachzieht, ist die Party perfekt - dann haben wir in Generation 3 vielleicht den Punkt erreicht, wo Raytracing in Spielen so normal ist wie Deferred Rendering es heute schon ist. Und dann werden sich Entwickler und Spieler auch darüber einig sein, wieviel Leistung man dem Raytracing opfern darf - wo quasi der Sweetspot ist.

Dass Nvidias Preisgestaltung lächerlich ist, darüber brauchen wir uns übrigens nicht streiten ;)
 
Sehe ich ähnlich wie mein Vorposter. Irgendwann muss man ein neues Feature mal einführen, damit der Markt es annimmt. Niemand erwartet genau jetzt eine Engine die vollständig über Raytracing läuft. Aber die Basis mit Rasterization laufen zu lassen + Effekte (und alles was sich gut beschleunigen lässt) mit Raytracing ist generell eine gute Idee. Nach und nach kann so die Bildqualität und der Realismus gesteigert werden. Hoffen wir mal das AMD gleichzieht bzw. nachzieht. Nichts wäre nerviger als eine einseitige Implementierung seitens nVidia.
 
ich sehe die einseitige implementierung als unwahrscheinlich an. amd wird auch die kommenden konsolen befeuern, und da könnten sie den takt vorgeben (theoretisch)
 
Entweder AMD zieht nach oder das RT Feature wird vom Markt nicht angenommen oder wir erhalten son Dreck wie Gameworks :d Die drei Möglichkeiten sehe ich.
 
Ich finde die sollten das potenzial von NVLINK ausnutzen und endlich mal SLI lauffähig machen.

Das würden sich einige Leute wünschen mit den Quadro scheint es auch zu funktionieren.
Mit Multi GPU System lässt sich 4K bestimmt ganz gut Stämmen.
Oder wie früher zu Physix Zeiten,2 Karten und eine als RT Rendering laufen zu lassen.
 
In einem SLI mussten beide Karten jeweils die Daten vorhalten, die sie zur Berechnung benötigen.
Das liegt aber an keiner technischen Limitation, man will es einfach nicht.

Entweder AMD zieht nach
Sollte mit Navi passieren, Microsoft will Raytracing sicher mit der nächsten Konsolengeneration unterstützen.

Navi soll ja hauptsächlich auf Hinblick der Konsolen entwickelt worden sein, also mit dem Fokus auf Gaming.
 
...und effizienz, die konsolen brauchen zugesicherte leistung, alles was darüber geht ist nur zufälliges extra. was bedeutet dass man keine taktwunder erwarten sollte, wie bei polaris.
 
Zuletzt bearbeitet:
in den konsolen steckt eine gpu, genauso wie auf grafikkarten. und eine konsole hat eigene parameter in denen sie funktionieren muss, konsolen werden nicht übertaktet, oder von zig boardpartnern hergestellt. eine konsole muss leistung X bei verbrauch Y bringen, jederzeit. man wird also dahingehend entwickeln möglichst im sweet spot der architektur zu fahren.
 
Zwei GeForce RTX 2080 Ti mit jeweils 11 GB an GDDR6 ermöglichen nun aber die Nutzung von insgesamt 22 GB per NVLink.

Die Bandbreite beim Zugriff auf den fernen Speicher sinkt dabei von 616GB/s auf 150GB/s ab. Von einem konkurrierenden Zugriff ganz abgesehen. Hat aber gar keine Konsequenzen bei der Leistung, gibt bestimmt eine Nvidia-Folie, die das zeigt!

Ich finde die sollten das potenzial von NVLINK ausnutzen und endlich mal SLI lauffähig machen.

Ja klar, ein 400Pin-Anschluß mit 25 Gigatransfers/s auf den Datenleitungen, am besten mit so 'nem Billig-Flachkabel.
 
in den konsolen steckt eine gpu, genauso wie auf grafikkarten.
Damit liegst du falsch.
In den Konsolen wird ein SOC verbaut bei dem die GPU integriert ist.
Also keine dGPU, wie man sie auch auf einer Grafikkarte verwendet, das ist ein eigenes Stück Silizium welches man ausschließlich in der Konsole verbaut!
 
lies dir nochmal meinen satz durch. ich bezog mich auf den aufbau von architekturen, nicht wie wo was wann aufgelötet wird.
 
Naja, was du schreibst ist halt etwas komisch.


Um auflöten geht es doch nicht, der Konsolenchip ist ein eigenes Stück Silizium, das kann sich von den Navi-dGPUs stark unterscheiden.
AMD muß nicht für beides den selben Fertigungsprozess nutzen.
 
aber genau darum geht es, es.wird navi mit dem schwerpunkt konsolen entwickelt, mit besagten parametern, und danach kann dee gpu part als dgpu erweitert werden, mit entsprehenden grundbeshränkungen die sich aus der entwicklung als konsolen gpu ergeben
 
na klar, der navi gpu part der für die konsolen entwickelt wird, khat sicher nits.mit dem navi chip für dgpus zu tun, gleichzeitig macht amd auch noch zen 2 und die neue high end architektur die sie wieder an die spitze bringen soll klar, amd hat ja genug geld 5 vershiedene entwickler teams zu zahlen, etwas was nichtmal intel macht.

NAVI word fur konsolen entwickelt, dann aufgebohrt und für die cpu midrange sparte gebracht, wenn du andersweitif denkst ist es ok, aber dafür würde ich gernen einen beweis sehen.

im endeffekt werden wir es sehen, ich habe lediglich meine sichtweise dargelegt.
 
Deine Sichtweise basiert halt auf Unverständnis dieser doch sehr komplexen Materie.
 
ich würde gerne einen link haben, wo ich nachlesen kann dass die Navi architektur und die kokkende mittelklasse die auch navi heissen soll, nichts miteinander zu tun haben.
 
Damit liegst du falsch.
In den Konsolen wird ein SOC verbaut bei dem die GPU integriert ist.
Also keine dGPU, wie man sie auch auf einer Grafikkarte verwendet, das ist ein eigenes Stück Silizium welches man ausschließlich in der Konsole verbaut!

ne Gamerkind, er liegt nicht falsch. Dediziert oder nicht ist völlig irrelevant für den Topic hier. Wie Deckstein sagt, es geht um Architekturen.

"das ist ein eigenes Stück Silizium welches man ausschließlich in der Konsole verbaut!" .... ehm nein. AMDs mobile Versionen sind auf Größe/Stromverbrauch optimiert .... aber nicht mit anderem Funktionsumfang, egal ob da ein Notebook oder eine Konsole drumherum ist.


@Deckstein .... aber deine Rechtschreibfehler sind manchmal eine Herausforderung :)
 
Zuletzt bearbeitet:
Doch, er liegt falsch.

Informier dich mal, was in den Konsolen verbaut ist!
Dort iost kein Mobile-Chip von der Stange verbaut, den man auch in anderen Geräten kaufen kann!
 
Dort iost kein Mobile-Chip von der Stange verbaut, den man auch in anderen Geräten kaufen kann!

Einverstanden, es gibt auch SoC Versionen, wo noch ein ACP (Audio-Co-Prozessor) oder VCN (VideoEnc) Modul oder was auch immer dazukommt.
Wie z.b. bei Raven Ridge. Aber die entscheidenden Module Vega & Zen sind immer enthalten und folgen der Vega & Zen Architektur.
Bzw. warum sollten sie nicht ? Der Name ist ja kein Zufall.
 
Zuletzt bearbeitet:
Und trotzdem kann sich da etwas im Chip unterscheiden, man muß zb. nicht die selbe Art von Transistoren nutzen.
Oder sie verwenden gleich einen ganz anderen Fertigungsprozess.

Bei den Konsolen gibt es jetzt auch Jaguar-Kerne in 16nm FinFET, was es so nie für den PC gab!
 
Mehr Marketing = Mehr Kosten für den Gamer. die Unreal Engine sieht auch ohne Raytracing gut aus
 
Und wo soll die Rechenpower herkommen? Wir brauchen für flüssiges spielen in 4K mit 60-100FPS ja gut und gerne die 8-10Fache Leistung. Nach NVs derzeitiger Preisgestaltung kosten diese Karten dann 10.000€. Fraglich ist auch wie schnell diese Entwicklung überhaupt möglich ist. Im Profibereich sind die Quadro Karten jetzt schon ein Segen. Hier arbeiten dann aber auch gern mal mehrer Karten parallel - und man spart trotzdem noch Zeit und Geld.
Für den Gamingmarkt sehe ich das derzeit als Marketing -Lockfeature oder für einzelne Effekte im Spiel. Gleichzeitig wird der Markt weiter fragmentiert.

auf alternate gibts die ersten vorbestellungen. höchster preis zum aktuellen stand: 1.339 €
 
Dann hätten sie auch gleich 1337 draus machen können, haben die denn keine Nerds im Vertrieb?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh