HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.960
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
wobei das Duell eig. schon entschieden ist lol
Naja, Killer ist sehr überspitzt ausgedrückt
Abwarten ...
Die erzielte Leistung hätte man damals sicher auch mit GDDR hinbekommen.
Schlussendlich bezahle ich die größere Chipfläche mit, auch wenn ich ray tracing nicht benutze.
Würde persönlich dennoch zu amd greifen, mit nvidia Grafikkarte keine Lust mehr auf den g-sync Zwang, die Auswahl der freesync (2) Monitore ist viel größer.
AMD hatte bisher ein Auslastungsproblem der Shader, was sie etwas ins hintertreffen geraten ließen. Wenn genau diese jetzt für RT verwendet werden, hat AMD doppelt gewonnen.
AMD hatte bisher ein Auslastungsproblem der Shader, was sie etwas ins hintertreffen geraten ließen. Wenn genau diese jetzt für RT verwendet werden, hat AMD doppelt gewonnen. Was den HBM2E Speicher angeht: Das wird teuer. Ich rechne damit, dass nur die oberste Top-of-the-line GPU damit ausgestattet sein wird. Halo-Produkt und so.
Klaro. Shader für intersection Berechnung. Geniestreich.
Abwarten. AMD hat uns schon immer überrascht.
Klappt auf der Titan V ja auch ohne RT-Cores.
RayTracing in Battlefield V läuft (mit guten Frameraten) auch auf der Titan V | 3DCenter.org
Denn die Titan V schafft es trotz deutlich mehr Shadern nicht mit einer 2080ti oder einer Titan RTX mitzuhalten.
Und dann soll das auf Consumerkarten mit deutlich weniger Shaderleistung zufriedenstellend laufen?
Klar...
Und genau deshalb werden die Shadereinheiten umgebaut, damit sie dort eben nicht mehr so lahmen, sondern verwertbare Resultate abliefern. Die bisherigen Shader können das eher schlecht als recht, weshalb ja eine neue Iteration notwendig ist.
Ich verstehe den Aufriß nicht. Wenn ich eine Platzeffizientere Implementation von RT hinbekomme ist das doof, weils von AMD kommt? Es haben doch alle nach RT gekräht und jetzt wo es kommt isses doof weils keine dedizierten Kerne mehr sind?
Mal ganz ehrlich. Das, was sich Nvidia mit den RT-cores und DLSS-Schmankerl erlaubt hat, frisst Chipfläche ohne Ende. Wenn 1/3 des Chips sinnlos in der Ecke liegen weil das Spiel kein RT unterstützt, was nahezu 50% Aufpreis gegenüber Team rot rechtfertigen soll, ist das voll okay. Wenns im effizienten Shader+ Modus implementiert wird, ist das doof... weil?
Ich sehe hier keinen Aufriss..
Wie kommst du eigentlich darauf, dass AMD einfach nur die Shader anpassen will und nicht auch dedizierte Hardware dafür bringt?