Neuer GeForce-Treiber ermöglicht RTX-Effekte auf Pascal-Karten

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
reflections.jpg
Ein neuer und bisher unveröffentlichter GeForce-Treiber ermöglicht das Ansprechen der DXR-Schnittstelle von Microsoft auch ohne die Hardwarebeschleunigung der Turing-Architektur. Wir haben dies mit einer GeForce GTX 1080 Ti in der Founders Edition ausprobiert und tatsächlich läuft die passenderweise Reflections getaufte Tech-Demo auf Basis der Unreal Engine 4 mit Star-Wars-Branding auch auf anderen Karten. Konkret haben wir eine GeForce GTX 1080 Ti sowie die Non-Ti-Variante mit Pascal-Architektur verwendet.Die neuen GeForce-RTX-Karten von NVIDIA besitzen zwei Recheneinheiten in der GPU, welche in Zukunft eine größere Rollen spielen sollen. Die sogenannten
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich dachte schon. Ohne Hardwarebeschleunigung leidern nicht zu gebrauchen.
 
Für mehr als eine Dia Show reicht es aber kaum, was hat sich NV dabei gedacht :confused:
 
Ray-Tracing ist mir sowieso Wurst, das benötigt sowieso noch viele Jahre bis das flüssig von statten geht, das fehlt die Hardware-Leistung.
ABER, DLSS will ich schon sehr gerne auf meiner Pascal Karte haben, das sollte Nvidia möglich machen :-)
 
Rück den Download-Link raus DON, wir würden das auch gerne testen :-)
Nvidia scheint das Ding nicht hergeben zu wollen.
 
Oder, damit Effekte abseits des Gaming möglich sind.
 
Und wenn ich sehen, wie alt eine Titan V aussieht, so möchte ich nicht mit den Käufern dieser 3000+ Euro Karte tauschen wollen. :(
 
Zuletzt bearbeitet:
Ein TitanV Besitzer wird garantiert niemals gegen deine Vega64 tauschen wollen, träum weiter ;-)
 
Und wenn ich sehen, wie alt eine Titan V aussieht, so möchte ich nicht mit den Käufern dieser 3000+ Euro Karte tauschen wollen. :(

Ein Besitzer einer Titan V kann seit Ende des vergangenen Jahres von sich behaupten die schnellste Karte zu haben und noch immer ist die Titan V mindestens die zweitschnellste Karte für das bisher noch einzig verfügbare Rendering ohne RTX/DLSS.
 
Is halt der Beweis, dass die eigentlchen Funktionen nicht NVidia only sind, sondern DX based.

Wir hatten doch die AMD Fraktion, die sagte: "Wenn das nicht Gameworks only wäre, dann würde Vega das mit nem Treiberupdate viel besser machen als RTX!".
Nun, hier ist der Beleg, dass AMD das machen kann, es nicht NVidia only ist und das jede GPU es in der Theorie hinbekommt.

Wenn man RT nicht maximiert, sondern nur Global Illumination nutzt, können evtl. sogar 1080tis das mit 60fps packen. Wird sich zeigen.

Warum hier schon wieder so viel spekuliert und gehatet werden muss, versteh wer will.
NVidia kann nichts richtig machen. Sogar neue Funktionen für alte Karten freischalten ist böse. Wahnsinn.
 
Warum hier schon wieder so viel spekuliert und gehatet werden muss, versteh wer will.
NVidia kann nichts richtig machen. Sogar neue Funktionen für alte Karten freischalten ist böse. Wahnsinn.

Hat doch keiner NV beschimpft dafür nur der Hintergrund und Sinn ist iwi noch nicht deutlich, aber vielleicht ist es ja tatsächlich auch nur um die Notwendigkeit und den Fokus auf die RTX Karten zu bringen.
Hätte es besser gefunden, wenn NV zu dem Treiber eine Erklärung abgegeben hätte, aber kommt ja vielleicht noch ....
 
Wird seltsamer Weise wider auf beiden Seiten "gehatet"
Benchmark Ergebnisse anschauen und fertig^^
 
Hätte es besser gefunden, wenn NV zu dem Treiber eine Erklärung abgegeben hätte, aber kommt ja vielleicht noch ....

Warum braucht das eine Erklärung? Was ist unklar?
Es gab den DX12 Patch von Microsoft und NVidia schaltet im Treiber die DXR Features frei.
Auch von AMD erwartet man, dass sie genau das Selbe machen.

Mir ist der Erklärungsbedarf unklar.
 
Hab ich da irgendwas nicht mitbekommen oder gibt es einen speziellen Grund warum die Titan V kein DLSS hat? Für diesen Deep Learning Kram braucht man doch meines Wissens nach Tensor Kerne. Davon hat die V mehr als die 2080 Ti. Sollte also funktionieren.
 
Wir hatten doch die AMD Fraktion, die sagte: "Wenn das nicht Gameworks only wäre, dann würde Vega das mit nem Treiberupdate viel besser machen als RTX!".
Nun, hier ist der Beleg, dass AMD das machen kann, es nicht NVidia only ist und das jede GPU es in der Theorie hinbekommt.

Über die Shader kann man es natürlich immer irgendwie zum laufen bekommen. Man braucht aber aktuell auf jeden Fall noch eine Art der Hardwarebeschleunigung für Raytracing, denn ohne ist man - wie man hier bei Pascal sehen kann - mit aktuellen Karten im einstelligen FPS-Bereich unterwegs, was dann auch der Grund dafür ist warum Vega niemals durch ein Treiberupdate an die RT-Leistung der RTX-Karten herankommen wird.

RTX ist eine proprietäre Implemention von nVidia, die man so in der Form garantiert nicht auf AMD-Hardware sehen wird. AMD muss schon eine eigene hardwarebeschleunigte Lösung entwickeln um gegen RTX konkurrieren zu können. Der Aufwand dürfte enorm sein, da man vom Treiber bis zur hardwaretechnischen Umsetzung alles erst einmal entwickeln muss. Wenn AMD das Thema die letzten Jahre nicht schon priorisiert haben sollte, dann wird das alles so schnell nichts werden mit RT bei AMD.

Hab ich da irgendwas nicht mitbekommen oder gibt es einen speziellen Grund warum die Titan V kein DLSS hat? Für diesen Deep Learning Kram braucht man doch meines Wissens nach Tensor Kerne. Davon hat die V mehr als die 2080 Ti. Sollte also funktionieren.

Vielleicht hat es damit zu tun, das bei Turing die Tensor-Kerne überarbeitet wurden.
 
Über die Shader kann man es natürlich immer irgendwie zum laufen bekommen. Man braucht aber aktuell auf jeden Fall noch eine Art der Hardwarebeschleunigung für Raytracing, denn ohne ist man - wie man hier bei Pascal sehen kann - mit aktuellen Karten im einstelligen FPS-Bereich unterwegs, was dann auch der Grund dafür ist warum Vega niemals durch ein Treiberupdate an die RT-Leistung der RTX-Karten herankommen wird.
Natürlich kann man Raytracing auch über die GPU brechnen via Cuda oder OpenCL, nur auf genau diese Berechnung optimiert ist das dann halt nicht. Ich habe auch schon Raytracing-Vergleiche zwischen GTX und RTX gesehen, ob die echt sind sei mal dahingestellt, aber ich glaube, dass das auch mit den GTX rein technisch geht, nur halt saumäßig unperformant ist.

RTX ist eine proprietäre Implemention von nVidia, die man so in der Form garantiert nicht auf AMD-Hardware sehen wird. AMD muss schon eine eigene hardwarebeschleunigte Lösung entwickeln um gegen RTX konkurrieren zu können.
Ja, leider. Hoffentlich führt wenigsten die DX-12 Erweiterung dazu, dass das abstrahiert wird und man nicht wie akutell bei PhysX das Problem hat, dass es je nach Grafikkarte geht oder gar nicht geht. Das ist einfach nur nervig.
 
Ja, leider. Hoffentlich führt wenigsten die DX-12 Erweiterung dazu, dass das abstrahiert wird und man nicht wie akutell bei PhysX das Problem hat, dass es je nach Grafikkarte geht oder gar nicht geht. Das ist einfach nur nervig.

Es ist zu 100% abstrahiert.
Nichts an den RTX Karten macht etwas das nicht in DX12 als API zur Verfügung steht.

Das die Leistung einer normalen Karte dafür nicht ausreicht, und man mit einem ASIC Chip besser fährt, ist ein komplett anderes Thema.
Es wird immer so getan als hätte Nvidia RT zu NV-Only tech gemacht. Das ist einfach nur falsch. Blos weil ASIC Bitcoin Miner effizienter sind, kann trotzdem jede andere GPU auch Bitcoins minen.
Genau das hat Nvidia gemacht. Sie haben einen RT Only chip auf die normalen GPUs geschnallt, damit das effizienter läuft als es mit normalen Chips möglich wäre. Es handelt sich dabei aber um eine reine Beschleunigung der Features die per API von DX12 (und Vulkan) kommen.
 
Zuletzt bearbeitet:
Und die RTX dann 30 FPS? Ich bezweifle immer noch dass das mit RT ein Durchbruch wird. Bislang ist das reines Marketing, weil es ja wieder verschoben wurde. Bis es dann mal verfügbar wird ist schon die RTX 3000 raus und die 2000 zu langsam. Die 2080 Ti schwächelt ja schon bei DX11 4K60.

Einen Durchbruch könnte es geben wenn AMD nachzieht und dieses Microsoft DX_Teil implementiert, dann auch auf Konsolen. Bis dahin wird es einen Stellenwert haben wie Physx.
 
Da sieht man mal wie schlecht die alten GTX Karten sind und dass sich ein Kauf der neuen RTX Karte lohnt also ich bin komplett überzeugt und bestelle jetzt ! :hail:


:haha: :rofl:

Damit du deinen FullHD Monitor voll ausreizen kannst. Ich lach mich kaputt.
 
Da sieht man mal wie schlecht die alten GTX Karten sind und dass sich ein Kauf der neuen RTX Karte lohnt also ich bin komplett überzeugt und bestelle jetzt ! :hail:
:wall:
Ist ein AMD schlecht, weil er keine AES-NI unterstützt?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh