Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen

Ich bin beeindruckt. Die haben das in 2 Tagen von den Tensors auf RTs portiert. Was für ein Beweis...

Nur lief diese Presentation vielleicht schon mit dem reduzierten RT-Grad, wogegen Lord Helmchen eine Demo hatte die alles auffuhr was ging? Ich sehe da übrigens nicht eine Spiegelung. Oder war ich zu schnell mit dem Scrollen? :)

Bis denne.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Danke. Aber so wirklich schlauer bin ich nun nicht. In dem Video wird doch nur über ein paar theoretische Möglichkeiten gesprochen. Was am Ende der jeweilige Entwickler daraus macht, lässt sich nicht pauschalisieren. So wie ich das sehe, steht dem Entwickler ein bestimmtes Leistungsbudget für die RTX-Effekte zur Verfügung. Wie er dieses Budget für die Effekte einsetzt ist ganz ihm überlassen. Insofern sind die 1080p@60FPS pauschal gesehen nicht korrekt. Aber dennoch habe ich Zweifel daran, das die RT-Leistung wirklich schon so hoch ist, dass das alles ohne Kompromisse laufen wird. Ich kann mich auch irren, warten wir deshalb mal ab bis man RT testen kann und erste Spiele damit gespielt werden können ehe wir uns in eine Endlosdiskussion vertiefen.
 
Zuletzt bearbeitet:
@BessereHälfte
Manchmal ist Diplomatie nicht verkehrt. Wird doch sonst sowieso schon genug gehetzt.
 
Danke. Aber so wirklich schlauer bin ich nun nicht. In dem Video wird doch nur über ein paar theoretische Möglichkeiten gesprochen. Was am Ende der jeweilige Entwickler daraus macht, lässt sich nicht pauschalisieren. So wie ich das sehe, steht dem Entwickler ein bestimmtes Leistungsbudget für die RTX-Effekte zur Verfügung. Wie er dieses Budget für die Effekte einsetzt ist ganz ihm überlassen. Insofern sind die 1080p@60FPS pauschal gesehen nicht korrekt. Aber dennoch habe ich Zweifel daran, das die RT-Leistung wirklich schon so hoch ist, dass das alles ohne Kompromisse laufen wird. Ich kann mich auch irren, warten wir deshalb mal ab bis man RT testen kann und erste Spiele damit gespielt werden können ehe wir uns in eine Endlosdiskussion vertiefen.

Ehm, naja. Ja.
Ich meine, man kann alle Effekte so übertreiben, dass nix mehr läuft. Ist jetzt nicht unbedingt etwas Neues oder Unerwartetes?
Man kann aber ganz offensichtlich RT auch so einsetzen, dass es eben wirkt, die groben Probleme an Ratserberechnungen fixed und trotzdem auf 4k@60+ läuft.
Denke das ist der Takeaway für mich.

Das man nicht einfach ne Million Effekte stapeln kann hat glaube nie jemand erwartet, oder? Es wurde ja von Anfang an, auch von NVidia auf der Bühne, schon gesagt, dass es eine Hybrid Technik ist aktuell. Also selektiv ausgewählt wird was man mit RT macht und was man rastert.
Das Budget das Du meinst ist auf die RT Leistung bezogen. Solange sie das einhalten, werden die FPS nicht negativ beeinflusst, da die Cuda Cores nicht herangezogen werden. Es kann die Leistung aber sogar verbessern, indirekt, da man z.B. die Schatten nicht mehr mit fake Shadern berechnen muss, sondern sie halt natürlich über Global Illumination entstehen. Und das wird auf Tensor, bzw. RT berechnet (hab zu GI widersprüchliche Aussagen gehört welche Cores dafür verwendet werden, also mich nicht drauf festnageln bitte).

Nicht von den blinden Fanboys verwirren lassen, die von "echten" und "kompletten" RT sprechen. Das wurde nie versprochen oder vorgestellt. Es bleibt eine Hybridtechnik. Der Vorteil ist aber auch ganz klar: Selbst eine 2070 wird für RT nutzbar, da man gezielt RT Effekte aktivieren, bzw. deaktivieren kann. Die Angst, dass nur die 2080ti genug Leistung hat ist also stark übertrieben. Wie bei allen Effekten kann man sie dosieren. Entwickler werden vor allem Global Illumination pushen, da sie damit unglaublich viel Arbeit sparen und dabei ein besseres Endergebnis erzielen. Reflexionen sind zwar schick, aber wohl nicht der Fokus zu Anfang. Zumindest nicht in einem übertriebenen Verhältniss wie in der BFV Demo.
 
WEI GEIL :d Ok. Es ist kein Botschafter. Es ist ein Hase. Und tut was Hasen können: Haken schlagen.

DAS war jetzt der Beweis, das Zeug wird 90/130fps auf 4k laufen? Ja kein Wunder, daß es immernoch keiner für voll nimmt. Da kann er den Quark noch 100x wiederholen und als "Beweis" erklären.

Bis denne (lach schlapp)
 
Zuletzt bearbeitet:
Wir werden einige Pascal- und Turing-Karten taktbereinigt bei 1.850 MHz testen.

Werdet Ihr auch beide Versionen von DLSS testen, bzw. seit Ihr Euch der Unterschiede bewusst?
Ich habe gerade in einem anderen Forum etwas gehört, dass bisher niemand anderes erwähnt hatte, bzw. es wurde immer dran vorbeigeredet.

DLSS ist keine reine AA Alternative, sondern es rendert ein Game in geringerer Auflösung und sieht dann (angeblich) trotzdem besser aus als wenn es aus ist.
DLSS 2x rendert ein Game in nativer Auflösung und agiert wie das AA was wir bisher immer besprochen hatten.

Entsprechende Tests hierfür sind definitiv ein must-have in meinen Augen.
Ein 4k game in sub 4k rendern und dann trotzdem aussehen zu lassen als wäre es 4k + TAA(oder besser) ist, wenn das stimmt, eine hammer Leistung. Außerdem erklärt das den riesen Performancesprung!
Die DLSS 2x Version hingegen sollte natürlich gestetest werden ob sie überhaupt schneller ist als normales AA, oder ob NVidia hier DLSS x1 für die Leistung und DLSS x2 für die Bilder gezeigt hat. Marketing und so.

Source:
Video
Forum post
 
Wir werden eine Version von FFXV haben, für die sich DLSS aktivieren lässt. Wir können den Benchmarks hier aber nur mit TAA oder DLSS 2x laufen lassen. Eine weitere Unterscheidung ist nicht möglich.
 
Schade.
Aber es gibt ja sicher nicht nur von Euch ein Review dazu.
Hoffe Ihr könnt den Punkt schnell nachliefern. Handelt sich ja doch irgendwie um zwei unterschiedliche Features, die einfach den selben Namen bekommen haben. Typisch für Nvidia mit Namen für verwirrung zu sorgen.
 
Wir werden das zweistufige DLSS besprechen, testen können wir aber nur das, was und auch möglich ist. Das werden andere Redaktionen auch nicht testen können.
 
...aber ich dachte hier im Forum und an anderer Stelle gebe es mehr Austausch zwischen interessierten Käufern der GeForce RTX 2080, weil sie die "bessere" Wahl sein könnte. Es wirkt aber in der Tat so, als seien mehr Käufer an der Ti- als an der Non-Ti-Variante interessiert.
Mich interessiert die RTX 2080 weitaus mehr als die 2080Ti.
Es geht darum meine 980Ti in Rente zu schicken, bei der 1080Ti weiß ich bereits was ich bekomme, auch die Zeit der Optimierung bei Pascal ist inzwischen vorbei.
Wenn eine 2080 nun besser performt als eine 1080Ti (und da meine ich vor allem DX11), die 2080 in DX12 sicher auch besser performen und auch besser "altern" wird weil sie Ihre Performance über die Zeit noch leicht steigern wird im Vergleich zu Pascal, dann investiere ich lieber die ~200€ mehr in die neueste Generation. Die Ti wären dann nochmal fast 50% mehr, das will ich nicht für eine GraKa ausgeben.

Nachteil, ich habe 3 GB weniger VRAM, bei dem habe ich aber in 1440p bisher keine Limitierung feststellen können, also kann ich mit dem Nachteil leben.
Dafür bekomme ich DLSS von dem ich mir ehrlich gesagt viel erwarte vom Einfluss auf die Performance her und nebenbei auch die ganzen anderen Tweaks wie VRS.
 
Wir werden das zweistufige DLSS besprechen, testen können wir aber nur das, was und auch möglich ist. Das werden andere Redaktionen auch nicht testen können.

Verstehe ich durchaus, ich habe nur das Gefühl, dass verschiedene Redaktionen auch andere Möglichkeiten haben.
Das Thema der "Exklusives" hat man in der Vergangenheit ja leider auch schon bei Reviews gesehen, da kann keine Redaktion was ändern.
Gibt es also aktuell keine Möglichkeit das "normale" DLSS irgendwo zu testen? Wie sieht das z.B. bei Ark:Survival Evolved aus,... die sagten doch sie würden "DLSS" adden zum launch der RTX Karten.
Ich hab bis heute wie gesagt nicht gedacht, dass da ein Unterschied ist, aber evtl. meinen sie ja echt DLSS und nicht DLSSx2.

Unterstelle Euch garantiert nichts Negatives hier, im Gegenteil. HWLuxx ist die einzige Deutsche Seite die ich für Reviews und Artikel überhaupt besuche. Danke dafür.
Darum versuche ich mich ja auch aktiv mit Ideen und Vorschlägen einzubringen.
 
Zuletzt bearbeitet:
@fidel

Nach den Leaks ist eine 2080 etwa auf Höhe mit der 1080ti, obs stimmt können jetzt nur noch die Tests klären.
 
Nach den Leaks ist eine 2080 etwa auf Höhe mit der 1080ti, obs stimmt können jetzt nur noch die Tests klären.
Ich kann warten, auf ein paar Tage oder Wochen kommt es mir nicht an.
Hab mich auch mehrere Monate bei einer 1080Ti zurück halten können. ;)
 
Laut den Leaks hier (>>>klick<<<) liegt die RTX2080 ca. 10-15% (was ich auch als ca. auf Augenhöhe bezeichnen würde) in 4K vor der GTX1080Ti. Leider keine Angaben zu Taktraten. Ob der "Aufpreis" einen das Wert ist, muss jeder für sich selber entscheiden.
Ob was dran ist, werden wir am 19.September sehen^^.
 
Zuletzt bearbeitet:
Laut den Leaks hier (>>>klick<<<) liegt die RTX2080 ca. 10-15% (was ich auch als ca. auf Augenhöhe bezeichnen würde) in 4K vor der GTX1080Ti. Leider keine Angaben zu Taktraten. Ob der "Aufpreis" einen das Wert ist, muss jeder für sich selber entscheiden.
Ob was dran ist, werden wir am 19.September sehen^^.

Naja, der Kühler bei den 20er FE Karten dürfte deutlich besser sein und auch die TDP ist etwas höher. Es ist natürlich ein legitimer Vergleich, aber ich denke wenn diese beiden Faktoren auf einen gemeinsamen Nenner wären, dann wäre der Unterschied kleiner. Mit einem guten 1080(Ti) Custom-Modell würde das nämlich schon anders ausssehen und es wäre auch der m.M.n. brauchbarere Vergleich.
 
Mit einem guten 1080(Ti) Custom-Modell würde das nämlich schon anders ausssehen und es wäre auch der m.M.n. brauchbarere Vergleich.

Ist zu erwarten, ja.
Es macht aber Sinn beide Tests zu machen. Gibt ja doch ein paar Leute die einfach stur die FE kaufen und nie mehr anfassen, OCen oder sonst was.
Allgemein wird die RTX generation viele Vergleiche brauchen, weil sich so viel geändert hat. Es gibt eigentlich keinen so richtig fairen 1:1 Vergleich, der nicht einfach irgendwas unterschlägt.

War schon lange nicht mehr so spannend. Endlich mal neue Tech. :-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh