Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen

Intersannt wird es sein wenn man mal 1080Ti und 2080Ti bei gleichem Takt testet um zu sehen wie viel besser Turing wirklich ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wir werden eine GeForce GTX 1080, GeForce GTX 1080 Ti, Titan V, GeForce RTX 2080 und GeForce RTX 2080 Ti bei 1.850 MHz GPU-Takt testen.
 
Schade, das die "Microruckler Problematik" damit noch nicht ganz vom Tisch ist.

Wie soll die verwendete "Brücke" auch am Problem was ändern? SLI bleibt doch intern quasi identisch. Auch der Spaß mit doppeltem VRAM wird mMn in Games nicht haltbar umzusetzen (außer MGPU per DX12 oder vllt mit RT Stuff)
Klassisches AFR benötigt weiterhin für beide GPUs den vollen VRAM - zumindest die Texturen (und das ist der größte Part) muss gleich sein oder wenigstens von beiden GPUs zugänglich sein, weil ja beide GPUs im Wechsel die Bilder produzieren.
Die große Preisfrage wird eher, ob man über Software eine Art Texturestore zentral bereit stellen kann, sodass es möglich ist, eben mehr Texturen da reinzukippen als eine Karte eigentlich fassen kann. Bis dato ist dazu aber nichts bekannt ;)

Zunächst einmal spart man damit vor allem Datenmenge ein, die über das Speicherinterface muss. Ich kann mir die Auslastung des Speichers aber mal anschauen.

Das wird recht wenig bringen - wenn man es überhaupt messen kann. Dir spuckt eher der dynamisch gefüllte Texturespeicher in die Suppe, weil eben die Bedingungen nie 100% identisch sind. Kann also sein, dass dort dann einfach mehr oder weniger Texturen für ungleiche VRAM Stände sorgen.
Aber wenn man sich allein mal ansieht wie wenig der VRAM Bedarf steigt von FHD auf UHD, also 4x mal so viele Bildpunkte -> kommen da vllt 10-20% mehr im Schnitt bei raus. Der Anteil dessen, was dort potentiell an absoluter Menge gespart werden könnte ist von dem her schon recht gering.

Ich hatte gehofft etwas neues zu erfahren, aber alle hier genannten Informationen wurden bereits geleakt / sind bekannt. Ob das ein schlechtes Vorzeichen zur tatsächlichen Leistung ist? An der seit Wochen anhaltenden Erwartung von 25-50% mehr Leistung (je nach Spiel) zu bekommen ändert das jedenfalls nichts.

Naja, im Detail ist da schon bisschen was bei. Der Part mit den 64er Blöcken und damit Pascal P100/Volta V100 Aufteilung. Bedeutet damit wohl auch anteilig mehr FrontEnd pro Shader. Könnte also zu einer besseren Einheitenauslastung führen. Ebenso ist der Part mit dedizierten INT Einheiten durchaus interessant. Unabhängig davon, ob die 30%+ von NV da zu hoch gegriffen sind oder nicht. Allein 10-15% INT Anteil bedeutet bei sehr hoher ALU Last eben eine um 10-15% gesteigerte pro Takt Performance.
 
ich denke ihr werdet den 400er treiber bekommen. mir wurde zugetragen das die 400er Treiber deutlich die CPU last verringern werden. daher hoffe ich auch das man diesen Treiber auch bei den anderen karten nutzen kann
 
ich denke ihr werdet den 400er treiber bekommen. mir wurde zugetragen das die 400er Treiber deutlich die CPU last verringern werden. daher hoffe ich auch das man diesen Treiber auch bei den anderen karten nutzen kann

Ich werde es NICHT schaffen alle Vergleichskarten mit dem Review-Treiber zu testen. Ich werde aber einen paar Gegentests mit den Pascal-Karten machen, um zu schauen, welchen Einfluss das hat.
 
Man könnte es aber nachtragen. damit man sieht was der 400er treiber bringt oder ob er was bringt. Angeblich soll der 400er treiber grade bei SLI einen deutlichen schub bringen.
 
Wie gesagt, ich werde mit einer GeForce GTX 1080 Ti mal schauen ob und wie sich die Werte gegebenenfalls ändern. Sollte es große Änderungen geben, werde ich die Vergleichskarten nachtesten.
 
Wie soll die verwendete "Brücke" auch am Problem was ändern? SLI bleibt doch intern quasi identisch. Auch der Spaß mit doppeltem VRAM wird mMn in Games nicht haltbar umzusetzen (außer MGPU per DX12 oder vllt mit RT Stuff)
Klassisches AFR benötigt weiterhin für beide GPUs den vollen VRAM - zumindest die Texturen (und das ist der größte Part) muss gleich sein oder wenigstens von beiden GPUs zugänglich sein, weil ja beide GPUs im Wechsel die Bilder produzieren.
Die große Preisfrage wird eher, ob man über Software eine Art Texturestore zentral bereit stellen kann, sodass es möglich ist, eben mehr Texturen da reinzukippen als eine Karte eigentlich fassen kann. Bis dato ist dazu aber nichts bekannt ;)

Das die Brücke alleine nichts ändert bei SLI/NVLink außer dem höheren Datendurchsatz war mir schon soweit klar.
Ich bin auch eher davon ausgegangen, das unter DX12 mit NVLink eventuell eine besseres/verbessertes Verfahren als/von AFR genutzt werden kann.


Gruß

Heinrich
 
Zuletzt bearbeitet:
Ich bin auf Seite 3 und wollte schon mal herzlich für den langen Artikel danken.
 
@Don, vielen dank für deine mühe und den kommenden GPU Benchmarks. Echt klasse Artikel!
 
Zuletzt bearbeitet:
TU102 ist zudem über 50% gewachsen im Vergleich zu GP102, besitzt (teureren?) schnellen GDDR6 V-RAM, kann Echtzeit-Raytracing und neue Kantenglättung DLLS.
Hej, Dornröschen, was hast du in den letzten 2 Woche hier gemacht? Für wen wiedeholst du das jetzt alles?

@Don
Ja, ich fürchte, diesmal, zähneknirschend halt wie immer :d, muß ich dich auch mal loben. Es ist zwar mit wenige Eigengedanken aber eben alles was es aufzuzählen gab wurde aufgezählt und auch brauchbar erklärt. Wobei die NDA-Presentation :) entsprechendes dazu beitrug.

Aber mehr als nur sowas wie von Heise... ;)
comments_outline_white
 
Zuletzt bearbeitet:
Etwas mehr eigene Gedanken kommen sicherlich mit den Leistungstests dazu. Erst danach ist eine finale Beurteilung meiner Meinung nach möglich.

Ach und danke!
 
Zuletzt bearbeitet:
Naja, im Detail ist da schon bisschen was bei. Der Part mit den 64er Blöcken und damit Pascal P100/Volta V100 Aufteilung. Bedeutet damit wohl auch anteilig mehr FrontEnd pro Shader. Könnte also zu einer besseren Einheitenauslastung führen. Ebenso ist der Part mit dedizierten INT Einheiten durchaus interessant. Unabhängig davon, ob die 30%+ von NV da zu hoch gegriffen sind oder nicht. Allein 10-15% INT Anteil bedeutet bei sehr hoher ALU Last eben eine um 10-15% gesteigerte pro Takt Performance.

Auch das wurde schon vor Tagen geleakt. Aber ja, technisch finde ich das auch alles sehr interessant. Am Ende kommt es aber darauf an, was in Form von FPS bei rum kommt. Ich bin zwiegespalten was die Änderungen an der Architektur betrifft. Vieles davon ist nun noch spezieller auf ganz bestimmte Workloads ausgelegt als bisher. Einiges davon erfordert auch zusätzlich noch eine spezielle Optimierung. Die Performancegewinne könnten von Spiel zu Spiel sehr durchwachsen sein. Was mich daran stört ist, das dadurch die technischen Unterschiede zu AMDs (zukünftiger) Architektur größer werden könnten. Die Folge davon könnte sein, das viele Entwickler den finanziellen Aufwand scheuen werden auf gleich zwei sehr speziellen Architekturen hin zu optimieren. Alleine schon durch die Marktposition werden viele Entwickler nVidia bevorzugen. Man sieht es ja schon jetzt, aber es könnte noch schlimmer werden. Selbst wenn AMD irgendwann ebenfalls mit einer Raytracing Implementation kommen sollte, wird sich diese von nVidias unterscheiden. Und selbst wenn diese theoretisch besser/performanter sein sollte, werden Entwickler den (finanziellen) Aufwand scheuen auf gleich zwei verschiedenen Implementation hin zu optimieren. Bei DLSS und einigen anderen Dingen sehe ich das auch ähnlich. Da steckt natürlich auch Absicht dahinter, aber ich finde das diese Machtspielchen am Ende nicht gut für den Konsumenten sein werden.
 
@Don
auch von mir ein Danke, für die Müh die ihr euch mit diesem vorab Artikel gemacht, echt Klasse!

Freue mich auf den Test, was etwas schade ist, dass NV keine NVLink- Bridges mit geliefert hat, aber kann ja nach nachgetestet werden und gibt etwas Luft für den Test als solchen. :)
 
mein statement zu dem ganzen klimperkram die die da jetzt neu reingebaut haben:
man fängt nicht schon was neues an, wenn das vorherige noch nichtmal voll läuft.

will sagen:
4k@ 120hz, in spielen, bzw spiele rendering auch wirklich in 4k und nicht hochskalliert, DA arbeitet man eigentlich grad dran.
dann RTX, DLSSA, und wie der kram alles heisst, nun neu anzufangen, ist zwar für nv sehr gut, weil nv-only, aber für den kunden unnützer kram, weil er damit erstmal einen gewalltigen rückschritt hinlegen wird, er kann also froh sein 60hz im spiel zu kriegen, mit all dem neuen schnickschnack.
und wozu hat der kunde sich dann seinen teuren 4k@ 120hz monitor gekauft?!
diese technik hätte man anfangen können wenn man das thema 4k leistungsmässig ausgeschöpft hat, was mit nichten derzeit der fall ist, und DANN diesen neuen schnickschnack anfangen.

das ist wie ein haus dreiviertel fertig zu bauen und schon das nächste anzufangen wenn das erste noch garkein dichtes dach hat und nochnicht an strom wasser usw angeschlossen ist.....

und jetzt steinigt mich für meine konservative meinung ;-)
 
Testet die Readaktion wieder auf TR (1950X) oder gibt es für den Test ein System, dass mehr "Sinn" macht?
Man hat es schon bei dem Far Cry 5 GPU Test gesehen, wie schön der TR die Werte "verfälscht".
 
Ja der Test ist auf dem TR (1950X), das wurde iwo schonmal gefragt und beantwortet.
 
Ich muß aber auch sagen:
All die Features und Funktionen überweltigen, wenn man den Artikel durch hat. Und dann liegt die 2080 in TimeSpy ~650 über einer 1080Ti. Das war schon ziemlich ernüchternd grad...
 
Zuletzt bearbeitet:
Also ich finde wenn man auf den Betrieb von 2 2080ti gehen möchte und dort fast 3k € bezahlt, sollte die NVlink Bridge umsonst sein und nicht noch 85€ kosten.
Finde das etwas frech.
 
Sehr schöner und ausführlicher Artikel.
Werde mir sicher ein paar Stellen 3x durchlesen müssen um alle Zusammenhänge zu verstehen. Genau das Richtige, danke!
Im großen und Ganzen ja alles auch so leaked gewesen, zumeist halt mit weniger Details.

Ob jetzt für DLSS echt GeforceExperience benötigt wird finde ich aber etwas verwirrend. Mal so, mal so.
Ist das nun für DLSSx2 so, für "normales" DLSS aber nicht? Gibt es da überhaupt einen Unterschied?
Je öfter ich das lese, desto unsicherer werde ich wie das zu interpretieren ist.
Würde das gerne nicht auf dem System haben, da ich Shadowplay nicht (oft) brauche und die anderen Funktionen irrelevant sind. Grummel.

Der OC Scanner ist glaube so ein richtiger Spaßverderber. Wer will schon ohne Crash OCen?! ;-)
Aber im Ernst, sehr nette Technik. Hoffe die Silikonlotterie ist zwischen meiner Frau und mir nicht zu unfair. Sonst klaut sie mir die GPU! (oder ich Ihr *hust*).
 
Zuletzt bearbeitet:
Stehen wirklich ein paar interessante Infos drin, gerade auch die Optimierungen für VR gefallen mir gut. Der OC Scanner klingt auch super.

Dennoch interessieren mich die Benchmarks erst mal deutlich mehr. ;)
 
Oh ja, das Sahnehäubchen hat noch gefehlt. :lol:

Falls sich das so wie im Artikel beschrieben bewahrheitet, wird das demnächst genau so Lustig wie einen Monitor mit IPS zu bestellen. Rücksende Flatrate ist inbegriffen. :p
Dann müsste ich ja wieder warten bis ich eine OCLAB Edition bekommen kann, wird wieder schwer werden eine davon zu ergattern und heißt im Falle des Falles erst mal noch länger abwarten für mich.
Aber erst mal die offiziellen Reviews reinziehen, dann sehe ich weiter.


Gruß

Heinrich
 
Ich hab mal in irgend einem Video von Jays 2 Cents gesehen das er gesagt hat er vermute das es auch bei Pascal schon ein binning seitens Nvidia für die FE's gab.
Er hatte festgestellt, das sich die FE Karten unter Wasser immer besser übertakten ließen als es die Customs unter Wasser getan haben.

Vielleicht ist denen erst bei der jetzigen Generation aufgefallen, das man damit halt noch mehr Kohle machen kann.
 
Na das klingt doch schon mal ordentlich. Die 2080 liegt gut über der 1080TI, dann wird das wohl wirklich meine Karte werden. Aber da ich eh nicht direkt kaufe bin ich mal noch auf die 2070 gespannt, wo die sich einordnen wird, vermutlich wird mir die aber zu wenig sein im Vergleich zu meiner 1070.
 
Verfügbarkeit der GeForce RTX 2080 Ti Founders Edition um eine Woche verschoben
Ich finde es so allmählich belustigend, wie NV mit der Einführung ihrer 2000'er Reihe umgeht. Erst der Maulkorb für die Presse, dann Lieferschwierigkeiten für die 2080 Ti. Täusche ich mich da, oder ist die 2080 ohne Ti in Moment weniger gefragt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh