Viele Leute interessieren sich nicht für RTX. Jedoch kostet RTX Die Platz und damit Shader/Perfromance!
Wenn man bei gleicher Diegröße/Verkaufspreis die Wahl hätte zwischen:
-RTX 2080 = 100% Performance + RTX
-GTX 2080 = 140% Performance ohne RTX
Dummerweise ist nur schon klar belegt wurden, dass die RTX Geschichten auf Turing nicht den Platz kosten... Was den Platz kostet ist ganz klar der Split von FP und INT - der aber in Games bei weitem nicht das an Mehrleistung einspielt, was er in Fläche kostet.
Der Flächenbedarf der RT Cores sowie der Tensor Cores ist gelinde gesagt, überschaubar wenig. Vllt nicht vernachlässigbar. Aber es ist eben schlicht ein Märchen, dass du mit weniger/kein RT bzw. Tensor Zeugs wirklich greifbar mehr FP Leistung hättest bekommen. Denn die Rechnung hat einen Pferdefuß - die Leistungsaufnahme steigt bei steigender ALU Anzahl mehr oder weniger ansatzweise Linear. Ob du nun also 5120 ALUs (GV100 *hust*) mit 250-270W oder 4352 ALUs mit 250-270W bringst - macht overall effektiv keinen Leistungsunterschied, wie eben TU102 vs. GV100 ganz klar belegen. Nur braucht der GV100 (trotz HBM Vorteil!) eben entsprechend mehr Strom bei den ALUs, den man mit weniger Takt kompensieren muss. Oder anders ausgedrückt, im gleichen Prozess limitiert nicht die Anzahl der Ausführungseinheiten, sondern die Prozess/Einheiteneffizienz die absolute Leistungsfähigkeit der Hardware. Da kann man sicher, optimiert bis ins klein klein noch ein paar Prozent mehr oder weniger rausquetschen - geschenkt. Aber die 40%, die du da in den Raum wirfst, sind schlicht unrealistisch...
Oder sagen wir es anders - ob da jetzt RTX und Tensor Cores drin sind oder nicht, ändert weder den (Wafer)-Kostenfaktor noch die Rasterperformance nennenswert.
Ob es jetzt so sinnig ist/war von NV, der Gamer-GPU dedizierte INT Einheiten zu geben obwohl das in Games (aktuell noch im Schnitt) wenig bis keinen großen Mehrwert bringt - ist ne komplett andere Baustelle. Aber hier auch zieht schlicht wieder das Argument, dass die GPU nicht für den Spieler only entwickelt wird, sondern in anderen Marktbereichen auch her halten muss... Im Computebereich zieht das ungleich mehr
Denn da bringt die Trennung halt auch wirklich deutliche Punkte.
Allerdings gibts mittlerweile eben auch schon den ein oder anderen Titel, der von sowas mehr profitiert - ein Grund dafür ist dann die teils gestiegene Anforderung an die INT Einheiten. Da macht dann eben Turing Operationen gleichzeitig zu den FP Geschichten, wo Pascal und andere Architekturen das nacheinander durchführen - was eben Performance bringt... Das ist zwar auch nur die halbe Wahrheit, weil durch Volllast auf der Power limitierten GPU keine Luft für mehr Einheitenauslastung ist - sprich das skaliert nicht Faktor 2, aber es scheint dennoch zu skalieren...