weiß jemand für welchen Leistungszuwachs Tile Based Rendering bei Nvidia gesorgt hat als es eingeführt wurde
Gehen wir mal ein Stück weit in der Geschichte zurück:
Schauen wir uns Kepler an, die Titan Black mit 5,1 TFLOPS, basierend auf einem 533mm²-großen Die in 28nm. Sie hat kein TBR.
Nun die Folgegeneration, Maxwell Titan X mit 6,6 TFLOPS, 601mm²-Die in 28nm und TBR.
Es sieht so aus, als hätte Nvidia einfach fast den gleichen Chip released, doch der neue liefert plötzlich häufig über 50% mehr Leistung, obwohl er nicht mal 30% mehr Rohleistung hat. Zum Vergleich: Nachdem Nvidia dermaßen vorgelegt hat, konnte AMD oft nicht mal mit der 8,6 TFLOP-Karte Fury X die 6 TFLOP- GTX 980 Ti ausstechen. Zwar hat die Fury-Serie wahrscheinlich unter ganz verschiedenen Problemen gelitten, aber dennoch bleibt TBR hier als Hauptfaktor hängen, der Nvidia trotz gleicher Chipgröße und gleichem Fertigungsverfahren die gute Auslastung beschert hat, die nötig war, eine solche Leistung zu erreichen.
Und dazu muss man sagen, dass wir bei der Vega nicht über eine Karte mit nur 3.000 Shadern sprechen, sondern über mehr als 4.000. Das ist nochmals eine Schippe mehr, die der Fury bei Spielen, die kaum auf mehreren Shadern berechnet werden können, das Genick gebrochen hat. Mit TBR dagegen sollte die Auslastungsproblematik selbst bei noch deutlich mehr Shadern viel geringer ausfallen. Deshalb ist es absolut unumgänglich gewesen, dass AMD dieses Feature ebenfalls integriert.
Es gibt nicht den geringsten Grund, anzunehmen, dass trotz TBR bei AMD weiterhin Leistung brach liegt. Die Karte muss schon aus Taktgründen mindestens 50% schneller als die Fury X sein und darüberhinaus durch TBR an die 1080 Ti anknüpfen können. Dann bleibt noch FP16 als Größe übrig, die in erheblichem Maße noch zusätzliche Leistung bringen kann, aber vom Support durch das jeweilige Spiel abhängt.