Ohne mir jetzt hier allzuviele Kommentare durchgelesen zu haben: Die Daten halte ich für absoluten Blödsinn. Die spukten schon vor zwei Monaten genau so durch die Gegend und waren da genauso unsinnig.
Erstmal halte ich es schon für abwegig, dass ein GA104 nur genausoviele Shader wie ein TU104 haben soll. Das gab es nämlich bei Nvidia noch nie. Selbst bei gleichem Fertigungsprozeß hat man es hingekriegt, durch Umstellung des SMX-Aufbaus von Kepler zu Turing mehr Shader zu bieten (seit Kepler sind beim xxx04er-Chip immer 512 Shader dazugekommen). Wenn man das schon ohne neuen Fertigungsprozeß hinkriegt, sollte man es mit erst recht. V.a. angesichts der im HPC-Bereich anscheinend massiv erhöhten Shaderzahl.
Der GA102 entspricht einfach dem 1,75-Fachen des GA104, was bisher seit Maxwell immer nur das 1,5-Fache war. Hier hat man aber einfach die ebenfalls seit Maxwell stets dazugekommenen 768 Shader beim Topmodell genommen.
Dann glaube ich auch nicht an einen GA103 zwischen GA104 und 102, der mit nur 768 Shadern mehr als der GA104, also nur 1/3 der Distanz zum GA102, und nur 64Bit beim SI ein viel zu kleiner Zwischenschritt wäre und v.a. beim Speicher eine weitere unnötige Zwischenstufe schaffen würde.
Ein GA106 mit exakt den Daten, die der stark kastrierte TU106 auf der RTX 2060 hat, klingt auch nicht plausibel. WENN es drei Chips darüber gäbe, dann wäre das vielleicht noch ok, aber eine RTX 3060 kann nicht die gleichen Daten wie die RTX 2060 haben, also müsste der GA106 noch darunter angesiedelt sein.
Alles sehr unplausibel.
EDIT:
@fdsonne : Ja, die HD2900 Pro gab es auch mit 512Bit-SI, aber AFAIR nicht alle, da gab es ja beim Speicher sehr viel Varianten, 512MB und 1GB, GDDR3 und GDDR4 und eben 256Bit und 512Bit.
Bei Nvidia hatte AFAIK nur der G200(b) ein 512Bit-SI, davor der G80 und alle großen GPUs danach nur 384Bit.
Der Grund dürfte simpel sein, es frisst sehr viel Chipfläche, zwingt zu unnötig großen Speichermengen, ist oft nicht nötig bzw. kann nicht 1:1 in Mehrleistung umgesetzt werden und die Speichertaktraten sind in den letzten Jahren ziemlich regelmäßig deutlich hoch gegangen seit GDDR5 bzw. es gibt mit HBM eine gute Highend-Alternative.