Es wird keine 3080Ti geben
wenn die 3080 schon 320Bit hat und dementsprechend schon ein GA102chip ist und die 3090 nur 15-20% schneller ist wo soll da noch eine 3080Ti dazwischen passen.
Nun genau da passt eine rtx 3080 ti/3080 Super dazwischen.
Dann mit 11 GB und 352-Bit oder 22 Gb. Preislich zwischen der rtx 3080 20 GB für 1k+ € und der rtx 3090 24 GB für 1,5 - 1,6k €.
Das muss man richtig deuten, wenn Nvidia mit Ampere an der Leistungsspitze bleibt, wäre das ja keine Veränderung ....
Das ist das Lustige an Igors Kommentar. Der lässt die Leser mit Absicht im Dunkel mit dieser Doppeldeutigkeit ^^
"Game Changer" ist generell positiv konnotiert.
Es sind aber nicht nur die ganzen Leaks, Gerüchte, Ratespielchen die mehrheitlich darauf hinweisen das Ampere wieder min. genauso teuer wie Turing wird, heiß und viel saufen wird, und abseits dlss & raytracing nur mäßig oben draufpacken wird, sondern eben genau Igor selbst! Lol
Beschäftigte die in der Geforce Sparte seit Jahren möglichst effiziente Produkte herstellen und deren Unternehmensführung an jedem $ knausert um 30 % Gewinnmarge zu fahren und mehr als 10 % Dividende auszuschütten, soll nun freiwillig und absolut gewollt/geplant:
- die Geforce-Karten durch die Bank weg so viel saufen lassen
- welche permanent an jedem Dollar knausern (hier z.B. weiterhin auf gddr6 zu setzen), und anstatt mehr Leistung durch teure Hardwarelösungen zu realisieren, den effizienten Weg über die Software/Beschleuniger geht
- sollen nun ganze $ 150 für eine teure Kühllösung ausgeben (Turing $ 50?)
- gddr6x Speicher der wegen der Anzahl der Chips alles andere als günstig wird (20/24 GB)
Da ist/war das ganze Sparen an anderen Komponenten für die Katz.
Ich vermute wie in Beitrag
#1203 immer noch dass da entweder eine wichtige Komponente fehlt die auch abseits von Dlss & raytracing für deutlich mehr Leistung und bessere Leistung/Watt sorgt, oder es tritt wirklich Situation 2 ein und es gibt nur 10 - 15 % mehr Leistung/Watt und der magische Schalter wird erst mit Dlss & Raytracing betätigt.
Für mich deutet mehrheitlich alles auf Situation 2 hin.
Hätte man es z.B. bei nur 175/215/250/270 W belassen (rtx 2070 und Super, Rtx 2080 und Super, rtx 2080 ti), anstatt z.B. 320 - 350 W Gesamt-TDP, wäre auch hier das Gemeckere groß warum es nur 10 - 20 % Mehrleistung abseits von dlss & raytracing gibt.