Schlechtes Argument. Eher ein Argument was gegen Nvidia spricht.
1080TI 12 Mrd. Transistoren, 3584 Shader ~800€
28 Monate später kommt eine
5700XT 10,3 Mrd. Transistoren, 2560 Shader ~400€
Mit ~28% weniger Shader liegt die 5700XT nur 6% hinter der 1080Ti
Wir sehen wie AMD mit der Mittelklasse, 28% weniger Shader und 50% günstiger eine 2 Jahre und 4 Monate alte High-End Karte so alt aussehen lässt, als wäre die 1080Ti aus dem Jahr 1990.
Das ist wirklich ein blödsinniger Vergleich. Du musst mit 2060S, 2070 und 2070S vergleichen, die sind aktuell und im Fall der 2070 auch schon lange auf dem Markt. Alle schlagen die 1080Ti deutlich, mit ähnlich vielen Shadern wie die 5700(XT).
Die 5700XT liegt ~7% vor der 2070 mit 2304 Shadern als Maximalausbau des TU106. Ich finde die 2070 etwas besser, weil sie im allgemeinen mehr OC-Potential hat, während die 5700XT beinahe am Limit läuft. Die ist aber leider ein Auslaufmodell, von vielen Herstellern garnicht mehr am Markt. Von den verbliebenen Modellen liegen nur einige sehr günstige preislich auf dem gleichen Niveau von 400-450€, einzelne zwar auch drunter, der Großteil geht aber mehr in Richtung 500€ oder drüber.
Die 2060S ist eigtl. eine 2070 mit einem deaktivierten SMX und dafür minimal mehr Takt, viele Modelle sind 1:1 identisch mit ihren 2070-Vorgängern, sie dürften also gleichviel kosten in der Herstellung. Sie liegt fast auf dem Niveau der 2070, auch preislich tun sie sich nichts, es gibt nur noch mehr lieferbare Modelle und damit geht es im Durchschnitt mehr Richtung 450€ als 500€. Ist aber durchweg die schlechtere Karte, sie scheint auch geringere Taktraten zu schaffen. Die 2060S ist 3% schneller als die 5700, die 2070 5%. Wenn man die 5700 auf XT-BIOS flasht, ist sie erstmal schonmal 7-9% schneller (die XT ist trotzdem nochmal 7% schneller), mit OC 11%, ggü. OC ohne XT-BIOS 5%. So ist sie also schonmal einige % schneller als die 2060S und 2070, kostet aber eher 300-350€ mit weniger Ausreißern darüber.
Die 2070S schließlich ist mit ebenfall 2560 Shadern etwa 10% schneller als die 5700XT, kostet aber mindesten 500€, eher 550€+, ist also definitiv in einer anderen Preiskategorie also die 5700XT. Wie bei 2070 und 2060S ist die 2070S eigentlich auch eine 2080 mit zwei deaktivierten SMX, die Modelle sind ebenfalls sehr oft identisch mit alten 2080ern, aber auch tlw. mit 2070ern.
Da muss man definitiv sagen, dass in diesen Segmenten AMD die grundsätzlich attraktiveren Angebote platziert hat und Nvidia uns aus nicht nachvollziehbaren, modellpolitischen Erwägungen die schlechteren Karten anbietet, ohne daraus selbst einen offensichtlichen Vorteil zu ziehen. Hätte man die 2070 einfach auf den Preis der 2060S reduziert, hätte sie die 5700 locker geschlagen und hätte mit der 5700XT noch konkurrieren können, die 2080 hätte zum Preis der 2070S die 5700XT sehr alt aussehen lasssen. Die Produktionskosten dürften jeweils nicht signifikant anders sein.
Natürlich hätte dann die 2080S noch weniger Daseinsberechtigung gehabt. Das ist wohl der einzige Grund, weshalb Nvidia sein Programm so umgestaltet hat. Im Endeffekt hat AMD Nvidia also dazu gezwungen, suboptimale GPU-Konfigurationen anzubieten und Nvidia hat es nicht hinbekommen, diese attraktiv zu gestalten. Momentan bietet Nvidia mit der 2080S nur einen wirklichen Vollausbau seiner Chips im Consumer-Markt an, 1650S, 1660S, 2060, 2060S und 2070S sind alle Salvation-Lösungen, dafür sind drei Vollausbau-Lösungen quasi bedeutungslos geworden (1650, 1660Ti, 2070).
Die Verkaufszahlen zeigen deutlich, dass 5700 und 5700XT in ihrem Preissegment sehr viel beliebter sind, während darüber die 2070S mangels Alternativen ähnlich beliebt ist. Die 2060S ist eine Totgeburt.
CB hat übrigens in einem
tollen Vergleich herausgefunden, dass zumindest im Performancerating bei identischer Konfiguration (5700 und 2070 bei gleichem Takt) Navi minimal schneller ist als Turing. Da allerdings die 5700XT im normalen Test im Durschnitt sogar minimal häher als die 2070S taktet und ansonsten ja wirklich alles identisch ist, frage ich mich schon, wie die 2070S 10% schneller sein kann. Bei 2070 und 5700 passt es ebenfalls nicht, die 2070 (FE) im Test taktet oft bis zu ~100MHz niedriger, da ist es unerklärlich, wenn die 2070 5% schneller als die 5700 ist.
EDIT:
Eben nicht die 2080TI von heute war eine 8800Ultra, die normale GTX 8800 eine 2080 und die 8800GTS 640MB die 2070, die 8800GTS/320MB sowie 8600GT die 2060/1660. Es passt alles...
Naja, vielleicht vom Preisgefüge damals, aber der Unterschied von 8800Ultra zur GTX war bei weitem nicht so groß (10%) wie heute zwischen 2080Ti und 2080(S) (24%), da die Ultra nur minimal mehr Takt hatte.
Das ist aber auch irrelevant, denn Ihr betrahctet die falsche Zeit. Zur Zeit des G80 war Nvidia erstmals seit langem wieder mit Abstand obenauf, nachdem die HD2900 stark verspätet gekommen war und nur gerade so mit der 8800GTS 640 mithalten konnte. Erst danach mit G92 vs RV670 und dann G200 vs RV770 gab es den richtig heftigen Konkurrenzkampf, obwohl AMD jeweils gegen NVs (Singlechip-)Topmodell keinen Konkurrenten hatte. 8800GT für 229€, 8800GTS 512 für 299€, gegen HD3870 für 210€ und HD3850 für 140€, 8800GTX und Ultra vorher für 375€ und 555€. GTX 280 anfangs wieder für 550€, GTX 260 aber schon nur 265€, dagegen HD 4870 für anfangs 210€ und HD4850 für 150€, am Ende GTX 275 vs HD4890 für 239€ vs 209€, zu dem Zeitpunkt GTX 260² für 160€ und GTX 285 für 285€ (lol), HD4850 für 115€ (vs GTS 250 für 130€) und HD4870 für 160€.
War wahrscheinlich ruinös für die beiden, aber das komplette Gegenteil von heute.