Hinweis:
Die Messwerte zur Performance und Leistungsaufnahme unterscheiden sich von Test zu Test ein wenig. Ich habe hier jetzt nur die ersten Werte genommen, auf die ich gestoßen bin. Wer es "richtig" machen will und viel Zeit hat, muss alle Ergebnisse aller auffindbaren Tests zusammenrechnen und mit den Durchschnittswerten rechnen.
Neue Grafikkarten-Benchmarks für das Jahr 2018 - ComputerBase
Grafikkarten-Rangliste 2019: GPU-Vergleich - ComputerBase
Nvidia GeForce GTX 1660 Ti im Test - ComputerBase
Nvidia GeForce RTX 2060 FE ist 7% schneller als eine AMD Radeon RX Vega 56.
AMD Radeon RX Vega 56 ist 8% schneller als eine Nvidia GeForce GTX 1070.
Nvidia GeForce GTX 1660 Ti ist quasi so performant wie eine Nvidia GeForce GTX 1070.
Betrachtet man die 99th Percentile, ist eine 1660 Ti 6% langsamer, als eine 1070.
Leistungsaufnahme Desktop:
Nvidia GeForce RTX 2060 FE = 11 Watt
AMD Radeon RX Vega 56 = 12 Watt
Nvidia GeForce GTX 1070 FE = 8 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 9 Watt
Leistungsaufnahme Youtube:
Nvidia GeForce RTX 2060 FE = 23 Watt
AMD Radeon RX Vega 56 = 31 Watt
Nvidia GeForce GTX 1070 FE = 17 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 16 Watt
Leistungsaufnahme Spiele:
Nvidia GeForce RTX 2060 FE = 162 Watt
AMD Radeon RX Vega 56 = 233 Watt
Nvidia GeForce GTX 1070 FE = 139 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 118 Watt
Preise (24.02.2019):
Nvidia GeForce RTX 2060 (ab 350 Euro)
AMD Radeon RX Vega 56 (ab 310 Euro)
Nvidia GeForce GTX 1070 (ab 290 Euro)
Nvidia GeForce GTX 1660 Ti (ab 280 Euro)
Beispielrechnung zur Mehrkosten aufgrund der Leistungsaufnahme:
Pro Tag läuft der Rechner durchschnittlich 6 Stunden im Idle, bzw. keine Anforderungen an die Grafikkarte. 3 Stunden werden Videos geguckt und 3 Stunden wird gezockt. Vergleichen wir jetzt mal eine Vega 56 mit einer 1070:
Vega 56: 6 * 12 + 3 * 31 + 3 * 233 = 864
10170: 6 * 8 + 3 * 17 + 3 * 139 = 516
Das ergibt eine Differenz von 348 pro Tag.
Bei 365 Tagen im Jahr sind das 127020.
Bei 25 Cent pro kWh sind das 31,76 Euro im Jahr.
Auf vier Jahre gerechnet sind das ca. 127 Euro Mehrkosten.
AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx
Laut diesem Test, kann man den Verbrauch beim Zocken bei der Vega 56 um 73 Watt senken. Würde man damit nochmal alles wie oben durchrechnen, wären es "nur" noch ca. 47 Euro Mehrkosten auf vier Jahre gerechnet.
Meiner Meinung nach fehlen hier bei der Argumentation viel zu oft der Ausgangspunkt, die Perspektive, bzw. die Anforderungen. Je nach Anwendungsprofil wird eine Vega 56 super sein, oder mal eine 1070. Pauschal zu behaupten, eine Vega 56 sei Mist, oder eine 1070 sei sinnlos, halte ich für Blödsinn.
Ich z.B. würde vermutlich zu einer 1070 greifen. Guckt man sich Tests zu Frametimes an und die 99th Percentile, scheint eine 1660 Ti dahingehend öfter einer 1070 unterlegen zu sein. Für ein leicht flüssigeres Gameplay gebe ich gerne 10 Euro mehr aus. Bei der Vega 56 wird es komplizierter. So gesehen eine bessere Leistung, aber ob mir die Fummelei mit dem Undervolten gefallen wird, keine Ahnung. Auch kein Plan, wie gut dieses "Auto-Undervolten" funktioniert. Die drei Spiele darf man auch nicht vergessen, wo aber jeder eine andere Meinung zu haben wird, inwiefern dass eine Grafikkarte attraktiver macht. Ich wäre wahrscheinlich zu faul die Spiele zu verkaufen, und wenn die mir nicht gefallen, sind die komplett nutzlos. Aber wie gesagt, das wird jeder anders sehen und muss jeder selber entscheiden, welchen Mehrwert er in der Zugabe von Software/Spielen sieht.
EDIT: Preis der 1070 korrigiert. Danke Jaimewolf3060. Mmmh... Bei dem Preis, in welchem Szenario sollte man denn dann zu einer 1660 Ti greifen?! Klar, Preise werden sich die Tage sicherlich wieder ändern, aber wenn ich von heute spreche?