Turing ohne RTX: Die GeForce GTX 1660 Ti im Test

Lächerlich für dich. Dich interessiert eben kein Geld. Manche wollen aber nur vielleicht 300€ für eine Karte ausgeben und nicht am Ende 325€.

Einfach sich mal in andere Menschen hineinversetzen.

Und die 1660 TI zieht keinen Strom oder was?
Die Karte ist einfach unnötig, scheinbar hat Nvidia so viele defekte Chip dass sie eine Karte bringen müssen und diese macht die 1060 und 2060 obsolet. Für mich schießt sich Nvidia selbst ins Knie mit dem Teil.
Und ganz ehrlich, bevor ich eine 1060, 1660 TI oder 2060 kauf, kauf ich eine Vega 56 und optimiere diese. 6GB sind einfach nicht mehr Zeitgemäß, Far Cry New Dawn ballert bei meiner 2080 TI schon 10GB voll, bei der Radeon VII sind es sogar 12GB die belegt werden. Klar, je mehr VRAM desto mehr wird genutzt aber alles unter 8GB kauft keiner mit Verstand.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du würdest also merken, das Du Ende 2019 genau 25,- mehr bezahlt hast bei Deinen ganzen Ausgaben im Jahr?? Respekt...............

Nun, viele werden nicht bemerken, welches neue Produkt die Kosten verursacht. Was die Leute merken werden, sind eventuell Nachzahlungen und Anpassungen, die sie sich nicht erklären können.
Daher ist es auch wichtig den Leuten in Tests auch darzulegen, was die Nutzungskosten eines Produktes sind. So macht es die ADAC beim Autotest.
 
Nun, viele werden nicht bemerken, welches neue Produkt die Kosten verursacht. Was die Leute merken werden, sind eventuell Nachzahlungen und Anpassungen, die sie sich nicht erklären können.
Daher ist es auch wichtig den Leuten in Tests auch darzulegen, was die Nutzungskosten eines Produktes sind. So macht es die ADAC beim Autotest.

Und wie kommst du auf 25 Euro? Spielst du jeden Tag 5 Stunden ohne etwas über deinen PC zuwissen und ohne paar Knöpfe drücken zukönnen? Das impliziert deine Aussage nämlich. Wenn man jeden Tag eine Stunde spielt würde die Vega 56 (unoptimiert) 5 Euro mehr im Jahr kosten als eine GTX 1070. Es gibt aber seit einiger Zeit das Auto-Undervolting bei AMD. Innerhalb weniger Tastendrücke wird deine Karte automatisch undervoltet ohne auch nur 1% Leistung zuverlieren. Ist generell nicht so effektiv wie es selbst zumachen, bringt aber doch schon einiges. Damit wäre man dann nicht bei 5 Euro mehr im Jahr, sondern bei 3 Euro mehr im Jahr. Nehmen wir mal an Du hast leichte Arbeitszeiten und spielst jeden Tag 3 Stunden. Das wären dann 9 Euro im Jahr bei 10% mehr Leistung (Stock vs Stock. Eine gtx 1070 Strix OC ist langsamer als eine Stock 56, nur so nebenbei).. Also die 9 Euro im Jahr merkst Du? Wenn ja, dann tut es mir leid, aber dann solltest Du dir überdenken überhaupt eine Grafikkarte in dem Preisrahmen zuzulegen.
 
Und wie kommst du auf 25 Euro? Spielst du jeden Tag 5 Stunden ohne etwas über deinen PC zuwissen und ohne paar Knöpfe drücken zukönnen? Das impliziert deine Aussage nämlich. Wenn man jeden Tag eine Stunde spielt würde die Vega 56 (unoptimiert) 5 Euro mehr im Jahr kosten als eine GTX 1070. Es gibt aber seit einiger Zeit das Auto-Undervolting bei AMD. Innerhalb weniger Tastendrücke wird deine Karte automatisch undervoltet ohne auch nur 1% Leistung zuverlieren. Ist generell nicht so effektiv wie es selbst zumachen, bringt aber doch schon einiges. Damit wäre man dann nicht bei 5 Euro mehr im Jahr, sondern bei 3 Euro mehr im Jahr. Nehmen wir mal an Du hast leichte Arbeitszeiten und spielst jeden Tag 3 Stunden. Das wären dann 9 Euro im Jahr bei 10% mehr Leistung (Stock vs Stock. Eine gtx 1070 Strix OC ist langsamer als eine Stock 56, nur so nebenbei).. Also die 9 Euro im Jahr merkst Du? Wenn ja, dann tut es mir leid, aber dann solltest Du dir überdenken überhaupt eine Grafikkarte in dem Preisrahmen zuzulegen.
Mein Reden.........Dankeschön

Gesendet von meinem SM-G960F mit Tapatalk
 
Ganz einfach:
(120W * 14h/W * 52/WproJ * 0,3c/kwh) / 1000 = 26€.

Ich maße mir nicht an zu urteilen, wieviele Stunden Leute in der Woche spielen. Man kann also einfach hoch- und runterrechnen, wie man lustig ist. Fakt ist, die Kosten existieren. Fakt ist, dass damit die Karte mehr als nur 299€ kostet.

Man kann dies natürlich alles ignorieren. Aber dann ist die RTX2070 die viel bessere GPU.
 
Ich bin ja kein Nvidia Fan, aber wenn sich der Preis bei ca 250€ einpendelt, wird die Karte ihre Käufer bestimmt finden.. da muss AMD mit Fiji erstmal nachlegen.
 
Ganz einfach:
(120W * 14h/W * 52/WproJ * 0,3c/kwh) / 1000 = 26€.

Ich maße mir nicht an zu urteilen, wieviele Stunden Leute in der Woche spielen. Man kann also einfach hoch- und runterrechnen, wie man lustig ist. Fakt ist, die Kosten existieren. Fakt ist, dass damit die Karte mehr als nur 299€ kostet.

Man kann dies natürlich alles ignorieren. Aber dann ist die RTX2070 die viel bessere GPU.

Fakt ist aber auch dass Sie 2GB mehr Ram hat und schneller ist, da darf sie dann auch mehr verbrauchen. Das wird hier von dir nämich ganz ignoriert, rechnet man nämlich 8-10% mehr speed auf Strom um und mal eben 33,3% mehr speicher, sind die werte nämlich "ganz Okay"
 
Nö. Wenn der Speicher nicht benötigt wird, ist er Ballast. Ballast, der jederzeit bei der Benutzung mitbezahlt wird.
Sapphire gibt für die Pulse offiziell 750W als Netzteil an. Gigabyte bei der 290€ GTX1660TI nur 450W. Wird hier auch ignoriert.

Die GTX1660TI spricht vollkommen andere Spielerschichten an.
 
Ganz einfach:
(120W * 14h/W * 52/WproJ * 0,3c/kwh) / 1000 = 26€.

Ich maße mir nicht an zu urteilen, wieviele Stunden Leute in der Woche spielen. Man kann also einfach hoch- und runterrechnen, wie man lustig ist. Fakt ist, die Kosten existieren. Fakt ist, dass damit die Karte mehr als nur 299€ kostet.

Man kann dies natürlich alles ignorieren. Aber dann ist die RTX2070 die viel bessere GPU.


Nein nein. So einfach ist es dann doch nicht. Du kannst nicht einfach Pauschal sagen die Zusatzkosten gehören zum Kaufpreis und das ist ein Fakt. Das ist schlicht weg Unsinn. Und schön das Du dir nicht anmaßt zu urteilen wielang Leute spielen, also gehst Du einfach mal von ganzen Tag aus. Das ist natürlich eine tolle Reglung die Du dir gar nicht auf deine Argumentation zurecht geschnitten hast. Wie wäre es wenn wir eine Durchschnittszahl nehmen? Denn die besagt 120 Minuten am Tag pro Person für Video/PC-Spiele. Damit ist auch Handy/Konsole und Co gemeint. Aber damit es nicht unfair ist, nehmen wir das einfach als Wert für den PC.
Dann kostet eine Vega 56 nicht mehr als 6 Euro pro Jahr.
Und da Du so pauschale Aussagen ja anscheinbar liebst, wenn Du die Drei Spiele die Du für die Vega56 bekommst verkaufst bekommst du MINDESTENS 30 Euro für. Wenn Du die Spiele 10€/Stück findest sag mir bescheid - ich kauf die. Aber egal, nehmen wir die 30 Euro als Preis den jeder bei Freunden bekommen kann ohne viel dafür tun zumüssen. Damit hätten wir die Stromkosten für die nächsten 5 Jahre gedeckt.

Also bei allem Respekt, einfach mal davon auszugehen das jeder den ganzen Tag durchzockt um dann auf einen hohen Stromkosten Wert kommen zu können und das dein Argument nennen ist dann doch schon sehr billig... Das ist als würdest Du bei einem Kaufpreis von Auto die Benzin Kosten dazurechnen wenn du ein Jahr jeden Tag ~14 Stunden über die Autobahn donnerst...
 
Die Vega 56 ist klasse für den Preis, keine Frage. Das Argument mit dem Strom zieht meist eh nicht. Ist alles nur um die Karten zu bashen.

Hätte ich die Spiele gewollt wärs bei mir wohl auch ne Vega geworden. Ist übrigens nach aktuellen Benches im Mittel 6% schneller als ne 1070, hab grad nochmal geschaut.
 
Das das Argument Strom nur ein Strohhalm ist, an dem sich geklammert wird, ist wohl mittlerweile jedem klar. Schade.......

Gesendet von meinem SM-G960F mit Tapatalk
 
dang bei nvidia ist oft erster april XD preistreiberei ohne ende unfassbar ne 1050ti für 300 kröten quaSI
 
Nein nein. So einfach ist es dann doch nicht. Du kannst nicht einfach Pauschal sagen die Zusatzkosten gehören zum Kaufpreis und das ist ein Fakt. Das ist schlicht weg Unsinn. Und schön das Du dir nicht anmaßt zu urteilen wielang Leute spielen, also gehst Du einfach mal von ganzen Tag aus. Das ist natürlich eine tolle Reglung die Du dir gar nicht auf deine Argumentation zurecht geschnitten hast. Wie wäre es wenn wir eine Durchschnittszahl nehmen? Denn die besagt 120 Minuten am Tag pro Person für Video/PC-Spiele. Damit ist auch Handy/Konsole und Co gemeint. Aber damit es nicht unfair ist, nehmen wir das einfach als Wert für den PC.
Dann kostet eine Vega 56 nicht mehr als 6 Euro pro Jahr.
Und da Du so pauschale Aussagen ja anscheinbar liebst, wenn Du die Drei Spiele die Du für die Vega56 bekommst verkaufst bekommst du MINDESTENS 30 Euro für. Wenn Du die Spiele 10€/Stück findest sag mir bescheid - ich kauf die. Aber egal, nehmen wir die 30 Euro als Preis den jeder bei Freunden bekommen kann ohne viel dafür tun zumüssen. Damit hätten wir die Stromkosten für die nächsten 5 Jahre gedeckt.

Also bei allem Respekt, einfach mal davon auszugehen das jeder den ganzen Tag durchzockt um dann auf einen hohen Stromkosten Wert kommen zu können und das dein Argument nennen ist dann doch schon sehr billig... Das ist als würdest Du bei einem Kaufpreis von Auto die Benzin Kosten dazurechnen wenn du ein Jahr jeden Tag ~14 Stunden über die Autobahn donnerst...

Du solltest aufhören dich hier als Maßstab zu nehmen. Wer im Schnitt nur 7h pro Woche spielt, bezahlt 13€ mehr. Damit kostet die Pulse 313€ und somit 24€ mehr als die Gigabyte GTX1660TI.

Einfach die Realität akzeptieren.
 
Du solltest aufhören dich hier als Maßstab zu nehmen. Wer im Schnitt nur 7h pro Woche spielt, bezahlt 13€ mehr. Damit kostet die Pulse 313€ und somit 24€ mehr als die Gigabyte GTX1660TI.

Einfach die Realität akzeptieren.

Ich nehme nicht mich als Maßstab. Habe ich auch nirgendwo gesagt. Ich habe einen gemittelten Wert genommen der auf die Hauptzielgruppe gerichtet ist. Dort wird durchschnittlich 2 Stunden am Tag gespielt. Das wären 14 Stunden die Woche. Schon eine ordentliche Menge.

Und auch würde 7 Stunden die Woche nicht 13 Euro mehr bedeuten sondern 3 Euro. Siehe die Rechnungen von PCGames und co. Dort wurden die Karten unter den selben Bedingungen professionell getestet und der Stromverbrauch mit einem professionellen Messgerät gemessen. Nicht wie bei mir einfach irgendwie hochgerechnet Aufgrund der TDP.
Und diese Rechnungen sagen folgendes: 1 Stunde Spielzeit am Tag bedeutet im Vergleich Vega 56 vs GTX 1070 3€ mehr Stromkosten im Jahr für die Vega 56. Damit kann es sich jeder selbst ausrechnen.
Bsp. du spielst 5 Std pro Tag - jeden Tag im Jahr dann bezahlst Du 15 Euro mehr im Jahr für die Vega für gemittelt rund 6% mehr Leistung. Das wären 1,25 Euro pro Monat.

Und jetzt aktzeptier einfach mal die Realität und hör auf billige Berechnungen aufgrund eines TDP Schätzwertes zu ermitteln. :motz:

Aber hiermit bin ich jetzt auch raus. Was will man mit jemanden der ein nvidia Symbol als Avatar hat ernsthaft oder Objektiv diskutieren..
 
Die Vega 56 ist klasse für den Preis, keine Frage. Das Argument mit dem Strom zieht meist eh nicht. Ist alles nur um die Karten zu bashen.

Hätte ich die Spiele gewollt wärs bei mir wohl auch ne Vega geworden. Ist übrigens nach aktuellen Benches im Mittel 6% schneller als ne 1070, hab grad nochmal geschaut.

Nööö!
Die Vega 56 ist einfach mal 60€ zu teuer für die Leistung.
Kostet einen Intel CPU 80€ mehr bei 5% Mehrleistung ist es Weltuntergang.
Die Vega 56 bringt 5% mehr Leistung als GTX1070 und kostet ca.60€ mehr.
Bei AMD ist es dann ok.......

Was für eine gequirlte Sch.... ist das......
 
Nööö!
Die Vega 56 ist einfach mal 60€ zu teuer für die Leistung.
Kostet einen Intel CPU 80€ mehr bei 5% Mehrleistung ist es Weltuntergang.
Die Vega 56 bringt 5% mehr Leistung als GTX1070 und kostet ca.60€ mehr.
Bei AMD ist es dann ok.......

Was für eine gequirlte Sch.... ist das......

Mit 3 Spielen, verstehst du es noch immer nicht?
Darum sagte ich das doch explizit...
 
Nööö!
Die Vega 56 ist einfach mal 60€ zu teuer für die Leistung.
Kostet einen Intel CPU 80€ mehr bei 5% Mehrleistung ist es Weltuntergang.
Die Vega 56 bringt 5% mehr Leistung als GTX1070 und kostet ca.60€ mehr.
Bei AMD ist es dann ok.......

Was für eine gequirlte Sch.... ist das......

Siehe hier:

Ich finde das alles komisch hier. Kommt eine Vega VII raus, schreit die grüne Masse: määääähh.................die RTX2070/80 gibts doch schon seit Wochen und sowieso viel zu teuer die Vega!!

Kommt eine 1660ti raus, darf die rote Mase nicht darauf hinweisen, das es diese Leistung für weniger Geld schon MONATE gibt!! Jaja..............verkehrte Welt.:bigok:
 
Was ich damit sagen will: Die 1660Ti - wenn sie von AMD kommen würde - würde für maximal 150€ über den Ladentisch gehen. Aber sie kommt nicht von AMD. Deswegen:

Ach so, hätte die Karte das? Aus welchen Grund denn? Weil AMD ein Samariter ist?

Wieso wurde eine 590 mit einer UVP von 280 US-Dollar released, welche deutlich langsamer ist?
Wieso kostet eine FailgaII mehr als eine 2080, obwohl diese langsamer ist?


Nur weil da 750Watt steht heißt das noch lange nicht, dass auch 750 Watt verbraucht werden.

Hast du dir eigentlich schon ein neues Netzteil für deine tolle neue Grafikkarte geholt? :shot:
 
Der Stromverbrauch ist ansich "egal". Aber höherer Stromverbrauch bedeutet automatisch mehr Abwärme, größerer Kühler und / oder lauter.
Die Vega56 @Stock vs GTX1660Ti @Stock ist im Schnitt 5-8% schneller, hat aber eine TDP von 210W. Die 1660Ti eine von 120-130W. Also nix bissel, sondern deutlich mehr :shot:

Ich warte noch auf Links von User: xXx-Eagleone-xXx, die mir eine Vega56 bei 0,975V und 140-170W :d
Auf die Leistung / Daten bin ich gespannt und vorallem, ist es mit jeder Vega56 im gleichen Umfang machbar oder nur bei "Perlen"? :p
 
So, hab mal den geistigen Durchgang was manche hier hatten aufgewischt...einfach mal beim Thema bleiben, und wenn man nix Konstruktives beizutragen hat - einfach mal den schönen Sonntag draußen genießen ;)
 
Ich bin ja kein Nvidia Fan, aber wenn sich der Preis bei ca 250€ einpendelt, wird die Karte ihre Käufer bestimmt finden.. da muss AMD mit Fiji erstmal nachlegen.

Das, oder wenn das Angebot mit ner 300 Euro Vega vorbei ist.
AMD hat ja selber gesagt, dass es sich um eine BEGRENZTE Promo WEGEN der 1660 TI handelt.

Finde es fast etwas bedenklich, wie sehr manche Leute auf dieses offensichtliche Marketing reinfallen.
Klar macht es Sinn das jetzt auszunutzen, aber so zu tun als wäre die 1660TI deswegen nutzlos ist schon etwas arg verblendet. 1. wäre die Vega ohne sie gar nicht so billig. 2. bleibt die Vega nicht so billig.
Wir reden also nicht über "die 1660TI ist nutzlos weil Vega,...", sondern über "Vega ist im Angebot weil 1660ti,...".

Schon nen Unterschied, ob ein Produkt nutzlos ist, oder ob es Preisreduktionen bei der Konkurrenz bewirkt.
Das zweite ist genau das was Nvidia gerne vorgeworfen wird, weil sie sowas angeblich nicht bewirken. Nun behauptet AMD selber, dass sie wegen NVidia die Preise senken. Das sollte man schon durchaus auch mal als Positiv anerkennen, egal wie rot die Brille ist.
 
Hinweis:
Die Messwerte zur Performance und Leistungsaufnahme unterscheiden sich von Test zu Test ein wenig. Ich habe hier jetzt nur die ersten Werte genommen, auf die ich gestoßen bin. Wer es "richtig" machen will und viel Zeit hat, muss alle Ergebnisse aller auffindbaren Tests zusammenrechnen und mit den Durchschnittswerten rechnen.

Neue Grafikkarten-Benchmarks für das Jahr 2018 - ComputerBase
Grafikkarten-Rangliste 2019: GPU-Vergleich - ComputerBase
Nvidia GeForce GTX 1660 Ti im Test - ComputerBase
Nvidia GeForce RTX 2060 FE ist 7% schneller als eine AMD Radeon RX Vega 56.
AMD Radeon RX Vega 56 ist 8% schneller als eine Nvidia GeForce GTX 1070.
Nvidia GeForce GTX 1660 Ti ist quasi so performant wie eine Nvidia GeForce GTX 1070.
Betrachtet man die 99th Percentile, ist eine 1660 Ti 6% langsamer, als eine 1070.

Leistungsaufnahme Desktop:
Nvidia GeForce RTX 2060 FE = 11 Watt
AMD Radeon RX Vega 56 = 12 Watt
Nvidia GeForce GTX 1070 FE = 8 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 9 Watt

Leistungsaufnahme Youtube:
Nvidia GeForce RTX 2060 FE = 23 Watt
AMD Radeon RX Vega 56 = 31 Watt
Nvidia GeForce GTX 1070 FE = 17 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 16 Watt

Leistungsaufnahme Spiele:
Nvidia GeForce RTX 2060 FE = 162 Watt
AMD Radeon RX Vega 56 = 233 Watt
Nvidia GeForce GTX 1070 FE = 139 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 118 Watt

Preise (24.02.2019):
Nvidia GeForce RTX 2060 (ab 350 Euro)
AMD Radeon RX Vega 56 (ab 310 Euro)
Nvidia GeForce GTX 1070 (ab 290 Euro)
Nvidia GeForce GTX 1660 Ti (ab 280 Euro)

Beispielrechnung zur Mehrkosten aufgrund der Leistungsaufnahme:
Pro Tag läuft der Rechner durchschnittlich 6 Stunden im Idle, bzw. keine Anforderungen an die Grafikkarte. 3 Stunden werden Videos geguckt und 3 Stunden wird gezockt. Vergleichen wir jetzt mal eine Vega 56 mit einer 1070:
Vega 56: 6 * 12 + 3 * 31 + 3 * 233 = 864
10170: 6 * 8 + 3 * 17 + 3 * 139 = 516
Das ergibt eine Differenz von 348 pro Tag.
Bei 365 Tagen im Jahr sind das 127020.
Bei 25 Cent pro kWh sind das 31,76 Euro im Jahr.
Auf vier Jahre gerechnet sind das ca. 127 Euro Mehrkosten.

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx
Laut diesem Test, kann man den Verbrauch beim Zocken bei der Vega 56 um 73 Watt senken. Würde man damit nochmal alles wie oben durchrechnen, wären es "nur" noch ca. 47 Euro Mehrkosten auf vier Jahre gerechnet.

Meiner Meinung nach fehlen hier bei der Argumentation viel zu oft der Ausgangspunkt, die Perspektive, bzw. die Anforderungen. Je nach Anwendungsprofil wird eine Vega 56 super sein, oder mal eine 1070. Pauschal zu behaupten, eine Vega 56 sei Mist, oder eine 1070 sei sinnlos, halte ich für Blödsinn.

Ich z.B. würde vermutlich zu einer 1070 greifen. Guckt man sich Tests zu Frametimes an und die 99th Percentile, scheint eine 1660 Ti dahingehend öfter einer 1070 unterlegen zu sein. Für ein leicht flüssigeres Gameplay gebe ich gerne 10 Euro mehr aus. Bei der Vega 56 wird es komplizierter. So gesehen eine bessere Leistung, aber ob mir die Fummelei mit dem Undervolten gefallen wird, keine Ahnung. Auch kein Plan, wie gut dieses "Auto-Undervolten" funktioniert. Die drei Spiele darf man auch nicht vergessen, wo aber jeder eine andere Meinung zu haben wird, inwiefern dass eine Grafikkarte attraktiver macht. Ich wäre wahrscheinlich zu faul die Spiele zu verkaufen, und wenn die mir nicht gefallen, sind die komplett nutzlos. Aber wie gesagt, das wird jeder anders sehen und muss jeder selber entscheiden, welchen Mehrwert er in der Zugabe von Software/Spielen sieht.

EDIT: Preis der 1070 korrigiert. Danke Jaimewolf3060. Mmmh... Bei dem Preis, in welchem Szenario sollte man denn dann zu einer 1660 Ti greifen?! Klar, Preise werden sich die Tage sicherlich wieder ändern, aber wenn ich von heute spreche?
 
Zuletzt bearbeitet:
Mit 3 Spielen, verstehst du es noch immer nicht?
Darum sagte ich das doch explizit...

Diese 3 Spiele sind mind. genauso ein Strohhalm wie der Stromverbrauch.
Es gibt halt Leute die Stromkosten ignorieren und die Karte so hart untervolten, dass es irrelevant wird... und die, die das eben nicht machen und drauf zahlen.
Dann gibt es die, die gerne Zwischenhändler sind für AMD, andere ignorieren die Spiele halt.

Beides sind valide Punkte. Je nach Käufer.
Gibt ja auch 2080TI unter 1000 Euro, dank der Spiele Bundle, die dabei sind. Nur redet da komischerweise keiner drüber.
 
@Goderion
Die GTX1070 startet ab 289€!
Dadurch wird die Vega 56 noch schlechter....
 
Zuletzt bearbeitet:
@Goderion
Die GTX1070 startet ab 289€!
Dadurch wird die Vega 56 noch schlechter....

Warum hackst du wie durchgedreht auf der V56 rum?

Eine Vega56 ist in den wiederholt genannten Bereichen überlegen, sofern man ein wenig Undervolting und OC betreibt, was im Treiber per Knopfdruck geht. Bei der 1660ti gehen laut Test etwa 10-15% Mehrleistung durch OC. Dort geht's bei der Vega56 erst los. 30% Mehrleistung durch Optimierung sind in der Regel drin und das nicht nur auf reine FPS bezogen, sondern auch was Verbrauch, Temps und Lautstärke, usw. angeht.
Und der Preis stimmt nun auch.
 
Hinweis:
Die Messwerte zur Performance und Leistungsaufnahme unterscheiden sich von Test zu Test ein wenig. Ich habe hier jetzt nur die ersten Werte genommen, auf die ich gestoßen bin. Wer es "richtig" machen will und viel Zeit hat, muss alle Ergebnisse aller auffindbaren Tests zusammenrechnen und mit den Durchschnittswerten rechnen.

Neue Grafikkarten-Benchmarks für das Jahr 2018 - ComputerBase
Grafikkarten-Rangliste 2019: GPU-Vergleich - ComputerBase
Nvidia GeForce GTX 1660 Ti im Test - ComputerBase
Nvidia GeForce RTX 2060 FE ist 7% schneller als eine AMD Radeon RX Vega 56.
AMD Radeon RX Vega 56 ist 8% schneller als eine Nvidia GeForce GTX 1070.
Nvidia GeForce GTX 1660 Ti ist quasi so performant wie eine Nvidia GeForce GTX 1070.
Betrachtet man die 99th Percentile, ist eine 1660 Ti 6% langsamer, als eine 1070.

Leistungsaufnahme Desktop:
Nvidia GeForce RTX 2060 FE = 11 Watt
AMD Radeon RX Vega 56 = 12 Watt
Nvidia GeForce GTX 1070 FE = 8 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 9 Watt

Leistungsaufnahme Youtube:
Nvidia GeForce RTX 2060 FE = 23 Watt
AMD Radeon RX Vega 56 = 31 Watt
Nvidia GeForce GTX 1070 FE = 17 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 16 Watt

Leistungsaufnahme Spiele:
Nvidia GeForce RTX 2060 FE = 162 Watt
AMD Radeon RX Vega 56 = 233 Watt
Nvidia GeForce GTX 1070 FE = 139 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 118 Watt

Preise (24.02.2019):
Nvidia GeForce RTX 2060 (ab 350 Euro)
AMD Radeon RX Vega 56 (ab 310 Euro)
Nvidia GeForce GTX 1070 (ab 290 Euro)
Nvidia GeForce GTX 1660 Ti (ab 280 Euro)

Beispielrechnung zur Mehrkosten aufgrund der Leistungsaufnahme:
Pro Tag läuft der Rechner durchschnittlich 6 Stunden im Idle, bzw. keine Anforderungen an die Grafikkarte. 3 Stunden werden Videos geguckt und 3 Stunden wird gezockt. Vergleichen wir jetzt mal eine Vega 56 mit einer 1070:
Vega 56: 6 * 12 + 3 * 31 + 3 * 233 = 864
10170: 6 * 8 + 3 * 17 + 3 * 139 = 516
Das ergibt eine Differenz von 348 pro Tag.
Bei 365 Tagen im Jahr sind das 127020.
Bei 25 Cent pro kWh sind das 31,76 Euro im Jahr.
Auf vier Jahre gerechnet sind das ca. 127 Euro Mehrkosten.

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx
Laut diesem Test, kann man den Verbrauch beim Zocken bei der Vega 56 um 73 Watt senken. Würde man damit nochmal alles wie oben durchrechnen, wären es "nur" noch ca. 47 Euro Mehrkosten auf vier Jahre gerechnet.

Meiner Meinung nach fehlen hier bei der Argumentation viel zu oft der Ausgangspunkt, die Perspektive, bzw. die Anforderungen. Je nach Anwendungsprofil wird eine Vega 56 super sein, oder mal eine 1070. Pauschal zu behaupten, eine Vega 56 sei Mist, oder eine 1070 sei sinnlos, halte ich für Blödsinn.

Ich z.B. würde vermutlich zu einer 1070 greifen. Guckt man sich Tests zu Frametimes an und die 99th Percentile, scheint eine 1660 Ti dahingehend öfter einer 1070 unterlegen zu sein. Für ein leicht flüssigeres Gameplay gebe ich gerne 10 Euro mehr aus. Bei der Vega 56 wird es komplizierter. So gesehen eine bessere Leistung, aber ob mir die Fummelei mit dem Undervolten gefallen wird, keine Ahnung. Auch kein Plan, wie gut dieses "Auto-Undervolten" funktioniert. Die drei Spiele darf man auch nicht vergessen, wo aber jeder eine andere Meinung zu haben wird, inwiefern dass eine Grafikkarte attraktiver macht. Ich wäre wahrscheinlich zu faul die Spiele zu verkaufen, und wenn die mir nicht gefallen, sind die komplett nutzlos. Aber wie gesagt, das wird jeder anders sehen und muss jeder selber entscheiden, welchen Mehrwert er in der Zugabe von Software/Spielen sieht.

EDIT: Preis der 1070 korrigiert. Danke Jaimewolf3060. Mmmh... Bei dem Preis, in welchem Szenario sollte man denn dann zu einer 1660 Ti greifen?! Klar, Preise werden sich die Tage sicherlich wieder ändern, aber wenn ich von heute spreche?

Goderion hat es einfach auf den Punkt gebracht. Danke für diesen Beitrag! :hail:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh