Nicht korrekt. Die 660Ti liegt auf 580 Niveau. Die 570/480 höchstens (eher leicht darunter) auf 660 Niveau. Und die 5870 ist wohl ETWAS langsamer als die 480, aber auf keinen Fall "eine ganze Ecke" ! Da bist du leider falsch informiert.
Das ist alles eine Frage der Spieleauswahl
Kippt dir der VRAM um, so brechen die FPS ein. Anstatt irgendwelchen "Leistungsvergleichen" in unrealistischen, weil qualitativ zu hohen Settings für die Karte, sollte man wohl eher auf das DX11 Rating schauen. Da stehen ca. 15% mehr für die 480er. Und über 30% mehr für die 580er ggü. einer HD5870, der dazu in neueren Titeln einfach mal der VRAM ausgeht. Mehr/schneller noch als der Fermi GPU von NV. Und das ist schon sehr knapp bemessen -> hatte selbst vor Jahren mal zwei Stück und das war gegen Ende ihrer Lebenszeit nicht mehr feierlich.
Ansonsten, in neueren Titeln schauts noch düsterer aus. Da verliert sowohl Fermi als auch Cayman. Wohl damit sicher auch Cypress.
17 Grafikkarten von AMD und Nvidia im Vergleich (Seite 2) - ComputerBase
Interessant dabei ist, dass zwischen der 580er und einer 750TI nur noch ca. 10% zugunsten letzterer liegen... Neupreis bei ca. 115€. Gebraucht? Keine Ahnung, 60-65€ irgendwie gehen die hier im MP weg.
Dann, wenn du schon "Effizienz und Abwärme" ansprichst, solltest du ebenso erwähnen, dass die Cayman GPU ggü. der Cypress GPU deutlich nachgelassen hat. Im von dir verlinkten Test kommt die HD6970 im Verbrauch unter Last ca. auf 3% an das eher bescheidene Niveau der HD7970 ran. Das heist, ca. 220W Verbrauch. Fermi genehmigt sich zwar noch mehr. Aber so viel Unterschied ist da dann nicht mehr ...
Ansonsten: Kepler oder GCN gebraucht für den Preis und das Maximum raus holen (Spontan fällt mir da eine 650Ti ein, oder eine 7790 - die wären evtl. gebraucht zu dem Preis drin - sind beide langsamer als eine 5870 !). Ergo ist die Aussage von fdsonne zu ignorieren wenn es nicht so sehr auf Restgarantie und zwingende 2GB VRAM ankommt.
Was ist daran zu ignorieren? Meine Empfehlung für Kepler/GCN zielt eher auf die Tatsache hin, dass du durch die deutlich gesteigerte Effizienz der neuen Modelle einfach über die Zeit sparen wirst. Im Vergleich zu so einem Verbrauchsmonster. Je nachdem, wie lange/häufig eben gespielt wird. Dazu kommt noch der höhere idle Verbrauch.
Mal ne kleine Rechnung. Stell so ne 750TI, die nach dem CB Link oben ca. 480er Niveau erreichen sollte, gegen diese GTX 480. Da stehen dann ca. 70-75W ggü. ca. 280W. Also 205-210W absolute Leistungseinsparung bei Spielelast. Rechnen wir mit 200W, macht sich einfacher -> und 0,25€ pro kW/h. Bedeutet unterm Strich, man benötigt 600 Spielstunden um die 30€ rein durch die Verbrauchsersparnis reinzuholen. (30€ welche die 480er kosten würde +30€ gespartes Geld durch die weniger Leistungsaufnahme =60€ =ca. 750TI gebraucht Preis -> die gehen so ab 60-65€ los) Das wären auf ein Jahr gerechnet ca. 1,6h pro Tag. Oder ~11h in der Woche. Oder wie man sich das nun auch immer schön rechnen will. Idle noch nicht mit gerechnet
Real sollte es also nochmal weniger sein...
Gebraucht Preise für ne 650TI Boost oder eine 660 non TI liegen ähnlich, die verbrauchen aber etwas mehr. Sind dafür aber auch etwas schneller. Das ist zwar alles nicht 30€, wie er für die 480er zahlen würde, aber es rechnet sich über die Nutzungszeit... Um so mehr gespielt wird, desto eher. Und um so länger das Teil laufen soll, desto mehr spart er.
PS: eine HD5870 liegt bei ca. 160€ Leistungsaufnahme. Also deutlich unter Fermi. Die HD6970 bei über 200W, also schon deutlich näher an Fermi.
Mal ganz davon ab würde ich keine Flimmer AF HD69x0 empfehlen
AMD hat das erst mit den GCN GPUs richtig in den Griff bekommen... Auch die HD5870 ist/war davon noch betroffen.
Aber ist am Ende auch egal, er hat sich offenbar für ne 7770er entschieden...