Turing ohne RTX: Die GeForce GTX 1660 Ti im Test

@Holzmann
Ich kann nur keine Heuchler leiden!
Ist Intel/NV teuerer bei nur 5% Mehrleistung ist Weltuntergang angesagt.
Aber weh AMD ist teuerer, dann geht das klar.
Merkst was?
Oder möchtest du weiter den Fanboys frönen und den Puderzucker in den Arsch blasen.....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
meine vega zieht 130 watt asic in 4k das sind keine 200 watt realverbrauch.....lol wer karten fürs videospiele kauft umemhrer hundert euro dann aber andere karten basht weil sie was 30 euro mehr kosten im jahr wenn überhaupt? LOL geh arbeiten
 
Hinweis:
Die Messwerte zur Performance und Leistungsaufnahme unterscheiden sich von Test zu Test ein wenig. Ich habe hier jetzt nur die ersten Werte genommen, auf die ich gestoßen bin. Wer es "richtig" machen will und viel Zeit hat, muss alle Ergebnisse aller auffindbaren Tests zusammenrechnen und mit den Durchschnittswerten rechnen.

Neue Grafikkarten-Benchmarks für das Jahr 2018 - ComputerBase
Grafikkarten-Rangliste 2019: GPU-Vergleich - ComputerBase
Nvidia GeForce GTX 1660 Ti im Test - ComputerBase
Nvidia GeForce RTX 2060 FE ist 7% schneller als eine AMD Radeon RX Vega 56.
AMD Radeon RX Vega 56 ist 8% schneller als eine Nvidia GeForce GTX 1070.
Nvidia GeForce GTX 1660 Ti ist quasi so performant wie eine Nvidia GeForce GTX 1070.
Betrachtet man die 99th Percentile, ist eine 1660 Ti 6% langsamer, als eine 1070.

Leistungsaufnahme Desktop:
Nvidia GeForce RTX 2060 FE = 11 Watt
AMD Radeon RX Vega 56 = 12 Watt
Nvidia GeForce GTX 1070 FE = 8 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 9 Watt

Leistungsaufnahme Youtube:
Nvidia GeForce RTX 2060 FE = 23 Watt
AMD Radeon RX Vega 56 = 31 Watt
Nvidia GeForce GTX 1070 FE = 17 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 16 Watt

Leistungsaufnahme Spiele:
Nvidia GeForce RTX 2060 FE = 162 Watt
AMD Radeon RX Vega 56 = 233 Watt
Nvidia GeForce GTX 1070 FE = 139 Watt
PNY GeForce GTX 1660 Ti XLR8 OC = 118 Watt

Preise (24.02.2019):
Nvidia GeForce RTX 2060 (ab 350 Euro)
AMD Radeon RX Vega 56 (ab 310 Euro)
Nvidia GeForce GTX 1070 (ab 290 Euro)
Nvidia GeForce GTX 1660 Ti (ab 280 Euro)

Beispielrechnung zur Mehrkosten aufgrund der Leistungsaufnahme:
Pro Tag läuft der Rechner durchschnittlich 6 Stunden im Idle, bzw. keine Anforderungen an die Grafikkarte. 3 Stunden werden Videos geguckt und 3 Stunden wird gezockt. Vergleichen wir jetzt mal eine Vega 56 mit einer 1070:
Vega 56: 6 * 12 + 3 * 31 + 3 * 233 = 864
10170: 6 * 8 + 3 * 17 + 3 * 139 = 516
Das ergibt eine Differenz von 348 pro Tag.
Bei 365 Tagen im Jahr sind das 127020.
Bei 25 Cent pro kWh sind das 31,76 Euro im Jahr.
Auf vier Jahre gerechnet sind das ca. 127 Euro Mehrkosten.

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx
Laut diesem Test, kann man den Verbrauch beim Zocken bei der Vega 56 um 73 Watt senken. Würde man damit nochmal alles wie oben durchrechnen, wären es "nur" noch ca. 47 Euro Mehrkosten auf vier Jahre gerechnet.

Meiner Meinung nach fehlen hier bei der Argumentation viel zu oft der Ausgangspunkt, die Perspektive, bzw. die Anforderungen. Je nach Anwendungsprofil wird eine Vega 56 super sein, oder mal eine 1070. Pauschal zu behaupten, eine Vega 56 sei Mist, oder eine 1070 sei sinnlos, halte ich für Blödsinn.

Ich z.B. würde vermutlich zu einer 1070 greifen. Guckt man sich Tests zu Frametimes an und die 99th Percentile, scheint eine 1660 Ti dahingehend öfter einer 1070 unterlegen zu sein. Für ein leicht flüssigeres Gameplay gebe ich gerne 10 Euro mehr aus. Bei der Vega 56 wird es komplizierter. So gesehen eine bessere Leistung, aber ob mir die Fummelei mit dem Undervolten gefallen wird, keine Ahnung. Auch kein Plan, wie gut dieses "Auto-Undervolten" funktioniert. Die drei Spiele darf man auch nicht vergessen, wo aber jeder eine andere Meinung zu haben wird, inwiefern dass eine Grafikkarte attraktiver macht. Ich wäre wahrscheinlich zu faul die Spiele zu verkaufen, und wenn die mir nicht gefallen, sind die komplett nutzlos. Aber wie gesagt, das wird jeder anders sehen und muss jeder selber entscheiden, welchen Mehrwert er in der Zugabe von Software/Spielen sieht.

EDIT: Preis der 1070 korrigiert. Danke Jaimewolf3060. Mmmh... Bei dem Preis, in welchem Szenario sollte man denn dann zu einer 1660 Ti greifen?! Klar, Preise werden sich die Tage sicherlich wieder ändern, aber wenn ich von heute spreche?

Sinnvolle Aufstellung und auch das Fazit passt.

Zu bedenken wäre bei deinem Rechenbeispiel aber noch folgendes:

Der errechnete Unterschied (47€ Mehrkkosten auf 4 Jahre) kommt nur bei ausgiebiger Nutzung zustande.
Ich denke die wenigsten lassen den PC idlen während sie bei der Arbeit sind oder schaffen tägliche eine Nutzungsdauer für Videos / Gaming von 6 Stunden.
Jedes bisschen, welches der PC "moderater" genutzt wird, verbessert die Bilant bzw. verringert die errechneten Mehrkosten.
 
@Holzmann
Ich kann nur keine Heuchler leiden!
Ist Intel/NV teuerer bei nur 5% Mehrleistung ist Weltuntergang angesagt.
Aber weh AMD ist teuerer, dann geht das klar.
Merkst was?
Oder möchtest du weiter den Fanboys frönen und den Puderzucker in den Arsch blasen.....


Kannst Du einmal zeigen wo sich jemand darüber beschwert wenn ein älteres Nvidia Produkt bei wenig Mehrleistung 10-20 Euro teurer ist als das Gegenprodukt? Denn das einzige was Du hier den ganzen Tag machst sind "Argumente" zubringen die entweder vollkommen frei erfunden sind (Preise die Du von AMD Karten genannt hast) oder aber "Argumente" zubringen die bei den Haaren herbei gezogen wirken...
 
So eine Nvidiakarte kann man natürlich auch noch sparsamer bekommen. Wird nur häufig vergessen zu erwähnen. Zumal die Vega 56er nur eine zeitlich begrenzte Promoaktion von AMD zu diesem Preis gewesen sein sollen. Sollte die sich wieder auf ihre etwa 350 € und aufwärts einpendeln, sieht alles rumgerechne wesendlich schlechter aus.
 
Naja die AMD-Aktion scheint aber gewirkt zu haben, von den ca. 500 Vegas im Mindstar an diesem WE. zb sind noch gerade 2 da, von GTX1660Ti sind an diesem WE. nur ca. 50 verkauft worden laut MF.

Vielleicht kommt ja auch eine neue Aktion, hätte mir natürlich auch gewünscht, dass man die Aktion bis zum Navi-Start beibehält.

Man weiß ja auch nicht genau, ob AMD noch VegaI nachproduziert oder ob der Abverkauf schon gestartet ist.
 
lol wer karten fürs videospiele kauft umemhrer hundert euro dann aber andere karten basht weil sie was 30 euro mehr kosten im jahr wenn überhaupt? LOL geh arbeiten

Ich glaube die Unstimmigkeiten kommen daher, dass wegen 20 Euro hin oder her behauptet wird eine GPU wäre sinnlos, dann die "billigere" GPU aber mehr Strom frisst.
Stimme absolut zu, dass die kleinen Summen egal sind, aber wenn man wegen 5-10% Preisunterschied argumentiert, dann ist die Stromrechnung schon nicht ganz irrelevant. Kann, je nachdem wie extrem der Unterschied echt ist, durchaus von "30 Euro billiger für selbe Leistung!" zu "20 Euro teurer bei selber Leistung" werden.
Dazu kommt, dass immer so getan wird als könnte man nur AMD undervolten und daher nur einseitig von einem Vorteil geredet wird.

Gehe also davon aus, dass es weniger um den Strom an sich geht, als viel mehr um die einseitige Betrachtungsweise, die relevante Fakten unter den Tisch fallen lässt um fälschlicherweise einen "Punkt" zu machen.
Bei einer 1000 Euro GPU ist das sicher wirklich egal, aber bei 250-300 Euro GPUs ist das prozentual durchaus relevant.

So nebenbei:
Hab meine 2080ti auch undervoltet. Sie läuft zusätzlich mit 50% Powertarget und erreicht damit unter Vollast 54 Grad. Die Lüfter gehen also nicht mal an (Strix Bios, startet die Dinger erst bei 55 Grad) uns sie ist komplett passiv gekühlt, wobei auf 1440p@Ultra alles flüssig läuft.
Also ja, mit Settings spielen ist auch mit NVidia möglich und kann zu interessanten Ergebnissen führen.

- - - Updated - - -

Vielleicht kommt ja auch eine neue Aktion, hätte mir natürlich auch gewünscht, dass man die Aktion bis zum Navi-Start beibehält.

Die Aktion kam nicht mal initial von AMD, sondern von den Händlern.
Die wissen ja schon seit zwei Monaten von der 1660ti und deren Leistung.

Sie haben also die Preise von Vega 56 und 1070 stark angepasst, um die Lager leer zu bekommen.
Keine der zwei GPUs würde sich zu den normalen Preisen verkaufen, wenn die 1660ti verfügbar ist.

AMD hat das mitbekommen und es dann als kurzfristige MSRP Anpassung verkauft, damit sie auch etwas Ruf farmen können dadurch.
Von beiden Parteien logisch und bedacht umgesetzt. Sehe ich absolut nicht negativ. Sowohl die Händler, als auch AMD, haben das Beste aus der Situation gemacht. Auch die Kunden profitieren davon, wenn auch nur kurzfristig.
Nachproduziert wird für den Preis sicher nicht, da unter den Produktionskosten von Vega und Pascal wird eh nicht mehr produziert. Sobald die Lager leer sind, werden sie also auch leer bleiben.

Würde mich sehr überraschen, wenn so eine Aktion nochmal vorkommen würde. Außer es sind irgendwo noch genug GPUs im Umlauf, die nach Käufern suchen und ohne den Rabatt natürlich keine finden.
 
So nebenbei:
Hab meine 2080ti auch undervoltet. Sie läuft zusätzlich mit 50% Powertarget und erreicht damit unter Vollast 54 Grad. Die Lüfter gehen also nicht mal an (Strix Bios, startet die Dinger erst bei 55 Grad) uns sie ist komplett passiv gekühlt, wobei auf 1440p@Ultra alles flüssig läuft.
Also ja, mit Settings spielen ist auch mit NVidia möglich und kann zu interessanten Ergebnissen führen.

Es hat auch Niemand gesagt, dass man Nvidia Karten nicht untervolten kann, aber das es so gut geht, das ist schon dekadent, also nicht übel, passiv gekühlt nur 54 Grad unter Volllast, bin sprachlos, meine Radeon 7 erreicht das nur im Idle aber aktiv mit Lüfter :motz:
 
Er gibt ja auch nicht an wie lange die gtx 2080 ti passiv läuft, welches Gehäuse, welche Anwendung, wie lange diese Temperatur gehalten wird etc.
Bei 50 % Stromaufnahme wären es 130 W/s. Das schafft der Kühlblock dieses Modells nicht, bis max. 54 °C, unter Vollast.
Ein wesentlich besserer Raijintek Morpheus II, kann bei solch einer Wärmeabgabe, passiv die 54 °C nicht halten.
Da muss ein Orkan durch das Gehäuse wehen, um nur annähernd solch ein Ergebnis zu erzielen.
Was natürlich nicht erwähnt wird.
 
Hab ja auch nicht behauptet, dass mein Gehäuse keine Lüfter hat, oder?
Natürlich ist da Luftstrom. Bei 1440p muss die Karte auch bei 50% Powertarget nicht am Limit laufen. Das Ergebnis ist also in der Tat dauerhaft, je nach Spiel. Tomb Raider klappt das nicht, da die GPU dann bei 85% Auslastung ist, aber Wicther 3 hat nur 55% Auslastung, dann bleibt sie passiv mit dem Setup z.b, egal wie lange man spielt.

War aber auch nicht so gedacht, dass sie immer und dauerhaft passiv bleibt. Nur als Beispiel wie viel auch bei NVidia drin ist.
Das mit dem Powertarget die maximale Leistung sinkt, ist aber auch klar. Trotzdem nice als Spielerei. ;-)
Wenn ich nen 144hz Monitor kaufe, ist das dann eh vorbei. Dann muss sie Stock laufen. Aber bis dahin ist es halt ein schicker Bonus. Ohne Leistungsverlust (zumindest in 3d Mark) konnte ich bis 85% Powertarget runter gehen. Ab 84% sinkt die Leistung minimal gegenüber Stock Settings.
Die Voltagekurve habe ich aber zu einer Geraden gemacht und auf 0,880 gestellt. Da ist sonst ab 1900mhz irgendwas um 1.3 eingestellt gewesen glaube.
 
Hab ja auch nicht behauptet, dass mein Gehäuse keine Lüfter hat, oder?
Tomb Raider klappt das nicht, da die GPU dann bei 85% Auslastung ist, aber Wicther 3 hat nur 55% Auslastung, dann bleibt sie passiv mit dem Setup z.b, egal wie lange man spielt.

Das komisch, was hast du den für eine CPU, da stimmt doch was nicht :confused:
 
Nein nein. So einfach ist es dann doch nicht. Du kannst nicht einfach Pauschal sagen die Zusatzkosten gehören zum Kaufpreis und das ist ein Fakt. Das ist schlicht weg Unsinn. Und schön das Du dir nicht anmaßt zu urteilen wielang Leute spielen, also gehst Du einfach mal von ganzen Tag aus. Das ist natürlich eine tolle Reglung die Du dir gar nicht auf deine Argumentation zurecht geschnitten hast. Wie wäre es wenn wir eine Durchschnittszahl nehmen? Denn die besagt 120 Minuten am Tag pro Person für Video/PC-Spiele.

"(120W * 14h/W * 52/WproJ * 0,3c/kwh) / 1000 = 26€"

14h pro Woche sind doch 120min pro Tag?

Und auch würde 7 Stunden die Woche nicht 13 Euro mehr bedeuten sondern 3 Euro.

Kannst du das bitte einmal vorrechnen?? Wie kommt man da auf 3 Euro?? 3 Euro bei 30 Cent pro kW/h wären 10 kWh. Das heist 10h lang 1kW verbrauchen können. Oder 100h lang 100W. Bei 52 Wochen im Jahr wären das nichtmal ganz 2h die Woche...
 
Das komisch, was hast du den für eine CPU, da stimmt doch was nicht :confused:

Was ist daran komisch? Ist ne 4k Karte und ich hab nen 1440p screen. Die FPS sind ja locked, nicht unlocked.
Was hat das mit der CPU zu tun? Ist ein 4790k, aber der kommt wegen 60 fps sicher nicht ins schwitzen. Zumindest nicht bei Witcher, das total GPU lastig. Tomb Raider scheint jede Flamme (und davon gibt es echt viele manchmal) pur über die CPU zu pushen. Da wird die CPU hot und die GPU dreht die Lüfter auf, ganz klar.
Wobei die Lüfter der Strix im silent Bios selten über 20-30% gehen. Der Bios gesteht der GPU dann einfach 79 Grad target zu, um die Lüfter nicht zu sehr zu bemühen.

Die Benchmarks der RTX Strix zeigen ja auch was unter "normalen Bedingungen" geht. Das sind dann auch nur 33dB, was man auch nicht hört, solange das Gehäuse andere Lüfter hat.

Nu aber genug Offtopic. Wollt ja nur andeuten, dass man auch bei NVidia schön spielen kann mit den Settings und damit das Undervolting Argument nicht AMD only ist! :-)
 
Was kommstn jetzt wieder damit an? Hab doch gesagt das ich mich vertan habe...
Es liegen 6 gewaltige % zwischen den beiden Karten. ;)
 
Ahh, die AMD Drohne argumentiert mit dem Intel Argumenten!
Ist ein AMD Produkt deutlich teuerer bei nur 5% Mehrleistung ist das ok.

Immer wieder machen sich gleiche AMD Drohnen wie du lächerlich im Forum!

dir ist schon aufgefallen was ich für ne Graka im hauptrechner habe? :haha:

- - - Updated - - -

Nööö!
Die Vega 56 ist einfach mal 60€ zu teuer für die Leistung.
Kostet einen Intel CPU 80€ mehr bei 5% Mehrleistung ist es Weltuntergang.
Die Vega 56 bringt 5% mehr Leistung als GTX1070 und kostet ca.60€ mehr.
Bei AMD ist es dann ok.......

Was für eine gequirlte Sch.... ist das......

wo kostet ne 1070 200€? die gehen bei 290€ los....
 
Ach so, hätte die Karte das? Aus welchen Grund denn? Weil AMD ein Samariter ist?

Wieso wurde eine 590 mit einer UVP von 280 US-Dollar released, welche deutlich langsamer ist?
Weil die Händler den Preis ausschildern und nicht AMD? Die 580'er bekommst du für 170 Flocken - nur so nebenbei. Da liegen zwischen zwei baugleichen Karten mal eben 110€ bzw. 64%, welche mit 5 Minuten Tweaking aufs nahezu gleiche Leistungsniveau kommen.

Wieso kostet eine FailgaII mehr als eine 2080, obwohl diese langsamer ist?

Einfügrungspreis der VegaVII war leicht unter 700€, jetzt klettert der Preis auf Grund der Nachfrage. Seltsam. Warum waren die Grafikkarten beim mining-Hype so teuer? Bestimmt nicht wegen Angebot und Nachfrage, nein nein. :haha:
Und weil niemand die 2080'er kauft weil die 1080Ti in allen Belangen besser ist hat bestimmt auch nix damit zu tun.

Hast du dir eigentlich schon ein neues Netzteil für deine tolle neue Grafikkarte geholt? :shot:
Meine Vega64 verbraucht unter Vollast 150W. Troll woanders.
 
Weil die Händler den Preis ausschildern und nicht AMD?

Ich rede aber von der UVP (das deutsche Pendant zu MSRP) und die kommt von AMD...


Einfügrungspreis der VegaVII war leicht unter 700€, jetzt klettert der Preis auf Grund der Nachfrage.

Haha, eher aufgrund der geringen Stückzahlen..


Und weil niemand die 2080'er kauft weil die 1080Ti in allen Belangen besser ist hat bestimmt auch nix damit zu tun.

Komisch, eine 2080 ist schneller und gleichzeitig sparsamer als eine 1080ti, wie kann die 1080ti dann in allen Belangen besser sein :confused:
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase

Eigentlich sind die 3GB mehr an VRAM der einzige Vorteil der 1080ti, sonst ist die 2080 so gut wie in allem besser oder mindestens gleich gut :fresse:

Demnach ist auch deine Schlussfolgerung, dass niemand die 2080'er kauft, nichts wert und einfach nur als Fanboy-Gelaber abzutun ;)


Meine Vega64 verbraucht unter Vollast 150W. Troll woanders.

Das war eine Stichelei an Holzmann gerichtet, weil sein Netzteil zu schwach für eine VII ist und er hier anderen Netzteile empfiehlt :d
 
...viele Behauptungen, keine Nachweise...

Ich werde den Aufwand hierfür sicher bereuen, aber gut...
... Behauptungen <== vs ==> Fakten mit Beleg

  • Die RX 580 gibt es aktuell ab 160 Euro, die RX 590 ab 230 Euro. Der Preisunterschied ist also keine 110 Euro, sondern 70 Euro. Normal nicht der Rede wert, aber in dem Preissegment ist das nahezu 20% des Kaufpreises, allein das Delta aus Deiner Schätzung. Die Schätzung ist also freundlich ausgedrückt total daneben.
  • Es fehlt ein Beleg, dass man die RX 580 auf "nahezu das gleiche Leistungsniveau" bekommt. Glaubhaft ist das nur dann, wenn man die RX 590 nicht auch tweaked, was irgendwie zu einem sinnlosen Vergleich ala Äpfel und Birnen führt.
  • Der Einführungspreis der R7 war nicht leicht unter 700 Euro, sondern exakt 739 Euro, mehr je nach Boardpartner. Dass der Preis aufgrund von Nachfrage steigt, ist eine Interpretation, die nicht falsch ist, aber doch ein falsches Bild vermittelt. Die Verfügbarkeit ist so gering, dass überspitzt gesagt ein einzelner Miner alle GPUs hätte aufkaufen können (nicht mal 350 Verkäufe bei Mindstar, der Seite auf der AMD Deals mit Abstand am meisten vorkommen. Alternatives Indiz: Nur 236 UserBenchmarks). Daher ist es irreführend nur den "Nachfrage" Teil zu erwähnen, ohne den "Angebot" Teil zu präzisieren. Zumal ja offensichtlich Modelle verfügbar sind von 745-799 Euro, die nur auf motivierte Käufer warten.
  • Das die 1080ti in allen Belangen besser ist als die 2080, widerspricht quasi jedem Review. Ein Beleg Deinerseits wäre hilfreich, um zu verstehen wie Du auf diese Idee kommst. Sie mag in manchen vereinzelten Benchmarks knapp vorne liegen, aber das ist weiß Gott nicht "in allen Belangen". Belange in denen die 2080 hingegen deutlich besser ist: DX12, Vulkan, DLSS, RT und dann auch noch in mehr als der Hälfte aller Game Benchmarks. Sie ist sicher nicht deutlich besser als eine 1080ti, aber in allen Belangen schlechter ist sie grantiert nicht. Gegen die Ansage "alle Belange" würde ja ein Gegenbeispiel reichen, aber das wäre fad, also ein Beispiel aus verschiedenen Bereichen und Spielarten: Battlefield, Shadow of the Tomb Raider, F1 2018, Timespy, Temperaturen, Lautstärke
  • Das sich die RTX 2080 schlecht verkauft und deswegen sinkende Preise erfährt, lässt sich schwer aus den Faktendaten ableiten. Sie hat, stand Ende Januar einen Marktanteil von 0,3% auf Steam und damit genau 2x so viel wie alle Vega 56 und Vega 64 zusammen, seit Release. Zudem hat sie 33.061 UserBenchmarks alleine, was grob das 150 fache der R7 ist. Wobei die R7 natürlich erst etwas später verfügbar war.
  • Das Deine Vega 64 uner Vollast nur 150W zieht ist etwas, dass sicher viele User interessiert. Kannst Du dazu bitte entsprechende Guides und Nachweise liefern? Es wirkt nämlich so fern ab von jedem Review (inklusive derer die explizit die undervolting Optionen ausgelotet haben), dass man das nicht so einfach glauben kann.

Kurz gesagt:
Ich verstehe nicht, wieso Du so viele Aussagen umher wirfst, die mit einer kurzen Google Suche direkt und komplett widerlegt werden können.
Weder trägt das zu einer sinnvollen Diskussion bei, noch hilft das irgendwem.

Normal basht Du ja nur NVidia, jetzt machst Du aber sogar die RX 590 schlecht, die zu dem aktuellen Preis ein mehr als solides Angebot ist und Team Grün in dem Segment mehr als adequat antwortet. AMD hat weiß Gott Probleme ihre Produkte gut zu plazieren manchmal, aber wieso kreidest Du die Produkte an, die tatsächlich erfolgreich sind und verteidigst die, die nachweislich schwächeln?

Es wirkt ein wenig so, als würdest Du auf Teufel komm raus deine GPU "verteidigen" wollen und dabei Dreck in Richtung aller anderen GPUs zu werfen, egal was die frei verfügbaren Daten sagen.
Man kann ja versuchen die vorhandenen Daten komplett anders zu interpretieren, dass wäre diskussionswürdig, aber den Daten einfach flat out zu widersprechen (ohne andere Quellen zu benennen) ist keine Grundlage.
 
Hey. 1080ti Besitzer hier. Hab 10+ Gb Speicherauslastung in Farcry ND mit dem HD Texturepack bei FullHD. Würde gerne mal wissen ob 8Gb limitieren.
 
in 1080p, kann ich zumindest sagen, sinds ca 5,5gb.
 
Hach ja, mal der Reihe nach: (sorry für den bescheidenen Lesefluss)
Paddy92 schrieb:
Ich rede aber von der UVP (das deutsche Pendant zu MSRP) und die kommt von AMD...
Erst gings um Straßenpreise, dann wieder um UVP und dann wieder Straßenpreise. Sag an, was willst du verglichen haben? UVP oder Straßenpreise? Bei UVP kannst du Angebot und Nachfrage ausklammern, bei Straßenpreisen gehts um die wurst, weil Realität.

Paddy92 schrieb:
Haha, eher aufgrund der geringen Stückzahlen..
Oder so. Und? Preise steigen, weil die Nachfrage höher ist als das Angebot. Und jetzt?

Paddy92 schrieb:
Komisch, eine 2080 ist schneller und gleichzeitig sparsamer als eine 1080ti, wie kann die 1080ti dann in allen Belangen besser sein
Die Benches bei GamersNexus, HardwareUnboxed zeigen was anderes - aber gut, selbst auf Computerbase ist die Differenz 6% - von daher lassen wir das mal Messrauschen auf Grund der unterschiedlichen Systeme sein. Dann kommt halt Preis:

- Die 1080Ti war mal für knappe 600 Flocken zu haben, die 2080 kostet zur Zeit 680.
- Die Ausfallrate bei der 2080 ist lächerlich hoch im Vergleich zur 1080Ti
- Die Hitzeentwicklung der Subkonponenten auf der 2080 führt selbst bei nicht-Werksschaden mittelfristig zu Defekten

Gut Performance/Watt ist etwas besser, Schande über mein Haupt. Mögen die 2€ im Monat DAS Verkaufsargument sein und ignorieren wir dafür den Rest. Btw, wollen wir jetzt - wie du es oben angedeutet hast, Straßenpreis oder UVP der 2080 mit der 1080 Ti vergleichen? :d

Die RX 580 gibt es aktuell ab 160 Euro, die RX 590 ab 230 Euro. Der Preisunterschied ist also keine 110 Euro, sondern 70 Euro. Normal nicht der Rede wert, aber in dem Preissegment ist das nahezu 20% des Kaufpreises, allein das Delta aus Deiner Schätzung. Die Schätzung ist also freundlich ausgedrückt total daneben.
Ich bezog mich da auf die 280€ die von Paddy angegeben wurden. Die 160 vs 170 ist Tagespreis, ich hab gestern nachgeguckt. Die ist wohl wieder 10€ günstiger geworden. Nice.

Es fehlt ein Beleg, dass man die RX 580 auf "nahezu das gleiche Leistungsniveau" bekommt. Glaubhaft ist das nur dann, wenn man die RX 590 nicht auch tweaked, was irgendwie zu einem sinnlosen Vergleich ala Äpfel und Birnen führt.
Beide getweakt. Und ich sagte nahezu - nicht identisch. Da sind die 70€ Preisunterschied halt schon ein ordentlicher Preisunterschied. Ist doch gerade der heiße Brei, oder? Preis/Leistung...

Der Einführungspreis der R7 war nicht leicht unter 700 Euro, sondern exakt 739 Euro, mehr je nach Boardpartner.
Glaubste mir jetzt eh nicht, aber die hat n Kumpel von mir für 689 geschossen - am Releasetag. Aber hey, Haarspalterei.
Dass der Preis aufgrund von Nachfrage steigt, ist eine Interpretation, die nicht falsch ist, aber doch ein falsches Bild vermittelt. Die Verfügbarkeit ist so gering, dass überspitzt gesagt ein einzelner Miner alle GPUs hätte aufkaufen können (nicht mal 350 Verkäufe bei Mindstar, der Seite auf der AMD Deals mit Abstand am meisten vorkommen. Alternatives Indiz: Nur 236 UserBenchmarks). Daher ist es irreführend nur den "Nachfrage" Teil zu erwähnen, ohne den "Angebot" Teil zu präzisieren. Zumal ja offensichtlich Modelle verfügbar sind von 745-799 Euro, die nur auf motivierte Käufer warten.
Was für ein falsches Bild? AMD hat für ein paar Enthusiasten die übrig gebliebenen Chips der Pro-Serie für den Desktop rausgebracht und die werden jetzt abverkauft. Klaro sind die Stückzahlen gering. Nur gibts auf einmal ne Nachfrage, dass die Teile kein Ladenhüter sind und weggehen. Ist doch schön! Wo ist das Problem?


Das die 1080ti in allen Belangen besser ist als die 2080, widerspricht quasi jedem Review. Ein Beleg Deinerseits wäre hilfreich, um zu verstehen wie Du auf diese Idee kommst. Sie mag in manchen vereinzelten Benchmarks knapp vorne liegen, aber das ist weiß Gott nicht "in allen Belangen". Belange in denen die 2080 hingegen deutlich besser ist: DX12, Vulkan, DLSS, RT und dann auch noch in mehr als der Hälfte aller Game Benchmarks. Sie ist sicher nicht deutlich besser als eine 1080ti, aber in allen Belangen schlechter ist sie grantiert nicht. Gegen die Ansage "alle Belange" würde ja ein Gegenbeispiel reichen, aber das wäre fad, also ein Beispiel aus verschiedenen Bereichen und Spielarten: Battlefield, Shadow of the Tomb Raider, F1 2018, Timespy, Temperaturen, Lautstärke

Hier meine Gegenquelle:
https://www.gamersnexus.net/hwreviews/3365-nvidia-rtx-2080-founders-edition-review-benchmarks-vs-gtx-1080-ti
Dem finalen Urteil von Steve schließe ich mich an. Wenn ich die Ausfallrate mit draufrechne, würde ich die 2080 nicht anfassen, wenn ich die 1080Ti als Gegenstück zur Verfügung hätte. Nur: die ist nicht mehr wirklich verfügbar, von daher hat sich der Husten eh.

Btw, DLSS und RT haben ja nun genug Flak bekommen, dass du diese wieder in die Schublade zurücklschieben kannst.

Das sich die RTX 2080 schlecht verkauft und deswegen sinkende Preise erfährt, lässt sich schwer aus den Faktendaten ableiten. Sie hat, stand Ende Januar einen Marktanteil von 0,3% auf Steam und damit genau 2x so viel wie alle Vega 56 und Vega 64 zusammen, seit Release. Zudem hat sie 33.061 UserBenchmarks alleine, was grob das 150 fache der R7 ist. Wobei die R7 natürlich erst etwas später verfügbar war.
Ein besserer Vergleiche wäre, wie viele die 2080 im Vergleich zur 1080 bzw. 1080Ti kaufen. Das die Vega keine Abnehmer gefunden hat ist kein Geheimnis. Steht hier auch nicht zur Debatte. AMD hat im high-End Bereich - Vega VII hin oder her - keinen Einflussbereich. Deswegen sollten sie sich auch gänzlich aus diesem Bereich zurückziehen. Die Vega VII war - bis auf Resteverkloppen - ne Schnapsidee.

Das Deine Vega 64 uner Vollast nur 150W zieht ist etwas, dass sicher viele User interessiert. Kannst Du dazu bitte entsprechende Guides und Nachweise liefern? Es wirkt nämlich so fern ab von jedem Review (inklusive derer die explizit die undervolting Optionen ausgelotet haben), dass man das nicht so einfach glauben kann.
Kann ich gerne mal vorbereiten.


Kurz gesagt:
Ich verstehe nicht, wieso Du so viele Aussagen umher wirfst, die mit einer kurzen Google Suche direkt und komplett widerlegt werden können.
Weder trägt das zu einer sinnvollen Diskussion bei, noch hilft das irgendwem.

Normal basht Du ja nur NVidia, jetzt machst Du aber sogar die RX 590 schlecht, die zu dem aktuellen Preis ein mehr als solides Angebot ist und Team Grün in dem Segment mehr als adequat antwortet. AMD hat weiß Gott Probleme ihre Produkte gut zu plazieren manchmal, aber wieso kreidest Du die Produkte an, die tatsächlich erfolgreich sind und verteidigst die, die nachweislich schwächeln?

Es wirkt ein wenig so, als würdest Du auf Teufel komm raus deine GPU "verteidigen" wollen und dabei Dreck in Richtung aller anderen GPUs zu werfen, egal was die frei verfügbaren Daten sagen.
Man kann ja versuchen die vorhandenen Daten komplett anders zu interpretieren, dass wäre diskussionswürdig, aber den Daten einfach flat out zu widersprechen (ohne andere Quellen zu benennen) ist keine Grundlage.

Okay, ich versuche in Zukunft mal ein paar mehr Quellen einzubauen. Dann wird das vielleicht auch mal ne weniger emotional belastete Diskussion hier.
Btw, mir ist bewusst, dass die Vega für die meisten Leute hier keine Karte ist, die sie zu kaufen erwägen. Mit ein paar Ausnahmen - die auf Linux zocken - ist das auch nix für den 0815-user. Ich versuche die Vega da auch gar nicht zu verteidigen. Ganz im Gegenteil: AMD sollte sich komplett aus diesem Verlustgeschäft zurückziehen.
 
Das Deine Vega 64 uner Vollast nur 150W zieht ist etwas, dass sicher viele User interessiert. Kannst Du dazu bitte entsprechende Guides und Nachweise liefern? Es wirkt nämlich so fern ab von jedem Review (inklusive derer die explizit die undervolting Optionen ausgelotet haben), dass man das nicht so einfach glauben kann.

So, hab mich mal hingesetzt und 3 Szenarien verglichen:

a) Mein Alltagsspiel gedaddelt, (MWO) welches mit grad mal 72W im Radeon Overlay zu Buche steht Hier bin ich klar im CPU-Limit.
b) Ein zweites angezockt - 147W - auch im CPU Limit.
c) Superpos-Benchmark - 249W. Nicht im CPU-Limit.

Ergo war ich mit meiner Aussage im CPU Limit - Mea Culpa.
 
Erst gings um Straßenpreise, dann wieder um UVP und dann wieder Straßenpreise.

Ka, wenn ich schreibe "Wieso wurde eine 590 mit einer UVP von 280 US-Dollar released?", meine ich dann wohl die UVP oder den Straßenpreis? :rolleyes:

Ich muss zugeben, dass ich mich bei der Readon Vii vertan habe, denn diese wurde wie eine 2080 mit einer MSRP von 699 US-Dollar released und nicht teurer..


- Die 1080Ti war mal für knappe 600 Flocken zu haben, die 2080 kostet zur Zeit 680.
- Die Ausfallrate bei der 2080 ist lächerlich hoch im Vergleich zur 1080Ti
- Die Hitzeentwicklung der Subkonponenten auf der 2080 führt selbst bei nicht-Werksschaden mittelfristig zu Defekten

  1. Die 2080 gibt aus immer wieder mal für 600 im Angebot (die 1080ti war nämlich auch nur bei Angeboten so günstig ;)): Erst vor kurzem [Regional Saturn Kleve] Gainward GeForce RTX 2080 Phoenix Golden Sample, 8GB GDDR 6 (3x DisplayPort, HDMI, USB-C) für 599,-€ - mydealz.de und nicht regional begrenzt: hier und hier
  2. Belege pls
  3. Belege pls

Gut Performance/Watt ist etwas besser, Schande über mein Haupt. Mögen die 2€ im Monat DAS Verkaufsargument sein und ignorieren wir dafür den Rest.

Ich habe nur ein Beispiel gebraucht, um dein "in allen Belangen besser" zu widerlegen. Klar gibt es mehrere Punkte als nur die Effizienz, wo eine 2080 besser ist als eine 1080ti, aber da es mir nicht darum ging die 2080 anzupreisen, sondern einfach nur dein Argument zu widerlegen, habe ich nur dies angeführt..


Ich bezog mich da auf die 280€ die von Paddy angegeben wurden.

Wat?
Ich habe nichts von 280€ geschrieben..


Glaubste mir jetzt eh nicht, aber die hat n Kumpel von mir für 689 geschossen - am Releasetag. Aber hey, Haarspalterei.

Ich habe mir vor kurzem eine 2080ti mit A-Chip und guten Kühler für nen 1000er geholt. Und jetzt?


Btw, DLSS und RT haben ja nun genug Flak bekommen, dass du diese wieder in die Schublade zurücklschieben kannst.

Metro Exodus Hotfix-Update: DLSS nach ersten Berichten deutlich besser

Lass diese neuen Technologien doch erst einmal reifen. Bei AMD heißt man solle den Dingen Zeit lassen :fresse:
 
Das war eine Stichelei an Holzmann gerichtet, weil sein Netzteil zu schwach für eine VII ist und er hier anderen Netzteile empfiehlt :d

Nun von der Watt-Leistung her war mein 550Watt NT auch kein Problem und völlig ausreichend, es kam aber sehr vereinzelt zu Cut-Offs, vermutlich wegen Spannungsspitzen.

Diese sind mit dem neuen Netzteil nicht mehr vorhanden. Diese Erfahrung musste ich nun machen. Was aber offen bleibt und ich mich frage, ist die Spannungsstabilität bei NTs mit mehr Watt in der Regel höher?
 
Ka, wenn ich schreibe "Wieso wurde eine 590 mit einer UVP von 280 US-Dollar released?", meine ich dann wohl die UVP oder den Straßenpreis? :rolleyes:

Ich muss zugeben, dass ich mich bei der Readon Vii vertan habe, denn diese wurde wie eine 2080 mit einer MSRP von 699 US-Dollar released und nicht teurer..
Okay, nochmal von Anfang an: Ich sagte, dass wenn AMD die Karte für Nvidias Leistung mit Nvidias Preis rausgebracht hätte, sie nicht gekauft werden würde, weil Preis/Leistung nicht besser als die Konkurrenz (in diesem Fall das Vorgängerprodukt - die 1070) wäre. Im Falle von Nvidia ist das nur "meh" - die Radeon VII wird aber in der Luft zerrissen, weil sie gerade mal "gleichauf" ist. (Mal ganz davon abgesehen, dass ich die VII an sich für ne Schnapsidee halte, aber das ist ein anderes Thema)

Nur weil Nvidia inflationär mit den Preisen umgeht und die Händler (nicht AMD, die Karten sind bereits verkauft - einzig die Spielebundles sind subventioniert) graduell mit den Preisen runtergehen, werden die Karten wie interessant für Leute mit kleinerem Geldbeutel. Der Straßenpreis adaptiert sich also und es hat nix mehr mit UVP zu tun.




[*] Die 2080 gibt aus immer wieder mal für 600 im Angebot (die 1080ti war nämlich auch nur bei Angeboten so günstig ;)): Erst vor kurzem [Regional Saturn Kleve] Gainward GeForce RTX 2080 Phoenix Golden Sample, 8GB GDDR 6 (3x DisplayPort, HDMI, USB-C) für 599,-€ - mydealz.de und nicht regional begrenzt: hier und hier
Wie du bereits gesaagt hast - immer mal wieder - nix regelmäßiges. Das wurde oben AMD mit der Radeon VII vorgeworfen. Aber okay, sagen wir mal, die beiden sind von Preis her identisch - bleibt noch die Ausfallrate:
https://www.gamersnexus.net/guides/3394-rtx-2080-ti-artifacting-failure-analysis-crashing-black-screens

Die RMA-Quoten von verschiedenen Quellen wie Caseking sind leider nicht die FE-Varianten, welche im Argusauge der Diskussion standen. Die Boardpartnervarianten scheinen nicht von Defekten betroffen zu sein - allerdings bekamen diese auch nicht die A-Chips, welche ein höheres Binning hatten.

Die Subkomponenten-Wärmebilder findest du sogar auf Hardwareluxx:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47713-die-geforce-rtx-2080-ti-leidet-offenbar-an-erhoehter-ausfallrate.html Ich halte diese langfristig nicht für gesund, aber das ist nur Meine Meinung.


Ich habe nur ein Beispiel gebraucht, um dein "in allen Belangen besser" zu widerlegen. Klar gibt es mehrere Punkte als nur die Effizienz, wo eine 2080 besser ist als eine 1080ti, aber da es mir nicht darum ging die 2080 anzupreisen, sondern einfach nur dein Argument zu widerlegen, habe ich nur dies angeführt..
Yo, ist angekommen. Ich nehme das "in allen Belangen" zurück und ersetzte es durch ein "unterm Strich".


Wat?
Ich habe nichts von 280€ geschrieben..

Wieso wurde eine 590 mit einer UVP von 280 US-Dollar released, welche deutlich langsamer ist?
Gut, Dollar vs. Euro. Aber da ist der Beitrag den ich meine.

Ich habe mir vor kurzem eine 2080ti mit A-Chip und guten Kühler für nen 1000er geholt. Und jetzt?
Nüx und jetzt. Wenn du mit der Karte glücklich bist, ist doch alles schön. In der nächsten Generation kann Nvidia dann 1.500€ oder 2.000€ für 5-10% mehr Leistung verlangen (wenn wir mal den derzeitigen Verlauf extrapolieren) - wenn du die Knete hast und es dich nicht juckt, ist alles in Ordnung. Wenns dir irgendwann zu teuer wird und du dich DANN über den Preis aufregen solltest, triffst du aber die Doppelmoral die ich hier versuche aufzuzeigen.

Und ja, es ist mir bewusst, dass Nvidia die Preise nur deswegen so hoch ansetzen kann, weil es von AMD kein äquivalentes Konkurrenzprodukt gibt. Nur: Warum sollte AMD eins bauen? Wir doch eh nicht gekauft, selbst *wenn* es äquivalent sein sollte. Deswegen gibt auch nur noch Resteverwertung von AMD im "high-end" Bereich.

Metro Exodus Hotfix-Update: DLSS nach ersten Berichten deutlich besser
Lass diese neuen Technologien doch erst einmal reifen. Bei AMD heißt man solle den Dingen Zeit lassen :fresse:
Oh, da stimme ich dir zu. Technologien sollten reifen. Und vielleicht bekommt Nvidia dadurch sogar so viel Marktmacht, dass AMD die PC-GPU-Sparte komplett dicht macht. Denn wie du bereits sagtest: Die sind keine Samariter. :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh