NVIDIA RTX 3080 / 3070: Mögliche Speicherverdopplung schon wohl im Dezember 2020

Was meinst du mit Mindshare, den Marktanteil/market share?

Ich glaube auch nicht an 799,-€. Aber was meinst du was passiert, wenn AMD mit einer schnelleren 16GB Karte für 649,-€ auf den Markt kommt. Aber ich fürchte, dass AMD mal wieder eher so meeeeehhhh performen wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die R480 und 5700 waren total in Ordnung für das Geld, aber man hat sich bei beiden erhofft, dass sie noch eine Etage höher spielen würden. So muss AMD immer mehr Aufwand für den gleichen Effekt wie nVidia betreiben, größere Chips, bessere Fertigung, höherer Verbrauch. Das führt dann zu einer niedrigeren Marge, weniger Gewinn, dadurch weniger R/D Budget, also wird auch die nächste Generation eher nicht an die Konkurrenz herankommen. Und nun droht auch noch Intel mit der Xe-Reihe ihren Marktanteil zu beanspruchen.

Es wäre toll, wenn AMD wieder auf Augenhöhe mit nVidia käme, also 50:50 wie zu 9700er Zeiten. Hoffen tu ich, glauben nicht.
 
Die gute alte HD7970 war damals auch ein super Modell finde ich! Und auf lange Sicht hat sie besser skaliert als das Konkurrenzmodell GTX 680. Hatte die DirectCU II :love:
Ich hatte mit dieser Karte kein einziges Problem.

Aber der Stromverbrauch war etwas höher, oder? :unsure:
 
Die 480 ging noch, aber danach fing wieder das Brechstangen-OC an. Das muss einfach nicht sein. Selbst wenn die Karte 5 oder 10 % langsamer als die 1060 gewesen wäre, sie war günstig, bot 8 GB und bei moderatem Takt war die Effizient auch besser. Die 590 beispielsweise hatte sogar eine noch bessere Fertigung, jedoch hat AMD sie nochmals höher getaktet. Stattdessen hätte man sie vielleicht "480 v2" oder so genannt und sie bei gleichen Taktraten aber niedrigerer Spannung (Speicher-OC?) belassen.
 
20GB 3080 im Dezember ist dann wohl das Weihnachtsgeschenk an die Botter/Scalper
 
Jensen will wohl wieder die Käufer verärgern ^^

Anders kann man sich das nicht erkären dass erst 10GB kamen und schon sehr bald die 20GB veröffentlicht werden.

Noch schlimmer ist es mit der 8GB da kommt ja auch bald eine mit 16GB.

Die Taktik widert mich nur noch an.
 
Ich bin von Woche zu Woche glücklicher, dass ich zum Start keine 3080 abbekommen habe :d

Aktuell werkelt dafür eine 2080S (kürzlich gebraucht gekauft) drin und ich kann mir das Ganze gemütlich anschauen und dann endweder im MP eine günstige 3080/10GB abstauben oder im Frühjahr schauen was für mich das beste Paket von AMD oder Nvidia ist

Jensen will wohl wieder die Käufer verärgern ^^

Anders kann man sich das nicht erkären dass erst 10GB kamen und schon sehr bald die 20GB veröffentlicht werden.

Noch schlimmer ist es mit der 8GB da kommt ja auch bald eine mit 16GB.

Die Taktik widert mich nur noch an.

Schon, aber bist du darüber echt erstaunt? War ja ziemlich klar.
 
Die Taktik widert mich nur noch an.
Da hast du völlig recht. Die letzten Jahre war ich immer zufrieden mit den Grünen, ordentliche Preise, Fortschritt jede Generation, Top Leistung. Aber seit Turing übertreiben sie es. Turing ist zwar auch eine ganz gute Architektur, aber halt überteuert für das was geboten wird und bei Ampere ist es kaum anders. Die 3080 wirkt jetzt sehr günstig weil sie "nur" 699 kosten soll, dabei sollte man aber nicht vergessen dass dies der übliche Preis bei jeder X80 vorher war und später kam dann immer eine Ti für den Preis und die alte X80 wurde billiger. Jetzt scheinen manche ja noch zu feiern dass es überhaupt Mehrleistung gibt, für mich versteht sich das doch von selbst dass eine neue Generation schneller sein sollte als die Alte?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh