HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.964
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ich finde es hingegen erstaunlich, dass AMD überhaupt eine Gaming Karte mit dieser GPU bringt. Aber das muss wohl einfach sein um NVidia das höhere Performancesegment nicht gänzlich kampflos zu überlassen.
Diesen deutlichen Hinweis auf darauf, dass die Karte vielmehr für Profianwendungen, .....
Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..
Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..
(da ist AMD deutlich verlogener als NVidia)
Hast du dafür einen Beleg?
Ich glaube weiterhin, dass die 16gb HBM2 reines Marketing sind, die den Preis unnötig hochtreiben.
Beleg?
Jede einzelne Präsentation der letzten Jahre. Kann sich jeder selber anschauen und vergleichen was die Dinger dann in der Realität hatten.
Spontan fällt mir die Witcher 3 Präsentation ein, bei der sie mal locker flockig 25-50% mehr Leistung gezeigt hatten als die GPU wirklich produziert hat. Es gab dazu sogar YouTuber die krampfhaft versucht haben herauszufinden was AMD eingestellt hatte, um diese Werte zu erreichen. Soweit ich mitbekommen habe, erfolglos.
Das kann natürlich hier und jetzt ganz anders sein!
Glauben werde ich das dann, wenn Guru3d und HardwareUnboxed das ganze testen.
häh, ich kapier viele der Aussagen hier nicht. Nvidia war schon immer die verlogenere Seite wenns um Marketingtricksereien geht, oder darum ihre Interessen bei den Spielefirmen mit Moneten durchzusetzen und so AMD und deren Käufer auszugrenzen.
Auch die Aussagen wegen dem Speicher verstehe ich nicht, immerhin hatte Vega deutliche Probleme weil der Speicher verkrüppelt war. Nun schaffen sie den 1TB/s durchsatz nur mit verdoppeltem Speicher, warum sollte der also unnütz sein?
die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
Verstehe nicht warum sich AMD mit einer RTX2080 anlegen will obwohl dafür deren Architektur offensichtlich weit über dem sweetspot laufen muss.
Eine 499$ Karte mit RTX2070 Leistung kommt hoffentlich noch zügig hinterher aber bitte ohne das dumme Geschwätz "keine reine Spielerkarte"
die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
80 watt werden schon so etwa hin kommen, wenn nicht gar noch mehr..
laut amd hat man die performance pro watt um 25% steigern können.
Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII - Hardwareluxx
mit 25% mehr leistung gegenüber der vega 64 ist man aber eben noch nicht so schnell wie die 2080
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 3) - ComputerBase
wenn man die 2080 geknackt haben will, dann geht das daher rein logisch nur in dem man die karte außerhalb des sweetspots betreibt, was dann wiederum gar noch etwas höheren verbrauch als die vega 64 bedeuten könnte (die vega 64 verbraucht 74 watt mehr als die 2080 FE)
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase
also vega 64 braucht da 30 watt mehr als ne 2080.
Ein reiner Marketing-Speicher? Neue Geschäftsidee.
Den hätte nv bei der 970, 512mb[emoji39]Ein reiner Marketing-Speicher? Neue Geschäftsidee.