AMD veröffentlicht weitere Leistungsdaten zur Radeon VII (Update)

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.964
amd-radeonvii.jpg
In der gestrigen Präsentation der Radeon VII verglich AMD die Leistung der Karte mit einer GeForce RTX 2080 und sprach davon gleichauf und in einigen Spielen auch schneller zu sein. Nun hat man die Leistungsdaten noch einmal konkretisiert und nennt weitere Details.Dabei möchte AMD noch einmal betonen, dass die Radeon VII keine reine Spielerkarte ist. Sie ist einer Frontier Edition deutlich näher, als man dies auf den ersten Blick erkennen kann. Daher sind in den Benchmarks auch ebenso viele...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Diesen deutlichen Hinweis auf darauf, dass die Karte vielmehr für Profianwendungen, statt für Gaming ausgelegt ist (und das war schon seit Monaten klar, wenn von Vega 20 gesprochen wurde), braucht es auch ganz eindeutig.
Denn offenbar haben viele noch immer nicht kapiert, was diese GPU ist.
Ging seit Monaten durch die Presse und Foren, aber die dummen Schwätzer, die sich jetzt wieder über die ach so schlechte Gaming Performance aufregen, haben das scheinbar nie gelesen.

Ich finde es hingegen erstaunlich, dass AMD überhaupt eine Gaming Karte mit dieser GPU bringt. Aber das muss wohl einfach sein um NVidia das höhere Performancesegment nicht gänzlich kampflos zu überlassen.
 
Zuletzt bearbeitet:
wenn man bedenkt dass vega VII 6% weniger shader hat sehr interessant.

was mich interessiert ist wie sie mit dem soc clock umgehen. bei der vega braucht man 1110mhz memoryclock un den soc aif 1199 zu heben und damit massiv bandbreite hinzuzugewinnen. kann gut sein dass man da bei der vegaVII auch noch einige % Rauskitzeln kann, vor allem um die 1800+ mhz auch wirklich auszureizen.

momory uv wird wohl kaum von belang sein, da man da kaum spielraum gewinnt.
 
Ich finde es hingegen erstaunlich, dass AMD überhaupt eine Gaming Karte mit dieser GPU bringt. Aber das muss wohl einfach sein um NVidia das höhere Performancesegment nicht gänzlich kampflos zu überlassen.

+1 vor allem die Kampfansage mit 16GB HBM für 700USD. Wäre mir ganz Recht wenn Nvidia seine Preise nach unten korrigiert.
 
Diesen deutlichen Hinweis auf darauf, dass die Karte vielmehr für Profianwendungen, .....

Das Problem ist aber auch AMDs Präsentation. Man könnte die Karte auch einfach mit einer Quadro vergleichen können zB (oder beides, RTX und Quadro). Dann könnte man immer sagen: Schau mal auf die Diagramme, da ist auch eine Quadro, warum den nur?

Wenn ich mich selber aber nur mit Spielekarten vergleiche und dann sage: Ist aber eigentlich eine Profikarte, erm naja.
 
Zuletzt bearbeitet:
Ist das nicht eher dann ne Prosumer Karte? Ich meine, die ist ja scheinbar zum Spielen ebenfalls geeignet, aber hat eben nicht den teuren Treibersupport
 
anscheinend si d die specs durchgesickert vor 1 stunde. 1,45 baseclock/ 1,75 boost bei max. 300 watt.
 
Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..
 
Stephen Burke hat von einem 1800MHz "burst" gesprochen, also einem Kurzzeit-boost
 
sicher ein up to dabei.

und aufgerundet wären es ja 1.8ghz, aber alles in allem eine interessante karte, die 40% mehr als meine rx 56 schaffen sollte.
 
Auf dem Papier kann das ja ne recht gute Karte werden.
Wird spannend wie viel von diesen Leistungsdaten dann in der Realität auch gemessen werden (da ist AMD deutlich verlogener als NVidia) und was das Ding dann wirklich kostet.

Ich glaube weiterhin, dass die 16gb HBM2 reines Marketing sind, die den Preis unnötig hochtreiben.
Gerade HBM2, bei dem krassen Speed,... da wird der Speicher ja fast 100x pro Sekunde leer und wieder voll gemacht. Und wozu? Bei 16gb kann man alle Texturen der meisten Games simultan im Speicher behalten und dort liegen lassen, ohne sie auch nur einmal auszutauschen.
Also entweder der Speed, oder die Menge sind unnötig. Beides zusammen passt einfach nicht in den Gamermarkt.
 
(da ist AMD deutlich verlogener als NVidia)

Hast du dafür einen Beleg?

Ich glaube weiterhin, dass die 16gb HBM2 reines Marketing sind, die den Preis unnötig hochtreiben.

Ein reiner Marketing-Speicher? Neue Geschäftsidee. :bigok:
 
Beleg?
Jede einzelne Präsentation der letzten Jahre. Kann sich jeder selber anschauen und vergleichen was die Dinger dann in der Realität hatten.
Spontan fällt mir die Witcher 3 Präsentation ein, bei der sie mal locker flockig 25-50% mehr Leistung gezeigt hatten als die GPU wirklich produziert hat. Es gab dazu sogar YouTuber die krampfhaft versucht haben herauszufinden was AMD eingestellt hatte, um diese Werte zu erreichen. Soweit ich mitbekommen habe, erfolglos.

Das kann natürlich hier und jetzt ganz anders sein!
Glauben werde ich das dann, wenn Guru3d und HardwareUnboxed das ganze testen. :-)
 
Also 85W mehr Verbrauch als eine Rtx 2080 jedoch die gleiche Leistung... erinnert mich an 2017.

Wenn ich meine Münze drehe dann sehe ich auf einer Seite Nvidia und auf der anderen AMD und der Rand der immer dünner wird das sind wohl wir.
 
häh, ich kapier viele der Aussagen hier nicht. Nvidia war schon immer die verlogenere Seite wenns um Marketingtricksereien geht, oder darum ihre Interessen bei den Spielefirmen mit Moneten durchzusetzen und so AMD und deren Käufer auszugrenzen.
Auch die Aussagen wegen dem Speicher verstehe ich nicht, immerhin hatte Vega deutliche Probleme weil der Speicher verkrüppelt war. Nun schaffen sie den 1TB/s durchsatz nur mit verdoppeltem Speicher, warum sollte der also unnütz sein? :confused:

die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
 
Zuletzt bearbeitet:
Beleg?
Jede einzelne Präsentation der letzten Jahre. Kann sich jeder selber anschauen und vergleichen was die Dinger dann in der Realität hatten.
Spontan fällt mir die Witcher 3 Präsentation ein, bei der sie mal locker flockig 25-50% mehr Leistung gezeigt hatten als die GPU wirklich produziert hat. Es gab dazu sogar YouTuber die krampfhaft versucht haben herauszufinden was AMD eingestellt hatte, um diese Werte zu erreichen. Soweit ich mitbekommen habe, erfolglos.

Das kann natürlich hier und jetzt ganz anders sein!
Glauben werde ich das dann, wenn Guru3d und HardwareUnboxed das ganze testen. :-)

Zeig mir mal die Daten zu deiner 25-50% mehr Leistung These die AMD "gezaubert" hat.

Wenn es etwas ähnliches gegeben hat, war es durch Hairworks bedingt.
 
häh, ich kapier viele der Aussagen hier nicht. Nvidia war schon immer die verlogenere Seite wenns um Marketingtricksereien geht, oder darum ihre Interessen bei den Spielefirmen mit Moneten durchzusetzen und so AMD und deren Käufer auszugrenzen.
Auch die Aussagen wegen dem Speicher verstehe ich nicht, immerhin hatte Vega deutliche Probleme weil der Speicher verkrüppelt war. Nun schaffen sie den 1TB/s durchsatz nur mit verdoppeltem Speicher, warum sollte der also unnütz sein? :confused:

die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?

bei vwga war nicht der speicher das eigendliche problem, sondern der soc takt der daran gekoppelt war und massiv bandbreite ioferte, was das gpu oc nutzlos machte und allgemein viel leistung kostete.


gibt im sammler genug info, von 1100mhz hbm takt zu 1111 mhz stieg der soc auf 1199mhz und bei 1600 gpu kamen 7% mehr leistung raus, bei mickrigen 11mhz oder eben 1% mehrtakt ^^
 
Verstehe nicht warum sich AMD mit einer RTX2080 anlegen will obwohl dafür deren Architektur offensichtlich weit über dem sweetspot laufen muss.
Eine 499$ Karte mit RTX2070 Leistung kommt hoffentlich noch zügig hinterher aber bitte ohne das dumme Geschwätz "keine reine Spielerkarte" :hwluxx:

Weil man es muss, der erste 7 NM High End Gaming Chip + Teure 16 GB HBM2 zwingen AMD zu dem Preis..
 
venau wie nvidia mit dem gddr6 der doppelt so teuer ist als ggdr5 ud der riesen chip.

viele verstehen nicht dass sich beide nichts nehmen

die sehen da bei nVidia 2 milkiarden gewinn, und diese sind dann ausschliesslich von gamer gpus und ja nicht von den 14 anderen einnahmequellen die die firma hat.

genauso sind die deutschen. sie kenne einen staat der lieb und nett ist und die brücken und strassen und kitas ermöglicht, und einen staat der die steuern will und der nur nimmt, und diese beiden entitäten haben nichts miteinander zu tun. Der deutsche kann trennen
 
die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?

80 watt werden schon so etwa hin kommen, wenn nicht gar noch mehr..

laut amd hat man die performance pro watt um 25% steigern können.
Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII - Hardwareluxx

mit 25% mehr leistung gegenüber der vega 64 ist man aber eben noch nicht so schnell wie die 2080
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 3) - ComputerBase

wenn man die 2080 geknackt haben will, dann geht das daher rein logisch nur in dem man die karte außerhalb des sweetspots betreibt, was dann wiederum gar noch etwas höheren verbrauch als die vega 64 bedeuten könnte (die vega 64 verbraucht 74 watt mehr als die 2080 FE)
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase
 
Zuletzt bearbeitet:
80 watt werden schon so etwa hin kommen, wenn nicht gar noch mehr..

laut amd hat man die performance pro watt um 25% steigern können.
Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII - Hardwareluxx

mit 25% mehr leistung gegenüber der vega 64 ist man aber eben noch nicht so schnell wie die 2080
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 3) - ComputerBase

wenn man die 2080 geknackt haben will, dann geht das daher rein logisch nur in dem man die karte außerhalb des sweetspots betreibt, was dann wiederum gar noch etwas höheren verbrauch als die vega 64 bedeuten könnte (die vega 64 verbraucht 74 watt mehr als die 2080 FE)
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase

also vega 64 braucht da 30 watt mehr als ne 2080. Die neue Karte wird in 7nm gefertigt, hat also ne Effizienzsteigerung um so und soviel prozent. Warum betreiben wir hier trotzdem noch Orakel bevor wir genau wissen wieviel die neue Vega verbraucht? Ich würde eine Wette eingehen, dass die neue Vega Karte keine 80 watt mehr braucht wie z.b eine 2080 MSI Gaming X Trio, die ja schon bei 260W liegt.
 
also vega 64 braucht da 30 watt mehr als ne 2080.

Also ich sehe da 229 Watt bei der 2080 FE stehen (mit der auch AMD Vergleicht) und 303 Watt bei der Vega 64.

Ich war zwar in Mathe nie der beste, 303 - 229 ergeben aber dennoch 74 ;-)

Wenn du mit übertaktenen Custom Modellen vergleichen willst, dann musst du dir allerdings auch darüber im Klaren sein, dass diese nicht nur etwas mehr verbrauchen, sondern dass diese eben auch etwas schneller sind.

Gesendet von meinem SM-G950F mit Tapatalk
 
Zuletzt bearbeitet:
Vega20 ist halt keine Gaming-GPU.

Bei HPC ist Vega20 viel konkurrenzfähiger.
 
Wird es die Karte nur wie gezeigt geben oder folgen Custom Modelle? Gibt es da Infos? Ich besitze eine Vega 64 LQ. Ich bin ein Fan dieser Karte. :love: Ich würde mir wünschen, dass es die Karte auch mit AIO gibt bzw. der Hammer wäre eine mit 4096 Shadern und AIO.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh