AMD veröffentlicht weitere Leistungsdaten zur Radeon VII (Update)

80 watt werden schon so etwa hin kommen, wenn nicht gar noch mehr..

laut amd hat man die performance pro watt um 25% steigern können.
Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII - Hardwareluxx

mit 25% mehr leistung gegenüber der vega 64 ist man aber eben noch nicht so schnell wie die 2080
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 3) - ComputerBase

wenn man die 2080 geknackt haben will, dann geht das daher rein logisch nur in dem man die karte außerhalb des sweetspots betreibt, was dann wiederum gar noch etwas höheren verbrauch als die vega 64 bedeuten könnte (die vega 64 verbraucht 74 watt mehr als die 2080 FE)
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase

hmm, evtl haben sie bei der vii ja auch noch die paar %stromverbrauch weggekriegt, welche damals in vielen reviews auf zu hohe grundeinstellungen der vega zurückzuführen war...
aber ja, rechne auch mit einem ähnlichen unterschied wie zu vega zeiten.
finde aber mann muss diese ach so hohen verbrauchswerte etwas relativieren.
wenn ich irgendwo in haus 2 alte lampen gegen led austausche, hab ich den verbrauch schon wieder mehrfach kompensiert. 80watt ist nun wirklich nicht viel, vorallem wenn man bedenkt, wie lange diese max power wirklich anliegt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@huberei: Denke auch, dass die Safe Konfiguration dieses Mal etwas weniger konservativ sein könnte.
Ein Mehrverbrauch gegenüber Turing ist auch keine Schande, da ist NVidia halt nunmal kaum einzuholen bei selber Architektur, ein Shrink reicht da nicht.
 
Also ich sehe da 229 Watt bei der 2080 FE stehen (mit der auch AMD Vergleicht) und 303 Watt bei der Vega 64.

Ich war zwar in Mathe nie der beste, 303 - 229 ergeben aber dennoch 74 ;-)

Wenn du mit übertaktenen Custom Modellen vergleichen willst, dann musst du dir allerdings auch darüber im Klaren sein, dass diese nicht nur etwas mehr verbrauchen, sondern dass diese eben auch etwas schneller sind.

Gesendet von meinem SM-G950F mit Tapatalk

Meine Vega 64 verbraucht bei einem Boostclock von 1580 nur 210 Watt - und das mit nur einem Klick im Treiber "Auto Undervolt". Und so schnell bricht deine Argumentationskette auseinander. typisch fanboy
 
Naja wenn, dann muss ich immer Stock vs. Stock, OC vs. OC und UV vs. UV vergleichen. Alles andere ist doch auch Unsinn.
 
AMD veröffentlicht weitere Leistungsdaten zur Radeon VII

Meine Vega 64 verbraucht bei einem Boostclock von 1580 nur 210 Watt - und das mit nur einem Klick im Treiber "Auto Undervolt". Und so schnell bricht deine Argumentationskette auseinander. typisch fanboy

naja, ganz unrecht hat er ja nicht. wenn die karte so betrieben wird, wie sie verkauft wird, hat sie nunmal einen unnötig hohen verbrauch.

uv wurde bei den nv-karten in diesen tests auch nicht betrieben.
also bitte etwas vorsichtiger beim umgang mit der fanboy-keule...;)

EDIT:
da war einer minim schneller... XD
 
Zuletzt bearbeitet:
AMD veröffentlicht weitere Leistungsdaten zur Radeon VII

bitte löschen
 
Zuletzt bearbeitet:
Naja wenn, dann muss ich immer Stock vs. Stock, OC vs. OC und UV vs. UV vergleichen. Alles andere ist doch auch Unsinn.
naja, ganz unrecht hat er ja nicht. wenn die karte so betrieben wird, wie sie verkauft wird, hat sie nunmal einen unnötig hohen verbrauch.

uv wurde bei den nv-karten in diesen tests auch nicht betrieben.
also bitte etwas vorsichtiger beim umgang mit der fanboy-keule...;)

EDIT:
da war einer minim schneller... XD

Das die AMD Chips standartmäßig mit unnötig viel Reserven ausgeliefert wurden will ich hier garnicht bestreiten. Wir reden aber hier nicht von undervolting oder overclocking im klassischen Sinn. Hier wird mit einem Klick, Werte eingestellt die sowohl weniger Strom kosten als auch mehr Leistung bringen. Mit manuellem Undervolting komm ich auf 170 Watt bei 1575 Clock - Das wollte ich jetzt aber hier nicht als "standart" und "out of the Box" verkaufen.

Ergänzung:
Ausserdem versteh ich nicht wie CB die Karte getestet hat. 300 Watt erreicht die Vega 64 bei mir auch nur im "Turbo Modus" und das wäre sehr wohl wie die "Auto Undervolt" Settings als "nicht Stock" zu werten da beides nur mit "einem Klick" zu erreichen ist


Wenn man sich die lezten Beiträge von sTOrM41 anschaut dann sieht man, dass dieser Beitrag nur die Spitze vom Eisberg war und somit deklasiert er sich mit seinen Aussagen absolut zum Fanboy.
 
Zuletzt bearbeitet:
Meine Vega 64 verbraucht bei einem Boostclock von 1580 nur 210 Watt - und das mit nur einem Klick im Treiber "Auto Undervolt". Und so schnell bricht deine Argumentationskette auseinander. typisch fanboy
Coole Sache. Nur doof wenn man denkt dass das bei der Konkurrenz nicht ebenfalls geht :fresse:
(Was dann wiederum an der ganzen Performance pro Watt Geschichte wenig ändert).


Gesendet von meinem SM-G950F mit Tapatalk
 
Zuletzt bearbeitet:
Coole Sache. Nur doof wenn man denkt dass das bei der Konkurrenz nicht ebenfalls geht :fresse:
(Was dann wiederum an der ganzen Performance pro Watt Geschichte nichts ändert).


Gesendet von meinem SM-G950F mit Tapatalk

Das geht zwar, müsste sich dann aber auch proportional zu Vega verhalten damit Peerformance pro Watt gleich bleibt, was durch die konservative Vega Safe Konfiguration wohl nicht so sein wird.
 
Zuletzt bearbeitet:
Au Mann.............wieder diese scheinheilige Debatte über den Stromverbrauch!:coffee:

ich möchte nicht wissen, wieviele Grafikkarten hier im Luxx übertaktet sind und dann natürlich auch mehr Strom brauchen. Aber dann ist der Stromverbrauch auf einmal egal.........
 
Coole Sache. Nur doof wenn man denkt dass das bei der Konkurrenz nicht ebenfalls geht :fresse:
(Was dann wiederum an der ganzen Performance pro Watt Geschichte nichts ändert).


Gesendet von meinem SM-G950F mit Tapatalk

Doch es ändert bei der Vega leider sehr viel.
Dein CB Vergleich den du heranziehst bezieht sich auf Informationen und Treiber von mitte 2017. Da hat sich aber bei AMD ziemlich viel getan.
Im Gegensatz zu der Aussage von CB. Die Vega 64 performt unter 300 Watt um einiges schlechter als unter 210 Watt.

Die Auto Undervolt Settings sind mit nichten der "Strom Spar Modus" - Was da im Hintergrund genau im Treiber passiert kann euch evtl. jemand erklären der sich mit der Materie auseinander gesetzt hat. Am Ergebnis und den Fakten ändert es aber nichts: mit einem Klick kommen bei 210 Watt ~ 1580 Mhz raus - Im CB Test kamen bei 300 Watt 1401 bis 1536 Mhz hinten raus. Soviel zu "Performance zu Watt"

Am Ende werden mir die ersten Benchmarks der Vega 7 recht geben da wir hier nicht auf Treiber und Informationen von vor zwei Jahren zugreifen.

Ergänzung: Ich will hier die Vega 7 / Vega 64 oder AMD nicht als geiles Stück Hardware hinstellen - den am Ende ist mir die Firma die mir die Hardware liefert egal. Aber was hier im hwluxx so abgeht und wieviele falsch Informationen hier durch Fanboys durch die Foren getragen wird, geht auf keine Kuhhaut mehr. Gerne liefer ich noch zu meinen Aussagen Screenshots.
 
Zuletzt bearbeitet:
Au Mann.............wieder diese scheinheilige Debatte über den Stromverbrauch!:coffee:

das ding ist halt das hier viele keinen blick für die summe ihrer teile haben (oder haben wollen?).

mal so ein hypothetisches beispiel:
amd bringt eine grafikkarte auf 2080 (700€) niveau, für 650€.

was passiert dann? alle rasten aus, konkurrenz, konkurrenz! amd is back1!111. 2080 leistung und 50€ billiger!!

dass das ding dann nach 3 jahren nutzung aufgrund des höheren stromverbrauchs gar nicht günstiger war (sondern in summe evtl sogar teurer) will der sympatisant dann halt nicht wahr-haben.
 
Zuletzt bearbeitet:
Wie lange liegt denn der max. Takt/Verbrauch an? Ich finde das amüsant, wie alle immer auf dem maximalen Verbrauch rum reiten. Der liegt bei mir nur an, wenn ich Furmark starte. In Game ist das seltenst der Fall und dann auch nur kurz. Der Durchschnitt zählt doch da viel mehr! (Z.B. meine Vega verbraucht währen eines TimeSpy runs max 175W, im Durchschnitt aber spürbar weniger)

Und wenn ich nicht 24/7 vor dem Rechner sitze und die Grafikkarte unter künstlicher Vollast laufen lasse, spüre ich das am Ende des Jahres absolut nicht auf der Stromrechnung.

Zumal die ganzen Milchmädchenrechnungen ala "2 Stunden pro Tag..." etc. immer außer acht lassen, dass sie 4-5 Monate im Jahr die durch die verbrauchte Leistung der Grafikkarte weniger heizen müssen. :hust:
Einziges Argument das für mich hier zählt ist die Abwärme. Je mehr so ein Ding verbraucht, desto mehr/lauter muss ich Kühlen.
 
Zuletzt bearbeitet:
Wie lange liegt denn der max. Takt/Verbrauch an? Ich finde das amüsant, wie alle immer auf dem maximalen Verbrauch rum reiten. Der liegt bei mir nur an, wenn ich Furmark starte.

computerbase und co ermitteln den stromverbrauch in spielen.
 
das ding ist halt das hier viele keinen blick für die summe ihrer teile haben (oder haben wollen?).

mal so ein hypothetisches beispiel:
amd bringt eine grafikkarte auf 2080 (700€) niveau, für 650€.

was passiert dann? alle rasten aus, konkurrenz, konkurrenz! amd is back1!111. 2080 leistung und 50€ billiger!!

dass das ding dann nach 3 jahren nutzung aufgrund des höheren stromverbrauchs gar nicht günstiger war (sondern in summe evtl sogar teurer) will der sympatisant dann halt nicht wahr-haben.

Es geht aber nicht immer nur um billiger. Es geht alleine darum, das AMD endlich auch mal wieder was bringt, was allgemeine Preisveränderungen auf dem Graka Markt schafft. Sprich: wenigstens ein wenig Konkurrenz oder Wettbewerb muss wieder her.

Ich habe eine neue RTX2070 für 619,- Euro gekauft. Meine vorherige EVGA GTX1070 hat ca. 400,- gekostet. Da ich eine neue Graka brauchte MUSSTE ich Nvidia kaufen. Dazu noch mit einem RTX Gedöhnse, welches es nicht wirklich gibt!! Das alles nur, weil es

einfach kein anderes Produkt gibt in der Leistungsklasse. Das soll sich endlich ändern und wir alle haben was davon. Stromverbrauch ist mir sowas von egal.............ob bei Nvidia oder AMD. Hier jetzt ein Milchmädchen Rechnung aufzumachen wegen einer Stromrechnung,

ist einfach nur Haarsträubend. Keiner weiß, wie lang ein PC bei eine x-beliebigen Person auf Vollkraft läuft, um überhaupt irgendeine Rechnung aufzumachen.

BTW........bei Deiner Stellungnahme hast Du natürlich vergessen zu erwähnen, das auch eine RTX2080 "teurer" wird, wenn sie übertaktet wird.
 
computerbase und co ermitteln den stromverbrauch in spielen.

Wie gesagt - das haben die 2017 gemacht - seitdem ist einiges auf Treiberebene bei der Vega64 passiert. Es wird nicht richtiger wenn du es öfter erwähnst.
Ich kann verstehen das die Redakteure nicht nach jedem Treiber Update neue Benchmarks für alle GPUs machen können.
Lass dir aber von deinen Forenkollegen die sich mit der Vega beschäftigen eins sagen: Die Vega 64 läuft nicht mehr mit 300 Watt bei 1532 Mhz.
 
BTW........bei Deiner Stellungnahme hast Du natürlich vergessen zu erwähnen, das auch eine RTX2080 "teurer" wird, wenn sie übertaktet wird.

Bei Nvidia muss man früher eine neue Karte kaufen weil sie am Speicher geizen. Das kostet viel mehr Geld als 80 W mehr Verbrauch.
 
computerbase und co ermitteln den stromverbrauch in spielen.
Welchen Wert? Durchschnitt (über welche Zeit?) oder Peak, der mir angezeigt wird wenn ich in CPU-Z auf max. klicke?
 
wenn man bedenkt dass vega VII 6% weniger shader hat sehr interessant.

was mich interessiert ist wie sie mit dem soc clock umgehen. bei der vega braucht man 1110mhz memoryclock un den soc aif 1199 zu heben und damit massiv bandbreite hinzuzugewinnen. kann gut sein dass man da bei der vegaVII auch noch einige % Rauskitzeln kann, vor allem um die 1800+ mhz auch wirklich auszureizen.

momory uv wird wohl kaum von belang sein, da man da kaum spielraum gewinnt.

Braucht man nicht, man kann auch einfach per PowerPlay Table den SoC Takt anpassen.
Hast du eigentlich einen Link zu den prozentualen Zugewinnen bei anheben des SoC Takts?
Ich komme da nicht über 2-3% Mehrleistung heraus bei 1550/1125 MHz Realtakt.

Meine Vega 64 verbraucht bei einem Boostclock von 1580 nur 210 Watt - und das mit nur einem Klick im Treiber "Auto Undervolt". Und so schnell bricht deine Argumentationskette auseinander. typisch fanboy

Ist das dein Realtakt bei voller GPU Auslastung?
Ich spiele in 4K und komme bei meiner Vega nur sehr schwer über 1520 MHz.
Einstellungen sind dann beispielsweise P7: 1622 bei 1020 mV oder P7: 1644 bei 1075 mV
Ersteres taktet um die 1499-1520 und letzteres um die 1545 MHz.
Powertarget bei +50% und GPU Temp unter 70 Grad ...
 
Zuletzt bearbeitet:
Bei Nvidia muss man früher eine neue Karte kaufen weil sie am Speicher geizen. Das kostet viel mehr Geld als 80 W mehr Verbrauch.

ist das immer so ja..

also ich sehe hier grade leute sich die hände reiben, die sich darüber freuen das sie nun endlich ihre 1 jahr alte 650€ vega 64 los werden können, damit sie dann für 700€ eine vega 7 kaufen können, die dann etwa so schnell wie eine 1080ti ist (die sie für in summe weniger geld bei release vor 2 jahren hätten kaufen können.)



Welchen Wert? Durchschnitt (über welche Zeit?) oder Peak, der mir angezeigt wird wenn ich in CPU-Z auf max. klicke?

eigentlich steht ja alles im verlinkten cb test?
Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase
 
Zuletzt bearbeitet:
Die 2080 Karten, gibt es jetzt schon sehr oft für 579-599 Euro im Mindstar.

550 Euro + doppelter Speicher wäre ein Kaufgrund. Alles andere sehe ich als pro Nvidia.
 
also ich sehe hier grade leute sich die hände reiben, die sich darüber freuen das sie nun endlich ihre 1 jahr alte 650€ vega 64 los werden können, damit sie dann für 700€ eine vega 7 kaufen können, die dann etwa so schnell wie eine 1080ti ist (die sie für in summe weniger geld bei release vor 2 jahren hätten kaufen können.)

Sag mal, bist Du Anwalt von Beruf?? Das ist ja schon wieder so ein Winkeladvokat Satz! Bis das Gegenteil bewiesen ist, ist die Vega7 so schnell wie eine RTX2080. Mann muss nicht immer die Augenhöhe mit der 1080ti betonen und dabei wieder mal "vergessen" zu erwähnen, das auch die 2080 "nur" auf Augenhöhe mit der 1080ti ist. Ist die dann jetzt auch doof??

Die 2080 Karten, gibt es jetzt schon sehr oft für 579-599 Euro im Mindstar.

Jop, und kostete bei Release über 800,-!! Und über einen Release Preis der Vega7 mit 16GB HBM2 mit 699,- wird gemeckert??
 
Zuletzt bearbeitet:
Bis das Gegenteil bewiesen ist, ist die Vega7 so schnell wie eine RTX2080. Mann muss nicht immer die Augenhöhe mit der 1080ti betonen und dabei wieder mal "vergessen" zu erwähnen, das auch die 2080 "nur" auf Augenhöhe mit der 1080ti ist. Ist die dann jetzt auch doof??

und genau nichts anderes habe auch ich geschrieben? wo ist denn jetzt dein problem?

entschuldige das ich dir die Intelligenz zugesprochen habe, das du dir darüber im klaren bist, das 2080 und 1080ti doch ziemlich gleich-flott sind.
 
Zuletzt bearbeitet:
erstmal, winkeladvokat ist eine beleidigung und hier in Ö auch eine straftat.

2. nehmt es doch ruhig, wenn ihr ne nVidia habt und happy damit seit, dann kann euch die news egal sein.

wenn ihr ne radeon karte habt könnt ihr bald was besseres kaufen oder die jetzigen vegas eventuell im abverkauf abstauben.

Diese kleingeistigkeit ist doch wirklich ermüdend.

ich hatte ja extra nen thread aufgemacht, aber die mods haben dichtgemacht, damit diese streitigkeiten auch ja über 5 news ausgetragen werden.
 
Ist das dein Realtakt bei voller GPU Auslastung?
Ich spiele in 4K und komme bei meiner Vega nur sehr schwer über 1520 MHz.
Einstellungen sind dann beispielsweise P7: 1622 bei 1020 mV oder P7: 1644 bei 1075 mV
Ersteres taktet um die 1499-1520 und letzteres um die 1545 MHz.
Powertarget bei +50% und GPU Temp unter 70 Grad ...

Das ist von Applikation zu Applikation unterschiedlich.

Ich spiele in WQHD immer 1100 HBM Takt und PT +50% und hab mit manuellen Settings folgende Werte bei folgenden Applikation
ApplikationTakt - eingetragen in WMVolt - eingetragen in WMrealer Taktreale VoltStromverbrauch
Valley Benchmark DX111672112016221075250
Superposition
1080p Extreme
1652107015901020255
Battlefield 11632104515970995210

Ich kann nur für meine eigenen Erfahrung mit meiner Vega 64 sprechen die wie folgt sind:

Alles über 250 Watt Verbrauch lässt die Taktrate überproportional absinken. Da jede Applikation unterschiedlich Strom aus der Karte zieht muss der passende Volt Bereich für 250 Watt gefunden werden und für diesen Volt Bereich muss der beste stabile Takt gefunden werden.

Wer da keine Lust drauf hat und auf die 5% mehr FPS verzichten kann nimmt einfach die Auto Undervolt Settings. Beim Valley Benchmark DX11 kommt so zum Beispiel reale 1580 Mhz bei 210 Watt raus.
 
Zuletzt bearbeitet:
Nur UHD Benches weil man ja weiß, dass AMD bei höheren Auflösungen schon ohne den VRAM-Bonus einen Vorteil hat. ;)

WQHD und minimum FPS wäre wesentlich interessanter, wobei ja VEGA 56/64 auch schon nicht so schlecht abschneidet.
 
Ich bestätige das Du 1080ti geschrieben hast anstatt 2080. Man vergleicht ja mal gerne mit eine älteren Generation, um noch einen hinterlistigen Ellenbogeschlag abzulassen wie rückständig doch AMD ist.

Alles natürlich ganz beiläufig.............:coffee:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh