Erstes Custom-Design: ASUS ROG Strix Radeon Vega 64 OC Edition im Test

Machst deinem Namen alle Ehre du Checker.

Wie kann man Stromverbrauch mit freesync irgendwie gegeneinander aufstellen?!
Was hat das eine mit dem anderen zu tun?!

Worum geht es überhaupt in deiner Aussage? Das andere die das nicht so machen wie du Idioten sind und sich alles schön reden?

Du hast alles richtig gemacht und ich freue mich das du uns zeigen konntest wie blind wir doch sind.
Danke dafür.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich finde den Stromverbrauch persönlich auch zu hoch. Mal ganz abgesehen von den Kosten muss der Krempel auch gekühlt werden. D.h. heißt bei uns, dass ich die Klimaanlage daheim noch mehr laufen lassen müsste und somit doppelt zahle. Also nicht so eindimensional denken ;-) In weniger als 2 Wochen ist das für mich ein ernstes Thema..
 
Zuletzt bearbeitet:
Absolut sunshine, bei dem Wetter in Deutschland muss man aufjedenfall eine Klimaanlage laufen lassen. Ganze Jahr durchgängig.
 
Gut , Ich war früher AMD Fanboy , gaaaanz früher. Erste Doppel GPU gekauft , Rage Furry Max . SLI auf einer Karte sozusagen.

Treiber nie funktioniert , Schweine Teurer Rohrkrepierer , und irgendwie mittlerweile Nvidia Fanboy wenn man so will.

ABER die Diskussionen als absolutes K.O. Kriterium der Leistungsaufnahme muss Ich sogar als ziemlich grüner den Kopf schütteln.

Die 100 Watt interessieren mich unter Last als "Kosten" Null , wichtig ist nur wie Ich es wegkühle , ob Ich was am Setup ändern muss,
Kosten habe oder eben nicht - und wie die Lautstärke ist.

Mehr interessiert mich eher der Treiber Support und die möglichen Features.

Jedem das seine, aber der Vielzahl nehme Ich das Gejammer Zwecks der 100 Watt unter Last als einziges K.O. Kriterium nicht ab.
 
Alter Falter!!! 50°C im Idle Betrieb?! Und 79°C unter Last?! Mit diesem riesigen 6 Heatpipe Kühler?!

AMD hat wirklich eine Höllen-GPU konstruiert! :-(

Dazu noch dieser enorme Stromverbrauch?!

RX Vega 64 ist für mich damit entgültig gestorben! Hoffen wir mal das die Costum RX Vega 56 etwas humaner sind.
Falls die auch mehr als 220 Watt brauchen und um die 80°C laufen werde ich mir doch eine RX 580 kaufen und Vega komplett abschreiben!
Der Ganze neue Nerd-Stuff der in Vega drin ist, ist schon cool. Aber die Betriebsbedingungen einer Vega sind ja aktuell sowas von Steinzeitmäßig. In 2013 oder 2014 hätte ich so eine Karte bestimmt noch toll gefunden...

AMD muss wohl irgendwann die GCN Architektur beerdigen und etwas neues modernes ins rennen schicken wie sie es mit Ryzen im CPU Sektor gemacht haben.
 
Absolut sunshine, bei dem Wetter in Deutschland muss man aufjedenfall eine Klimaanlage laufen lassen. Ganze Jahr durchgängig.
Horizont? Meinen neuen PC stelle ich in 3-4 Wochen zusammen, weil ich übernächste Woche nach Kalifornien ziehe. Und dort ist das für mich ein durchaus vorhandenes Problem. Übrigens auch für einen deutlich größeren Markt als Deutschland...
 
Zuletzt bearbeitet:
Horizont? Meinen neuen PC stelle ich in 3-4 Wochen zusammen, weil ich übernächste Woche nach Kalifornien ziehe. Und dort ist das für mich ein durchaus vorhandenes Problem. Übrigens auch für einen deutlich größeren Markt als Deutschland...


Nur dumm das die Leute sich in Amerika dafür null interessieren, denn nicht vergessen dort kostet der Strom im Durchschnitt nichtmal 1/3 von dem was wir in Deutschland bezahlen. Und ja ob die Karte dann unter Volllast 100 Watt mehr zieht oder weniger macht am Ende den Unterschied auch nicht mehr aus zwischen Klimaanlage laufen lassen oder nicht. Und das die Karte ordentlich Strom zieht ist seit mehreren Wochen klar, wieso man das hier wieder aufrollen muss..
 
Als seinerzeit die berüchtigten "Thermi" Karten von NVidia kamen, haben deren Jünger die Dinger trotzdem wie die Wilden gekauft und der höhere Stromverbrauch gegenüber der AMD Konkurrenz wurde einfach weggeredet oder ignoriert.
was ist das denn für eine legendenbildung?

mag sein, dass hardcore-fanboys sich ihre argumente so zurechtlegen, wie es gerade passt. darüber hinaus darf man festhalten, dass 2010 ein sehr schwieriges jahr für nvidia war. gerade vor einführung der kleineren fermi-modelle war fermi ein kompletter flop, die gründe sind bekannt.

amd hat in 2010 deutlich an marktanteilen hinzugewonnen. nvidia? umsatz-warnungen, teils massiver kursverluste an der börse. aufgrund dessen und auch der strafzahlungen für die defekten notebook-chips war 2010 das jahr mit dem größten verlust der firmengeschichte.

Nvidia posts loss as sales weaken and faulty graphics chips lead to one-time charge

Grafikchips: AMD setzt sich vor Nvidia


soll also bitte keiner behaupten, die kunden hätten nvidia die fermi-karten aus den händen gerissen. die flagschiffe haben zurecht schlechte presse bekommen, wurden im netz verissen und haben zu deutlichen verschiebungen im grafikkartenmarkt geführt.

ich persönlich kann mich an keine grafikkarten-generation erinnern, die so dermaßen verspottet wurde. angefangen vom spott über den mockup bei der präsentation bis hin zu allerlei parodien (auch von amd). thermi? grillforce?
 
Zuletzt bearbeitet:
Alter Falter!!! 50°C im Idle Betrieb?! Und 79°C unter Last?! Mit diesem riesigen 6 Heatpipe Kühler?!

AMD hat wirklich eine Höllen-GPU konstruiert! :-(

Dazu noch dieser enorme Stromverbrauch?!

RX Vega 64 ist für mich damit entgültig gestorben! Hoffen wir mal das die Costum RX Vega 56 etwas humaner sind.
Falls die auch mehr als 220 Watt brauchen und um die 80°C laufen werde ich mir doch eine RX 580 kaufen und Vega komplett abschreiben!
Der Ganze neue Nerd-Stuff der in Vega drin ist, ist schon cool. Aber die Betriebsbedingungen einer Vega sind ja aktuell sowas von Steinzeitmäßig. In 2013 oder 2014 hätte ich so eine Karte bestimmt noch toll gefunden...

AMD muss wohl irgendwann die GCN Architektur beerdigen und etwas neues modernes ins rennen schicken wie sie es mit Ryzen im CPU Sektor gemacht haben.

Dann kauf Dir gleich die RX580, die custom 56 werden auch das gleiche Bild zeigen, wie die Asus hier. Mehr Takt halten und mehr verbraten.
Du kannst aber auch selbst etwas Hand anlegen, tut auch nicht weh [emoji6], undervolte die Karte, finde den Sweetspot und hab Spaß damit. Geht ganz einfach. Schau mal im Vega Sammler vorbei, da wird Dir geholfen [emoji106]


Gesendet von iPhone mit Tapatalk
 
Alter Falter!!! 50°C im Idle Betrieb?! Und 79°C unter Last?! Mit diesem riesigen 6 Heatpipe Kühler?!

AMD hat wirklich eine Höllen-GPU konstruiert! :-(

Dazu noch dieser enorme Stromverbrauch?!

RX Vega 64 ist für mich damit entgültig gestorben! Hoffen wir mal das die Costum RX Vega 56 etwas humaner sind.
Falls die auch mehr als 220 Watt brauchen und um die 80°C laufen werde ich mir doch eine RX 580 kaufen und Vega komplett abschreiben!
Der Ganze neue Nerd-Stuff der in Vega drin ist, ist schon cool. Aber die Betriebsbedingungen einer Vega sind ja aktuell sowas von Steinzeitmäßig. In 2013 oder 2014 hätte ich so eine Karte bestimmt noch toll gefunden...

AMD muss wohl irgendwann die GCN Architektur beerdigen und etwas neues modernes ins rennen schicken wie sie es mit Ryzen im CPU Sektor gemacht haben.

Die Lautstärke hast du aber schon mit betrachtet? Leise, schnell und kalt geht halt nicht. Irgendwo muss man Kompromisse eingehen
 
Schade das nirgends auf die CHil funktion der vegakarten eingangen wird tolles funktion zum stromsparen. Jeder stinkert gegen die Vega Karten warum ? scheis auf den Strom ..... manche rauchen 2-4 schachteln am Tag Zigaretten, und wird auf geregt das ne Grafikkarte 200watt braucht :) bei mit brauch die VEGA 64 zwischen 80-130watt ..... alles läuft flüssig dank Freesync .... ist die erste AMD zeit 10 Jahren ... wen man überlegt was ein Monitor mit gsync kostet der aufpreis ist es nicht wert ...... meine meinung tolle karte von ASUS hoffe weitere andere Anbieter folgen.
 
Nein, haben wir bisher nicht. Schaue ich mir aber vielleicht noch an. Leider wird die Arbeit auf dem Schreibtisch nicht weniger. Besteht denn mehr Interesse daran?

Es wäre mal toll wenn ihr in Erfahrung bringen könntet wann denn die restlichen Features von Vega aktiviert werden! (Wie z.B. die Primitive Shader)
 
Chil ist doch Quatsch im Quadrat. Effizienz ist aufgenommene Energie durch Leistung. Die Leistung reduzieren ändert doch am Effizienz Defizit nichts. Bei UHD erübrigt sich schon der Gedanke an den Mist. Wer Leistung in FHD Fliegengitter über hat, kann gleich eine billigere Karte kaufen.
Für die "100W" gilt doch das selbe. Über den Verbrauch lässt sich ja noch streiten aber dann soll doch bitte auch Leistung raus kommen und nicht nur die Bude warm werden. Dazu scheint ja selbst die Custom Karte an der Temperatur zu hängen und der Kühler zu limitieren. UV ist quasi Pflicht.

Es wäre mal toll wenn ihr in Erfahrung bringen könntet wann denn die restlichen Features von Vega aktiviert werden! (Wie z.B. die Primitive Shader)

Ich tippe mal auf den Start von Wolfenstein als Werbetitel schlechthin. Da dürften ala Doom und dank FP16 gut 40% mehr Leistung als im Durchschnitt drin sein. Vega ist ja eine einzige Baustelle. Die Streuung bei älteren Titeln ist enorm.
 
Zuletzt bearbeitet:
Und diese Personen übertakten gerne den CPU, lassen überall Licht an und und schmeißen für 2 Tiefkühlbrötchen den 500Watt Herd an.
Wenn ich mir 100Watt nicht leisten kann dann muss ich überlegen ob ich überhaupt mir das PC Hobby leisten kann.
Na und?

Macht das den Verbrauch und damit den Nachteil der AMD GPUs irgendwie wett?

Wenn 2 GPUs gleich schnell sind, warum sollte ich dann eine nehmen die mehr Strom verbraucht? Völlig unabhängig von meiner finanziellen Situation?


Komischer Weise aber immer nur bei AMD GPUs. Als seinerzeit die berüchtigten "Thermi" Karten von NVidia kamen, haben deren Jünger die Dinger trotzdem wie die Wilden gekauft und der höhere Stromverbrauch gegenüber der AMD Konkurrenz wurde einfach weggeredet oder ignoriert.

Das kann man mal wieder überhaupt nicht vergleichen... welche Alternative hatte man denn? Richtig, keine, denn Nvidia hatte die Leistungskrone. Also gab es gar keinen Vergleich.

Hier sieht man 2017er Nvidia Karten.... und amd karten mit der Energieeffizienz von 2014... also kauft man Nvidia.

Und dieser "Nvidia Jünger" Quatsch.... das würde am ehesten bei den AMD Leuten passen die bewusst das schlechtere Gesamtpaket kaufen, weil sie "ihren" Hersteller unterstützen wollen.
Dürfen sie ja auch tun... aber dann alle anderen die ihren Kauf von dem gelieferten Produkt abhängig machen und nicht aus Nächstenliebe zum Hersteller als Nvidia Jünger abstempeln? :hmm: :stupid:
 
Also Leute ihr sieht teilweise schon genial. Ihr regt euch wegen 100% Watt auf. Leute man braucht aber auch keinen i7. Ein i5 braucht weniger Strom und reicht zum spielen. Übertakten brauch auch mehr Strom. Ein Monitoren, mit HD und 60Hz braucht auch weniger als WQHD oder 4K mit 144Hz oder mehr. Auch zwei Monitore brauchen mehr Strom als einer. Wasserkühlung braucht auch mehr Strom als Luftkühlung. Da will ich gar nicht Reden davon was man sonst noch so alles im Haushalt hat. Wenn man schon von Energiesparen redet, dann aber auch richtig. Das Forum ist voll von den Dingen von denen ich gerade geredet habe. Da muss sich jeder wirklich zu erst selbst an der Nase nehmen. Übrigens eine GTX 1060 braucht auch weniger Strom als ein GTX 1080. Die reicht auch zum speilen. Da muss man im vergleich zur GTX 1060 nicht die Stromfressente GTX 1080 nehmen. Oder?


Ich finde das Fazit auch zu negativ. Hier spielt wohl die Enttäuschung das sie Nvidia nicht überholt auch mit.

Ich weiß nicht ganz was hier habt. Die Karte liegt bei einigen Spielen vor der GTX 1080 bei anderen dahinter. AMD ist aber bei der RX 580 um einiges mehr hinterher gewesen. Sie haben es aber geschafft so einiges an Boden wieder gut zu machen. Wird schon noch werden. Da kann man nur sagen weiter so und wenn der Preis passt warum nicht?

Nvidia scheint das auch anders zu sehen als die meisten hier. Sonst wurden sie nicht mit einer GTX 1070TI auf einmal ums Eck kommen. Die auch wieder mehr Strom brauchen wird als die GTX 1070 jetzt. Das ist so wie mit den AMD Ryzen, oder glaubt hier wirklich einer der neue i7 8700(K) wäre ein 6 Kern geworden wenn der Ryzen nicht auf den Markt gekommen wäre? Dann wäre es nur ein 4 Kern geworden mit um die 10% mehr Leistung und das hätte man gefiert wie den Jungstentag.
 
Für ältere und anspruchslose Titel gibt es den Framelimiter. Der schneidet dann sauber ab und pfuscht nicht in der Anwendung. Chil bringt hier eh kaum was wenn die GPU eh nicht ausgelastet ist. UHD ist wiederum eine ganz andere Hausnummer. Bei Titeln wie Stalker wird noch AA zugegeben. Das sieht dann Qualitativ gigantisch aus. Die 56er hat genug Einstellungen um da ewig dran zu testen. Alleine die Stabilität ist schon enorm besser geworden. BSOD waren ja direkt reproduzierbar.
 
Absolut sunshine, bei dem Wetter in Deutschland muss man aufjedenfall eine Klimaanlage laufen lassen. Ganze Jahr durchgängig.
[emoji106]

Gesendet von meinem SM-G950F mit Tapatalk
 
Jeden der seinen Strom selbst bezahlen muss und ob der Rechner 400 oder 500 Watt zieht ist schon ein Unterschied.
Aber wie immer kommt es am Ende natürlich auf den Preis an denn eine GTX1080 bekommt man bereits ab 499Euro.
Solange Vega 64 Modelle nicht mehr kosten heißt es höherer Stromverbrauch bei AMD vs. Nvidia G-Sync Strafgebühr.

Verbrauch in Battlefield 1, ist annehmbar oder ?
hbm.jpg

BTT:

also irgendwie schenkt sich diese Karte nichts zur Air Black. OK, ist bestimmt leiser und evtl. könnte man mehr übertakten. Die Taktenraten im Test haben ja überhaupt nichts mir "OC" Version einer Karte zu tun.

- - - Updated - - -

Schade das nirgends auf die CHil funktion der vegakarten eingangen wird tolles funktion zum stromsparen. Jeder stinkert gegen die Vega Karten warum ? scheis auf den Strom ..... manche rauchen 2-4 schachteln am Tag Zigaretten, und wird auf geregt das ne Grafikkarte 200watt braucht :) bei mit brauch die VEGA 64 zwischen 80-130watt ..... alles läuft flüssig dank Freesync .... ist die erste AMD zeit 10 Jahren ... wen man überlegt was ein Monitor mit gsync kostet der aufpreis ist es nicht wert ...... meine meinung tolle karte von ASUS hoffe weitere andere Anbieter folgen.

Die Funktion brauchst du nicht. Wenn nichts los ist geht die Spannung runter und im Idle verbraucht meine alte Nachttischlampe mehr.
 
Es wäre mal toll wenn ihr in Erfahrung bringen könntet wann denn die restlichen Features von Vega aktiviert werden! (Wie z.B. die Primitive Shader)

Bis auf das bereits erwähnte Wolfenstein äußert man sich derzeit nicht weiter dazu. Das ist aber alles auch eher ein langfristiger Prozess.
 
Nur dumm das die Leute sich in Amerika dafür null interessieren, denn nicht vergessen dort kostet der Strom im Durchschnitt nichtmal 1/3 von dem was wir in Deutschland bezahlen. Und ja ob die Karte dann unter Volllast 100 Watt mehr zieht oder weniger macht am Ende den Unterschied auch nicht mehr aus zwischen Klimaanlage laufen lassen oder nicht. Und das die Karte ordentlich Strom zieht ist seit mehreren Wochen klar, wieso man das hier wieder aufrollen muss..
Du kennst also alle Leute in den USA? Wahnsinn, du musst ja gut rumgekommen sein. Wie gesagt: Erweitere deinen Horizont.
Wir zahlen dort etwa die Hälfte hiesiger Strompreise, allerdings gehen im Hochsommer (mit Temperaturen weit über 30°c) auch gerne mal $ 200-400 im Monat weg. Geh lieber noch ein paar Jahre in die Schule, vielleicht hilft es dir.

Für mich war VEGA relevant, aber das Paket im Vergleich zur 1080 stimmt für mich einfach nicht. Ich hoffe noch auf Besserungen im Herstellungsprozess und gute UV Ergebnisse.

@Sheena: Da ich deinem OT nicht zu viel Reaktion geben will gibt es das hier nur als Edit. Ich beziehe mich bei meinen Informationen auf Fakten, weil 70% meiner Verwandschaft aus den USA stammen und dort leben. Meinen Intellekt anzuzweifeln ist süß und zeigt doch umso mehr, dass du hier nur als Internettroll um dich beißt. Daher ist das auch meine letzte Antwort zu deinem niveau- und substanzlosen Geschwafel. Viel Spaß am Stammtisch.

Average Energy Prices, Los Angeles-Riverside-Orange County – August 2017 : Western Information Office : U.S. Bureau of Labor Statistics
 
Zuletzt bearbeitet:
OK, danke für die Test.
Sieht so aus, als hätten die Käufer einer Referenzkarte diesemal doch nicht alles falsch egmaacht. Ich für meinen Teil werde mit bei gelegenheit einfach einen guten AIO Wakü auf die ReferenzVega schnallen. Ich tippe hier auf einen Preis von nicht unter 600 Euro.
Die Asus Karten sind imer bei den teuersten.
 
Wenn ich das so Lese habe ich eine echte Perle^^ 1,1V bei 1700MHZ und POWER target auf 30% und für 1600MHZ nur 1020V ;D

Gut das ich die Ref Karte Umgebaut habe habe sogar noch eine Kühlere GPU als die ASUS hier im Test!
 
Du kennst also alle Leute in den USA? Wahnsinn, du musst ja gut rumgekommen sein. Wie gesagt: Erweitere deinen Horizont.
Wir zahlen dort etwa die Hälfte hiesiger Strompreise, allerdings gehen im Hochsommer (mit Temperaturen weit über 30°c) auch gerne mal $ 200-400 im Monat weg. Geh lieber noch ein paar Jahre in die Schule, vielleicht hilft es dir.

Für mich war VEGA relevant, aber das Paket im Vergleich zur 1080 stimmt für mich einfach nicht. Ich hoffe noch auf Besserungen im Herstellungsprozess und gute UV Ergebnisse.


Man kann sich auch informieren ohne rumgereist zusein. Gibt da nette Statistiken zu den Strompreisen und wieviel ein Amerikaner im direkten Vergleich zu einem Deutschen an Strom verbraucht (und ja da gibt es auch Statistiken zu den verschiedenen Bundesstaaten). Wenn du sowas nicht verstehst, denke ich nicht das du mit deiner Intelligenz überhaupt in Amerika ankommst. Ins richtige Flugzeug zusteigen überfordert dich vermutlich.
 
Zuletzt bearbeitet:
Für mich sind Amerikaner ein Beispiel des puren verschwendens von Rohstoffen des 21.Jahrhunderts.

Gesendet von meinem SM-G950F mit Tapatalk
 
Interessant ist das ist das keiner weis wann man die Karte kaufen kann.
Asus aber schon die Vega 56 auf seiner Seite listet.

https://www.asus.com/de/Graphics-Cards/AMD-Series-Products/
 
Technisch finde ich die Vega sehr interessant. Allerdings ist die Effizienz/Stromverbrauch mehr als nicht Zeitgemäß. Hier liegt Nvidia eindeutig sehr weit vorne.
Vielleicht kann AMD mit der nächsten Revision zumindest beim Stromverbrauch nachbessern.
Mit dem Preis könnte AMD allerdings wieder punkten. Leider wird der Mining-Boom einen konkurrenzfähigen Preis schwierig machen.
Dafür findet AMD wieder herum einen guten Absatz, dank dem Mining. Gut für den Umsatz von AMD, schlecht für die Gamer.....
 
Kleine Information: Undervolting Tests zur ASUS ROG Strix Radeon Vega 64 OC Edition erscheinen heute Abend. Eine kleine Vorschau: Leistungsplus von 4-6 % bei 30 W weniger Leistungsaufnahme.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh