Radeon RX Vega: Auf dem Weg zu den Partnern und mit enormer Leistungsaufnahme

@sTOrM41 Wie viele Artikel mit "Updates" siehst du denn? Ich erinnere mich noch gut daran, als meine alte 7970 rauskam, wie sie gegen die 680 gesetzt wurde. Am Anfang war die 680 marginal schneller, später wurde sie deutlich von der 7970 überholt. Hätte es in der zwischenzeit nicht die GHz edition gegeben, wäre das total an den Leute vorbeigeflogen.

Die Daten kannst du dir zwar irgendwie in Zwischentests zusammenklauben, aber da bist du auch auf Gedeih und Verderb darauf angewiesen, dass die nicht von alten Tests einfach eingefügt, sondern tatsächlich im Testparkour "neu" gemessen werden - sofern sich an den Treibern was geändert hat.

Es gibt zwar hier und da ein paar Seiten die das machen, generell siehst du in den heutigen Benchmarks (vor allem was CPUs angeht) nur noch 1080, 1080 Ti und Titan Xp. So ne overclockte RX580 als "check" dazwischen ist anscheinend "out".

@fideliovienna 1440p mit 144 Hz knallt auf "ultra" auch ne 1080 Ti an die Leistungsgrenze. Tweaken kannst du aber immer. (Ist halt nur ne Frage, wie viel Zeit du da reinstecken willst - die meisten keine 2 Minuten, die wollen einfach nur zocken - was auch verständlich ist)

Nur ist das hier halt Luxx und wir sollten es genauer wissen wollen. Mir isses egal ob AMD oder Nvidia irgendwas in den Sand setzt - beide Firmen haben da in der Vergangenheit einen Sack voller peinlicher Dinge. Wenn der Vega Vollausbau aber kein Föhn wird, dann wird die Karte trotz höheren Stromverbrauchs trotzdem für viele interessant sein.

Vor allem Menschen die nen Ryzen haben könnten mal mit sowas wie heterogenem Speicherverhalten rumspielen. Ist zwar nix für Normalo-User, aber zu wissen was geht ist, warum ich mir die Reviews angucke. :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nennt man das nun Fake News liebe Redaktion?

Radeon RX Vega: Einordnung der Spekulationen zur Leistungsaufnahme - ComputerBase

Zitat: Videocardz hat die Aussage zum Stromverbrauch in „[RX Vega] braucht verdammt viel Strom“ übersetzt. Von „verdammt viel“ ist in dem Posting aber keine Rede, eher von „verbraucht so viel wie nötig“. Dazu passt auch eine weitere Aussage derselben Quelle, die einerseits mit einem Augenzwinkern darauf hinweist, dass der Stromverbrauch immer in Relation zur erzielten Leistung zu sehen ist, und andererseits angibt, letztendlich ja gar keine noch nicht verfügbaren Informationen verraten zu haben, weil ein relativ hoher Stromverbrauch bereits von den öffentlich bekannten Grafikkarten mit Vega abgeleitet werden konnte.

Ich bitte darum die News abzuändern. Danke!
 
Computerbase hat es schön geschrieben.

Videocardz hat die Aussage zum Stromverbrauch in „[RX Vega] braucht verdammt viel Strom“ übersetzt. Von „verdammt viel“ ist in dem Posting aber keine Rede, eher von „verbraucht so viel wie nötig“. Dazu passt auch eine weitere Aussage derselben Quelle, die einerseits mit einem Augenzwinkern darauf hinweist, dass der Stromverbrauch immer in Relation zur erzielten Leistung zu sehen ist, und andererseits angibt, letztendlich ja gar keine noch nicht verfügbaren Informationen verraten zu haben, weil ein relativ hoher Stromverbrauch bereits von den öffentlich bekannten Grafikkarten mit Vega abgeleitet werden konnte.

Doch auch selbst dann ist die Einordnung des Verbrauchs ohne Informationen über die Leistungsfähigkeit noch nicht möglich. Zuletzt hatte AMD eigene Referenzdesigns am oberen Ende der Leistungsgrenze angesetzt, Partner konnten kaum schnellere Grafikkarten auf den Markt bringen. Im Vergleich zur von Nvidia mit 180 Watt Verbrauch angegebenen GeForce GTX 1080 Founders Edition (Test) zeigen Partnerkarten der GeForce GTX 1080 im Test allerdings bis zu knapp 20 Prozent mehr Leistung, verbrauchen unter Last dann aber auch 130 Watt mehr.

Leider versagt HWLX bei der Recherche mal wieder, der Videocardz Artikel ist mMn. deutlich übertrieben. (Besuche die Seite selbst mehrmals täglich)
 
Zuletzt bearbeitet:
Nach dem 480 Stromzug wird AMD wohl genau darauf achten, dass bestimmte Normen eingehalten werden. Deshalb werden die ihre Karten wohl auch danach trimmen, dass im "Stock Modus" alles Banane aussieht.

Nur: Die WaKü Variante tritt ja schon mit 375W auf und ist locker außerhalb der ATX-Norm und die Custom-Varianten werden wohl genau darauf ausgelegt sein. 2x8Pin wird da wohl der Hausstandard sein und entsprechend werden wir auch Kühlmonster mit entsprechenden Taktraten mind. 1600 sehen.

Ist natürlich alles Spekulation bis wir einen ordentlichen Benchmark haben, HWLuxx daraus nen Strick zu drehen find ich aber übertrieben.
 
abwarten und Tee trinken, 2018 oder so kann man sich dann selbst eine Meinung bilden.:-[
 
@sTOrM41 Wie viele Artikel mit "Updates" siehst du denn? Ich erinnere mich noch gut daran, als meine alte 7970 rauskam, wie sie gegen die 680 gesetzt wurde. Am Anfang war die 680 marginal schneller, später wurde sie deutlich von der 7970 überholt. Hätte es in der zwischenzeit nicht die GHz edition gegeben, wäre das total an den Leute vorbeigeflogen.

Die Daten kannst du dir zwar irgendwie in Zwischentests zusammenklauben, aber da bist du auch auf Gedeih und Verderb darauf angewiesen, dass die nicht von alten Tests einfach eingefügt, sondern tatsächlich im Testparkour "neu" gemessen werden - sofern sich an den Treibern was geändert hat.

Es gibt zwar hier und da ein paar Seiten die das machen, generell siehst du in den heutigen Benchmarks (vor allem was CPUs angeht) nur noch 1080, 1080 Ti und Titan Xp. So ne overclockte RX580 als "check" dazwischen ist anscheinend "out".)

wenn du dir einen aktuellen benchmark zu einem aktuellen spiel anschaust und da dann r9 390 und/oder furyx vertreten sind, dann kannst du dir sicher sein dass das keine alten werte sind.
zb:
Prey im Benchmark (Seite 2) - ComputerBase
Dirt 4 im Benchmark-Test (Seite 2) - ComputerBase

warum man cpu benchmarks nicht unbedingt mit einer rx 580 macht sollte eigentlich klar sein?

die karte ist nur etwa so schnell wie eine übertaktete, 4 jahre alte, r9 290x und verglichen mit einer 1080ti einfach lahm.

mit so einer mittelklasse graka läuft man gefahr bei einem cpu benchmark ins gpu limit zu geraten und dann schaut nen fx6300 auf einmal genau so schnell aus wie nen ryzen 1800x (was natürlich quatsch ist).
 
Zuletzt bearbeitet:
die verlinkten tests bestätigen doch nur genau das, was du zitiert hast, oder versteh ich den zusammenhang grad nicht? o_O
 
genau das meine ich doch

Nvidias Pascal-Modelle sind derzeit die besten Grafikkarten für Prey – durch alle Preisklassen hinweg. Dies liegt daran, dass die Konkurrenzprodukte von AMD kleinere Schwierigkeiten mit dem Spiel haben. Während sich zum Beispiel die Radeon RX 580 normalerweise erfolgreich mit der GeForce GTX 1060 duelliert, hat die AMD-Grafikkarte in Prey keine Chance. In 1.920 × 1.080 beträgt der Rückstand neun Prozent und steigt in 2.560 × 1.440 auf 13 Prozent und in 3.840 × 2.160 auf gar 20 Prozent an. Dies ist ein sehr ungewöhnliches verhalten für die Radeon RX 580, was vermuten lässt, dass Prey mit AMD-Grafikkarten noch nicht einwandfrei läuft.

An dem Bild ändert sich auch mit den anderen AMD-Grafikkarten nichts. So hat die Radeon R9 390 das Nachsehen mit der GeForce GTX 970. Dasselbe gilt für die Radeon R9 380 im Vergleich zur GeForce GTX 960. Und beides ist mittlerweile nur noch selten der Fall, eher läuft es anders herum.

Ein Blick in die damaligen Benchmarks zu Dishonored 2 zeigt, dass dies bei Spielen von Arkane Studios häufiger der Fall ist. In Dishonored 2 schneidet zum Beispiel die Radeon RX 480 im Verhältnis noch schlechter als die GeForce GTX 1060 ab. Mittlerweile schneiden die AMD-Grafikkarten in Dishonored 2 aber deutlich besser ab, sodass dies mit der Zeit auch in Prey der Fall sein könnte.
 
Zuletzt bearbeitet:
ich denke das wir hier grade aneinander vorbei reden.

selbverständlich können grafikkarten mit neueren treibern oder spielen besser performen als bei hardware-release.

es ist allerdings nicht so das man ältere hardware nicht mehr testen würde (was oben behauptet wurde).
 
dann hab ichs falsch verstanden ;)
 
Warten wir die finalen Tests doch erstmal ab.
In Sachen (Real-) Verbrauch muss die TDP nicht unbedingt ein realitätsnaher Wert sein, gerade unter Wasser.
Die "großen" Chips lassen sich mit ner starken Kühlung (zB: custom wakü) meist massiv im Hunger zügeln, siehe 290(x).
 
@sTOrM41

Zwei Sachen zum erörtern:

1) CPU Benchmarks können durch overhead verzerrt werden, wie Adored TV es gezeigt hat. Deswegen hab ich gerne in einem Bench-Parkour mehr als nur eine GPU, um Eventualitäten auszuschließen. 90% der Benches da draussen ignorieren das. In diesem Fall setzt man halt einfach ne 1060 und guckt sich die Ergebnisse an. In einigen Situationen kommt ne RX580 an eine 1070 ran, in anderen wird sie von einer 1060 geschlagen. Genau solche Sachen sind imho untersuchungswürdig.

2) Bei den reinen Graka-Benches wird halt ein Release-Artikel rausgebracht und das wars dann meistens. Hast du auf HW-Luxx sowas wie "Wir kommen ein Jahr später mal drauf zurück" Artikel gesehen, oder Benches zu neuen Treibern? Es gibt meistens nur ne News und das wars. Viele Leute interessieren sich für Preis/Leistung und wenn die Leistung stimmt (aka 1080p oder 1440p in der oberen mittelklasse) möchte man vielleicht wissen, welche Graka da ein gutes Verhältnis bietet.

Diese Infos sind zwar da, die muss man sich aber recht mühselig zusammenkratzen. Meine Kritik ist, dass es in der heutigen Zeit, wo tausende von Benchmarks vorhanden sind, es keine rollende Datenbank zur Übersicht gibt. PCGames Hardware hat zwar ne Art Grobübersicht, aber wirklich wohl fühl ich mich dabei nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh