Vermeintliche Benchmarks der Radeon RX Vega mit neuem Treiber aufgetaucht

Wie die Leute sich hier aufregen, dass man bisher eher durchwachsene Leistung sieht bei:

1) einer Prosumer Karte die im Entwickler/Rendering-Bereich unterhalb der 5000€ Marke einreiten soll UND NICHT IN Gaming-PCs ( Frontier Edition ) und dazu noch KEIN TBR aktiv hat ( welches ev. nachgereicht wird via Treiber )

2) absolut KEINEN finalen Treiber, die auch nur ansatzweise brauchbar und vergleichbar sind

-> Wartet doch bitte einfach das Release ab und gut ists.

Bei Ryzen erwartete man deutlich weniger, als sich letzten Endes herausstellte.

Bei Intel erwarte ich jedes Mal deutlich mehr ( wenigstens die 15% von denen Intel immer redet ) und was kommt - heiße Luft und ne alte Tube Zahnpasta unter den Deckel.

Klar, Intel legt vor, aber in Sachen Versprechen einhalten ... *hust*

PS: Ich fahr beide System - Intel und AMD, dazu aktuell nur nVidia Karten. Nicht, dass es wieder heißt, ich würde AMD bevorzugen oder so. Ist meine erste AMD CPU seit Jahren und ich erhoffe mir ebenso einen Vorteil für alle Nutzer von Vega in bezug auf nVidia, wie es aktuell bei AMD vs Intel ist.

Einfach etwas Konkurrenz, was für mehr Innovation und Preiskampf sorgen könnte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bin ich blind oder gibt es keinen Link zum angeblichen Ergebniss?? Ohne Link wäre es ja keine News wert............... :)
 
@hw-mann??? Du hast aber schon gesehen, dass die vermutliche rx gebencht wurde, und dort nicht wirklich brillierte?
 
Projiziere deine Einstellung nicht auf andere, das kann auch ein Einschätzungs Bumerang sein, ohne das du es merkst.

Darf er aber, da sich seine Einstellung mit der meinen deckt.
Und das sage ich als nVidia-Graka-Besitzer (1060er).

Werde mir die Vega-Karte sobald verfügbar holen, allein schon wegen Freesync. Der Threadripper kommt gleich mit in den Warenkorb. ;)
 
Du kennst also schon die Resultate der RX Vega unter voll aktivierter Architekturausnutzung? :shake:
Wo genau schreibe ich das?

Wie kann man das irgendwie ernsthaft positiv sehen oder schön reden wollen, sollte es so kommen, wenn AMDs ~600€ RX Vega mit 4096 Shader / 484mm² Chip + 8GB HMB2 bei 300W Leistungsaufnahme aufwärts nach so langer Zeit (Verspätung) nur etwas schneller wäre als nVidia's ab 550€ GTX 1080 FE mit 2560 Shader / 314mm² Chip + 8GB GDDR5X bei ~180W Leistungsaufnahme :confused: :-[ :hmm:
 
@SFVogt es gibt Anwendungsbereiche, wo eine AMD Karte wünschenswert ist - und in diesen Bereichen freuen sich die Leute, wenn sie 1080 Ti Performance bekommen.

Diese Bereiche sind: Freesync, Freesync 2, Linux und etwas exotischer Prosumer/Computing. Dort geht es weniger darum ob AMD jetzt die Performance-Krone hat, sondern ob die Leute auf ihren Bildschirmen mit Sync-Technologie endlich zufriedenstellende Framerates bekommen.

Der Stromverbrauch ist dabei ein sekundärer Faktor. Ergo ja: Es gibt positive Aspekte an einer schnellen AMD GPU, auch wenn sie P/L technisch mit Nvidia gleich aufliegt und mehr Strom verbraucht.
 
Ich verstehe nicht, wie man sich so aufregen kann. Ich bin mit der derzeitigen Situation absolut glücklich.
Ich habe gerade meine 390 zum Neupreis verkaufen können und warte nun entspannt auf eine Karte mit mindestens doppelter Leistung und kann meinen Freesync Monitor weiter sinnvoll nutzen.
Mit einem NVIDIA Kauf hätte ich mich etwas verarscht gefühlt. Es ist ja schön dass Preise sinken.. aber innerhalb weniger Monate von ca 750€ auf 500€?
Also ich kenne genügend Leute die auf Vega warten.. und mir persönlich ist es egal ob ich nun 110 oder 130 fps habe. Besser als meine 50fps knapp an der Freesync Grenze wird es auf jeden Fall.
Als ich meine 390 gekauft habe, lag sie hinter einer 970. Beim Verkauf lag sie überall vorne. Ähnliches erwarte ich bei der Vega auch.
 
GN hat Vega FE und Fury X gleichgetaktet und einen Vergleichsbenchmark rausgebracht.
https://www.youtube.com/watch?v=0l6Uc5kBrxY

TL;DR: Vega FE und Fury X sind praktisch identisch in der Performance bei gleichem Takt.

Dinge, die wir lernen:
1.) In Stock vs underclocked Modus hat der Stock-Takt einen Gewinn von ~25%, während der Takt (bei 1600 - ich hab noch nicht rausgefunden was der Durchschnittstakt war) um ~50% höher ist. Somit skaliert die Vega FE mit 1/2 Performance zum Takt. Da der HBM-Takt konstant gehalten wurde, sind dies reine Core-Taktunterschiede.
2.) Da Vega FE und Fury X bei gleichen Einstellungen praktisch identisch laufen (nicht in allen Fällen - siehe Punkt 5), ist davon auszugehen, dass die Vega-Architektur vom Treiber nicht verwendet wird und mit Fury X Treiber läuft. Die Performance-Überlappungen sind schlichtweg zu stark, als das es eine andere (sinnvolle) Erklärung geben könnte.
3.) Somit ist auch klar, dass mit Treiberupdates enorme Potentialgewinne möglich sind und nicht wie allg. beschrieben "nur marginale" Verbesserungen. Hier muss die Presse aufpassen nicht zu tief zu stapeln. Einen solchen Launch hat es noch nie gegeben (im negativen Sinne) - weshalb potentielle Gewinne enorm sein können. Hier mit "historisch begründeten" 5% - 10% zu kleckern ist untertrieben, da "historisch begründet" Launch Treiber halbwegs ordentlich die Architektur benutzt haben. Das ist bei Vega nicht der Fall.
4.) Schätzungen, dass Vega-Treiber im Polaris Modus weniger "IPC" haben als Polaris selbst können nun als entkräftet bewertet werden. Dies beruhte auf der Annahme einer nahezu linearen Skalierung mit dem Takt. Da wird hier aber eine nicht-lineare Skalierung sehen, sind eventuelle Differenzen zu Polaris eben dieser geschuldet. Das sind sowohl gute als auch schlechte Nachrichten. Gut, weil Vega nicht (immer) unter Polaris Treibern leidet (es kommt Polaris Niveau raus und nicht weniger), schlecht für das Treiber Team, die jetzt daran arbeiten dürfen die Skalierung zu verbessern (und somit die "IPC")
5.) In den Tests wo es Unterschiede in der IPC gibt (und wo die Vega FE deutlich benachteiligt wird - siehe Specviewperf) scheinen die Polaris Treiber der Vega-Architektur zu schaden. Dies könnte mehrere Ursachen haben, wie zum Beispiel Software-Optimierungen in den Programmen für bestimmte Karten, die bei "generischen" GPUs nicht erkannt werden. Es ist auch möglich, dass der Treiberoverhead von Polaris der Vega Architektur in speziellen Umgebung mehr schadet als Polaris selbst.

Nachtrage: Die Resultate machen das ganze Thema leider noch verwirrender als es ohnehin schon ist. Diese Ergebnisse führen zu zusätzlichen Spekulationen, nicht weniger. Gnah!
 
Zuletzt bearbeitet:
@Rattemann
Sry, aber selten so einen Müll gelesen...
Bitte informiere dich erstmal warum es free-synch/g-synch gibt und welche Vorteile diese gegenüber v-synch bringen...

V-Sync syncronisiert die GPU Frames mit dem Monitor. Sinken die Frames unter die Rate des Monitors ergeben sich negative Effekte.

Freesync und GSync machen genau das Gegenteil. Sie passen die Rate des Monitors an die der GPU an (innerhalb einer Range). Liefert die GPU mehr power als der Monitor hergibt entsteht exakt der selbe Effekt wie bei V-Sync.
Dabei ist Freesync eine Softwarelösung und G-Sync eine Hardwarelösung.

Wo genau bin ich nun also schlecht informiert? Wo genau haben nun ein Freesync oder GSync Monitor einen Vorteil wenn er mit einer schnellen (1080/1080ti Level) Karte kombiniert wird?
Das ist bestenfalls bei 144hz Monitoren überhaupt relevant und auch sicher nicht bei 1080p Dingern. Weder geben Hardwareumfragen dieser Zielgruppe eine Relevanz im Prozentbereich, noch meine Arbeit in der ich jeden Tag dutzende Systeme von verschiedensten Leuten sehe.

Wenn man die Funktionsweise bedenkt, dann wird es schwer den nötigen Extra-Aufwand, bzw. die Kosten zu rechtfertigen, egal von welchem Lager.
Und nur weil es in der Theorie eine super kleine Zielgruppe für etwas gibt, ist es dennoch fatal und falsch Leute in dem Glauben zu lassen, dass sie unbedingt eine fancy sync Tech brauchen. So toll die Theorie auch sein mag, sie hilft nichts wenn man diese Sonderfälle nicht hat.

Eine low / midrange Karte eines beliebigen Lagers ist da allerdings dann wieder ein total anderes Thema. Da wird man eher das Limit der Karte als des Monitors erreichen.
Dort ist es dann absolut korrekt zu AMD zu raten wenn das Budget wirklich so eng ist, da man für den NVidia Aufpreis für GSync auch einfach eine viel bessere Karte kaufen könnte (die dann wieder nicht auf GSync angewiesen wäre).
 
@Rattenmann
Geh nochmal recherchieren bitte...
 
Ich gehe davon aus das NVidia rein zufällig nen Monat nach Vega dann ihre eigenen neuen Karten released und damit den Highend Bereich wieder weiter nach Oben schiebt.
Vor Q1/18 gehe ich davon nicht aus und auch dann werden es "nur" 25-30% sein. Allenfalls dann kommt sie früher raus, wenn es von Volta tatsächlich keine Gamingkarte geben sollte, was ich aber nicht glaube. Für diesen Fall könnte ich mir auch Q4/17 vorstellen.

Gut ein weitere Pluspunkt für die VegaRX, wenn die Karte dann noch beim Preis punkten kann stellt sie dann auch eine Altenative dar für Leute die mehr Leistung wollen als zb eine 1080ti liefern kann und das CF gut funktionieren tut hat die RX480 breits unter Beweis gestellt zuletzt oder nicht? :)
Würde ich um ehrlich zu sein nicht behaupten. Du wirst wieder auf das einzelne Spiel angewiesen sein. Single-GPU ist und bleibt der Idealfall. Und genau das hat die 480 eigentlich bewiesen. Mir wäre auch nicht bekannt, dass sich das in letzter Zeit geändert hat.

Echt mal was wenn die Vega Architektur für Mining optimal ist und die beste Energieeffizienz bietet dann bekommen wir Gamer gar keine ab. :-[
Da wirst du dir keine Sorgen machen müssen, da die Karte doppelt so viel scheffeln müsste wie eine 580, da sich die Investionskosten sonst nicht rentieren (kauft man besser 2 580er).

wenn amd mit ihrer vega zwischen 1080 und 1080ti ladet, ist sie leistungmässig genau da wo ich sie erwärten würde, warum das nun plötzlich schlecht sein soll, zwischen der schnellsten und 2.schnellsten bezahlbaren karte die leistung zu haben, ist mir nicht klar.
Vor einem Jahr hätte es für diese Leistung noch Applaus gegeben (es wäre immerhin die schnellste Karte gewesen), inzwischen hat sich das Rad aber weiter gedreht.
Und AMD dürfte das Pulver dann auch erst einmal verschossen haben, während bei Nvidia die nächste Generation wohl schon in die Startlöcher kommt. Dann sieht Vega plötzlich ganz alt aus.

Nebenbei erwähnt spart man bei amd als Spieler immer; als gtx 1xxx Käufer kommen zusätzlich noch 150 - 200 € für einen guten gaming-monitor dazu, verglichen mit dem freesync Pendant.
Aber nur wenn man sich auf diesen Käse einlassen möchte. Denn was ist, wenn AMD wieder nicht entsprechenden Karten hinterherkommt? Wieder ewig auf eine neue Karte warten? Außerdem ist der Freesync-Standard ein ziemlicher Mist wenn die Range nur bis 48Hz runtergehen muss und man beim Kauf ganz genau hinschauen muss. Wenn man dann noch andere Dinge mit dem Monitor vorhat, lässt man es vielleicht besser mit so Spielereien wie G-Sync oder Freesync.
 
Zum Glück bist du mit deiner 1080ti schon bedient ;)

ps. ich denke es gibt noch genug Menschen die die Schnauze von Nvidia erstmal voll haben, dazu zähle ich mich derzeit auch.
Außerdem, Freesync...

Man hat leider nicht viel Wahl. Ich bereue es nicht mich auf Gsync und das Kaufen der nächsten Tis eingestellt zu haben. Solange AMD nicht zuverlässig etwas in der benötigten Leistungsklasse liefert sind sie für mich tot. Sowas wie Ryzen, auch vom Preispunkt her, das wäre mal was... Es muss schon echt gut sein damit sich ein Wechsel für mich finanziell rentieren würde, vielleicht wenn 4K144 mal eine Sache wird, so um 2020...

31000 Punkte im 3Dmark wären heftig, das käme meiner übertakteten 1080 Ti gleich!

Viele Leute haben bereits NVIDIA gekauft, weil oberhalb der 480 einfach nichts vorhanden ist. Falls NVIDIA etwas bringt in Form des GV104 wird es aber nichts Besonderes sein, so wie bei einer 980 Ti zu einer 1080, für Leute die die Leistung bereits haben rentiert sich das nicht. Sollte Vega auch noch billiger sein müsste NVIDIA schon ganz schön was bieten, vielleicht 16 GB GDDR6. Die 8 GB HBM2 werden wohl selbst für 4K reichen, anders als bei der Fury, viele Spiele belegen heute 6 - 8 GB auf maximalen Einstellungen. Der Unterschied zur Ti ist nur dass diese etwas mehr Luft hat.

Die GTX1080Ti wurde erst im März diesen Jahres veröffentlicht. Das Top Modell von NVidia ist also auch noch nicht mal ein halbes Jahr alt. So schnell wird es da also auch keine merklich schnellere Karte geben. Und sollte AMD mit Vega nicht nah genug an die GTX1080Ti herankommen, wird es erst recht nicht so schnell ein neues Modell seitens NVidia geben. Denn wozu, wenn man die bestehende Technik mangels Konkurrenz hervorragend verkaufen kann?

Das würde dann genauso aussehen wie die letzten Jahre im CPU Bereich. Vom Marktführer kommt da nur in kleinsten Häppchen was "Neues".

Ich glaube jedenfalls nicht daran, dass NVidia schon Anfang 2018 wieder mit neuen Gamer Karten auf der Matte steht, die wieder deutlich mehr leisten. Die für diesen Zeitraum kolportierten Volta Karten verorte ich eher im Bereich der professionellen Anwendungen.

Natürlich kommt Volta, aber vermutlich wieder mit so einer Founders-Abzocke und GV104 für 800 €. Die Ti jetzt ist ja fast preiswert, zumindest kosteten die Karten seitdem wieder so viel wie die Jahre davor. Ich denke dass NVIDIA immer die Leistungskrone haben wird, zumindest wollen sie das allein schon aus Marketinggründen. Wenn AMD was für die Masse bringt dass fette Leistung für wenig Geld bring wird es trotzdem gekauft. Die RX 400 sind nicht schlecht, wenn man von dem Verfügbarkeitsproblem absieht, sie decken leider nur den Mainstreammarkt ab. High-End- und Enthusiasten werden außen vor gelassen.
 
Warum kommen da nur 3D Mark 11 benches damit kann man nun wirklich nichts anfangen sollten doch langsam andere leaks kommen.
Wenn man wie nach dem ryzen und i9 launch von Intel mach dem vega launch zur TI auch so ein fazit ziehen könnte wäre es mice. ;)

Zitat: "However looking at the real-world applications, the 7820X was on average just 10% faster. If all you care about is value, Ryzen 7 is the obvious option as decent X370 boards start at $110, making the CPU and motherboard combo just $420 if you intelligently opt for the R7 1700. Comparatively, the 7820X and the cheapest X299 board will set you back $830, basically twice the price for nowhere near twice the performance."
 
Zuletzt bearbeitet:
Ich glaube noch immer, dass das Absicht ist, um am Ende noch eine Schippe drauf zu legen. ;-) Wobei die Anzahl der CPU-Cores nur eine bedingte Aussagekraft für den Graphics Score hat. Darum geht es ja vornehmlich.
 
Alle Enthusiasten/High End Käufer sind eine Minderheit lol
 
Zuletzt bearbeitet:
zu sagen amd halt absichtlich die leistung zurück um beim release ne schippe srauf zu legen ist wie ungeduscht zum 1. date zu kommen...
 
DX11 > 1080
DX12 > 1080ti

Dabei gehts nicht nur um die avg Balkenlänge, sondern um die drops, smoothness, Zukunftssicherheit usw. Vega wird in 4k + FreeSync der Masse ein neues Spielgefühl geben. Quasi bezahlbares Upgrade auf das nächste Level für viele, die schon lange drauf gewartet haben. AMD's Karten sind nicht nur für den ersten release gedacht, sondern gelten als jahrelange Begleiter. Technischer Top Dog hält auch einfach länger, das ist wohl klar.
 
DX11 > 1080
DX12 > 1080ti

Dabei gehts nicht nur um die avg Balkenlänge, sondern um die drops, smoothness, Zukunftssicherheit usw. Vega wird in 4k + FreeSync der Masse ein neues Spielgefühl geben. Quasi bezahlbares Upgrade auf das nächste Level für viele, die schon lange drauf gewartet haben. AMD's Karten sind nicht nur für den ersten release gedacht, sondern gelten als jahrelange Begleiter. Technischer Top Dog hält auch einfach länger, das ist wohl klar.

Bist du sicher, dass du über eine Grafikkarte sprichst, ich meine es hört sich iwi gut an aber verwirrt mich iwi auch ? ;)
 
zu sagen amd halt absichtlich die leistung zurück um beim release ne schippe srauf zu legen ist wie ungeduscht zum 1. date zu kommen...

:rofl:

DX11 > 1080
DX12 > 1080ti

Dabei gehts nicht nur um die avg Balkenlänge, sondern um die drops, smoothness, Zukunftssicherheit usw. Vega wird in 4k + FreeSync der Masse ein neues Spielgefühl geben. Quasi bezahlbares Upgrade auf das nächste Level für viele, die schon lange drauf gewartet haben. AMD's Karten sind nicht nur für den ersten release gedacht, sondern gelten als jahrelange Begleiter. Technischer Top Dog hält auch einfach länger, das ist wohl klar.

Du immer mit deinem Smooth, ey. Sag mal bis du smooth gegen die Wand gelaufen oder warum kommt da nichts sinnvolles in deinen Posts außer schlechte Propaganda?
 
Ja, Vega ist ja die breiteste GPU auf dem consumer-Markt. Top Level Technik für Freesync 4k@60fps, drops nicht unter 35fps. Absolut smooth nennt man das :)
 
is doch super, wenn ne Karte mit der Zeit besser/schneller wird. wenn AMD diese extrem langen Wartezeiten bis zur nächsten Gen beibehält, kriegt man auch ohne Neukauf ein paar Prozent Leistungszuwachs und kann währenddessen der Konkurrenz beim Davonziehen und Markt beherrschen zugucken. das muss ja nicht zwangsläufig schlecht sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh