Die ersten Nutzertests der Radeon Vega Frontier Edition treffen ein (Update)

danke,

kannst du aber bitte noch mal schauen ob euer firestrike score von 20500 bei der furyx korrekt ist?

Ja, das stimmt. Wir sprechen hier von der GPU Score, nicht der Gesamtpunktzahl oder einem anderen Wert.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, das stimmt. Wir sprechen hier von der GPU Score, nicht der Gesamtpunktzahl oder einem anderen Wert.

gib doch bitte mal den link dazu, der score ist mal eben 25% höher als in anderen reviews..


edit:
auch mir geht es um den gpu-score
 
Zuletzt bearbeitet:
jetzt guckt mal eure links genau an, das sind werte mit oc.

nen gpu score von >20000 ohne oc habe ich noch nicht finden können.

die 20500 von euch sollen doch sicher ohne oc gemeint sein :confused:
 
Zuletzt bearbeitet:
Treiber... sie halten die Spieleoptimierten Treiber zurück, bis die RX Vega da ist, weil anscheinend mit jedem Tag noch ein paar Prozente rausgeholt werden. Die extra-extra-extra Erwähnung, dass es keine Gaming-Karte sei, dass die RX Vega besser laufen soll etc deutet stark darauf hin.

Möglich schon, aber warum bewirbt man dort einen Gamemode, wenn das Ding nicht zum Gaming taugt? Was hätte die einfach daran gehindert zu sagen, OK, wir releasen Vega als Prosumer Version und NACH dem offiziellen Release der Gamer-Vega gibts für die FE nen Game-Mode hinterher. Dann wäre es auch absolut realistisch zu sagen, OK -> Pro-Treiber = keine Game-Optimierungen. AMD sagte ja bereits, die Gamer-Vega soll! schneller werden als die FE. Und ich sagte damals schon, dass man dies allein durch Treiber erreichen kann. Aber eine FE mit einem Gamemode inkl. (was vorher ja nichtmal bekannt war) und dann das Klammern an den Treiberstrohhalm geht aus meiner Sicht nur bedingt auf...

Welchen Sinn hat es, wenn ich weis, ich hab den Treiber noch nicht, da nen Gamemode zu vermarkten!? Wohlwissentlich, dass da unmittelbar nach Release die ersten Community-Werte kommen, die eben idR klar nicht dem entsprechen, wie man es erwartet? Erinnert mich irgendwie an den Hype vom R600. Das ist nunmehr 10 Jahre her... Geschichte scheint sich mal wieder zu wiederholen ;)

genau darum geht es mir.

bei den grünen wird die rechenleistung anhand von werten ermittelt die auch real anliegen, im falle der gtx1080 FE im schnitt etwa 1700mhz.

Nein, eben nicht... Sowohl NV als auch AMD nehmen den maximalen Boost als Rechengrundlage der ALU-Leistung. ;)
Warum das bei AMD schlicht negativ aussieht ist eher in der Arbeitsweise des "Boosts" zu suchen, denn bei AMD ist es einfach der maximal mögliche Takt. Wie bei Intel und AMD auf der CPU Seite ebenso... Bei NV ist es das nicht. Bei NV ist es eher eine Angabe zu einem "Regelboost", also das, was im Schnitt anliegt (seit Pascal). Bis Maxwell war es aber auch eher quasi Max., wenn die Karte lag oft auch drunter, je nach Modell.

PS: die Roten ermitteln die Angabe übrigens ja auch anhand von Werten, die real anliegen... Nur eben nicht in jeder Konstellation/Lebenslage! -> lass mal Furmark oder Dergleichen auf ne Pascal GPU los... Am Besten noch OHNE Drossel. Da kommt vom tollen Gamer-Takt nichts mehr an... Wie man sehen sollte, die Höhe des Boosts hängt vom Load ab. Und bei AMD ist das offenbar einfach anders geregelt.
 
jetzt guckt mal eure links genau an, das sind werte mit oc.

nen gpu score von >20000 ohne oc habe ich noch nicht finden können.

die 20500 von euch sollen doch sicher ohne oc gemeint sein :confused:

Misst, was habe ich denn da gemacht ... Ich habe noch eimal geschaut, 18.700 Punkte sind für 1.050 MHz realistisch. Ich ändere das ab. Danke für den Hinweis!
 
Hoffen wir mal das Steve Burke von GamersNexus bald eine in die Finger bekommt der macht mM immer schöne tests.

Eigentlich schon, aber ich ertrage seine gelangweilte Art des Vortrages nicht. Bei nem 20 Minuten Review schläfst du echt ein bei dem Typen.


Wurde nicht seit einer ganzen Weile antizipiert das Vega in dem Dreh einer 1080 performed ? Falls sich das letztendlich bewahrheiten sollte ist Vega wohl ne echte Totgeburt.
 
Zuletzt bearbeitet:
Siehste Raz0r, was hab ich dir gestern gesagt? Heute kommen die ersten Tests... Und da bleiben Fragen offen, wo bekannterweise sich Keiner mehr für interessiert, ob das nun richtig getestet ist oder irgendwie hingeschissen...
Die Frage ist und bleibt, warum zur Hölle bringt AMD nicht einfach Zahlen? WO ist der Vorteil diese hinterm Berg zuhalten und sich stattdessen diesen Communityergebnissen auszuliefern? -> das KANN doch nur in die Hose gehen.
DAS kann man vorher wissen, wenn man ein Multimillonen schwerer Aktienkonzern ist, wenn das selbst irgendwelche Community-User vorhersagen können. Sorry... Mir erschleißt sich das einfach nicht.

Problem ist, das ist kein Test, das ist eine Katastrophe *heul*
Hätte doch sicher auch nen Aufschrei gegeben, wenn AMD kontrolliert hätte wer ne FE bekommt...
1 Monat geht auch noch rum

ps. mir gings garnicht darum ob du mit deinem Post Gestern recht hattest oder nicht ich fand ihn einfach etwas zu provokant/stichelnd.

On Topic:

Wegen der Gamingleistung mach ich mir aufgrund von Bechmarkergebnissen erstmal keine Sorgen.
Die FPS konnte garnicht so schlecht gewesen sein gegenüber einer Titan XP ansonsten hätte das der Redakteur der vielleicht täglich zu tun hat etwas bemerkt.
Zumal sind da noch Aussagen von MSI und Bits and Chips im Raum.
Einfach noch etwas abwarten, ist nurnoch 1 Monat :P
 
Zuletzt bearbeitet:
@Don
Eher 16000 -17000 :wink:

Problem ist, das ist kein Test, das ist eine Katastrophe *heul*
Hätte doch sicher auch nen Aufschrei gegeben, wenn AMD kontrolliert hätte wer ne FE bekommt...
1 Monat geht auch noch rum

Aber genau das war doch vorhersehbar :(
Man kann ja über die Redaktionen durchaus meckern, was Qualität und so angeht, aber einfach mal irgendwas schnell schnell auf Basis einer hitzig erwarteten GPU aus dem Finger zu ziehen, bekommen leider so viele nicht auf wirklich sinniger Ebene hin... Ich denke, man kann den Leuten da nichtmal direkt nen Vorwurf machen. Aus meiner Sicht macht man das als Hersteller nicht freiwillig, wenn man es abbiegen hätte können.

Es hätten ja ein paar Benches gereicht... Aber man gibt ja gar nix. "Real-Feel" Aussagen, wie die von PCWorld erzeugen doch eher genau den Gegenteiligen Effekt - nämlich den Gedanken, dass die Hardware doch langsamer als erwartet ist. Als man das letzte mal so VOR einem Release rangegangen ist, war das Ergebnis ziemlich bescheiden -> Bulldozer mit "Real-Feel" Gamebenches im absoluten GPU-Limit im Vergleich zu nem EE-Intel für 3x so viel Geld. Da war die Aussage auch, läuft wie auf dem teuren Modell, nur war es eben dann doch eher Pustekuchen.
 
Zuletzt bearbeitet:
Was ich nicht verstehe: Warum gibt AMD nicht 3-4 Redaktionen eine solche Karte und lässt sie testen. Es muss nicht Hardwareluxx sein, aber es gibt ein paar internationale Redakteure, denen man es durchaus zutrauen kann, dass sie einen sinnvollen Test machen. Auf diese Art und Weise schadet sich AMD meiner Meinung nach nur selbst. Klar, hier meckern nur ein paar Spieler, die sehnsüchtig auf die Radeon RX Vega warten, aber ganz egal kann das AMD sicherlich nicht sein.
 
Nein, eben nicht... Sowohl NV als auch AMD nehmen den maximalen Boost als Rechengrundlage der ALU-Leistung. ;)
Warum das bei AMD schlicht negativ aussieht ist eher in der Arbeitsweise des "Boosts" zu suchen, denn bei AMD ist es einfach der maximal mögliche Takt. Wie bei Intel und AMD auf der CPU Seite ebenso... Bei NV ist es das nicht. Bei NV ist es eher eine Angabe zu einem "Regelboost", also das, was im Schnitt anliegt (seit Pascal). Bis Maxwell war es aber auch eher quasi Max., wenn die Karte lag oft auch drunter, je nach Modell.

PS: die Roten ermitteln die Angabe übrigens ja auch anhand von Werten, die real anliegen... Nur eben nicht in jeder Konstellation/Lebenslage! -> lass mal Furmark oder Dergleichen auf ne Pascal GPU los... Am Besten noch OHNE Drossel. Da kommt vom tollen Gamer-Takt nichts mehr an... Wie man sehen sollte, die Höhe des Boosts hängt vom Load ab. Und bei AMD ist das offenbar einfach anders geregelt.

:bigok: schön erklärt.

- - - Updated - - -

@Don
Eher 16000 -17000 :wink:



Aber genau das war doch vorhersehbar :(
Man kann ja über die Redaktionen durchaus meckern, was Qualität und so angeht, aber einfach mal irgendwas schnell schnell auf Basis einer hitzig erwarteten GPU aus dem Finger zu ziehen, bekommen leider so viele nicht auf wirklich sinniger Ebene hin... Ich denke, man kann den Leuten da nichtmal direkt nen Vorwurf machen. Aus meiner Sicht macht man das als Hersteller nicht freiwillig, wenn man es abbiegen hätte können.

Es hätten ja ein paar Benches gereicht... Aber man gibt ja gar nix. "Real-Feel" Aussagen, wie die von PCWorld erzeugen doch eher genau den Gegenteiligen Effekt - nämlich den Gedanken, dass die Hardware doch langsamer als erwartet ist. Als man das letzte mal so VOR einem Release rangegangen ist, war das Ergebnis ziemlich bescheiden -> Bulldozer mit "Real-Feel" Gamebenches im absoluten GPU-Limit im Vergleich zu nem EE-Intel für 3x so viel Geld. Da war die Aussage auch, läuft wie auf dem teuren Modell, nur war es eben dann doch eher Pustekuchen.

Stimme dir ja zu, dass AMD nicht vorteilhaft arbeitet mit dem 100%tigen Schweigen, kackt mich als potenzieller Käufer genauso an, zumal ich meine teildefekte 980ti noch vor August zurückgeben "muss" und ich nur ne HD5850 als Übergang hier habe :(
Aber ich denke eben, dass sie das nicht ohne Hintergedanken machen, ob das jetzt aufgrund der Konkurrenz ist oder wegen den Treibern/Hardware wissen wir nunmal nicht.
 
Wie oben gepostet meine fury non x macht die 16.000 ne X ist da doch ne ecke schneller! Bin mir auch unsicher ob das nun an Technischen Probleme liegt wie auf Reddit diskutiert oder ob wir hier schon am Ende der Fahnenstange angekommen sind. Das über Treiber Verbesserungen 5-10% mehr raus geholt wird, bringt die Karte aber leider nicht an eine 1080ti ran schade.
 
Eigentlich schon, aber ich ertrage seine gelangweilte Art des Vortrages nicht. Bei nem 20 Minuten Review schläfst du echt ein bei dem Typen.


Wurde nicht seit einer ganzen Weile antizipiert das Vega in dem Dreh einer 1080 performed ? Falls sich das letztendlich bewahrheiten sollte ist Vega wohl ne echte Totgeburt.

Ich bin da recht oldschool ich lese lieber als zu schaun seine videos sind für mich persönlich okay, ich mag eher trocken als super cool what ever aber so hat halt jeder seine vorlieben , Wenns um Videos geht find ich die machart von Digitalfoundary recht gut ansehbar , lese trotzdem lieber.

Was ich an ihm mag er testet und denkt gern out of the box, zum 1080er Launch mit Kraken mod NV präsi OC Werte geprüft, letztens die VR test + Stream gaming tests um Intels Marketing blabla bei Skylake X zu prüfen usw.
 
Aber ich denke eben, dass sie das nicht ohne Hintergedanken machen, ob das jetzt aufgrund der Konkurrenz ist oder wegen den Treibern/Hardware wissen wir nunmal nicht.

ich hab es ja schon vorhin geschrieben - halt wieder mal ein typischer Amd Release - wie so oft - aber seis drum ich habs seit dem AFD und der computex irgendiwe schon so erwartet - ich hoffe nur das ganze nicht an den Treibern oder der Hardware liegt sondern einfach weil man der Konkurrenz bis die Karten in den Regalen liegen sogut wie keinen Hinweis auf die Leistungsfähigkeit fürs Gaming preisgeben will.

Den wenn es an den Treibern liegt und Amd es in den letzten 2 Jahren nicht hinbekommen hat einen vernüftigen Gamingtreiber zu entwickeln, den man nun der FE mitgeben hätte können und der auch mal zum Start einen Großteil der Rohleistung in zählbare FPS ingame bringt - dann wird da leider auch im letzten verbleibenden Monat kein Wunder mehr geschehen...
 
Also die derzeitigen AMD Gaming Treiber mehr als vernünftig.
Kommt halt nur drauf an für welche GPU :P
 
Es war doch von den ganzen Leaks schon klar gewesen, dass die optimierten Karten maximal zwischen einer 1080 und 1080 TI liegen. Frage ist nur der Preis. 8GB HBM2 und zwischen 1080 und 1080 TI für 449 Dollar. 499 für die 16GB HBM2 Variante und AMD ist wieder dabei.
 
damit hatte ich auch keine Probleme - es geht einzig darum das sich nun viele an den Strohhalm "nicht optimierte/fertige Treiber" für Vega klammern - und da muß man sich eben eingestehen wenn es wirklich am unfertigen nicht optimierten Treiber liegt das man mit der FE einen solchen Release hinlegt - dann wird im verbleibenden Monat auch nicht mehr das Wunder geschehen...

@sh
wenn amd mit diesen preisen auch noch irgendwas verdient - warum nicht soferne die Leistung am Ende wirklich zwischen 1080 und ti liegt - für mich ist der zug dann zwar abgefahren aber es gibt sicher einige die dann zuschlagen
 
Zuletzt bearbeitet:
Das über Treiber Verbesserungen 5-10% mehr raus geholt wird, bringt die Karte aber leider nicht an eine 1080ti ran schade.
Das hat mit "Verbesserungen" nichts zu tun - Die FE ist mit Sicherheit absichtlich in Spielen so schlecht gepatcht worden. Würden sie näher rankommen, und jetzt beim Release 10-20% underperformen, wären die Ergebnisse glaubwürdig und sie hätten ein Problem. So sieht dagegen jeder mit ein bisschen Verstand, dass er einfach mit den Ergebnissen nichts anfangen kann, bis die Mainstream-Version rauskommt und AMD das Leistungslimit rauspatcht.

Dass AMD das nicht ganz freiwillig so macht, hat fdsonne mal angesprochen und stimmt ausmahmsweise auch mal. Es sieht ziemlich danach aus, dass SK Hynix die Produktion total verbockt hat und Vega dadurch eventuell sogar um bis zu einem halben Jahr verschoben werden musste. Sodass AMD nun die paar HBM2-Chips zusammenkratzt und die Karte in der FE-Variante sehr hochpreisig auf den Markt bringt, um das Versprechen einzuhalten, dass sie im ersten Halbjahr kommt.
Da man natürlich nicht jeden wissen lassen möchte, wie leistungsfähig die Karte in Spielen ist(besonders nicht Nvidia), gab es wohl keinen anderen Ausweg als das Spiele-Benchmarking unmöglich zu machen und den Treiber in 2 Modi einzuteilen(lässt sich sonst schlecht erklären, zumal ja die tatsächlichen Gründe von AMD für die Entscheidung den einfachen Kunden nichts angehen)
 
Das klingt imo schon etwas an den Haaren herbei gezogen.

Erfahrungswert zeigt halt eher Richtung halber Flop.

Sent from OP3T
 
Das hat mit "Verbesserungen" nichts zu tun - Die FE ist mit Sicherheit absichtlich in Spielen so schlecht gepatcht worden. Würden sie näher rankommen, und jetzt beim Release 10-20% underperformen, wären die Ergebnisse glaubwürdig und sie hätten ein Problem. So sieht dagegen jeder mit ein bisschen Verstand, dass er einfach mit den Ergebnissen nichts anfangen kann, bis die Mainstream-Version rauskommt und AMD das Leistungslimit rauspatcht.

Dass AMD das nicht ganz freiwillig so macht, hat fdsonne mal angesprochen und stimmt ausmahmsweise auch mal. Es sieht ziemlich danach aus, dass SK Hynix die Produktion total verbockt hat und Vega dadurch eventuell sogar um bis zu einem halben Jahr verschoben werden musste. Sodass AMD nun die paar HBM2-Chips zusammenkratzt und die Karte in der FE-Variante sehr hochpreisig auf den Markt bringt, um das Versprechen einzuhalten, dass sie im ersten Halbjahr kommt.
Da man natürlich nicht jeden wissen lassen möchte, wie leistungsfähig die Karte in Spielen ist(besonders nicht Nvidia), gab es wohl keinen anderen Ausweg als das Spiele-Benchmarking unmöglich zu machen und den Treiber in 2 Modi einzuteilen(lässt sich sonst schlecht erklären, zumal ja die tatsächlichen Gründe von AMD für die Entscheidung den einfachen Kunden nichts angehen)

Tief im inneren hoffe ich natürlich auch das die GCN5 verbesserungen noch schlummern. Kaufen tu ich die Vega so oder so schneller wie meine Fury ist sie ja :)
 
Das klingt imo schon etwas an den Haaren herbei gezogen.
Aus meiner Sicht ergibt das sehr viel Sinn - und erklärt auch, warum AMD in den Linux-Treibern die Anzeige nocht nicht ermöglicht. Man kann Vega zwar nutzen, aber nur für Computing. Denn der öffentliche Quelltext würde eine künstliche Sperre verhindern, da man sie nicht verstecken kann. Bisher hat man immer zum Start Support geboten, und schon gar nicht nur halben Support implementiert.
 
Wenn die Gaming Leistung was taugen würde, dann könnte man nen Monat vor Launch schon mal *irgendwas* zeigen.

Sent from OP3T
 
Die HBM2 Chips sind von Micron und nicht von SK Hynix. Es sieht tatsächlich so aus, als hätten die nix geliefert. Was für ein Desaster für Hynix (und folgend für AMD). Das kann eventuell sogar soweit gehen, dass AMD die Kooperation abbricht. Nun ja, munkeln hilft nicht.

Ansonsten sind die 1.600 MHz laut Internet Peak Performance und die tatsächliche generelle Geschwindigkeit soll so um die 1380 liegen. Bedeutet für den Gamer: Auf custom Modelle warten die nahe an die WaKü Kühlfähigkeit rankommen. Ansonsten stimme ich oooverclocker mit den Treibern zu: Nicht alle gaming-Features sind freigeschaltet. Die FE ist gut genug um einen Spieletest zu machen, die Features sind aber nicht vollständig vorhanden und werden wohl grundlegend mit der RX Vega nachgeliefert und die zusätzlicher Performance tröpfelt dann Stück für Stück oben drauf.

@fdsonne Ich habe eher den Eindruck, dass die Karte explizit nicht für gaming vermarktet wird... das hängt eher als "kann es auch" mit dran.

Je mehr ich drüber nachdenke, desto mehr Hoffnung hab ich, dass das doch noch was wird. *daumen drückt*
 
Dass Hynix nicht liefern kann, wird wohl auch finanzielle Folgen für die Firma haben können, sowas wird nunmal in Verträgen geregelt.
Echt bitter falls das alles stimmt und irgendwann rauskommt.
 
Was ich nicht verstehe: Warum gibt AMD nicht 3-4 Redaktionen eine solche Karte und lässt sie testen. [...]
Ernsthaft, od. lediglich rethorisch? Evtl. hat AMD wohl seine ganz eigene Agenda. Interessant wird es wohl in ein paar Tagen, wenn "reale" Werte vorliegen... bis dahin ist alles reine Spekulation. Und mehr als ein Kopf an Kopf rennen wird es wol nicht geben. - Alles andere wäre kontraproduktiv für beide Konzerne.

In diesem Sinne, gute Nacht
 
Das ist eine ernsthafte Frage bzw. Überlegung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh