AMD Radeon R9 Fury X im Test

Von daher habe ich vollstes Verständnis für alle die einem "Wir fixen das noch" keinen Glauben schenken wollen.

Jep, sollte man auch beim Kauf mit einplanen und schon vorher damit rechnen das nie etwas kommen könnte. Oder entsprechend später kaufen wenn das versprochene auch wirklich da ist. So gibt man sich keiner trügerischen Hoffnung hin und ist nachher nicht enttäuscht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das erinnert mich an den ewigen Mantle-Kaufempfehlungsgrund ...
 
Und das auch vollkommen zurecht. Wer sich Hardware kauft und wirklich daran glaubt das Mängel noch im Nachinein behoben werden, dem ist nicht zu helfen. Mir ist noch gut meine Radeon 4870 im Hinterkopf mit ihrem Idle = fast Vollast Verbrauch wo AMD/ATI von anfang an hoch und heilig versprochen hat es sei nur ein Treiberproblem und würde mit dem nächsten Treiberupdate behoben. Pustekuchen, es wurde nie behoben. Das war dan nauch die einzige Grafikkarte die mir je kaputt gegangen ist.

Von daher habe ich vollstes Verständnis für alle die einem "Wir fixen das noch" keinen Glauben schenken wollen.

Das ist ganz einfach gelogen. Die 4870er Reihe hatte ein wunderbar funktionierendes Powermanagement. Ich selbst hatte die 4870X2.
 
Hallo zusammen erstmal!

Nach langem Abwägen kann ich gar nicht mehr umhin mich einfach auch mal in die Diskussion einzumischen.

Ich war bis vor kurzem "stolzer" Besitzer einer GTX970. Halt genau bis das schöne 3.5GB VRAM Problem zutage trat. Händler schickte automatisierte Mailantworten usw und ich hatte dann schlussendlich sau viel Glück - ich konnte die Karte für den gleichen Preis trotz 6 monatiger Nutzung auf dem Privatweg verkaufen. War eine Win-Win Situation, denn ich hatte meine Kohle und der Käufer eine sehr gepflegte, er fragte ob ich die Karte überhaupt benutzt hätte, Karte.

Tja, dass ist mittlerweile schon eine Ecke her und ich wartete geduldig aber von Tag zu Tag immer hibbeliger auf die Vorstellung der Fury.
(Achja, bis dato immer noch keinen laufenden Gamingrechner - alles schön geschmeidig vom Lappie am sichten usw.)

Und seit dem hänge ich irgendwie nur noch in Foren, im Hintergrund, lesend, und versuche mir bei den ganzen Niveaus, Meinungen und Hinundhers selbst ein Bild zu machen. Soooo technisch versiert bin ich nicht, aber das hier stellt für mich schon einen gewissen Schritt in die richtige Richtung dar - ich habe eine Menge Tests von HWLxx bei meiner Neuanschaffung gerne und guten Gewissens zu Rate gezogen und denke ich bin hier einfach richtig - daher auch die Registrierung.

Reisst mir somit kein Bein ab, ich muss mich erstmal einfinden :)

B2T:
Die Karte als solches, die Fury, hat mich durchaus gereizt. Das Geld hätte ich gerne ausgegeben, sehe aber aktuell einfach die beste Entscheidung darin den ganzen Wirbel sich erstmal legen zu lassen. So viele Leute reden auf einmal von 4k und dann fragt niemand ob denn auch das vorhandene Equipment den Schabernack überhaupt mitmacht. Alle reden von Zukunftstauglichkeit und das sie das viele Geld nicht ausgeben wollen. Ihr kennt das sicher zur Genüge, wenn dann 100€ weniger, nix übertaktbar und überhaupt dann 8GB, so schlechte Treiber hätte ich nie beim Release beigefügt usw. usw.

Ich sehe das mittlerweile anders. Es wird sich zeigen was die guten Leute bei AMD aus der Karte noch via Treiber herausholen können. Vielleicht hinkt der Vergleich mit Konsolen, korrigiert mich bitte, aber ich denke so in der Richtung ist das immer machbar (Stichwort: neue Games - neue Treiber). Ich fand das Release gerade durch die "alten" Treiber und der Pumpengeschichte super gemacht, denn es war ein Indiz dafür das die Leute sich umso mehr mit der Karte auseinandersetzen (siehe Forenbeitragsrekorde rund um die Fury X). MMn ein sehr geschickter Schachzug.

Für mich ist bzw. wäre übrigens das Geld bei der kompletten Neuanschaffung, Grafik und Monitor Richtung 4k, da, aber ich denke das das jetzige Aussitzen einfach am meisten Sinn macht. Es stehen für mich nicht die nächsten Jahre auf dem Plan, sondern eine Menge mehr an Infos rund um die Karte

- OC Freischaltung
- DX12 Verhalten (Windows 10, Releases exklusiv für die dann kommende Schnittstelle - Fable?)
- Ramverhalten usw.


Zugegeben mich ärgert es schon ein wenig, dass meine "halbe" Kiste weiter leer stehen muss, aber es gibt schlimmeres - keinen Kaffee z. B. ...

So, ich spare mir den ganzen anderen Kram und sage einfach mal nett "Bis dannsen!"

ps. wenn ich übrigens mal sehr banale, sprich GrünHinterDenohrenFragen stelle, so seid bitte gnädig mit mir. Ich versuche mich schon vorab ein bisschen autodidaktisch via Bluubel schlau zu machen, stehe aber oft wie der Fäller vorm Holz - es sind nie Meister vom Himmel gefallen
 
Zuletzt bearbeitet:
das erinnert mich an den ewigen Mantle-Kaufempfehlungsgrund ...

Ich find das mit den Treibern hier ehrlichgesagt auch etwas "komisch". Der Treiber auf den die meisten Reviews beruhen datiert wohl auf den 15. Juni. Der neue angeblich verbesserte Treiber auf den 20. Juni. Da frage ich mich dann schon was AMD die letzten Monate getrieben hat wenn man es plötzlich innerhalb von nur 5 Tagen schafft einen neuen deutlich verbesserten Treiber bereitzustellen. Sowas sollte doch zum Release-Zeitpunkt längst abgeschlossen sein.
 
Ich find es so genial, hat jemand von Euch schonmal ne Grafikkarte entwickelt? Produziert? Treiber geschrieben? Nein?

Dann würde euch etwas Demut ganz gut stehen, als wäre NV frei von Fehlern...

Das ist so ein Trauerspiel hier...die Meisten sind eh nur zur Belustigung hier!
 
Aber was ich mir denken kann. ZB bei GTA V. Deren Engine ist so gut, dass , wenn du nach rechts guckst, sofort die Gebäude, Menschen, Autos etc... , die du gerade noch gesehen hast direkt aus dem Speicher rausfliegen. Durch diese tolle Optimierieung , werden nicht soviel VRAM vebraucht, obwohl du eine riesen Spielwelt hast.

Nein, das wird so nicht stattfinden... Wie soll das gehen?
Das rauswerfen ist kein Problem, das Problem ist das nachladen... Die Daten kommen nicht aus der Luft, sondern werden über den PCIe Slot mit der beschränkten Bandbreite von 16GB/sec übertragen.
Rechne einfach selbst mal nach. 256MB Rohdaten benötigen bei PCIe 3.0 16x 15,325ms. Und das auch nur, wenn wirklich 16GB/sec durch den Slot gehen und da nicht noch Overhead runter kommt, was definitiv der Fall ist -> es ist also real sogar noch mehr Zeit notwendig.

Wie willst du Framegenau die Daten in den Speicher bekommen? Wenn dies bei läppischen 256MB schon >15ms dauern würde? Wo dann noch obendrauf die Zeit für die Berechnung, Zeit für Overhead, Zeit fürs Postprocessing usw. usf kommt? Was sollen da für FPS Raten rauskommen?

Unterm Strich -> so wird das nicht laufen... Zumal dann auch der Speicher reichlich sinnfrei wäre, da es kein Zwischenspeicher mehr ist. In dem Fall könnte man den VRAM als Texturcache ganz weglassen und direkt die Texturen über den PCIe Slot beziehen.

Hat wer Erfahrung im Bereich Texture Mapping / Grafik und kann das Gesagte bewerten?

Gruß Thomas

Warscheinlich könnte man das Ganze mit einer FCAT Messung und dem direkten Abgreifen der Rohbilder am Grafikkartenausgang analysieren...
Sollte das so sein, wie dort beschrieben ist, dann MUSS auch ein qualitativer Unterschied zwischen den Bildern entstehen. -> dieser ist auch auswertbar bzw. messbar.

Wie so oft ist die VRAM Debatte aber eigentlich wenig zielführend, es gibt die, welche es nicht wahr haben wollen, dass Speicher in ausreichender bzw. zukunftsorientierter Größe vorhanden sein sollte. Und die, welche auf biegen und brechen maximal mögliche Ausbaustufen verlangen. Nur die aller wenigsten wissen um den Umstand bescheid und können da auch entsprechend verbal ihre Ansichten vertreten...
 
Ich find das mit den Treibern hier ehrlichgesagt auch etwas "komisch". Der Treiber auf den die meisten Reviews beruhen datiert wohl auf den 15. Juni. Der neue angeblich verbesserte Treiber auf den 20. Juni. Da frage ich mich dann schon was AMD die letzten Monate getrieben hat wenn man es plötzlich innerhalb von nur 5 Tagen schafft einen neuen deutlich verbesserten Treiber bereitzustellen. Sowas sollte doch zum Release-Zeitpunkt längst abgeschlossen sein.

Nun das ist in der Branche aber nichts ungewöhliches ...
 
Ich find das mit den Treibern hier ehrlichgesagt auch etwas "komisch". Der Treiber auf den die meisten Reviews beruhen datiert wohl auf den 15. Juni. Der neue angeblich verbesserte Treiber auf den 20. Juni. Da frage ich mich dann schon was AMD die letzten Monate getrieben hat wenn man es plötzlich innerhalb von nur 5 Tagen schafft einen neuen deutlich verbesserten Treiber bereitzustellen. Sowas sollte doch zum Release-Zeitpunkt längst abgeschlossen sein.

Egal was der Treiber nun macht und woher er kommt. Ich stelle mir die Frage, warum AMD die Tester nicht auf den neuen Treiber hinweist. Warum das Potenzial liegen lassen? Sicher hatten wir die Tests mit dem Treiber vom 15. Juni schon weitestgehend beendet, aber nachreichen können hätte man da sicherlich was.
 
Mich würde tatsächlich mal interessieren wie die Fury in BF4 unter mantle performt. Ich denke da kann man dann auch Rückschlüsse auf die DX12 Leistung ziehen.

gesendet von meinem Xperia ZL
 
Sollte das so sein, wie dort beschrieben ist, dann MUSS auch ein qualitativer Unterschied zwischen den Bildern entstehen. -> dieser ist auch auswertbar bzw. messbar.

Das ist genau der Punkt, um den es mir geht. Erkauft man sich durch weniger VRAM schlechtere Bildqualität, da bei Nachladeproblemen feinere Texturen nicht genommen werden, sondern eine Fallback Strategie gefahren wird. Das wäre meines Erachtens nach ein Manko. Als HQ Fetischist möchte ich gerne das Maximale haben.

Ich erwarte zukünftig immer mehr die Nutzung von hochauflösenden Texturen, denn nichts ist Günstiger zu realisieren, als die ohnehin schon in der Entwicklung höher auflösenden Texturen auch in verschiedenen Qualitäten im Spiel verfügbar zu machen. Noch billiger bekommen die Entwicklungsstudios kein Eye Candy in Ihre Programme.
 
Mich würde tatsächlich mal interessieren wie die Fury in BF4 unter mantle performt. Ich denke da kann man dann auch Rückschlüsse auf die DX12 Leistung ziehen.

gesendet von meinem Xperia ZL

Angeblich 30% besser mit Mantle gegen die Titan X. Suche dir mal den test raus.

2TXlyck.jpg


Quelle: https://translate.google.com/transl...u=http://www.ixbt.com/video3/fiji-part3.shtml

Die anderen Tests decken sich teilweise mit den anderen Tests. Eventuell könnte es also wahr sein wegen B4 und Mantle
 
Zuletzt bearbeitet:
Mich würde tatsächlich mal interessieren wie die Fury in BF4 unter mantle performt. Ich denke da kann man dann auch Rückschlüsse auf die DX12 Leistung ziehen.

gesendet von meinem Xperia ZL

Ich habs mal grade Quick&Dirty auf einer Map (Operation Locker) getestet und hatte fast durchgehend 80-110 FPS mit meinem Build unter 1200p und alle Settings auf Anschlag.
 
Für mich ist bzw. wäre übrigens das Geld bei der kompletten Neuanschaffung, Grafik und Monitor Richtung 4k, da, aber ich denke das das jetzige Aussitzen einfach am meisten Sinn macht. Es stehen für mich nicht die nächsten Jahre auf dem Plan, sondern eine Menge mehr an Infos rund um die Karte

- OC Freischaltung
- DX12 Verhalten (Windows 10, Releases exklusiv für die dann kommende Schnittstelle - Fable?)
- Ramverhalten usw.

Hallo Souldiver,

willkommen und schön, dass Du dich getrau hast. :bigok:

Der jetzige Zeitpunkt ist IMHO leider sehr ungeeignet, wenn Du mit dem Gedanken an eine Anschaffung einer Grafikkarte für Auflösungen über WQHD nachdenkst und nicht innerhalb des nächsten Jahres wieder wechseln möchtest:

- Für meinen Geschmack haben beide Hersteller keine Karte im Programm die als Single Lösung 4K ohne Einschränkung darstellen kann.
- Video auf 4K ist bei beiden Herstellern für geschütztes Material nicht möglich.
- Die Frage nach benötigtem VRAM, wenn Eye-Candy gewünscht, ist für mich weiter unklar.
- Bei beiden Herstellern zahlt man zur Zeit Early Adopter Preise.
- Leistungsfähigkeit bei DX 12 ist unklar.
- Verhalten bei Virtual Reality, einer der Neuerungen auf die ich mich freue, ist unklar.

Da greift man schnell mal daneben.

Dir viel Glück bei der Auswahl.
 
Nun das ist in der Branche aber nichts ungewöhliches ...

Es ist also nichts ungewöhnliches wenn man Leistung bei einen so wichtigen Release quasi mehr oder weniger verschenkt? Die Fury X hätte mit dem nur 5 Tage(!) neueren Treiber vielleicht wesentlich bessere Kritiken eingefahren. Natürlich macht jeder mal Fehler, darum geht es mir aber nicht, ich finds einfach nur Schade das man das nicht vorher schon besser organisiert hat - die Möglichkeit hatte man.
 
Ich habs mal grade Quick&Dirty auf einer Map (Operation Locker) getestet und hatte fast durchgehend 80-110 FPS mit meinem Build unter 1200p und alle Settings auf Anschlag.
Kannst du vielleicht 2 mal auf einen Server als Spectator Joynen, die freie Kamera auf die jeweils gleiche Stelle richten, wo nicht gar so viele (oder am besten gar keine) Spieler herumlaufen und dann die FPS mit Mantle/DIRECT-X vergleichen?
 
...
Der jetzige Zeitpunkt ist IMHO leider sehr ungeeignet, wenn Du mit dem Gedanken an eine Anschaffung einer Grafikkarte für Auflösungen über WQHD nachdenkst und nicht innerhalb des nächsten Jahres wieder wechseln möchtest:

- Für meinen Geschmack haben beide Hersteller keine Karte im Programm die als Single Lösung 4K ohne Einschränkung darstellen kann.
- Video auf 4K ist bei beiden Herstellern für geschütztes Material nicht möglich.
- Die Frage nach benötigtem VRAM, wenn Eye-Candy gewünscht, ist für mich weiter unklar.
- Bei beiden Herstellern zahlt man zur Zeit Early Adopter Preise.
- Leistungsfähigkeit bei DX 12 ist unklar.
- Verhalten bei Virtual Reality, einer der Neuerungen auf die ich mich freue, ist unklar.
...

+1
4k ist doch zurZzeit eh nur mit fps- und BQ-Einbußen drin. (3- und 4-way SLI/CF mal ausgenommen)
das "early-Adopter" zu nennen, find ich ziemlich passend.
 
Hallo Souldiver,

willkommen und schön, dass Du dich getrau hast. :bigok:

Der jetzige Zeitpunkt ist IMHO leider sehr ungeeignet, wenn Du mit dem Gedanken an eine Anschaffung einer Grafikkarte für Auflösungen über WQHD nachdenkst und nicht innerhalb des nächsten Jahres wieder wechseln möchtest:

- Für meinen Geschmack haben beide Hersteller keine Karte im Programm die als Single Lösung 4K ohne Einschränkung darstellen kann.
- Video auf 4K ist bei beiden Herstellern für geschütztes Material nicht möglich.
- Die Frage nach benötigtem VRAM, wenn Eye-Candy gewünscht, ist für mich weiter unklar.
- Bei beiden Herstellern zahlt man zur Zeit Early Adopter Preise.
- Leistungsfähigkeit bei DX 12 ist unklar.
- Verhalten bei Virtual Reality, einer der Neuerungen auf die ich mich freue, ist unklar.

Da greift man schnell mal daneben.

Dir viel Glück bei der Auswahl.
Dann scheint es so als wenn die aktuelle "Sitzen und Kaffee schlürfend abwarten" Taktik am besten ist :rofl:
 
Es ist also nichts ungewöhnliches wenn man Leistung bei einen so wichtigen Release quasi mehr oder weniger verschenkt? Die Fury X hätte mit dem nur 5 Tage(!) neueren Treiber vielleicht wesentlich bessere Kritiken eingefahren. Natürlich macht jeder mal Fehler, darum geht es mir aber nicht, ich finds einfach nur Schade das man das nicht vorher schon besser organisiert hat - die Möglichkeit hatte man.

natürlich ja, ich meinte nichts ungewöhnliches..... Treiberteam A benötigt noch 5 Tage länger für Optimierungen, der Release sollte aber eventuell nicht länger hinausgezögert werden, oder aus welchen Grund auch immer .... wir werden sehen was der nächste Omege Treiber noch raushauen kann ...
 
Zuletzt bearbeitet:
... und ich wartete geduldig aber von Tag zu Tag immer hibbeliger auf die Vorstellung der Fury.
(Achja, bis dato immer noch keinen laufenden Gamingrechner - alles schön geschmeidig vom Lappie am sichten usw.)

Und seit dem hänge ich irgendwie nur noch in Foren, im Hintergrund, lesend, und versuche mir bei den ganzen Niveaus, Meinungen und Hinundhers selbst ein Bild zu machen...

schöner beitrag. es ging mir ähnlich. wollte meine gtx 570 zur 970 machen und hatte probleme mit so einem kleinanzeigen gauner. dann bis fury gewartet und eine woche vor veröffentlichung gesehen, dass die 390x für 430€ raus soll. obwohl ich nvidia mittlerweile nicht mehr ab kann, gleich darauf die gtx 980 geholt, da 500€ echt mein max. ist und ich mir sicher war, dass dazwischen nicht mehr viel kommen kann. hätte ich die nano erwartet, hätte ich noch gewartet, aber so warte ich dann jetzt mal ruhig drei bis vier jahre auf <28nm, <350€, >4gb und >2x bis 3x frames als meine 980 ;-) träum.
 
Kannst du vielleicht 2 mal auf einen Server als Spectator Joynen, die freie Kamera auf die jeweils gleiche Stelle richten, wo nicht gar so viele (oder am besten gar keine) Spieler herumlaufen und dann die FPS mit Mantle/DIRECT-X vergleichen?

Ich könnte den PC jedes Mal gegen die Wand klatschen, wenn ich Battlelog nutzen muss. Ich schau was sich machen lässt :)
 
@DON:

Aus dem 3dcenter:
Wenn sich ein zu wenig an VRAM nicht nur in gefühlter und gemessener Bildrate bzw. über die Frametimes sondern zusätzlich auf die Bilddarstellung auswirkt, ist das doch ein gewichtiger Grund genauer hinzuschauen und vllt. endlich Antworten auf Fragen wie Speicherbelegung != benötigter Speicher zu geben.

Könnt Ihr euch in der Redaktion mal Gedanken darüber machen, ob man technisch überprüfen kann, dass sich fehlender VRAM auch in schlechterer Bildqualität auswirken kann, respektive auswirkt?

Eine Anfrage an Entwicklerstudios diesbezüglich könnte auch aufschlussreich sein.

Gruß Thomas
 
Ich find es so genial, hat jemand von Euch schonmal ne Grafikkarte entwickelt? Produziert? Treiber geschrieben? Nein?

Dann würde euch etwas Demut ganz gut stehen, als wäre NV frei von Fehlern...

Das ist so ein Trauerspiel hier...die Meisten sind eh nur zur Belustigung hier!

Was tut den das zur Sache? Nur weil ich noch nie eine GraKa released habe darf ich offensichtliche Fehler nicht kritisieren?
Das ist ja mal eine verquere Logik. Demnach habe ich als Kunde den Mund zu halten und alles hinnehmen was mir ein Hersteller gütigerweise verkauft?
Und mit NVIDIA hat das nix zu tun. Hier wird die Fury diskutiert und es ist nicht notwendig bei jeder Kritik an AMD alle Fehltritte von NVIDIA aufzuzählen.
 
So, habs mal durchgetestet ... beides mal selbe Settings, selbe Stelle, selber Server. Nur Mantle und Direct3D jeweils ausgetauscht.
Alle Settings auf Ultra und 4x MSAA (Windows 8.1 Update 1 64-Bit)

Seltsamerweise performt die Fury X unter Direct3D zumindest bei mir besser als mit Mantle:

Mantle erreicht 76 FPS
Direct3D erreicht 95 FPS


Kann das vielleicht jemand gegentesten, ob da eventuell was nicht stimmt?



So hab Thief mit DirectX 11 vs. Mantle noch mal gegengetestet:

DirectX 11

MinFPS 35.7
MaxFPS 105.3
AvgFPS 53.7

Mantle

MinFPS 59.9
MaxFPS 101.9
AvgFPS 78
 
Zuletzt bearbeitet:
Mich würde tatsächlich mal interessieren wie die Fury in BF4 unter mantle performt. Ich denke da kann man dann auch Rückschlüsse auf die DX12 Leistung ziehen.

gesendet von meinem Xperia ZL

bringt aber nicht viel, wenn wir die DX12 Leistung der Nvidias nicht kenn mMn.

dass die Fury unter 1080p so "schlecht" performt ist mir wohl der größte Dorn im Auge... ob man das über den Treiber verbessern kann?
 
Zuletzt bearbeitet:
bringt aber nicht viel, wenn wir die DX12 Leistung der Nvidias nicht kenn mMn.

dass die Fury unter 1080p so "schlecht" performt ist mir wohl der größte Dorn im Auge... ob man das über den Treiber verbessern kann?

Wenn man sich die synthetischen DX12 Benchmarks anschaut, dreht sich das Bild um und Nvidia hängt bei den Drawcalls hinterher, wie AMD jetzt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh