AMD Radeon R9 390X, 390 und 380 im Test

Mag sein, allerdings denke ich anhand des Umstands, dass es eben vorrangig Gameworks Titel sind, dass AMD da einfach einen Weg gefunden hat, sich mit Gameworks zurecht zu finden... Die Vermutung liegt zumindest nahe, dass dort Potential schlummert, was man abrufen kann.

Möglicherweise hat auch AMD irgendwelche Codezeilen von Gameworks bei NV lizensiert? Oder über Dritte sich Einblick dahingehend geschaffen?
Allerdings hast du schon recht. Gerade so Sachen wie das künstliche Limitieren des Tesselation Levels, was faktisch nicht auffällt auf dem Schirm kann genau so vorgenommen werden... Und es würde wohl nichtmal bei genauerem Hinsehen groß auffallen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Oder hat sich an der Einsicht seitens NV in den Code was geändert? Ich hab dahingehend zumindest nix gehört.

Vieleicht hat man bei AMD auch etwas gemacht was man besser nie laut ausspricht. Revers enginering sollte ohne weiteres möglich sein. Aber mit mir geht meine Phantasie durch.
 
Zuletzt bearbeitet:
die ersten die eine neue Karte/Auto/CPU/Fernseher der Konkurrenz haben - ist die Konkurrenz ;)

und dann wird gepflegt zerlegt und analysiert
 
Mag sein, allerdings denke ich anhand des Umstands, dass es eben vorrangig Gameworks Titel sind, dass AMD da einfach einen Weg gefunden hat, sich mit Gameworks zurecht zu finden... Die Vermutung liegt zumindest nahe, dass dort Potential schlummert, was man abrufen kann.

Möglicherweise hat auch AMD irgendwelche Codezeilen von Gameworks bei NV lizensiert? Oder über Dritte sich Einblick dahingehend geschaffen?
Allerdings hast du schon recht. Gerade so Sachen wie das künstliche Limitieren des Tesselation Levels, was faktisch nicht auffällt auf dem Schirm kann genau so vorgenommen werden... Und es würde wohl nichtmal bei genauerem Hinsehen groß auffallen.

mich würde interessieren, ob AMD mit DX12 die Gameworks Funktionen die bei AMD Hardware über die CPU laufen, auf die GPU lagern auslagern kann.

ps. bei den ganzen Gameworkstiteln wo AMD zugelegt hat, sind die Gameworkseffekte doch deaktiviert, ich denke das waren generelle Optimierungen.
 
R9 390X => Taktet nur etwas höher als die 290X. Die 50MHz Core wird man sicher mit OC locker packen und am Speicherdurchsatz bottleneckt die 290X bestimmt nicht bei dem SI. Dabei ist die 290X fast 200 EUR billiger.
Nicht ganz. Eine R9 290X mit 8 GB VRAM bekommst du nur mit ordentlich Aufpreis. Bei gleicher Ausstattung liegt der Preisunterschied im Moment bei knapp 50 Euro zugunsten der R9 290X. Aber wie gesagt, erst mal Verfügbarkeit abwarten. An den gesamten 300er Preisen wird sich sicherlich noch einiges tun.

R9 390 => Kaufe ich lieber die 290X für schmaleres Geld und habe bestimmt die gleiche Leistung.
Wenn 4 GB VRAM ausreichen, ja. Bei 8 GB VRAM wäre die R9 390 eher zu empfehlen, da preiswerter und quasi genauso schnell.

Und ob 4GB RAM oder 8GB macht doch wohl für einen Gamer bis 2000er Auflösung sicher keinen Unterschied...
Man sollte langsam mal mit diesem Irrglauben aufhören, dass VRAM irgendwas mit der Auflösung zu tun hat. Das hat es nämlich nicht, zumindest nicht direkt. Der benötigte VRAM hängt einfach vom Spiel selbst ab und welche Datenmengen, vor allem Texturen, gebraucht und im VRAM gehalten werden. Ob das ganze dann in 640x480 oder 1920x1080 gerendert wird, spielt keine Rolle. Der benötigte VRAM ändert sich dadurch nicht (bzw nur minimal aufgrund der unterschiedlich grossen Framebuffers). Es kann allerdings so sein, dass bei höheren Auflösungen auch höher aufgelöste Versionen der gleichen Textur zum Einsatz kommen. Und dann erhöht sich logischerweise auch der Speicherbedarf. Aber nochmal, das hängt vom Spiel selbst und der verwendeten Grafikengine ab. Das hängt nicht direkt von der Bildschirmauflösung ab.

R9 380 => Kaufe ich lieber die 280X für gleiches Geld und habe etwas mehr Leistung.
MMn überhaupt keine gute Idee. Die paar Prozent Performanceunterschied sind vernachlässigbar. Die R9 380 hat auf jeden Fall den moderneren Chip, samt aktuellen Features (wie Freesync oder TrueAudio), besserem DirectX 12 Support und die Option für 4 GB VRAM. Und aufgrund der besseren Architektur, vor allem der leistungsfähigeren Geometrie-Engine, ist auch eher damit zu rechnen, dass die R9 380 durch Treiberoptimierungen und die neuen APIs (DirectX 12 / Vulkan) noch an Performance zulegt.

Sorry, aber wenn die 200er Karten nicht EOL gehen ...
Das tun sie doch.
 
Zuletzt bearbeitet:
Bei 290X od. 390X würde ich momentan auch eher zu 290X raten. Ich glaube die 8GB werden bei den allermeisten Leuten überhaupt keinen Mehrwert bringen, da insgesamt nur wenige Games u. auch dann nur in sehr hohen Settings überhaupt daraus Nutzen ziehen u. diese Settings/Games dann auch nur von einer kleinen Zahl der potenziellen Käufer gespielt werden. Da sollte man genau schauen, ob evt. das eigene Lieblingsgame das man auch noch länger spielen wird von den 8GB profitiert. Allerdings werden sich die Preise bei steigender Verfügbarkeit sicher noch einpegeln u. bei der 290X muss man aufpassen welchen Customkühler man nimmt, denn da gab es eigentlich nur wenige die mit Hawaii wirklich fertig wurden. Bei der 390X haben die Hersteller da nochmals deutlich nachgebessert u. wirklich sehr gute Kühler verbaut. In der Breite sicher merklich besser als noch bei der 290X. Bei all dem gehe ich natürlich davon aus, dass die Treiberverbesserungen auch f. die 200er Gen noch kommen.

Bei 380 od. 280X ist die Lage eindeutig. Da kann ich mich mr.dude voll u. ganz anschließen.
 
Zuletzt bearbeitet:
Auch AC legt stark zu, siehe dazu die CB Benches...
Interessant dabei ist, dass das irgendwie alles Titel mit Gameworks sind... Wo doch AMD mehrfach sich darüber ausgelassen hat, das Optimierungen so ohne weiteres nicht möglich wären ohne Einsicht in den Code.
-> geht ja wohl doch irgendwie. Oder hat sich an der Einsicht seitens NV in den Code was geändert? Ich hab dahingehend zumindest nix gehört.
Das Ganze rungejammer im Vorfeld wirkt dann doch irgendwie reichlich deplaziert, wenn man es nunmehr doch geschafft hat (und das wohl ohne irgendwie zu schummeln)

Bei Project Cars hat sich AMD nicht beschwert was eine Einmischung in den Code von Nvidia angeht, daher würde ich mal sagen, dass Project Cars als Nvidia Titel herausfällt, vor allem weil Project Cars keine Nvidia Gimmicks enthält, außer Werbettafeln im Spiel.
Ähnlich zu sehen ist es bei Assassins Creed, dort hat man sich auch nicht beschwert und es gab GPU Physx, was man auf AMD nicht aktivieren kann, aber ansonsten? ( HBOA+ und PCSS Schatten funzen auf AMD bestens)
Witcher 3 wurde ohne Nvidia Code getestet, HBOA+ läuft gut, Hairworks nicht aktiviert. Ich sehe bei diesen Spielen keinen Hinweis darauf, dass dass die Optimierungen die dort vorgenommen wurden etwas mit Gameworks zu tun haben?

Tesselationsleistung wurde bisher nur mit der SDK gebencht und die kann man auch verbessern ohne dass man Einblick in den Code von the Witcher besitzt.
Entgegen deiner Aussage, hat sich AMD bei diesen Titeln nicht explizit darüber ausgelassen und zudem wurde der Witcher mit Hairworks nicht getestet.

Das Ganze rungejammer im Vorfeld wirkt dann doch irgendwie reichlich deplaziert, wenn man es nunmehr doch geschafft hat

Ich halte deine Rückschlüsse für komplett falsch, denn die Performance hat sich auch in anderen Games verbessert.
Beispielsweise in Ryse, Dragon Age, Crysis 3, Tombraider.
 
Zuletzt bearbeitet:
Gibt es hier schon Erfahrungen zum Flackern? Das soll ja ziemlich schlimm sein, hier ab Minute 8:50 zu sehen:


Ich hatte ja die Hoffnung, dass mit dem neuen Treiber (wenn es ihn mal für die R9 2xxer gibt) Mantle nicht mehr andauernd abstürzt - aber so ein Flackern möchte ich ja auch nicht haben...
 
Wiedermal sicherlich Einzelfälle, ich hatte noch nie ein Problem und durch meine Hände gingen ca 20 290x und r9 290 Karten.
Mantle ist bei mir auch noch nie abgestürzt.
 
die R9 2xx haben dies Flackern auch nicht. Das passiert ja nur mit dem neuen Beta Treiber mit dem ordentlichem Performance Boost.

Mantle kackt bei mir andauernd alle paar Stunde ab - ich denke zumindest, dass es an Mantle liegt, weil es in der Fehlermeldung drin steht:





Kann man Mantle irgendwie abstellen? Ich habe ja letzendlich eine potente CPU und bin darauf nicht angewiesen.
 
Jeden Mantle Titel kann man auch mit Directx11 spielen, normalerweise im Grafikmenü verstellbar.

Das passiert ja nur mit dem neuen Beta Treiber mit dem ordentlichem Performance Boost.

Ich denke nicht, dass das einen Zusammenhang hat.
 
Moin,

bei mir läuft der Catalyst 15.15 mit einer R9 290 entspannt zusammen. Bis jetzt kein Flackern, keine Abstürze oder sonstigen obskuren Sachen.
Davon abgesehen hatte ich sowieso noch nie größere Probleme mit den Catalyst Treibern.
 
Ich habe mir die Gigabyte R9 380 mit 4 GB bestellt - mal sehen ob ich damit wieder ohne Lags durch meinen Star Citizen Hangar laufen kann.
 
Zuletzt bearbeitet:
Hi Soron, bitte unbedingt berichten :) Bin noch am Grübeln, ob die 380 oder eine GTX 960. Danke.
 
1.) Der Hawaii selber hat eine Überarbeitung erfahren und ist lt. 3DCenter ca. 3-5% schneller, erlaubt wohl auch agressivere Speichertimings bei mehr Takt. Der Chip selber lässt sich nicht besser takten.
2.) Catalyst 15.15 ist phase 1 der starken Überarbeitung, vor allem die Tesselationsfähigkeit und die Frontendleistung wurde stark überabeitet, was nochmal ordentlich Power gibt, wie man in den Tests sieht
3.) 15.20 ist die Phase 2, der bringt auch noch Optimierungen im CPU-Limit mit (15.200.1040.0).
 
Zuletzt bearbeitet:
Entgegen deiner Aussage, hat sich AMD bei diesen Titeln nicht explizit darüber ausgelassen und zudem wurde der Witcher mit Hairworks nicht getestet.

Du interpretierst wieder zu viel. Ich sagte keineswegs, dass es um einzelne Titel ging. Sondern ich sagte, AMD hat sich mehrfach darüber ausgelassen, dass man Gameworks nicht einsehen kann. Warum du jetzt hier einzelne Titel rausziehst um das Gegenteil zu behaupten ist mir schleierhaft. Die Statements seitens AMD sind eindeutig gegen Gameworks. Das muss nicht auf alle Titel zutreffen, aber auch das habe ich eben keineswegs behauptet.

Ich halte deine Rückschlüsse für komplett falsch, denn die Performance hat sich auch in anderen Games verbessert.

Nicht nur NV only Features sind von Gameworks... Gerade bei TW3 sieht man das doch sehr schön... Da sind ne ganze Menge Simulationen drin um irgendwie realitätsnahe Optik zu bringen. In einigen Titeln läuft das nur auf NV, in anderen auch auf AMD Hardware. Was genau wo wie wer macht, lässt sich nicht vollends beurteilen. Dennoch liegt die Vermutung nahe, dass A) wenn Gameworks drin ist, B) auch AMD Hardware teile des Gameworks Codes ausführt... Denn spätestens seit TW3 wissen wir, dass NV nicht mehr ausschließlich Gameworks-Effekte nur auf ihrer Hardware betreiben lässt.

Vielleicht betrifft das auch andere Titel. Mag sein... Aber vorrangig fallen da erstmal Gameworkstitel auf, weil dort eben die vormalige Lücke geschlossen wird... Wie man das erreicht? Ist doch auch fast egal... Solange es läuft. Und wenn man durch welche Mittel auch immer, das Spiel derart beschleunigen kann, dass es keine Leistungsprobleme gibt, wirkt entsprechend das rumgeeier im Vorfeld etwas seltsam. Muss man sich halt einfach mal hinsetzen und die Möglichkeiten durchgehen...

mich würde interessieren, ob AMD mit DX12 die Gameworks Funktionen die bei AMD Hardware über die CPU laufen, auf die GPU lagern auslagern kann.

ps. bei den ganzen Gameworkstiteln wo AMD zugelegt hat, sind die Gameworkseffekte doch deaktiviert, ich denke das waren generelle Optimierungen.

Nicht zwingend. Weil es in einigen Games NV only Features gibt, die man deaktiviert heist das lange nicht, dass es nicht auch welche gibt, die immer aktiv sind. Bei TW3 fällt mir da bspw. die Wassersimulation ein. Die wohl ebenso auf Gameworks basiert. Genau so der Destruction und Clothing Part. Mit Hairworks hat das genau genommen gar nix zu tun. Gameworks ist es aber dennoch... -> entsprechend bringt das ausschalten von Hairworks für diese Teile gar nix ;)

PS: welche Gameworks Funktionen meinst du, die bei AMD auf der CPU laufen?
Falls es sich auf PhysX per GPU bezieht, wie es bspw. in Metro, Mafia II usw. usf. eingesetzt wird -> das wird auch in DX12 NV only bleiben oder eben auf der CPU laufen müssen... Denn DX12 hat damit eigentlich so gar nix gemein. Auch wird DX12 wohl keinerlei Verbesserungen allgemein im Sinne von Physikbibliotheken mit Berechnungen auf der GPU bringen. -> einfach weil es damit nix zu tun hat.

1.) Der Hawaii selber hat eine Überarbeitung erfahren und ist lt. 3DCenter ca. 3-5% schneller, erlaubt wohl auch agressivere Speichertimings bei mehr Takt. Der Chip selber lässt sich nicht besser takten.
2.) Catalyst 15.15 ist phase 1 der starken Überarbeitung, vor allem die Tesselationsfähigkeit und die Frontendleistung wurde stark überabeitet, was nochmal ordentlich Power gibt, wie man in den Tests sieht
3.) 15.20 ist die Phase 2, der bringt auch noch Optimierungen im CPU-Limit mit (15.200.1040.0).

Interessant dabei dürfte werden, wie man die Tesselationleistung gesteigert hat... Gibts dazu schon Daten? Oder auch Bildvergleiche?
Ich mein, ist ja nicht das erste mal, wo ein Hersteller mit Optimierungen kommt und am Ende eigentlich das Ganze zu Lasten der BQ geht.
 
Zuletzt bearbeitet:
Wenn man den kompletten Geometrieteil im Treiber neu schreibt kann man evtl. noch einige Bremsen lösen. Natürlich hat das Grenzen aber ich befürchte, dass GCN die ganze Zeit unter seinen Möglichkeiten agierte. Rory Reads Rotstift strich leider auch durch die Treiberabteilung und gleichzeitig gab es stärkere Linuxfokussierung, das bleibt dann mal was auf der Strecke.
 
R9 380 => Kaufe ich lieber die 280X für gleiches Geld und habe etwas mehr Leistung.

R7 370 => Kaufe ich lieber die 270X für gleiches Geld und bin ein bisserl schneller unterwegs.

R9 380: 280X ist nicht der vorläufer dieser Karte sondern die 285. Die 280X braucht deutlich mehr Strom (8x+6x Anschlüsse, im Vergleich zu 2x 6x bei der 380) und ist lauter, bzw. andersrum die 390 ist eine ziemlich leise Karte.
Dass die 285 mit 256bit interface mit der 280 mithalten kann wurde damals schon getestet. Die 280X mag etwas schneller sein, aber ob Lärm und Stromverbrauch das Wert sind ist eben die Frage.
Ausserdem kann die 380 features, die die 280X nicht kann (besserer DX12-Support, Freesync).

R7 370 ist nicht der Nachfolger der R9 270 sondern der R7 265. Für die R9 270 gibt es keinen Nachfolger im bisherigen 300er-Release. Das macht die Karte unter Umständen interessant, allerdings kommen wir da die R9 380 billiger wird als die R9 285 schon in den Preisbereich, wo du statt der 270X auch eine 380er nehmen könntest.
 
Du interpretierst wieder zu viel. Ich sagte keineswegs, dass es um einzelne Titel ging. Sondern ich sagte, AMD hat sich mehrfach darüber ausgelassen, dass man Gameworks nicht einsehen kann. Warum du jetzt hier einzelne Titel rausziehst um das Gegenteil zu behaupten ist mir schleierhaft. Die Statements seitens AMD sind eindeutig gegen Gameworks. Das muss nicht auf alle Titel zutreffen, aber auch das habe ich eben keineswegs behauptet.

Weil diese Titel nicht im Bezug zu dem stehen was AMD gesagt hat, weil the Witcher 3 ohne Hairworks getestet wurde, die AMD kritisiert hat.
Und weil diese Titel in der Form und wie sie getestet wurden, keine Gameworkseffekte aufweisen, die AMD Karten bremsen würden. HBOA+ bremst doch keine AMD Karten? Jedenfalls ist mir davon nichts bekannt und ich hab schon viele Tests zu gelesen.

Warum du jetzt hier einzelne Titel rausziehst um das Gegenteil zu behaupten ist mir schleierhaft.

Wieso einzelne Titel? Das sind genau die Titel auf die du dich bezogen hast, um zu deiner "Einschätzung" zu kommen.

"nteressant dabei ist, dass das irgendwie alles Titel mit Gameworks sind... Wo doch AMD mehrfach sich darüber ausgelassen hat, das Optimierungen so ohne weiteres nicht möglich wären ohne Einsicht in den Code.
-> geht ja wohl doch irgendwie. "

Diese Einschätzung stand im Raum und ich sehe nicht wo diese Einschätzung begründet ist, da wie gesagt alle Titel gar nicht in der Form Gameworks nutzen, oder diese im Benchmark nicht eingesetzt wird, das habe ich Spiel für Spiel auch schon erklärt, von dir kam kein Gegenargument, sondern nur "weil da ja irgendwie Gamworks drinnen ist" und ich frage dich wo?

Und wenn man durch welche Mittel auch immer, das Spiel derart beschleunigen kann, dass es keine Leistungsprobleme gibt, wirkt entsprechend das rumgeeier im Vorfeld etwas seltsam. Muss man sich halt einfach mal hinsetzen und die Möglichkeiten durchgehen...

Warum ist es bezüglich the Witcher und Hairworks seltsam? Wo hat sich AMD bezüglich "rumgeeier" ( was das auch immer genau bedeuten soll ) bei Project Cars und Assassins Creed, so wie es getestet wurde, irgendetwas gesagt?
Und niemand hat behauptet, dass es mit sehr viel Aufwand nicht möglich ist, etwas zu verbessern.
 
"rumeiern" heißt: viel reden, aber nichts Konkretes aussagen.
 
Bei der 380er war die Treiberversion 15.200.0.0 Beta dabei, falls es jemanden interessiert.
 
Wenn schon, dann lieber die Nitro von Sapphire, unverändert um 240€.
 
Die MSI gab es von Freitag auf Samstag für 30 min für 219€:banana:. Tests gegen die 960 4GB und 380er unter sich würde mich dann doch bald mal interessieren.
 
219 für die 4gb? Auch echt top, die steht jetzt ja auch bei 239.


Weshalb denn die wenn ich fragen darf? :) Rein von den Daten her bei GH liest die sich schlechter als bspw die MSI oder die Gigabyte.
http://geizhals.de/?cmp=1280834&cmp=1282072&cmp=1282594#xf_top

Oder hab ich jetzt nen Denkfehler drin? :d

Glaub nicht, dass die paar Mhz hier wie da einen dicken Unterschied machen. Finde den Kühler der Nitro irgendwie ansprechender, und mit Sapphire bin ich immer gut gefahren, während es mit Gigabyte Probleme gab (ist nicht weiter repräsentativ, schon klar).
 
R9 380: 280X ist nicht der vorläufer dieser Karte sondern die 285. Die 280X braucht deutlich mehr Strom (8x+6x Anschlüsse, im Vergleich zu 2x 6x bei der 380) und ist lauter, bzw. andersrum die 390 ist eine ziemlich leise Karte.
Dass die 285 mit 256bit interface mit der 280 mithalten kann wurde damals schon getestet. Die 280X mag etwas schneller sein, aber ob Lärm und Stromverbrauch das Wert sind ist eben die Frage.
Ausserdem kann die 380 features, die die 280X nicht kann (besserer DX12-Support, Freesync).

R7 370 ist nicht der Nachfolger der R9 270 sondern der R7 265. Für die R9 270 gibt es keinen Nachfolger im bisherigen 300er-Release. Das macht die Karte unter Umständen interessant, allerdings kommen wir da die R9 380 billiger wird als die R9 285 schon in den Preisbereich, wo du statt der 270X auch eine 380er nehmen könntest.

Ja, aber ich vergleiche eben immer Preis => Leistung. Da vergleiche ich nicht die Karte die offiziell Nachfolger ist mit dem Vorgänger sondern die Karte die genau so viel kostet. Mag man sich drüber streiten. Ich bleibe bei meiner Meinung: So lange die 200er R9er nicht EOL gehen müssen sie wohl auf Absatz der 300er weitgehend verzichten weil preislich falsch platziert.
 
Die Gigabyte wäre eigentlich meine 1. Wahl gewesen wenn es sie am Freitag schon gegeben hätte. Der beleuchtete Schriftzug war dabei der ausschlaggebend Punkt aber MSI hat auch einen und so wurde es diese.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh