[User-Review] CrossfireX AMD Radeon Sapphire Nitro R9 390 Tri-X OC Test

@SH
Nein, ich habe keine 2x390. Meine Signatur und meine Systeminfos im Avatar sind eigentlich aktuell bzw. hat sich nichts geändert.
Aber ich habe auch ein CCC :)

Für 144Hz brauchst nur mehr GPU FPS wenn der Monitor native 144Hz bietet, die meisten erreichen die hohen Hz durch Zwischenbildberechnungen z.B. für 24P Videos in 1080p.

Bei deiner Auflösung kannst auch ohne große Bildqualitätsverluste auf inGame AA verzichten. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
LuxMark v2 und v3

LuxMark v2 Haus mit Säule ( SALA ) = 6002 Punkte
LuxMark v3 Ball Szene ( LuxBall ) = 38185 Punkte

Reicht dir das? Oder noch andere Tests bei LuxMark?
 
Zuletzt bearbeitet:
Ist das eigentlich ein Auslesefehler oder warum hast du so drastische GPU Load Einbrüche in den GPU-Z Screen, außer bei Batman?
Könnte auf ein CPU Limit schließen lassen, allerdings ist das zackige hin und her eher ungewöhnlich dafür...
Ich würde an deiner Stelle eher Afterburner Screens für Takt und Load anfertigen -> da sieht man einfach mehr als in den winzigen GPU-Z Pics.
 
Ist das eigentlich ein Auslesefehler oder warum hast du so drastische GPU Load Einbrüche in den GPU-Z Screen, außer bei Batman?
Könnte auf ein CPU Limit schließen lassen, allerdings ist das zackige hin und her eher ungewöhnlich dafür...
Ich würde an deiner Stelle eher Afterburner Screens für Takt und Load anfertigen -> da sieht man einfach mehr als in den winzigen GPU-Z Pics.

Habs gerade überprüft. Ich habe vor und nach dem Bench immer wieder raus getabt in den Destkop , weil ich Probleme hatte ein Screenshot zu machen. Daher kommt das. Gerade den Bench 2x hintereinander laufen lassen. Keine Einbrüche :) Alles gut
 
Hab das gleiche wie dein Screen laufen lassen. CPU + GPU dieses mal. 6412 Punkte
Das ist schon sehr gut, wie viel Watt hat dein System max Peak angezeigt?
Bis 810W läuft mein System, ohne WaKü Pumpe (+18W an der Dose in der Stunde)

(64 vs 80 Units + 768Bit vs 1024Bit + Intel Bonus. :cool:
 
Das ist schon sehr gut, wie viel Watt hat dein System max Peak angezeigt?
Bis 810W läuft mein System, ohne WaKü Pumpe (+18W an der Dose in der Stunde)

(64 vs 80 Units + 768Bit vs 1024Bit + Intel Bonus. :cool:

Hab leider das Strommessgerät nicht mehr hier. Aber die 574W wurden mit Furmark gemessen. OC und Overdrive habe ich bis jetzt nicht getestet. Aber laut diversen Berichten, kann man mit 10% mehr Leistung rechnen.

- - - Updated - - -

Ist das eigentlich ein Auslesefehler oder warum hast du so drastische GPU Load Einbrüche in den GPU-Z Screen, außer bei Batman?
Könnte auf ein CPU Limit schließen lassen, allerdings ist das zackige hin und her eher ungewöhnlich dafür...
Ich würde an deiner Stelle eher Afterburner Screens für Takt und Load anfertigen -> da sieht man einfach mehr als in den winzigen GPU-Z Pics.

Mhh ich hab mich verlesen. Du hast Recht. Gute Frage wegen den Einbrüchen! FPS drops oder lags habe ich nicht. Woran kann ich es noch merken, dass der CPU Bottleneck da ist?
 
Hab leider das Strommessgerät nicht mehr hier. Aber die 574W wurden mit Furmark gemessen. OC und Overdrive habe ich bis jetzt nicht getestet. Aber laut diversen Berichten, kann man mit 10% mehr Leistung rechnen.

Mit oc solltest du dein "blaues wunder" erleben, wenn FreeSync greift bist eh fein raus. ;)

3DMark Sky Diver: http://abload.de/img/3dmarl_skydiver_stockxfuem.jpg
(oder Drachen zähmen leicht gemacht v2 :teufel: )
 
Mhh ich hab mich verlesen. Du hast Recht. Gute Frage wegen den Einbrüchen! FPS drops oder lags habe ich nicht. Woran kann ich es noch merken, dass der CPU Bottleneck da ist?

Du hast halt weniger FPS, teils drastisch weniger. Gerade bei deinem 144Hz Monitor wäre das ärgerlich.
Allerdings wie gesagt schaut mir das hin und her komisch aus. Im CPU Limit ist die GPU Load generell eher niedrig(er), schwankt aber nicht ständig von low to high und umgekehrt.
Einfach ins Blaue könnte das ein Throttling der CPU sein. Da dort von jetzt auf gleich keine Leistung mehr da ist und dann auch irgendwann wieder voll da ist. Sollte man allerdings entsprechend in den FPS sehen -> es sei denn, die sind so hoch, dass es gar nicht auffällt.
 
Du hast halt weniger FPS, teils drastisch weniger. Gerade bei deinem 144Hz Monitor wäre das ärgerlich.
Allerdings wie gesagt schaut mir das hin und her komisch aus. Im CPU Limit ist die GPU Load generell eher niedrig(er), schwankt aber nicht ständig von low to high und umgekehrt.
Einfach ins Blaue könnte das ein Throttling der CPU sein. Da dort von jetzt auf gleich keine Leistung mehr da ist und dann auch irgendwann wieder voll da ist. Sollte man allerdings entsprechend in den FPS sehen -> es sei denn, die sind so hoch, dass es gar nicht auffällt.

Mhh das interessiert mich jetzt schon sehr. FPS Einbrüche merke ich nicht. Bei GTA und Witcher ca. 10 Minuten gespielt. Stabile Framerate mit FPS. Ich hol mir mal einen 4790k und schaue wie sich das dort auswirkt.
 
Zuletzt bearbeitet:
Wollen wir nun den Alpha vs Alpha antreten lassen oder nur blabla betreiben?
Win 10 64Bit miz Prof. upgrade kann nicht schaden...


CrossfireX rock´s the world, nothing like this. :)

https://www.youtube.com/watch?v=JB35EHhQ4Jg
 
Dieses GPU load Problem lässt mir keine Ruhe. Bottleneck oder nicht?
 
Ich upgrade , wenn Fable mit DX12 rauskommt :)
Etwas Reifezeit kann nicht Schaden, hab schon ein paar Ungereimtheiten gefunden gegenüber Windows 7.
Keine schlimmen Fehler, betrifft openGL sowie COS und Cache Leistung, mal schauen woran das jetzt wieder liegt (vermutlich dotNET Wirrwar)
Dieses GPU load Problem lässt mir keine Ruhe. Bottleneck oder nicht?
Wann und wo hast den genau Probleme mit der GPU Auslastung?
Mit Frame Pacing wird verhindert, dass die GPUs ständig auf 100% laufen, also zwischen 60 und 90% kann die Auslastung schwanken aber nicht pulsen (wie beim Tabben).

Solang die FPS stabil sind, sollte es kein Problem sein?
Kannst ja mal das Framrate Ziel im CCC auf 72FPS einstellen und vergleichen ob es schlechter läuft als mit 144Hz. ;)
 
Ich habe 0 Probleme beim Spielen und merke auch nichts. Aber laut GPU-Z Screens im ersten Post ist die GPU Load mal bei 100% oder mal bei 0%.

Das mit dem FPS Target probiere ich mal.
 
Ich habe 0 Probleme beim Spielen und merke auch nichts. Aber laut GPU-Z Screens im ersten Post ist die GPU Load mal bei 100% oder mal bei 0%.

Das mit dem FPS Target probiere ich mal.
Starte mal zwei GPUz Fenster mit den Sensoren nachdem du das Spiel gestartet hast, dann werden auch mehr Werte bei der unteren GPU ausgelesen.
Damit sollte es so aussehen: http://abload.de/img/tombraider_ultrapreseu0ju2.jpg
Bench Result: http://abload.de/img/2015-08-16_00002cra9x.jpg


ZCP = ULPS evt mal deaktivieren, sollte mit Trixx oder Afterburner gehen in den Optionen.
 
Zuletzt bearbeitet:
Dieses GPU load Problem lässt mir keine Ruhe. Bottleneck oder nicht?

Wie gesagt, wäre für ein CPU Leistungsproblem ein eher untypisches Verhalten. Aber mach einfach mal ein paar Afterburner Screens -> da sind die Diagramme entsprechend weit größer und man sieht einfach mehr. Vielleicht ist das auch einfach nur ein ungünstiges Anzeigeverhalten bei GPU-Z.
In Batman schauts ja gut aus. Da ist die Load realtiv stabil und gleich.
 
Probiere es gleich mit ULPS disabled mal! Aber hier erstmal die Resultate mit ULPS



Sieht das normal aus? Ist doch eigentlich ganz okay für 20 Minuten GTA 5 oder?

Und hier Witcher 3 ca 10 Minuten



- - - Updated - - -

Mich interessiert vor allem die Softwareseite von Crossfire. Geht es nachwievor nur im Vollbild? Geht es inzwischen mit Freesync? In den Hz-Bereichen, die auch für den Monitor angegeben sind, oder nur eingeschränkt? Klappt VSR mit Crossfire? Wo beginnt der VRAM zum Flaschenhals zu werden, bei welcher Auflösung? Inwieweit profitieren alle Games davon? Oder muss man weiterhin gezielt "die richtigen" Games spielen, damit es sich lohnt? Sorry, ich hab nun mal wenig Interesse an BF4. Bringt es bei Indigames irgendeinen Vorteil? AMD muss mal endlich ne Lösung bringen, bei der ALLE Spiele von Crossfire profitieren, man kann sich da einfach nicht auf die Gamedevs verlassen bzw. das abwälzen. Das ist Aufgabe des Treibers!

Also :)

Geht nur im Vollbild
Es geht mit Freesync jetzt und läuft super im Crossfire
Nur in den Freesync HZ Bereichen, die angegeben sind beim Monitor. Bei mir sind es 40-144Hz
CF und SLI gehen nicht mit VSR
VRAM kann ich leider mit 1440p in keinem Spiel ausreizen. 5-6GB VRAM bei GTA und Mordor sind drin.
Ich finde es lohnt sich schon viel VRAM zu haben. Die Engine schaut natürlich wie viel sie sich ziehen kann und bei 4GB VRAM hält sie sich zurück. Denn eigentlich kann sie auch 5-6GB VRAM benutzen und wird damit perfekt versorgt.
 
Zuletzt bearbeitet:
Sieht das normal aus? Ist doch eigentlich ganz okay für 20 Minuten GTA 5 oder?

Ja, das sieht eher normal aus...
Wobei auch jetzt klarer erkennbar ist, dass du, zumindest beim GTA V Screen faktisch stark ins CPU Limit läufst. Beim Witcher war ebenso streckenweise, aber nicht so krass...
Solange für dich allerdings genügend FPS bei rum kommen, kein Grund primär zu wechseln (CPU). Zur Not kannst du noch etwas BQ steigernde Maßnahmen eindrehen, sofern noch Luft ist um so die brach liegende GPU Power in BQ umzusetzen.
 
Testest du denn noch mit einem 4790K @ 4.5GHz? Ich hab gesehen, du hast die Sachen schon in den MP gestellt.


Für FullHD und 1440p lohnt sich meiner Meinung nach eine Fury X dann doch mehr als zwei 390er, zumindest wenn man ein buntes Portfolio an Spielen hat, von denen einige eben kein CF unterstützen. Dann kriegt man in jedem Fall die Leistung aus der Hardware rausgeholt und kann VSR nutzen. Ist irgendwie eine Ironie des Schicksals, dass ausgerechnet bei den CF-Kombis, die ja eigentlich ideal für VSR geeignet wären, soft- oder firmwareseitig kein VSR geht. Nebenbei sind bei Single-GPU die Anforderungen ans Mainboard und Netzteil geringer.
 
Hat mal jemand getestet wie es sich -- soweit vom Spiel angeboten -- auf den Speicherbedarf auswirkt, wenn man Texturen statt "Ultra" nur "High" einstellt? Ich sehe da bei praktisch allen Spielen, die das anbieten, nämlich keinen Unterschied.
 
Testest du denn noch mit einem 4790K @ 4.5GHz? Ich hab gesehen, du hast die Sachen schon in den MP gestellt.


Für FullHD und 1440p lohnt sich meiner Meinung nach eine Fury X dann doch mehr als zwei 390er, zumindest wenn man ein buntes Portfolio an Spielen hat, von denen einige eben kein CF unterstützen. Dann kriegt man in jedem Fall die Leistung aus der Hardware rausgeholt und kann VSR nutzen. Ist irgendwie eine Ironie des Schicksals, dass ausgerechnet bei den CF-Kombis, die ja eigentlich ideal für VSR geeignet wären, soft- oder firmwareseitig kein VSR geht. Nebenbei sind bei Single-GPU die Anforderungen ans Mainboard und Netzteil geringer.

Ich habe ganau das gemacht (2x R9 290 auf Fury X) allerdings for Tripplescreen. Zwei 390er haben massiv Power, keine Frage. Wer aber nicht nur Blockbuster spielt sondern auch MMO's und Indietitel, der wird an der mangelnden CF Unterstützung verzweifeln.
Wer hauptsächlich die bekannten großen Titel spielt, wird mit CF aber schon glücklich. Wenn es unterstützt wird, geht das ordentlich ab!

@elchupacabre: Unwahrscheinlich. Mit HBM v1 geht nicht mehr. Bis V2 so weit ist werden wir wohl schon arctic islands sehen.
 
Das meinte ich damit ja auch, ich bin der Meinung eine Fury X mit 4GB ist nix Ganzes und nix Halbes.
 
Das meinte ich damit ja auch, ich bin der Meinung eine Fury X mit 4GB ist nix Ganzes und nix Halbes.

Deine Meinung ist nachvollziehbar. Als Fury X Besitzer muss ich aber sagen, die Karte geht wirklich gut ab! Und das mit problemlosen Treibern zum Release.
Rein vom Spielerlebnis her ist die Karte tadellos.

Wenn man sich aber eine neue GPU mit dem Hintergedanken anschafft, dass sie noch viele Jahre im Rechner werkeln soll, macht man sich über die 4 GB sicherlich mehr Gedanken.

Jetzt schränken sie mich absolut gar nicht ein. In spätestens zwei Jahren werkelt so oder so eine neue GPU im Rechner. :d
 
Klar, wir wissen ja auch nicht, wie es mit der Spieleentwicklung weitergeht und wer regelmäßig aufrüstet, wird sich darüber wohl weniger Gedanken machen müssen.
 
Das wäre halt noch super interessant gewesen zu testen, ob man mit etwas kleinerer Texturgröße dann dauerhaft unter die 4 GB rutscht.
 
Auch wenn man das durchaus machen kann... Ganz ehrlich, man kauft ne Hardware für 700€ und stellt dann die Texturqualität runter, also genau den Schalter, der effektiv keine FPS kostet, sondern rein auf den VRAM geht. -> dazu kommt der Punkt, das wir HEUTE, also ein paar Tage nach Release der Karte überhaupt über sowas nachdenken.
Ich weis nicht, aber irgendwie widerstrebt mir diese Denkweise doch etwas... Anders, wenn man die Karte schon 1-2 Jahre hat und dann vor der Wahl steht, nochmal 700€ raushauen für ein neues Produkt oder ggf. hier und dort mit Abstrichen mit dem alten Produkt weiter spielen. Dann OK. Das kann man machen. Aber doch nicht bei nem Nagelneuen Produkt!!

Wenn ich vor dem Kauf der Karte weis, dass der VRAM überläuft bzw. überlaufen wird, dann kauf ich das Teil nicht...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh