R9 390x 3-way crossfire oder Fury x 2-way crossfire?

Gnom

Neuling
Thread Starter
Mitglied seit
14.09.2002
Beiträge
862
Ort
Hamburg Ghetto
Moin, ich muß meinen Rechner mal wieder aufrüssten und kann mich nicht so recht zwischen den beiden Lösungen (390x 3-way crossfire oder Fury x 2-way crossfire) entscheiden. Die Graka muß 3 Monitore befeuern können. Zur Zeit habe ich 3x HD6980 drinnen. Preislich kommen beide Lösungen etwa auf´s gleiche. Welche ist auf längere Sicht die bessere Variante, 3x die ältere Graka (ist ja eigentlich eine R290er), dafür aber mit 8Gb Speicher, oder die neuere mit nur 4GB?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tja, erstmal zur Frage.
Wie mein Vorredner schon sagte, mehr als zwei Karten würde auch ich keinesfalls empfehlen. Zumindest Vorerst.
Auf der anderen Seite finde ich die 4GB der Fury X echt etwas knapp.

Meine Empfehlung ist erstmal eine Fury X kaufen und abwarten, was passiert wenn erste DX12 Titel kommen. Zumindest besteht da die Möglichkeit das mehrere GPUs sinnvoller genutzt werden.
Wenn es unbedingt jetzt sein muss, warum nicht eine max übertaktete GTX980TI...
 
Sorry, habe vergessen, den Rest anzugeben.
Also:
CPU: i7 4930k @ 3,90 MHz
Ram: 32GB Corsair Vengeance Pro 4x 8GB
Board: ASUS Rampage IV Extreme
NT: Cosair AX1200
Monitore: 2x 30" ASUS @1920x1200 + 1x 40" Phillips 4k
Für die Arbeit nutze ich hauptsächlich Adobe Photosop , Indesign und Illustrator mit sehr vielen Layern und sehr größen Aufösungen.
Außerdem spiele ich vor allem RPGs wie Skrym, Fallout oder Witcher mit seeehr vielen Mods und großen Graphikmods. Oder Stategiespiele wie Total War ect.
Und wie gesagt, ich habe seit Generationen Crossfire gefahre, zur Zeit halt 3x 6980, aber mir ist eine davon abgeraucht. Was mich bei der Fury abschreckt sind die 4GB Speicher. Ich habe viele Test gelesen und bei manchen zeigt sich, das solange noch es DX11 Spiele sind, der Speicher schon einbremst.
Vielleicht sind die 980ti doch eine Überlegung wert. Wobei ich eigentlich immer ATI/AMD Grakas genutzt habe (seit der Matrox Zeit )
 
Auf jeden Fall Fury X crossfire. Skaling der Dritten Karte entspricht praktisch nie dem der 2. Karte.
Wenn ein Spiel Crossfire nicht unterstützt, ist die Fury X einer 390X deutlich überlegen.
Ich bin aus diesem Grund von R9 290 crossfire zu einer Fury X gewechselt. Bei Spielen mit Crossfire Unterstützung habe ich FPS verloren. Bei Spielen ohne Unterstützung aber massiv gewonnen. Eventuell kommt noch mal eine 2. Fury X dazu aber ein Tripple Crossfire System mit Midrangekarten macht definitiv keinen Sinn.

Edit: Was für Tests hast du gelesen? Es gibt meines Wissens genau ein Spiel, dass durch den 4 GB Speicher eingebremst wird (Shadow of Mordor). Es wurden ausführliche Frametimetests gemacht und selbst Grafikspeicherfresser-Titel machten keinerlei Probleme.
 
Zuletzt bearbeitet:
Bei diesen Auflösungen würde ich auch eine GTX 980Ti im SLI Verbund in betracht ziehen. Diese hat 6 GB Vram und könnte definitiv nützlich werden ;) Außerdem lassen diese sich sehr gut übertakten^^
 
Auf jeden Fall Fury X crossfire. Skaling der Dritten Karte entspricht praktisch nie dem der 2. Karte.
Wenn ein Spiel Crossfire nicht unterstützt, ist die Fury X einer 390X deutlich überlegen.
Ich bin aus diesem Grund von R9 290 crossfire zu einer Fury X gewechselt. Bei Spielen mit Crossfire Unterstützung habe ich FPS verloren. Bei Spielen ohne Unterstützung aber massiv gewonnen. Eventuell kommt noch mal eine 2. Fury X dazu aber ein Tripple Crossfire System mit Midrangekarten macht definitiv keinen Sinn.

Edit: Was für Tests hast du gelesen? Es gibt meines Wissens genau ein Spiel, dass durch den 4 GB Speicher eingebremst wird (Shadow of Mordor). Es wurden ausführliche Frametimetests gemacht und selbst Grafikspeicherfresser-Titel machten keinerlei Probleme.

Es tut mir leid Mustrum, aber da muss ich einfach nochmal einhaken!
Gibt es benchs die deine Aussage so stützen? Oder anders, bevor es nur eein Missverständnis ist, was bedeutet für dich deutlich überlegen?
Selbst wenn ich mir den HwLuxx Test der Fury X anschaue (wo aber alle alten Karten(290X) nur mit den alten Treibern in der Tabelle stehen) liegt eine Fury X "nur" 22% vor einer 390X in UHD. Vielleicht liegt es an mir, aber diese 20% sind doch nicht deutlich... Oder etwa doch?
 





Könnte mir schon vorstellen dass da 4GB Speicher enger werden könnten.
 
Zuletzt bearbeitet:
Es tut mir leid Mustrum, aber da muss ich einfach nochmal einhaken!
Gibt es benchs die deine Aussage so stützen? Oder anders, bevor es nur eein Missverständnis ist, was bedeutet für dich deutlich überlegen?
Selbst wenn ich mir den HwLuxx Test der Fury X anschaue (wo aber alle alten Karten(290X) nur mit den alten Treibern in der Tabelle stehen) liegt eine Fury X "nur" 22% vor einer 390X in UHD. Vielleicht liegt es an mir, aber diese 20% sind doch nicht deutlich... Oder etwa doch?
Ich zock mit Ultrawidescreen Auflösung. Es sind 6 Mio Pixel zu rendern.
Im Falle von World of Warships sprechen wir von 71 anstatt 45 FPS und da sind die Performancedrops in die 20er der R9 290 noch gar nicht dabei die bei der Fury X nicht vorkommen.
Im Fall von Skyforge 50 FPS anstatt 35. Vielleicht sind diese Titel ja "Ausreißer" aber es sind die beiden Spiele die ich gerade spiele un beide haben keinen Multi-GPU Support. Die verwendete 290er war eine non X @ 1120 GPU Takt.

Edit: HisN: Unwahrscheinlich. Selbst bei Titeln die die 12 Gigabyte der Titan X ausnutzen hat die Fury X keine Probleme. Die Karten bzw. Treiber füllen den vorhandenen Speicher. Das bedeutet im Umkehrschluss nicht, dass dieser benötigt wird. Wenn ichs noch finden würde, würde ich den Artikel dazu verlinken. Wurde sehr ausführlich und nachvollziehbar getestet. Das kann sich natürlich irgendwann trotzdem ändern aber derzeit ist es kein Problem. Das kann in zwei, drei Jahren schon anders aussehen aber dann werkelt bei mir auch keine Fury X mehr. :d
Skyrim und Fallout NV mit Texturemods frisst die Fury X mit Freude. :d

Edit: Hier der Test:
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/11/
 
Zuletzt bearbeitet:
Hmm, also ich kann mich ich an Textur Swap Ruckler bei meiner alten 6GB Karte bei Mordor erinnern und auch an ein PCGH Video wo man in Watch Dogs nicht in Ruhe Auto fahren konnte mit einer 4GB Karte. Oder waren es nur drei?

Aber kaum ein Tester stellt sich hin und macht 360° Turns, wo es dann auch auffällt.
Einfach nur geradeaus durch die Pampa braucht in der Regel auch keine VRam Leistung.
 
Zuletzt bearbeitet:
@Mustrum Ich glaube dir natürlich was du beobachtet hast. Aber ein derartiger Zugewinn ist durch die Technik nicht erklärbar. Daher hake ich da so nach. Hatte der verwendete Treiber der Fury X vielleicht ein paar Treiberverbesserungen, die vielleich zufällig bei den von dir genannten Spielen, doch einen Unterschied machen.
Schade,d as ich selbst keines dieser Spiele besitze, dann könnte man noch vergleichen.
Alleine deine Beschreibung mit drops auf 20Fps mit einer R9 290 @1120MHz macht mich stuzig und lässt mich vermuten, das der Treiber bisher einfach optimiert war.
 
Hmm, also ich kann mich ich an Textur Swap Ruckler bei meiner alten 6GB Karte bei Mordor erinnern und auch an ein PCGH Video wo man in Watch Dogs nicht in Ruhe Auto fahren konnte mit einer 4GB Karte. Oder waren es nur drei?

Aber kaum ein Tester stellt sich hin und macht 360° Turns, wo es dann auch auffällt.
Einfach nur geradeaus durch die Pampa braucht in der Regel auch keine VRam Leistung.

Die Fury X verhält sich nicht wie eine normale 4 GB Karte. Die Hardware basiert nicht auf Hawaii sondern Tonga.
Hier wurden drei Komponenten optimiert: 1. GPU Hardware, 2. Treiber, 3. Bandbreite (4096 bit)
Wenn also eine R9 290X mit 4GB Probleme macht, heißt das nicht, dass die Fury X mit 4 GB das selbe Problem hat. Siehe Computerbase Artikel.

Edit: World of Warships: (Selber Treiber und OS verwendet beides mal Cat 15.7)
Edit: Ich will hier nicht behaupten, dass die Fury X immer um so viel schneller als eine R9 290 oder 390X ist. Ist in diesen Fällen der Fall was schön ist, wird aber sicher nicht immer der Fall sein. Sieht man ja auch in UHD Benchmarks.
 
Zuletzt bearbeitet:
ich hatte letztes Jahr von 2 x 7970 Matrix Platinum CF auf 2 x Titan Black SC im SLI Verbund gewechselt weil ich ja unbedingt den G-Sync Monitor von Asus ausprobieren wollte. ( Super, € verbrannt weil es unnötig war ) Im CF hatte ich nie Mikroruckler bemerkt, kaum hatte ich die Titanen im SLI wußte ich was Mikroruckler waren. Fakt nach vorher über 20 Jahren AMD bzw. ATI und jetzt ein Jahr Nvidea back to the roots und somit Fury X in Verbindung mit dem Asus MG 279q IPS. Ich bin bisher absolut zufrieden, nächsten Monat setze ich noch eine Fury X als CF dazu.
 
Zuletzt bearbeitet:
Wenn ich euch so lese, heißt die Frage also eher, 2x Fury X vs. 980ti, oder? Und wenn ich die ganzen Ausagen zusammenfasse, die Fury skaliertbesser vs. größerer Speicher bei der 980ti. Da mir keine Benchmarks wichtig sind und 2 -5% Unterschied vernachläßigbar sind, wäre die Enscheidung eigentlich Geschmacksache, beide Lösungen haben für die nächsten zwei Jahre genügend Power, oder?
 
Echt? Wenn Du Dir Mühe gibst brechen beide Lösungen heute schon zusammen.
Ich frag mich immer warum ihr versucht in die Zukunft zu schauen.
An Deinem 40" Philips wird z.b. Star Citizen nicht vernünftig laufen. Ob nun zwei AMDs oder NVs drinne sitzen. Heute. Nicht morgen, nicht in zwei Jahren. Heute.
Oder Arma3 ... wird heute nicht vernünftig laufen, jedenfalls nicht mit hohen Settings. Und das liegt nicht mal an den Grakas.
Oder Ark.... keine Chance auf Epic, egal wie viel Grakas und welche Du verbaust.

2 Jahre / Heute / 2 Jahre / Heute.

Auf der anderen Seite: Es wird alles heute laufen, wenn Du die Regler im Game bedienen kannst.
Kommt halt immer auf den Standpunkt an und was man erreichen möchte.

Sorry, ich argumentiere nur gegen die Fragestellung. Zu oft gehört, zu leer gefragt :-)
Woher sollen wir wissen was für Software Du Dir in den nächsten zwei Jahren kaufen wirst, und was die Phrase "genügend Power" bedeutet? Lässt sich nicht von hier aus beantworten und Glaskugelraten ... wenn Du darauf stehst.
 
Zuletzt bearbeitet:
Naja, daß mit der Glaskugel und in die Zukunft sehen sehe ich so: Heute muß die Leistung übertrieben sein, dann ist sie nächstes Jahr angemessen und in zwei Jahren könnte man anfangen über eine Aufrüstung nachzudenken.
 
Is aber heute nicht übertrieben wenn man Deine Monitore so anschaut (hab eine Ähnliche Konfig, nur das meine 30" 2560x1600 aufgelöst sind neben dem 40" UHD Philips).
 
Zuletzt bearbeitet:
@HisN: Star Citizens ist aber auch ein Extremfall und immer noch in der Entwicklung und wird wohl auch noch etwas Optimiert.
Arma 3 ist mies Programmiert und CPU Lastig. Wobei sich da einiges in den letzten Monaten getan hat. Und meines Wissens sogar noch ein DX12 update kommen soll.
Ark bekommt erst SLI/CF unterstützung mit dem DX12 Update in hoffentlich ein paar Wochen. Dann sieht die Sache wohl auch anders aus. Und Ark ist ja auch noch Beta, da wird ja auch noch fleisig optimiert.
 
Naja, ist ja nicht so eine Standard-Konfig und der TE stellt die Frage absolut Pauschal. Also ziehe ich extreme Beispiele heran.
Aber wenn es heute schon zusammenbricht braucht man (meiner Meinung nach) nicht in die Glaskugel schauen^^
 
Zuletzt bearbeitet:
Für mich erscheint die Fury X im Moment wegen des Hybridkühlers nicht so sinnvoll. Kannst du denn überhaupt zwei davon unterbringen? Oder würdest du auf Custom Loop umrüsten?
Ansonsten kann ich leider nur sagen, dass ich schon bei zwei 290X Karten im Crossfire teilweise die Krise gekriegt habe. Hast du die Spiele mal auf CF-Unterstützung geprüft? Bei Total War weiß ich aus eigener Erfahrung, dass CF ein totaler Krampf ist, es ruckelte und flackerte sich zu Tode. Musst du CF ab- bzw. anschalten, zerlegt es dir jedes Mal den Desktop (da kurz 640x480 anliegen). Daher würde ich leider -- trotz Sympathie für AMD -- eine starke Single-GPU Karte mit ordentlich Speicher empfehlen.
 
Und eine Stärkere Single Karte als die Fury X kostet dann 400€ mehr und hat ca. 5% Mehrleistung... dann doch lieber die Fury X und ein Jahr füher mit den 400€ aufrüsten.

@HisN: Klar ist die Frage Pauschal. Aber dennoch sind zumindest zwei der Spiele noch im Beta Stadium... wobei, das sind ja alle neuen Spiele :fresse: Aber bei Ark z.B. kommt die CF unterstützung ja erst. Also stimmt deine Aussage "egal wieviele Grakas man verbaut" zwar, aber dennoch ist sie eben nicht "richtig". Denn es seit anfang der Beta angekündigt, dass mit DX12 die multi-GPU unterstützung kommt.
 
Ich hab in Ark in Epic-Settings auf einer Titan X in UHD um die 10 FPS.
Da reißt es ein CF/SLI auch nicht raus.

Ich wähle meine Beispiele mit Bedacht :-)
 
Und eine Stärkere Single Karte als die Fury X kostet dann 400€ mehr und hat ca. 5% Mehrleistung... dann doch lieber die Fury X und ein Jahr füher mit den 400€ aufrüsten.

@HisN: Klar ist die Frage Pauschal. Aber dennoch sind zumindest zwei der Spiele noch im Beta Stadium... wobei, das sind ja alle neuen Spiele :fresse: Aber bei Ark z.B. kommt die CF unterstützung ja erst. Also stimmt deine Aussage "egal wieviele Grakas man verbaut" zwar, aber dennoch ist sie eben nicht "richtig". Denn es seit anfang der Beta angekündigt, dass mit DX12 die multi-GPU unterstützung kommt.


Kostet das gleiche und kann man besser takten (980ti)
 
Für mich erscheint die Fury X im Moment wegen des Hybridkühlers nicht so sinnvoll. Kannst du denn überhaupt zwei davon unterbringen? Oder würdest du auf Custom Loop umrüsten?
Ansonsten kann ich leider nur sagen, dass ich schon bei zwei 290X Karten im Crossfire teilweise die Krise gekriegt habe. Hast du die Spiele mal auf CF-Unterstützung geprüft? Bei Total War weiß ich aus eigener Erfahrung, dass CF ein totaler Krampf ist, es ruckelte und flackerte sich zu Tode. Musst du CF ab- bzw. anschalten, zerlegt es dir jedes Mal den Desktop (da kurz 640x480 anliegen). Daher würde ich leider -- trotz Sympathie für AMD -- eine starke Single-GPU Karte mit ordentlich Speicher empfehlen.
Hallo, was meinst du mit Hybridkühler bei der Fury X?
Das ist ein Fullcover Wasserkühler, ein Hybrid hätte auf der Karte noch ein Lüfter z.B. die R9 295X².

Kleiner Tipp:
Wenn ein Spiel CrossfireX nicht unterstützt, dann bei den 3D Einstellungen ein Profil für die Spiele .exe Datei erstellen und CrossfireX dort "deaktivieren"
Dann wird die zweite Karte nicht genutzt obwohl CrossfireX noch an.
So mach ich das und klappt einwandfrei.;)
 
Die AIO Lösung ist trotzdem nicht jedermanns Sache. Da habe ich lieber einen gescheiten Luftkühler... Der von mir aus auch 3-4Slot groß sein darf...
 
Insbesondere weil ARK weder SLI noch crossfire unterstützt. :d

Ark unterstützt ja nicht mal Single GPU vernünftig ;) Ist wirklich ein ganz übles Beispiel. Das Game hat (beim Laden) meine CPU auf 93°C gebracht! Schafft sonst kein Prozess.



@Phantomias: sorry, Versprecher: AiO-Kühler meinte ich. Den muss man teuer mitbezahlen, will man (zumindest ich) aber nicht haben. Zumal die Pumpe rattert(e). Also nochmal Fullcover kaufen, oder Bastelaktion machen. Gäbe es die Fury X als Hydrocopper, wäre es was anderes. Oder nackte PCBs für günstiger.


Danke für den Tipp mit dem Profil bei CF, wusste ich nicht!
 
Ark unterstützt ja nicht mal Single GPU vernünftig ;) Ist wirklich ein ganz übles Beispiel. Das Game hat (beim Laden) meine CPU auf 93°C gebracht! Schafft sonst kein Prozess.



@Phantomias: sorry, Versprecher: AiO-Kühler meinte ich. Den muss man teuer mitbezahlen, will man (zumindest ich) aber nicht haben. Zumal die Pumpe rattert(e). Also nochmal Fullcover kaufen, oder Bastelaktion machen. Gäbe es die Fury X als Hydrocopper, wäre es was anderes. Oder nackte PCBs für günstiger.


Danke für den Tipp mit dem Profil bei CF, wusste ich nicht!
Das Problem mit dem Kühler hast du aber Herstellerunabhängig. Wenn ich eine 980Ti kaufe bezahle ich auch so einen blöden Luftkühler mit.
Wer eine vernünftige Wakü hat wird so oder so einen Fullcover installieren.

Ich fände es auch toll wenn ein Hersteller mal wagen würde, die Karte ohne Kühler anzu bieten (eher unrealistisch).
Bei Nvidia bietet zumindest EVGA Fullcoverkarten zu allerdings absurden Preisen an.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh