Sapphire Radeon R9 Fury Tri-X bestätigt bisherige technische Daten

Wieso passt sie nicht ins Gehäuse?
Dass ne Karte mit nem 2 Slot Popelkühler und dann auch noch deutlich kürzer, auch lauter in der Kühlung ist, hätte dir jeder vorher sagen können.
Aber ich bezweifle dass man die Karte mit ner vernünftigen Gehäusebelüftung und ein paar Spielereien nicht einigermaßen leise bekomme kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Pickebuh, wenn du dich nicht mit dem Thema auseinander gesetzt hast brauchst auch gar nix dazu schreiben....

Was kann ich dafür, wenn jemand so an seinem alten Zeug festhält. Superverbleit gibt es ja auch nicht mehr.
 
Zuletzt bearbeitet:
Dir ist schon klar, dass damit keine 144 Hertz auf 1440p funktionieren?
 
Wieso passt sie nicht ins Gehäuse?
Dass ne Karte mit nem 2 Slot Popelkühler und dann auch noch deutlich kürzer, auch lauter in der Kühlung ist, hätte dir jeder vorher sagen können.
Aber ich bezweifle dass man die Karte mit ner vernünftigen Gehäusebelüftung und ein paar Spielereien nicht einigermaßen leise bekomme kann.

Ich brauche in der Front Platz für Wakükomponenten da ich nicht gerade der begnadetste Handwerker bin. Gehäusebelüftung ist halt wie sie ist. Vorne ein 200er oder so rein, hinten ein 140er raus und oben zwei 140er raus.
Mehr geht nicht. Und selbst mit voll aufgderehter Gehäusebelüftung war sie ohne das Powertarget anzufassen ekelhat hochfrequent laut. Also die Lüfter. Ich warte mal wie gesagt auf die Nano. Leistung reicht mir wahrscheinlich von der und wenn es wirklich nur 175 Watt sind ist die ja vielleicht auch besser zu bändigen.
 
Zuletzt bearbeitet:
So ein Mist. Und ich hatte gehofft das die Fury Non X in einer ebenso kurzen Variante rauskommt mit nem angenehmen Luftkühler.
Die 390 habe ich schon zurück geschickt weil wegen viel zu laut. Jetzt bleibt nur noch die Hoffnung auf die Nano.

bisher ist ja nur 1 Design bekannt, da kann noch einiges kommen.

- - - Updated - - -

Nur zu deiner Information, das ist dsa erste mal das ich sowas gemacht habe und die 390 G1 Gaming ist einfach unfassbar laut unter Last.
Ich suche halt eine kurze Karte und kann mit so einem TriX Brecher nix anfangen.

Gigabyte würde ich allgemein meiden... die 970 G1 Gaming hat einfach einen schrecklichen Kühler
 
Ich habe auch einen 1440p Monitor, einen aus Korea. Der ist jetzt grad mal 2,5 Jahre alt und hat nur einen DVI Dual Anschluss.
Mit dem Monitor bin ich total zufrieden.
Das man es nicht schafft eine lausige DVI-Dual Buchse in die Karte zu integrieren finde ich total fail.
Einen Monitor in 1440p mit IPS, schönen Farben, so gut wie keinen Input Lag und glare Display findet sich auch nicht so leicht, von daher ist ein Monitor Neukauf keine richtige Alternative.
 
Zuletzt bearbeitet:
Ach Leute

Gerade heute ist mir der AMD Aktienkurs eingebrochen weil eine Quartals-Gewinnwarnung kam... freuen wir uns doch einfach wenn neue Produkte auf den Markt kommen.

Ohne Benches dazu kann man ja wieder nur raten und wir warten ja immer auf Performancesprünge durch Treiberdurchbrüche... aber vom Gefühl her: Ich meine rausgelesen zu habe, daß die X ihre Rohleistung nicht rüberbringen kann und zwar wegen der "nur" 64ROPs. Wenn das stimmt und die Non-X hat auch 64 ROPs darf man eine X-Leistung von der Non-X erwarten, gerade bei ähnlichem Takt durch die Boardpartner. Wenn sie nun noch preislich zwischen 390 und X liegt - passt es doch...
 
Das man es nicht schafft eine lausige DVI-Dual Buchse in die Karte zu integrieren finde ich total fail.
Es kommt nunmal vor das alte Anschlüsse über Board gehen, und DVI ist heutzutage schon ziemlich limitierend im Vergleich zu Displayport. Noch dazu nimmt dieser Anschluss deutlich mehr Platz weg als Displayport oder HDMI.

Einen Monitor in 1440p mit IPS, schönen Farben, so gut wie keinen Input Lag und glare Display findet sich auch nicht so leicht, von daher ist ein Monitor Neukauf keine richtige Alternative.
Ummm, du meintest non-Glare oder?
 
Ich habe auch einen 1440p Monitor, einen aus Korea. Der ist jetzt grad mal 2,5 Jahre alt und hat nur einen DVI Dual Anschluss.
Aus irgendeinem Grund müssen die Monitore ja so günstig sein. Vor 2,5 Jahren war HDMI längst etabliert und es war absehbar, dass Displayport der neue Standard wird. Die Fury Reihe steht für Highend und soll mit neusten Systemen zusammenarbeiten, mal abgesehen davon dass die Karte durch DVI Anschlüsse vermutlich einen Slot mehr verbraucht hätte, da man einen der anderen Ports nicht hätte einsparen können, denn sonst hätte man unter Umständen Enthusiasten Features verwehrt (welche nun einmal zur Zielgruppe der Karte gehören).
 
Zuletzt bearbeitet:
Das mit der Limitierung durch DVI ist natürlich ein Argument. :)
So ist es auf jeden Fall schade, ich hätte gerne die Nano gekauft.
Wenn ich dazu nun einen Adapter für 130 Euro kaufen muss, greife lieber zu einer 980. Adapter gefrickel möchte ich mir ersparen.

Meinte schon glare. Seitdem ich den Shimian mit glare habe, bin ich ein Fan davon.

Den DVI only Monitor habe ich damals genommen weil die DVI/HDMI/DP Versionen Input Lag haben sollten.
 
Zuletzt bearbeitet:
Echt langsam enttäuschend die Fury und Fury X
Nur magere 35% auf die R9 290X und dann Probleme mit Fiepen der Spulen, Pumpe und dann bei Fury der lange Kühler, obwohl die Tri-X Kühler echt gut sind,
Vorausgesetzt sie rattern unter Idle nicht, sprich dies kann man mit Drehzahl bändigen.

Ob ich von meiner R9 290 Tri-X New Edition @1100 Mhz unter Full HD (später VSR und/oder Ultra HD) auf die Fury wechsle, oder gar FURY X wird sich eben noch zeigen müssen.
Wären es die 50 bis 60% dann sofort, aber bei mageren 35% :-(
Hoffe der Treiber kann dies noch gut ausbügeln.
 
Wer hat denn bei der Fury mit Luftkühlung allen Ernstes besonders kleine Kühler erwartet? :hmm:
Die TDP stand doch fest.
Es wird auch sicher etwas kompaktere Kühler geben wie MSI's Twin Frozr der immer noch genug Kühlleistung leise liefert.

Ja, eine Aufrüstung von der 290 lohnt sich nicht unbedingt, aber das P/L Verhältnis der Karte stimmt (wenn sie sich bei 450-500 einpendelt)!
Zudem bleibt es zumindest spannend wieviel OC Potential vorhanden ist - angenommen die Spannung wird frei.

@Berni_ATI
Der Leistungssprung ist stark Game- und auflösungsabhängig. Unterschiede von 50% sind auch keine Seltenheit!
 
Zuletzt bearbeitet:
Woran liegt das? DVI Dual Link ist spezifiziert bis zu 2560x1600@60hz. Und genau wie bei Displayport ist das doch ein rein digitales Signal, ich verstehe nicht wie da der Adapter das Signal dermaßen versauen soll das plötzlich FHD@60hz das höchste der Gefühle sein soll. Klar wenns nur auf Single Link DVI übersetzt, das wäre verständlich.

DP kennt einen fallback Modus und der geht auf SingleLink DVI -> deswegen gehen die ganzen "günstigen" Adapter alle eben nur auf 1920er Auflösung entsprechend. Willst du mehr, muss es aktiv sein. Aber das scheint auch nicht so brauchbar zu klappen.

DVI wegzusparen ist eigentlich ziemlich blöd. Selbst das Argument, kostet zu viel Platz ist irgendwie unsinn. Denn der DVI Anschluss hätte wohl spielend neben drei Mini DP Anschlüssen platz gefunden -> und diese mini DP Anschlüsse lassen sich doch 1A auf DP adaptieren ohne nachteile und völlig passiv/günstig? -> nen beigelegter DVI auf HDMI Adapter hätte den HDMI Port ersetzt und es wäre sogar noch VGA aus dem DVI Port rausquetschbar gewesen. Damit hätte man am Ende auch keine potentiellen Kunden verprellt. ;) Vor allem, weil der HDMI Port so oder so völlig witzlos ist, ohne 2.0 Support -> dafür brauch es keine eigene Buchse an der Karte...

Scheint mir als haben dort einfach mal die falschen Leute Entscheidungen getroffen und so wird aus nem eigentlich tollen Produkt immer was dran auszusetzen sein, was den Marktanklang teilweise verhindert...
 
DVI ist doch tot, imho. Jeder neue Monitor hat DP oder zumindest HDMI.
Das was AMD mMn verpasst hat ist HDMI 2.0, aber das ist auch nur ne Randgruppe wo das interessant ist.
 
Jeder neue Monitor hat DP? Ich glaube du verkennst die Lage...
Klar kann man heute oftmals DP mitkaufen, wenn man es will. Muss man aber nicht. Ob es die Masse tut? Lässt sich nur spekulieren... Ändert aber auch absolut gar nichts, dass es wohl Millionen Monitore im Umlauf gibt, wo kein DP dran ist. Oder wo eben (DualLink) DVI benötigt wird, warum auch immer...

Als Hersteller der Karten kann man sich dem Problem annehmen und einfach wie oben erwähnt 1x DualLink DVI + 3x MiniDP dran packen und verliert absolut gar keine Vorteile... Eher im Gegenteil, es bringt sogar noch Vorteile ggü. der gewählten Lösung ;)
Rein von der Anschlussvielfalt setzt man auf das gleiche, wie es NV präsentiert hat -> nur eben ohne den DualLink DVI Port und erkauft sich damit alle Nachteile potentieller Kunden. Das hätte man anders machen können...
 
Oder wo eben (DualLink) DVI benötigt wird, warum auch immer...
Duallink DVI wird immer dann benötigt wenn man Auflösungen und Bildwiederholfrequenzen oberhalb von FHD@60hz haben will. Und die ganzen neuen 4K Monitore oder die riesigen 21:9 Schirme sind allesamt nicht mehr mit DVI befütterbar, diese Schnittstelle hat also keine wirkliche Zukunft mehr.

Als Hersteller der Karten kann man sich dem Problem annehmen und einfach wie oben erwähnt 1x DualLink DVI + 3x MiniDP dran packen und verliert absolut gar keine Vorteile...
Doch, die Mehrzahl der Nutzer wird dann mindestens einen Adapter nutzen müssen. Und erst einen Adapter vor allem an einem Miniport und da drann dann einen großen Stecker mit Kabl dran erzeugt einen schönen Hebel. Und wenn man mehrere anschließen will müssen es Adapter mit Kabel dran sein weil es sonst nicht passt ergo höhere Kosten.

Rein von der Anschlussvielfalt setzt man auf das gleiche, wie es NV präsentiert hat -> nur eben ohne den DualLink DVI Port und erkauft sich damit alle Nachteile potentieller Kunden. Das hätte man anders machen können...
Ganz ehrlich, ich bezweifle SEHR stark das die fehlende DVI Schnittstelle eine signifikante Menge potentieller Käufer betrifft. Die 3 oder 4 hier im Luxxforum werden bereits eine Statistiksche Anomalie aufgrund der hauchzart abweichenden Hardwarezusammensetzung vom Durchschnitt der Bevölkerung sein ;)
 
Also ich habe seit 4 Jahren den s23a700d mit 120hz über dvi und werde den auch so schnell nicht wieder abgeben. Eine neue Grafikkarte ohne dvi würde entweder bedeuten, dass ich mir einen neuen Monitor mit Displayport holen, den Monitor mit nem passiven dp-dvi mit nur 60 hz betreiben oder einen aktiven Adapter für über 100 euro kaufen müsste. Alles nicht wirklich befriedigend..

hdmi ohne 2.0 ist aber in der Tat quatsch
 
Zuletzt bearbeitet:
Also ich habe seit 4 Jahren den s23a700d mit 120hz über dvi und werde den auch so schnell nicht wieder abgeben. Eine neue Grafikkarte ohne dvi würde entweder bedeuten, dass ich mir einen neuen Monitor mit Displayport holen, den Monitor mit nem passiven dp-dvi mit nur 60 hz betreiben oder einen aktiven Adapter für über 100 euro kaufen müsste. Alles nicht wirklich befriedigend..

hdmi ohne 2.0 ist aber in der Tat quatsch
Da ist die Frage ob dein Monitor passTrue oder die Hz selbst interpoliert.
Bei passTrue wird es schwer, allerdings reicht dann ein aktiver (nicht zu verwechseln mit seperater Spannungszufuhr) Adapter.
Der Vorteil ist klar die größeren Daten Mengen die DP übertragen kann:

DVI/HDMI:
3 Leitungen/HDMI 1.3+: 1020 MByte/s (8,16 GBit/s): ausreichend für 2560×1600

DP 1.3
4 Leitungen: 3240 MByte/s (25,92 GBit/s): ausreichend für 5120×2880

Wenn weniger GBit/s genutzt werden, könnte man auch mehr Hz drüber jagen.
 
Als Hersteller der Karten kann man sich dem Problem annehmen und einfach wie oben erwähnt 1x DualLink DVI + 3x MiniDP dran packen und verliert absolut gar keine Vorteile.
Optimal wären natürlich mehrere Ausführungen mit verschiedenen Anschlüssen, HDMI kann man jedenfalls nicht einfach weglassen. Es gibt sicherlich genug Leute die einen TV, Beamer o.ä. an die GPU anschließen wollen und diese haben oftmals HDMI.
 
Und da Displayport der neuste Anschluss von allen ist, mit der größten Kompatibilität, interessiert das in wie fern?

Ich nutze z.b. einen miniDP auf HDMI Adapter um meinen TV über ein 15m HDMI-Kabel mit dem PC zu verbinden, ich habe genau NULL Verlust...
 
einerseits ist es sinnvoll, so wenige verschiedene Anschlüsse wie möglich zu bringen.
andererseits ist es halt doof für Leute die noch auf DVI schwören bzw. keine andere Wahl haben.
 
wäre echt nice, wenn sich die Fury non X auch wieder die restlichen Shader freischalten ließe wie manche / wenige R9 290 auch
 
AMD hat aus solchen Fehlern mittlerweile gelernt.

wenn das freischalten wieder funktioniert....dann :haha:
 
Zuletzt bearbeitet:
AMD hat aus solchen Fehlern mittlerweile gelernt.
Das es damals funktionierte lag aber daran dass AMD sehr schnell handeln musste um die Nachfrage an 290er zu decken. Deswegen wurde auf den wahrscheinlich schon fertigen Karten, per Software der Teil zur 290X abgeschaltet.
Wenn ein Chip direkt bei der Herstellung so geschnitten wird um aus ihm einen "cut" zu machen, kann man nichts mehr frei schalten...
 
Leider wurde meine Bestellung für die ASUS STRIX-R9FURY-DC3-4G-GAMING 4GB HBM - Grafikkarten PCI Express - computeruniverse gecancelt.

Computeruniverse hat heute die Nachricht bekommen, dass der Lieferant die Grafikkarten nicht liefern kann und es auch kein neues Datum gibt. Paper Launch :)

Sehr geehrter Herr xxxxx,


leider müssen wir Ihnen mitteilen, dass der nachfolgend genannte, von Ihnen bestellte Artikel, entgegen der ursprünglichen Information unserer Lieferanten, seitens des Herstellers nicht mehr erhältlich ist. Unsere Bemühungen, das Produkt anderweitig für Sie zu beschaffen, waren leider erfolglos.

Bitte teilen Sie uns mit, ob Sie an Stelle des ausgelaufenen Produktes ein Ausweichprodukt beziehen möchten. Anderenfalls ist Ihre Bestellung hiermit storniert.
Folgenden Artikel können wir deshalb leider nicht mehr liefern.

Bestelldaten
Anzahl Produktbezeichnung Preis Betrag
2 ASUS STRIX-R9FURY-DC3-4G-GAMING 4GB HBM
 
Zuletzt bearbeitet:
Leider wurde meine Bestellung für die ASUS STRIX-R9FURY-DC3-4G-GAMING 4GB HBM - Grafikkarten PCI Express - computeruniverse gecancelt.

Computeruniverse hat heute die Nachricht bekommen, dass der Lieferant die Grafikkarten nicht liefern kann und es auch kein neues Datum gibt. Paper Launch :)

Sehr geehrter Herr xxxxx,


leider müssen wir Ihnen mitteilen, dass der nachfolgend genannte, von Ihnen bestellte Artikel, entgegen der ursprünglichen Information unserer Lieferanten, seitens des Herstellers nicht mehr erhältlich ist. Unsere Bemühungen, das Produkt anderweitig für Sie zu beschaffen, waren leider erfolglos.

Bitte teilen Sie uns mit, ob Sie an Stelle des ausgelaufenen Produktes ein Ausweichprodukt beziehen möchten. Anderenfalls ist Ihre Bestellung hiermit storniert.
Folgenden Artikel können wir deshalb leider nicht mehr liefern.

Bestelldaten
Anzahl Produktbezeichnung Preis Betrag
2 ASUS STRIX-R9FURY-DC3-4G-GAMING 4GB HBM


Nun ob es ein paper launch ist werden wir dann nach dem 14 Juli erfahren ...

www.heise.de/newsticker/meldung/HBM...der-AMD-Radeon-R9-Fury-enthuellt-2740877.html
 
Zuletzt bearbeitet:
Lies einfach das hier und frag dich warum AMD kein DVI mehr unterstützen wird.

Was soll mir das jetzt sagen?
Und vor allem, was ändert das an der offenbaren Notwendigkeit, diesen Anschluss auch heute noch mitzuschleppen? -> gibt sicher genügend Leute, auch aufgrund des Anschlusses ihre Hardware bestimmen... Ein paar Meldungen, dass dies so ist, findest du auch hier im Forum.

Unterm Strich muss das der Hersteller dann für sich selbst entscheiden, ob der diese potentiellen Kunden verprellt oder eben nicht.
Mal ganz davon ab, dein Artikel bezieht sich auf VGA nicht auf DVI... Es muss ja kein DVI-I Port sein. Es würde auch ein DualLink DVI-D reichen... Und anstatt dessen eben den HDMI 1.4er Port wegsparen sowie die DP Ports als miniDP Ports ausführen und fertig die Laube...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh