AMD Radeon R9 Fury X im Test

Ja leider, es steht aber auch in keinem Verhältnis zur Inflation, mit der manche diese Preise begründen möchten. Wer ist nun schuld? Diejenigen, die sie kaufen. Denn auch Nvidia und AMD handeln hier nach dem ganz einfachen Gesetz der Nachfrage-Angebot-Preisregulierung.
Es bleibt einem aber auch nix anderes übrig. Die zwei Monopolisten im Gaming Bereich AMD und nv können im Grunde machen was sie wollen. Entweder zahlen oder nicht zocken (die schwächeren Karten sind ja auch nicht günstig meistens)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich finde es auch schade, dass FullHD nicht getestet wurde, da ich auch "nur" (drei) FullHD-Monitore hab und an der Fury X überlege.
Abzuwarten ist jedoch,
ob die Spannung zum OC´en erhöht werden kann
wie die Verfügbarkeit in naher Zukunft aussieht
und wie sich der Preis entwickelt.
Für >700€ ist sie mir zu teuer, aber eine nVidia möchte ich mir eigentlich nicht kaufen.
Hatte bei der 560Ti Treiberprobleme, die erst nach zig Monaten gefixt wurde, außerdem ist mir AMD sympathischer (heißt nicht, dass ich mir ne langsamere CPU von denen hole).
 
Hier auch mal was lustiges zur vergangenheit :d

Ein weiteres Manko des GeForce2 Ultra ist die hohe Leistungsaufnahme. Dieser beträgt bis zu 37 Watt unter Belastung mit komplexen 3D-Anwendungen. Probleme mit Mainbords durch zu schwache Stromversorgung sind da vorprogrammiert. Bei der Voodoo5 5500 sind es 45 Watt. Deshalb besitzt diese Karte einen zusätzlichen Stecker zur Stromversorgung.
 

Ich habe die Zeiten doch alle miterlebt. Auch da hab ich nicht soviel Kohle auf den Tisch gelegt, obwohl die 1000DMark von damals keine 500€ von heute wert waren. Ne V5 5500 hab ich mir übrigens gekauft als sie um die 350 Mark gekostet hat. Ne ATI 850XT-PE hatte ich auch aber ebenfalls für unter 500 Mark geschossen. Wenn man damals solche Preise hingelegt hat, konnte man davon ausgehen, dass die Karten um ein vielfaches schneller als die voran gegangene Generation waren. Heute findet man max. zweistellige Prozent-Zuwächse. Da warte ich lieber weiterhin den Preisrutsch ab.
 
Zuletzt bearbeitet:
Ich finde die Karte ist Klasse geworden. Und mit hinblick auf DX12 auch die bessere Kaufentscheidung. In meinem Anwendungsprofil reichen ~2,6 GB RAM völlig aus. Und das wird bei 90% aller hier auch ausreichen.
 
Ist leider halt so - komisch ist nur das sich alle über die GK Preise aufregen. Bei den 5% Leistungssteigerungen der Intel CPU Generationen wo man auch noch das MB und meistens gleich auch den Speicher tauschen muss regt sich komischerweise niemand auf. Zum Glück wird keiner gezwungen neue HW zu kaufen. Das muss jeder selbst entscheiden.
 
stimmt!
weiß noch, wie oft ich dafür angemacht worden bin, weil ich der Meinung war, dass man keine 8GB braucht und andere min. 8GB als total elementare basics brauchen.

Zitiere doch mal einen Kommentar diesbezüglich wo jemand die 8GB als elementare Basis darstellt.


da gabs zig Kritiken ausm AMD-Lager bezügich zu wenig VRAM.
und dann noch die frametimes! :rofl:
trotz 4096er Bandbreite Muahahahahahahahaha :rofl: :rofl: :rofl:

Ich sehe im großen und ganzen durch alle Tests nirgends Probleme mit Frametimes.[/QUOTE]

- - - Updated - - -


DAs Niveau sinkt schon wieder völlig unnötig.:shake:
 
Ist leider halt so - komisch ist nur das sich alle über die GK Preise aufregen. Bei den 5% Leistungssteigerungen der Intel CPU Generationen wo man auch noch das MB und meistens gleich auch den Speicher tauschen muss regt sich komischerweise niemand auf. Zum Glück wird keiner gezwungen neue HW zu kaufen. Das muss jeder selbst entscheiden.

Lässt sich ganze einfach erklären. Vergleiche mal folgende Preise miteinander: Q6600, Q9550, i5-750, i5-2500k, i5-3570k und i5-4690k

Vielleich fällt dir nun etwas auf: Der Preis hat sich über die Jahre hinweg relativ konstant gehalten, nur die Leistung stagniert seit dem i5-2500k etwas. Dafür ist der Mittelklasseprozessor allerdings nicht wirklich teurer geworden.
Versuche das nun mal aud den Sektor der Grafikkarten zu übertragen, vielleicht bemerkst du dann etwas.

Mit Einführung der GTX Titan hat Nvidia damals einen ganz gut überlegten Schachzug gemacht: Sie haben diese Leistungsstufe als exklusive Enthusiasten-Karte bezeichnet. Die Kunden haben das geschluckt. Dadurch konnten die "alten" Karten weiterhin als HighEnd angepriesen werden und keiner beschwerte sich darüber. Wenn du auf die Vergangenheit zurückblickst, sind die Preise der älteren Generation mit Einführung der neuen Generation gesunken. Hier wurde erstmal bewusst der Preis nicht angepasst. Um es mit anderen Worten zu sagen: Du zahlst den HighEnd-Preis für eine vermeintliche HighEnd-Karte, die abr leistungstechnisch eigentlich nur eine Mittelklasse-Karte ist.
 
Zuletzt bearbeitet:
Was ein Witz von Karte. Fast null OC Potential. im Referenz vs. Referenz Duell ist die Fury X eine echte alternative, aber jede - und damit mein ich wirklich jede - 980 Ti schafft 1400+ Mhz und ist damit in einer ganz anderen Liga als die Fury X... und die 1400 Mhz sind extrem konservativ angegeben, viele Ti´s schaffen sogar 1600 Mhz... und das mit Luftkühlung.
 
wegen dem frame-limiter, oder fps-limiter, beim msi afterburner(rtss.exe) kann ich für jedes Game einzeln die fps einstellen und auch global, also nix neues.
 
@ Surfer74

Warte doch mal Tests mit mehr Spannung ab.
Und auf wenn der OC range von 1100 bis 1200 bleibt ist die Karte noch lange kein Witz, geht das mit dir jetzt schon wieder los?

viele Ti´s schaffen sogar 1600 Mhz... und das mit Luftkühlung.

Stabil aber nicht, das ist eher ein Phantasietakt.
24/7 stabil kann man in etwa 1450 mhz erreichen, wird aber auch von der Bandbreite limitiert.
HWL hat 10% mehr Leistung aus dem OC herausbekommen, wenn mit mehr Spannung 20% mehr gehen ist das in Ordnung.
 
Zuletzt bearbeitet:
bin ich eigentlich der einzige der es lächerlich findet dass eine GTX 980 gerade mal 50% schneller ist als eine GTX 680 bzw ca 40%schneller ist als eine 7970Ghz?

in meinen augen ist eine fury x bzw 980ti der eigentliche nachfolger der 7970/680 und nichtmal die sind doppelt so schnell...

Nachwievor 28nm Fertigung....
 
Was ein Witz von Karte. Fast null OC Potential. im Referenz vs. Referenz Duell ist die Fury X eine echte alternative, aber jede - und damit mein ich wirklich jede - 980 Ti schafft 1400+ Mhz und ist damit in einer ganz anderen Liga als die Fury X... und die 1400 Mhz sind extrem konservativ angegeben, viele Ti´s schaffen sogar 1600 Mhz... und das mit Luftkühlung.

Man kann davon ausgehen, dass 3rd-Party Software es schaffen dürfte, diese OC-Bremse zu lösen. Nur so funktioniert's ja auch bei nVidia.

Denn nimmt man es ganz genau, hat jede nVidia-Karte exakt null OC Fähigkeiten, da der nVidia-Treiber null Einstellmöglichkeiten zum OC bietet.

AMD ist da schon ein wenig weiter, wenn im Fall der Fury auch noch nicht weit genug.
 
viele Ti´s schaffen sogar 1600 Mhz... und das mit Luftkühlung.

Wie viele hier im forum gibt es mit einer ti die mit lukü rockstable 24/7 1600 macht? Sollten ja schon einige sein lt dieser Aussage.
 
Was ein Witz von Karte. Fast null OC Potential. im Referenz vs. Referenz Duell ist die Fury X eine echte alternative, aber jede - und damit mein ich wirklich jede - 980 Ti schafft 1400+ Mhz und ist damit in einer ganz anderen Liga als die Fury X... und die 1400 Mhz sind extrem konservativ angegeben, viele Ti´s schaffen sogar 1600 Mhz... und das mit Luftkühlung.

Und wieviel machen die Tis mit Standardspannung? Bei den Furys kann man diese aktuell nicht erhöhen...

@Don: Zu dem Computex zeug, es ging ja nicht darum, was ihr geschrieben habt, sondern wie ihr das ganze verpackt habt. Es wurde wieder aus einem damals Gerücht eine Tatsache gemacht, wie bei vielen anderen AMD Themen in letzter Zeit.


@Topic: Macht doch einen guten Eindruck die Karte, die werte waren größtenteils abzusehen, etwas zu niedrige Leistung im vergleich zu einer 290x (Leistung/shader/Takt), vielleicht kommt da ja noch etwas mit den Treibern.
Auch der Stromverbrauch was abzusehen, ist ja nur eine doppelte 285 und die ist zwar besser als GCN1.1, aber eben nicht so gut wie Maxwell von der perf/Watt.

Was das Surren angeht, sollte laut Golem ein stückchen Schaumstoff helfen, dieses zu unterbinden.
 
Auch wenn ich NV schon immer bevorzugt habe und auch jetzt wieder umsteigen werde, finde ich es doch höchst lächerlich, wie sich hier manche Fanboys schon wieder auftupieren wegen der Fury... jetzt wird noch das mäßige OC-Ergebnis als Aufziehspindel benützt und wenn dann angenommen bis zum Ende der Woche ne Möglichkeit gefunden wurde, die Spannungen zu erhöhen und die Karten dann an allem was grün ist vorbeiziehen, gehts wieder mit 4GB/HDMI2.0 und dem Stromverbrauch los.
Mittlerweile ärger wie in nem Playstation/Xboxthread hier... einfach nur nervig denselben Scheiss tagtäglich hier zu lesen von immer denselben Gestalten.
Ich würd mal meinen, es könnte nicht schaden, wenn die Mods hier mal etwas strenger durchgreifen und den ganzen Schund bzw. die ständigen rein-provokativen-Posts hier ausmisten würden.
 
eine 8gb und eine oc-edition wirds noch geben....vl auch hbm2!

Wieso gehen immer noch viele davon aus das eine 8GB SGPU Variante im August kommen wird? Vor HBM2 wird es nicht mehr als 4GB geben. Und HBM 2 kommt erst 2016.
Es gibt auch keinerlei Anzeichen dafür das mit dem 8GB Gerücht von vor ein paar Wochen/Monaten was anderes gemeint war als die Dual-GPU Fury X2. Die hat 8GB VRAM. 2x4 um genau zu sein.

Wie viele hier im forum gibt es mit einer ti die mit lukü rockstable 24/7 1600 macht? Sollten ja schon einige sein lt dieser Aussage.

1600 ist mal komplett übertrieben. 1450-1500 is die Norm, meine läuft was bei 1482 Mhz. Aber damit wird die Fury X ziemlich deutlich abgehängt in Sachen Performance. Nachdem ich jetzt 10+ Tests gelesen hab würde ich meine frühere Schätzung von 10% auf 20% anheben.
 
Hat Jemand einen Link zu nem richtigen Lautsärketest?
 
Im vergleich zum PCGHX Thread ist das hier ja noch harmlos ;p

bei dem Sauhaufen da drüben les ich sowieso gar nicht mehr mit... auch weil man da teilweise nen Babbelfish bräuchte um alles zu verstehen bei den irrwitzigen RS-Fehlern
 
Für mich ist die Performance, 10 % oder was auch immer langsamer sowieso nicht das Entscheidungskriterium - auch nicht die 4GB. Solange das Thema Pumpensurren nicht endgültig geklärt wurde ist die Karte ein Non Go für mich. Irgendwo Schaumstoff dazwischen legen zu müssen ist lächerlich bei diesem Preis.
 
Warte doch mal Tests mit mehr Spannung ab.

Dazu folgendes...

In den Reviews, die ich mir bisher angeschaut habe bewegt sich die Karte bei Standardtakt in einen Temperaturbereich zwischen 58°C bis 65°C unter Last. Unproblematisch soweit. Laut Computerbase taktet die Karte aber ab 75°C massiv herunter (auf bis zu 300MHz)! Schon bei 72°C reduziert sich der GPU-Takt. Das Temp-Target lässt sich anscheinend auch nicht weiter erhöhen. Wahrscheinlich ist das dem HBM-Speicher geschuldet, der hier durch den GPU-Block mitgekühlt wird und wahrscheinlich keine höheren Temperaturen mag. Das ist aber Spekulation meinerseits. Wie man sieht hat man für Übertaktungen also noch ca. 10°C bis 15°C Spielraum. Inwiefern dieses Budget nun bei einer Spannungserhöhung ausreicht und nicht zum limitierenden Faktor wird wäre nun also die wirklich interessante Frage.
 
Zuletzt bearbeitet:
Also für AMD-Verhältnisse ist die Karte nicht schlecht.

Aber mir fällt kein einziger Grund ein, warum ich als Kunde die Karte einer 980ti vorziehen sollte.

Die 980ti ist in absolut jedem Belang im Vorteil. Und derzeit sogar noch günstiger!

Ich denke außerdem nicht, das AMD mit dieser Karte viel Geld verdienen wird, der Chip ist mit Sicherheit sauteuer in der Herstellung.

Einen bitteren Beigeschmack hinterlassen auch die (bewusste?) Irreführung bei Vorstellung der Karte bzgl. Übertaktbarkeit der GPU.
 
@Don (nerwetter)
Es schaut sehr gut aus!

Danke für das einbringen meines Vorschlag, da war ich wohl nicht allein mit der Idee.

wosschilder43.gif
 
Dazu folgendes...

In den Reviews, die ich mir bisher angeschaut habe bewegt sich die Karte bei Standardtakt in einen Temperaturbereich zwischen 58°C bis 65°C unter Last. Unproblematisch soweit. Laut Computerbase taktet die Karte aber ab 75°C massiv herunter (auf bis zu 300MHz)! Schon bei 72°C reduziert sich der GPU-Takt. Das Temp-Target lässt sich anscheinend auch nicht weiter erhöhen. Wahrscheinlich ist das dem HBM-Speicher geschuldet, der hier durch den GPU-Block mitgekühlt wird und wahrscheinlich keine höheren Temperaturen mag. Das ist aber Spekulation meinerseits. Wie man sieht hat man für Übertaktungen also noch ca. 10°C bis 15°C Spielraum. Inwiefern dieses Budget nun bei einer Spannungserhöhung ausreicht und nicht zum limitierenden Faktor wird wäre nun also die wirklich interessante Frage.

Und wieviel machen die Tis mit Standardspannung? Bei den Furys kann man diese aktuell nicht erhöhen...

Meine Ti schafft ihren Standard Boost von 1366Mhz sogar wenn ich das PowerTarget auf 90% reduziere... was ich aufgrund des limitierenden 1080p Monitor (bis Neuanschaffung) auch so lasse.

Das Prob der Fury X - und da braucht man keine Customs abwarten - ist dass sie a.) weit weniger gut skaliert im OC und b.) EXTREM mehr saugt schon bei kleinem OC und die Temps auch extrem gewaltig steigen und c.) deshalb eine Wasserlösung bekam um überhaupt funktional zu sein und d.) daher von AMD eine Liebesbremse bekommen hat, denn nichts wäre wohl fataler als abschmierende Karten in den Testlaboren bei Taktraten, welche die Konkurrenz als Default (vor OC) inzwischen rausschickt bzw. derart schnell runterdrosselt, dass man eh nichts von OC hat.

Ergo hat AMD sich komplett drauf konzentriert im Ref. vs. Ref. Vergleich gleichauf zu sein. Alles andere ist seitens AMD aus gutem Grund nicht erwünscht.
 
Wieso gehen immer noch viele davon aus das eine 8GB SGPU Variante im August kommen wird? Vor HBM2 wird es nicht mehr als 4GB geben. Und HBM 2 kommt erst 2016.
Es gibt auch keinerlei Anzeichen dafür das mit dem 8GB Gerücht von vor ein paar Wochen/Monaten was anderes gemeint war als die Dual-GPU Fury X2. Die hat 8GB VRAM. 2x4 um genau zu sein.


ich befürchte auch das nur noch die 2x4GB Karte kommen wird und weiterer Speicherausbau erst mit HBM2 - allerdings frage ich mich dann schon wozu wurde der Dual Link Interposer entwickelt ? oder war diese Lösung nur bla bla von Amd ?

wäre schön wenn mal der voltage unlock käme damit man auch bei oc sieht was sache ist
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh