AMD zeigt die Radeon R9 Fury X und Nano

diverse neue 4k fernseher setzen auf hdmi 2.0.

die kann man dann also mit der fury so direkt nicht ansprechen.

ist denn ein entsprechender adapter (demnächst?!) verfügbar?

ich hoffe ja echt dass das ding am ende doch hdmi 2.0 unterstützt.
wird beworben als ultimative 4k karte,was sowieso schon mal reichlich mutig ist, und soll dann nicht mal in der lage sein meinen zukünftigen 4k tv mit 60hz anzusprechen :fresse:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber woher wissen die das?
AMD Matt hat seinen Beitrag jedenfalls inzwischen editiert.

Aber gut. Gehen wir mal davon aus, dass es stimmt.
Es sollte von allen Karten (Fury, Rx 3xx) ausser der Fury X Customversionen geben. Könnten diese HDMI2 dann nicht unterstützen?

- - - Updated - - -

Ok hier ist die Bestätigung: Behold the beast: Full AMD Radeon R9 Fury X tech specs and design details revealed | PCWorld
Ein rechtlich bindendes Zitat.

Im link befindet sich auch ein bench:
Z0Dn1x0.png
 
Zuletzt bearbeitet:
Das Ding ist der Fail des Jahres ohne HDMI 2.0. Ich nutze zur Zeit meine 7970 per DP am kalibrierten Monitor für Foto-/Videobearbeitung und per HDMI zum Zocken und als Mediaplayer an einem 55" 4K TV - der TV hat HDMI 2.0, mein AVR auch. Und AMD schafft es Mitte 2015 nicht? :stupid:
 
:rofl::rofl::rofl::rofl:
Zuerst ist angeblich die TDP zu hoch.
Als dann rauskam, dass das nicht der Fall ist, war 4gb zu wenig für 4k und 4k plötzlich super relevant(obwohl vor 2 Monaten noch 3,5gb mehr als genug seien sollten).
Jetzt kommt raus, dass die fury x die 980ti bei 4k schlägt und auf einmal müssen alle auf einem 4k TV zocken(wahrscheinlich weil der input lag so toll ist).
:haha::haha:
 
oh Mann, verschreih das mal bloß nicht...
 
Ob es jetzt ruhiger hier wird?? Ach neeee................da war ja noch das HDMI Problem.^^
 
Aber gut. Gehen wir mal davon aus, dass es stimmt.
Es sollte von allen Karten (Fury, Rx 3xx) ausser der Fury X Customversionen geben. Könnten diese HDMI2 dann nicht unterstützen?

Unwahrscheinlich, die GPU muss das auch unterstützen. Ohne Re-Design mit Integration von HDMI 2.0 sieht es schlecht aus.
 
Ok hier ist die Bestätigung: Behold the beast: Full AMD Radeon R9 Fury X tech specs and design details revealed | PCWorld
Ein rechtlich bindendes Zitat.

Im link befindet sich auch ein bench:

Volker hat im CB-Forum im übrigen bestätigt dass das die echten AMD-Benches sind.

AMD Fiji: Weitere Details zur Radeon R9 Fury X, Fury und Nano - Seite 7 - ComputerBase Forum

Das ist aus dem AMD Reviewers Guide was PC World da zu Fury geleaked hat, die sollten heute eigentlich nicht on, die können halt kein NDA lesen^^ Also ja, es sich offizielle AMD-Benchmarks mit ihren Special Einstellungen, die da auch drin stehen aber keiner von euch kennt

So und jetzt ziehen wir 5-10% von den Performancewerten der Fury X ab und schon haben wir die echte Real World Leistung der Karte in 4K ;)
Wenn dann demnächst die Einstellungen noch geleaked werden kann man sogar schon Einschätzen ob sie VRAM-freundlich gewählt wurden oder ob AMD eben wirklich nen Weg gefunden haben mit 4GB in 4K in Speicherfresserspielen wir Mordor gut auszukommen.
 
Jetzt kommt raus, dass die fury x die 980ti bei 4k schlägt und auf einmal müssen alle auf einem 4k TV zocken(wahrscheinlich weil der input lag so toll ist).
:haha::haha:
Fühle mich jetzt mal angesprochen. Mir ist es egal, was nV macht - das einzige nV Produkt, das ich je hatte, war einer der berühmten integrierten Grafikchips in meinem T61, der durchgebrannt ist. Ich brauche beim Zocken auch keine 144 FPS und der Input Lag an meinem 4K-TV ist zumindest so hoch, dass er mich nicht stört. Aber zumindest scheint dieses Wunderwerk der Technik ja noch nicht einmal in der Lage zu sein, ein simples HVEC-Video in 4K@50FPS am TV auszugeben. Grandios :banana:
 
Bin gespannt unter welchen Voraussetzungen diese Ergebnisse entstanden sind.
Könnte mir vorstellen das es bei gleichem takt getestet worden ist.
Aber wenn das wirklich so unter realen Voraussetzungen entstanden ist wäre die karte doch sau geil von der Leistung.
Eine karte mit HBM Gen 2 wäre dann perfekt weil 8GB
 
AMD Radeon Fury X doesn't have HDMI 2.0 support

dafuq?!

kann mir nur vorstellen dass das eine falschmeldung ist.

dass die rebrands kein hdmi 2.0 können ist ja logisch,
aber wenn selbst die fury's das nicht können wäre das schon echt arm o_O

Was bringt HDMI 2.0 im gegensatz zu Displayport? Gar nichts.

- - - Updated - - -

Also dann kauft man aber ne Nvidia zum aufnehmen weil da kannste bei Twitch streamen und auch aufnehmen ohne FPS verlust!
nvenc codec sei dank rennt das perfekt und zum aufnehmen haste shadowplay.

Meine Güte, du kannst mit Steam, mit Raptr etc.. genauso auch mit AMD Karten aufnehmen.
Streamen per Twitch funktioniert auch bestens, müsstest es halt selber mal ausprobieren, ups, du hast ja keine AMD, naja, daher weht ja der Wind, was man nicht kennt ist nicht gut.
Wenn der Feind bekannt ist, hat der Tag struktur.;)
 
Zuletzt bearbeitet:
Jup verstehe ich auch bicht. Eigentlich sollte doch nen DP zu HDMI Kabel problemlos gehen oder nicht?

@steam hat man aber Leistungsverluste beim streamen. Habe das erst am Wochenende mit nem Kumpel getestet der nun meine alte 780er gekauft hat weil er mit der hd7970 nur Probleme mit den FPS hatte beim streamen und aufnehmen.
Seine aussage nachdem er alle seine games mit der gtx780 getestet hat , es waren alle Einstellungen im spiel der HD7970 noch drin und er hatte deutlich mehr FPS mit der GTX780, war--> ich kaufe nie wieder eine AMD Grafikkarte.
Genau so hat er das gesagt und freut sich das er nun endlich alle spiele bei twitch ohne FPS Verluste streamen kann.

P.s. Was mich betrifft, ich finde die wakü fury schon sehr sehr geil einzig die 4GB stören mich sehr.
 
Zuletzt bearbeitet:
Das Ding ist der Fail des Jahres ohne HDMI 2.0. Ich nutze zur Zeit meine 7970 per DP am kalibrierten Monitor für Foto-/Videobearbeitung und per HDMI zum Zocken und als Mediaplayer an einem 55" 4K TV - der TV hat HDMI 2.0, mein AVR auch. Und AMD schafft es Mitte 2015 nicht? :stupid:

Irgendwann erreicht man hier dieselbe Qualität wie bei Computerbase.
Fail Gerede, wegen eines HDMi 2.0 Steckers, der nichts anderes besser macht, als ein aktueller Displayport, zumal die Displays sowieso alle Displayport unterstützen.:stupid:
Welcher 4K TV der mit mehr als 30 Hertz läuft hat bitte keinen Displayport???
 
Irgendwann erreicht man hier dieselbe Qualität wie bei Computerbase.
Fail Gerede, wegen eines HDMi 2.0 Steckers, der nichts anderes besser macht, als ein aktueller Displayport, zumal die Displays sowieso alle Displayport unterstützen.:stupid:
Welcher 4K TV der mit mehr als 30 Hertz läuft hat bitte keinen Displayport???

Frag ich mich auch die ganze Zeit!!
 
Fühle mich jetzt mal angesprochen. Mir ist es egal, was nV macht - das einzige nV Produkt, das ich je hatte, war einer der berühmten integrierten Grafikchips in meinem T61, der durchgebrannt ist. Ich brauche beim Zocken auch keine 144 FPS und der Input Lag an meinem 4K-TV ist zumindest so hoch, dass er mich nicht stört. Aber zumindest scheint dieses Wunderwerk der Technik ja noch nicht einmal in der Lage zu sein, ein simples HVEC-Video in 4K@50FPS am TV auszugeben. Grandios :banana:

Das ist richtig. Aber wozu braucht man eigentlich 50 fps beim Filme-/Videosschauen?
 
Was bringt HDMI 2.0 im gegensatz zu Displayport? Gar nichts.

hdmi 2.0 hat den vorteil das ich die grafikkarte mit einem hdmi 2.0 fähigen fernseher verbinden kann, muss ich das jetzt weiter erläutern?

ich hatte zb mit dem gedanken gespielt mir in naher zukunft diesen tv zu gönnen
http://geizhals.de/philips-bdm4065uc-bdm4065uc-00-a1201936.html

die 4k tv mit displayport kann man bald an einer hand abzählen.

für mich wäre es schon ok wenn amd der fury nen entsprechenden adapter dazu packt, tut man das nicht und das ding kostet am ende nur 5€, dann ist das zwar schade, aber immer noch ok.
kostet der adapter am ende 50€, oder es gibt vllt gar keinen, ja dann ist das eben schlecht.
 
Zuletzt bearbeitet:
ups, das war der falsche link, für den philips hatte ich mich nun entschieden da meine 290 eben nur displayport und hdmi 1.4 kann.
 
Jup verstehe ich auch bicht. Eigentlich sollte doch nen DP zu HDMI Kabel problemlos gehen oder nicht?

DisplayPort ist nicht zu HDMI kompatibel, da ein anderes elektrisches Signal zur Datenübertragung benutzt wird. Zwar besitzt DP einen Kompatibilitätsmodus zu HDMI, dieser ist aber optional und muss auch unterstützt werden. Ob AMD das per Treiber unterstützt, weiß ich nicht. Die Wahrscheinlichkeit ist aber relativ groß das man es tut. Aber selbst wenn, liegt das Problem im Detail. Wenn ich nämlich direkt vom DP der Grafikkarte zum HDMI 2.0 Anschluss meins LCD TVs gehe, die Grafikkarte den Kompatibilitätsmodus auch unterstützt ist es noch lange nicht gegeben, dass auch in 2160p@60Hz ausgeben werden kann. Es kann sein, dass im Kompatibilitätsmodus nur HDMI 1.4a möglich ist, somit wären die 4K@60Hz ebenfalls nicht möglich.
 
Zuletzt bearbeitet:
Aber woher wissen die das?
AMD Matt hat seinen Beitrag jedenfalls inzwischen editiert.

Aber gut. Gehen wir mal davon aus, dass es stimmt.
Es sollte von allen Karten (Fury, Rx 3xx) ausser der Fury X Customversionen geben. Könnten diese HDMI2 dann nicht unterstützen?

- - - Updated - - -

Ok hier ist die Bestätigung: Behold the beast: Full AMD Radeon R9 Fury X tech specs and design details revealed | PCWorld
Ein rechtlich bindendes Zitat.


Puh wenn das so so stimmt und keine Ausreißer durch die 4GB belegt werden stehe ich in einer Zwickmühle.

Wo bei da ist ja auch ein OC Ergebnis von der Fury zu sehen bei 3Spielen +100MHz gerade mal um die 5% Mehrleistung das wäre nicht so Döll.
 
Zuletzt bearbeitet:
Ganz ehrlich - PC Games zocke ich und wahrscheinlich bzw. sicher auch 95% der User am Monitor.....
Dass nen HDMI 2.0 Anschluss natürlich besser wäre steht außer Frage!
 
Zuletzt bearbeitet:
Ganz ehrlich - PC Games zocke ich und wahrscheinlich bzw. sicher auch 95% der User am Monitor.....
Dass nen HDMI 2.0 Anschluss natürlich besser wäre steht außer Frage!

Es ist doch absolut kein Beinbruch. Nur wenn AMD die Karte so intensiv für 4K bewirbt, dann ist ein fehlender HDMI 2.0 Anschluss eben ein kleiner Makel. Immerhin bietet nVidia HDMI 2.0 auch schon seit Maxwell 2.0 an. Es ist dabei vollkommmen egal wieviele einen HDMI 2.0 Anschluss wirklich brauchen. Irgendjemanden betrifft es definitiv immer und das ist eben sehr Schade.
 
Jup verstehe ich auch bicht. Eigentlich sollte doch nen DP zu HDMI Kabel problemlos gehen oder nicht?

@steam hat man aber Leistungsverluste beim streamen. Habe das erst am Wochenende mit nem Kumpel getestet der nun meine alte 780er gekauft hat weil er mit der hd7970 nur Probleme mit den FPS hatte beim streamen und aufnehmen.
Seine aussage nachdem er alle seine games mit der gtx780 getestet hat , es waren alle Einstellungen im spiel der HD7970 noch drin und er hatte deutlich mehr FPS mit der GTX780, war--> ich kaufe nie wieder eine AMD Grafikkarte.
Genau so hat er das gesagt und freut sich das er nun endlich alle spiele bei twitch ohne FPS Verluste streamen kann.

P.s. Was mich betrifft, ich finde die wakü fury schon sehr sehr geil einzig die 4GB stören mich sehr.
Dann hätte er aber bitte auch mit ner 290 vergleichen müssen und nicht mit einer Karte die sowieso 20-30% weniger Leistung hat.
Dass die 780 da mehr frames raus haut war vollkommen zu erwarten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh