AMD Radeon R9 Fury X in der Redaktion eingetroffen

Ich nehm einfach DP und fertig ist der Lack.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hast mein postign nicht gelesen?
vielleicht gibt es bis dahin schon passende adapter, da solltest du zum kaufzeitpunkt einfach vorher nochmal anchsehen udn dich dann zwischen AMD oder NVIDIA entscheiden!

die Fury ist sicher auch mit dem adapter günstiger als eine GTX 980Ti.
aber vielleicht legen einige kartenhersteller auch einen adapter bei, ist ja noch nichts bekannt.
 
Mal im Ernst: Wer nutzt eine solche Karte zum Gamen am Fernseher?
Das man einen Fernseher zwecks 3D-BluRay anschließen möchte und den Ton über eine HDMI-Surround-System-Lösung betreibt, kann ich ja noch verstehen, aber sonst braucht man HDMI 2 dank DP-Anschlüsse einfach nicht.
 
Und dafür braucht man dann zwingend 60 Hz? Wenn ich über den TV fernsehe, reichen 30 Hz dicke zu. Andernfalls (Dial-Link-) DVI und fertig.
 
Dann hat man fast am falschen Ende gespart. Wenn der TV mehr als 40" hat, ist das vielleicht noch OK, da Monitore in dem Bereich arg rar sind.
Aber bei 26-32" gibt es genug Gaming-fähige Monitore die aktuelle Anschlüsse und teils mehr als 60 Hz mitmachen.
Wobei man dann nochmal über Sinn und Unsinn von mehr als 42" und Gaming-typischer 0,6-1 m Sitzentfernung sprechen müsste.
 
es geht auch nicht um monitore, die haben bei 4K in der regel eh DP.
aber TVs eben nicht, dort gibt es sehr wenige mit DP.

aber da HDMI bei neuen 4K TVs eh durch DP abgelöst wird, wird sich AMD einfach die kosten gespart haben, ein adapter ist ja kein nachteil.
die sollten halt nur rechtzeitig am markt sein ober gleich beiliegen!
 
Da wäre ernsthaft die Frage, ob eventuell die Herstellerbestückungen entsprechend sind. PowerColor war bei mir bisher nicht für reichhaltige Dreingaben auffällig geworden. Da sah das bei Sapphire oder MSI schon anders aus (je nach Ausstattungsvariante halt).
 
Machen sich Menschen, die 700€ GraKas kaufen, ernsthaft Gedanken um ein 7€ Adapterkabel? :hmm:
 
die paar leute die wirklich auf nem 4K TV gamen wollen und darum 60Hz brauchen (es gibt aktuell kaum was unter 7 ms Reaktionszeit und die 2 Modelle von Technisat mit 5ms kosten von 2500€ aufwärts und haben selbst kein hdmi 2.0) müssen dann halt auf Nvidia setzen und Ti oder Ti X kaufen.

is zwar ärgerlich für jemand der lieber Amd hätte, aber Amd selber wird diese Nichtkäufer verschmerzen können, da sich die Menge wohl im untersten Promille-Bereich bewegen wird.
 
Zuletzt bearbeitet:
Nein ich hatte dein post nicht gelesen. Hatte nicht aktualisiert.
Zur Erklärung:
Hardware Alienware 15 mit Grafikverstärker.
Monitor Asus 4k
Tv Samsung 65 zoll mit uhd
Ich will soweit es geht flexibel bleiben und es gibt durchaus Situationen in denen ich lieber den TV / Monitor bzw das Laptopdisplay nutze.
Daher ist es für mich schon ein Kriterium ob HDMI 2 oder nicht.
 
Und aktuell gibt es keinen Adapter. Nicht für 7, 20 oder auch 200 Euro.
 
was es aktuell gibt ist auch egal, die Fury kann man auch noch nicht kaufen...
 
Was ist dann das hier?
DisplayPort Cables and Adaptors

Zweiter von oben.

-4K compliant
-Maximum Resolution: 4k @ 30 Hz (note: at time of writing no chipset supports 60Hz)
-High-Speed (Category 2) with Ethernet
-HDMI 2.0 (active circuit at HDMI connector)

Außerdem:
http://www.hdmi.org/manufacturer/hdmi_2_0/hdmi_2_0_faq.aspx#144

Q: Can existing HDMI cables support the higher bandwidths of HDMI 2.0 Specification?
A: Yes, existing High Speed HDMI Cables (wire only) will support the new higher bandwidths (up to 18Gbps).
HDMI 2.0 specification defined a new, more efficient signaling method, for speeds above 1.4b limits (10.2Gbps), to allow higher bandwidths (up to 18Gbps) over existing High Speed HDMI Wire Cables.
 
Zuletzt bearbeitet:
Note: at time of writing no 60hz
Q&a: existing cables will support hdmi 2
 
Persönlich brauche ich auch kein HDMI2.0 an einer Grafikkarte weil der PC bei mir in einem anderen Zimmer steht wie der Fernseher und ich auch noch keinen UHD-LCD habe, aber ganz verstehen kann ich die Entscheidung von AMD nicht.
HDMI haben sie ja nicht weggelassen, also ist der Anschluss für AMD nicht irrelevant. Und HDMI 2.0 ist nun eben inzwischen Standard.

@IlDuce: 4k30Hz unterstützen schon eine Adapter, aber es gibt eben noch keinen Chipsatz der 4k60Hz unterstützt, die wurden zwar schon auf Messen usw gezeigt, aber zu kaufen sind sie noch nicht.
 
Jo, daraus schließe ich das o.g. Kabel auch 4k@60Hz mitmachen sobald entsprechende Hardware vorhanden ist.
 
@elkinator
Was soll daran egal sein wenn die 980er serie hdmi 2 hat und Fury nicht? Für mich ist das ein Kriterium. Für andere halt nicht.
 
aber ganz verstehen kann ich die Entscheidung von AMD nicht.
HDMI haben sie ja nicht weggelassen, also ist der Anschluss für AMD nicht irrelevant. Und HDMI 2.0 ist nun eben inzwischen Standard.
Die Erklärung hat AMD ja geliefert (wird in den anderen Artikel zum Thema Fury X erläutert AMD Radeon R9 Fury X im Detail vorgestellt
Laut AMD war man nicht in der Lage, den Display-Controller in der GPU neu zu designen und musste daher auf HDMI 1.4a verbleiben.
 

Da DisplayPort zu HDMI elektrisch nicht kompatibel ist, wird das HDMI-Signal über den Kompatibilitätsmodus des DisplayPorts realisiert (DP++). Das Problem hierbei ist, dass nicht garantiert werden kann, dass hierüber auch eine HDMI 2.0 Verbindung mit 4K@60Hz zustande kommen kann. Der Treiber muss das explizit auch unterstützen, sonst sendet er über DP++ nur nach HDMI 1.4 Standard.
 
Die "Begründung" kenne ich, aber sie ist für mich völlig unverständlich.
NV verbaut seit Mitte September 2014 bereits HDMI 2.0 und AMD schafft es nicht einen solchen Controller in seinen komplett neu konstruierten Karten zu verbauen?
 
Das Zuckerl ist schön selektiv von dir aus dem Zusammenhang gerissen worden.

Was vor und nach dem Zuckerl steht ist nämlich entscheidend. Da werden 4 und 8k sehr präzise definiert und festgelegt, u.a. zwingend das 16:9 Format.

Und spätestens da wird deiner Argumentation der Boden entzogen.

Man muss es halt im Zusammenhang lesen.

PS: Wo genau finde ich denn die Definition von DCI 12k? Und bei DCI 8k - falls es das denn überhaupt geben sollte - sind wir dann schon bei 8192x4320 bzw. 3432 Pixeln.

Oder anders ausgedrückt: Selbst da werden mindestens 28114944 Pixel dargestellt, also weit mehr als beim "12k"-Test.

Mir egal. Von mir aus stimme ich dir zu, obwohl du falsch liegst (4k =/= UHD-1 und 8k =/= UHD-2). Ich weiss auch gar nicht, warum ich diesen Drecksladen verteidigt habe.

Von mir aus soll der Pleite gehen. Scheiss AMD. Scheiss betrügerisches Marketing. Drecks Mitarbeiter. F*** t*** a**.

Sorry für das OT.

- - - Updated - - -

Machen sich Menschen, die 700€ GraKas kaufen, ernsthaft Gedanken um ein 7€ Adapterkabel? :hmm:

Ich glaube, es gibt noch kein funktionsfähiges Adapterkabel von DP auf HDMI 2.0. Es mag welche geben, die dies behaupten - in irgendwelchen e-bay Auktionen - nur funktionieren die nicht.

- - - Updated - - -

AMD sollte einfach eine große menge dieses DP→HDMI 2.0 4K 60p Adapter kaufen, sie rot lackieren lassen und sie den GPUs beilegen.

Es gibt meines Wissen keine funktionsfähige Adapter. Sonst wäre das im Hardwarum bei den Samsung 4k TV Drohnen schon längst rausposaunt worden.

- - - Updated - - -

Die "Begründung" kenne ich, aber sie ist für mich völlig unverständlich.
NV verbaut seit Mitte September 2014 bereits HDMI 2.0 und AMD schafft es nicht einen solchen Controller in seinen komplett neu konstruierten Karten zu verbauen?

Die Karten sind doch nicht neu. Es sind alten Karten in einem neuen Karton mit einem neuen Namen und ein paar kosmetischen Änderungen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh