AMD Radeon R9 Fury X in der Redaktion eingetroffen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der 12k Artikel von WCCFtech ist einfach komplett für die Tonne. Da hat nicht mal AMD was mit zu tun, sondern allein der author
 
ne ich halte von Triplescreen gar nix, also persönlich, mir gefallen die Rahmen nicht und auf den äußeren Monitoren fetzt das Bild ziemlich schnell vorbei

ich würde mir maximal so ein 21:9 holen

@ Razor:

ist schon klar was sie meinen.. und 4k Triplescreensetup ist ne Hausnummer :)
 
war doch nur ein Scherz Naennon außerdem nicht auf dich bezogen ^^

am Mittwoch sind wir eh alle schlauer
 
Zuletzt bearbeitet:
Nehmt das doch nicht alles so ernst.. Marketing bedeutet ja nicht nur klare Zahlen vor zu führen.
Der "Test" sollte einfach nur zeigen dass eine Einzelkarte, gaming auf 3 4K Monitore schafft, nichts weiter!
Für mich ist das schon beindruckend genug ;)

Dann lässt du dich wohl gern vom Marketing leiten ;)
Ich für meinen Teil interessiere mich nur für harte Fakten... Und "12k"@60FPS im Eyefinity mit einer FuryX sind einfach mal sowas von unrealistisch, wo eine einzige FuryX bei AMD im gleichen Game auf nichtmal 40 FPS kommen soll bei nichtmal maximalen Details. (und max meint dabei auch kein hohes AA),

Bleibt halt einfach eine Marketing-Schönrederei... Gibts in der Form auch von NV, muss man klar auch erwähnen ;) Marketing bleibt aber halt auch Marketing...
Beeindruckend finde ich eher, das es AMD nun endlich wohl geschafft hat, dieses Instrument für sich zu entdecken...

Das zeigen die ersten Tests der 300er Reihe, die wohl ausnahmslos auf Custom Modellen basieren -> und entsprechend "gut" abschneiden. Halt Hawaii Custom Design typisch gut. Und das hat man damit erreicht, dass man offenbar die Ref. Modelle noch gar nicht verschickt hat oder diese so derart spät rausgingen, dass gar keine Zeit für Tests mit diesen blieb.
Marketingtechnisch ein ziemlich sauberer Schachzug! So hätte es damals bei den 200er Karten ebenso laufen können ;)

Leider hat Marketing auch seine Schattenseiten. Nämlich wenn es durch Aussagen etwas suggeriert, was so in der Realität nicht eintreten wird oder nur bedingt eintreten wird...
 
Mittwoch 16 Uhr oder wann gibts Fakten?
 
es sind keine 12k, ganz einfach

Doch, im Prinzip schon. Drei 4k Monitore nebeneinander ergeben tatsächlich eine 12k Auflösung. Es gibt abhängig vom Bildformat mehrere 12k Auflösungen, so wie es auch mehrere 4k Auflösungen gibt, z.B.:

DCI 4K (native resolution): 4096 × 2160 (8,847,360 Pixel)
DCI 4K (CinemaScope): 4096 × 1716 (7,028,736 Pixel)

Die k-Bezeichnung bezieht sich immer nur ausschließlich auf die horizontale Anzahl an Pixeln.

Man kann höchstens ankreiden, dass UHD eigentlich kein 4k ist und drei UHD Monitore nebeneinander dann auch kein 12k ergeben. Aber UHD und 4k wird in der Regel eh synonym benutzt, weil die Trennung UHD/4k Erbsenzählerei und Besitzstandswahrung ist. Und der Begriff 12k ist als Standard gar nicht definiert, da er weder im Fernseh- noch Kinobereich eine Rolle spielt.

Im PC Bereich scheint er aber tatsächlich für drei nebeneinander stehende UHD Monitore genutzt zu werden.
 
Zuletzt bearbeitet:
4k, 8k, nicht definierte 12k, irgendwelche Zwischenformate, Unterschiede zwischen PC-und TV-Markt, mit oder ohne vertikaler Auflösung: da kann sich jeder raussuchen, was er möchte.

Eindeutig ist nur die Angabe der Gesamtanzahl an Bildpunkten.

Und darauf sollten sich mMn grundsätzlich die Angaben beziehen.

4k und 8k und die ganzen anderen Abkürzungen sind doch nur griffig klingender Marketingsprech, der beim Konsumenten möglichst schnell hängen bleiben soll.
 
Nein, AA kostet im Grunde nahezu gar keinen VRAM. Zumindest kein MSAA oder SSAA... Ebenso die ganzen Weichzeichner kosten im Grunde keinen VRAM. Bitte nicht verwechseln mit irgendwelchen Bitspielereien bei NV -> welche durch eben Custom AA-Bits VRAM zum Frühstück fressen!

Hitman: Absolution bei 3840x2160 bei
- Kein AA 1761
- FXAA 1761
- 4xMSAA 3386
- 8xMSAA 5171

GB VRAM.

More Graphics Memory Measurements - The Myths Of Graphics Card Performance: Debunked, Part 1

http://www.hardwareluxx.de/communit...9-fury-x-und-nano-1076789-5.html#post23586892
 
Doch, im Prinzip schon.

nein :)

FHD: 1920x1080 = 2.073.600 Pixel
4K= 3840x2160 = 8.294.400 Pixel
8K = 7680x4320 = 33.177.600 Pixel

die da hatten 11520x2160 = 24.883.200 Pixel (3/4 von 8k) fehlt halt noch genau ein 4K Monitor für 8K
 
Zuletzt bearbeitet:
Also kommt 7K am nächsten?

Denn 6k (5760x3240) würde ich mit 18662400 Pixeln angeben.
 
Zuletzt bearbeitet:
Die k-Bezeichnungen sind kein Maß für die Pixelanzahl! Dafür gibt es "Megapixel".

Die k-Bezeichnungen bezeichnen die horizontale Pixelanzahl. Warum gibt man nur die horizontale Pixelanzahl an? Weil die vertikale Pixelanzahl in Abhängigkeit vom Bildformat alles mögliche sein kann.

Es gibt sogar eine 4k Auflösung mit 4096x4096 Pixeln (Fulldome). Die Summe der Pixel ist irrelavent für die k-Bezeichnung.

Die k-Bezeichnungen sind einfach Sammelbegriffe für mehrere Auflösungen und orientieren sich an der Anzahl der horizontalen Pixeln:

For example, 2K reference resolution is 2048 × 1536 pixels,... Nevertheless, 2K may also refer to resolutions like 2048 × 1556 (full-aperture), 2048 × 1152 (HDTV, 16:9 aspect ratio) or 2048 × 872 pixels (Cinemascope, 2.35:1 aspect ratio).

Also falls das Setup eine Breite von 12288 Pixel hatte, ist es ganz klar 12k. Falls es eine Breite von 11520 Pixel hatte, dann ist es mit einem zugedrücktem Auge 12k. Natürlich wäre es nicht schlecht gewesen, zu den 12k den aspect ratio dazuzuschreiben.
 
Zuletzt bearbeitet:
Genau, die Megapixel.

Und da sollte man's bei belassen.

Diese "k"-Angabe setzt übrigens zwingend das 16:9 Format voraus. Und das schränkt die Möglichkeiten der vertikalen Pixelanzahl massiv ein.
 
@Cappuandy
Was ist an Frametime-Analysen auszusetzen? Oo
Im aktuellen Heft der PCGH stößt die GTX980 eben wegen 4GB schon ab und zu an ihre Grenzen mit spürbaren Nachladerucklern. Die Rohleistung der Fury X liegt darüber, umso wichtiger ist doch genau dieser Umstand?!?

Gegen Frametime Analysen nichts aber diese müssen auch Objektiv und Unabhängig gemacht werden..
Bin ebenfalls gespannt .. vorallem wenn man bedenkt das der HBM1 nur mit 500 Mhz taktet man stelle sich vor dieser würde 1500/+ laufen wie aktueller GDDR5.
Interessant wäre evtl. auch ein DDR3 / DDR4 System im vergleich mit der Fury X / Fury X CF (vielleicht auch PCIe 2.0/3.0 vergleich) @hwluxx team.

Nicht das die Tests auf einem UltraHighEnd Sys gemacht werden u. das ist wohl realitätsfremd.. wieviele haben denn nativ ein DDR4 System am Start.
 
Zuletzt bearbeitet:
Nein, das ist richtig, und ist u.a. auf den Seiten 21-23 des White Book Beyond HD als Industriestandard von der ITU und SMPTE definiert.
 
Die k-Bezeichnungen sind kein Maß für die Pixelanzahl! Dafür gibt es "Megapixel".

richtig, aber für unser Verständnis hier sind die Pixelangaben zu den K wie oben und für die Zocker sind es nunmal keine 12K
mir ist das herzlich egal wer wieviel für welchen K festlegt, offiziell gibts da ja nichts wie du selbst sagst
 
So, vielleicht kann man sich jetzt ja zur Abwechslung mal wieder mit der Fury beschäftigen. ;)

Denn in der Auflösung - egal, wie man sie nennt - ist für eine SGPU die Leistung bei 24.883.200 darzustellenden Pixeln ja trotzdem gewaltig im Vergleich zu den mitgetesteten CF- bzw. MGPU-Karten.
 
richtig, aber für unser Verständnis hier sind die Pixelangaben zu den K wie oben und für die Zocker sind es nunmal keine 12K
mir ist das herzlich egal wer wieviel für welchen K festlegt, offiziell gibts da ja nichts wie du selbst sagst
Naja, ich würde es auch als 12K bezeichnen. Ich meine schon "echte" 8K (nach der 16:9 Definition) sind auch für Gamer so utopisch dass es schlicht Unsinn ist, darüber zu reden.
Oder gibt es bereits kaufbare Monitore oder Projektoren die das darstellen können?

EDIT: Richtig..
Denke der Test sollte auch zeigen was HBM kann, denn bei steigender Auflösung steigt auch der Anspruch an die Bandbreite.
Ein Test im vergleich zu einer Titan X würde definitiv interessant.
 
Zuletzt bearbeitet:
wobei das nach wie vor fraglich ist wie aus 39 FPS in diesem Spiel durch die AMD Benches aus "12K" mal eben 60 werden
 
Nein, das ist richtig, und ist u.a. auf den Seiten 21-23 des White Book Beyond HD als Industriestandard von der ITU und SMPTE definiert.

A: das Whitebook betrachtet nur TV Standards

B: das Whitebook schreibt über UHD und nicht 4k (DCI Standard!) - und natürlich ist UHD 16:9, da UHD nur zwei 16:9 Auflösungen bezeichnet (3840x2160 und 7680x4320)

C: ich habe recht, schau einfach mal in die Wikipedia oder lese meine letzten Posts in diesem Thread

Und als Zuckerl zitire ich jetzt noch einen Satz aus dem von dir aufgeführten Whitebook, S.22:

Die Bezeichnungen „4K“ und „8K“ lassen sich von der horizontalen Auflösung mit ca. 4.000 bzw. 8.000 Pixeln ableiten.

Ein letztes Zitat aus der Wikipedia und dann ist diese alberne OT Diskussion für mich wirklich vorbei:

DCI 4K should not be confused with ultra-high-definition television (UHDTV) AKA "UHD-1", which has a resolution of 3840 x 2160 (16:9, or approximately a 1.78:1 aspect ratio). Many manufacturers may advertise their products as UHD 4K, or simply 4K, when the term 4K is traditionally reserved for the cinematic, DCI resolution. This often causes great confusion among consumers.
...
DCI 4K (native resolution) 4096 × 2160
DCI 4K (CinemaScope) 4096 × 1716
 
Das Zuckerl ist schön selektiv von dir aus dem Zusammenhang gerissen worden.

Was vor und nach dem Zuckerl steht ist nämlich entscheidend. Da werden 4 und 8k sehr präzise definiert und festgelegt, u.a. zwingend das 16:9 Format.

Und spätestens da wird deiner Argumentation der Boden entzogen.

Man muss es halt im Zusammenhang lesen.

PS: Wo genau finde ich denn die Definition von DCI 12k? Und bei DCI 8k - falls es das denn überhaupt geben sollte - sind wir dann schon bei 8192x4320 bzw. 3432 Pixeln.

Oder anders ausgedrückt: Selbst da werden mindestens 28114944 Pixel dargestellt, also weit mehr als beim "12k"-Test.
 
Zuletzt bearbeitet:
.. vorallem wenn man bedenkt das der HBM1 nur mit 500 Mhz taktet man stelle sich vor dieser würde 1500/+ laufen wie aktueller GDDR5.
Der Takt kommt nicht aus irgendwelchen Spinnereien.
Bei einem Stacked-RAM sitzen die einzelnen Module übereinander und außer dem obersten Modul geben alle anderen Ihre Abwärme an die Module darüber ab.
Es hat einen Grund warum AMD vorerst einmal nicht mal Speicher-OC für HBM freigibt.

Interessant wäre evtl. auch ein DDR3 / DDR4 System im vergleich mit der Fury X / Fury X CF (vielleicht auch PCIe 2.0/3.0 vergleich) @hwluxx team.
Nicht das die Tests auf einem UltraHighEnd Sys gemacht werden u. das ist wohl realitätsfremd.. wieviele haben denn nativ ein DDR4 System am Start.
Und zwecks DDR4/DDR3-Vergleich usw, was erwartest Du Dir davon? Und PCI-E Versionsvergleich? (PCI-E 2.0 16x ist bei weitem nicht limitierend)
Für den Grafikkartentest soll nur die Karte der limitierende Faktor sein, nichts anderes, da darf High-End-HW ran.
 
Zuletzt bearbeitet:
Hallo,

ich habe mal eine Frage welche ihr hoffentlich beantworten könnt / dürft.

Verfügt die Fury über HDMI 2.0 ?
Ich wollte sie mir kaufen um meinen 4K TV artgerecht zu nutzen, habe aber irgendwo gelesen dass lediglich HDMI 1.4 unterstützt wird.
Mein 4K Monitor hat DP 1.2, dass sollte hoffentlich gehen...aber am TV halt nur über HDMI 2.0.

Und wenns einer beantworten kann, dann sicherlich ihr.

Vielen Dank
 
Einfache Antwort: Nein, kein HDMI 2.0 und somit auch kein DHCP 2.2
Aktuelle DP->HDMI 2.0 Adapter unterstützen zwar 4k, aber nur 30Hz
Es wurden aber einige 4k 60Hz-Adapter bereits angekündigt, erhältlich ist jedoch meines Wissens noch keiner
 
Zuletzt bearbeitet:
AMD sollte einfach eine große menge dieses DP→HDMI 2.0 4K 60p Adapter kaufen, sie rot lackieren lassen und sie den GPUs beilegen.
fehlendes HDMI2.0 bei einer so teuren karte ist einfach ein manko, wenn ein adapter beiliegt wäre es nicht mehr so schlimm, dann würden sich nur noch gestörte darüber aufregen.

aber AMD ist wohl nicht fähig so weit zu denken:\
gerade bei einer so teuren GPU sollte die marge hoch genug sein um den kartenherstellern diese adapter kostenlos zu überlassen (oder sehr günstig*)!

*einen umbenannten USB 3.1 Gen2 chip von ASMedia kann man als mainboardhersteller von AMD immerhin seit kurzem auch subventioniert beziehen!
 
Zuletzt bearbeitet:
Danke für die (enttäuschende) Antwort. Also muss ich mich doch zwischen 980ti und Titan x entscheiden. Wie kann man eine neue Generation rausbringen und einen Highendanspruch haben um dann aktuelle Anschlüsse wegzulassen.
 
ein adapter darf es nicht sein?
vielleicht gibt es die eh schon zu kaufen bis du die eine Graka kaufst!
 
Nenn mir bitte einen einzigen dp1.2 adapter auf hdmi 2 welcher 4k mit 60hz macht.....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh