PowerColor verrät Details zur kommenden Radeon R9 380X

iToms

Redakteur
Thread Starter
Mitglied seit
25.11.2011
Beiträge
2.016
<p><img style="margin: 10px; float: left;" alt="amd radeon 2013" src="/images/stories/logos-2015/amd-radeon-2013.jpg" height="100" width="100" />Bereits <a href="index.php/news/hardware/grafikkarten/36617-amd-radeon-r9-380x-wohl-doch-nur-mit-256-bit-interface.html" target="_blank">vor einigen Monaten</a> tauchten Gerüchte und konkrete Hinweise zu einer AMD Radeon R9 380X auf, welche auf dem voll ausgebauten Tonga-Chip mit der aktuellsten GCN-Architektur basieren sollte. Bisher kam der Chip lediglich in der beschnittenen Variante als AMD Radeon R9 285 bzw. AMD Radeon R9 380 sowie im Vollausbau beim <a href="http://www.apple.com/de/imac/specs/" target="_blank">Apple iMac mit 5K-Display</a> sowie einigen Alienware-Notebooks als AMD Radeon R9 M295X bzw. AMD Radeon R9 M395X zum...<br /><br /><a href="/index.php/news/hardware/grafikkarten/37014-powercolor-verraet-details-zur-kommenden-radeon-r9-380x.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
UVD6 gibt es erst ab Fiji/Carrizo.

Tonga hat nur UVD5 und somit kein H.265!
 
kann jemand eine verlässliche Angabe machen ,ob eine 380 bzw die kommende 380X Hardware Decoding h.265 unterstützt?

Danke
 
UVD 5 was introduced with the AMD Radeon R9 285. New to UVD is full support for 4K H.264 video, up to level 5.2 (4Kp60).

die 380(X) hat denselben Chip
 
nein, die geben auch nur 4K H.264 an...

Das beantwortet die Frage nach der Quelle nicht. Zumal bei AMD auch bei der Fury Reihe nichts zu H.265 steht. Was die Boardpartner schreiben oder nicht kann man so oder so in der Pfeife rauchen.
 
Dann bleibt nur die GTX 950/960 oder?
Wie hoch ist dann die Leistungsaufnahme beim Abspielen von einem Video h.265 mit 950/960 in Watt?
Ja, lediglich die beiden. Keine Ahnung ob sich das merklich von H.264 im Verbrauch unterscheidet (der war lächerlich gering), wird ja nirgends getestet da es bisher kaum Content dafür gibt.

[Edit] Stechpalme, Google ist Dein Freund. Auf den Tonga Vertriebsfolien steht jede Menge interessantes.
AMD Tonga - neuer UVD und VCE (Bild 6/12) - ComputerBase
 
Zuletzt bearbeitet:
Ja, lediglich die beiden. Keine Ahnung ob sich das merklich von H.264 im Verbrauch unterscheidet (der war lächerlich gering), wird ja nirgends getestet da es bisher kaum Content dafür gibt.

Ja ein Test mit Hardware Videodecoding h.265 oder h.265 mit 960 habe ich nirgenswo gefunden.
 
Dann bleibt nur die GTX 950/960 oder?
eine 970/980 kann H.265 über die shader decodieren, ist halt nicht so effizienz wie fest verdrahtete einheiten.
über die shader müßte es auch mit einer Radeon gehen, wenn der codec es unterstützt.

Wie hoch ist dann die Leistungsaufnahme beim Abspielen von einem Video h.265 mit 950/960 in Watt?
keine ahnung, das hat mich bis jetzt noch nie interessiert.
 
Nee ,wenn dann will ich mein Skylake 6600K beim decodieren entlasten aber ich weiß es nicht,ob
eine 960 da sparsamer ist.

Mein 6600K braucht ca. 148W beim Video Abspielen mit h.265 und wird zu 65% ausgelastet.
 
Skylake hat doch eh einen H.265 decoder integriert, die software muß es nur nutzen.
 
Laut Nvidia braucht die 960 120W im Spiel und ich denke diese 120 W wird die sich auch beim decodieren genehmigen oder weniger ?
 
Nee ,wenn dann will ich mein Skylake 6600K beim decodieren entlasten aber ich weiß es nicht,ob
eine 960 da sparsamer ist.
Das wird per Zusatzchip geregelt ergo wird da garnix entlastet.

Mein 6600K braucht ca. 148W beim Video Abspielen mit h.265 und wird zu 65% ausgelastet.
komisch, hab schon in x265 umgewandelt und bei 720p ist der bei 7-8% CPU last decode
 
Ja ist ja klar,dass das nicht GPU selbst macht sonder Hardware Beschleuniger von 960 und um den geht es mit ,wenn der im gesamt System anstatt 148W nur 60-70W braucht dann ist es schon ein Gewinn.

Und ich rede hier nicht vom Umwandeln (encode) sondern von Abspielen von bereits mit H.265 codierten Videos (decode) .

Lade die ein 2K oder 4k Video mit h.265 oder YouTube und schau mal dann wieviel dein CPU ausgelastet wird:)
 
Zuletzt bearbeitet:
Die 960 braucht grade mal 2-3 Watt beim Abspielen von 4k... Gibt Tests auf Computerbase glaube ich.

im Doom9 Forum wurde die Skylake hd 530 (i5 i7) mit der GTX 960 verglichen und der Intel Decoder war extrem schnell und schneller als die GTX960. Die meinen dass NVIDIA bei 154 fps h.265 einen Cap hat aber das ist mehr als genug für 4k 60 fps...

Wer Skylake hat und nicht spielt der braucht keine Grafikkarte extra wegen Youtube zumahl die Skylake GPU Einheit chrom´s VP9 Codec nativ beschleunigt als einzige GPU zur Zeit!

Ich will eben mit meinem 2500k bleiben und überlege ob ich die 960 4g kaufe oder auf die Neuen ATI Midrange karten mit der 2016er Architektur warte.

- - - Updated - - -

Ja ist ja klar,dass das nicht GPU selbst macht sonder Hardware Beschleuniger von 960 und um den geht es mit ,wenn der im gesamt System anstatt 148W nur 60-70W braucht dann ist es schon ein Gewinn.

Und ich rede hier nicht vom Umwandeln (encode) sondern von Abspielen von bereits mit H.265 codierten Videos (decode) .

Lade die ein 2K oder 4k Video mit h.265 oder YouTube und schau mal dann wieviel dein CPU ausgelastet wird:)

Ja auf youtube aber mit dem IE oder Mozilla in Chrome ist das nur software decode wegen VP 9
 
Zuletzt bearbeitet:
@alecex

Nur 2-3 Watt? das wäre Klasse:)

Ich habe ein Skylake und der spielt ja problemlos h.265 ab nur der verbrauch vom ganzem PC liegt dabei bei 148W,
mein Gedanke ist, kann ich mit 960 oder 950 da was noch sparen?anscheinend ja den du schreibst die braucht 2-3 W.

Spielen tue ich schon ab und zu dafür würde mir die 960 reichen.

Mein PC braucht im Idle 58W ,wenn dann die 960 beim Video Abspielen noch 2-3 W dazu zieht wäre es super
oder habe gerade ein Denkfehler?
 
Zuletzt bearbeitet:
Also 2-3Watt kommen mir doch etwas zu wenig vor. GeForce GTX 960 im Test (Seite 9) - ComputerBase

In diesem Computerbase-Test kann man sehen, dass der Verbrauch des Gesamtsystems mit der 960 beim Decoding von BluRay bei 78Watt liegt. Und weiter oben sieht man den Desktop Idle-Wert mit 70Watt. Wenn man nun noch sieht, dass das System mit der 750Ti mit 2Watt weniger auskommt,liegt man bei einem theoretischen Minimum von 10Watt Verbrauch der 960 beim BluRay-Decoding. Natürlich kann dieser Wert auch nicht gehalten werden, da die 750Ti im Idle mehr als 0Watt verbrauchen muss. Und dann kommt noch dazu, das BluRay nicht 4K ist, sondern nur weniger als ein Viertel gegenüber der Leistung fordert, die zum Decoding von 4K mit h.265 nötig sind.
 
Elmario,

Ja, weil ne BluRay abgelesen wird das kostet auch Watt!

wenn du nur ne H.265 Datei von der Platte abspielst dann sind es eben 2-3 Watt so wie auch youtube etc...

PComik,

ich befürchte dass du leider die h.265 beschleunigung nicht aktiv hast.

Teste den verbauch indem du unter Mozilla einmal in dein Einstellungen die Beschleunigung ausmachst -> browser neustarten (also alles Mozille beendest) und dann mit mozilla auf youtube ein 1440p Video guckst und auf die Watt-Anzeige Achtest. Dann Beschleunigung wider in Mozilla anmachen, Mozilla Neustarten und das gleiche Video nochmal!

Google Chrome weiß ich nicht in wie fern die die skylake h.265 HD530 Geschichte erkennt ob da nicht evtl ein Update nötig ist.
Info dazu von einem USER im doom9: "Chromium added DXVA VP8/VP9 decode acceleration support over a month ago. Based on the revision numbers, it looks like Chrome Dev and Canary should already have the acceleration activated."

Just FYI, in case anyone has Broadwell and wants to entertain our curiosity.

hier Quelle für die Leistung
http://us.hardware.info/reviews/589...f-this-moment-h265-on-the-gtx-960-innpractice
 
Zuletzt bearbeitet:
Ok.

Ich finde unter Einstellungen bei Mozilla kein Eintrag zur beschleunigen.

Ich habe unter anderem ein h. 265 Video auf der Fetplatte und von dort habe ich getestet,der Verbrauch war dort mir Skylake 148W
 
Das reicht nicht u musst h.265 ja auch in den Codec einstellungen aktivieren.
Lies dich hier ein
GTX 960 for decoding H.265 video - AnandTech Forums


Wegen Mozilla: Einstellungen dann ganz unten erweitert dann Hacken bei Hardwarebeschleunigung verwenden, wenn verfügbar...

- - - Updated - - -

http://uk.hardware.info/reviews/5890/2/test-the-geforce-gtx-960-is-the-best-htpc-gpu-of-this-moment-h265-on-the-gtx-960-innpractice
 
Zuletzt bearbeitet:
Ok.

Jetz habe ich es gefunden bei Firefox,danke war bereits aktiviert.

Ich habe jetzt von deinem Link mit Media Player Classic probiert und CPU Auslastung geht tatsächlicgh zurück von 65% auf 16-20%,der Verbrauch ging aber nur um 20W zurück von 148W auf 128W :)

Ist schon mal nicht schlecht aber wird die 960 noch weniger brauchen als 128W?
 
ich miene gelesen zu haben ja. Dann habe ich auch bei Doom9 gelesen dass skylake noch Leistungsfähiger sein soll, was aber nicht effizienter bedeutet...
 
OK. Danke

Mir bleibt nichts anderes übrig als eine 960 zu bestellen und ausprobieren .)
 
und was erhoffst du dir davon dann?
den kaufpreis der 960 sparst du durch den strom doch nie ein.
 
Nie stimmt ja nicht ganz.

Angenommen die 960 kostet 200€ und er spart 50Watt ein. Strom macht 25Cent/kWh,
Bei 3Stunden täglicher Benutzung, 7 Tage die Woche, dann wären das schlappe 18Jahre bis sie sich bezahlt gemacht hat.

Edit:
Werte etwas angepasst :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh