Skylake: Nur HDMI 1.4, HEVC 8bit :-(

awehring

Enthusiast
Thread Starter
Mitglied seit
17.06.2009
Beiträge
2.024
Leider unterstützten die Skylake Prozessoren nur HDMI 1.4 (also UHD/4K mit 30 Hz, nicht mit 60 Hz).
Für HDMI 2.0 muss ein Zusatzchip auf dem Motherboard sein (vom DisplayPort).

Bezüglich HDCP 2.2 hab ich noch nichts gefunden. (Edit: gerade entdeckt, via HDMI Zusatzchip ist HDCP 2.2 möglich)

Ausserdem dekodieren sie in Hardware HEVC/h.265 nur mit 8 bit Auflösung.
Der Astra UHD Testkanal ist jetzt bereits HEVC 10 bit. UHD BluRays werden auch in 10 bit sein.

Quelle: Intel Datasheet


Schade. Da wurde ein Chance für zukunftsorientierte HTPCs vertan. :wall:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja leider hat Intel das mal wieder verschlafen und auch bei AMD tut sich nicht viel.

Ist jetzt nicht so, dass schon morgen massenhaft HEVC Quellen verfügbar wären, aber wer jetzt einen HTPC für die nächsten 2-3 Jahre aufbauen will sollte sich die Investition gut überlegen.
Ohne volle 8 und 10bit HEVC GPU Unterstützung macht das Thema keinen Spaß.

Nur NVIDIA zeigt wie man es machen kann: Quo Vadis HTPC Richtung HEVC? - Page 5 - Area HTPC - DVBViewer community forum
 
Ja leider hat Intel das mal wieder verschlafen und auch bei AMD tut sich nicht viel.

Ist jetzt nicht so, dass schon morgen massenhaft HEVC Quellen verfügbar wären, aber wer jetzt einen HTPC für die nächsten 2-3 Jahre aufbauen will sollte sich die Investition gut überlegen.
Ohne volle 8 und 10bit HEVC GPU Unterstützung macht das Thema keinen Spaß.

Seh ich genauso.


Aber wer will schon z. B. eine GTX960 in einen HTPC stopfen, nur um 10 bit HEVC zu dekodieren. Kostet (unnötige) € 200.-, erfordert eine grosses Gehäuse und macht schlimmstenfalls sogar noch Lärm.

Oder eine leistungsstarke CPU für eine Software-Dekodierung (pardon "GPU Accelerated"), mit genau den gleichen Nachteilen.

:stupid:
 
Zuletzt bearbeitet:
Für HDMI 2.0 und HDCP 2.2 bietet Intel selbst einen Zusatzchip für Skylake - bzw. den Z170 Chipsatz - an. Genannt "Alpine Ridge". Im Kern ist das ein Thunderbolt Controller. Man muss mit Mehrkosten des Motherboards von ca. USD 20.- für den Chip rechnen.
Für Gigabyte und Asus gibt Hinweise, dass er verwendet wird. Bestätigt ist sein Einsatz aber auf noch keinem Board.

Quelle
.
 
Zunächst einmal: Ich will und habe so eine GPU im HTPC. Bitte mal etwas über den NUC Tellerrand hinausblicken.
Außerdem sind die Funktionen wie immer auf Co Prozessoren ausgelagert und somit wandern die Dinge nach und nach auch in die kleineren Modelle.
Mit CPU Decodierung wird HEVC noch eine Weile problematisch bleiben.
Vielleicht über die Jahre mal mit 64Bit Software, aber dann haben eh alle GPU's den Chip mit drin.
Was noch bleibt ist der Hybrid Decoder. Bin mal gespannt wie das mit dem Skylake aussieht. Vielleicht reicht es zum gucken?

Wer warten kann sollte das tun. Ist kein guter Zeitpunkt für HTPC Investitionen ...
2016 wird wieder besser. :)
 
Wer warten kann sollte das tun. Ist kein guter Zeitpunkt für HTPC Investitionen ...
Genau daher kommt meine Enttäuschung. Ich will meinen 5 Jahre alten HTPC mit Atom / Ion ersetzen. Der ist zwar klein und praktisch lautlos, aber lahm. Natürlich soll der neue wieder für mindestens 5 Jahre reichen und das heisst volle UHD-Eignung. In 1 - 2 Jahren soll es bei mir dann einen 4K Beamer als Ersatz für den FHD Beamer geben - der dann hoffentlich erschwinglich ist.
Aber den lahmen Atom wäre ich gerne jetzt losgeworden.

2016 wird wieder besser. :)

Na hoffen wir's.
Oder ich muss mich doch bei den ARM HTPCs umschauen. Wenn es damit eine gute Lösung für Live-TV mit Sat gibt; den DVB-Viewer würde ich vermissen.

Intel hätte es verdient für die Lahmheit bestraft zu werden.

:grrr:
 
So ganz kann ich den Pessimismus hier nicht nachvollziehen. Skylake soll doch 10bit HEVC (mithilfe der GPU-Einheiten) decodieren können. Falls das einwandfrei läuft, sehe ich da keine Nachteile. Desweiteren soll es auch möglich sein per aktiven Zusatzchip auch HDMI 2.0 (mit HDCP 2.2) zu realisieren. Da werden Mainboard-Hersteller sicher bald auch etwas passendes für den HTPC-Bereich im Programm haben.
 
Warten wir mal ab wie gut der Hybrid Decoder überhaupt funktioniert.
HEVC 10bit in UHD braucht einiges an Shaderpower. Die Intel GPU wird da mächtig zu tun haben.
Was auch klar ist: der Hybrid Decoder ist eine copyback Variante, d.h. alles wird zurück in den Hauptspeicher kopiert.
 
Zuletzt bearbeitet:
für mich nicht ganz so schlimm dann hat sich wenigstens mein I3 Haswell im Wohnzimmer gelohnt wenn ich den dann jetzt noch eine Generation nutze.
Bei der Nächsten wird intel dann wohl auch auf HDMI 2.0 usw setzen.
 
Evaluation of HEVC decoders (SW, Hybrid and HW) - Page 36 - Doom9's Forum
Erste Tests mit 10bit und Hybrid.
Könnte gerade so gehen für Echtzeitwiedergabe. Die größeren Skylake GPU Einheiten wären dann zu empfehlen.

Man sieht trotzdem das mit den Hybrid Decoder ist Käse.

Danke für den Link!

Wenn ich das dort richtig verstanden habe (ist etwas kryptisch für Aussenstehende :confused: ) ist das Ergebnis:

Der momentane High-End Skylake Prozessor (i7-6700k, 4 Ghz, HD 530 iGP) reicht gerade aus um HEVC 10 bit zu dekodieren (Samsung Demo mit 51 Mbit/s / 60 fps). Die CPU Last liegt zwar nur um die 30%, aber das System frisst gut 100 Watt. Vermutlich vor allem für die iGPU.
Mit dem Astra UHD Testkanal (HEVC 10 bit (4:2:0) / ~23 Mbit/s) sieht es nicht viel besser aus, trotz halber Bitrate.

Jeweils im GPU accelerated (=hybriden) Modus mit dem LAV Decoder.

Der Prozessor alleine kostet derzeit ~400.- € und passiv gekühlt lässt er sich auch nicht betreiben.

Der LAV-Decoder wird im Laufe der Zeit vielleicht noch etwas effizienter, aber Wunder würde ich keine mehr erwarten.

Also: :rolleyes:


(Bitte um Korrektur, falls ich etwas falsch verstanden habe)
 
Zuletzt bearbeitet:
Der Samsung Clip ist 8Bit. Das funktioniert gut und schnell. 8bit ist nur generell für die Wiedergabe eher uninteressant und unkritisch.

Stromverbrauch keine Ahnung, die Tests dort sind imho alle etwas fragwürdig.
Interessant ist Post 713 und 718, wobei sich die CPU Werte auf 64Bit beziehen (deutlich schneller als 32bit).
 
Ja, aus diesen beiden Posts habe ich die Ergebnisse und habe versucht sie allgemeinverständlich zu übersetzen/interpretieren.

Bei der in Post 713 verlinkten Videodatei steht:
Demo Ultra-HD by Samsung.

Codec : HEVC
Overall bit rate : 51.6 Mb/s
Bit depth : 10 bits
Frame rate : 59.9400 fps

Ist die Bitanzahl falsch angegeben? Mit 8bit wären die Ergebnisse sehr, sehr hoch.
 
Zuletzt bearbeitet:
Da bin ich durcheinander bekommen, du hast natürlich recht.
 
#Intel's Skylake GPU - Analyzing the Media Capabilities



AnandTech: Intel's Skylake GPU - Analyzing the Media Capabilities
Ganesh T S schrieb:
Skylake brings a lot of benefits to content creators - particularly in terms of improvements to Quick Sync and additional image processing options (including real-time 4Kp60 RAW import). However, it is a mixed bag for HTPC users. While the additional video post processing options (such as LACE for adaptive contrast enhancement) can improve quality of video playback, and the increase in graphics prowess can possibly translate to better madVR capabilities, two glaring aspects prove to be dampeners. The first one is the absence of full hardware acceleration for HEVC Main10 decode. Netflix has opted to go with HEVC Main10 for its 4K streams. When Netflix finally enables 4K streaming on PCs, Skylake, unfortunately is not going to be the power efficient platform that it could have been. The second is the absence of a native HDMI 2.0 / HDCP 2.2 video output. Even though a LSPCon solution is suggested by Intel, it undoubtedly increases the system cost. Sinks supporting this standard have become quite affordable. For less than $600, one can get a 4K Hisense TV with HDMI 2.0 / HDCP 2.2 capability. Unfortunately, Skylake is not going to deliver the most cost-effective platform to utilize the full capabilities of such a display.

--
Aus Lettland schrieb:
Wer stets das Haar sucht, dem entgeht die Suppe.
 
Bezüglich HTPC-Eignung leider eine Bestätigung.

Für Videobearbeitung einige interessante Neuigkeiten.
 
Steht im Detail im oben verlinkten Anandtech Artikel.

Kurz gesagt sind die Verbesserungen für die Videobearbeitung:

  • Format-Konvertierung direkt in der Videoengine nicht via iGP
  • HEVC 4Kp60 wird von Quicksync unterstützt (ich vermute 8bit, aber für Home-Videos sollte das reichen)
  • H.264/4K wird vom Hardware-Encoder unterstützt (nützlich auch für Videokonferenzen, drahtlose Display-Anbindung, online Streaming von den eigenen Heldentaten in Games)
  • VP8 und JPEG Encoder in Hardware
  • Verlustlos komprimierte Zwischenspeicherung des Videosignals im Video RAM (spart Energie)
  • Hardware Support für RAW-Videos/Fotos, nicht via iGP (Rauschreduktion, Kontraststeigerung, Farbanpassungen, etc.)

Insgesamt eine Mischung für schnellere Verarbeitung / weniger Energieverbrauch (mit Mobilgeräten).
 
Zuletzt bearbeitet:
Immerhin. :)

HEVC Quicksync ist nur 8bit.
Ich hoffe die quicksync Sachen wandern irgendwann in ffmpeg. Für Streaming mit transcodieren wäre das perfekt.
 
Ja, ist doch einiges.

Dass Intel HDMI 2.0 und HDCP 2.2 nicht direkt implementiert hat, ist aber schon unverzeihlich.
Bei HEVC hat Intel wohl unterschätzt, dass sich von Anfang an die 10 Bit Auflösung durchsetzt und als das klar war, war das Prozessor-Design abgeschlossen.

Hoffentlich macht die ARM-Flotte Intel etwas Dampf.

ffmpeg: hoffentlich passiert es bald! Leider dauert es oft gefühlte Ewigkeiten, bis Hardware-Features in der Software ankommen. Löbliche Ausnahmen: LAV, MadVR.
 
Zuletzt bearbeitet:
HEVC könnte eine "kurze lebenszeit" haben durch die Lizenzkostenforderungen :) .... "" weil wohl nicht vor 2017/2018 damit zu rechnen ist

Amazon, Cisco, Google, Intel Corporation, Microsoft, Mozilla and Netflix war es anscheinend zuviel und daraus entstand:

Alliance for Open Media - Alliance for Open Media Established to Deliver Next-Generation Open Media Formats

AOMedia: Webfirmen wollen einheitlichen und lizenzfreien Videocodec - Golem.de

.... zumindest wird er nicht nur denen Geld sparen, sondern auch Plattformübergreifend werden :)

Open Source mal zu beiderseitigem Nutzen :banana:
 
Zuletzt bearbeitet:
Das wäre natürlich perfekt, aber ich glaube nicht wirklich daran. :)
Mit HEVC wird man sich wohl oder übel beschäftigen müssen.
 
Das wäre natürlich perfekt, aber ich glaube nicht wirklich daran. :)
Mit HEVC wird man sich wohl oder übel beschäftigen müssen.

es dauert nur etwas, kommen wird es (schau dir nur die Global Player an, welche dahinter stehen .... die sparen sich dadurch auch massiv Geld)

allein Cisco bezahlt ca 6 Millionen für deren free Firefox 264 Codec (den sie stifteten)

Netflix, Amazon und Google mit Youtube liegen noch in ganz anderen Regionen
Microsoft strich in Win 10 ja die DVD und BR Codecs wegen der Lizenzen (armes Microsoft ... eine runde "ohhhh" für das arme MS)

Intel ist als lachender Dritter mit deren IGPs dabei für das HW decoding :)

NVidia und AMD werden sicherlich recht einfach jeglichen Code umbiegen um es in den Cores laufen zu lassen (NV ist ja eh König der Software Features und AMDs GCN ist sehr flexibel)

Apple soll mal rangehen und mitmachen, die scheffeln nur Geld :)

ich seh als Hauptvorteil, das *nix (z.B. Linux) damit auch open codecs bekommt
 
Zuletzt bearbeitet:
Erstmal abwarten was da rauskommt und dann mal sehen für was der opensource Codec verwendet wird.
Die MPEG LA Mafia ist nicht zu unterschätzen und dort sitzen auch die großen Player mit im Boot.
 
Erstmal abwarten was da rauskommt und dann mal sehen für was der opensource Codec verwendet wird.
Die MPEG LA Mafia ist nicht zu unterschätzen und dort sitzen auch die großen Player mit im Boot.

die ist so klein gegenüber den Anwendern :)

die sich da zusammenrotten stellen fast 76% des use (wenn Apple noch kommt >90%)

einzig die einbindung eines DRM wir evtl die Gemüter spalten

aber da es als open source kommen wird ..... lasst es uns überaschen
 
Zuletzt bearbeitet:
Das wird nur was, wenn ein DRM (Kopierschutz) dabei ist, den die Content Provider für sicher halten.

Ohne Content (also Filme) ist jeder Codec nutzlos.
 
Jepp, sehr war, leider. Techniker haben da noch nie was zu entscheiden gehabt.
 
Kann man überhaupt diese Dekodierung und Enkodierung von H265 10 Bit einer CPU nutzen, wenn man eine PCI-e-Grafikkarte nutzt?
Also der Onboard-HDMI-Port ungenutzt bleibt?

Und wenn man z.B. eine GTX 980 Ti nutzt (z.B. für die HTC-Vive), hat man eh H265 10Bit Unterstützung?
Dekodierung, oder auch Enkodierung. Denn das ist ja auch nicht nutzlos.
Ich glaube meine UHD/25p-Videos werden von einer Kamera auch nur in H264 gespeichert.
Ca. 2,5h mit 59,1Gb bei 60Mbit (für 100Mbit brauche Ich noch eine schnellere SD-Karte, "U3"...).
 
Zuletzt bearbeitet:
Die GTX 980 Ti hatte glaube ich noch keinen H.265 Decoder/Encoder fähigen Chip, aber wenn die benutzte Grafikkarte h.265 unterstützt funktioniert das natürlich, unabhängig von der verbauten CPU.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh