Du willst doch nicht etwa das slow preset eines hochoptimierten Softwareencoders mit einer nur auf Geschwindigkeit eingestellten codier ineffizienten Hardwareeinheit (Quicksync) vergleichen?
Dein Ernst? Vor allem beim Playback, also decodieren, verstehe ich dein Problem nicht. Wenn du einen Bluray-Player für 1000 euro kaufst, dann ist da ein HW Decoder drin und kein Super-duper-Mega-Ocata-Millardo-Core drin mit "SLOW-Preset" SW Decoding, der 300 Watt für das abspielen einer 4:2:0 Bluray verbraucht. Im Skylake ist nun schon die 5te Gen IGP-HW-Video Decoder... obendrein musst du bedenken, dass Intel genau das pusht! Die Anwendungen, wo du SW Codieren oder Decodieren brauchst, sind beim Mastering von BluRays z.B. oder eigens kreiertes Content, was du in Industrie-Qualität beim Kunden abliefern musst. Alles andere sind Einbildungen und Haarspalltereien von Leihen.
Bedenke noch dazu, dass die HW-Decoder in den teuersten BluRayplayern z.B. nach 1 bis 2 Jahren out of date sind. Beim Intel kann einiges über die Treiber nachgebessert werden.