Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Da gabs noch kein CUDA, also würd ich mir überlegen, obs wirklich an der GPU liegt...
Ich hab auch CoreAVC im Einsatz, solche Bildfehler hat ich noch nie... ( Eigentlich hatte ich noch nie welche... )
man sollte lieber das dxva im mpc hc abschalten + damit auf cuda verzichten
einen full hd film rein von der cpu berechnen zu lassen, schafft zb ein x2 5600er. der hat dann so 60% auslastung. über 60% haste immer wieder die gefahr von asyncronitäten. da darf dann halt im hintergrund nix mehr laufen.
macht doch nichtstv ist der Panasonic TH-50PZ800E - 50" nicht 52" - mein fehler
es gibt in den einzelnen codecs unterschiedliche berechnungsmethoden zur bildausgabe. manche werden zb mit integerzahlen durchgeführt, welche schneller ist als mit gleitkomma.
bildverbesserer sind gut ab 50" sag ich mal. aber redet da mit leuten, die eigene kinoräume daheim haben mit beamern von 3m leinwanddurchschnitt. die haben sicher eine andere meinung.
das ist sozusagen eine wissenschaft für sich, allerdings braucht man für gute ergebnisse schon quadcore power, und das will nicht jeder in seinem htpc haben
wie erreicht der core codec diese verbesserung? entweder er lässt manche berechnungsschritte aus oder aber es werden nur näherungswerte berechnet. dadruch beschleunigt sich die wiedergabe => weniger cpu last dafür aber schlechtere qualität.
ich verstehe nicht wieso hier immer coreavc empfohlen wird, obwohl hier die Bildqualität mangelhaft ist...
ich würde, sofern die GraKa es unterstützt lieber auf dxva mit mpc-hc setzen...
schaltest du cuda ab beim core, rechnet der core ja auch alles über die cpu und ist dort noch immer schneller als der mpc hc ohne dxva!
jetzt fragt man sich, woher dieser zeitvorteil kommt.
Sorry aber das ist nicht wahr ! CoreAVC (ohne CUDA)
Wie das genau bei h264 aussieht weiß ich eben nicht, zu wenig mit beschäftigt, aber zu MPEG2 zeiten gab es ebenso einen referenz für die dct/idct berechnungen welche per gleitkomma über die FPU erfolgten. Das war(gerade damals) sehr rechenintensiv. Es gab einige encoder/decoder da konnte man die "genauigkeit" der berechnungen bestimmen und wählen zwischen integer, MMX instruction set, gleitkomma, 32/64bit usw.. Ob dies bei bei 264 hier auch noch diese möglickeiten gibt würde ich nicht 100% auschließen wollen. Bei MPEG2 gab es dies jedenfalls, innerhalb "eines" decoders der die wahl bot, kann ich mich nicht entsinnen da große erhebliche unterschiede gesehen zu haben mit meinem equipment. Das waren aber noch weit prä 50" zeiten...
du hast dir aber schon die Bilder bei Tomshardware angesehen? CoreAVC schneidet da grottig ab...