HDTV ruckelt trotz aktivem cuda mit Nvidia 730a/8300-Chipsatz

gm: es ging nie um die gpu... du weisst ich zocke auch damit.

auch wenn du es nicht gerne hörst, bei einem htpc geht es immer um den gesamtverbrauch und somit auch um die grafikkarte die verwendet wird...

und den verbrauch der cpu kann man perfekt mit der neuesten ultimate version von everest anzeigen lassen.

wenn everest bei einem quadcore da wirklichnur 5watt anzeigen sollte, stimmt etwas mit dem programm nicht. dieser wert ist nicht "realitäts-tauglich"!

und wie gesagt, ich kann durch upscaling eine sehr große verbesserung der bildqualität feststellen (und alle anderen auch). ich konnte es kaum glauben als ich den unterschied sah.

also bis jetzt halte ich von diesem bildverbesserungs-kram aus den genannten gründen nicht. man soll jedoch niemals nie sagen:) deshalb kann ich nicht ausschließen, das sich meine meinung diesbezüglich vielleicht einmal ändern wird.


Gruß
g.m
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wir redeten immer nur von der cpu ;) sobald es eng für dich wird weichst du wieder auf das gesamtsystem aus, obwohl davon nie die rede war. klar das mein system mehr verbraucht als deins, aber die cpu benötigt im idle ~5W und hat dabei noch sehr viel mehr power als zb der 4850e.

und ich halte everest schon für sehr genau. es zeigte für meinen p4 @4GHZ @ Prime95 ~135W an, und das stimmt mit den TDP werten von intel ziemlich genau überein...

mfg
 
wir redeten immer nur von der cpu sobald es eng für dich wird weichst du wieder auf das gesamtsystem aus, obwohl davon nie die rede war.

das stimmt so nicht. davon war vielleicht für dich nie die rede. mir ging und geht es auch immer um den verbrauch des gesamsystems.

und ich halte everest schon für sehr genau. es zeigte für meinen p4 @4GHZ @ Prime95 ~135W an, und das stimmt mit den TDP werten von intel ziemlich genau überein...

na komm, jetzt bleib einfach mal auf dem teppich. wenn es dir nicht völlig realitätsfern vorkommt, das ein quadcore im idle nur 5 watt verbrauchen soll, weiss auch nicht. da dürfte ja selbst schon ein atom mehr verbrauchen und gegen den ist deine cpu ein monstrom.
das dieser wert nicht stimmen kann, sollte dir allein schon die logik und der gesunde menschverstand sagen!

Gruß
g.m
 
argh, problem erkannt und gelöst:) hab dein board im arbeitssystem, für das im htpc verwendete gehalten. sorry. im htpc hast du das gleiche board wie ich und somit natürlich eine gpu der 8er serie:)

das interessiert mich jetzt aber mal. bei dir läuft hdtv in 1080i wirklich flüßig?
du hast ja annährend dieselbe konfiguration wie ich. wäre schön wenn du noch ein paar worte dazu sagen könntest.

Gruß
g.m

ich kann über keine Probleme klagen. Wie der Benchmark der 8200 zeigt und was FaxenDicke dazu gesagt hat, läuft das.

Ich werde nachher den Benchmark mit der 8300 nach reichen. Müsste ja eigentlich noch ein bisschen besser ausfallen, da die Chip ja höher taktet als der der 8200.

Was ich vorschlagen würde, was auch diesem Foren Bereich fehlt, das man ein einheitliche Test-Files hat. So könnte man besser Ausagen machen.

Ich werde nachher noch mal die Files von Tobi unter Windows und Debian abspielen.
 
Meine Güte....
Ich weiß net wie oft man noch links zu tests posten muss bis mal einer gelesen wird und dann ggf. aus eigeninitiative nach weiteren gesucht wird. Das inet ist voll davon, nööööö stattdessen wird als eine alte määr von stromfressenden Intel CPU´s verbreitet.

http://ht4u.net/reviews/2009/intel_pentium_e6300/index9.php

Das ist die Leistungsaufnahme, idle und last, der CPU inkl. der Verluste des DC/DC Wandler auf dem Board, das wird über die extra 12V zuleitung zum Mainboard für dei DC/DC wandler gemessen.
 
@ganja_man: jaja rede dich nur wieder auf das gesamtsystem raus.... wovon in unserer diskussion niemals die rede war. :rolleyes:

und die werte sind sehr wohl realitätsnah. abgesehen davon benötigt ein atom im idle ca 100-300mW.

aber ich bin nun weg, dich kann man eh nicht überzeugen es sei denn du hättest den prozzi selber...


schönen tag noch,

mfg mcgene :wink:


EDIT: @faxendicke: vielen dank für den link, hoffentlich sind einige nun klüger und verzapfen nicht nur gerüchte...
 
Zuletzt bearbeitet:
@ganja_man: jaja rede dich nur wieder auf das gesamtsystem raus.... wovon in unserer diskussion niemals die rede war.

das ist mir neu. davon war für dich vielleicht nicht die rede. ich streite mich deshalb aber auch nicht. bringt ja nichts.

und die werte sind sehr wohl realitätsnah. abgesehen davon benötigt ein atom im idle ca 100-300mW

für mich sind diese werte und auch die werte aus der von faxendicke geposteten tabelle weder realistisch noch nachvollziehbar. sorry.


Gruß
g.m
 
@gm: es ging nie um die gpu... du weisst ich zocke auch damit.

und den verbrauch der cpu kann man perfekt mit der neuesten ultimate version von everest anzeigen lassen.

und wie gesagt, ich kann durch upscaling eine sehr große verbesserung der bildqualität feststellen (und alle anderen auch). ich konnte es kaum glauben als ich den unterschied sah.

mfg

Glückwunsch zur CPU ! :asthanos:

Kannst ja mal im FFD Show Thread berichten was bei dir so Settingmäßig geht ;)
 
so hier erstmal die Wert von meiner 8300:

Code:
AMD Athlon(tm) Dual Core Processor 4850e
NVIDIA GPU GeForce 8300 (C77) at PCI:2:0:0 (GPU-0)

VDPAU API version : 0
VDPAU implementation : NVIDIA VDPAU Driver Shared Library  185.18.14  Wed May 27 03:09:54 PDT 2009

SURFACE GET BITS: 637.607 M/s
SURFACE PUT BITS: 472.361 M/s

MPEG DECODING (1920x1080): 47 frames/s
MPEG DECODING (1280x720): 99 frames/s
H264 DECODING (1920x1080): 32 frames/s
H264 DECODING (1280x720): 52 frames/s
VC1 DECODING (1440x1080): 38 frames/s

MIXER WEAVE (1920x1080): 229 frames/s
MIXER BOB (1920x1080): 374 fields/s
MIXER TEMPORAL (1920x1080): 65 fields/s
MIXER TEMPORAL + SKIP_CHROMA (1920x1080): 91 fields/s
MIXER TEMPORAL_SPATIAL (1920x1080): 23 fields/s
MIXER TEMPORAL_SPATIAL + SKIP_CHROMA (1920x1080): 25 fields/s

MIXER TEMPORAL_SPATIAL (720x576 video to 1920x1080 display): 91 fields/s
 
so hier erstmal die Wert von meiner 8300:

Code:
AMD Athlon(tm) Dual Core Processor 4850e
NVIDIA GPU GeForce 8300 (C77) at PCI:2:0:0 (GPU-0)

VDPAU API version : 0
VDPAU implementation : NVIDIA VDPAU Driver Shared Library  185.18.14  Wed May 27 03:09:54 PDT 2009

SURFACE GET BITS: 637.607 M/s
SURFACE PUT BITS: 472.361 M/s

MPEG DECODING (1920x1080): 47 frames/s
MPEG DECODING (1280x720): 99 frames/s
H264 DECODING (1920x1080): 32 frames/s
H264 DECODING (1280x720): 52 frames/s
VC1 DECODING (1440x1080): 38 frames/s

MIXER WEAVE (1920x1080): 229 frames/s
MIXER BOB (1920x1080): 374 fields/s
MIXER TEMPORAL (1920x1080): 65 fields/s
MIXER TEMPORAL + SKIP_CHROMA (1920x1080): 91 fields/s
MIXER TEMPORAL_SPATIAL (1920x1080): 23 fields/s
MIXER TEMPORAL_SPATIAL + SKIP_CHROMA (1920x1080): 25 fields/s

MIXER TEMPORAL_SPATIAL (720x576 video to 1920x1080 display): 91 fields/s

die werte zeigen mir nicht, wie gut es bei dir in der praxis läuft. also ob es ruckelt oder flüßig läuft. desweiteren geht es wirklich nur um hdtv in 1080i. alles andere läuft ja flüßig. bitte auch nicht mit arte-hd oder eins-festival-hd testen, da diese nur in 720p senden. interessant wäre, wie es bei dir mit astra-hd und anixe-hd läuft. die senden nämlich mit 1080i!
beim abspielen von normalen files, wie mkv`s in 1080p oder gar blurays, gibt es hier auch keine probleme.
es geht wie gesagt nur um hdtv in 1080i!


Gruß
g.m
 
die Werte sollen ja auch nur zeigen, dass es nicht an der Hardware liegen kann.

ich würde ja sehr gerne 1080i testen, nur ohne ein einheitliches Test File ist das nicht aussagekräftig.

Ich habe gerade die Files von Tobi unter Windows (MPC-HC) und Debian (mplayer) abgespielt.

Die 720er waren bei beiden Systemen keine Probleme. Beim 1080 unter Windows was es jedoch eine Diashow *g*, unter Debian lief es flüssig.
 
Zuletzt bearbeitet:
Da würdest du keine Unterschied zu dir sehen ganja, wenn du mal betrachtest, was für eine CPU er verwendet.
Interessant wären eher mal die Werte von einem mit den neuen Prozzis/Triple/Quad.

Gibts son Ding auch für Windows weil ich kein Linux aufm Rechner habe ?
 
und den verbrauch der cpu kann man perfekt mit der neuesten ultimate version von everest anzeigen lassen.
Everest schätz nur, nicht mehr nicht weniger, denn das ist nur eine Software die ohne passende Dioden etc. wohl kaum den Stromverbrauch ermitteln kann.

Ich habe hier nen C2D Mobile P8400 der laut Everest im Idle 8Watt braucht, also mal ehrlich, die Anzeige kannste voll vergessen!
 
die Werte sollen ja auch nur zeigen, dass es nicht an der Hardware liegen kann.

ich würde ja sehr gerne 1080i testen, nur ohne ein einheitliches Test File ist das nicht aussagekräftig.

Ich habe gerade die Files von Tobi unter Windows (MPC-HC) und Debian (mplayer) abgespielt.

Die 720er waren bei beiden Systemen keine Probleme. Beim 1080 unter Windows was es jedoch eine Diashow *g*, unter Debian lief es flüssig.

hdtv in tausend 1080i dafür brauchst du doch keine testfiles. mir geht es darum wie gut der live-empfang bei dir ist. also ob es ruckelfrei läuft oder nicht.
deshalb sagte ich ja, du sollst mal anixe-hd oder astra-hd testen.
die files vom tobi kenn ich jetzt nicht, aber wenn es unter windows als diashow läuft, hast du wohl etwas falsch gemacht. außerdem solltest du bedenken das die dvxa-beschleunigung auch nicht bei jedem file greift.
da ist cuda eben flexiebler weil es alles beschleunigt. ich weiss allerdings nichts ob es unter linux schon cuda oder was ähnliches gibt und wenn ja, ob es dann genauso effizient wie unter windows arbeitet.


Gruß
g.m

---------- Beitrag hinzugefügt um 18:34 ---------- Vorheriger Beitrag war um 18:31 ----------

Everest schätz nur, nicht mehr nicht weniger, denn das ist nur eine Software die ohne passende Dioden etc. wohl kaum den Stromverbrauch ermitteln kann.

Ich habe hier nen C2D Mobile P8400 der laut Everest im Idle 8Watt braucht, also mal ehrlich, die Anzeige kannste voll vergessen!

danke! ;)

außerdem haben wir noch den stromverbrauchs-thread! wenn da systeme sind, die knapp 60watt im idle verbrauchen, wüsste ich gerne, wie das denn zustande kommt, wenn die cpu`s nur 5-10 watt im idle, ziehen. zieht dann die festplatte, das-ide-laufwerk und der chipsatz ganze 50 watt und das obwohl sich alles im idle, also nicht unter last befindet? das halte ich für großen quatsch!

wir können uns ja gerne mal so ein system rauspicken und dann soll mcgene mal erklären wie der hohe idle-verbrauch zustande kommt, obwohl die cpu ja nur 5-10 watt verbraucht. ich spreche hier übrigens von systemen mit onboard-grafik und ohne zusätzliches brimborium!

Gruß
g.m
 
Zuletzt bearbeitet:
CUDA beschleunigt gar nichts. CUDA ist die schnittstelle, die die rechenlast des CODECs von der CPU auf die GPU überträgt. ;-)

unterstützt wird das, was der CUDA-taugliche CODEC (etwa CoreAVC) zu dekodieren versteht..

DXVA ist in der tat als beschleunigung zu sehen, da sie die CPU nur unterstützt.

in software trägt man den kartoffelsack allein, in software +DXVA fassen zwei leute mit an und über die CUDA-schnittstelle, lassen wir die anderen den sack für uns tragen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Da würdest du keine Unterschied zu dir sehen ganja, wenn du mal betrachtest, was für eine CPU er verwendet.
Interessant wären eher mal die Werte von einem mit den neuen Prozzis/Triple/Quad.

Gibts son Ding auch für Windows weil ich kein Linux aufm Rechner habe ?

Lade dir mal den Timecodec, dort kannst du die Quelle, Decoder und den Renderer aussuchen ( kein EVR ) und siehst dann ein paar nette Werte die sich gut vergleichen lassen. Hab das Proggi mal zum FFD Show Benchmarking von nem User aus dem AVS Forum bekommen.

http://netload.in/dateinnUsXPbmQw/Time Codec.rar.htm

Hardware : Phenom II 940be @ 3.4Ghz C&Q 900Mhz, NV 8800 GT, JW 790GX Extreme Mobo

Würde 2 Durchläufe machen mit VMR9 und einmal mit Cuda und ohne. Hier sind meine Ergebnisse mit Tobis 1080p File :

Ergebnisse :

Mit Core AVC / Cuda on : User: 2s, kernel: 0s, total: 3s, real: 18s, fps: 317.9, dfps: 58.8

Mit Core AVC / Cuda off : User: 1s, kernel: 0s, total: 1s, real: 18s, fps: 793.0, dfps: 60.2

timecodecsettingsze4z.jpg


Der Phenom ist ohne Cuda irgendwie schneller :d

Core AVC Settings :
timecodecsettings7kdi.jpg
 
Zuletzt bearbeitet:
schalt' mal auf weave runter - das sind progressive files.. ;-)


(..)

mfg
tobi
 
Auf weave sieht es so aus :

Cuda on : User: 2s, kernel: 0s, total: 3s, real: 18s, fps: 346.0, dfps: 58.8

Cuda off : User: 1s, kernel: 0s, total: 1s, real: 18s, fps: 882.2, dfps: 60.2

Mit dem Programm könnte man easy ermitteln welche Werte man ungefähr braucht damit es flüssig läuft. Den Wert derjenigen bei denen es im Player läuft eben mit denen bei denen es ruckelt vergleichen usw..
 
Zuletzt bearbeitet:
CUDA beschleunigt gar nichts. CUDA ist die schnittstelle, die die rechenlast des CODECs von der CPU auf die GPU überträgt. ;-)

unterstützt wird das, was der CUDA-taugliche CODEC (etwa CoreAVC) zu dekodieren versteht..

DXVA ist in der tat als beschleunigung zu sehen, da sie die CPU nur unterstützt.

in software trägt man den kartoffelsack allein, in software +DXVA fassen zwei leute mit an und über die CUDA-schnittstelle, lassen wir die anderen den sack für uns tragen.


(..)

mfg
tobi

Cuda ist quasi ne Api (könnte es im entfernten sinne auch als compiler sehen welcher den Programmsyntax in eine maschinensprache für die GPU umsetzt) um berechnungen fürs zb streaming auf die GPU auszulagern, das kann man wenn man will genau so als beschleunigung titulieren, die CPU hat dann mehr resourcen frei für anderes, also im gesamten gesehen eine besser auslastungsverteilung wenn man so will mit dann natürlich auch einen beschleunigten gesamt effekt.
DXVA ist ebenso ne API aber eine spezielle für einen zweck, welche auf eigene spezielle Einheiten aber auch shader in der GPU zugreift, je nach realisierung.


Beides erzeugt ein gewissen overhead/verwaltungs last auf der CPU, also der vergleich mit den kartoffel säcken hinkt ebbes. Bei CoreAVC mit Cuda arbeitet die GPU auch nicht alleine, geht auch gar nicht die CPU ist immer mit involviert. Das heißt entweder fasen bei DXVA und Per Cuda zwei leute an oder wenn du so willst bei beiden wird die arbeit von anderen erledigt.

DXVA hat den nachteil etwas restriktiver ans werk zu gehen, was jedoch weder bei TV, HDTV oder BD oder HDDVD quellen ein problem darstellt das lässt sich alles mit DXVA problemlos abarbeiten, wenn die graka dabei mitmacht.
Die fehlende HW unterstüzung ist doch oft auch auf DXVA inkompatible recodierte rips zurückzuführen die gerne genutzt werden.
 
Zuletzt bearbeitet:
ist mir durchaus bekannt.. *nickt* CUDA ist ne API *zustimm*

nur dass die verteilung im CUDA betrieb auf geschätzten 99% @gpu liegt, wohingegen im DXVA-betrieb die CPU noch recht heftig involviert ist, da die GPU hier nur "unterstützt" und nur teile des dokodierprozesses übernimmt. mit CUDA macht die CPU gar nichts mehr, was mit dekodierung zu tun hat.

auf mein notebook bezogen sind das etwa 40% CPU-last im DXVA-betrieb, 80% im reinen softwarebetrieb und weniger als 20% CPU-last im CUDA-mode. wenn der jeweilige player zwischen 13 und 20% schwankt, ist das eine auslastung, die unter den ganzen anderen tasks im TM gar nicht mehr auffällt.. quasi untergeht als nicht vorhanden.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
faxendicke hat in diesem fall schon recht. da ist auch viel haarspalterei dabei. ich habe natürlich auch die entlastung der cpu gemeint, als ich von cuda als beschleuniger gesprochen habe. cuda lagert halt berechnungen auf die gpu aus, so das die cpu entlastet wird. das läuft also im grunde auf das gleiche hinaus. außerdem greift cuda immer, auch bei schlecht kodierten files. in diesem punkt ist es dvxa überlegen.

Gruß
g.m
 
Zuletzt bearbeitet:
finde ich gar nicht so haarspaltig.. wenn für 1 sekunde film 100 rechnungen notwendig sind, übernimmt im DXVA mode die GPU davon vielleicht die hälfte.. über CUDA alle.


(..)

mfg
tobi
 
im endeffekt läuft sowohl cuda wie auch dvxa auf dasselbe hinaus ; die cpu wird entlastet - darauf wollte ich hinaus:)

Gruß
g.m
 
ist mir durchaus bekannt.. *nickt* CUDA ist ne API *zustimm*

nur dass die verteilung im CUDA betrieb auf geschätzten 99% @gpu liegt, wohingegen im DXVA-betrieb die CPU noch recht heftig involviert ist, da die GPU hier nur "unterstützt" und nur teile des dokodierprozesses übernimmt. mit CUDA macht die CPU gar nichts mehr, was mit dekodierung zu tun hat.

auf mein notebook bezogen sind das etwa 40% CPU-last im DXVA-betrieb, 80% im reinen softwarebetrieb und weniger als 20% CPU-last im CUDA-mode. wenn der jeweilige player zwischen 13 und 20% schwankt, ist das eine auslastung, die unter den ganzen anderen tasks im TM gar nicht mehr auffällt.. quasi untergeht als nicht vorhanden.



(..)

mfg
tobi


Bei welchem material hast du 40% auslastung mit DXVA?
Bei mir mit Mediaportal und Reclock(very Good) bei h264 liege ich bisher bei 1080i material bei ~25% im schnitt und bei 1080p ~15% im schnitt, mit mal in der spitze 10% ausreisern nach oben wie unten. In MPC_HC erhalte ich etwas niedrigere werte, das mit einer 8600gt und x2 4600+
Cuda müsste ich mal testen durchaus möglich das dies effizienter ist, nen fortschritt ist immer gut aber an 99% mag ich net recht glauben.
 
Zuletzt bearbeitet:
Bei welchem material hast du 40% auslastung mit DXVA?
Bei mir mit Mediaportal und Reclock(very Good) bei h264 liege ich bisher bei 1080i material bei ~25% im schnitt und bei 1080p ~15% im schnitt, mit mal in der spitze 10% ausreisern nach oben wie unten. In MPC_HC erhalte ich etwas niedrigere werte, das mit einer 8600gt und x2 4600+
Cuda müsste ich mal testen durchaus möglich das dies effizienter ist, nen fortschritt ist immer gut aber an 99% mag ich net recht glauben.

ich drehe interlaced, aber noch vor dem rohschnitt deinterlace ich mein material. 40% auslastung habe ich bei 1080p AVC ohne CUDA.

hast du auch ein 2GHz notebook?

wie sich mein 3,6GHz rechner verhält kann ich von hier aus nicht sagen.


(..)

mfg
tobi
 
ich drehe interlaced, aber noch vor dem rohschnitt deinterlace ich mein material. 40% auslastung habe ich bei 1080p AVC ohne CUDA.

hast du auch ein 2GHz notebook?

wie sich mein 3,6GHz rechner verhält kann ich von hier aus nicht sagen.


(..)

mfg
tobi

also mein HTPC ist ein X2 4600+ mit der 8600GT und von diesem stammen die genannten werte. Ich sitze aber eben an einen Samsung R510 mit nem 2ghz T5800 und 4500HD. Hier bekomme ich ohne HW beschleunigung(PDVD, core soll ja ebbes effizienter sein) (welche ich bei der intel bisher nur mir PDVD codec zum laufen bekomme) keine durchgehende vernünftige wiedergabe bei 1080p je nach datenrate des File besser oder schlimmer und an 1080i ist gar nicht zu denken. Mit DXVA gehts ganz gut aber viel reserven sind nicht, nicht so sonderlich effektiv.
Dennoch liegt die leistung z.b bei PP mit ffdshow des t5800 dem 4600+ recht ähnlich

Welchen Codec nutzt du also für DXVA? ich bin gerade übberascht Du nutzt AVCHD???
Damit habe ich noch nicht so viel gemacht. Ich habe hier von nem Arbeitskollegen nen AVCHD File von ner cannon cam. Dies ist Level5.x und ich habe es damals mit PDVD7 nicht mit DXVA auf dem Aura505 mit 3470 zum laufen gebracht. Nach einem recodieren in h264 main oder high Level 4.x ging es einwandfrei..

hmm muss ich mal mit PDVD9 testen auf meiner 8600gt und Ati4670 das vid hab ich hier noch irgendwo..
Mein stand war bisher noch, das nur Level4.x Material mit DXVA problemlos im vollen umfang gehen soll.
 
Zuletzt bearbeitet:
Hallo Leute,

euch kann man ja auch nicht mal für ein paar Stunden alleine lassen, ohne dass der Thread um mehrere Seiten anwächst ;)

Hier mal ein paar Feedbacks von mir:

@ganja_man: Danke für Deine Stellungnahme. Ich verstehe, was Du mir sagen willst. Aber an einigen Punkten sind wir ziemlich weit auseinander. So schreibst Du z.B. etwas von "intel-heizkraftwerk", aber in weiteren Beiträgen erfahre ich dann etwas von einem Arbeitsrechner, einem Spielerechner, einer xbox360 und einem 5.1-Soundsystem. Dazu kommt noch Dein HTPC. Na ja, da wollen wir mal lieber nicht die Watt zusammenzählen. Und zum Thema "Wenn du mit der qualität deines quellmaterials nicht zufrieden bist, dann besorg dir eben besseres.": ich habe z.B. alte Filme aus den 30er Jahren mit Oldtimerrennen (aus heutiger Sicht; damals waren es moderne Fahrzeuge). Ich habe versucht, da an HD-Material ranzukommen. Leider ohne Erfolg ;)

Es gibt aber auch noch weitere Punkte. Welche das sind, werde ich in meinem Kaufberatungsthread versuchen aufzuzeigen. Ich denke, wir sollten dann an der Stelle weiterdiskutieren. Hier in diesem Thread würde das weit am Thema vorbeigehen. Außerdem muss ich mir die Sache auch noch mal in Ruhe durch den Kopf gehen lassen. Momentan qualmt der vom vielen Lesen und von der Hitze ;)

@FaxenDicke: Alle Achtung, was Du so an Wissen draufhast. Hast Du beruflich damit zu tun, oder wie kommt man an die Infos? In weiten Teilen verstehe ich nur Bahnhof. Aber ich versuche fleißig dazuzulernen. Wenn Du also ein paar Tipps hast, wo ich an entsprechende Infos kommen kann, wäre ich Dir sehr verbunden.

@All: Ich werde in ein paar Tagen mal meinen Kaufberatungsthread starten. Ich brauche nur noch etwas Zeit, um meine Anforderungen und meinen Lösungsvorschlag "wasserdicht" aufzuschreiben. Ich hoffe, ihr könnt mir dann noch den einen oder anderen Tipp geben.

Gruß,
Uwe
 
@uwil

Danke für Deine Stellungnahme. Ich verstehe, was Du mir sagen willst. Aber an einigen Punkten sind wir ziemlich weit auseinander.

ja, das mag sein. verschiedene menschen, verschiedene ansichten und bedürfnisse. muß man halt irgendwo auch akzeptieren. ich verstehe deinen standpunkt teilweise durchaus. teile ihn aber halt nicht in jeder beziehung. trotzdem hoffe ich das du dein vorhaben für dich zurfriedenstellend verwirklichen kannst.

So schreibst Du z.B. etwas von "intel-heizkraftwerk", aber in weiteren Beiträgen erfahre ich dann etwas von einem Arbeitsrechner, einem Spielerechner, einer xbox360 und einem 5.1-Soundsystem. Dazu kommt noch Dein HTPC.

naja, da mußte du etwas differenzieren. der spielerechner ist kaum in betrieb, sondern nur wenn ich mal wieder lust habe, etwas auf dem pc zu spielen, was recht selten vorkommt. der spielrechner lohnt sich eigentlich kaum noch.

das arbeitssystem ist ein autarker rechner (der soll laufen können oder auch abgeschaltet werden können, ohne das ein anderes system wie z.b der htpc darunter leidet.)mit amd 780g chipsatz und amd 2400be cpu (45watt tdp. das system ist dafür gedacht, videos zu schneiden und meine täglichen arbeiten zu erledigen. er ist undervoltet und verbraucht knapp 43watt im idle. deshalb macht es auch nichts aus, wenn der mal ein paar tage am stück laufen soll.

das geht eben nicht mit einem allrounder. der muß ja immer laufen, egal wieviel er verbraucht. deswegen kommt so eine lösung für mich eben auch nicht infrage. aus diesem grund, habe ich ja auch dieses systemtrennung.

die xbox360 und der sony-avr werden nur bei bedarf eingeschaltet. somit hält sich der verbrauch auch in grenzen.

ich habe mir letztens übrigens eine philips senseo gekauft. die zieht knapp 1450 watt aus der steckdose und ist (neben dem staubsauger), zur zeit mein größter stromfresser:) die wird aber auch nur bei bedarf eingeschaltet.


Gruß
g.m
 
Zuletzt bearbeitet:
also mein HTPC ist ein X2 4600+ mit der 8600GT und von diesem stammen die genannten werte. Ich sitze aber eben an einen Samsung R510 mit nem 2ghz T5800 und 4500HD. Hier bekomme ich ohne HW beschleunigung(PDVD, core soll ja ebbes effizienter sein) (welche ich bei der intel bisher nur mir PDVD codec zum laufen bekomme) keine durchgehende vernünftige wiedergabe bei 1080p je nach datenrate des File besser oder schlimmer und an 1080i ist gar nicht zu denken. Mit DXVA gehts ganz gut aber viel reserven sind nicht, nicht so sonderlich effektiv.
Dennoch liegt die leistung z.b bei PP mit ffdshow des t5800 dem 4600+ recht ähnlich

Welchen Codec nutzt du also für DXVA? ich bin gerade übberascht Du nutzt AVCHD???
Damit habe ich noch nicht so viel gemacht. Ich habe hier von nem Arbeitskollegen nen AVCHD File von ner cannon cam. Dies ist Level5.x und ich habe es damals mit PDVD7 nicht mit DXVA auf dem Aura505 mit 3470 zum laufen gebracht. Nach einem recodieren in Level 4.x ging es einwandfrei..

hmm muss ich mal mit PDVD9 testen auf meiner 8600gt und Ati4670 das vid hab ich hier noch irgendwo..
Mein stand war bisher noch, das nur Level4.x Material mit DXVA problemlos im vollen umfang gehen soll.


die auslastung ist klar von der datenrate abhängig, aber es gibt eindeutige tendenzen bzw. gemittelte erfahrungswerte, dass ich mit coreAVC+CUDA am besten unterwegs bin (mache das ja nicht erst seit gestern und core habe ich auch schon vor cuda verwendet).

wenn ich dxva verwenden will, muss ich powerdvd oder den mpc verwenden. im vmc nutze ich core und das verwende ich am häufigsten.

auf der insideNV-seite habe ich weiter unten mal tendenziell anhand dreier screenshots die unterschiede in der systemauslastung nebeneinander gestellt.. also coreAVC, coreAVC+CUDA und MPC-DXVA. und zwar ausschliesslich auf dem vergleichsweise schwachen notebook. auf dem desktop-boliden kann das alles wieder anders aussehen.

wir wissen beide, dass das nicht auf jede szene oder jedes stückchen filmgut übertragbar ist, aber wie jetzt zweimal erwähnt, es ist tendenziell zu sehen.

ja, ich arbeite vorwiegend beim export mit AVC+HD -auflösung (high profile 5.0). das aber zu 50-60% nur beim export. in der phase davor arbeite ich entweder mit canopus lossless oder unkomprimierten vollbildern. gerade für partikeleffekte oder lichtschwerter ein muss. die HD-CAM zeichnet mpeg2HD mit max. 30mbit/s auf.. (1080i)

btw,
sicher gibts sowohl im DXVA, alsauch im CUDA -betrieb stellen, die mit 7% auslastung rumdümpeln, aber minimalwerte zu vergleichen nutzt ja nix.. die max-auslastungen sind die störenfriede und ausbrüche nach oben über die 70% gibts mit CUDA einfach nicht.

und noch einen -> mir ist noch nicht aufgefallen, dass deinterlacing beim filmegucken die last erhöht... lass ja selten den taskmanager offen, wenn ich im VMC unterwegs bin.. aber wenn die leistung auf system XY nicht reicht fürs zusammenfügen der fields, dann lass das doch den fernseher machen und übergib ihm das interlaced signal.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh