HDTV ruckelt trotz aktivem cuda mit Nvidia 730a/8300-Chipsatz

update:

da die Terratec S2 PCI HD bauglich mit der der skystar hd2 ist (was ich vorher nicht wußte), gab es mit dieser karte auch dieselben probleme.
deshalb ist sie jetzt wieder beim händler.
ich denke nicht, das ich noch eine andere s2 karte außer der floppy-dtv testen werde. eventuell würde eine technotrend s2 karte oder eine von knc besser funktionieren. diese karten gibt es bei mir aber nicht vor ort und wenn ich sowieso eine bestellen muß, kann ich auch gleiche die floppydtv ordern.
damit dürfte es dann keine probleme mehr geben.
sollange liegt hdtv erstmal auf eis.


Gruß
g.m
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo GM,
was war denn Dein Problem mit der Karte? Vielleicht hilft mir die Info ja auch weiter... ich habe immer wieder Bildstörungen (evtl. Signal schwach, muss ich noch testen) und Bild&Ton Hänger. Ansonsten läuft sie mit DVBviewer ganz gut, keine Ruckler bei HDTV.
 
es gab mehrere probleme. ein problem ist, das die karte nicht mit mehr als 3gb hauptspeicher korrekt funktioniert. wenn du xp benutzt und 4gb arbeitsspeicher hast, bringt diese karte dein system zum absturz, wenn du der onboard- gpu 512mb zuweist. maximum ist 256mb.
unter vista muß man den speicher per software begrenzen, oder ram ausbauen, damit die karte läuft.
was noch viel schlimmer ist: wacht der htpc aus dem ruhezustand/standby auf, hat man mit dieser karte miese ruckler und tonausetzer beim tv-schauen.
all das war mit der baugleichen skystar hd2 auch schon so.
deshalb hab ich ehrlich gesagt keine lust mehr, wieder so eine vermurkste s2 karte zu kaufen. ich denke, ich sollte mir gleich eine floppy-dtv zulegen. das sollen einfach die besten und stabilsten karten sein und auch die treiber sind um längen besser, als das meiste, was auf dem markt von anderen herstellern rumdümpelt.
zur überbrückung kaufe ich mir vielleicht eine gebrauchte, zweite skystar2 (sd). das ist einfach eine der besten karten und sie läuft stabil in jeder lebenslage:)


Gruß
g.m
 
Zuletzt bearbeitet:
Letzte Woche war es soweit, ich musste auf mein neues Board Asus M3N78 Pro im HTPC
umrüsten um neben meiner passiven 8600GT noch zwei DVB-C Karten einbauen zu können.
Mir blieb an dem Tag nur kurz das vergnügen mir mal ein Bild vom 8300IGP zu machen und
dies war wenig vertrauenserweckend.
Heute fand ich etwas Zeit dazu mir den 8300IGP in Work anzusehen und mein erster wenig
befriedigender Eindruck bestätigte sich.

Der HTPC:

Asus M3N78 Pro
X2 4600+ EE
2GB DDR800 TakeMS
Seagate Barracuda 250GB Sata
8300IGP oder 8600GT mit FW 186.18 (Spreitzung auf 0-255, Rest default)
KNC ONE TV Station DVB-C
TT Budget 1501 C
Pinnacle 3010ix Dual DVB-T/Analog
Tagan 330-U01
LCD -> 32LG5700 angesteuert mit 1920*1080p50

XP-SP3 plus alle MediaPortal Requirements
PDVD 9 Demo Build 1501
NV PureVideoDecoder
MPA Decoder (Für DTS)

Es wurden die Videodecoder im DXVA Modus verwendet, es wurde mit dem PDVD9 getestet
und mit dem NV Decoder verifiziert. Bilder stammen von NV Codec für SD und PDVD9 für HD
Der Ton geht für MPG Audio und AC3 über den NV Decoder und DTS über den MPA
decoder. Als Audiorenderer wird, auser für TV in MP, Reclock verwendet.

Teil1: DVB Interlaced Stream mit Film(Progressives) Material (SD)

Hier geht es um die Wiedergabequalität von Progressiven Material im VideoModus.
Normalerweise sollte hier die Pulldowndetection der Grafikkarte in der lage sein
Progressives Material zu erkennen und demnach ein 2:2 Pulldown zu inizieren. Dies wäre
dann Qualitativ äquivalent zum Weaving(Filmmodus) am PC.
Leider stellt das die 8300IGP vor eine nicht lösbare Aufgabe, diese macht sogar nur einen
BOB und zwar dauerhaft, ich bin ziemlich erschüttert. Das ist ABSOLUT inakzeptabel für mich
im HTPC. Dieses unsägliche Zeilengeflimmer ist mir nicht wirklich erträglich.
Die Wiedergabe läuft aber einwandfrei flüssig




Test Szene1: Johnny5 von DVB-T

8300IGP:



8600GT:





Test Szene2: Johnny5 von DVB-T auf 85% verkleinert wegen größe

8300IGP:



8600GT:





Test Szene3: Italian Job DVB-T

8300IGP:



8600GT:





Test Szene4: Hornbach DVB-T

8300IGP:



8600GT:





Die Szenen 1 und 4 mit der ATI HD4670 als vergleich

Pulldowndetection im Treiber (Cat9.4) ein. Deinterlacing Auto, bei bedarf wird das maximal
mögliche verwendet -> VectorAdaptiv

Szene 1 HD4670: man sieht die Ati hat Problemchen macht aber wenigstens keinen
einfachen BOB, jedoch auch nicht wirklich prikelnd.





Szene 4 HD4670: Pulldowndetection versagt hier ebbes, das ergebnis ein vertikales
zittern und dabei springen in der Wiedergabe mit 2:2 Pulldown und VideoDeinterlacing.
Das Bild zeigt einen Moment in dem VideoDeinterlacing angewandt wurde, wenigstens kein
einfacher BOB.





Progressive Test Szenen 1,2,4 als Referenz im Filmmodus(Weaving) mit 8600GT

Szene1:



Szene2:



Szene4:



Zur Szene 3 Italian Job ging es gegen ende irgendwie unter nochmal ein Bild im Filmmodus
zu machen, die Darstellung entspricht jedoch so ziemlich der NV8600GT im Videomodus
wie auch bei den anderen Testszenen.


Teil2: DVB Interlaced Stream mit VideoMatrial (SD)

Hier zeigen die Bilder näherungsweise die Qualität bei VideoMatrial und dem nötigen
VideoDeinterlacing. Wie schon erwähnt macht die 8300IGP nur einen BOB, so auch hier.
Leider lässt sich dieses unsägliche geflimmer nicht auf ein screeny festhalten.
Die folgenden Bilder schmeicheln der 8300IGP eher noch, einerseits die Jaggis treten in
diesen Szenen nicht so stark hervor und wie gesagt das Flimmern welches man nicht sieht.

Test Szene 1: DTM Rennen DVB-C

8300IGP:



8600GT:





Test Szene 2: Sportschau(Fußball) DVB-C

8300IGP:



8600GT:





Teil 3: DVB-C Interlaced HD 1080i50

Auch hier macht die 8300IGP nur ein BOB, das zeilenflimmern fällt jedoch weniger
stark auf. Es sind halt 540 Zeilen auf 1080 statt wie bei SD 288 Zeilen auf 1080.
1080i50 läuft nicht durchgehend flüssig.

Szene 1:

8300IGP:



8600GT:







Mein vorläufiges Fazit:
Die 8300IGP im zusammenspiel mit einer AM2 CPU (1ghz HT) und dem ansteuern des LCD
in Full HD(1080p) ist aus Qualitätssicht nicht wirklich empfehlenswert.
Es war für mich heute schon ebbes schockierend den ersteindruck bestätigt zu bekommen,
weder für SD oder gar HD Material in einem interlaced Stream mit Video oder Film Material
ist sie zu gebrauchen. Die Testszenen sind nur ein kleiner Auszug.
Woran es genau liegt weis ich nicht, ob dies wirklich alles auch an der 1Ghz HT CPU liegt
oder auch an den nur 8 shadern? Das müsste man noch genau erörtern.
Seltsam und eigentlich beschämend für NV empfinde ich das selbst SD Material mit
FullHD Ausgabe nur mit einem simplen BOB verarbeitet wird, das ist schwer verdaulich.
Das macht ein 780g besser, dieser arbeitete noch mit einem adaptiven VideoDeinterlacing
bei SD Material mit FullHD Ausgabe.
Jedoch hatte ATI mit den damaligen Treibern für die 3200IGP noch nix von einer
Pulldowndetetcion gehört, das ergebnis der 3200IGP, bei Film Material, war im endeffekt
vergleichbar aktuell meiner HD4670 mit ausgeschalteter Pulldown detection.
Geringere Auflösungen, mit der 8300IGP, wie 720p habe ich nicht getestet.
Durchaus möglich das bei einer Auflösung zum LCD von 720p diese Probleme nicht
bestehen, gelesen habe ich dazu schon was im netz.
Jedoch wäre dies für mich auch nicht wirklich befriedigender wenn es bei 720p geht.
Ebenso habe ich bisher auch nur den 186.18 Treiber verwendet, ich glaube aber nicht wirklich
an einer änderrung der Lage.
Wenn mal Zeit Lust und Laune besteht werde ich mir das nochmal ansehen mit niedrigeren
auflösungen und anderen Treibern, wird aber nicht so bald sein.

Leider habe ich keine aktuellere CPU, mich würde ja interessieren was die 8300IGP mit einer
AM2+/AM3 CPU macht. Gibt es dann auch für SD und HD ein qualitativ mindestens 8600
vergleichbares adaptives VideoDeinterlacing? und wenn ja, gibt es auch eine
Pulldowndetection auf 8600GT niveau für die erkennung von zb. FilmMaterial mit 2:2
Kadenz??
Letzteres macht die 8600GT bisher noch am besten, wobei ich auch hier nicht immer so
zufrieden bin. Die erhoffte verbesserrung in dem Punkt mit der 4670 stellte sich nicht ein,
im gegenteil, die ATI 4670 hat hier mehr Probleme als die NV8600GT.

Ich möchte nochmal erwähnen das ich XP nutze, mag sein das es unter Vista und mit den
Treibern für Vista hier anders aussieht.
Desweiteren werden hier die Grafikarten im DXVA modus über entsprechende Codecs
genuzt, sprich die eigenschaften und qualitäten der Graka für Video bewertet.
Das mit Software geschichten alla ffdshow oder non DXVA codecs anderes bei rauskommt
ist klar.

Aktuell käme für mich kein HTPC auf rein NV8300IGP Basis ins Wohnzimmer.
Kann sein das eine AM2+/AM3 CPU hier abhilfe schaft, ich weiß es nicht mangels CPU.
Ich kann der 8300IGP aktuell nix abgewinnen und würde zurzeit eher auf eine Intel Basis mit
dem 9300IGP setzen, aber das muss jeder machen wir er denkt.
Von Bandbreitenproblemen alla HT Link hört man nix und die 9300IGP hat 16 Stream Prozzis,
vgl. einer dedizierten 9400, algos müssen ja auch irgendwie noch berechnet werden.
Selbst wenn dann die Intel/NV lösung dabei in die Hose geht, würde es die NV/AMD lösung
ganz sicher auch und es bleibt dann eh nix anderes übrig als zur zeit auf eine dedizierte
Graka zu setzen für bessere qualität mit aktiven DXVA.
 
Zuletzt bearbeitet:
vielen dank für deinen sehr interessanten und ausführlichen bericht.

Leider stellt das die 8300IGP vor eine nicht lösbare Aufgabe, diese macht sogar nur einen
BOB und zwar dauerhaft, ich bin ziemlich erschüttert. Das ist ABSOLUT inakzeptabel für mich
im HTPC. Dieses unsägliche Zeilengeflimmer ist mir nicht wirklich erträglich.

kann ich leider bestätigen. hier schafft aber abhilfe, die mpg2-beschleunigung im powerdvd-codec zu deaktivieren. danach flimmert zumindest nichts mehr:)

Auch hier macht die 8300IGP nur ein BOB, das zeilenflimmern fällt jedoch weniger
stark auf. Es sind halt 540 Zeilen auf 1080 statt wie bei SD 288 Zeilen auf 1080.
1080i50 läuft nicht durchgehend flüssig.

kann ich leider auch bestätigen;(

mit meiner dezedierten gf 8500gt gab es zumindest kein ruckeln. mit der onboard gpu, war nach meinem empfinden keine flüßige darstellung von full-hdtv möglich.

Gruß
g.m
 
Nur mal rein aus Interesse die ketzerische Frage: Wie hast du den Wechsel gemacht ? Also wie hast du es hinbekommen bei allen Filmen/Sendungen immer die selbe Sekunde abzupassen und ein Vergleichsbild hinzubekommen ?
Das würd mich jetzt mal interessieren. Hast du mit aufgezeichnetem Material gearbeitet ?


Und ( nur mal für mich zum Verständniss, vielleicht sitzt der Groschen grade bissle fest ), aber wozu brauchst du bei progessiv Material einen Pulldown ? Sowohl dein Monitor als auch ein HD-Bildschirm sind in der Lage progressiv auszugeben ? Oder vergess ich gerade was ?
 
vielen dank für deinen sehr interessanten und ausführlichen bericht.



kann ich leider bestätigen. hier schafft aber abhilfe, die mpg2-beschleunigung im powerdvd-codec zu deaktivieren. danach flimmert zumindest nichts mehr:)

Das ist aber eher Suboptimal, im Softwaremodus machte der PDVD Codec bisher immer ein Blending Deinterlacing.
Dies bewirkt ein hochrechnen und mischen der zwei Halbbilder, daraus ergibt sich immer ein Verlust an Vertikaler Auflösung, besonders unnötig bei Film Material und desweiteren ein Verlust an zeitlicher Auflösung, besonders unnötig bei Video Material wenn bewegung ins spiel kommt.
Sagt mir nicht wirklich zu.

Du betreibst dein LCD mit 720p bzw. WXGA war es?
Tja, aktuell, das muss ich jetzt mal sagen, ist die 8300IGP zumindest mit einer AM2 CPU von ihren fähigkeiten eine Gurke, für mich wahrlich untauglich.
Da kann man echt nur hoffen das es mit einer AM2+/AM3 CPU wirklich besser aussieht.
 
Das ist aber eher Suboptimal, im Softwaremodus machte der PDVD Codec bisher immer ein Blending Deinterlacing.
Dies bewirkt ein hochrechnen und mischen der zwei Halbbilder, daraus ergibt sich immer ein Verlust an Vertikaler Auflösung, besonders unnötig bei Film Material und desweiteren ein Verlust an zeitlicher Auflösung, besonders unnötig bei Video Material wenn bewegung ins spiel kommt.
Sagt mir nicht wirklich zu.

ich hab so wenigstens das flimmern weg bekommen und mit der bildqualität konnte man eigentlich leben. scheint aber ja auch nicht so optimal zu sein, wenn man deinen ausführungen lauscht;(

Du betreibst dein LCD mit 720p bzw. WXGA war es?

ich betreibe meinen lcd mit 1360x768@60hz;(. das ist seine native auflösung. also etwas über 720p.

Da kann man echt nur hoffen das es mit einer AM2+/AM3 CPU wirklich besser aussieht.

also zumindest einer hier, hat sich wohl einen athlon2 x250 gekauft und meinte, damit würde alles mit der onboard gpu alles rundlaufen.

@salsaholic.

kannst ja vielleicht nochmal etwas dazu sagen, da du im moment scheinbar die schnellste cpu von uns hast:)

Gruß
g.m
 
Nur mal rein aus Interesse die ketzerische Frage: Wie hast du den Wechsel gemacht ? Also wie hast du es hinbekommen bei allen Filmen/Sendungen immer die selbe Sekunde abzupassen und ein Vergleichsbild hinzubekommen ?
Das würd mich jetzt mal interessieren. Hast du mit aufgezeichnetem Material gearbeitet ?
Yup aufnahmen oder auch von DVD welche ich aber hier nicht verwendete.

Und ( nur mal für mich zum Verständniss, vielleicht sitzt der Groschen grade bissle fest ), aber wozu brauchst du bei progessiv Material einen Pulldown ? Sowohl dein Monitor als auch ein HD-Bildschirm sind in der Lage progressiv auszugeben ? Oder vergess ich gerade was ?

Die Streams von DVB SD und DVD sind per def. Interlaced (min. betreffend den Decoder Output).
Es liegen so also 50 Fields vor und diese müssen immer Deinterlaced werden.
Entweder ein Filmdeinterlacing was zb. ein Weaving bedeudet. Hier werden die zwei Fields einfach kombiniert und es werden vom VideoRenderer 25fps gerendert. Das Weaving könnte man auch 1:1 Pulldown nennen, für mich ist dies am PC der FilmModus, NV nannte(ich verstand es so) den in ihren dokus/Gui zu ihrem PureVideoDecoder und hatte das vor jahren mir so angewöhnt.
Dieser FilmModus wird am PC genutzt wenn der Stream Progressiv geflagt ist und der Codec dies auswertet (zb. NV Codec oder WinDVD).
Bei DVB wird jedoch in der Regel generell ohne Progressiv Flag gearbeitet, auch bei DVD Film fehlt dies öffter mal.
Hier wird dann die Wiedergabe im Videomodus iniziert, für DXVA heißt dies das der VideoRenderer 50fps rendert. Je nach Graka und deren fähigkeiten gibt es jetzt erhebliche unterschiede in der Darstellung.
Der 2:2 Pulldown ist dann analog auch ein Filmdeinterlacing(wie weaving) nur halt das 50Frames erzeugt werden, jedes Bild halt zweimal. Der 2:2 Pulldown macht dir aus dem Progressiven Material welches interlaced verpackt wurde wieder ein Progressives Bild. Das Bild ergebnis ist exakt dem weaving.
Wenn das Material von der Pulldowndetction der Graka als Videobasierend erkannt wird, wird demnach das VideoDeinterlacing iniziert, nen einfacher Bob mit flimmern oder was besser adaptives.
Die 8300igp macht jedenfalls kein 2:2 Pulldown, immer rein ein BOB.
Warum immer und hier nicht noch ne Pulldowndetection durchgeführt wird weiß ich auch nicht, hätte mehr erwartet.
Eigentlich müsste es doch eher kadenz detection heißen, welche dann ggf. einen entsprechenden Pulldown einleitet, gibt ja auch mehr als nur 2:2. Irgendwie hängt mir dank Ati Treiber immer Pulldowndetection im kopf. Auserdem hat sich bei mir in bezug auf den PC immer FilmModus oder VideoModus festgesetzt, das könnte ich auchmal überdenken
 
Zuletzt bearbeitet:
Aktuell käme für mich kein HTPC auf rein NV8300IGP Basis ins Wohnzimmer.
Kann sein das eine AM2+/AM3 CPU hier abhilfe schaft, ich weiß es nicht mangels CPU.
Ich kann der 8300IGP aktuell nix abgewinnen und würde zurzeit eher auf eine Intel Basis mit
dem 9300IGP setzen, aber das muss jeder machen wir er denkt.
Von Bandbreitenproblemen alla HT Link hört man nix und die 9300IGP hat 16 Stream Prozzis,
vgl. einer dedizierten 9400, algos müssen ja auch irgendwie noch berechnet werden.
Selbst wenn dann die Intel/NV lösung dabei in die Hose geht, würde es die NV/AMD lösung
ganz sicher auch und es bleibt dann eh nix anderes übrig als zur zeit auf eine dedizierte
Graka zu setzen für bessere qualität mit aktiven DXVA.

Hallo FaxenDicke,

hast Du Deine Tests nur mit einer Gf8300 gemacht, d.h. glaubst Du, dass die Gf9300 die Probleme nicht hat, oder weißt Du es mit Sicherheit? Ich stehe nämlich vor der Entscheidung, ob ich meinen HTPC nun eher auf einer AMD- oder einer Intel-Plattform aufbauen soll.

Gruß,
Uwe
 
Hallo FaxenDicke,

hast Du Deine Tests nur mit einer Gf8300 gemacht, d.h. glaubst Du, dass die Gf9300 die Probleme nicht hat, oder weißt Du es mit Sicherheit? Ich stehe nämlich vor der Entscheidung, ob ich meinen HTPC nun eher auf einer AMD- oder einer Intel-Plattform aufbauen soll.

Gruß,
Uwe

Mit diesem Part:
Selbst wenn dann die Intel/NV lösung dabei in die Hose geht, würde es die NV/AMD lösung
ganz sicher auch und es bleibt dann eh nix anderes übrig als zur zeit auf eine dedizierte
Graka zu setzen für bessere qualität mit aktiven DXVA.

wollte ich zu ausdruck bringen das mir die Intel Lösung nicht bekannt ist, aber vom bauchgefühl her eher probieren würde.
Geht es mit dem 9300IGP nicht wenigstens vergleichbar der 8600GT, dann sicher auch nicht mit dem 8300IGP mit AM2+/AM3 CPU. Dann hilft eh nur ne größere extra Graka für den bestmöglichen DXVA betrieb.

Anderseits wird man vielleicht auch mit Softwarelösungen glücklich, codec einfach in sofwaremodus oder ffdshow mit mehr möglichkeiten bsonders für Progressives Material, letzteres kostet halt leistung.

Ist halt ansichtssache, ich nutze MediaPortal Produktiv im WZ mit ausschließlich den DXVA fähigkeiten der Graka, sowie deren PP möglickeiten, hiermit fahre ich im großen und ganzen (klar mit Kompromissen) am besten in sachen Stabilität im Alltag, Qualität und Leistungsbedarf.
 
Zuletzt bearbeitet:
@salsaholic.

kannst ja vielleicht nochmal etwas dazu sagen, da du im moment scheinbar die schnellste cpu von uns hast:)

Der letzte Teil gefällt mir irgendwie ;)
Ich würde gerne ein paar Vergleiche machen, bin mir aber nicht im klaren, was Ihr sucht...
Zunächst einmal habe ich nur einen 720p TV, mit mehr kann ich leider nicht dienen. Und dann ist mir unklar, wie die IGP selbstständig versch. Deinterlacing-Methoden wählen kann (ich muss doch z.B. bei CoreAVC eine einstellen, oder?) und wie FaxenDicke dann feststellt, was sie gerade macht. Kannst Du am Bild erkennen, ob das gerade BOB oder sonstwer ist?
Wenn Ihr mir etwas genauer sagt was Ihr wissen wollt, versuche ich das gerne mal (kann wohl locker WE werden, kämpfe noch mit 'ner Menge anderem Kram).
Ich benutze allerdings DVBviewer und CoreAVC, habe MediaPortal erstmal aufgegeben.
Gruß,
Salsaholic
 
@faxendicke: danke für deinen sehr gelungenen und ausführlichen post. es bestätigt all meine eindrücke die ich selbst so erlangt habe (ich hatte mal einen 4850e mit einem jetway jnc62k board). die frage ist nun halt ob man das ganze trauerspiel auf den ht takt vom prozzi schieben kann oder ob die igp einfach zu schwachbrüstig, für hdtv / 1080p, ist.

ich denke mit deinem beitrag wirst du sehr vielen usern gewaltig geholfen haben.

mfg
 
kann es nicht einfach sein, dass es an euren ganzen drumherrum (mediaportal, coreavc etc...) oder an Windows liegt?

Ich habe einen HTPC, siehe Sig, unter Debian am laufen und 1080p Material macht keinen einzigen Ruckler (HTPC hängt an einem Samsung LE40A656).

Ich müsste das ganz mal mit Windows auf der selben Maschine vergleichen.
 
@salsaholic

eigentlich geht es in erster linie darum das hdtv in voller auflösung ruckelfrei läuft. dein screen ist zwar nur 720p, der wird aber bei 1080i, genau wie meiner, ein downscaling machen. wenn das ruckelfrei läuft, sollte eigentlich alles in trockenen tüchern sein:)

Gruß
g.m

---------- Beitrag hinzugefügt um 12:40 ---------- Vorheriger Beitrag war um 12:14 ----------

update:

ich hab mich wegen der nividia 9400 platfform mal erkundigt.
der von vielen angepriesene intel e5200 prozessor (halle mcgene), hat nur einen einen fsb von 800mhz. er kann demzufolge auch nur dd2-800-ram, mit dem richtigen frontside-bus ansprechen. laut der aussage eines gigabyte-support-mitarbeiteres, machen schnellere rams, für diese cpu auch keinen sinn. ich habe es mir gleich gedacht, als ich mir die spezifikationen angeschaut habe, habe aber sicherheitshalber nochmal gefragt.

somit hätten wir dann dasselbe problem wie auch beim nvidia 8300-chipsatz!
die onboard gpu wird mit dem ram-speichertakt angesprochen. auf dem intel-system mit dem genannten prozessor, wird sie also auch nur mit 800mhz angesprochen. wenn es also beim nvidia 8300 ein ht-bandbreitenproblem gibt, das z.b flüssige full-hdtv-darstellung verhindert, existiert dieses problem auch auf der intel-plattform mit der genannten cpu!

Gruß
g.m
 
Zuletzt bearbeitet:
@salsaholic

eigentlich geht es in erster linie darum das hdtv in voller auflösung ruckelfrei läuft. dein screen ist zwar nur 720p, der wird aber bei 1080i, genau wie meiner, ein downscaling machen. wenn das ruckelfrei läuft, sollte eigentlich alles in trockenen tüchern sein:)

Gruß
g.m

Es geht eher in erste linie darum, das der 8300igp generell mit Interlaced Streams in HD und SD mit Video oder Film als Quelle von seinen hardwarefähigkeiten(DXVA) nicht wirklich was kann, wenn er im "Video(Interlaced)Modus" arbeitet. Es fehlt wie sich mir zeigte jegliche logik wie eine Pulldown(Kadenz)detection, sowie einem ansprechenden adaptiven Videodinterlacing und zwar für HD und SD Material.
Das ist für mich ganz klar so nicht zu akzeptieren für einen aktuellen IGP, da muss mehr kommen und selbst der Anspruch von NV war da wohl höher:

z.B.
http://www.nvidia.com/page/purevideo_HD.html

links bei PureVideo HD Support Tabelle das PDF

Leider ist es damit nicht weit her, mit dem 186.18 Treiber unter XP.
Für mich ist der 8300IGP eine Entäuschung, ich hätte als Grundbasis mehr erwartet, der 780g konnte in dem bemängelten punkt bei letztjähriger betrachtung ebbes mehr.
Das liegt halt auch an den Erwartungen welche man präferiert.


Progressiv vorliegende Streams oder Interlaced mit Filmmaterial und dem Erzwingen des Weaving/Progressiv(Film)Modus funktionieren ja(war ne kürzere Testphase so viel zeit hatte ich nicht).
Wer nur interesse an Progressiven Material für die Wiedergabe hat, so lässt sich die IGP entsprechend der einstellung bisher ohne einschränkung nutzen(noch kein Graka PP(EE/NR) mit der IGP getestet, das benötigt auch leistung) . Man sollte halt um den Interlaced(Video)modus hier einen großen bogen machen.
Wer DXVA(InterlacedModus), oder das Hardwaredeinterlacing(welches sich in der regel über codecs mit YV12/NV12 Ausgabe und "Set interlaced Flag in Output" Option inizieren lässt) nicht benötigt und Softwarebasierende lösungen nutzt, dem wird das hier eher weniger tangieren.
Jedem nach seiner Facon und wie man glücklich wird.



Man wird mal abwarten müssen ob dies auch Treiberbedingt ist,bzw. hier wenigstens teilweise noch verbesserungen möglich wären(min. ein adaptives Deint für SD), vielleicht wie in der vergangenheit bei Ati die möglichkeit nach reg Tweaks oder so aus dem user kreis.
Ich kann auch nicht sagen wie es unter Vista mit EVR aussieht.
 
Ich kann auch nicht sagen wie es unter Vista mit EVR aussieht

hab ich schon getestet. macht keinen großen unterschied. dieselben probleme wie unter xp auch.

die interessante frage ist doch, ob sich mit dem nvidia 9400 chipsatz + intel e5200 wirklich etwas verbessern würde.
wenn es ein bandbreitenproblem gibt, ist dieses auch bei dem nvidia 9400 chipsatz vorhanden. siehe meinen post weiter oben.


Gruß
g.m
 
wenn es also beim nvidia 8300 ein ht-bandbreitenproblem gibt, das z.b flüssige full-hdtv-darstellung verhindert, existiert dieses problem auch auf der intel-plattform mit der genannten cpu!

Kurze Zwischenfrage, vielleicht vergesse ich etwas, aber ich kann mir grade keinen Reim drauf machen:

SD- als auch HD-Material hat doch Datenraten von 6 - 10 ( SD ) bzw. 15 - 30 ( HD / 1080p BluRay ) MB/s, wie kann da ein 800 Mhz Bus, der viele tausend MB pro Sekunde über die Leitungen schaufelt, zum Flaschenhals werden?

Könnte mir da jemand auf die Sprünge helfen?

Gruß,
StarGeneral
 
ich hab mich wegen der nividia 9400 platfform mal erkundigt.
der von vielen angepriesene intel e5200 prozessor (halle mcgene), hat nur einen einen fsb von 800mhz. er kann demzufolge auch nur dd2-800-ram, mit dem richtigen frontside-bus ansprechen. laut der aussage eines gigabyte-support-mitarbeiteres, machen schnellere rams, für diese cpu auch keinen sinn. ich habe es mir gleich gedacht, als ich mir die spezifikationen angeschaut habe, habe aber sicherheitshalber nochmal gefragt.

somit hätten wir dann dasselbe problem wie auch beim nvidia 8300-chipsatz!
die onboard gpu wird mit dem ram-speichertakt angesprochen. auf dem intel-system mit dem genannten prozessor, wird sie also auch nur mit 800mhz angesprochen. wenn es also beim nvidia 8300 ein ht-bandbreitenproblem gibt, das z.b flüssige full-hdtv-darstellung verhindert, existiert dieses problem auch auf der intel-plattform mit der genannten cpu!

Irgendwie verstehe ich das nicht. Zum Beispiel beim Board P7NGM-Digital und der CPU E8400: die CPU hat einen FSB von 1333 MHz, in der Spezifikation des Board steht "FSB 800/1066/1333", aber auch DDR2 667/800. Das heißt, ich kann max. nur DDR2 800 einsetzen. Was bedeutet aber dann der FSB von 1333 MHz der CPU? Heißt das, dass dieses Board für diesen Prozessor zu "klein" dimensioniert ist? Also ein anderes Board nehmen, damit es (im Sinne Deiner Aussage) funktioniert?

Kann mir das mal jemand erklären?

Gruß,
Uwe
 
update:

ich hab mich wegen der nividia 9400 platfform mal erkundigt.
der von vielen angepriesene intel e5200 prozessor (halle mcgene), hat nur einen einen fsb von 800mhz. er kann demzufolge auch nur dd2-800-ram, mit dem richtigen frontside-bus ansprechen. laut der aussage eines gigabyte-support-mitarbeiteres, machen schnellere rams, für diese cpu auch keinen sinn. ich habe es mir gleich gedacht, als ich mir die spezifikationen angeschaut habe, habe aber sicherheitshalber nochmal gefragt.

somit hätten wir dann dasselbe problem wie auch beim nvidia 8300-chipsatz!
die onboard gpu wird mit dem ram-speichertakt angesprochen. auf dem intel-system mit dem genannten prozessor, wird sie also auch nur mit 800mhz angesprochen. wenn es also beim nvidia 8300 ein ht-bandbreitenproblem gibt, das z.b flüssige full-hdtv-darstellung verhindert, existiert dieses problem auch auf der intel-plattform mit der genannten cpu!
#


Verwechsle nicht HT-Anbindung mit Speicherbandbreite! Beim 9300/9400er muss die GPU sich nur an die Northbridge wenden um Zugriff auf den Speicher zu bekommen und hat dafür seine "eigene" Leitung.
Beim AMD Prozzi ist ja aber der Speichercontroller in den Prozessor integriert, Speicher, GPU und Northbridge teilen sich also die Bandbreite zum CPU hin/weg wenn sie Zugriffe durchführen. Und dort liegt bei den kleinen X2s der Fehler.
Das hat also nichts mit dem RAM-Takt zu tun.
BTW. ist der 9xxxer Chip von Nvidia nichtmal für den 1066er Betrieb freigegeben, unterstützt wird offiziell nur DDR2 800 oder DDR 3.
 
Zuletzt bearbeitet:
@ganja_man: bitte informiere dich dich vernünftig bevor du hier alle verunsicherst, müll kann jeder verbreiten.
 
#


Verwechsle nicht HT-Anbindung mit Speicherbandbreite! Beim 9300/9400er muss die GPU sich nur an die Northbridge wenden um Zugriff auf den Speicher zu bekommen und hat dafür seine "eigene" Leitung.
Beim AMD Prozzi ist ja aber der Speichercontroller in den Prozessor integriert, Speicher, GPU und Northbridge teilen sich also die Bandbreite zum CPU hin/weg wenn sie Zugriffe durchführen. Und dort liegt bei den kleinen X2s der Fehler.
Das hat also nichts mit dem RAM-Takt zu tun.
BTW. ist der 9xxxer Chip von Nvidia nichtmal für den 1066er Betrieb freigegeben, unterstützt wird offiziell nur DDR2 800 oder DDR 3.

trotztdem läuft auch die 9400 gpu, nur mit dem ram-takt! sie hat ja keinen eigenen speicher und zweigt sich deshalb etwas vom hauptspeicher ab. deshalb läuft sie natürlich auch nur mit der geschwindigkeit des hauptspeicher. in dem geschilderten fall also mit 800mhz.

das von mir präferierte mainboard, unterstütrzt ddr2 bis 1333mhz! es gibt ddr2 allerdings nur bis 1066. der gigabyte-support-mensch meinte, der wert von 1333mhz sei nur durch overclocking zu erreichen.
also nochmal die frage: weshalb sollte die 9400-gpu mehr leistung haben (von der doppelten shader anzahl und dem höheren takt mal abgesehen), wenn sie auch nur mit 800mhz angesprochen wird. das ergibt für mich nicht viel sinn.

ein ein link zu dem board das ich meine: GA-E7AUM-DS2H
http://www.gigabyte.de/Products/Motherboard/Products_Spec.aspx?ProductID=3921


Gruß
g.m
 
Zuletzt bearbeitet:
@salsaholic

eigentlich geht es in erster linie darum das hdtv in voller auflösung ruckelfrei läuft. dein screen ist zwar nur 720p, der wird aber bei 1080i, genau wie meiner, ein downscaling machen. wenn das ruckelfrei läuft, sollte eigentlich alles in trockenen tüchern sein:)

Gruß
g.m
Das klappt bei mir soweit. Getestet mit DVBviewer, CoreAVC H-264 Codec und Cuda aktiviert. Ich kann keine Ruckler erkennen, sieht für mich flüssig aus. Allerdings habe ich immer mal wieder starke Bildfehler (es scheinen Informationen zu fehlen, was sich dank der starken komprimierung in sehr "spacigen" Effekten zeigt), außerdem friert das Bild immer wieder komplett ein - also noch zu früh, um erfreut "es klappt alles!" zurufen.
Das Downsampling auf 720p muss bei mir auch entweder CPU oder IGP machen, da ich die Auflösung auf die native des TVs eingestellt habe. Werde bei Gelegenheit mal mit 1080er Auflösung testen, so dass der Fernseher das Downsampling macht (was dann aber für andere Anwendungsfälle wie Surfen überl wäre...).
 
das von mir präferierte mainboard, unterstütrzt ddr2 bis 1333mhz! es gibt ddr2 allerdings nur bis 1066. der gigabyte-support-mensch meinte, der wert von 1333mhz sei nur durch overclocking zu erreichen.
...
ein ein link zu dem board das ich meine: GA-E7AUM-DS2H
http://www.gigabyte.de/Products/Motherboard/Products_Spec.aspx?ProductID=3921

Dort steht doch wortwörtlich (wie auch beim P7NGM-Digital) "Support for DDR2 800/667 MHz memory modules". Also doch nix mit ddr2 1333mhz, den es ja gar nicht gibt.

Aber vielleicht kann uns das mal jemand erklären, wo der Unterschied zwischen FSB 800/1066/1333 und DDR2 667/800 liegt.

Gruß,
Uwe
 
Es geht eher in erste linie darum, das der 8300igp generell mit Interlaced Streams in HD und SD mit Video oder Film als Quelle von seinen hardwarefähigkeiten(DXVA) nicht wirklich was kann, wenn er im "Video(Interlaced)Modus" arbeitet. Es fehlt wie sich mir zeigte jegliche logik wie eine Pulldown(Kadenz)detection, sowie einem ansprechenden adaptiven Videodinterlacing und zwar für HD und SD Material.
Das ist für mich ganz klar so nicht zu akzeptieren für einen aktuellen IGP, da muss mehr kommen und selbst der Anspruch von NV war da wohl höher:

z.B.
http://www.nvidia.com/page/purevideo_HD.html

links bei PureVideo HD Support Tabelle das PDF
Aber ist diese Logik nicht ganz stark abhängig von der Software? Ich stelle z.B. bei CoreAVC ein, welches Deinterlacing ich haben will, und finde da keine Option, automatisch das optimale je nach Quellmaterial zu wählen (oder übersehe ich was???). Wenn ich da BOB einstelle, wird auch BOB gemacht, da wundert es mich nicht, dass keine Logik sagt "hoppla, das war progressives Quellmaterial, das muss ich anders deinterlacen!".
Oder verstehe ich Dich einfach nur falsch?
Wenn Du mir auf die Sprünge helfen magst, wie man diese Logik testet, probiere ich das auch gerne mal mit dem II X2 250.

Leider ist es damit nicht weit her, mit dem 186.18 Treiber unter XP.
Für mich ist der 8300IGP eine Entäuschung...
Bei der IGP solltest Du nicht den GeForce 8300 Treiber nehmen, sondern den nForce 730i/8300 - dieser hat aktuell Version 15.26 (vom 16.3.2009).
Zumindest im Zusammenhang mit der HDMI Schnitstelle soll es einige Probleme bei Verwendung der GForce Treiber auf IGP geben, es ist wohl nicht auszuschließen, dass es noch mehr gibt...
 
Dort steht doch wortwörtlich (wie auch beim P7NGM-Digital) "Support for DDR2 800/667 MHz memory modules". Also doch nix mit ddr2 1333mhz, den es ja gar nicht gibt.

Aber vielleicht kann uns das mal jemand erklären, wo der Unterschied zwischen FSB 800/1066/1333 und DDR2 667/800 liegt.

Gruß,
Uwe

korrekt. da steht aber auch: Front Side Bus 1333/1066/800 MHz FSB !!
so wie ich den suporrt-mensch verstanden habe, meint er wohl man solle gute ddr2 1066-rams kaufen, die man dann auf 1333mhz übertakten könnte.
übertakten will ich aber eigentlich gar nicht!

Gruß
g.m
 
Wenn ich es richtig verstanden habe, dann ist mit der einen Angabe (FSB 800/1066/1333) der Takt zwischen CPU und Northbridge gemeint, und mit der anderen (DDR2 800/667) der Takt der RAMs. Wobei ich noch nie gelesen habe, dass die 800 MHz ein Problem darstellen. Im Gegenteil, fast alle verwenden diese RAMs in ihren HTPC, und haben damit keine Probleme.

Es wäre auch konzeptionell ein großer Fehler, nur durch Übertakten einen funktionierenden HTPC hinzubekommen. Im Gegenteil: eigentlich sollte man so viele Reserven einplanen, dass man auch untertakten kann. Das zur Kompetenz Deines "gigabyte-support-mitarbeiteres" :motz:

Gruß,
Uwe
 
Aber ist diese Logik nicht ganz stark abhängig von der Software? Ich stelle z.B. bei CoreAVC ein, welches Deinterlacing ich haben will, und finde da keine Option, automatisch das optimale je nach Quellmaterial zu wählen (oder übersehe ich was???). Wenn ich da BOB einstelle, wird auch BOB gemacht, da wundert es mich nicht, dass keine Logik sagt "hoppla, das war progressives Quellmaterial, das muss ich anders deinterlacen!".
Oder verstehe ich Dich einfach nur falsch?
Wenn Du mir auf die Sprünge helfen magst, wie man diese Logik testet, probiere ich das auch gerne mal mit dem II X2 250.

CoreAVC nutzt nicht die DXVA Api, ich habe den auch noch nicht genau unter die lupe genommen nur mal sporadisch für Progressives Material(kein interlaced Stream). den aktuellen 1.9.5 konnte ich gestern auf die schnelle auch nicht bei denen als demo laden, da ich schonmal mit meiner Email die 1.8.? Demo angefordert hatte, das war mir dann gestern zu blöd.
Man kann bei CoreAVC das Hardwaredeinterlacing forcieren. Wenn das von dem Codec richtig umgesetzt wird, sollte hier der InterlacedModus der Graka iniziert werden und man könnte dem dann vielleicht auf die spur kommen.
Aber ich weiß nicht inwiefern der Core Codec dabei dann vernünftig arbeitet. hatte auch bisher noch mit keinem Codec welcher nur das HW Deinterlacing fociert(hatte ich schon mal erwähnt -> z.b dann mit FFDshow oder MPV ) geprüft ob hier die selben logiken wie die Pulldown(kadenz)detection abgespult werden wie bei verwendung von offiziellen vollumfänglichen DXVA Codecs.
Die restlichen Deinterlacing Optionen im CoreAVC werden mit sicherheit durch den Codec abgespult, in der regel über die CPU, kann sein das mittlerweile diese berechnungen über die Cuda Api auch an die Graka geht, das weiß ich nicht.
Jedoch sind hier rein die implementierungen im Codec ausschlaggebend fürs ergebnis des Deinterlacing, generell auch bei anderen Codecs in Softwaremodus meist ja eh nur ein Weave/Bob/Skip/Blend.

Daher würde ich zum testen z.b die Cyberlink Codecs nehmen, die gehen soweit. DXVA eingeschaltet für MPEG2 und H264 und los gehts.
Oder andere offizielle DXVA Codecs, zb NV PureVideoDecoder oder WinDVD(Intervideo).

Was nun die interpretation des gesehenen angeht ist nen gewisses maß background und Erfahrung nötig und ein bissel Testmaterial.
Ersteres ist auch nicht so ganz ohne und schon ein bissel Zeitaufwendig, zweites kommt dann noch dazu wenn man damit dann ein wenig Arbeitet und die grundlagen praktisch(gerade auch bezogen auf PC begebenheiten) auslotet.
Das Bob deinterlacing der 8300IGP sollte man aber so ziemlich sofort bemerken besonders bei SD Material aufgrund des stark wahrnehmbaren Zeilenflimmern.
Das Fieldscalling (Bob) bewirkt ein hochrechnen der einzelenn Halbbilder zu Vollbilder welche dann nach und nach angezigt werden, der VideoRenderer frühstückt 50fps zur Ausgabe ab.

Als erster Schritt:
Nutze einfach mal den PDVD Codec mit DXVA aktiv und VMR9(auch mal verschiedene andere renderer, DVBViewer ließ dies ja zu) für Mpeg2 und h264.
Dann TV an oder aufnahmen und bissel gucken,mal ein paar Kanäle abfrühstücken, wenn die IGP mit deiner AM2+ CPU ein Bob macht sollte dir dies auffallen.


Bei der IGP solltest Du nicht den GeForce 8300 Treiber nehmen, sondern den nForce 730i/8300 - dieser hat aktuell Version 15.26 (vom 16.3.2009).
Zumindest im Zusammenhang mit der HDMI Schnitstelle soll es einige Probleme bei Verwendung der GForce Treiber auf IGP geben, es ist wohl nicht auszuschließen, dass es noch mehr gibt...


In dem Nforce Treiber Paket ist ne ziemlich olle kammelle beinhaltet.
Sagen wir mal so eine 8300 wird bei der untestützung zum 186.18 angegeben ob damit nun im detail die IGP gemeint ist ka. Aber es scheinen enträge in der Treiber.inf für die Device ID der 8300IGP vorhanden zu sein, sonst wäre eine inst des Treiber normal nicht möglich.
Hier erwarte ich das der Aktuelle treiber das maximum mögliche soweit korrekt umsetzt.
Ein Test mit den Nforce Paket wäre aber mit sicherheiten nicht verkehrt zum verifizieren.
 
FSB hat nichts mit dem RAM Takt zu tun. FSB sagt nur was über den CPU und dessen Anbindung, mehr nicht.

Exklusiv für HWLuxx hab ich mal die legendären Paintskills ausgepackt und das ganze mal auf Grndschulniveau verdeutlicht:



Wie man unschwer erkennen kann ist hier der integrierte Speichercontroller eher ne Bremse, da die HT Anbindung eine zu geringe Bandbreite hat.
Man möge mir verzeihen wenn die Darstellung nicht perfekt ist, aber ich habs aufs nötigste reduziert...

Zum RAM-Takt: Sicherlich würde der 9300/9400 von nem höheren Ramtakt profitieren. Aber nur minimal ( Schau dir mal Benchmarks zu großen Karten wo nur der Speichertakt unterschiedlich ist. DU wirst sehen, trotz einiger 100MHz teils fallen die Unterschiede marginal aus ).
Zudem läuft 1066 sehr instabil als Ramtakt, da die IGP da instabil wird ( zumindest meine Erfahrung ), ist schliesslich von Nvidia auch nicht freigegeben.
 
Wenn ich es richtig verstanden habe, dann ist mit der einen Angabe (FSB 800/1066/1333) der Takt zwischen CPU und Northbridge gemeint, und mit der anderen (DDR2 800/667) der Takt der RAMs. Wobei ich noch nie gelesen habe, dass die 800 MHz ein Problem darstellen. Im Gegenteil, fast alle verwenden diese RAMs in ihren HTPC, und haben damit keine Probleme.

Es wäre auch konzeptionell ein großer Fehler, nur durch Übertakten einen funktionierenden HTPC hinzubekommen. Im Gegenteil: eigentlich sollte man so viele Reserven einplanen, dass man auch untertakten kann. Das zur Kompetenz Deines "gigabyte-support-mitarbeiteres" :motz:

Gruß,
Uwe

na also! wenn das wirklich so ist, dann läuft das ding eben auch nur mit ddr2 800mhz. also wird die onboard gpu, wie bei den amd systemen auch nur mit 800mhz angesprochen! wenn es bei amd wegen dem niedrigen ramtakt, den die gpu zur verfügung hat, bei hdtv also zu einem bandbreitenproblem kommt, wäre dieses bandbreitenproblem auch bei der intelkombination, also 9400-chipsatz + e5200 vorhanden!

genau darauf wollte ich ja hinaus!

Gruß
g.m

nachtrag:
@Polarcat

auf beiden chispätzen dem nvidia 8300 sowohl als auch dem nvidia 9400, läuft die gpu dann aber trotzdem nur mit dem ramtakt! da hier scheinbar nur ddr2 8700mhz vorgesehen sind, wird die gpu also auch nur mit diesem takt angesprochen. demzufolge müßte dasselbe bandbreitenproblem auch bei der intel-lösung vorhanden sein!

Gruß
g.m
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh