DirectX 12 Video Encode: Einheitliche Schnittstelle für das Video-Encoding

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.149
dx12ultimate.jpg
Microsoft hat die API DirectX 12 bzw. deren Videofähigkeiten aktualisiert. Diese sieht nun eine einheitliche Schnittstelle für das Video-Encoding in AVC/H.264 und HEVC/H.256 vor. Prozessoren und GPUs können über bestimmte Funktionseinheiten des Video-Encoding beschleunigt berechnet. Bei AMD nennt sich dies Video Core Next (VCN), bei Intel Quick Sync Video und NVIDIA verbaut in seinen GPUs den NVEnc Video-Encoder.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau da liegt bei mir das Problem.H264 bei Nvidia geht nur mit NVeng und da kann ich nur durchschnittsbitrate einstellen.Kein CRF wie bei der CPU möglich wo die Software selbst entscheiden kann.Dann gibt es da noch h265 und VP9 wo das zwar kann,aber ich nicht hin will,weil ich da dann bei keiner software oder meinen Reciver oder sonst was wieder geben kann.
Ne Intel GPU habe ich zwar im Laptop ist aber schlechter als Nvidia und ob man da dann das CRF aktivieren kann ist ne andere Frage.Zumal ich nicht weis wie man das in der Software einschalten kann.
Ne AMD GPU habe ich nicht da und weis auch nicht ob es da geht.Würde zugerne CPU und GPU gleichzeitig zum Umwandeln hernehmen um mehr Speed zu bekommen.
So ist das für mich leider unbrauchbar. Auch neuere GPUs von Nvidia sind nur Schneller,es gibt allerdings nicht mehr EInstellmöglichkeiten wo zur Auswahl stehen.
Irgendwie ist diese ganze GPU umwandeln für mich unbefriedigend. Ist halt nicht so einfach. Und ich stehe halt auf Bildqulität. Darum nutze ich auch CRF und keine Durschnittsbitrate wie 2Pass oder ABR ein ,was ja nur bei der GPU geht.

Würde sich Nvidia mehr mühe geben bei den Umfang her,dann ja gerne.Darum blieb ich auch bis jetzt noch immer bei CPU reinem Umwandeln.

Ist dieses Problem irgendwann mal behoben,dann nehme ich auch gerne GPU mal her.Jetzt ist es halt noch immer nicht so optimal. Und solange das nicht so ist ,bleibe ich eben bei CPU Only. Ich behaare auf die CRF Settings ,weil das ist das beste was man haben kann.Alles andere ist müll.Darum erreicht die GPU auch niemals bei h264 das was ich mir so vorstelle.
 
Kurze Frage zur Kompatibilität: bei AMD steht

Ryzen 2000 oder neuer

Das ist nur auf APUs bezogen welche eine Grafikeinheit haben, oder? Oder wird auch Encoding per CPU unterstützt und dabei dann auf aktuelle Befehlssätze gesetzt, weshalb mind. ein Ryzen 2000 her muss?

Vielen Dank
 
VCN wird nur von den APUs unterstützt.
 
Da müssen sie aber noch nachlegen, wenn das diesmal der Weg sein soll, die Massen in eine OS-Welt mit noch mehr Spionage und noch weniger Qualität zu ziehen ..
 
@Latiose
Also ich benötige kein CRF

Unbenannt.jpgUnbenannt2.jpg

Resize mit "spline36", für youtube, weil man so mit 3200x1800 die beste Bildquallität erreicht auf YouTube

NVEnc an sich ist erstmal nur eine API, H.264 sowie H.265 sind dann erst die Codecs, die eben anstelle von jeweiligem "x" auf den Cuda-Core's berechnet wird anstelle der CPU.
Die "H" Version ist also nur eine deutlich besser parallelisierbarere Variante der Codecs die so natürlich besser auf der Grafikkarte funktionieren, sprich durch NVEnc eben durch die Cuda Core's

Das Resize geht auch durch die Graka, "Hardware Encoder"
Unbenannt3.jpg
Die 16,19,19 sind Erfahrungswerte die durch CRF entsehen beim Gaming, von der Bilduqualität kannst du dich gerne auf meinem Gamingkanal überzeugen.
Was die Bitrate anbelangt dürften meine Screenshots hier absolut ausreichend sein, nicht Verlustfrei, auch so nicht aufgezeichnet (OBS Studio, ffmpeg Settings dank Xaymar's StreamFX besser zum Aufnehmen sowie auch Streamen)

Gruss Dennis
Beitrag automatisch zusammengeführt:

Was dein "Problem" angeht @Latiose , es geht nunmal nur x oder eben H, eine Mischung aus beidem gibt es nicht, aber ich kann dir sagen, H, also durch Staxrip auf der Grafikkarte über NVEnc, gehts deutlich schneller als auf einer CPU.
Ich nehme hier 1920x1080 mit 60 auf, resize auf 3200x1800 krieg ich beispielsweise beim letzten Video was ich gemacht habe (1 Stunde SOTTR) ne Datei mit ca. 16gb heraus auf H265 konvertiert, die Bude rechnet hauptsächlich auf der RTX 2060 mit etwas über 150fps, sprich ich nehme 60 pro Sekunde auf und konvertieren tut er das durch Staxrip mit fast der 3xfachen Geschwindigkeit pro Sekunde.
1 Stunde braucht also geteilt durch 3 etwa um die 20 Minuten Konvertieren.

Das Starip unterstützt Avisynth/+ Scripte, womit du ebenso schneiden kannst, da wird zum Konvertieren halt einfach "rausgeschnittenes" rausgelassen (kopiert) einblende und ausblenden braucht da garkeine Wahrnehmbare Rechenleistung dabei.

Ich habe dazu noch den SagaraS Scriptmaker vom SagaraS aus dem Letsplayforum beispielsweise ist er unterwegs.

Edit:
Hier ein Beispiel, Rise of the Tomb Raider, alles komplett aufgedreht was geht an Grafik in dem Spiel, dx12, dlss auf qualität etc. (ja kann genauso wie SOTTR nach einigen Updates nund auch DLSS2.0 :-) )

Einfach mal auf 9:55 spulen und ne Weile anschauen, es sieht natürlich nur bestmöglich gut aus auf YouTube wenn du zum Abspielen auch den Qualischalter mit dem Zahnrad auf maximum einstellst, also "1440p", mit der Auflösung hat das da auch eher weniger zu tun, ist halt wirklich ein reiner Bitrate/Qualitätsschalter mit einer ziemlichen Fail-Bezeichnung.
Man könnte auch niedriger aufnehmen als 1920x1080 und mit "spline36" auf 3200x1800 skalieren das würde der Bildqualität keinen Abbruch tun, hauptsache das Seitenverhältnis stimmt.

Edit2
oder hier wenns bei SOTTR sehr hell ist und somit schlecht komprimierbar an sich, bei um 43 Minuten vom Video

"spline36" ist eine Resize-Variante die sich halt für Gaming/Desktop Videos sehr gut eignet, für Filme wäre es sicherlich eine andere Variante die sich besser eignet je nach Material wenn man sowas unbedingt Resize möchte.

Edit3:
die 16,19,19 "entstehen" zu den Erfahrungswerten noch ne kleine Randinfo, man konnte sich mit Nutzung von "MeGUI" und CRF x.264 immer die Logs anschauen, CRF wählte halt meistens gewisse Werte für CRF 18 oder sowas dann beispielsweise, die 16,19,19 sind davon halt Erfahrungswerte für QP I, P und B.
Ich habe die höchstpersönlich vom "SagaraS" und wie man sieht, funktioniert das sehr gut :-)

Gruss Dennis
 
Zuletzt bearbeitet:
Hm was hat es denn mit dieser qpi denn so aufsich und das Problem ist ich habe nur lauter 720x576 TV Aufnahmen und nix von game Aufnahmen. Wie richtet man sich denn da dann nach? Und ist qpi ist das Gegenstück von crf? Also da verwende ich ja crf 18 also nicht die höchsten setting. Da ich mich mit den Durchschnitts Bitraten nicht auskenne lasse ich es immer der Software entscheiden. Ich kann eben auch mit den qpi nix anfangen. Entscheidet da die Software noch immer selbst welche Bitrate wo verwendet wird. Das ist wohl das Problem das ich es nicht sicher weiß und so schaffe ich klar nicht die Bildqualität auf der gpu wie auf der cpu. Wundere mich das die Datei an Ende größer wird als bei CPU und die Bildqualität dennoch schlechter aussieht als bei CPU. So der aktuelle Stand bei mir. Man sollte halt schon wissen was man da so einstellt.
 
AMD will dies in einem Treiber im zweiten Quartal 2022 umsetzen
Bitte was? ZWEITES Quartal? Inklusive der restlichen Wochen in 2021 sind das minimum 28 Wochen (!)?!

Da müssen sie aber noch nachlegen, wenn das diesmal der Weg sein soll, die Massen in eine OS-Welt mit noch mehr Spionage und noch weniger Qualität zu ziehen ..
Ich gehe mal davon aus, dass Du kein Handy besitzt, Windows nicht anfasst, Internet nur über ne onion auf eigenem Server nutzt und auf Deinem Gerät sämtliche Werte, also Device ID, Location, Display Resolution, et cetera gespoofed hast? Apple ist selbstverständlich auch ausgeschlossen, da die Algorithmen über Deine lokal abgespeicherten Daten drüberziehen.

Und Dein Gerät darfst Du auch nur gebraucht bar ohne Namensnennung oder Adressfindung von jemandem gekauft haben, damit es nicht zu Dir zurückverfolgbar ist? Ansonsten ist das mit dem... "meh Spionage überall"... etwas... ja... belustigend. Denn... jedes Handy... ist das ultimate Spionageobjekt... Richtmikrofone... Metergenaues GPS... Hochleistungskameras... was soll ich dazu noch sagen. Die Frage ist nur: Warum sollte sich irgendjemand für Dich interessieren? Interesse kostet Geld... weil Arbeitsleistung... die wenigsten sind (manuelles) Interesse wert. Das erinnert mich ein bisschen an Amerikaner, die meinen, in der Corona Impf-Spritze seien irgendwelche GPS Nanobots drin... hahahahaha... als ob die amerikanische Durchschnittsdumpfbacke zichtausende von Dollar wert wäre, die so etwas kosten würde. Bei jedem einzelnen... klar :rolleyes2:.

Die meisten Menschen halten sich selbst für viel wichtiger, als sie eigentlich sind... und für viel interessanter, als...

Es wurde schon mehrfach erörtert, dass die amerikanischen Behörden fast alles, was über transatlantische Kabel geht (inkl Backup in Japan, wissen wir dank Snowden), einmal zwischenspeichert. Die Frage ist aber auch hier... warum sollte aus willkürlicher Informationssammelwut etwas konkretes drauß entstehen?
 
Zuletzt bearbeitet:
Wer braucht denn heutzutage noch h.264 als privatnutzer, h.265 ist auch schon ein alter Hut. Möchte endlich h.266 (VVC) haben, also liebe CPU Hersteller, nicht dumm rumquatschen sondern liefern.
Qualcomm *hust* :d
 
Hm was hat es denn mit dieser qpi denn so aufsich und das Problem ist ich habe nur lauter 720x576 TV Aufnahmen und nix von game Aufnahmen. Wie richtet man sich denn da dann nach? Und ist qpi ist das Gegenstück von crf? Also da verwende ich ja crf 18 also nicht die höchsten setting. Da ich mich mit den Durchschnitts Bitraten nicht auskenne lasse ich es immer der Software entscheiden. Ich kann eben auch mit den qpi nix anfangen. Entscheidet da die Software noch immer selbst welche Bitrate wo verwendet wird. Das ist wohl das Problem das ich es nicht sicher weiß und so schaffe ich klar nicht die Bildqualität auf der gpu wie auf der cpu. Wundere mich das die Datei an Ende größer wird als bei CPU und die Bildqualität dennoch schlechter aussieht als bei CPU. So der aktuelle Stand bei mir. Man sollte halt schon wissen was man da so einstellt.
Na schau dir die Screenshots doch mal etwas genauer an, bezüglich Bitrate, "0" keine Einschränkung, also das was das Material halt benötigt.
Wenn du diese Aufnahmen denn Resizen möchtest, weil es sonst beim Abspielen ohnehin skaliert werden muss (ist nur doof wenn es jedes mal passoert wenn man es Abspielt, anstelle schon im vorhinein wenn ich eh einmal dran mit mit Rechnerrrei, denn müsste das eben später beim Abspielen jenachdem wie oft ja eigentlich nicht nochmal unbedingt geschehen)

Die QP die man sieht und ich aufgezählt habe, ist das was nach CRF so oder so automatisch entsteht, ohne deren Werte wird eh kein Video encodiert, probiere halt aus.
StaxRip kostet keinen Cent, gibt es hier auf GitHub

@Vato3001 : afaik geht mit Shadow Play, sowie OBS Studio nur H.264 aufzunehmen, letzteres mit dem Streamfx-Plugin hat sich glaub ich dann aber auch schon etwas geändert und ich glaub H.265 könnte man damit nun auch aufzeichnen, wäre aber ne blöde Idee, stärkere Kompressionen kostet eben mehr Leistung, das willst du während Gamingaufnahmen nicht machen, zumindest nicht wenn du nich ne extra Modulekiste hast zum Streamen/Aufnehmen.

@Morgrain:
Ja die Verdummung ist gross und breit, ich persönlich würde mich auch nicht für zu wichtig halten, aber irgendwie bin ich unter anderem in der Lage mich mit dem zu Befassen was wirklich Sinn macht.
Egal ob Audio, Gaming oder auch der Krempel hier worum es hier geht.
Zeigst du den "Schwurblern" wie es richtig geht, wirst du gut und gerne ausgeschlossen, ist hammergeil was da los ist.
Hab ich von anderen schon nur zu genüge gehört und ist mir selbst auch schon passiert, nuja, biste halt n Tag später nicht mehr aufm Discord von nem Narzisten von Twitch wo sich noch mehr, dumme zudem Häufen, was solls, juckt mich nicht, die Leute sind nicht nur dumm geboren sondern werden halt auch dumm sterben :d

Das schlimme ist halt lediglich, das diese Dummen mal das Ende der Menschheit etwas schneller bewirken werden, also noch bevor die Erde mal die Umlaufbahn um die Sonne verlieren könnte, die Sonne explodiert oder sonstwas was passieren könnte was das Ende der Menschheit bedeuten wird.
Ist es der Klimawandel, naja, dann sind es eben die FPS-Jäger Dummies, indem sie n Haufen Strom verschwenden/verschendet haben, was wiederum... naja... :ROFLMAO:

Ich wette einige von denen haben auch ihre Follower/Abonnenten "gekauft", richtig ekelhaft was ich da auch öfter für nachrichten-Anfagen auf Instagram bekomme, "1000 Follower für 5,99" und blablabla... ich denk mir so "was zur Hölle?!" :d
Andere wiederum werden in Foren gebannt, weil es den Marketingschwurblern nicht in Kram passt mit echten Messdaten konfontiert zu werden, is auch geil :d

Gruss Dennis
 
Zuletzt bearbeitet:
@Dennis50300
Danke dir, wieder was dazu gelernt. Nun weiß ich wenigstens welche Richtung ich gehen kann um die selbe Bildqualität zu erreichen. Entsprechen denn die qp 16,19,19 etwa den des crf 18 oder wo kann man das umrechen das ich da sicher weiß. Sage schon mal danke und in Zukunft weiß ich dann auch was dann die optimale Bildqualität im Verhältnis zur Geschwingkeit und so hat.


So habe ich das ja auch bei CPU gemacht. Weil hätte auch ne viel höhere nehmen können aber dann wäre es unverhältnis mäsig hohe Umwandlungs Zeit gewesen. Da scheint sich gpu eben auch nicht anderst zur CPU verhalten. Da sind sie sich also sehr ähnlich.

Nun ja gut zu wissen. Ich merke schon ich muss mich mehr mit gpu beschäftigen als für CPUs. Vorallem wenn man nur das als CPU fordernstes macht und sonst nichts damit. Achja ich verkleinere nur wenn ich da nen ran sehe das so wabert ansonsten ja nicht. Also mache ich echt sehr wenig damit weil will es ja so wenig wie möglich bearbeiten damit ich da kein wirkliches Verlust an Bildqualität habe. Nun weißt du was ich mit den MPEG 2 ts Aufnahmen so mache. Und wenn du meine Einstellung sehen wirst, kannst du mir sicherlich auch bei den restlichen gpu Einstellung helfen weil es unterscheidet sich doch noch etwas zwischen gpu und cpu videoumwandeln.
 
@Latiose
Nunja mit dem daraus resultierendem siehst du ja was bei solchen Bildmaterial herauskommt, das sollte dann für das was du nennst bei weitem ausreichend sein, für Resize sollte man sich aber durchaus erstmal kundig machen ob da nicht was anderes als "spline36" dann nicht doch bessere Ergebnisse abliefert.
Aber Musst Resize ja nicht machen beim konvertieren.

Nunja GPU über NVEnc ist schon locker dreimal so schnell, mit der Umrüstung auf rtx 2060 kam da nochmal ne Gute Latte obendrauf, dreimal so schnell ist bei mir im Vergleich zu auf CPU machen, CPU in dem Falle i7 2600 der dann bei knapp 4ghz Volldampf aufn Deckel bekommt. Der schafft da aber bei weitem keine 30 Bild pro Sekunde mit spline36, ich hatte derzeit aber auch ne GTX 1060, wie das aktuell mitm Ryzen 5 2600x @ 4ghz aussieht weiss ich ehrlich gesagt garnicht, ist aber definitiv langsamer, soviel mehr Schalterchen hat der Ryzen nicht und zwei Kerne mehr machen auch net soviel aus dabei.

Komme gerne auf meinen Discord, verlinkt in meinen Videos, meine Signatur, kann man sich persönlich unterhalten und nebenbei kann man auch Anydesk verwenden, dann kann ich dir das besser zeigen und noch vieles mehr, letzens Kumpel seine Kiste auch ihm einiges gezeigt :-)

Gruss Dennis
 
dx12ultimate.jpg
Direct3D 12 Video Encode steht zunächst einmal nur unter Windows 11 zur Verfügung. Die Hersteller müssen auch einen entsprechenden Treiber anbieten, der diese Schnittstelle und die Erweiterungen ansprechen kann.
Evtl. deute ich die Verwendung falsch, weshalb mich der markierte Satz irritiert.
App greift zu auf -->DirectX API (Direct3D 12 Video Encode), greift zu auf --> AMD/NVidia/Intel Treiber, greift zu auf --> Hardware
Demnach müsste es m.M.n. heißen "Die Hersteller müssen auch einen entsprechenden Treiber anbieten, welchen diese DirectX Erweiterung ansprechen kann."
Nein ?

2) "Microsoft hat die API DirectX 12 bzw. deren Videofähigkeiten aktualisiert. .... Direct3D 12 Video Encode steht zunächst einmal nur unter Windows 11 zur Verfügung."
D.h. das DirectX 12 eines Win10 ist nun ein anderes (kleineres) DirectX 12 als das von Win11 ? D.h. die App muss bei der Installation nicht nur auf die DirectX Version prüfen, sondern auch einzelne Module ? Ist das bei DirectX üblich ?
 
@Dennis50300

Ok wie heißt du denn da und was hat es mit den ganzen spline36 auf sich,das gibt es bei meinem Programm eben nicht und du meinst damit ,man muss es sich für sich selbst jeder ausprobieren.Da gibt es kein richtig oder falsch.
Und der vorschlag von dir,war auf das CRF18 bezogen.Das war also schon die richtung wo ich geschrieben hatte oder nicht?
 
Bitte was? ZWEITES Quartal? Inklusive der restlichen Wochen in 2021 sind das minimum 28 Wochen (!)?!


Ich gehe mal davon aus, dass Du kein Handy besitzt, Windows nicht anfasst, Internet nur über ne onion auf eigenem Server nutzt und auf Deinem Gerät sämtliche Werte, also Device ID, Location, Display Resolution, et cetera gespoofed hast? Apple ist selbstverständlich auch ausgeschlossen, da die Algorithmen über Deine lokal abgespeicherten Daten drüberziehen.
Ich gehe mal davon aus, dass du noch immer nicht verstanden hast, dass DU genau wie jeder Andere dafür verantwortlich bist, wie unsere Zukunft aussehen wird. Aber mach dir nur weiter Etwas vor.. dich trifft ja keine Schuld, und du kannst sowieso Nichts machen, denn die Dystopie (die eben kein Hirngespinst ist, sondern tatsächlich schon in weiten Teilen real! Gar der US-Präsident hat das gestern Sterben der Demokratien offiziell anerkannt ..ob er nun ernsthaft Etwas dagegen tun will darf zwar bezweifelt werden, nicht aber die reale Exsistenz des Problems!)) kommt ja "einfach so" - ohne Grund . klar ..

Und, ja: Für Alles von Dem du redest gibt es Lösungen.. und ob du es dir in deiner unermesslichen Arroganz und Faulheit (aus Beiden zusammen entsteht übrigens Borniertheit) vorstellen kannst: Ja, es gibt Menschen, die sich den Aufwand antun, diese Alles oder zumindest das Meiste zu vermeiden.

Jeder ist genau so wichtig wie das ist was er tut. Es geht nicht darum ob meine Daten speziell interessant sind, es geht darum zu vermeiden, was in der DDR oder im 3.Reich "normal" war, es aber auch aus bekanntem Grund in Dystopien wie z.B. 1984 ist. Das sollte selbst einem Kleinkind klar sein.
Dass der gläserner Bürger und die Errichtung totalitärer Systeme unmittelbar zusammenhängen ist Grundwissen eines Bürgers. Ansonsten ist er ein Bauernlümmel und sollte sich aus diskussionen die über Schweinedung hinausgehen heraushalten. Was dir heute noch abstrakt oder gar nicht nachvollziehbar erscheint WIRD dich irgendwann zwangsläufig treffen. Und dann IST es zu spät. Dies zu vermeiden ist tatsächlich ein paar Minuten bis Stunden Aufwand wert!
Sei nicht so feige.Sei nicht so faul. Sei nicht dumm.
 
Zuletzt bearbeitet:
@Micke im Prinzip hiesse das bei NVidia Graka's man müsste die Cuda Core's ansprechen können ohne die NVEnc API, wollen wir mal gespannt sein, ob das genausogut funktioniert oder eben doch schlechter :-)
@Latiose ja also "spline36" ist ein Art von Resize, bei Gaming für YouTube halt megagut, so wie die mit deinem hochgeladenem Material in der Verarbeitung umgehen, hast du nativ was höheres im Seitenverhältnis von 16:9, UHD/4K dann skalierst das halt echt besser runter auf 3200x1800, anstelle es nur zu konvertieren.
Man bekommt halt zur Wiedergabe durch die Verarbeitung auf YouTube die beste Bitrate und auch direkt den Besten Codec dadurch, sieht man bei Statistiken für Nerds dann, entweder hast du av irgendwas und sonstwas für nen Audiocodec, oder das Video läuft eben in der Wiergabe per HTML5-Player mit VP9 und Opus (Opus ist Sound)
Hast du VP9 und Opus, mit 3200x1800 , hast du durch den Qualitätsschalter halt mit 1440p bestmöglichste Bilduqallit auf YouTube.

Jenachdem was du für Videomaterial hast, wenn du die Auflösung resizen möchtest ist eine andere Resize Variante equivalent zu "spline36" eben besser :-)
CRF 18 dürfte bei Gamingvideos so in etwa 16,19,19 entsprechen bei den genannten und gezeigten Settings ja, mit CRF wird das ja automatisch gewählt anhander der Qualitätsstufe "18",
Eigentlich sind diese 3 Ziffern bei den Optionen Variablen durch das CRF 18, aber mit 16,19,19 liegt man eben dort biswohin es sich lohnt, du köntest dein Videomaterial halt auch mit MeGUI und X264 mit CRF18 jedes Video überprüfen und im Log nachschauen was da durch das CRF18 jeweils gewählt worden ist für dein Videomaterial, wenn du es penibel genau machen willst.
Das wäre allerdings ein Aufwand, für nichts und wieder nichts, denn einen Unterschied wirst du so nicht merken.


Gruss Dennis
 
Zuletzt bearbeitet:
Ja hatte ja schon gemerkt das es die selbe Bildqualität erreicht hatte nur eben das die datei eben größer wird. Zum archivieren ist das eben nix weil man will ja Speicherplatz einsparen. Ich lade die fall nicht auf Youtube hoch, will diese ja archivieren. Wenn das Problem gelöst ist mit der größer geht auch mit gpu. Weil habe schon geschaut bei I, P und B frames wirklich mit dem selben Bild die selbe Qualität. Ich habe im Schnitt Programm diese frames da als Info stehen. Damit ich ja auch 100 % den selben frame erwische, kann es Millisekunden genau mit der Tastatur herumtappen. Nun liegt es also noch an der Größe. Ich war zuvor immer mit der gpu auf dem Holzweg mit den durschnitts Bitrate. Habe also mit der gpu immer das falsche gemacht. Liegt daran das ich mich nicht auskenne und darum behauptet gpu sei schlechter als CPU. Dem ist ja nicht so.
Nun das gute ist ja wenn ich das behoben habe, dann kann ich ein Video mit cpu und eines mit gpu gleichzeitig umwandeln. So Kaste ich den PC optimal aus und bin sogar noch schneller unterwegs. Brauche also dann nicht mehr als 8 Kerne mir zu holen.

Und eines ist sicher, die settings die es kleiner macht, die brauche ich noch. Mir egal wenn es etwas länger braucht weil die Gtx 860m hat die selbe Leistung wie ein ryzen 7 5800x. Man stelle sich mal vor man verwendet da ne besser gpu, dann kommt die CPU garnicht mehr hinter her. Und bei gpu zahlt bestimmt die cuda Kerne oder auf was muss man achten um Leistung zu haben?
 
@Latiose ja am Ende des Tages ist die Rechenarbeit bei NVidia Grafikkarten auf den Cuda Cores dafür, NVenc an sich ist halt ne API, ohnehin wie DirectX.
Wäre natürlich mega wenn man demnächst dasselbe mit DirectX verwendet könnte, denn dann ist es auch für OBS Studio möglich das so zu nutzen, ob das Leistungstechnisch dann immernoch so gut funktioniert wie Shadowplay das wird sich erst dann noch zeigen.

Was Staxrip angeht, musste halt für weniger Speicherplatz voll auf Quality gehen, auf P7, 4 hab ich ja da eingestellt, halt das Mittelding zwischen maximaler geschwindigkeit und maximaler Kompression.
Ich könnte mit 40Mbit Upload also das ganze eigentlich noch was weiter so einstellen das es noch was schneller geht, weil mit der Leistung ist so nen File von bis zu 30gb jetz echt kein Problem, wenn das halt einige Minuten länger dauert hochzuladen.

Man sollte es allerdings zum Archivieren auch nicht unbedingt total übertreiben, klar wenn dein Abspielgerät nur H.264 kann ist halt schonmal unpraktisch zum Einen, zum anderen jenachdem wieviel man zum Archivieren hat, wenn man den Speicherplatz hat, mit dem PC kannst das auch alles Abspielen.
Man nimmt einfach den MPC-HC (portable-App Link, is immer besser wenn es geht, man muss sein System nicht so zumüllen) und fertig, also ich persönlich hab alles mögliche an Extra-Geräten hier verbannt soweit möglich, da bin ich sparsamer unterwegs. Die ganze Rechnerrei wenn die Kiste glüht kostet ja nunmal auch Strom, das bisschen beim Abspielen selbst wenn dabei skaliert werden muss unter umständen im passenden Seitenverhältnis, steht ja in keiner Relation zudem das du das alles zig Stunden durch Konverter jagst.
Schon garnicht wenn man ne Platte hat mit mehreren TB, wo du es einfach draufschmeisst und fertig :-)

Aber an sich weiss ich was du meinst, ich hab das vor zig Jahren mal mit "Auto gordian Knot" durch, kurz nach der Zeit als Divx/xvid so populär war, damals ging es lediglich sinnvoll auf der CPU, 9800er GT ging damals nix sinnvolles, jedenfalls fand ich nichts und so musste der 6000+ Amd Dualcore, Athlon 64 X2 dafür herhalten, immer schön Volllast bestimmt einige Wochen :ROFLMAO:

Gruss Dennis
 
Ja da gibt es bei mir auch per Performance setting aber dann noch sowas wie Latenz Performance oder vollleistung als Einstellung. Ich kann ja gerne Bilder davon machen was ich da meine. Auf jedenfall gibt es da echt nicht viele Einstellung Optionen und ist im vergleich zu cpu echt mickrig. Ich denke mal wenn ich da noch weiter hoch gehe dann sinkt die Bildqualität beträchtlich, dafür wird diese dann kleiner. Das sind halt die preset settings neben dem Bitrate wie die von dir genannten kann man nix mehr dazu beitragen es kleiner zu machen weil es halt nicht mehr viel gibt die das könnten. Und ich habe ja 2 b frames und 2 p frames. Da kann ich dann auch nix mehr noch kleiner machen. Weil je mehr es sind desto länger braucht es und desto größer wird es dann werden. So halt die info was ich weiß. Das heißt es gibt nicht mehr viel um die datenrate zu reduzieren. Nun es scheint wohl nicht für jeden gpu umwandeln gut geeignet zu sein , so ist das halt.
 
@Latiose
Die Zielgruppe ist ohnehin eigentlich eine etwas andere, das nutzt man ja nunmal eigentlich nicht um Aufnahmen von irgendwas zu Archivieren, sondern das ist gut für welche wie meinereins, Aufnehmen und hochladen, naja und wenn man so Crazy ist wie ich zwecks Bildqualität auf YouTube dann eben noch Resize mit spline36 über Staxrip vorher.

Das verschweindet halt alles in der Verabeitung von Youtube, wenn du 40Mbit Upload hast und das nebenbei bei irgendwas auf Netflix gucken oder so hochgeladen wird, juckt es n Hobbyyoutuber halt natürlich nicht wie die Grösse von einem Video im Nachhinein ist.

Das Gerödel über die CPU tue ich mir jedenfalls nicht mehr an mit MeGUI, auch beim Exportieren aus Videoschnittprogrammen nicht, entweder reichts schon direkt durch ein Avisynth-Skript und ansonsten hat das NCH Videopad nen lossless Export, wo wirklich nur von A nach B kopiert wird, die Bilder pro Sekunde, da werden dann echt nur Effekter kurz mal auf der CPU gerödelt.
Sprich Übergangseffekte, einblenden sowie Ausblenden, der Rest ist dann nur lediglich Datenträgerlast, von Datei zu Datei kopieren :-)

Viele Videoschnitprogramme machen das sonst ja mit dem Export auch so ätzend und auch total bescheuert, da wird jede Bild neu gerechnet (encodiert, fälschlicherweise ist dann von Rendern oft die Rede, also Rendern tut man sicher mit Blender, aber nicht in einem Konvertierungsvorgang) und das kostet natürlich Zeit und Strom und die CPU freut sich über ordentlich viel Rechenaufgaben :d

Gruss Dennis
Beitrag automatisch zusammengeführt:

Die Hoffnung hierbei, bestünde beispielsweise hauptsächlich bei mir persönlich jedenfalls darin, das dann eine neuere Version vom NCH Videopad dabei auch über DirectX dann auch nen Resize direkt damit machen könnte, dann bräuchte ich kein Staxrip mehr dazu in einem weiteren Schritt nach einem lossless-Export.

Resolve müsste man dazu nämlich ansonsten auch Pro haben, sonst kannste auch da auch nur wieder auf der CPU herumrödeln, das ist auch son Ding, das tollste Videoschnittprogramm bringt halt einfach mal garnichts wenn du das nicht nutzen kannst was du hast
Und um da ne Pro-Lizenz zu bekommen, musste richtiges Geld in die Hand nehmen, davon kannst schonwieder n Rechner bauen, das seh ich eben nicht ein, sowas kann n Montana Black sich natürlich aus der Portokasse bezahlen oder sogar von der Steuer absetzen, aber nen Ottonormalo der keinen Lambo in einer Garage stehen hat, der kauft sich solch eine Lizenz eben nicht mal eben so :d


Gruss Dennis
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh