Premiere Pro mit NVENC: Videos rendern in 20 % der Zeit

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.554
adobe_logo_100.jpg
Mit der Version 14.2 für Premiere Pro und den Media Encoder hat Adobe eine neue Hardwarebeschleunigung hinzugefügt. Im Export werden H.264 und H.265 (HEVC) über die verbaute GPU beschleunigt. Grundsätzlich unterstützt wird dies auf allen Plattformen und diversen GPU-Modellen von AMD und NVIDIA.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sogar ne Quadro RTX 4000 würde die Radeon noch planieren denke ich :fresse:. Ist die Bildqualität denn immer identisch bei gleichter Bitrate ?
 
Das wurde wirklich Zeit und damit ist es endlich mal wieder zeitgemäß. Ich habe ein 4k Video mit Final Cut Pro auf einem MacBook deutlich schneller gerendert als auf meinem PC mit 6 Kernen / 12 Threads und GTX 1070 & Premiere.
 
Die Bildqualität ist nicht zu unterscheiden.

Das halte ich für ein Gerücht. Bei gleicher Bitrate sind je nach Settings teilweise massive Unterschiede zu erkennen. Trotz NVENC, was übrigens schon seit längerem möglich ist, hängt Adobe Premiere z.b. Da Vinci Resolve noch immer hinterher (Was Hardwarenutzung angeht)
 
Geht mit NVENC eigentlich 2pass?
 
Ich habe Hardware-Beschleunigung soeben mit meiner RX 5700 XT ausprobiert und das ist nicht nur auswählbar sondern funktioniert laut Task-Manager mit 100% GPU Auslastung.

Da scheint die Aussage, das nur Radeon PRO Grafikkarten unterstützt werden nicht zu stimmen.

Grüße,
John
 
Das ist auch Unsinn.... Radeon Pro Karten haben den gleichen Encoder wie die Consumer Varianten.

@Namenlos
Es geht auch das beides gleich aussieht, allerdings muss man denn mit den GOPs usw. spielen. Aber das bei gleichen Settings die Qualität gleich ist stimmt einfach nicht!
 
Geht mit NVENC eigentlich 2pass?
Ja klar (y).

Das halte ich für ein Gerücht. Bei gleicher Bitrate sind je nach Settings teilweise massive Unterschiede zu erkennen. Trotz NVENC, was übrigens schon seit längerem möglich ist, hängt Adobe Premiere z.b. Da Vinci Resolve noch immer hinterher (Was Hardwarenutzung angeht)
Eigentlich nicht, die hatten Cuda und OpenCL seit der letzten Eiszeit. Und an den Settings bzw. der letztlich finalen Qualität haben die keinen Einfluss ist von der Version des Hardware Encoders abhängig.

Die Bildqualität ist quasi nicht zu unterscheiden.
Die 2080ti hat ja den Volta NVENC, wie alle Turings mit Ausnahme der GTX 1650. Ist schon möglich das man fast nichts mehr erkennt. Minimaler Vorteil vllt. noch bei exakt den selben Einstellungen für die CPU, dabei halt je nach Setup deutlich schneller. GeForce 2080Ti ist schon ein Monster, wenn man so Sachen wie madVr und die AI Scaler noch mit ins Boot nimmt, wird die mit entsprechender Software zum Alleskönner.

Nennst du das nicht zu unterscheiden: https://snipboard.io/Run9kH.jpg ? Übrigens siehts in Bewegung noch schlimmer aus. Und bei Realvideo ist es noch schlimmer: Nvenc gegen x264 software 2-pass
Sieht nicht nach Volta Encoder aus, von wann bzw. wo ist dieses Bild ? Ich würde es nicht so ausdrücken wie Don, aber der Nvidia Encoder entspricht in etwa x264 preset middle, wenn nicht noch höher ab Turing, sprich je nach Bitrate fast nicht mehr sichtbar ob GPU-oder-CPU.

Das ist auch Unsinn.... Radeon Pro Karten haben den gleichen Encoder wie die Consumer Varianten.

@Namenlos
Es geht auch das beides gleich aussieht, allerdings muss man denn mit den GOPs usw. spielen. Aber das bei gleichen Settings die Qualität gleich ist stimmt einfach nicht!
Nein, die Radeons haben auch unterschiedliche Decoder Level. Daher hat man bei AMD wohl auch den erweiterten Pro Support der 7 gekappt bzw. nicht geliefert, die Karte müsste für deutlich weniger Geld die WX 8200 beispielsweise stehen lassen eigentlich.
 
@Infi88
Also bei meiner Vega VII und der RadeOn Pro 9100WX sind die Encoder identisch. Ebenso ist der Encoder der 5700XT identisch mit den der W5700X. Und ja, Adobe setzt seit Ewigkeiten auf CUDA bzw. OpenCL in der Timeline, und auch da nur bei bestimmten Operationen. Bei DaVinci Resolve wird bei fast allen die GPU mit genutzt. Editieren, Korrekturen, Transformationen, Encoding usw. Schau dir mal Test an "Premiere vs FinalCut vs DaVinci" Da landet Premiere teilweise um Faktor 3 hinter den Anderen. ;)
 
@Infi88
Also bei meiner Vega VII und der RadeOn Pro 9100WX sind die Encoder identisch. Ebenso ist der Encoder der 5700XT identisch mit den der W5700X. Und ja, Adobe setzt seit Ewigkeiten auf CUDA bzw. OpenCL in der Timeline, und auch da nur bei bestimmten Operationen. Bei DaVinci Resolve wird bei fast allen die GPU mit genutzt. Editieren, Korrekturen, Transformationen, Encoding usw. Schau dir mal Test an "Premiere vs FinalCut vs DaVinci" Da landet Premiere teilweise um Faktor 3 hinter den Anderen. ;)

Aber das ist doch seit dem jüngsten Premiere Pro Update relativiert, oder etwa nicht?
Bei mir Ist Davinci Resolve leider ständig abgekackt. Wollte Adobe eigl. den Rücken kehren, aber Davinci hat mit meiner RX 5700 XT nur Probleme gemacht, sodass ich wieder zurück zur Cloud mit allen Programmen für 30 EUR im Monat bin...

Hier mal noch ein Screenshot der Auslastungen:

Premiere-Pro-Hardware-Encoding-GPU-CPU.jpg
 
Zuletzt bearbeitet:
Ich glaub nicht das @Don exzessiv geschnitten und ein Mammutprojegt gerendert hat, das sollte kein Cuttersoftwarevergleich werden denke ich. Wobei natürlich schlechte Setups, Bugs und falsche Einstellungen Ergebnisse verfälschen können.

@Infi88
Also bei meiner Vega VII und der RadeOn Pro 9100WX sind die Encoder identisch. Ebenso ist der Encoder der 5700XT identisch mit den der W5700X. Und ja, Adobe setzt seit Ewigkeiten auf CUDA bzw. OpenCL in der Timeline, und auch da nur bei bestimmten Operationen. Bei DaVinci Resolve wird bei fast allen die GPU mit genutzt. Editieren, Korrekturen, Transformationen, Encoding usw. Schau dir mal Test an "Premiere vs FinalCut vs DaVinci" Da landet Premiere teilweise um Faktor 3 hinter den Anderen. ;)
FinalCut ist doch MacOS. Wen interessiert die Software beim Hardware-Encoding und FFmpeg, da kannste jede Russensoftware in den Ring werfen und dich tot vergleichen. Wenn die Parameter gesetzt sind wird das Ergebnis das selbe sein, zumindest in der Bildqualität/Bitrate/Zeit, außer die Karte hat ein anderen Encoder/Decoder verbaut der in der GPU hängt.
DaVinci/Vegas etc.pp, hatten sogar halbgaren Cuda Support wie gesagt seit der letzten Eiszeit.
Speziell bei Anwendungen die auch auf dem Mac laufen müsste Apple eigentlich auch AMD stark Druck machen bzw. macht es selbst :hust: , wie sollen die bitte hinterher hängen ? Wer sollte die Hardware Decoder sonst nutzen, das ist mit die am weitesten verbreiteste Software dafür, macht für mich keinen Sinn was du schreibst.

Deine Radeon 7 ist auch eher der Äquivalent zu ner Radeon Instinct M150 nicht der Pro 9100WX (?), sprich sie ist an sich ne HPC-Karte mit angepassten Clocks keine klassische Spielerkarte.
Natürlich haben Karten untereinander teils den selben Encoder Level, die GeForce hat ja wie geschrieben wie fast alle Turingkarten den der Volta Architektur ebenfalls HPC.
Die Prokarten haben aber nicht immer den selben Level wie Radeon's die für Spieler gedacht sind.
Die 5700XT hat einen anderen wie diese Pro hier beispielsweise und hätte auch wahrscheinlich Qualitätsmäßig andere Ergebnisse. Liegt an der Architektur, der Preisklasse und dem Releasezeitpunkt natürlich.

Problem ist einfach das die Qualitativ nicht so stark ist bisher wie bei Nvidia, und vor allem nicht effizient genug im Vergleich zu ihren eigenen CPUs, daher bastelt man keine Workstation mit 3000er Threadripper um dann auf der GPU zu encoden, das wäre ziemlich dumm.
Der Test soll wohl schlicht verdeutlichen wo die Reise hingeht, die GPU's können es effizienter und schneller nur noch nicht ganz so Qualitativ hochwertig. Kann sich bei Ampere und Big Navi aber nochmal ändern, da müsste der Tryhard Videomacher der wirklich Zeitdruck hat dann wirklich die Preise vergleichen, Bilder abgleichen und abwägen was mehr lohnt.
 
Was du schreibst macht für mich nicht wirklich Sinn. Du kannst es gerne nachschauen dass die professionellen AMD Karten auf die gleichen EnCoder setzen wie die Spielekarten. Auch vom Treiber wird da nicht beschnitten. Und natürlich macht es einen riesen Unterschied, ich sagte dir bereits dass zum Beispiel OpenCl und Cuda bei Premiere nur in der timeline oder bestimmten Effekten genutzt wird. Andere Programme nutzen die Grafikkarte aber bei fast allen mit dementsprechenden Geschwindigkeitsvorteilen. Der Vergleich von FinalCut, Premiere und DaVinci rührt einfach daher das alle drei Programme den gleichen Zweck erfüllen und die gleiche Hardware nutzen können und Premiere da so ziemlich am schlechtesten abschneidet.

bei den Karten von AMD wird kein unterschied gemacht ob Spielekarte oder professionelle Karte. So lange diese auf den gleichen Chip basieren haben Sie auch den gleichen Encoder.

@JohnRambo
Das neueste Update bringt nur Änderungen bezüglich der Grafikkartennutzung beim Exportieren des Videos. Ansonsten wird nach wie vor vieles nur über die CPU und da sogar vieles nur über ein Kern realisiert. Dies ist auch der Hauptgrund warum Premiere in manchen Bereichen so extrem langsam ist.
 
So und nun erkläre ich mal warum das ineffizient ist
Da nvenc fix function (quasi) Einheiten sind kann man sagen.
Das NUR CBR geht und das Nur mit der höchsten bitrate
bedeutet während ich bei h264 crf oder cq 20 max bei 720p 6mbit bin ist das bei nvenc 12mbit
Und somit nicht besser als cbr mpeg2 in m2ts auf 720p 12mbit (BD standard) man spart lediglich zeit.
Nvenc eignet sich gut für screen capturing mit max bitrate bsp 1080p mit 25mbit
in Echtezit 60fps
Fürs encoden beim export eignet es sich nicht
Dazu adobe sowie vegas pro und co haben eine bug der durch apple mp4 standard ausgelöst wird
Sämtliche exports sind immer Farbverschoben und oder haben einen gamma shift (erkennbar an weißen stich im bild) und nein die srgb Korrektur ist nicht schuld.
Umgehen lässt sich das nur mit export auf rgb also uncompressed und danach mit eine fffmpeg gui wie xmediarecode ifme u.a. recoden.
Der crf hevc zero latency und bei h264 cq unterstützen

bsp 5min video uncompressed etwa 17gb (1080p (59,94hz)
auf 720p same bitrate
h264 95mb
hevc 40mb
Dauer ci7 5820k 224 Sekunden/80 fps und 355 Sekunden/51 fps
Und das war ein gameplay mit spielen original auflösung 640-480 und mod 1080p 16bit Farben.
Filme ist der wert noch geringer auf cpu aber das hängt extrem vom Bildmaterial ab und wie schnell der film ist.
 
Du kannst es gerne nachschauen dass die professionellen AMD Karten auf die gleichen EnCoder setzen wie die Spielekarten. Auch vom Treiber wird da nicht beschnitten. Bei den Karten von AMD wird kein unterschied gemacht ob Spielekarte oder professionelle Karte.
Lmao, natürlich. https://www.hardwareluxx.de/index.p...kommt-radeon-pro-software-unterstuetzung.html.
Dafür gibt es ja jetzt die Pro 7 https://www.hardwareluxx.de/index.p...ro-vii-mit-vega-20-gpu-und-16-gb-hbm-vor.html.
Mit der Instinct M150 baugleich, die R7 wurde nur als Spielerkarte vermarktet im Prinzip ist es eine HPC Karte mit Treiberflaggs für Spiele und mehr Clockspeed.

Die 5700XT kam zumindest vor der Radeon Pro 7, ist Navi und hat VCN 2.0, kein VCE 4.1 +2x UVD 7.2, verhalten sich völlig unterschiedlich.
Die hier zum Vergleich ran gezogene Radeon Pro WX8200 hat ebenfalls logischerweise ihre eigenen Specs, können aber auch beim encoding einen Unterschied machen, nix überall das selbe Kollege.
Es kommt die Hardwarerevision drauf die dem Hersteller vorschwebt und weiterentwickelt hat und die gepaart mit Treibersupport sorgt für das Ergebnis am Ende beim Encoding Vorgang, die Timeline, dein Werkzeugkasten, und wer die Vorschau rendert hat mit dem Thema was hier beleuchtet wurde doch gar nichts zu tun :cautious:.
 
Dafür gibt es ja jetzt die Pro 7 https://www.hardwareluxx.de/index.p...ro-vii-mit-vega-20-gpu-und-16-gb-hbm-vor.html.
Mit der Instinct M150 baugleich, die R7 wurde nur als Spielerkarte vermarktet im Prinzip ist es eine HPC Karte mit Treiberflaggs für Spiele und mehr Clockspeed.
Die 5700XT kam zumindest vor der Radeon Pro 7, ist Navi und hat VCN 2.0, kein VCE 4.1 +2x UVD 7.2, verhalten sich völlig unterschiedlich.
Die hier zum Vergleich ran gezogene Radeon Pro WX8200 hat ebenfalls logischerweise ihre eigenen Specs, können aber auch beim encoding einen Unterschied machen, nix überall das selbe Kollege.
Du hast ihn wieder nicht verstanden...
Zunächst mal: Die Instinct heißt MI50, das ist ein großes i für Instinct, die 50 steht für die Rechenleistung, das ist kein 150 (du hättest also die Rechenleistung mal eben verdreifacht). Und die Karte nutzt die Vega20 GPU, genau wie die Radeon VII, die MI60 und jetzt neu die Pro7. Alle haben daher auch keinen Unterschied in der Video Einheit.
Und bei der 5700XT kommt Navi10 zum Einsatz. Der hat natürlich eine andere Video Einheit als Vega20. Aber Navi10 ist nicht nur in der 5700XT, 5700 und 5600XT, sondern auch in der W5700X, welches eine Pro Karte ist. Daher haben diese Karten wiederum alle die baugleiche Video-Einheit.
Entscheidend ist daher der zugrunde liegende Grafikchip. Der muss entsprechend unterstützt werden. Egal ist hingegen, ob es eine Pro oder Consumer Karte ist, da in beiden Bereichen die selben Chips verbaut werden und die Treiber keine Einschränkung machen.
 
Du hast ihn wieder nicht verstanden...
Zunächst mal: Die Instinct heißt MI50, das ist ein großes i für Instinct, die 50 steht für die Rechenleistung, das ist kein 150 (du hättest also die Rechenleistung mal eben verdreifacht). Und die Karte nutzt die Vega20 GPU, genau wie die Radeon VII, die MI60 und jetzt neu die Pro7. Alle haben daher auch keinen Unterschied in der Video Einheit.
Und bei der 5700XT kommt Navi10 zum Einsatz. Der hat natürlich eine andere Video Einheit als Vega20. Aber Navi10 ist nicht nur in der 5700XT, 5700 und 5600XT, sondern auch in der W5700X, welches eine Pro Karte ist. Daher haben diese Karten wiederum alle die baugleiche Video-Einheit.
Entscheidend ist daher der zugrunde liegende Grafikchip. Der muss entsprechend unterstützt werden. Egal ist hingegen, ob es eine Pro oder Consumer Karte ist, da in beiden Bereichen die selben Chips verbaut werden und die Treiber keine Einschränkung machen.
Wen interessiert deine Haarspalterei. Ich habe sie selbst alle gelistet um zu verdeutlichen das es der selbe Chip ist, aber die R7 ein anderes Verhalten an den Tag legen wird beispielsweise weil es eine Spielerkarte ist die Beschränkungen hat.
Die Karten heißen und kosten deutlich unterschiedlich weil sie eben Software und Treibersupport haben, inklusive eigenem Süppchen für Apple. Die hier verwendete Radeon Pro WX8200 hat aber andere Specs inklusive Hardwareencoder = anderes Ergebnis, daher die Erwähnung.

Romsky meinte die Software würde hinterherhinken und hat ne Radeon 7 die eben keinen Pro-Support bietet. Da kann es schon mal glitchen, aber auch das spielt eigentlich keine Rolle vorausgesetzt das anwerfen des Encoders funktioniert beim Vergleich eines Videos. Eine Radeon Pro 7 hätte aber ein völlig anderes Ergebnis, weil ein anderer Hardwareencoder drin ist, der macht den meisten Anteil aus bei GPUs im Bezug auf Qualität/Bitrate/Zeit.
 
Die Bildqualität ist quasi nicht zu unterscheiden.
Ich stimme @Namenlos da zu. NVENC ist echt schnell aber das geht auf die Bildqualität. Zum Streamen (was wohl der Haupteinsatzzweck ist) ist es gut. Aber für z. B. Handbrake, was ich regelmäßig nutze, ist es für die Tonne. Qualität ist ein riesen unterschied zu ffmpeg, was über CPU dann eben läuft.

HandBrake also includes support for AMD VCE, Intel QSV, and Nvidia NVENC hardware encoders. These encoders produce H.264 and/or H.265 video at extremely high speed, at the expense of some quality and larger file sizes.
"Some" ist in diesem Kontext ziemlich untertrieben.
 
Wen interessiert deine Haarspalterei. Ich habe sie selbst alle gelistet um zu verdeutlichen das es der selbe Chip ist, aber die R7 ein anderes Verhalten an den Tag legen wird beispielsweise weil es eine Spielerkarte ist die Beschränkungen hat.
Die Karten heißen und kosten deutlich unterschiedlich weil sie eben Software und Treibersupport haben, inklusive eigenem Süppchen für Apple. Die hier verwendete Radeon Pro WX8200 hat aber andere Specs inklusive Hardwareencoder = anderes Ergebnis, daher die Erwähnung.

Romsky meinte die Software würde hinterherhinken und hat ne Radeon 7 die eben keinen Pro-Support bietet. Da kann es schon mal glitchen, aber auch das spielt eigentlich keine Rolle vorausgesetzt das anwerfen des Encoders funktioniert beim Vergleich eines Videos. Eine Radeon Pro 7 hätte aber ein völlig anderes Ergebnis, weil ein anderer Hardwareencoder drin ist, der macht den meisten Anteil aus bei GPUs im Bezug auf Qualität/Bitrate/Zeit.


Dann lasse ich dich mal, in dem Falle, Irrglauben. ;)
Das die Spielekarten im Bezug auf den Encoder, und nur um den geht es hier, keinerlei Beschränkungen hat und auch von der Hardware komplett gleich ist habe ich dir gesagt und konnte ich auch schon testen. Im Bereich Encoding/Decoding gibt es keinerlei Unterschiede, weder in HW noch in SW. Die Workstationkarten haben Ihre Vorzüge im Bereich von SolidWorks, Maya, CAD und co, da wo zum Beispiel der OpenGL Treiber zum Einsatz kommt. Das tut er meist nur im Viewport.

Die RadeOn Pro 7 hat den gleichen Encoder wie die Vega VII... komplett identisch. Den Unterschied macht nur der Treiber, welcher beim Encoding nicht zum Einsatz kommt, siehe meine Ausführungen in Bezug auf OpenGL usw. Und noch was, in Bezug auf Pro Software.... die Adobe Produkte profitieren da genau "0,0" von! ;) Die ganze Geschichte vom Pro Treiber beruht lediglich auf besagte "Pro Software" wie Catia, SolidWorks, Maya und co.
 
Dann lasse ich dich mal, in dem Falle, Irrglauben. ;)
Das die Spielekarten im Bezug auf den Encoder, und nur um den geht es hier, keinerlei Beschränkungen hat und auch von der Hardware komplett gleich ist habe ich dir gesagt und konnte ich auch schon testen. Im Bereich Encoding/Decoding gibt es keinerlei Unterschiede, weder in HW noch in SW. Die Workstationkarten haben Ihre Vorzüge im Bereich von SolidWorks, Maya, CAD und co, da wo zum Beispiel der OpenGL Treiber zum Einsatz kommt. Das tut er meist nur im Viewport.

Die RadeOn Pro 7 hat den gleichen Encoder wie die Vega VII... komplett identisch. Den Unterschied macht nur der Treiber, welcher beim Encoding nicht zum Einsatz kommt, siehe meine Ausführungen in Bezug auf OpenGL usw. Und noch was, in Bezug auf Pro Software.... die Adobe Produkte profitieren da genau "0,0" von! ;) Die ganze Geschichte vom Pro Treiber beruht lediglich auf besagte "Pro Software" wie Catia, SolidWorks, Maya und co.
Api und Treiber sind fundamental für so etwas, Nvidia hat sogar spezial Treiber dafür, ODE für stabile längere Zeit und QNF mit mehr Risiko und etwas schneller, du hast glaube ich noch nie Treibercode gesehen in deinem Leben.
Und du meinst die Client Software sei relevant für Encoder Vergleiche mit GPUs ;D.

Die Pro 9100WX die du für deine R7 gehalten hast brauch Treibersupport, die hier geteste Radeon Pro WX8200 ebenfalls, beides Vega, unterschiedliche Modelle und Fertigungsprozesse, selbe Videologik richtig.
Die R7 ist aber wie gesagt ne Instinkt 150, selbst die haben unter einander unterschiedliche Hardwarerevisionen des Encoders getrennt durch Nummern (Instinkt 125) weil dieser Fortschritte unterläuft und auch Energie und Platz(bei On-Die Lösungen) und Geld kostet, das muss beim Treiber ebenfalls immer berücksichtigt werden, und bringt natürlich unterschiedliche Ergebnisse weil man Veränderungen an der Hardware vorgenommen hat.

Die 5700XT hätte man auch dazu nehmen können, wenn die anläuft, die hat ne On-Die Lösung völlig andere Encoder, braucht Treibersupport, bringt völlig andere Ergebnisse Zustande.
Gilt auch für GeForce Karten mit Ausnahme der 1650. Ich weiß allerdings nicht ob alle RTX Quadros die selbe Volta Encoder Lösung haben.
Mit anständigem Treibersupport ist das der einzige Faktor der Einfluss auf die Qualität/Bitrate/Zeit hat hat beim Encoding, NICHT die Clientsoftware und deine ebenfalls hardwarebeschleunigte Cuda/OpenCL Timeline oder Projektvorschau.

Ich stimme @Namenlos da zu. NVENC ist echt schnell aber das geht auf die Bildqualität. Zum Streamen (was wohl der Haupteinsatzzweck ist) ist es gut. Aber für z. B. Handbrake, was ich regelmäßig nutze, ist es für die Tonne. Qualität ist ein riesen unterschied zu ffmpeg, was über CPU dann eben läuft.
Der Hardware-Encoder ist entscheidend Brudi, sonst gehen der GPU zu viele Informationen abhanden.
Benutze Handbrake auch hin und wieder, ist halt unter anderem ein "Feature" von Turing womit getestet wurde(2080ti).

Wenn du auch ne Karte der RTX Generation hast müsste das Qualitative Ergebnis zumindest in etwa immer auf X264 2-Pass Medium Preset liegen je nach Content. FFmpeg wird qualitativ von Natur aus immer etwas überlegen sein, liegt in der Natur der Sache klassischer Software die ständig verbessert wird.
Die Effizienzkrone hat man aber schon lange abgegeben, wahrscheinlich wird sich das auch nicht mehr ändern und zumindest wird Nvidia Qualitativ nah ranrücken wollen, und wenn Don Brillenträger ist hab erbarmen :geek:, man sieht es tatsächlich kaum noch und bist je nach Setup halt dramatisch schneller.
 
Du kannst oder willst es nicht verstehen. Glaub mir ich stecke tiefer in der Materie als du denkst. ;) Aber ich lass dich jetzt mal in deinem Glauben, da ich merke dass es einfach nichts bringt. Teste es einfach selber aus, so wie ich es gemacht habe, und du wirst ganz schnell merken dass du auf dem Holzweg bist.
 
Also zugerne wollte ich immer wieder dem GPU umwandeln eine Chance geben,allerdings egal wie minimal ist,ich sehe dennoch einen Unterschied zwischen GPU und CPU.
Meine Einstellung der CPU sind Preset Medium und Profil ist Main. Meine Aufnahmen haben meist so 5 Mbit oder auch mal 8 Mbit.Sind halt schließlich TV Aufnahmen und sie Flimmern zum Teil.ALso schlechteste Voraussetzung sozusagen.
Eingestellt ist CRF 18.Das kann ich leider so nicht bei der GPU Einstellen,was ich echt ja schade finde.

Eingestellt habe ich bei der GTX 1060 was ich habe bei h264 2 Pass mit 1600 kb/s was ich halt bei der Ausgabe der CPU so auch hatte.Da hatte ich zwar 1610 aber naja gut,wie dem auch sei.Ich bin irgendwie entäuscht.Nicht nur das die GPU langsamer als meine CPU ist.Nämlich meine CPU braucht 1:55 und die GPU braucht 2:05 Minuten zum Umwandeln.
Als ich dann per VLC einen Schnappschuss des selben Bildes gemacht hatte.Da stellte ich dann fest das es bei der GPU teilweise die Details weniger detailiert gewesen waren.
Wenn ich im Internet immer von selber Bildqulität oder von kaum zu unterschieden lese,dann muss ich echt den Kopf schütteln.
Ich Archiviere diese ganzen Sachen nämlich und will ne gute Bildqulität.Solange also die GPU nicht 1:1 die selbe Bildqulität wie bei der CPU erreicht hat,sehe ich hier keinen guten Ersatz für meine CPU.
Normalerweise wenn halt die Selbe Bitrate ereicht wurde,erwarte ich halt die selbe Bildqulität.
So entspricht halt die Bildqulität wie bei ner CPU mit Baseline nivau.
Das kann ich eben halt auch bei der CPU erreichen und schwups geht der Vorteil der GPU wieder verloren.
Und so schlecht ist doch die GPU ja garnicht.

Und auch hier habe ich von den Bildern nen Unterschied bemerkt.Mir ist das ins Auge gestochen.
Ich sehe auch kleine Sachen auf der Straße oder von einem 24 " 4K auch nen Toten Pixel sofort.
Wo andere halt nur noch mit dem Kopf schütteln werden.

Ich werde das auch in zukunft beoachten.Vielleicht wird es ja bei neueren Generation die Bildqualität wirklich besser und hoffe das dann endlich wirklich auf nen Medium Bildqalität die GPU gegenüber der CPU sein wird.
Auch die Einstellmöglichkeiten sind ja echt ganz schön Mau.Ich dachte man kann inzwischen mit der GPU mehr einstellen.Scheint wohl ebenfalls nicht zu stimmen.
Nivida und andere Konsorten sollen sich doch bitte mehr Mühe bei der Entwicklung des Decoders bei der GPU machen.
Wie lange wird das wohl noch dauern bis es wirklich ganz sicher ebenwürdig sein wird?
 
Ganz ebenbürtig wird es vermutlich nie sein, wobei da natürlich auch vieles an den Programmieren der Software liegt. Ich bin der Meinung dass die Encoder durchaus auch schon heute die Ergebnisse vom encoden mit Prozessor erreichen könnten wenn die Entwickler dementsprechend Manwork investieren würden. Aber dies ist alles nicht so einfach getan. Mit dem Prozessor ist dies einfacher, da dieser viel flexibler ist bezüglich der Abläufe und Pipelines
 
genau richtig erkannt gpu zwar schneller aber braucht zwingend mehr bitrate um dasselbe Ergebnis zu haben wie mit cpu
Und ja der gpu encoder kann nur so schnell sein wie der höchst taktende cpu kern
eine gtx1060 hat im übrigen denselben encoder wie eine gtx1080ti
Andere modelle wie turing rtx haben einen Neuen hardware encoder der effizienter ist und somit weniger bitrate braucht aber immer noch nicht auf de niveau einer crf oder cq cpu encoding
Crf 18 ist übertrieben
Im übrigen das flimmern kommt vom interlaced, dies sollte per gpu automatisch entfernt werden in playern (vlc und co)
mein rat mit lanzos auf progressiv umwandeln
Daher nehme ich für den schnitt vegas pro oder movie studio ab 2015 (beides dieselbe softwarebasis)
Und rendere alles in rgb uncompressed um dann progressiv in meine endergebnisse umzuwandeln
meist hevc 406p und 720p 25-50hz
 
genau richtig erkannt gpu zwar schneller aber braucht zwingend mehr bitrate um dasselbe Ergebnis zu haben wie mit cpu
Und ja der gpu encoder kann nur so schnell sein wie der höchst taktende cpu kern
eine gtx1060 hat im übrigen denselben encoder wie eine gtx1080ti
Andere modelle wie turing rtx haben einen Neuen hardware encoder der effizienter ist und somit weniger bitrate braucht aber immer noch nicht auf de niveau einer crf oder cq cpu encoding
Crf 18 ist übertrieben
Im übrigen das flimmern kommt vom interlaced, dies sollte per gpu automatisch entfernt werden in playern (vlc und co)
mein rat mit lanzos auf progressiv umwandeln
Daher nehme ich für den schnitt vegas pro oder movie studio ab 2015 (beides dieselbe softwarebasis)
Und rendere alles in rgb uncompressed um dann progressiv in meine endergebnisse umzuwandeln
meist hevc 406p und 720p 25-50hz
Verstehe, also ist der Nachfolger dennoch besser sodas dieser mit weniger Bitrate die selbe leistung wie mit ner gtx 1060 erreichen kann. Das ist ja sehr interessant. Achja die gtx 1660 hat übrigens den selben Decoder wie bei den rtx Grafikkarten, sofern diese Infos ja richtig sei.
Wenn crf 18 übertrieben ist, was wäre denn dann ideal für ne crf Zahl?
Also ich betreibe das immer mit crf 18.ich hatte mal crf 16 ausprobiert gehabt und sah halt da keinerlei Unterschiede mehr. Darum hatte ich mich ja auch für 18 entschieden. Auch weiter nach unten also sprich crf 20 hatte ich ausprobiert und sogar 19.ich sah da halt optisch einen Unterschied. Nur darum auf 18 geblieben.

Das mit dem entflimmern, das ist ja ganz schön aufwendig. Also kann man trotz video kopieren diesen Filter dennoch drüber dennoch drüber bügeln?
Nun es gestaltet sich dennoch als recht schwierig. Schließlich habe ich ein interlacing matail,bestehend aus 50 halbbilder. Ich verwende den DeInterlacing Filter linien blending und ich glaube das es unter yadilf zählt bzw aufgeführt wird.
Das heißt es wird etwas unscharf. Ich hatte auch andere DeInterlacing Filter verwendet. Sie waren nie optimal gewesen. Entweder ruckelte dann das Video, zeigte kein Bild mehr an oder es waren doppelbilder aufeinmal beim abspielen zu sehen. Auch andere filterten nicht wirklich das Videomaterial. Es ist einfach schrecklich interlacing Material zu haben. Man weiß halt nie wie man es echt optimal beheben kann. Achja selbst nach dem umwandeln sehe ich halt wandernde Pixel, da kann halt auch die CPU nichts mehr dran ändern. Und wenn ich es so mache wie du gesagt hast, dann wandle ich ja mehrmals um. Da habe ich somit ganz sicher Qualitätsverlust und das will ich ja auch nicht haben.
 
Da bin ich ja mal gespannt, ob PP 14.2 wirklich erst ab GTX 970 (Maxwell), nicht aber mit GTX 960 (Maxwell) mit NVENC rendern kann, wie es im Artikel steht.
In anderen Anwendungen funktioniert NVENC mit der GTX 960 wunderbar.
 
Ja, und wie ist die Qualität heutzutage? Früher gab's noch Original-Kopie-Vergleiche auf Basis von Pixelfehlern usw. zwischen verschiedenen Codecs. Aber scheinbar interessiert heute nur noch schnell-schnell, egal was am Ende herauskommt.
 
Interessanter Benchmark. Zeigt mir dann, was open source Lösungen leisten sollten. Meine Begebenheiten wären aber APU statt CPU oder GPU und ein freier Encoder für OpenSUSE. Wird für den Heimgebrauch immer reichen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh