Nun mit 12 E-Kernen: Intels Core i7-14700K ist etwa 17% schneller als der 13700K

Ja! ..und genau das meinte ich mit:
dann wird halt das ressourcenfressende GPU Argument vorgeschoben.
Speicherplatz ist halt auch eine endliche Ressource, will man aber scheinbar nicht verstehen. Von daher.. ..Diskussion überflüssig. (y)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da es mich wirklich interesiert hat, habe ich es nochmal schnell mit The Walking Dead Staffel 11 Folge 11 versucht. Die Bildqualität scheinen sie mittlerweile wirklich verbessert zu haben. Ich kann beim Gucken keinen Unterschied erkennen. Damals war es noch so, dass vor allem bei Walking Dead die GPU (Nvidia) gerne Artefakte in das Bild eingebaut hatte, Ich bin deswegen damals auf Quicksync gewechselt. Dort gab es das Problem mit den Artefakten nicht und die Dateien waren kleiner als mit der Nvidia GPU. Später dann wegen ein wechsel auf den 3900 damals dann auf CPU only gewechselt. War immer viel langsamer als Quicksync hatte aber die kleinsten Dateien erstellt und es war immer ein gutes Bild. Ich bin dann bei der CPU geblieben, was Encodieren angeht. AUch jetzt wo ich wieder weg von AMD bin, nutze ich trotzdem weiter die CPU dafür.

Ansonsten I7-12700 H265 hat 15 Minuten und 21 Sekunden gedauert. CPU-Verbrauch laut HWInfo, ~135Watt. Rechner gesamt laut Netzteil zwischen 230 und 260 Watt. Manchmal gab es Peaks auf 330Watt. Allerdings habe ich die Kiste auch normal weiter benutzt :)

Mit der RTX 4090 in H265 Nvidia waren es dann 3 Minuten und 37 Sekunden. GPU ~105 Watt und CPU ~95 Watt gesamt also um die ~200 Watt. Laut Netzteil waren es gesamt zwischen 260 und 280 Watt und auch hier gab es zwischendurch Peaks bis auf 350 Watt. Hatte auch den Rechner weiter benutzt.

Dateigröße CPU 980MB
Dateigröße GPU 2,38GB

Vom Bild nehmen sich beide nichts würde ich sagen. Für mich bleibt aber nun endgültig die CPU der klare Sieger und mein Favorit beim Encoden. Würde ich die GPU bei meiner Film/Serien Sammlung benutzen, würde ich vermutlich 2 oder 3 Festplatten mehr brauchen... und die Teile kosten nun mal auch Geld :d

Wenn der Preis nicht all zu hoch ist, würde ich meinen 12700 gerne gegen ein 14700 austauschen.
 
Das deckt sich mit meinen Erfahrungen, die ich im Laufe der Zeit gemacht habe.

Ich werde eventuell von einem 12900K auf den 14900K wechseln, wenn der Preis stimmt.:d
 
In unabhängigen Bildtests liegen die GPUs bei der Bildqualität vorne, je nach Bitrate und GPU deutlich.


Und ich brauche nur einen Bruchteil der Zeit. Die FPS sind teilweise beeindruckend, vor allem beim NVENC.

Ob das File jetzt 5GB oder 8GB braucht, ist mir wurscht. Speicherplatz für Videos bei den heutigen Plattengrößen? :d
 
Hat mich interessiert wieviel sich bei gpu (hevc) encoding getan hat und cpu gegen nvenc (rtx 4090) mit vmaf getestet
nvenc 80,5 MB mit vmaf score 91.542826
cpu 72,6 MB mit vmaf score 91.592174
Also bei meinem kurzen test (doctor strange) ist cpu encoding bei gleicher qualität gut 10% effizienter was dateigröße angeht
edit: falsche einstellungen verwendet und somit quatsch
 
Zuletzt bearbeitet:
In unabhängigen Bildtests liegen die GPUs bei der Bildqualität vorne, je nach Bitrate und GPU deutlich.
Dort geht es um das Streamen irgendwelcher Spiele, das ist aber etwas komplett anderes. Ich will große Blue Ray Filme platzsparend in H265 umwandeln. Da sind beeindruckende FPS die dort gezeigt werden ziemlich unnötig. Beim Streamen zählen andere Sachen. Ich habe nun aber auch mal ein Stündchen quer im Netz gelesen, weil mich das Thema interessiert. Wenn ich kleine Dateien und die beste Qualität will, dann führt kein Weg an der CPU mit 2 Pass encoding vorbei.

Die GPU ist schnell, kann aber auch nur 1 Pass encoden und somit ist die Qualität schlechter und auch die Dateigröße ist schlechter. Das war nun das, was ich in der Zeit gefunden habe. Und ich habe nach Videobearbeitung gesucht und nicht nach Streamen. Ich will schließlich nichts streamen...
 
Red keinen Unsinn. Die Qualität ist NICHT schlechter, sondern gleich gut oder oder je nach Bitrate besser.

Die VMAF-Scores sind eindeutig.

Die CPU kann die Datei lediglich stärker komprimieren, was mir bei 5GB vs. 8GB je Film vollkommen egal ist.

Ich kann einen Intel N100 neben eine RTX4060 packen und bekomme so bei minimalem Stromverbrauch eine top Bildqualität bei schnellster Videoumwandlung.

Gegen den Stromverbrauch trotz genialer Leistungsdaten bei gleicher oder besserer Qualität kommt die CPU nicht an.
 
Die Mehrheit ist da anderer Meinung. Sollte man akzeptieren können (..oder halt lassen, dann ist das aber nicht das Problem der Mehrheit die da zu anderen Ergebnissen gelangt). (y)
 
Tomshardware hat ne target bitrate verwendet was man lieber nicht tun sollte
CPU encoding wird besser sein da es komplexere algorithm verwenden kann (welche natürlich auch rechenintensiver sind)
Doch muss sagen mit der richtigen verwendung ist nvenc schon geil
Hab nochmal nen test gemacht mit korrekten/besseren einstellungen in 8-bit und auch 10-bit
8-bit ffmpeg -i org.mkv -c:v hevc -crf 22 cpu.mkv ffmpeg -i org.mkv -c:v hevc_nvenc -cq 26 nvenc.mkv cpu.mkv bitrate: 4125 kb/s VMAF score: 97.526409 nvenc.mkv bitrate: 4229 kb/s VMAF score: 97.516270 10-bit ffmpeg -i org.mkv -c:v hevc -crf 22 -pix_fmt yuv420p10le cpu10bit.mkv ffmpeg -i org.mkv -c:v hevc_nvenc -cq 26 -pix_fmt p010le nvenc10bit.mkv cpu10bit.mkv bitrate: 4090 kb/s VMAF score: 97.783464 nvenc10bit.mkv bitrate: 4230 kb/s VMAF score: 98.080674
Bei diesem sample ist CPU bei gleicher qualität (laut VMAF score) ~3% platzsparender in vergleich zu NVENC... achja NVENC ist 10 mal schneller als mein 12700k :ROFLMAO:
 
Zuletzt bearbeitet:
Die Mehrheit ist da anderer Meinung. Sollte man akzeptieren können (..oder halt lassen, dann ist das aber nicht das Problem der Mehrheit die da zu anderen Ergebnissen gelangt). (y)
Na lassen wir ihn doch bei seiner Meinung, Intel ist generell in allen Belangen schlechter als AMD und da wo Intel besser sein könnte, gibt es ja andere Möglichkeiten, die für ihn ja auch besser sind, andere, Meinungen sind egal, auch wenn die Leute es selber getestet haben, zählen da nicht und werden als Blöd dargestellt.
 
Erste Statistiken zeigen eventuell einen Kampf mit dem 7950x3d) aber ja der 7800x3d ist viel günstiger und schneller es bleibt spannend
 

Anhänge

  • Screenshot_20231011_221714_Chrome.jpg
    Screenshot_20231011_221714_Chrome.jpg
    138 KB · Aufrufe: 75
Die Mehrheit ist da anderer Meinung. Sollte man akzeptieren können (..oder halt lassen, dann ist das aber nicht das Problem der Mehrheit die da zu anderen Ergebnissen gelangt). (y)
"Mehrheit". :lol:

Alle halbwegs aktuellen Tests, durch die Bank weg, zeigen, dass die Bildqualität beim GPU-Encoding dem CPU-Encoding bei hohen Bitraten ebenbürtig und bei niedrigen Bitraten überlegen ist. CPU-Encoding erreicht am Ende durch Multipass-Encoding eine kleinere Dateigröße, braucht aber auch das zigfache der Zeit bei deutlich höherem Stromverbrauch.

Eure Informationen stammen aus den 2010er Jahren. Kommt mal in der modernen Zeit an.
 
"Mehrheit". :lol:

Alle halbwegs aktuellen Tests, durch die Bank weg, zeigen, dass die Bildqualität beim GPU-Encoding dem CPU-Encoding bei hohen Bitraten ebenbürtig und bei niedrigen Bitraten überlegen ist. CPU-Encoding erreicht am Ende durch Multipass-Encoding eine kleinere Dateigröße, braucht aber auch das zigfache der Zeit bei deutlich höherem Stromverbrauch.

Eure Informationen stammen aus den 2010er Jahren. Kommt mal in der modernen Zeit an.
Gegen NVENC spielt nichts dagegen, nur eine praktische Annahme.

Hier ging es Ursprünglich um die Grundsätzliche Frage welche CPU und da kam ja die antworten in Raum ist ja egal weil NVENC.

Also: Du kannst eben bei einer Intel CPU Quick-Sync verwenden, was NVENC ebenbürtig ist. Z. B für Streaming (gibt es genug unabhängige tests kann man "googlen").
Der Vorteil: Die Grafikkarte hat 100% Leistung frei, den die iGPU macht in 95% einfach nichts und hätte so mit eine Sinnvolle Aufgabe.

Und genau für den Fall hat AMD trotz Gaming Krone nichts vergleichbares für ihre onboard Bildausgaben.
Die andere Alternative ist, man brauch nur für reines Gaming keine Nvidia GPU und kann auf AMD ausweichen und kann deren Konvertierung/Streaming Technologie aussparen, auch wenn es bestimmt damit möglich wäre und nimmt das QUICK-SYNC.

CPU Rendering geht immer, besonders wenn genug Kerne da sind, die als Option 2 mit Intels E-Cores möglich wäre. Trotzdem wären alle essenziellen Ressourcen für die Kern last grundsätzlich frei.

Jetzt hängt es nur noch vom Volumen im Heuspeicher ab und ob man getrennte physikalische Partition hat.

"Mehrheit" etc. Bildqualität ist am Ende in letzten 5% sehr viel subjektives Empfinden und keine messbare Objektivität mehr. Man müsste das eigentlich rausmessen, also Bildschärfe, Farbtreue etc...

Kompression ist ganz klar nicht gänzlich unrelevant besonders bei 4K+Auflösungen. ob ich bei Full HD nun 1GB oder 800MB verbrauch macht nicht viel aus, aber ob ich jetzt 10GB oder 8GB brauch summiert sich schneller bei Hi-Rez content. Wenn es schnell gehen muss z. B in einem Studio, bin ich mir sich das man sogar beide Techniken verwendet die schnelle GPU varianten für sofortige Ergebnisse und die Multipass variante CPU für das Finish. Bin jetzt aber kein Editor/Content creator etc.
 
@n3cron

Dir ist bewusst, dass die HD770 (=QuickSync) mit in den Tests bei Tom's gelistet wird?

Und dir ist auch klar, dass die aktuellen AM5-CPUs iGPUs haben?
 
@n3cron

Dir ist bewusst, dass die HD770 (=QuickSync) mit in den Tests bei Tom's gelistet wird?

Und dir ist auch klar, dass die aktuellen AM5-CPUs iGPUs haben?
Die iGPUs sind mir klar, aber die haben nichts gleichwertiges. Die ist ganz nett zum notfalls daddeln das wars.
 
Äh ja, es ging um Streaming & Co.

Für mehr ist die HD770 auch nicht zu gebrauchen.

QuickSyncVideo war vor 10 Jahren mal ein echter Hit.

Mittlerweile sind nVidia und AMD aber vorbeigezogen.

Einzig beim Thema AV1 kann Intel noch (!) trumpfen.
 
Ziemlich leidige Diskussion aber naja.. :rolleyes: ..nur zwei Beispiele:

a.) konverten CPU vs. nV-Pixelschleuder geht bei letzteren Faktor 3 schneller verbraucht aber Faktor 4 mehr Sprit, da ersteres nur E-Cores nutzt -> "AKW"-Argument verschiebt sich in Richtung Pixelschleuder.
b.) konverten via Hardware, siehe zuvor: Erstere (CPU) wird für weiteren Workflow noch voll einsetzbar sein (da P-Cores free), letztere (eGPU) nur noch bedingt bzw. gar nicht mehr.

..mehr schreibe ich dazu nicht, da nonsens. (y)
 
Ja, kann er. Ich kann ja auch E-Cores für Gaming frei halten.. ..und?

Darum geht es aber nicht sondern darum, ob die CPU/System so "schlau" ist und das auch von selbst effizient zuordnen kann. Intel -> JA (Hybridcore ThreadDirector), AMD -> NEIN (wenn ja, worüber?).

..ich würde nicht gerne jedesmal wenn ich Workload habe "fummeln" wollen, wann ich denn die effizienteste Core Verteilung habe um am stromsparensten zu werkeln. :unsure:
Funktioniert das eigentlich auch mit richtigen Betriebssystemen?
 
Was ist ein richtiges OS?
 
Äh ja, es ging um Streaming & Co.
Äh nö, eigentlich geht es nicht ums Streamen, das hatte ich aber auch schonmal erwähnt. @Spieluhr und ich sprachen davon Videos zu konvertieren und nicht vom Streamen. Deine Argumente mit dem Strom sind auch schwachsinnig, würde ich mein Material mit GPU konvertieren müsste ich 2 bis 3 Festplatten mehr im Datengrab haben. Dummerweise kosten Festplatten Geld und auch wenn du dich lustig darüber machst, dass die Teile "nichts" mehr kosten. Dann ist dein Stromargument aber auch dahin. Festplatten fressen auch Strom... und dass die ganze Zeit, wenn sie laufen. Die CPU frisst nur einmal beim Konvertieren.

Davon ab ist mein Test, den ich gemacht habe, nicht nur mit den E-Cores. Ich nutze die ganze CPU, weil es schneller geht. Wäre aber vielleicht interessant das mal nur mit E-Cores zu testen. Dafür bin ich aber jetzt zu faul. Ich habe mit Cyberpunk angefangen und keine Zeit zum Testen :d

Ich bin nun aber auch raus, irgendwie versucht du dir den Kram so zurecht zuschieben, wie er dir passt. Nun heißt es, es geht ums Streamen dabei sprachen wir über das Konvertieren...

Ich kann zu Hause wählen zwischen CPU, Quicksynvc und NVENC mit einer RTX 4090. Und ich bleibe bei der CPU. Allein schon wegen den Platzverbrauch und weil ich keine neuen Platten kaufen will...


Ok, kleiner Nachtrag und damit bin ich dann wirklich raus. Ich habe es mal kurz probeweise angeworfen nur mit E-Cores, allerdings nicht durchlaufen lassen. Gleiche Videodatei wie vorher, Rechner gesamt laut Netzteil 140 Watt und CPU-Gesamtleistungsaufnahme laut HWInfo 35Watt. Der 12700 hat nur 4 E-Cores. Zeitangabe laut Programm waren 45 Minuten für das Video. Da ich es nicht durchlaufen lassen habe, keine Ahnung, ob es so passt. Aber normalerweise liegt die geschätzte Zeit immer plus minus 30 Sekunden.

Und mit der Erkenntnis der 35 Watt und 45 Minuten... da ist dein Stromargument, ohne es jetzt genau nachgerechnet zu haben ziemlich dahin...
 
Zuletzt bearbeitet:
Also benutzen Milliarden von Menschen das Falsche OS?
 
laut CB ist der 14900k komplett schrott denn

1697217366595.png


Dieser Clickbait... ehrlich
 
Ich würde einfach selber testen oder auf richtige Test warten. :whistle:
 
@Yasha

Ich schiebe mir keinen Kram zurecht, ich bleibe bei den Fakten.

Du hast versucht, die eindeutigen VMAF-Scores wegzureden.

Die GTX1650 Super läuft für einen ganzen Film mit max. 50W auf ca. 45 Minuten. Die Intels drehen mit weit über 100W deutlich länger.

Und das nur, um pro Film ein paar GB zu sparen.

Als ob es mich interessieren würde, dass du für die gleiche Filmsammlung nur 12TB statt 16TB brauchst.

Was ist derzeit die max. mögliche TB je Platter?
 
Dieser Clickbait... ehrlich
Factorio ist ein sehr beliebtes Spiel, und die Headline ist sachlich korrekt, daher würde ich es nicht unbedingt als Clickbait beschimpfen.
Es ist aber eben auch nur ein Spiel und hat daher wenig Aussagekraft.
 
das ist sehr sehr bewusstes clickbait von cb gewesen. vor allem anhand eines spiels ;)

Man hätte die Kopfzeile auch einfach so machen können : "In factorio bleibt der 5800x3d schneller als intels 14th gen"

aber so wie sie die zeile geschrieben haben war das ganz klar clickfang ;)
 
Ok mal sehen was die richtigen Tests bringen werden ....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh