Auch wenns paar Tage her ist, um bzgl Musikproduktion nochmal bischen Klarheit rein zu bringen. Denn das gilt für fast jede DAW da draussen:
Grundsätzlich erfolgt die Berechnung des Audiosignals in Zeitabschnitten, also dem eingestellten ASIO- oder auf einem Mac dem CoreAudio-Puffer. Die CPU muss es zu jeder Zeit schaffen alle erforderlichen Berechnungen innerhalb dieser Zeit fertig zu stellen, sonst kommt es zu einem Drop-Out. Bei größeren Puffern ist es prinzipiell möglich eine höhere Plugin-Last zu berechnen. Das Produkt aus zu berechnendem Zeitabschnitt und den jeweiligen daten bleibt zwar gleich, aber logischerweise nimmt der ganze Overhead zu. Es müssen ja nicht nur Daten berechnet werden, sondern auch das häufigere Abrufen von Programmcode aus dem RAM schlägt hier zu stärker zu Buche. Noch wichtiger dürfte aber sein, dass man zB FFTs nicht über 32 Samples für sich alleine berechnen kann, sondern dafür weitaus größere Abschnitte braucht. Wenn man das mit größeren Audiopuffern als 32 Samples berechnet, sinkt logischerweise der Overhead.
Neben der nachfolgend beschriebenen Anforderung an die CPU-Leistung ist dafür auch ein störungsfrei arbeitenes OS notwendig (Stichwort 'DPC-Latenz',
ist aber ne andere Baustelle)
Aufeinanderfolgende Audiobearbeitungen sind voneinander abhängig und müssen somit nacheinander berechnet werden. Also zB zuerst das virtuelle Instrument, dann das erste nachgeschaltete Plugin, dann das zweite, usw.
Das gilt dann genauso für im Routing abhängige Audiosignalpfade.
Limitierend ist hier die CPU-Performance die zu jeder Zeit mindestens auf einem Kern dauerhaft abgerufen werden kann, während alle anderen Kerne gleichzeitig hoch takten. Also sowas wie der Allcore Turbo Takt, der unter der jeweiligen Belastung zu jeder Zeit ins thermische und Power-Budget passt (auf Laptops tw schwierig einzuschätzen). Natürlich kostet ein nicht ausgelasteter aber trotzdem hochtaktender Kern bei weitem nicht soviel Thermal- und Power-Budget wie ein voll ausgelasteter, deswegen ist die Ausschöpfund der Budgets evtl abhängig davon, wie fordernd der restliche parallele Teil des Projekts ist. Normalerweise sorgt die DAW dafür, dass alle Kerne gleichzeitig hochtakten, denn das Hochfahren des Taktes kostet viel zuviel Zeit (auch wenn modernere CPUs hier immer besser werden, aber wir reden hier bei niedrig eingestellten ASIO-Puffern von Zeitintervallen in denen jede verlorene Mikrosekunde kristisch ist).
Prinzipiell könnte man aufeinander folgende Plugins auch nacheinander berechnen lassen, wenn die DAW nach jedem Plugin einen weiteren Audiopuffer einfügt. Das erzeugt aber prinzipiell weiteren Overhead und geht stark zu Lasten der Audio-Latenz, die man bei live-geschalteten Tracks meistens nicht haben will. Deswegen ist das nur ein theoretisches Modell, das spätestens dann keine Rolle mehr spielt sobald man in einer solchen DAW das Instrument mit der fordendsten Plugin-kette live spielen möchte.
Parallele Spuren oder der parallele Teil von aufgesplitteten Audioroutings (zB wenn auf mehrere parallele Busse geroutet wird) werden von der DAW auf verschiedenen Kernen gleichzeitig berechenet. Alternativ kann natürlich auch das restliche Performance-Budget von Kernen herhalten die bereits einen anderen Audio-Signalpfad berechnet haben.
Zu beachten ist aber, dass etliche DAWs Probleme haben CPUs mit vielen Kernen sinnvoll zu nutzen, bzw kommen tw damit nicht zurecht. Cubase hat zB unter Windows Probleme mit mehr als 12 logischen Kernen (also 6 Kernen + HT/SMT) Probleme. Andere DAWs machen bei 32 logischen Kernen dicht. Wo das Limit bei FL Studio liegt, weiß ich aktuell nicht.
Für FL Studio gibts aber auch nochmal eine Erklärung wie das mit der Kernauslastung funktioniert.
Die Anforderungen an die CPU hängen also sehr stark davon ab wie man in der DAW die eigenen Projekte aufbaut und wieviele die genutzte DAW überhaupt sinnvoll nutzen kann. Der Filmcomposer mit 1000den parallelen Spuren und wenig komplexer Nachbearbeitung wird sehr viele Kerne benötigen, während der Sound-Frickler mit komplexer Plugin-Kette, oder derjenige mit anspruchsvoller Mastering-Kette mit einem hochtaktendem 4-Kerner mit möglichst hoher IPC auskommt. Ich habe Projekte hier, die laufen problemlos auf einem 7700K oder 9900KS und machen auf dem 3950X Mucken und genauso umgekehrt. Man kann da einfach kein pauschales Urteil fällen welche CPU für den individuellen Fall die richtige ist.
Wichtig ist aber nicht nur die CPU-Leistung ansich, sondern bei etlichen Plugins auch die RAM-Performance. Ich habe festgestellt, dass zB die Zahl der möglichen Native-Instruments-Kontakt-Spuren nahezu 1:1 mit der RAM Performance skaliert. Genauso Falbfilter der Pro L2, um mal populäre Beispiele zu nennen. Ich hatte für die NI Kontakt-Tests die Sessions des allgemein bekanntesten Benchmarks hier (dessen Namen nenne ich jetzt nicht, da ich eigentlich zugesichert habe, darüber nicht öffentlich zu kommunizieren, aber man kann sichs ja gerne denken). Vom RAM haben sowohl Intel als auch AMD gleichermaßen profitiert, nur dass beim Intel oben raus weitaus mehr möglich war. Gut 9900KS und 3950X sind nicht mehr aktuell, aber im Prinzip gilt das mit dem RAM ja noch ähnlich.
Das mal grundsätzlich zu CPU-Wahl für DAWs. Was da gut performt, performt auch gut in Games, solange man stand heute mindestens 6 Kerne hat und eine ordentliche GPU dazu stellt.
Beim Board drauf achten, dass es bzgl DPC-Latenzen keine Mucken macht. Einfach mal schauen
was bei den Jungs im Gearspace-Forum ordentlich läuft.
Ansonsten bei Musik noch für ordentliche und leise Kühlung sorgen. Ein NH-D15 und ein Gehäuse wo man den auch mit hohem RAM reinbauen kann ist da durchaus gerechtfertigt.