SSDs und die CPU Limitierung

Eggcake

Semiprofi
Thread Starter
Mitglied seit
19.03.2009
Beiträge
2.633
Ort
Zürich
So, ich habe mich nun endlich entschieden einen eigenen Thread dafür zu eröffnen. Es soll hier um die Frage gehen, inwiefern die CPU die Leistung einer SSD im Alltag limitiert und wie sich dies in Startzeiten von Applikationen niederschlägt.


1. Einleitung / Worum geht's?

Durch SSDs wurde das Arbeiten am PC für viele extrem erleichtert, indem Start- und Reaktionszeiten von Programmen gegenüber HDDs erheblich reduziert wurden. Bei Verwendung einer HDD ist diese der klare Flaschenhals, wenn es um das Öffnen von Programmen geht - nichts ist nerviger als eine "rödelnde Platte" und eine "Sanduhr".
In diesem Thread soll geklärt werden, inwiefern dies bei SSDs noch zutrifft. Ist nach wie vor das Speichermedium der Flaschenhals? Wieso existieren in der Praxis praktisch keine Unterschiede zwischen SSDs, welche in synthetischen, sowie "Realworld" Benchmarks erhebliche Unterschiede aufzeigen? Diese Fragen interessieren mich brennend, da sie schlussendlich darüber entscheiden, ob ein Upgrade auf eine "neue" SSD sinnvoll ist oder nicht. Es werden nicht verschiedene SSDs getestet, sondern aufgezeigt, und teilweise bestätigt (darüber soll im Thread diskutiert werden), was eigentlich längst jedem Reviewer klar sein sollte: die Unterschiede zwischen SSDs sind minim, weil eine andere Komponente limitierend auf die Leistung wirkt und die meisten (synthetischen) Benchmarks von grösseren Seiten irreführend sind, wenn es um die "Gesamtperformance" des Systems geht. Dies soll nicht "die Wahrheit" darstellen, aber das Thema soll damit endlich mal besprochen werden...


2. Weiterer Hintergrund (wen's interessiert)

Auf die Idee, dass nicht die SSD der Flaschenhals ist, sondern die CPU, kam ich bereits vor fast 2 Jahren. Damals wollte ich eigentlich den Vorteil einer SSD gegenüber einer HDD aufzeigen und habe deshalb eine Batchdatei erstellt, in der über 30 Programme gleichzeitig gestartet werden. Dies habe ich mit dem Programm "CamStudio" direkt aufgenommen. Das habe ich damals in diesem Video festgehalten. Die Tests wurden natürlich ohne Aufnahme gemacht. Als ich das Ganze aufzeichnen wollte, fiel mir auf, dass die Prozedur bei der SSD plötzlich signifikant länger gedauert hat. Nun - es konnte nur an CamStudio liegen, da dieses den QuadCore um bis zu 25% auslastet. Ich habe dann festgestellt, dass die Startzeiten mit dem Takt der CPU korrelieren: senkte ich den Takt um x%, so erhöhten sich die Startzeiten um fast dieselben x%.

Ich wollte schon vor einem Jahr dem Ganzen etwas näher auf den Grund gehen (irgendwer muss es ja tun :d ), liess es aber bleiben. Da es diese Woche in diesem Thread wieder um dasselbe Thema ging und in einem anderen Thread, der nicht weiter erwähnt werden soll, die Vermutung eines CPU-Limits als lachhaft abgestempelt wurde, entschloss ich mich, mich dem Thema doch nochmals etwas näher zu widmen - schliesslich war es erst eine Vermutung und das Thema interessiert mich, da in dutzenden Reviews in synthetischen und scheinbaren "RealWorld" Benchmarks, wie den Tracebenchmarks von Anandtech, riesige Unterschiede zwischen den SSDs festgestellt werden, in der Praxis davon jedoch praktisch nichts zu sehen ist. Zudem berichten die Kollegen von XtremeSystems, welche zugegebenermassen etwas extremere Setups als ein "Normalo" fahren auch immerwieder von Limits der CPU.


Im bereits erwähnten Thread habe ich nun wieder einige Tests durchgeführt - und kam auch mit der Intel X25-M G2 80GB zum selben Schluss wie zuvor: die CPU hat einen extremen Einfluss auf die Startzeit von Programmen.
Um es etwas wissenschaftlicher zu gestalten und die Problematik genau aufzuzeigen habe ich denselben Test wie verlinkt nochmals durchgeführt. Diesmal habe ich das Prozedere aber in einem Trace festgehalten.


2. Testsystem

Gigabyte EP45-Extreme
Q9550 @ [333x6=[B]2.0GHz[/B]; 333x8=2.66GHz; 471x7=3.30GHz; 471x8=3.76GHz] - EIST off
2x2GB Mushkin EP-8500
Intel X25-M G2 80GB @ ICH10R (@AHCI)
Windows 7 Professional x64


3. Testablauf

Der Test besteht darin, eine Liste von Programmen zu starten und die Startzeit zu messen. Dies wird mit verschiedenen Taktraten der CPU durchgeführt. Gemessen wird die Zeit, bis die aufgelisteten Programme gestartet sind. Festgelegt wird die Start- und Endzeit über die CPU-Auslastung im Trace (welches nach meinen Vergleichstests definitiv Start- und Endzeit der Programmstarts repräsentieren).

  • Boot
  • Warten bis keinerlei Aktivität mehr feststellbar ist (~10s)
  • Starten des Trace mit dem Windows Performance Analysis Tool (xperf -on DiagEasy)
  • Skript als Admin ausführen - ~5s warten (da dies Aktivität auslöst und ich den relevanten Teil im Trace genau eingrenzen möchte)
  • Im UAC Fenster "OK" drücken
  • Nach ~10s Trace speichern (xperf -d G:\..\..)

Diese Prozedur wurde für 2.0GHz, 2.66Ghz, 3.30GHz und 3.76GHz jeweils 3x durchgeführt. Es kann vorkommen, dass gleichzeitig ein Prozess Leistung beansprucht - z.B. Autoupdates. Im Trace ist dies jedoch sofort ersichtlich - diese Messungen wurden wiederholt, damit 3 eindeutig gültige Messungen vorliegen.


4. Programmliste und I/O Verteilung

Das Skript startet folgende Programme "gleichzeitig". Das heisst die Befehle werden nacheinander abgearbeitet, die Programme starten in dieser Reihenfolge innerhalb von ~0.1s:

  • Excel 2010
  • Word 2010
  • PowerPoint 2010
  • Acrobat Reader X
  • foobar2000
  • Internet Explorer 9

Die Liste sollte weder zu lang noch zu kurz werden. Es sind alles sehr "leichte" Programme (was sich in der Startzeit widerspiegelt). Die SSD als auch die CPU sollten etwas gefordert werden, um eine kurze Lastphase aufzuzeigen. Der Start von solchen Programmen, oder auch einigen gleichzeitig ist durchaus legitim und sollte die Vorteile von SSDs ausspielen.
Folgend die Grössenverteilung der I/Os und deren Queue Depths. Auf Wunsch kann ich auch die komplette Statistik einfügen, aber ein grober Überblick sollte reichen.
Insgesamt gibt es ~4550 lesende I/Os und insgesamt ~91 schreibende. Dies sollte bei der Betrachtung der Diagramme berücksichtigt werden. Überhalb von 64k kann es noch vereinzelt Operationen geben, aber der Übersichtlichkeit halber habe ich diese abgeschnitten - sie stehen in keinem Verhältnis zu den Operationen im abgebildeten Bereich.





5. Resultate

Die Balken zeigen die I/Os des Laufwerks an, die Graphen die Auslastung der einzelnen CPU-Kerne (Minimum = 0%, Maximum = 100%).
Für jede Taktung folgend ein Beispieltrace mit angegebener Start- und Endzeit:

2.00GHz


2.67GHz


3.30GHz


3.76GHz



Folgend die "Disk Utilization" bei 3.76GHz




Durchschnittliche Startzeiten und IOPS nach CPU-Takt
2.00GHz (100%) : 3.08s / 1495 IOPS (100%)
2.67GHz (134%) : 2.43s / 1895 IOPS (126%)
3.30GHz (165%) : 2.12s / 2170 IOPS (145%)
3.76GHz (188%) : 1.75s / 2630 IOPS (175%)




6. Schlussfolgerung


  • Die Messungen der Traces sind, nach meiner Beurteilung, korrekt - ich habe unabhängig davon zuvor mittels Stoppuhr bei 2.67GHz und 3.76GHz die exakt gleichen durchschnittlichen Zeiten erhalten
  • Die Startzeiten korrelieren sehr stark mit der Taktung der CPU.
  • Die Ausnutzung des Laufwerks ist relativ tief, währenddem die CPU praktisch die gesamte Zeit zu 100% ausgelastet wird
  • Diese Korrelation besteht nicht (oder nur in geringem Ausmass) bei HDDs. Rot, weil dies eigentlich auch noch getestet werden müsste, da sonst die Aussagekraft des Threads relativ gering wäre (schnellere CPU --> schnellere Startzeiten --> nichts neues!). Ich will aber eigentlich aufzeigen, dass dies erst mit der Geschwindigkeit von SSDs der Fall ist und dies deshalb kaum beachtet wurde. Da die Auslastung der CPU in vergangenen Tests (vgl. "2. Weiterer Hintergrund") bei Verwendung einer HDD jedoch sehr gering war (< 50% bei extremster Auslastung der HDD), gehe ich jedoch davon aus!
  • Die CPU hat das Speichermedium bei der Nutzung einer (potenteren) SSD als Primärfaktor für Programmstartzeiten und "OS-Responsiveness" abgelöst. Der Flaschenhals ist nicht mehr die "HDD" sondern die CPU - auch dies leite ich nur indirekt von diesem Test ab, da mir zum Vergleich andere SSDs fehlen - bei der Betrachtung von den selten gewordenen Tests von "App-Starts" liegt der Schluss aber nahe, dass der Einfluss der SSD-Geschwindigkeit relativ gering ist.
  • Ich stelle hiermit den Nutzen schnellerer SSDs auf heutigen herkömmlichen Systemen bezüglich "Systemperformance" in Frage und bitte Reviewer (mit mehr Ressourcen) von grösseren Seiten diese Thematik aufzugreifen.



7. Einschränkungen

Dies waren Tests auf (m)einem System, mit einem Skript. Dies soll nicht "die Wahrheit" aufzeigen, sondern einen Aspekt beim Testen und Bewerten von SSDs einbringen, welcher meiner Meinung nach in der Vergangenheit zu wenig Aufmerksamkeit geschenkt wurde (falls denn meine Messungen korrekt sind). Ich kann nicht sagen, ob es auf anderen Systemen genau so aussieht oder inwiefern eine schnellere CPU eine SSD noch ausbremst oder inwiefern eine schnellere SSD die Startzeiten beschleunigt. Da die Auslastung der CPU extrem hoch war, diejenige der SSD jedoch gering und nur selten das Maximum erreichte, gehe ich davon aus, dass eine schnellere SSD nur sehr kleine Vorteile mit sich bringt, im Gegensatz zu einer schnelleren CPU.

Ich bin mehrfach über die Messungen und die Methodik durchgegangen und konnte keinen Fehler entdecken. Auch sehe ich keinen Denkfehler oder ähnliches in meiner Betrachtung. Falls dem so ist, ruhig sagen - dafür ist der Thread da.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi Eggcake, das der Flaschenhals sich verlagert hat, ist denke ich mal jedem Reviewer klar. Trotzdem muss man doch aufzeigen welches SSD schneller ist in einem Test. Was du dort ansprichst betrifft doch eigentlich nur den Random Bereich der durch heutige SSDs gesättigt ist. Sequenziell hat man auch in der Praxis spürbare Auswirkungen bei schnelleren SSDs.

Was mir in deiner Ausarbeitung fehlt ist die Angabe zum Speichertakt. Wurde dieser festgenagelt, oder auch abgesenkt/erhöht. Evtl. ist ja auch gar nicht die CPU der Flaschenhals, sondern der Speicher (Stichwort Dateisystemcache).


Ansonsten tolle Arbeit :wink:
 
Zuletzt bearbeitet:
Dass die CPU in einem System mit SSD limitiert, ist wahrscheinlich/hoffentlich für die wenigsten eine Überraschung.

Ich finde Trace-Benchmarks daher gar nicht so sinnlos, denn sie arbeiten losgelöst vom CPU-Limit. So kann man wenigstens sagen, welche SSD auf einem schnelleren System dann auch tatsächlich schneller wäre. Mainboards mit vier Sockeln existieren ja...

Die Traces sollten natürlich nicht zu lang sein, sonst legt man sich damit zu sehr auf ein Nutzungsprofil fest. Aber ein Boot-Trace, Gaming-Trace etc., wäre meiner Meinung nach schon sehr sinnvoll.

Dass fast alle Benchmarks riesige Unterschiede suggerieren, die in der Praxis nicht existieren, ist natürlich auch vollkommen richtig. Nur irgendwie muss man die Leistung einer SSD eben bewerten - Die "guten alten Stoppuhrtests" sind hier leider fast immer kein adäquates Mittel, da (aufgrund des CPU-Limits) keine Unterschiede existieren. Man ist da als Redakteur also in einer ziemlichen Zwickmühle ;) Und sich die Tests dann "irgendwie" so zurechtzubasteln, sodass sich dann "irgendwelche" Unterschiede ergeben, kann irgendwie auch nicht zielführend sein. Ich denke daher, wie gesagt, dass Trace-Benchmarks mit das vernünftigste sind - solange man nicht zu große Traces nimmt.
 
Zuletzt bearbeitet:
Ohoh, jetzt kommen neben "Limitiert meine CPU meine Graka" jeden Tag auch noch "Limitiert meine CPU meine SSD" :-)

Danke für die Testreihe.
 
@Morpog / DoubleJ
Keine Frage: ich will keinesfalls sagen, dass synth. Benchmarks unnütz sind. Wie ihr selbst sagt: irgendwie muss man die eigentliche Leistung der SSD testen und bewerten, und dies macht man generell ohne ein Limit. Dass man nicht einfach Startzeiten misst, überall dasselbe Resultat erhält und zum Schluss kommt die SSDs seien alle super toll möchte ich keinesfalls vorschlagen ;)

Solche Tracebenches sind durchaus legitim, DoubleJ, aber ich vermisse halt den Hinweis darauf, dass dies losgelöst vom CPU-Limit geschieht. Man liest ja gar nichts davon, selbst auf den grossen Seiten nicht. Es entsteht der Eindruck (ich nehme immerwieder Anand als Beispiel, da den neuen Trace von ihm wirklich extrem verzerrend finde), dass man diesen Unterschied auch wirklich auf seinem eigenen System erhält.

Es soll eher ein Aufruf sein dies auch mal zu erwähnen oder das Thema kurz anzuschneiden - man kann dann immernoch zurück zu den "guten alten" Benches gehen ;)
Dass die CPU einen grösseren Einfluss hat, war mir durchaus bewusst - ich war dann doch erstaunt wie stark die Korrelation tatsächlich ist. Wirklich interessant wäre es ja zu sehen, wie es sich mit unterschiedlichen SSDs verhält. Eventuell bin ich im Luxx aber auch etwas falsch mit dem Thread, da der Wissensstand bzgl. SSDs in diesem Forum doch etwas höher ist als in anderen Foren (ich nenne keine Namen!) :d


Zum RAM-Takt: Ich kann's grad nicht prüfen, aber dieser sollte sich nicht gross verändert haben. Bei FSB333 auf exakt 1066MHz, bei FSB471 afaik sogar leicht unter 1000MHz. Zwischen 2.00/2.66 respektive 3.30/3.76 war er exakt gleich (da wurde lediglich der Multi verändert).


Edit: Ich bemerke gerade, dass es eventuell in der Einleitung etwas forsch rüberkam ("...sollte jedem Reviewer klar sein...") - wollte damit keinem Unwissenheit unterstellen - eher: erwähnt's doch! ;)
 
Zuletzt bearbeitet:
@Eggcake
ich glaub du machst hier einen kleine Denkfehler indem du unterstellst das die von dir gestarteten Programm beim starten ausschließlich Daten von der Platte lesen.

Viele Programme machen während des Programmstarts aber noch ganz andere Sachen wie z.B. Daten im Speicher auspacken und Vorverarbeiten, Scripte im Speicher interpretieren/ausführen, Datenbanken abfragen oder im schlimmsten Fall sogar eine externen Update-Server abfragen (da hast du immer die konstante Antwortzeit mit drin egal wie schnell dein System ist). Je nach dem wie die verschiedenen Anteile sind, können je nach Anwendung hier ganz unterschiedliche Systemteile (es gibt da durchaus noch ein paar mehr als die SSD und CPU) limitieren.

Ich habe z.B. schon Programme geschrieben die laden beim Start ca. 15MB von der Platte benötigen (und die auch nicht gleich zu Anfang sondern immer wieder mal ein Teilstück über den ganzen Startvorgang verteilt) aber dennoch je nach Rechner 1-2 Minuten um zu starten. Sowas ist dann natürlich zu 99,9% CPU/Bus limitiert.
Andererseits kann ich dir aber auch eine schnelle SSD oder einen RAID-Verband mit 1-2% CPU-Auslastung zum schwitzen bringen. Kommt ganz drauf an wie die Daten die gelesen/geschrieben werden sollen verarbeitet bzw. erstellt werden.
Erzeuge ich z.B. beim Schreiben für jedes Byte ein Random-Wert limitiert hier ganz schnell die CPU. Schreibe ich aber eine Stream der fertig im RAM liegt hat die CPU fast nichts zu tun.

Von daher kann meiner Meinung nach die Aussage ob die CPU limitiert immer nur für eine ganz spezielle Anwendung ermittelt/beantwortet werden und nicht pauschal.
 
So sehe ich das auch. Allerdings ist das ja eher eine Definitionfrage, ob man nicht besser sagen sollte, dass die CPU das System ausbremst und nicht die SSD. Die Aussage, dass sie die SSD ausbremst wäre genau genommen nur in Bezug auf einen reinen Transfer korrekt.
Aber das ändert ja nichts daran, dass der Test ein sehr interessantes (und für mich unerwartet deutliches) Ergebnis zu den momentanen praktischen Verhältnissen aufzeigt, um ein System vernünftig zu bestücken. (Will's vielleicht mal jemand mit einer Sandbrücke @3 - 5GHz nachmachen? :) )
 
Zuletzt bearbeitet:
@Eggcake
ich glaub du machst hier einen kleine Denkfehler indem du unterstellst das die von dir gestarteten Programm beim starten ausschließlich Daten von der Platte lesen.

Viele Programme machen während des Programmstarts aber noch ganz andere Sachen wie z.B. Daten im Speicher auspacken und Vorverarbeiten, Scripte im Speicher interpretieren/ausführen, Datenbanken abfragen oder im schlimmsten Fall sogar eine externen Update-Server abfragen (da hast du immer die konstante Antwortzeit mit drin egal wie schnell dein System ist). Je nach dem wie die verschiedenen Anteile sind, können je nach Anwendung hier ganz unterschiedliche Systemteile (es gibt da durchaus noch ein paar mehr als die SSD und CPU) limitieren.

Ich habe z.B. schon Programme geschrieben die laden beim Start ca. 15MB von der Platte benötigen (und die auch nicht gleich zu Anfang sondern immer wieder mal ein Teilstück über den ganzen Startvorgang verteilt) aber dennoch je nach Rechner 1-2 Minuten um zu starten. Sowas ist dann natürlich zu 99,9% CPU/Bus limitiert.
Andererseits kann ich dir aber auch eine schnelle SSD oder einen RAID-Verband mit 1-2% CPU-Auslastung zum schwitzen bringen. Kommt ganz drauf an wie die Daten die gelesen/geschrieben werden sollen verarbeitet bzw. erstellt werden.
Erzeuge ich z.B. beim Schreiben für jedes Byte ein Random-Wert limitiert hier ganz schnell die CPU. Schreibe ich aber eine Stream der fertig im RAM liegt hat die CPU fast nichts zu tun.

Von daher kann meiner Meinung nach die Aussage ob die CPU limitiert immer nur für eine ganz spezielle Anwendung ermittelt/beantwortet werden und nicht pauschal.

Dann müsste man genau dasselbe mit einer HDD gegentesten, um zumindest etwas Licht ins Dunkel zu bringen, richtig? Und vielleicht einen Trace der RAM-Aktivitäten machen. Ändern sich diese nicht großartig zwischen HDD und SSD, dürfte es an der CPU hängen.
 
@panooli
Dass es von den Applikationen abhängt ist klar. Und schlussendlich geht es mir um die Punkte unter dem Punkt "Schlussfolgerungen". Zusammengefasst: will man ein schnelleres "System", braucht man primär eine schnellere CPU und nicht eine schnellere SSD, sofern man bereits eine SSD hat. Bei einer HDD ist dies jedoch nicht der Fall.
Wie ******* (und ich selber im ersten Post) auch erwähne, müsste man dies selbstverständlich mit einer HDD gegentesten, doch dazu fehlt mir momentan sowohl Lust als auch Zeit. Ich habe aber bei meinem vorherigen Test festgestellt, dass selbst bei extremer, anhaltender Auslastung durch Programmstarts die CPU zu keiner Zeit voll ausgelastet wird - nicht mal mit zusätzlicher Belastung eines Kerns durch das Aufnahmeprogramm, wobei ich's auch nur über den Task Manager beobachtet habe. Dies kann man sich hier ansehen.

@*******
Das wäre das nächste was zu beweisen wäre, denn es zeichnet sich vieles ab, dass nach ~300MB/s bei einem potenten System derzeit Schluss ist in der Praxis. Ansonsten müsste man ja Unterschiede in der Praxis bei einem RAID0 feststellen: aber das tut der folgende Herr nicht:
http://www.xtremesystems.org/forums/showthread.php?t=260956
Wobei es hier doch einige Anwendungen gibt, welche davon profitieren (überall wo mit grösseren Daten gearbeitet wird, z.B. PS oder Filmbearbeitung). Abgesehen von der Kopiergeschwindigkeit natürlich. Von daher stimme ich schon überein, dass die seq. Transferraten am meisten Vorteile bringen dürften.
Zudem berichtet ein weiterer User, dass er bei einem FusionIo IODrive (>700MB/s Read, >90MB/s 4k Random Read (QD1)) auch nur sehr kleine Unterschiede in der Praxis feststellen kann. Natürlich existieren Applikationen, wo dies nicht der Fall ist (z.B. Datenbanken) - ich beziehe mich aber vor allem auf "alltägliche" Programme (wobei auch dies natürlich Definitionssache ist).
 
Zuletzt bearbeitet:
Zusammengefasst: will man ein schnelleres "System", braucht man primär eine schnellere CPU und nicht eine schnellere SSD, sofern man bereits eine SSD hat.

Das haben auch meine Vergleiche zwischen SSD, HDD und Ramdisk ergeben. Um so lustiger wie im SSD Forum die neueren SSDs so häufig über den grünen Klee gelobt werden. :fresse:
 
Interessantes Thema, Eggcake.
Ich habe bei meinem Virenscanner bemerkt, daß dieser meinen Hexacore (i7-980x, 3,33GHz) beim Scannen der SSD so auslasten kann, daß fast nichts anderes mehr geht.

Daß insbesondere der 4k-QD64-Wert in einer Desktopumgebung nicht zum Tragen kommen kann, muss auch endlich mal in das Bewusstsein sickern.
 
Die besten 4k Read QD 1 Werte hat nach wie vor die C300 - unangefochten. Was als nächstes sehr interessant wäre: Wo liegt bei einem aktuellen System die Grenze bei den 4k werten, ab denen keine Leistungssteigerung mehr festzustellen ist. Da man die Leistung einer SSD aber nicht wie den CPU-Takt einstellen kann, wird man diese Frage wohl nicht so schnell beantworten können.

Der Zusammenhang zwischen CPU-Takt und Startzeit scheint ja linear (auch wenn du einen anderen Fit durchgelegt hast). Da könnte man fragen, ob bei einer schnelleren SSD die Steigung anders ist, oder ob der Startvorgang wirklich extrem durch die CPU limitiert wird.
 
Der Zusammenhang zwischen CPU-Takt und Startzeit scheint ja linear (auch wenn du einen anderen Fit durchgelegt hast). Da könnte man fragen, ob bei einer schnelleren SSD die Steigung anders ist, oder ob der Startvorgang wirklich extrem durch die CPU limitiert wird.
Genau das fände ich sehr interessant. Im Prinzip im gleichen Diagramm Messungen/Trendlinien für verschiedene SSDs einfügen - wäre natürlich ein Traum, wenn man die Leistung der SSD modifizieren könnte ;). Das ist halt auch die Unbekannte Komponente im Test. Ich kann zwar festhalten, dass die CPU beim Start ein sehr grosser Flaschenhals ist, aber nicht, wie gross (oder eben klein) der Einfluss der SSD ist. Diesen Schluss ziehe ich nur indirekt, da bei der Korrelation eigentlich nur wenig Raum für andere Komponenten übrig bleibt. Und noch eine weitere Stufe wäre natürlich wenn man es auf Teile der Performanceeigenschaften (4k Random, 32k Random,...) festnageln könnte - aber das dürfte ein Ding der Unmöglichkeit sein, wäre aber natürlich der ultimative Test.

Zum "4k-Limit":
Meine "uralte" Indilinx (Ultradrive 32GB) hat auch ~30MB/s 4k Random Read...die C300 fällt aber doch aus dem Ruder bei der 34nm-Generation von SSDs (im positiven Sinne). Hier gehen wir aber eindeutig in die falsche Richtung (nämlich nach unten).
 
Zuletzt bearbeitet:
Da ich mal sehen wollte in wie weit die C300 auf die Energiesparfunktion von Win7 reagiert, hatte ich mal ein Test gemacht.
912Mhz blieb konstant bei 912Mhz

3990Mhz
 
"gefühlt" kann ich die Ergebnisse von Eggcake nachvollziehen. Meinen i5 750 hab ich schon auf 2,67GHz und 3,8GHz betrieben und subjektiv deutliche Unterschiede festgestellt mit meiner G2 160.
Und auch mein Virenscanner (AVG) lastet die CPU bei 3,8GHz auf allen 4 Kernen bis zu 80% aus beim scan auf der SSD. Wenn dann die HDD gescant wird, ist ein kern mit ~10% belastet ;)
(Hab über Everest am Zweitmonitor grundsätzlich Kontrolle über das, was mein System so treibt)
 
Klar - allerdings ungern öffentlich - primär weil ich nicht wirklich weiss, was alles in den Traces enthalten ist. Auch wenn die Wahrscheinlichkeit wohl gegen 0 tendiert, dass etwas "nützliches" darin enthalten ist.
Wer Interesse hat, kann mir eine PN schicken. Ich beginne schonmal mit dem Hochladen... ;)
 
Zuletzt bearbeitet:
Ja, also ich wuerde sie mir gerne mal anschauen. Vielleicht kann man ja die Faktoren raussuchen, die unabhängig vom CPU-Takt sind und die, die variabel sind. Auf jeden Fall ein sehr spannendes Thema!
 
Wenn ich den Energiesparmodus auf ausbalanciert stelle, steigt die Last vom Prozessor von 912Mhz auf 2394Mhz bei den Schreibwerten von 4K an, lesen bleibt auf 912Mhz
Bei den 4K-64Thrd Steigt die Prozessorlast auf 3990Mhz Lesen wie Schreiben.

Weiß nicht in wie weit das hierfür nützlich ist oder ob es überhaupt relevant ist.
 
Vielleicht eins vorweg. Die These das es sich mit einer SSD subjektiv deutlich schneller/besser arbeiten läst als mit eine HDD, es aber praktisch egal ist welche SSD man als OS-Platte nimmt kann ich aus meiner Erfahrung voll und ganz bestätigen. Gerade Aktuell auf einem Rechner von 80GB intel G2 auf 120GB 510er (an 6G Intel-Port) umgestellt und man spürt absolut keinen Unterschied.

Der Idee den Test (noch)mal mit einer HDD durchzuführen schließe ich mich an...
Wobei ich immer noch der Meinung bin man sollte die Anwendungen eher einzeln untersuchen. Einige dürften eher von einer schnellen SSD profitieren, andere eher von einer schnelleren CPU und mache vielleicht auch von beidem.

Ich habe spaßeshalber mal den Programmstart von PS CS4 aufgezeichnet(progmon):

An Plattenzugriffen sieht man eigentlich nur zu Anfang und am Ende einen Burst. Dazwischen findet man nur Registry-Zugriffe und (sinnlose) Zugriffe auf die zuletzt geöffneten Dateien (die auf einer HDD liegen, die natürlich erstmal gemütlich vor sich hin schläft). Sieht man auch schön an der "Filetime"(zweites Bild), auf die Bilder-HDD (F:\) ist diese 3 mal so groß wie auf die OS-SSD (C:\). Dennoch finde ich gerade PS ist eine Anwendung die beim Starten sehr gut von einer SSD profitiert. Beim Arbeiten mit PS bring eine SSD auch einen richtigen Schub wenn man die Windows-Auslagerungsdatei UND die PS-Temp Datei auf eine SSD legt(wenn man die um schreibzugriffe zu "sparen" auf eine HDD legt, kann man sich die SSD auch gleich ganz sparen).

Ein Ansatzpunkt für kaum CPU-Last und die Platte hat auch kaum zu tun dürfen eventuelle die vielen Registry-Zugriffe sein die manche Programme gerade beim Start ausführen. Gelesen werden hier nur wenige Byte, diese aber kreuz und quer so das eine SSD hier voll ihre kurzen Zugriffszeiten gegenüber einer HDD ausspielen kann. Die Unterschiede zwischen den verschiedenen SSD hier aber kaum vorhanden sind.
Ich glaub ich werde mal was Basteln war eine größere Anzahl von Registry-Zugriffen durchführt und dafür die Zeit misst und das dann mal auf verschiedenen Systeme loslassen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh