AS SSD Benchmark [2]

Status
Für weitere Antworten geschlossen.
4GB für meine häufig genutzten Programme, das Ramdrive wird auch gespeichert beim Herunterfahren. Und dann noch eine 12GB Disk wo ich alle möglichen Caches auslagere, Entpacken usw., größte Zeitersparnis sehe ich bei mir in der Bearbeitung von großen Bilddateien mit vielen Ebenen & Filtern und hin und wieder bei Kompilieren von Projekten.

Ab 48GB würde ich dann mit Virtualisierung anfangen.

Aber wir driften hier ein wenig ab vom Thema. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
4k Wert lässt sich nicht durch RAID verbessern.

RAM-Drives mit dem Benchmark zu testen ist nicht immer aussagekräftig.

TrueCrypt sollte eigentlich zu benchen gehen. Zumindest wenn man damit echte Laufwerke verschlüsselt.
 
Vertex2 Ext 120gb

Was haltet ihr von so nem Benchmark? Die Platte ist 2 Tage alt nicht voll beschrieben. Werde die Platte definitiv zurückschicken und frage mich, wieso sowas wieder mir passieren muss... Benchmars sehen auch bei ATTO nicht besser aus, dort komme ich auf 200-210mb/s.

Verbaut ist das ganze in einem Macbook Pro Mid 2010. Jemand eine Idee?

 
Was haltet ihr von so nem Benchmark? Die Platte ist 2 Tage alt nicht voll beschrieben. Werde die Platte definitiv zurückschicken und frage mich, wieso sowas wieder mir passieren muss... Benchmars sehen auch bei ATTO nicht besser aus, dort komme ich auf 200-210mb/s.

Verbaut ist das ganze in einem Macbook Pro Mid 2010. Jemand eine Idee?

pciide-Treiber? Stromsparmechanismen?

mfg
 
Stromsparmechanismen kann ich ausschließen. Die Windows 7 Installation ist frisch, daher denke ich, wird es daran auch nicht liegen oder? Auch in dem Windows Benchmark komme ich nur auf eine 7,1.
 
Werde die Platte definitiv zurückschicken und frage mich, wieso sowas wieder mir passieren muss... Benchmars sehen auch bei ATTO nicht besser aus, dort komme ich auf 200-210mb/s.

ich kenn mich mit apple nicht aus.. aber auf ahci solltest du schon umstellen um bessere ergebnisse zu bekommen... das alignment stimmt ja

bevor du win7 installierst musst du im bios von ide auf ahci umstellen.. oder auf ahci im laufenden betrieb nach anleitung umbiegen (google-suche oder hier im forum suchen)
 
Zuletzt bearbeitet:
wäre gut, wenn hier noch ein apple user was zu sagen könnte. Laut meinem Wissen ist es bei einem Mac nicht nötig/möglich ...
 
Was haltet ihr von so nem Benchmark? Die Platte ist 2 Tage alt nicht voll beschrieben. Werde die Platte definitiv zurückschicken und frage mich, wieso sowas wieder mir passieren muss... Benchmars sehen auch bei ATTO nicht besser aus, dort komme ich auf 200-210mb/s.

Verbaut ist das ganze in einem Macbook Pro Mid 2010. Jemand eine Idee?

Um welches Macbook handelt es sich denn genau?

Die Werte sehen auf den ersten Blick gar nicht so schlecht aus. Eine Rücksendung rechtfertigt es aus meiner Sicht zumindest nicht.

Das Macbook Pro 13" hat einen NVIDIA-Chipsatz, wo mir die erzielten Werte nicht unwahrscheinlich erscheinen würden. Allerdings kann ich dir nicht mir Gewissheit sagen ob diese Werte typisch für diesen Chipsatz wären.
 
Also ich habe nun rausgelesen, das bei Macbooks unter Windows AHCI nicht aktiviert werden kann --> Daraus sind wohl generell die Werte unter Windows schlecht. Dies würde die normalen Benchmarkergebnisse erklären.

Mich hat vorallem mein Score von 174 statt den üblichen 360-420! verwundert.

Nach ein bisschen Googlen in einem Mac Forum hab ich einen User mit ähnlichen Werten gefunden. Daher könnte die Platte doch in Ordnung sein.

Mich wundert jedoch, dass ich doch sicher nicht der einzige bin, der über diese extremen Schwankungen mit einem Macbook stolpert.

Wer daher ein Macbook + SSD hat kann ja mal seine Erfahrungen äußern.

(EDIT: Macbook Mid2010 mit i5)
 
Zuletzt bearbeitet:
Jetzt weißt du doch woran es liegt. Vertrau doch nicht unbedingt auf Benchmarkergebnisse sondern auf deine Subjektive Meinung. Ist das System mit der SSD nun schneller oder nicht? Wenn ja einfach genießen.
 
Mich hat vorallem mein Score von 174 statt den üblichen 360-420! verwundert.

Vergiss die Punkte. Man kann nicht alles über einen Haufen scheren. Dafür unterscheiden sich verschiedene Parameter viel zu sehr. Ohne AHCI kein Native-Command-Queuing (NCQ), deshalb 4K-64Thrd Werte auf Niveau von 4K. Und deshalb insgesamt weniger Punkte...
 
Zuletzt bearbeitet:
Hmm.... :shot:
 

Anhänge

  • vertex2.png
    vertex2.png
    19,3 KB · Aufrufe: 125
Testen will :-)

SF1200 MLC, Barefoot SLC, Barefoot ECO MLC und JMF602 MLC vorhanden ;)
 
Etwas Spielerei wäre eine gte Möglichkeit, die Leistungsfähigkeit der Kompression zu erfahren bzw. was überhaupt für einen Algorithmus sie da nutzen.
Wirst du Details zu deinem Benchmark veröffentlichen, z. B. was du als komprimierbare Daten nutzt?

mfg
 
Zuletzt bearbeitet:
Wie man sieht, komprimiert die nicht. Die Schwankungen gefallen mir aber noch nicht so richtig.
 
Wie man sieht, komprimiert die nicht. Die Schwankungen gefallen mir aber noch nicht so richtig.
Das sind vermutlich Lastschwankungen durch Schreib/Lesezugriffe des BS. Kann man bei Atto sehen, beim CDM und auch beim "alten" AS SSD-Benchmark. Jeder Benchmarkdurchgang liefert leicht unterschiedliche Ergebnisse, da wird (d)eine Kurve nicht von verschont bleiben. Ich würde mir da keine Sorgen machen, um das auszugleichen müsstest du vermutlich wesentlich* größere Datenmengen schreiben, was kaum sinvoll ist.

Viel spannender für mich ist die Frage: was bedeuten die % auf der waagerechten Achse?

* CDM schreibt bei schnellen Platten mehrere Gigabyte und hat den Effekt immernoch.

mfg
 
Die % sind Anteil (gut komprimierbarer, zusammenhängender)Nullen im Block den es gerade schreibt/liest. Es sind aktuell 64 16MB Blöcke. Schreibtest wird 2x ausgeführt und Mittelwert berechnet.
 
Die % sind Anteil (gut komprimierbarer, zusammenhängender)Nullen im Block den es gerade schreibt/liest.
Danke für die Info.
Die Sandforce-Controller komprimieren ja nicht nur, sondern deduplizieren ja auch. Kannst du das irgendwie auch mal testen, z. B. manche (kleinere) Blöcke zweimal schreiben?
Und - falls du gaaanz viel Langeweile hast - kannst du mal testen, wie schnell z. B. WINRAR oder ähnliches einen derartigen deiner Blöcke komprimieren kann in der schnelsten Einstellung (nach purem speichern)?
Hängst du privat zum testen an SATA3 mit 6 Gbit/s?

Die Frage, welchen Algorithmus der Cotroller nutzt, stelle ich mal besser im dortigen Sammelthread. ;-)

/edit: Ich seh schon: meine Neugier zwingt mich wohl demnächst zum Kauf einer SSD mit Sandforce-Controller :-(

Vielen Dank jedenfalls für deine Arbeit.
mfg
 
Zuletzt bearbeitet:
@Palomino2000: Deduplizierung ergibt sich automatisch durch die Kompression. Diese ist aber eigentlich ziemlich mies da nur Sektorweise (4kb Sektoren). Algorithmus ist properitär und gut gehütet.

Nightly update: http://www.alex-is.de/progs/AS SSD Benchmark-nightly.zip

Änderungen:
-Legende
-Maus
-Schnellere Testdatengeneierung
 

Anhänge

  • kompression.png
    kompression.png
    18,7 KB · Aufrufe: 73
Zuletzt bearbeitet:
Edit: noch mit der ersten Nightly erstellt

Erstmal danke für die Schnupperversion! ;)

Mir ist gleich mal ein Bug aufgefallen: Wenn man den Kompressionsbenchmark aufruft und wieder schließt, dann im Hauptfenster ein anderes Laufwerk/Partition wählt und dann erneut den Kompressionsbenchmark aufrufen will, kommt es zu einem Bug. Im Spoiler gibtzs den Fehlertext.

Informationen über das Aufrufen von JIT-Debuggen
anstelle dieses Dialogfelds finden Sie am Ende dieser Meldung.

************** Ausnahmetext **************
System.ObjectDisposedException: Auf das verworfene Objekt kann nicht zugegriffen werden.
Objektname: "Form3".
bei System.Windows.Forms.Control.CreateHandle()
bei System.Windows.Forms.Form.CreateHandle()
bei System.Windows.Forms.Control.get_Handle()
bei System.Windows.Forms.Control.SetVisibleCore(Boolean value)
bei System.Windows.Forms.Form.SetVisibleCore(Boolean value)
bei System.Windows.Forms.Control.Show()
bei AS_SSD_Benchmark.Form1.kompressionBenchmarkToolStripMenuItem_Click(Object sender, EventArgs e)
bei System.Windows.Forms.ToolStripItem.RaiseEvent(Object key, EventArgs e)
bei System.Windows.Forms.ToolStripMenuItem.OnClick(EventArgs e)
bei System.Windows.Forms.ToolStripItem.HandleClick(EventArgs e)
bei System.Windows.Forms.ToolStripItem.HandleMouseUp(MouseEventArgs e)
bei System.Windows.Forms.ToolStripItem.FireEventInteractive(EventArgs e, ToolStripItemEventType met)
bei System.Windows.Forms.ToolStripItem.FireEvent(EventArgs e, ToolStripItemEventType met)
bei System.Windows.Forms.ToolStrip.OnMouseUp(MouseEventArgs mea)
bei System.Windows.Forms.ToolStripDropDown.OnMouseUp(MouseEventArgs mea)
bei System.Windows.Forms.Control.WmMouseUp(Message& m, MouseButtons button, Int32 clicks)
bei System.Windows.Forms.Control.WndProc(Message& m)
bei System.Windows.Forms.ScrollableControl.WndProc(Message& m)
bei System.Windows.Forms.ToolStrip.WndProc(Message& m)
bei System.Windows.Forms.ToolStripDropDown.WndProc(Message& m)
bei System.Windows.Forms.Control.ControlNativeWindow.OnMessage(Message& m)
bei System.Windows.Forms.Control.ControlNativeWindow.WndProc(Message& m)
bei System.Windows.Forms.NativeWindow.Callback(IntPtr hWnd, Int32 msg, IntPtr wparam, IntPtr lparam)


************** Geladene Assemblys **************
mscorlib
Assembly-Version: 2.0.0.0.
Win32-Version: 2.0.50727.4952 (win7RTMGDR.050727-4900).
CodeBase: file:///C:/Windows/Microsoft.NET/Framework/v2.0.50727/mscorlib.dll.
----------------------------------------
AS SSD Benchmark
Assembly-Version: 1.6.4012.38153.
Win32-Version: 1.6.4012.38153.
CodeBase: file:///C:/Users/RaZoR/Desktop/AS%20SSD%20Benchmark.exe.
----------------------------------------
System
Assembly-Version: 2.0.0.0.
Win32-Version: 2.0.50727.4927 (NetFXspW7.050727-4900).
CodeBase: file:///C:/Windows/assembly/GAC_MSIL/System/2.0.0.0__b77a5c561934e089/System.dll.
----------------------------------------
System.Windows.Forms
Assembly-Version: 2.0.0.0.
Win32-Version: 2.0.50727.4927 (NetFXspW7.050727-4900).
CodeBase: file:///C:/Windows/assembly/GAC_MSIL/System.Windows.Forms/2.0.0.0__b77a5c561934e089/System.Windows.Forms.dll.
----------------------------------------
System.Drawing
Assembly-Version: 2.0.0.0.
Win32-Version: 2.0.50727.4927 (NetFXspW7.050727-4900).
CodeBase: file:///C:/Windows/assembly/GAC_MSIL/System.Drawing/2.0.0.0__b03f5f7f11d50a3a/System.Drawing.dll.
----------------------------------------
System.Management
Assembly-Version: 2.0.0.0.
Win32-Version: 2.0.50727.4927 (NetFXspW7.050727-4900).
CodeBase: file:///C:/Windows/assembly/GAC_MSIL/System.Management/2.0.0.0__b03f5f7f11d50a3a/System.Management.dll.
----------------------------------------
mscorlib.resources
Assembly-Version: 2.0.0.0.
Win32-Version: 2.0.50727.4952 (win7RTMGDR.050727-4900).
CodeBase: file:///C:/Windows/Microsoft.NET/Framework/v2.0.50727/mscorlib.dll.
----------------------------------------
System.Windows.Forms.resources
Assembly-Version: 2.0.0.0.
Win32-Version: 2.0.50727.4927 (NetFXspW7.050727-4900).
CodeBase: file:///C:/Windows/assembly/GAC_MSIL/System.Windows.Forms.resources/2.0.0.0_de_b77a5c561934e089/System.Windows.Forms.resources.dll.
----------------------------------------

************** JIT-Debuggen **************
Um das JIT-Debuggen (Just-In-Time) zu aktivieren, muss in der
Konfigurationsdatei der Anwendung oder des Computers
(machine.config) der jitDebugging-Wert im Abschnitt system.windows.forms festgelegt werden.
Die Anwendung muss mit aktiviertem Debuggen kompiliert werden.

Zum Beispiel:

<configuration>
<system.windows.forms jitDebugging="true" />
</configuration>

Wenn das JIT-Debuggen aktiviert ist, werden alle nicht behandelten
Ausnahmen an den JIT-Debugger gesendet, der auf dem
Computer registriert ist, und nicht in diesem Dialogfeld behandelt.

Die Schwankungen finde ich auch zu krass, zumal sie auch so stark bei non-OS SSDs auftritt.

Solidata K5 64GB (Indilinx Barefoot - SLC) - mit OS
barefootuga6.jpg



Supertalent Ultradrive GX2 128GB (Indilinx Barefoot ECO - MLC) - ohne OS
barefoot_ecohhp1.jpg

Hier kann man übrigens wunderbar sehen dass auch Indilinx gaaaaanz leicht von Kompression profitiert bei den Schreibraten. Ist mir im ATTO Disk Benchmark auch schon aufgefallen.


Extrememory XLR8 Plus 60GB (SF12xx - MLC) - ohne OS
sf1200ucbr.jpg



OCZ Core Series 60GB (JMF602 - MLC) - ohne OS
jmf602zgso.jpg

Im ersten Durchgang des Schreibbenchmarks war die Linie noch fast ohne Zacken, aber beim zweiten Durchgang setzte das für diesen Controller berühmt berüchtigte "Stottern" ein........
 
Zuletzt bearbeitet:
Mir ist gleich mal ein Bug aufgefallen: Wenn man den Kompressionsbenchmark aufruft und wieder schließt, dann im Hauptfenster ein anderes Laufwerk/Partition wählt und dann erneut den Kompressionsbenchmark aufrufen will, kommt es zu einem Bug. Im Spoiler gibtzs den Fehlertext.

habs gefixt. danke.
 
Jep, jetzt funktionierts. Noch schöner wärs aber, wenn der Graph dann auch zurückgesetzt wäre ;)

Mit was für einer Blockgröße testet du denn da? 64 oder 128? Weil mit Sandforce müssten ja bei 100% Kompression noch höhere Werte machbar sein, wenn man mal ATTO als Vergleich ranzieht.

xlr8mqot.jpg
 
hmm hab zum vergleich nochmals mit dem intel RST treiber gemacht und bei dem schwanken die schreibwerte etwas stärker. immer nach dem systemneustart 5x durchlaufen lassen und das beste ergebnis genommen.

imghosting


vorhin mit dem microsoft
imghosting
 
Zuletzt bearbeitet:
Jep, jetzt funktionierts. Noch schöner wärs aber, wenn der Graph dann auch zurückgesetzt wäre ;)

Mit was für einer Blockgröße testet du denn da? 64 oder 128? Weil mit Sandforce müssten ja bei 100% Kompression noch höhere Werte machbar sein, wenn man mal ATTO als Vergleich ranzieht.

16MB Zu beachten ist auch dass man Atto wert durch 1024 und nicht durch 1000 teilt. Bei mir zeigt es ja MB/s. Das mit Zurücksetzen mache ich noch.

@CookieJoe: Interessant. Mal sehen ob ich rausfinden kann wieso es unterschiedlich schwankt. Danke.
 
Zuletzt bearbeitet:
Nachdem die letzten wochen wenig von mir kam (komm momentan selten an den PC, es fehlt die zeit) hier mal das ergebniss von 2 SF 60 GB im Raid0.

Das sind mal schwankungen ^^

Achja.. 1. Bild mit aktiven RST write cache 2. Bild mit abgeschaltenem RST write cache.

Die extrem schwankungen kommen also vom write cache
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh