[Kaufberatung] SSD-Kaufberatung/-Informationsthread + Diskussion (Bitte lesen!)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die OCZ Vector macht sequenziell noch mehr Dampf, als die 840pro, keine entpackt schneller, als die Vector.
 
Ja, aber nur bis 50% Kapazität.

hdtach-new.jpg
 
DoubleJ, wenn du schon die eigenen Tests verwendest, dann bitte nicht nur verfälschende Ausschnitte.



Test: OCZ Vector SSD mit Barefoot-3-Controller

---------- Post added at 16:31 ---------- Previous post was at 16:25 ----------

Mit zunehmendem Füllstand werden alle SSDs langsamer, das ist keine Eigenheit der Vertex4 und Vector, je voller SSDs werden ums so langsamer werden sie .... und zwar Alle.
 
Zuletzt bearbeitet von einem Moderator:
Seehr schön. Und warum veröffentlichst du diesen Kommplett-Vollschreib-Test nicht bei jedem dieser "Reviews"? Mach das bitte jetzt mal für die Samsung 840!

Anstatt Forderungen an andere zu stellen, solltest du dich erst mal selbst befleißigen. Die entsprechenden Grafiken für die 840 sind seit langem online.
 
BerndH erinnert mich an so einen Typen, der einem studierten Toningenieur jedes mal erklären will wie es in einem Tonstudio zu laufen hat. :bigok:
 
Anstatt Forderungen an andere zu stellen, solltest du dich erst mal selbst befleißigen. Die entsprechenden Grafiken für die 840 sind seit langem online.
Das ist ... Seite 5: Die SSD 840 Series: Performance ohne TRIM Test: Samsung SSD 840 und 840 Pro Series




---------- Post added at 17:13 ---------- Previous post was at 17:07 ----------

Oder gilt "ohne TRIM" nur für den oberen Teil der Seite?!

"Bei Samsung spricht man davon, dass je nach Anwendung ein zusätzliches Over-Provisioning von bis zu 50 Prozent sinnvoll sein kann." (Man kann hier erkennen, in welche Richtung Samsung denkt ;) )
Damit wären wir dann beim "Quasis-SLC/MLC-Betrieb" auf den ich gelegentlich anspiele. Dann könnte man auch gleich weg von der TLC-Firmware und sich den Programmteil für das dreifache Zusammenschichten der Pages sparen. Das käme der Robustheit der FW zugute. Jedenfalls sind (mit TRIM?) 25MB/s oder 50MB/s grottenschlecht.

Ich hätte den Test über die komplette SSD gerne mit TRIM, eimal über eine frisch schnellformatierte und dann nochmals über die eben schon gefüllte und nicht wieder gelöschte SSD. Dann sieht man, was die Firmware leisten muss. Der Witz dabei ist, dass in diesem Scenario gar kein TRIM-Befehl gesendet wird, weil nichts gelöscht wird, sondern nur überschrieben.
 
Zuletzt bearbeitet:
also welche SSD wäre für mich mit 256 gb die richtige?

Ich würde mir mal die anschauen

Corsair Neutron GTX

Plextor M5P

OCZ Vector

Wenn du 390MB/s doch akzeptieren kannst: Plextor M5S
 
ups damit habe ich jetzt nicht gerechnet, das doch mehr zur auswahl steht. Habe jetzt schon die samsung 840 pro bestellt.

thx

ps vielleicht kommt für mich später ein raid0 von zwei samsungs in frage- das hatte ich schon von adata 510 gedacht, aber entgegen dem was ich erwartet habe langt die größe(128gb) immer noch für alles rund um das betriebssystem
 
Nein, gilt für die ganze Seite.
Und was bedeutet hier "ohne TRIM"?! Ist TRIM im Betriebssystem deaktiviert? Wenn ich eine SSD kontinuierlich - mit Videos - fülle, dann wird auch niemals getrimmt. Insofern wäre "ohne TRIM" in der Überschrift stark irreführend, um nicht zu sagen ... .

Wenn ich eine SSD richtig leiden sehen wollte, dann würde ich ein ganz einfaches Programm schreiben, das die SSD kontinuierlich vollständig füllt und nach jedem GB die Uhrzeit protokolliert und das Programm dann mehrmals nacheinander Starten - und man könnte es auch parallel laufen lassen. Da kommt Freude auf.
 
Zuletzt bearbeitet:
Danke, ja - stimmt. Der "Overhead" wird außerdem mehr, je mehr Bit eine Zelle speichern soll. Die Platzersparnis ist daher auch (deutlich) kleiner als 50% für MLC gegenüber SLC.
Du meinst 33%, denn es sind zwar 50% mehr Daten in einer Zelle (3 statt 2 Bits) aber man braucht eben dennoch 66% der Zellen um die gleiche Datenmenge schrieben zu können). Real spart man nur etwa 25% der Chipfläche ein, da der Rest für die aufwendigere Logik gebraucht wird. Die 840 Basic ist auch etwa 25% günstiger, zieht man nun die Kosten die nicht für die NANDs anfallen ab, so könnte die Pro noch etwas im Preis fallen und dichter an die Basic rücken.

Sie ist nur für die zusammenarbeit mit einem raid0( 4x Hitachi) da und hat fast nur mit dem entpacken und codieren von sequentiellen daten zu tun. Ich brauche also fast nur leistung in dem bereich und will nur quelle und ziel trennen, dafür will ich aber die realen dauerhaften werte am maximum.
Dann die 840 Pro, aber mit welcher Datenrate schaffst Du das wirklich? Bei den Reviews werden ja immer unkomprimierte Archive entpackt, da limitiert die CPU nicht aber sobald die CPU auch arbeiten muss, sieht das ganz anders aus, dann sind 100MB/s schon ein guter Wert. Wenn wir von Codieren reden, also Videoformaten, dann sind selbst 100MB/s wohl unerreichbar und das schafft fast jede gute, aktuelle SSD.

Eigentlich scheinen nur drei in frage zu kommen, aber ich habe mich länger nicht mehr damit beschäftigt. Aktuell die samsung 840 pro ( 256gb), die 830 und die m4 .Bei der M4 ( wegen dem sprung zu 512gb bei 275 euro )blicke ich gar nicht durch, da die Bezeichnung m4 wohl öfters benutzt wird.
Es gibt nur eine Crucial m4, aber die in verschiedenen Versionen (Slim mit 7mm Bauhöhe und Normal mit 9.5mm) sowie mit unterschiedlichem Zubehör in verschiedene Kits.

Dann gibt es von Crucial noch eine v4, aber die vergiss ganz schnell, die hat einen billigen Schrottcontroller.
keine realen werte unter 400mbyte/s akzeptieren die auch bei 50 gb gehalten werden.
Wenn Du sicher sein willst, dass 50GB mit 400MB/s beschrieben werden können, dann solltest Du im Zweifel entweder sicher stellen das TRIM funktioniert und entsprechend viel Platz ausreichend lange vorher durch Löschen von Dateien sicherstellen oder 50GB von Anfang an unpartitioniert (also ungenutzt) lassen. Wenn der Controller keinen freien Platz hat, dann kann kein Controller seine normale Schreibrate aufrecht erhalten.
also welche SSD wäre für mich mit 256 gb die richtige?
Samsung 840 Pro

Seehr schön. Und warum veröffentlichst du diesen Kommplett-Vollschreib-Test nicht bei jedem dieser "Reviews"?


Mach das bitte jetzt mal für die Samsung 840!
Das hast Du hier schon mal für die 840 Pro gefragt und hier habe ich Dir diese gezeigt! Hast Du das überlesen, nach 5 Tagen schon vergessen oder traust Du Anand nicht?
DoubleJ, wenn du schon die eigenen Tests verwendest, dann bitte nicht nur verfälschende Ausschnitte.



Test: OCZ Vector SSD mit Barefoot-3-Controller
Dann schau Dir die Bilder doch mal genau an, dann siehst auch Du vielleicht, was da passiert. Da muss man ja nicht lange rästeln, das sieht man doch. Im ersten Bild, wie Kurve nach 50% anfällt, da werden am Anfang die maximal 450MB/s erreicht, die HDTach ermitteln kann. Bei Test wie AS-SSD sehen wird, dass real mehr möglich wäre, so um 500MB/s. HD Tach schafft aber eben nicht mehr also 450MB/s. Dann fällt die Rate auf so kanpp unter 200MB/s ab.

Im zweiten Bild, so der Test wiederholt wurden, liegt die Schreibrate die ganze Zeit nur leicht über 400MB/s, da wurden direkt die beiden Bits der Zellen beschrieben und der Trick mit dem ersten Bit nicht mehr angewendet, da die FW offenbar erkannt hat, dass die SSDs komplett beschrieben wird. Man kann bei der also obendrein nie sicher sein, welche der beiden Betriebsmodie die FW gerade ausgewählt hat!

Wieso OCZ das Ergebnis nicht nachvollziehen kann? Die wollen keine Internas preis gehen und nicht beschuldigt werden bei den Benchmarks zu schummeln. Wenn sie wirklich die beiden Bit normal beschreibt, schafft sie keine 500MB/s und wenn sie 500MB/s schafft, dann nicht über die volle Kapazität und nicht mal in dem Test bei OCZ selbst.
Mit zunehmendem Füllstand werden alle SSDs langsamer, das ist keine Eigenheit der Vertex4 und Vector, je voller SSDs werden ums so langsamer werden sie .... und zwar Alle.
So ein Unsinn! Wie man deutlich sieht, schreibt die 840 Pro über die ganze Nutzkapazität mit der gleichen Geschwindigkeit, wenn diese vorher auch frei war. Langsamer werden alle SSDs, wenn dem Controller die freien Pages ausgehen und er erst noch Blöcke löschen muss, andernfalls sollte das nicht passieren und es passiert bei guten SSDs auch nicht.
 
Bernd, schnellformatieren löst auch Trim aus.

Ja. Zuerst über die leere SSD schreiben und gleich danach über die volle.

Das hast Du hier schon mal für die 840 Pro gefragt und hier habe ich Dir diese gezeigt! Hast Du das überlesen, nach 5 Tagen schon vergessen oder traust Du Anand nicht?

Mein Gott, das ist ja schon ewig her. ;) Ich hatte das gar nicht geschnallt, weil oben in dem Bild "Sequential READ Speed" stand.

AnandTech | Samsung SSD 840 Pro (256GB) Review

"
Performance Over Time & TRIM

Over time SSDs can get into a fairly fragmented state, with pages distributed randomly all over the LBA range. TRIM and the naturally sequential nature of much client IO can help clean this up by forcing blocks to be recycled and as a result become less fragmented. Leaving as much free space as possible on your drive helps keep performance high (20% is a good number to shoot for), but it's always good to see how bad things can get before the GC/TRIM routines have a chance to operate. As always I filled all user addressible LBAs with data, wrote enough random data to the drive to fill the spare area and then some, then ran a single HD Tach pass to visualize how slow things got:"

Das fängt an in der Gegend von 10MB/s und bleibt zur Hälfte unter 50MB/s, Durchschnitt 57,5MB/s - abscheulich! Und das war die PRO!!! Die sind wohl zu feige für die Basic?!!! :lol:

(Solche Tests sind für (Datenbank-)Server wichtig. Mit dem Heimbetrieb hat das wenig zu tun, aber es sagt _mir_ etwas über die Firmware.)

Wie gesagt, TRIM war bei all diesen Tests eingeschaltet!
 
Zuletzt bearbeitet:
@BerndH Bilderquote entfernen.


Mit zunehmendem Füllstand werden alle SSDs langsamer, das ist keine Eigenheit der Vertex4 und Vector, je voller SSDs werden ums so langsamer werden sie .... und zwar Alle.
Vergleich den Screenshot damit, wie sich alle anderen SSDs verhalten und sag mir dann bitte, wieso sich "alle" SSDs so verhalten wie die Vertex 4.

Und was bedeutet hier "ohne TRIM"?!
Ohne TRIM bedeutet ohne TRIM. Während des Tests wird kein TRIM-Befehl ausgelöst.

Wenn ich eine SSD richtig leiden sehen wollte, dann würde ich ein ganz einfaches Programm schreiben, das die SSD kontinuierlich vollständig füllt und nach jedem GB die Uhrzeit protokolliert und das Programm dann mehrmals nacheinander Starten - und man könnte es auch parallel laufen lassen. Da kommt Freude auf.
Dann mach doch mal. Worte gibt es von dir genug, nur die Taten lassen auf sich warten. Wenn du mir zeigen (beweisen, untermauern - am besten mit Fakten!) kannst, warum deine Methode besser ist als meine, werde ich sie gerne übernehmen. Solange bleibe ich bei dem, was sich bewährt hat.

Du meinst 33%, denn es sind zwar 50% mehr Daten in einer Zelle (3 statt 2 Bits)
Ich habe von SLC -> MLC gesprochen. Bei MLC -> TLC hast du recht.
 
Und was bedeutet hier "ohne TRIM"?! Ist TRIM im Betriebssystem deaktiviert? Wenn ich eine SSD kontinuierlich - mit Videos - fülle, dann wird auch niemals getrimmt. Insofern wäre "ohne TRIM" in der Überschrift stark irreführend, um nicht zu sagen ...

Was ohne TRIM bedeutet, und dass das SSD gerade nicht nur (seq.) mit Videos beschrieben wurde, steht doch im Artikel.

Zitat: "Nach einer zweistündigen Belastung mit Iometer (4K random write, QD 64) sinkt die durchschnittliche Schreibrate auf bescheidene xx MB/s (2. Screenshot). Durch die sequenziellen Schreibvorgänge des HDTach-Benchmarks wird allerdings offenbar die Garbage-Collection aktiv, sodass das Laufwerk nach einem zweiten HDTach-Durchlauf wieder auf dem Ausgangsniveau ist (3. Screenshot). Das ist gut, denn zwischenzeitlich wurde kein TRIM-Befehl ausgelöst."
 
Was ohne TRIM bedeutet, und dass das SSD gerade nicht nur (seq.) mit Videos beschrieben wurde, steht doch im Artikel.

Zitat: "Nach einer zweistündigen Belastung mit Iometer (4K random write, QD 64) sinkt die durchschnittliche Schreibrate auf bescheidene xx MB/s (2. Screenshot). Durch die sequenziellen Schreibvorgänge des HDTach-Benchmarks wird allerdings offenbar die Garbage-Collection aktiv, sodass das Laufwerk nach einem zweiten HDTach-Durchlauf wieder auf dem Ausgangsniveau ist (3. Screenshot). Das ist gut, denn zwischenzeitlich wurde kein TRIM-Befehl ausgelöst."

Was macht Iometer? Genaue Kenntnisse des Lesers darf man nicht voraussetzen. Löscht das zwischenzeitlich?
"...sodass das Laufwerk nach einem zweiten HDTach-Durchlauf wieder auf dem Ausgangsniveau ist" Wie kann das sein? Löscht HDTach? Auf einer komplett vollen SSD kann keine GC der Welt irgend etwas ausrichten! Wenn danach sehr langsam geschrieben würde, könnte der Reservebereich etwas helfen.

"und dass das SSD gerade nicht nur (seq.) mit Videos beschrieben wurde, steht doch im Artikel." Dann ist das ein Schönwettertest - reine Gefälligkeit gegenüber dem Hersteller. Es gibt nun mal Leute, die ihre Platten komplett mit (Überwachungs-)Videos voll schreiben und die dann nach einiger Zeit einfach wieder ohne Löschung überschreiben. Wenn die Videos von etlichen Kameras gleichzeitig hochauflösend kommen, dann könnte auch eine Datenrate von einigen hundert MB/s erreicht werden - oder?
 
Zuletzt bearbeitet:
Was macht Iometer? Genaue Kenntnisse des Lesers darf man nicht voraussetzen.
Alle Informationen über Iometer sind frei zugänglich. Der uninformierte Leser hat alle Möglichkeiten, sich selbst in Kenntnis zu setzen.


Ich fordere dich außerdem nochmal auf, den Bilderquote auf der vorherigen Seite zu entfernen.
 
Zuletzt bearbeitet:
Mal eine Frage zu SSDs die eine 256-Bit AES-Verschlüsselung anbieten - wie muss ich mir das vorstellen, kann dann wirklich niemand außer ich auf die Daten zugreifen, wenn man das Passwort nicht kennt? Also auch wenn ich die SSD ausbaue und an einen anderen PC anschließe, kann ich nicht auf die Daten zugreifen, oder wie muss ich mir das vorstellen? Kannte sowas bisher mit BIOS + HDD Passwort, aber das ist ja nur für den PC im eingebauten Zustand beim booten, oder verwechsel ich gerade etwas gewaltig?
 
"Kommt drauf an."

Die meisten SSDs verschlüsseln den AES-Schlüssel mit dem ATA-Passwort, sodass die Geschichte schon recht sicher ist. Bei guter Implementierung steht diese Lösung einer Software-Lösung wie TrueCrypt in wenig nach. (Bietet aber den Vorteil absoluter Transparenz)
 
Alle Informationen über Iometer sind frei zugänglich. Der uninformierte Leser hat alle Möglichkeiten, sich selbst in Kenntnis zu setzen.

83 Seiten Dokumentation, diverse Parameter, die in den Tests niemals aufgeführt werden...
So sind die Tests für mich in keiner Weise aussagefähig - vorsichtig ausgedrückt. So könnte der Tester selbst - bestenfalls - genau verstehen, was getestet wurde.
 
Zuletzt bearbeitet:
Nicht explizit genannte Einstellungen entsprechen der Standardeinstellung für den jeweiligen Parameter. Der Test lässt sich vollständig nachvollziehen.

Iometer ist aber nicht das Thema dieses Threads.
 
Zuletzt bearbeitet:
"Kommt drauf an."

Die meisten SSDs verschlüsseln den AES-Schlüssel mit dem ATA-Passwort, sodass die Geschichte schon recht sicher ist. Bei guter Implementierung steht diese Lösung einer Software-Lösung wie TrueCrypt in wenig nach. (Bietet aber den Vorteil absoluter Transparenz)

Ok Danke .Also wie genau muss ich mir das vorstellen - ich aktivere die Verschlüsselung im BIOS? und dann kann niemand außer mir der das Passwort kennt auf die Daten zugreifen? Auch wenn ich die SSD wo anders anbaue, wie wird dann die Partition angezeigt, also "RAW" oder "Nicht Partitioniert"? Hab bisher nur mit BitLocker und TrueCrypt gearbeitet, wie das bei der Hardwareverschlüsselung ablaufen soll hab ich noch nicht so richtig verstanden.
 
Ok Danke .Also wie genau muss ich mir das vorstellen - ich aktivere die Verschlüsselung im BIOS?
Ja. Wobei fast kein Desktop-Board die Option bietet, ein ATA-Passwort zu setzen. Das findet man meistens nur in Notebooks.

Auch wenn ich die SSD wo anders anbaue, wie wird dann die Partition angezeigt, also "RAW" oder "Nicht Partitioniert"? Hab bisher nur mit BitLocker und TrueCrypt gearbeitet, wie das bei der Hardwareverschlüsselung ablaufen soll hab ich noch nicht so richtig verstanden.
Wenn ein ATA-Passwort gesetzt ist, kommt schon beim Starten des Rechners (bevor das Betriebssystem geladen wird) eine Passwortabfrage. Die SSD gibt die Daten erst frei, wenn das korrekte Passwort eingegeben wurde.

Die Verschlüsselung arbeitet transparent und ist immer aktiv. Der AES-Schlüssel ist "irgendwo" gespeichert (am besten direkt im Controller, weil er dort kaum auszulesen ist, außer mit enormen technischen Aufwand). Wenn ein ATA-Passwort gesetzt ist, wird der AES-Schlüssel mit diesem Passwort verschlüsselt. Der richtige AES-Schlüssel wird dann nur freigegeben, wenn das korrekte ATA-Passwort eingegeben wird.

Wenn kein/ein falsches Passwort eingegeben wird, kann man mit der SSD nichts machen. Sie wird dann gar nicht erkannt. Eventuell ist sogar Secure Erase deaktiviert, sodass man die SSD nur wegwerfen (oder zum Hersteller einschicken) kann, wenn man das Passwort vergessen hat.

Die konkrete Implementation ist allerdings von Laufwerk zu Laufwerk unterschiedlich.
 
Besten Dank für die Infos :)
 
Dann mach doch mal. Worte gibt es von dir genug, nur die Taten lassen auf sich warten. Wenn du mir zeigen (beweisen, untermauern - am besten mit Fakten!) kannst, warum deine Methode besser ist als meine, werde ich sie gerne übernehmen. Solange bleibe ich bei dem, was sich bewährt hat.

Dann müsste ich extra ein Testsystem auf machen und mir einen Cobol-Compiler besorgen. :fresse:

Einfach h2testw mehrmals hintereinander (und parallel) reicht schon. Noch schöner wäre natürlich eine durch 4 teilbare Blockgröße plus 1. Auch mal in kleineren Abschnitten. Oder Ordner kopieren. Und zwischendurch nicht löschen. Das versteht jeder. Leider habe ich keine SSD "übrig" für solche Zwecke.
 
Dann müsste ich extra ein Testsystem auf machen und mir einen Cobol-Compiler besorgen. :fresse:
So ist das (L)eben. Auch ich verbringe viel Zeit damit, mir Tests zu überlegen und diese durchzuführen.

Einfach h2testw mehrmals hintereinander (und parallel) reicht schon. Noch schöner wäre natürlich eine durch 4 teilbare Blockgröße plus 1. Auch mal in kleineren Abschnitten. Oder Ordner kopieren. Und zwischendurch nicht löschen. Das versteht jeder.
Dann mach das doch mal. Mit Interpretation der Ergebnisse und vergleich zu meiner Methode.
Behauptungen aufstellen kann jeder. Es ist nicht meine Aufgabe als Redakteur, jede Messmethode die sich irgendjemand ausdenkt, anzuwenden. Ich erkenne keinen offensichtlichen Vorteil deiner Methode, also obliegt es dir, mich zu überzeugen. Mit Fakten. (Btw: Ordner kopieren versteht jeder? Ich würde mal behaupten, dass die wenigsten das komplette NTFS Dateisystem [oder ein beliebiges anderes] im Detail verstehen - nur als Beispiel. HDTach und Iometer arbeiten (bei mir) ohne Dateisystem.)

Leider habe ich keine SSD "übrig" für solche Zwecke.
Ich kann warten.

Aber auch für diese Diskussion ist das hier der falsche Thread. Das habe ich in letzter Zeit ziemlich oft gesagt, also werde ich in OT in diesem Thread in Zukunft kommentarlos entfernen.
 
Zuletzt bearbeitet:
Ich hatte das gar nicht geschnallt, weil oben in dem Bild "Sequential READ Speed" stand.
...Das fängt an in der Gegend von 10MB/s und bleibt zur Hälfte unter 50MB/s, Durchschnitt 57,5MB/s - abscheulich!

Das hatte wir auch schon, am 21.03.2013, vor 5 Tagen also. Mein Gott, das ist ja schon ewig her. ;)

Vergleich den Screenshot damit, wie sich alle anderen SSDs verhalten und sag mir dann bitte, wieso sich "alle" SSDs so verhalten wie die Vertex 4.
Im Alltag werden SSDs langsamer, wenn sie recht voll sind, aber nicht in den Tests. Das ist klar das Ergebnis der Methode von OCZ um gute Schreibraten zu erzielen und das da bei 50% was passiert, sieht man sogar an der Kurve der Leserate, die im zweiten Test ab 50% geringer wird. Leider ist nicht klar, ob das Lesen vor dem Schreiben passiert ist oder danach.

Ich habe von SLC -> MLC gesprochen. Bei MLC -> TLC hast du recht.
Sorry, dann hatte ich das da falsch verstanden. Aber man sieht daran, dass die Hersteller beim Wechsel auf 16LC (also 4 Bit pro Zelle) nur noch 25% der Zellen einsparen, aber eine noch komplexere Elektronik benötigen werden (solange da nicht gewaltige Fortschritte gemacht werden) und daher somit kaum so bald damit zu rechnen sein wird.
Was macht Iometer?
IOMeter ist OpenSource, schau Dir den Quellcode also einfach an und dann weißt Du es vermutlich besser als alle anderen hier im Forum. :cool:

Genaue Kenntnisse des Lesers darf man nicht voraussetzen.
Bei manchen Lesern darf man wirklich nichts voraussetzen, das ist schon klar. Das sie aber wenigsten mal genauer lesen was geschrieben wird, darauf darf man doch wohl wenigsten hoffen, oder?
"...sodass das Laufwerk nach einem zweiten HDTach-Durchlauf wieder auf dem Ausgangsniveau ist" Wie kann das sein? Löscht HDTach?
Benchmarks löschen nur selten, aber es ist kein Wunder, dass die Daten nach dem seq. Beschreiben der ganzen Kapazität dann schneller wieder überschrieben werden können, denn diese sind ja danach anders im Flash angeordnet als nach dem intensiven Random Schreiben mit IOMeter. Die volle Geschwindigkeit ist es aber wohl nicht, nur begrenzt HDTach eben, so dass alle über 450MB/s halt gleich schnell aussieht (obendrein begrenzt das SATA Interface natürlich auch, was die NANDs wirklich schaffen könnten, kann man schwer sagen, wenn diese jenseits des Limits des Interfaces von etwa über 500MB/s liegen, denn Schreiben hat mehr Overhead als lesen).
Auf einer komplett vollen SSD kann keine GC der Welt irgend etwas ausrichten!
Auch das stimmt nicht und auch darüber habe ich hier schon geschrieben. Vergiss nichts, voll kann immer nur die nutzbare Kapazität sein, nie aber die komplette NAND Kapazität und die ist immer mindestens so um kanpp 7% größer!
"und dass das SSD gerade nicht nur (seq.) mit Videos beschrieben wurde, steht doch im Artikel." Dann ist das ein Schönwettertest - reine Gefälligkeit gegenüber dem Hersteller.
Im Gegenteil, denn das sequentielle Schreiben kommt der Performance doch entgegen und selbst wenn da nun nicht und ein Programm große seq. Datenvolumen ablegt, so ist das bei weitem nicht so schlimm für die Performance wie andauernde 4k Random Write mit hoher QD auf einer schon vollen SSD, was nun wirklich den Worst-Case darstellt.

Da von einem Schönwettertest zu reden ist völlig daneben.
Mal eine Frage zu SSDs die eine 256-Bit AES-Verschlüsselung anbieten - wie muss ich mir das vorstellen, kann dann wirklich niemand außer ich auf die Daten zugreifen, wenn man das Passwort nicht kennt?
Naja, von den Backdoors mal abgesehen, kann da niemand drauf zugreifen, sofern ein User Passwort für die Platte vergeben wurde. Mit dem Masterpasswort sollte man diese zwar entschlüsseln können, aber nur unter dem Komplettverlust aller Daten, da wird dann eben ein Secure Erease gemacht oder der Schlüssel getauscht.

Kannte sowas bisher mit BIOS + HDD Passwort, aber das ist ja nur für den PC im eingebauten Zustand beim booten, oder verwechsel ich gerade etwas gewaltig?
Genau dieses HDD Passwort wird als Freigabe des Schlüssels oder zur Erzeugung des Schlüssels verwenden, je nachdem wie das implementiert ist (bei Sandforce erstes, bei den anderen dürfte es auch so sein, denn bei zweitem lassen sich ja keine Backupdoors einbauen und die US Bestimmungen verlangen diese ausdrücklich).

Vergiss nicht, man darf ja auch nicht mit einem Verschlüsselten Datenträger in die USA einreise und sich weigern das Passwort rauszugeben, dann geht man in den Knast und was passiert wohl derweil mit einem Datenträger?

Die meisten SSDs verschlüsseln den AES-Schlüssel mit dem ATA-Passwort, sodass die Geschichte schon recht sicher ist. Bei guter Implementierung steht diese Lösung einer Software-Lösung wie TrueCrypt in wenig nach.
Bei der Implementierung liegt genau der Hase im Pfeffer, die kennt man eben nicht und genau deshalb vertraue ich bei Verschlüsselung nur auf OpenSource, dann da kann jeder den Quellcode einsehen und Backdoors können gefunden werden. In Deutschland wird sowas immer noch massiv unterschätzt und deshalb ist der Schaden den die deutsche Wirtschaft durch Spionage erleidet auch so gewaltig, denn alle denken dabei nur an 007 und Kino, halten das aber in der Realität für abwegig. Dabei gibt es gerade in Deutschland eine Menge Know-How auf das viele ausländische Firmen sehr, sehr scharf sind und die Geheimdienste diesen heute vor allem der Beschaffung von genau solchen Daten (und natürlich von Wirtschaftsdaten, gerade auch den Angeboten bei internationalen Ausschreibungen).

Die Verschlüsselung arbeitet transparent und ist immer aktiv. Der AES-Schlüssel ist "irgendwo" gespeichert (am besten direkt im Controller, weil er dort kaum auszulesen ist, außer mit enormen technischen Aufwand).
S.o. besser ist eine Implementierung, bei der der Schlüssel sich aus dem Passwort ergibt, z.B. aus einem Hash über Passwort und einem zufälligen Teil der intern gespeichert wird, denn damit sind Backdoors schwerer zu realisieren als wenn der Schlüssel komplett im Controller steckt.
Wenn ein ATA-Passwort gesetzt ist, wird der AES-Schlüssel mit diesem Passwort verschlüsselt. Der richtige AES-Schlüssel wird dann nur freigegeben, wenn das korrekte ATA-Passwort eingegeben wird.
Sicher? Das Passwort kann auch einfach nur als Schlüssel zum Safe dienen, der den Verschlüsselungsschlüssel enthält.

Wenn kein/ein falsches Passwort eingegeben wird, kann man mit der SSD nichts machen. Sie wird dann gar nicht erkannt. Eventuell ist sogar Secure Erase deaktiviert, sodass man die SSD nur wegwerfen (oder zum Hersteller einschicken) kann, wenn man das Passwort vergessen hat.
Eigentlich sollte jede Platte durch das Masterpasswort zu entsperren sein, halt unter dem Totalverlust der Daten aber zur Rettung der Hardware.

Dann müsste ich extra ein Testsystem auf machen und mir einen Cobol-Compiler besorgen. :fresse:
Von nichts kommt nicht und ob Cobol da die passende Sprache ist? Ich würde auf irgendwas aus der C Familien (C, C++ oder C#) setzen, dass macht die Sache leichter.

Einfach h2testw mehrmals hintereinander (und parallel) reicht schon.
h2testw ist kein Benchmark sondern dazu gedacht die Datenintegrität zu prüfen, die Anzeige der Datentransferraten ist nur ein Nebenprodukt und nicht sehr genau.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh