Hardware Raid 5 mit Verschlüsselung Truecrypt ?

@Macer89: Das stimmt leider nicht. RC5-72 arbeitet ebenso mit Multi-GPU-Streams, die verlinkten Benchmarks auf der Seite sind aber leider tatsächlich nicht aktuell (aktuell ist man wieder um den Faktor 1,5 schneller geworden). Alles weitere zum Projekt: ->Link.
Wie man hier sieht sind die GPUs aktuellen CPUs um den Faktor 100 bis 1000 überlegen.

edit: Für 96 mögliche Zeichen (Groß-/Kleinbuchstaben, Zahlen, Sonderzeichen), 15 Zeichen Länge und eine Geschwindigkeit von 3.451.621.120 Kombinationen/Sekunde ergibt das eine Rechendauer von 4,98*10^12 Jahren. Selbst wenn der Schlüssel nach 1‰ der möglichen Kombinationen gefunden wird, brauchen aktuelle Maschinen immer noch so lange, wie die Erde existiert! Cloud-Computing ist auch nur der Zusammenschluss von vielen einzelnen Recheneinheiten. Wenn du also eine Mega-Cloud von 1000 ATI Radeon HD 5970 X2 nimmst, sind immer noch mehrere Millionen Jahre Rechenzeit notwendig ;)
15 zufällig gewählte Zeichen sind sicher (wenn Algorithmus und Software sicher sind) - ob der Anwender diese Tatsache sicher umsetzt, steht auf einem ganz anderen Blatt ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das mag schon sein, dass es Leute geben soll die den Quellcode nicht lesen können und auch Anwender die auf fertige Binaries zugreifen, jedem das seine. Es gibt aber auch welche die den Quellcode verstehen und sich die Binaries selbst kompilieren ;)
Keine Ahnung ob Hersteller solcher Tools Master-Keys oder Hintertüren eingebaut haben, vermutlich hast du auch recht und alles ist in Ordnung, aber das Risiko ist es mir nicht wert.
Die Äußerungen finde ich sehr lächerlich. Die meisten TC-Anwender werden sich nur die Binaries herunterladen und davon wird weit über die Hälfte nicht einmal Checksummen/Keys verifizieren.

Alleine schon aus praktischen Gründen: TC ist primär für Windows-Systeme gedacht. Würde man TC selber bauen, hätte man keinen signierten Treiber. Hier gibt es zwar auch Hacks, diese würden aber Schutzfunktionen deaktivieren - passt also nicht mit dem Sicherheitsgedanken zusammen.

Worum es mir geht, weswegen ich ständig wenn jemand bei Sicherheitssoftware auf OpenSource verweist (gerne mit dem Hinweis "Das Risiko ist geringer") ist einfach: In meinen Augen haben die Leute keine Ahnung und fühlen sich in falscher Sicherheit (Gefährliches Halbwissen!). Sicherheit hat vor allem etwas mit Wissen zu tun. Wenn jemand nicht weiß, wie etwas, was ihm Sicherheit bringen soll, funktioniert, dann ist die Chance verdammt groß, dass er es falsch bedient und damit unsicherer ist als ohne.

Wer von irgendeiner Software Binaries einsetzt, muss dem Hersteller dieser Binary 100% vertrauen. Ein OpenSource-Vorteil ist damit dahin. Somit ist das TC-Binary mit dem BitLocker-Binary (oder bspw. PGP WDE) in Sachen Vertrauenswürdigkeit gleichgesetzt.

Nur wenn ihr wirklich den Quellcode prüft und nur eigene Binaries aus zuvor überprüftem Quellcode erzeugt, nur dann könnt ihr dieses Argument "...sicherer, weil OpenSource" für euch verbuchen.

Klar kannst man auch kurze Passwörter verwenden, aber egal wie stark ein Algorithmus auch sein mag, die größte Schwäche liegt immer im Passwort.
Sicherheit hat ihren Preis, wenn man Wert auf hohe Sicherheit der Daten legt muss man sich das "lange" Passwort zwingend merken, ohne Notiz, denn nur im Kopf ist es sicher :)
Auch das ist pauschal falsch.
Ein sicheres Kennwort schlägt immer ein längeres unsicheres Kennwort. Zu glauben, die Länge alleine wäre ausschlaggebend ist ein fataler Irrglaube.

Desweiteren: Du solltest dich einmal informieren, wie die diversen Programme die Kennwörter verwenden. So macht es vielfach keinen Sinn einen 128bit Schlüssel mit einem Kennwört >128bit zu erzeugen.

Und wie ich schon erwähnte: Längere Kennwörter bringen oftmals Nachteile, weil
  • um die sich noch zu merken, die Kennwörter zu einfach werden. Überspitzt: Die stehen bald wieder im Wörterbuch...
  • dazu tendiert wird, sich diese irgendwo zu notieren. Damit schafft man ein weiteres Glied in der Kette. Oftmals das Schwächste...

...auch kann ein langes Kennwort keinerlei Algorithmusschwächen kompensieren.

Wer also wirklich denkt, ein langes Kennwort böte mehr Schutz als ein gutes 8-12 stelliges Kennwort, der hat wichtige Dinge nicht verstanden.

Zwischenfrage an dich:
Reicht es deiner Meinung nach aus eine Festplatte einmal vollständig zu überschreiben, um die zuvor gespeicherten Daten irreversibel zu entfernen?


Wenn du oder irgendjemand hier im Forum jedoch weis wie das "on the fly" funktioniert, dann wär eine kurze Anleitung dazu ziemlich cool.
Siehe Seite 1. Dort erwähnte ich extcv | Download extcv software for free at SourceForge.net

Denkst du nicht dass es längt findige Wahnsinnige geschafft hätten eine Hintertür aufzudecken, in closed source?
Und vor allem, was meinst du was für Schadensersatzklagen auf MS zukommen würden. Grad in den USA...
Hier empfiehlt es sich leider einmal den Lizenzvertrag zu studieren. Microsoft schließt jegliche Haftung die durch die Verwendung seiner Produkte entstehen könnten aus. Ein heute völlig üblicher Vorgang in den USA (übrigens ein Grund, weswegen deutsche Firmen derzeit nicht mit US Cloudanbietern zusammen arbeiten dürfen: Cloud und Recht:). Es ist auch wichtig zu sehen, welche Wörter Microsoft genau verwendet: So ist immer nur die Rede davon, dass BitLocker eben den FIPS 140-2 erfüllt. Dies wird durch entsprechende Stellen überprüft und bescheinigt. Sollte sich nun herausstellen, dass der Standard unzureichend ist oder dem doch nicht so ist, kannst du dich wenn überhaupt an diese nationale Einrichtung wenden...

Sich also deshalb darauf zu verlassen, halte ich für falsch.
Ich selber würde aber trotzdem auf BitLocker vertrauen: Microsoft kann es sich in meinen Augen als Firma nicht leisten, dass es hier Probleme gibt. Und wenn ich darauf vertraue, dass sich Leute TC und Co. anschauen, dann sollte ich gleiches Vertrauen auch darin haben, dass Microsofts BitLocker bereits ausgiebig durch Dritte überprüft wurde und permanent wird.

Natürlich ist Glauben so eine Sache. Man sollte sich schon bewusst sein, dass man hier hier eben vertrauen muss. Wenn Vertrauen nicht in Frage kommt, muss man eben andere Wege beschreiten (allerdings ist da neben Selbermachen imho kaum noch ein anderer Weg...)


Was Komfort in Verbindung mit Sicherheit angeht, ist BL das überlegenere Mittel der Wahl. Sofern ein TPM-Modul an Board ist.
Oder kann TC das mittlerweile auch?
Volle Zustimmung. Wenn TPM vorhanden ist, schwöre ich auf BitLocker. Ansonsten nicht, weil eine PBA via USB-Stick für mich zu unsicher ist. Etwas haben ist schön und gut... aber das kann man entwenden. Etwas wissen (Kennwort), halte ich da für sicherer.

Die Seite zeigt zwar gut auf wie sich der Rechenaufwand im Vergleich zur Passwortlänge verhält, um ein ungefähres Gefühl für ein sicheres Passwort zu bekommen, aber leider ist es nicht ganz aktuell.
Denn immerhin werden nur die Berechnungsdauern mittels CPU dargestellt, jene mit (Multi-)GPUs oder wie immer häufiger Berechnungen mittels Cloud werden dort außer Acht gelassen und diese sind weitaus effizienter.
Vergesse nicht, dass die meisten Tests lediglich ein Kennwort errechnen.

Hier wäre es aber notwendig, dass permanent gegen die Festplatte geprüft werden müsste. Das bremst enorm.
 
Vergesse nicht, dass die meisten Tests lediglich ein Kennwort errechnen.

Hier wäre es aber notwendig, dass permanent gegen die Festplatte geprüft werden müsste. Das bremst enorm.
Meine volle Zustimmung, das hätte der Autor der Seite auch noch erwähnen müssen...

edit: Mich wundert doch sehr, dass die Autoren von TC eine Passwortlänge von 20 Zeichen anfordern - Sinn macht das, wie du schön ausgeführt hast, nämlich keinen...
 
Zuletzt bearbeitet:
Und der es ganz sicher haben will nimmt sich ein Passwort mit Sonderzeichen und eine Schlüsseldatei :)
 
@whistlor
Stimm dir eigentlich vollständig zu. Aber ich finde, was jetzt etwas komisch rüber kommt, ist, dass lange Passwörter keinen Sinn machen. Dass das Passwort gut sein muss, versteht sich, finde ich, von selbst. Aber ein PW mit 8 Sonderzeichen ist doch nicht wirklich sicher, wenn man denn schon meint, seine Daten verschlüsseln zu müssen. 8 Zeichen sind dann doch "recht schnell" entschlüsselt. Meine PWs gehen so in die Richtung "12ma(h$m1r^^P@ULIN3", nur mit etwas weniger Sinn. Auswendig wissen ist einfach Plicht. Ich hatte meins für ein 1/4 Jahr notiert und jetzt kenn ich es und muss es auch nicht mehr aufschreiben.

Aber bei den immer wieder kehrenden Diskussionen, wer welcher Software vertraut muss ich schon immer ein Bisschen lächeln. Ich mein, jene die sich hier in Foren die MEINUNGEN von irgendwelchen Personen einholen, haben sicher keine Daten von nationaler Wichtigkeit auf dem PC. Einrichtungen wie Kripo oder Zoll versuchen normal erst gar nicht solche Daten zu entschlüsseln, da es einfach ein Ding der Unmöglichkeit ist. Bei Vergehen mit "geringerem Ausmaß" wie Copyrightverletzungen, Drogendelikten, Schwarzarbeit usw sind einfach gar nicht die Möglichkeiten vorhanden um die fülle an PCs zu bearbeiten. Das wird einfach nicht gemacht. Eventuell wird vllt auf die schnelle eine Brut-Force-Methode mit den wichtigsten PW-Kombinationen drüber gejagt und danch stehen die PCs, je nach dem, für 3-12 Monate in einem Lagerraum. Sollten je Hintertürchen in der Software genützt werden, kommt das eh ans Licht und wenn nicht dann ist das eh den Geheimdiensten vorbehalten, welche sich für unsereins eh nicht interessiert. Hier sollte man dann halt nicht die arme Sau sein die als erstes dran glauben muss :)

Und Thema "Cloud-Computing", das kommt bei mir schlicht und einfach gar nicht erst in Frage. Diese Bequemlichkeit brauch ich nicht. Da informier ich mich nicht mal, da es mir egal ist was die Anbieter versprechen und behaupten. Wenn überhaupt dann würd ich da nur verschlüsselte Daten hochladen.
 
Zuletzt bearbeitet:
Die Äußerungen finde ich sehr lächerlich. Die meisten TC-Anwender werden sich nur die Binaries herunterladen und davon wird weit über die Hälfte nicht einmal Checksummen/Keys verifizieren.

Ich widerspreche dir auch nicht in deiner Aussage, dass es die meisten so machen, aber halt nicht alle. Nur weil die meisten Windows als OS verwenden, gibt es dennoch Leute die das nicht tun.

Auch das ist pauschal falsch.
Ein sicheres Kennwort schlägt immer ein längeres unsicheres Kennwort. Zu glauben, die Länge alleine wäre ausschlaggebend ist ein fataler Irrglaube.

Hier habe ich mich wohl etwas falsch ausgedrückt. Wenn ich von einem langem Passwort spreche, dann natürlich ein kryptischer Mix aus Groß-, Kleinbuchstaben, Zahlen und Sonderzeichen. Logisch, dass "4&kErv56§+B" mehr zu bieten hat als "meinpasswortistjetztsolangdasseskeinerkennt"...
Wer sich lange komplexe Kombinationen nicht merken kann, muss diese ja auch nicht verwenden, dann lieber etwas kürzer und dafür klebt keine Notiz mit Passwort am Monitor.
Dass ein langes Passwort keine Algorithmus-Schwächen kompensieren kann dürfte wohl hoffentlich auch jedem klar sein, das habe ich aber auch nie behauptet.

Desweiteren: Du solltest dich einmal informieren, wie die diversen Programme die Kennwörter verwenden. So macht es vielfach keinen Sinn einen 128bit Schlüssel mit einem Kennwört >128bit zu erzeugen.

Persönlich verwende ich nur Algorithmen mit einer Schlüssellänge von mindestens 256-Bit und damit macht es durchaus Sinn.

Zwischenfrage an dich:
Reicht es deiner Meinung nach aus eine Festplatte einmal vollständig zu überschreiben, um die zuvor gespeicherten Daten irreversibel zu entfernen?
Nein. Die Guttmann Methode schreibt 35x überschreiben vor, um sicherzustellen, dass keine Daten rekonstruiert werden können. Wobei es hier auch Spezialfälle gibt. Allerdings stellt sich die Frage welchen Wert die Daten besitzen und wieviel Zeit bzw. Geld man investieren will um die "gelöschten" Daten wiederherzustellen.
Ich persönlich sehe 7x bei HDDs mit Daten und 0-3x bei neuen HDDs als ausreichend, da der Wert meiner Daten keinen exorbitant hohen Wiederherstellungsaufwand rechtfertigt.

Danke!
Habe aber leider gelesen, dass es nicht im Zusammenspiel mit Hidden-Volumes funktioniert. Wenn man sich den Aufbau auf der TC-Homepage ansieht auch verständlich. Ist wohl auch der Grund warum diese Funktion in TC (noch) nicht implementiert wurde.
Für normale Volumes ist das Tool sicher brauchbar. Hast du damit schon Erfahrungen gemacht? Höre davon zum ersten Mal.

EDIT:
@ Poddy
Das Cloud-Computing war nicht auf das Ablegen der verschlüsselten Daten bezogen, sondern auf das Ausführen der Software um den Brute-Force Angriff auf ein Passwort zu realisieren ;)
 
Zuletzt bearbeitet:
@whistlor
Stimm dir eigentlich vollständig zu. Aber ich finde, was jetzt etwas komisch rüber kommt, ist, dass lange Passwörter keinen Sinn machen. Dass das Passwort gut sein muss, versteht sich, finde ich, von selbst. Aber ein PW mit 8 Sonderzeichen ist doch nicht wirklich sicher, wenn man denn schon meint, seine Daten verschlüsseln zu müssen. 8 Zeichen sind dann doch "recht schnell" entschlüsselt. Meine PWs gehen so in die Richtung "12ma(h$m1r^^P@ULIN3", nur mit etwas weniger Sinn. Auswendig wissen ist einfach Plicht. Ich hatte meins für ein 1/4 Jahr notiert und jetzt kenn ich es und muss es auch nicht mehr aufschreiben.
Schaue dir mal die Tabelle ganz unten an: Password Cracking: CPU-Powered : Harden Up: Can We Break Your Password With Our GPUs? - soviel zur Dauer.

Desto größer der Pool an möglicherweise verwendeten Zeichen, desto länger wird es dauern. Und hier reicht 8 schon locker...

Man sollte sich nur bewusst machen: Desto mehr ich über ein Kennwort weiß, umso schneller finde ich es. So kann ein gut gewählter Startpunkt einiges ausmachen ;)

Aber nochmals der Hinweis: Das sind mathematische Berechnungen. Dort fehlt, dass wenn wirklich der Zugang geknackt werden soll, jedes Kennwort auch tatsächlich geprüft werden muss. Diesen Faktor darf man bei der Betrachtung nicht ignorieren - er ist enorm.

Nein. Die Guttmann Methode schreibt 35x überschreiben vor, um sicherzustellen, dass keine Daten rekonstruiert werden können. Wobei es hier auch Spezialfälle gibt. Allerdings stellt sich die Frage welchen Wert die Daten besitzen und wieviel Zeit bzw. Geld man investieren will um die "gelöschten" Daten wiederherzustellen.
Ich persönlich sehe 7x bei HDDs mit Daten und 0-3x bei neuen HDDs als ausreichend, da der Wert meiner Daten keinen exorbitant hohen Wiederherstellungsaufwand rechtfertigt.
Dann bist du leider einem Mythos erlegen: Sicheres Löschen: Einmal überschreiben genügt | heise Security

Wer Uni-Zugang hat, sollte sich die Studie wirklich einmal reinziehen. Selbst die dort angesprochenen "Erfolge" waren nur deshalb möglich, weil man wusste wonach man wo zu suchen hat. Aber genau das Wissen fehlt mir in Wirklichkeit ;)


Habe aber leider gelesen, dass es nicht im Zusammenspiel mit Hidden-Volumes funktioniert. Wenn man sich den Aufbau auf der TC-Homepage ansieht auch verständlich. Ist wohl auch der Grund warum diese Funktion in TC (noch) nicht implementiert wurde.
Für normale Volumes ist das Tool sicher brauchbar. Hast du damit schon Erfahrungen gemacht? Höre davon zum ersten Mal.
Nur im Test. Mich begleiten da immer die Sorge, dass es zwar funktioniert, aber möglicherweise etwas verändert wurde, was bei zukünftigen Versionen plötzlich zu Problemen führt. Da wäre mir das Risiko also zu groß... ;)


P.s.: Hidden Volumen... glaubst du ernsthaft, dass wenn ich dir bereits vorwerfe, du hättest bestimmte Daten, dass ich dann von dir ablasse, weil du mir sagst "Da schau! Nichts..."? ;)

Diese Abstreitbarkeit wurde ja gerade wegen den Gesetzen in UK interessant. Aber: Wenn die dich einsperren, weil sie glauben du kennst das Kennwort... dann stören sie sich auch nicht daran, dass scheinbar nichts zu finden ist.

Insofern: Warum alles verkomplizieren, wenn es dir nichts bringt?
 
Danke für den heise-Link bzgl des Überschreibens, statt solchen Infos werden leider immer die Märchen weiterverbreitet (die ich bisher auch geglaubt habe).
Ansonsten hatte ich weiter oben schon die aktuellste Seite bezüglich Brute-Force-Angriffen und der Leistungsfähigkeit von GPUs verlinkt und kurz berechnet, was ein 15-stelliges PW wert ist ;)
 
Zuletzt bearbeitet:
Um mal wieder zum Thema zurückzukommen:
Wenn man ein verschlüsseltes Raid-Array erweitern möchte, kommt man (bis auf experimentelle Lösungen wie oben angesprochen) wohl nicht darum herum, das Array erst zu entschlüsseln, dann zu erweitern und danach wieder zu verschlüsseln.
Je nach Datenmenge ist das mit einem modernen System an einem Wochenende erledigt, was ich für vertretbar halte. Man erweitert sein Array ja auch nicht alle paar Monate.
 
Um mal wieder zum Thema zurückzukommen:
Wenn man ein verschlüsseltes Raid-Array erweitern möchte, kommt man (bis auf experimentelle Lösungen wie oben angesprochen) wohl nicht darum herum, das Array erst zu entschlüsseln, dann zu erweitern und danach wieder zu verschlüsseln.
Je nach Datenmenge ist das mit einem modernen System an einem Wochenende erledigt, was ich für vertretbar halte. Man erweitert sein Array ja auch nicht alle paar Monate.

Mit Truecrypt können NICHT System Partitionen NICHT entschlüsselt werden..
Wollte das nur nochmals sagen ;) Kann viel Ärger sparen...

Gruss Mete
 
Das kann sehr schwierig werden, da du für einen Fall der Erweiterung 2 Sicherheitskopien des Produktivsystems besitzen müsstest
- beim Erweitern des Systems gehen alle Daten verloren, deswegen musst du sie von Sicherheitskopie 1 wieder draufspielen
- Sicherheitskopie 2 bleibt im Schrank, da schließlich System+Sicherheitskopie beim Rückspielen der Sicherung abrauchen können
- Anschließend die gleiche Prozedur für die beiden Sicherheitskopien durchführen
Das gibt einen riesigen Aufwand...
 
Da muss man jetzt auch einmal die Kirche im Dorf lassen.

Wenn wir so penibel sind und wirklich mit zwei Sicherungen arbeiten, weil eine Sicherung im Gebrauch kaputt gehen könnte, dann sollten wir auch die finanziellen Mittel haben um beispielsweise ein Storage-System ausreichend groß zu planen. Wenn es dann nach 2-3j seine Grenzen erreicht hat, sollte das Geld vorhanden sein, um ein größeres neues Storage-System zu kaufen. Dann kann in Ruhe umgezogen werden.

Ein Zwischending wäre ansonsten einfach ein zweites RAID als Backup. Das sehe ich oft bei mittelständischen Unternehmen. Weil beide Storage-Systeme RAIDs sind, ist die Ausfallsicherheit gegeben, weshalb viele sich ein drittes Backup sparen (das Risiko ist also für sie vertretbar).

Dann gibt es hier auch noch ein Mittelweg: RAIDs schützen nicht vor Fehlern auf logischer Ebene. D.h. wenn man auch nur einmal im Monat eine echte Datensicherung erfolgen sollte...


Also: Es gibt keine "sichere" Erweiterung. Da garantiert niemand etwas - unabhängig ob man verschlüsselt oder nicht. Selbst wenn man eine Partition auf einem einzelnen Datenträger erweitern möchte empfehlen alle Tools "Sichern! Wir haben euch gewarnt..." ;)

Übrigens: Wir sprechen hier ständig von der Volumen-Erweiterung. Das muss man gar nicht. Angenommen wir haben ein RAID5 bestehend aus 3x1TB Platten, dann haben wir also ein Array von knapp 2TB. Da drinnen haben wir jetzt bspw. ein 2TB großes Volumen erzeugt. Wenn uns der Speicher irgendwann nicht mehr ausreicht und wir alle Platten durch 2TB große Platten ersetzt haben, steht uns insgesamt 4TB Array-Speicher zur Verfügung (wovon 2TB ja bereits für das bestehende Volumen verwendet werden). Wir können jetzt einfach aus dem restlichen Speicher ein weiteres 2TB Volumen erzeugen und müssen somit kein bestehendes Volumen anfassen...
 
dann sollten wir auch die finanziellen Mittel haben um beispielsweise ein Storage-System ausreichend groß zu planen
Was hat das bitteschön mit Backup zu tun? Das kannst du drehen und wenden, wie du willst, wenn du keine 1:1 Kopien deines Backups hast, dann sind dir die Daten nichts wert. Wie das Backup im Einzelnen aussieht, ist dir selbst überlassen, hauptsache es ist nicht verfügbar, denn das macht ein Backup aus ;)
Je mehr 1:1-Kopien du besitzt, desto sicherer sind sie. Eine Sicherung ist das Minimum, kann aber durch die Gefahr einer plötzlichen Spannungsspitze mitsamt dem Produktivsystem in einem Aufwasch kaputt gehen, wenn gerade eine Sicherung läuft. Und dann? Dann freut man sich, wenn man doch noch ein zweites Backup im Schrank oder ein drittes Backup online gespeichert hatte!

Und ein Backup benötigt man nicht nur für den Fall, dass bei der Volumen-Erweiterung was schief geht, sondern vielmehr für die ganz stinknormale Ausfallswahrscheinlichkeit einer HDD während des Betriebs/Anschaltens/Abschaltens.
 
Was hat das bitteschön mit Backup zu tun?
Ich bezog mich da auf
Das kann sehr schwierig werden, da du für einen Fall der Erweiterung 2 Sicherheitskopien des Produktivsystems besitzen müsstest
Wenn du grundsätzlich der Meinung bist, du müsstest zwei Kopien vorhalten, dann solltest du keinerlei Probleme haben. Dann kannst du einfach erweitern. Kommt es zu Problemen, dann hast du ja schließlich deine Backups.

Ich habe aber ehrlich gesagt noch nie ein privates RAID gesehen, wo es 1:1 Kopien von gab. Allenfalls wird man mal seine wichtigen Dokumente zusätzlich irgendwo sichern... und diesen Fall diskutieren wir ja hier.

Daher meine Schlussfolgerung: Wenn ich es mir leisten kann, drei 1:1 Kopien zu haben, dann kann ich auch gleich das System so planen, dass innerhalb der geplanten Lebenszeit ich nicht an die Grenzen stoße. Siehst du das anders?

Wie das Backup im Einzelnen aussieht, ist dir selbst überlassen, hauptsache es ist nicht verfügbar, denn das macht ein Backup aus ;)
Erkläre mir bitte kurz das nicht... Ironie?

Ansonsten stimme ich dir zu...
 
Das man es nicht benutzt, sprich es ist für das Rechnersystem nicht verfügbar.
Für dich natürlich schon, Griff in den Schrank und gut ist.
 
...achso. Diese Leute die zwar auf externe Platten sichern... aber diese bspw. permanent mitlaufen haben und sich dann wundern, dass wenn es ein Blitz geschafft hat, zu Besuch vorbei zu kommen, dass dann auch ihr Backup dahin ist :coolblue:

Funktioniert die Time Machine von Apple nicht genau so? Oh, das wird OT :asthanos:
 
Hallo,

könnt ihr mir sagen, wie lange das verschlüsseln eurer RAID5 Volumes ungefähr gedauert hat?

mfg
 
Es lag an dem Treiber des RAID Controllers.

Mit der aktualisierten Version ging es nun deutlich schneller. Mein 20TB Volume ist nun nach 1 Std bei 4%.

MfG Fabian
 
Da wird das Hardware-Raid5 (LSI 0750-8i) automatisch mit dem im TPM-Modul gespeicherten Schlüssel entsperrt, an die Daten kommt man nur per Windows-PW.
Kannst das bitte erklären wie du das machst?
 
Jetzt nicht ausfallend zu werden fällt mir vedammt schwer!
Er behauptet ja das der Raidcontroller die Daten mit den TPM verschlüsselt und nicht das "der Pc -> Bitlocker" sie verschlüsselt!
Wenn der Pc die Daten verschlüsselt ist ein SSD Cache ja auch für den Po weil der Controller die Daten ja nicht sieht?!
 
Ich wollte auch nochmal kurz zum Verstaendnis nachfragen:

Ich betreibe privat selbst nen Raid5 bestehend aus 5x3TB. Das Ganze haengt an nem Areca 1260 - funktioniert auch tadellos.
Wenn ich dieses Voloume nun mit TC verschluessle:

- Wuerde sowas 'on the fly' gehen?
- Liegt die TC-Last auf der CPU oder wird der Controller in irgendeiner Form damit belastet?

Grueße
 
@ Boy:
Software Verschlüsselung: die CPU verschlüsselt bei jedem Festplattenzugriff die Daten im Augenblick des Datenzugriffs, wenn auf die HDD geschrieben wird dann verschlüsselt die CPU, wenn gelesen wird dann entschlüsselt die CPU. Ist der PC ausgeschaltet sind demzufolge alle Daten auf der HDD verschlüsselt.
Das TPM Modul ist nur ein Zusatz zum Passwort, um Datenzugriff auf die HDD zu bekommen muss man ein Passwort eingeben UND das TPM Modul muss angeschlossen sein.
Die Daten einer verschlüsselten HDD, egal ob nun per Software oder per SED Hardware Festplattenverschlüsselung sind NIEMALS komplett entschlüsselt. Es wird IMMER bloss in Echtzeit das entschlüsselt was gerade gelesen wird.

@ p4n0:
siehe Antwort oben.
Die CPU berechnet alles beim Datenzugriff, der Controller hat damit nix zu tun.
Truecrypt hat auch einen eingebauten Benchmark welcher Dir anzeigt, wie schnell Deine CPU die verschiedenen Algorithmen ver- oder entschlüsseln kann.
Google mal ein bischen, bei vielen CPU Reviews ist auch mittlerweile ein Truecrypt Benchmark mit eingebaut.
Grober Anhaltspunkt: CPUs ohne AES-NI Erweiterung schaffen zwischen 200 und 800 MB/s. Wenn Deine CPU also schneller ist als der Datendurchsatz Deines Areca Controllers wirst Du keine Geschwindigkeitseinbußen bekommen, ist er langsamer wirst Du, gerade beim Kopieren großer Dateien, Geschwindigkeitseinbußen merken.
CPUs mit AES Erweiterung schaffen mehr als 2 GB/s, also mehr als jeder aktuelle Raidcontroller - der User wird keine Verluste spüren.

Verschlüsselung on-the-Fly:
Truecrypt kann seit der v6 glaube ich schon Festplatten nachträglich verschlüsseln, was aber verdammt lange braucht. Aber es geht.
 
der Controller hat damit nix zu tun.
Wieso steht bei meinen Controller das entweder die HDD oder der Controller die Daten ent/verschlüsselt?
gerade beim Kopieren großer Dateien, Geschwindigkeitseinbußen merken.
Ich würde gerne deshalb "SSD Cache" nehmen zu meinen Controller da packe ich eine SSD zu meinen Raid dazu nur gibt es Probleme weil der Controller keine Daten sieht sondern nur verschlüsselte Objekte?
 
Lass das mit irgend nem SSD Cache vor nem Controller.
Selbst wenn das irgendwie technisch moeglich waere - finger weg.

Nur nen zusaetzlicher Stoerenfried der dir dein Raid um die Ohren fliegen lassen kann.
Der Controller hat nen eigenen Cache - im besten Fall Gepuffert.

Gruß
 
Wieso steht bei meinen Controller das entweder die HDD oder der Controller die Daten ent/verschlüsselt?I

weisst Du was?
Ich hab keine Lust mehr Dir zu erläutern wieso Dein Controller keine Verschlüsselung beherrscht.
Zeig doch zur Abwechslung DU mal wo es steht dass er das angeblich kann, da bin ich mal gespannt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh