[Kaufberatung] SSD-Kaufberatung/-Informationsthread + Diskussion (Bitte lesen!)

einzig die 870 Evo wären noch brauchbar erhältlich.
Somit wäre ein Samsung Only Setup nicht mehr realisierbar..
Wieso? Die 870 EVO ist doch aktuell und lieferbar, in 4TB ist der preisliche Abstand zu MX500 prozentual auch geringer und wenn man sich die Preisentwicklung ansieht, so waren sie auch schon mal günstiger. Scheinbar müssen jetzt die Preise angehoben werden um zum Black Friday dann mehr Rabatt geben zu können. Es ist ja normal, dass die Preise steigen, sobald auch die Weihnachtssachen in den Läden auftauchen und dann meist im Februar wieder fallen, wenn auch das Geld ausgegeben ist, welches unter dem Baum lag.

Wie sieht es inzwischen mit den Samsung 990 Pro 2 und 4 TB aus, Kaufempfehlung oder nicht?
Warum sollte sie es nicht sein? Der bekannte FW Bug wurde behoben und die 4TB dürfte den gar nicht erst haben.

Cruical MX500 1,2 oder 4 TB als Datengrab müssten doch taugen?
Es gab mal Gerüchte die 2TB und 4TB wäre auf QLC NAND umgestellt worden. Weder die Produktseite der MX500 noch der Product Flyer (der die 4TB noch gar nicht erwähnt) sagen klar ob es TLC oder QLC NAND ist und Crucial hat schon andere Modelle von TLC auf QLC umgestellt, zumindest die P2 fällt mir da ein. Die hat in 2TB mit QLC eine TBW von 600TB, die MX500 2TB hat 700TB und die 4TB sogar nur 1000TB (1PB) und damit im Verhältnis wirklich wenig, so wenig das es auch mit QLC machbar wäre.

Ob es wirklich MX500 mit QLC NAND gibt, weiß ich nicht, Beweise dafür habe ich nicht gefunden, aber man es nicht zu 100% ausschließen. Außerdem haben schon die alten Modelle (da wurde ja mal der Controller und auch die NAND gewechselt) im 2.5" Formfaktor mit vollem Pseudo-SLC Schreibcache nur mit so 400MB/s geschrieben und die M.2 Varianten noch langsamer. Die 870 EVO sollte in 2TB und 4TB auch mit vollem Pseudo-SLC Schreibcache noch um die 500MB/s schreibend schaffen und Samsung schreibt auf der Produktseite der 4TB 870 EVO:
3bit MLC ist eine technisch korrekte (das M in MLC steht ja für Multi), aber nicht alltägliche Art TLC zu beschreiben, man kann also sicher sein das es TLC ist und für QLC hat Samsung ja die 870 QVO Reihe. Außerdem weiß man sicher, dass man den vollen DRAM Cache im optimalen Verhältnis von 1GB RAM pro 1TB Kapazität bekommt, da speichert der Controller die Verwaltungsdaten, vor allem die Mappingtabelle und sie hat 2,4x mal so viel TBW als die MX500 und einen DRAM Cache erwähnt Crucial für die MX500 auch nicht. Dies bedeutet nicht das Crucial sich bei der MX500 den DRAM Cache gespart oder ihn verringert hat, aber schon die 4TB im Review hatte nur 512MB RAM Cache, also weit weniger als die optiamle Cachgröße um die volle Mappingtabelle im Cache zu halten. Die Hersteller unterlassen solche Angaben eben immer, um sich eine Hintertür für Einsparungen offen zu lassen und daher kann man nicht ausschließen das die MX500 eines Tages ohne DRAM Cache und mit QLC NAND ausgeliefert wird, zumal SATA SSDs immer mehr zur Billigprodukten werden und die Enthusiasten eher auf die PCIe 5.0 oder PCIe 4.0 SSDs schauen als auf SATA SSDs. Solange Samsung nicht auch die Angaben zur 870 EVO ändert, würde ich lieber ein paar Euro mehr für die 870 EVO ausgeben und auch gleich die 4TB statt 2x2TB nehmen, schon weil man mit denen mit geringer Kapazität nicht so lange was sinnvolles anfangen kann wie mit denen mit mehr Kapazität und die meisten SSDs dürften ausrangiert werden weil sie zu klein geworden sind und nicht weil sie defekt wären.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum sollte sie es nicht sein? Der bekannte FW Bug wurde behoben und die 4TB dürfte den gar nicht erst haben.
Die 870 EVO sollte in 2TB und 4TB auch mit vollem Pseudo-SLC Schreibcache noch um die 500MB/s schreibend schaffen und Samsung schreibt auf der Produktseite der 4TB 870 EVO:

Danke für die Ausführliche Antwort.
Dann wird es doch auf die 870 Evo in 4 TB hinauslaufen und passend dazu eine 990 Pro als 4 TB, somit hätte ich noch zwei alte Sata SSD und zwei bis drei M.2 als Reserve welche nach und nach ersetzt werden.
 
Bin zu blöd... ich nehme einfach die 500 GB M.2 mit dem Betriebssystem aus dem oberen Steckplatz unter der CPU/ GPU raus.. dort kommen dann zusammen mit dem zweiten Steckplatz eine grössere hinein.

Das Windows 11 kann ja bequem im PCIe x4 4.0 Adapter einziehen, dort läuft es ja ohne große Einbußen, ein Benchsystem wird es nicht und ich kann bei Problemen jederzeit an die M.2.
 
..daher hatte ich ja auch dazu geschrieben:

„Anderes Thema ist dann natürlich wo die Sensoren sitzen welche die Temps überhaupt auslesen. Aber da "könnte" Samsung genau so betuppen wie zb. FikWot (sorry, komme über diese Namensgebung einfach nicht weg). Denn Samsung gibt ja über die hauseigenen Phoenix Controller auch nicht gerade viele Infos an die Öffentlichkeit.“
Mindestens ein Sensor befindet sich im Controller. Inwieweit weitere im NAND oder an anderen Stellen vorhanden sind, weiß ich nicht. Spezifikationen oder Reviews für Consumer-SSD beinhalten dazu keine Angaben. Die einzigen mir bekannten NAND-Bausteine mit Temperatursensoren sind Embedded NAND. Die sind aber eine Verschmelzung aus Controller und NAND. Die Temperatursensoren sind dort also aufgrund des Controllers enthalten. Da der Controller das Bauteil mit der mit Abstand höchsten Verlustleistung ist und sonst keine relevanten Hotspots auf SSD vorliegen, sind weitere Sensoren außerhalb des Controllers auch relativ unwichtig. Im Rahmen der Entwicklung von SSD lässt sich ausgehend von der Temperaturmessung im Controller anhand thermodynamischer Modelle berechnen und durch externe Messungen verifizieren, welche Temperaturen sich bei einer bestimmten Leistungsaufnahme an einem beliebigen Punkt des SSD einstellen. Solche Modelle liegen mit Sicherheit auch der Berechnung der SMART-Temperaturen zu Grunde. Die SMART-Temperaturen sind nicht bloß weitergeleitete Sensordaten. Natürlich sind solche Modellierungen mit Entwicklungsaufwand verbunden. Anbieter mit wenig Budget und Expertise, dazu gehören die meisten 3rd-Partys, können diesen Aufwand kaum betreiben.

Folgende Auswertung der Logdaten von HWInfo für ein Fanxiang-SSD zeigt schön, dass die SMART-Temperaturen zum Teil thermodynamisch unmögliche Werte aufweisen. Die stärker vom Controller beeinflusste SMART-Temperatur 3 (blauer Graph) kann, anders als hier im rot eingerahmten Bereich, niemals geringer sein als die weniger vom Controller beeinflusste Temperatur SMART 02h (grauer Graph), da der Controller bei jeglicher Last der Hotspot des SSD ist. Die Fanxiang meldet aber, dass es unmittelbar nach dem Kaltstart am Controller 15K kälter wäre. Dass kann nur Folge eines nicht hinreichend evaluierten Berechnungsmodells für diese SMART-Temperatur oder eines fehlerhaften Sensors sein. Bei SSD anderer Hersteller, wie Samsung, Intel oder SK Hynix, konnte ich derartige Fehler nicht feststellen.

Last-Temp-Verl-Kaltstart 2.jpg


Die Behauptung, dass Samsung der Öffentlichkeit „nicht gerade viel“ mitteilt, ist nur bei relationaler Betrachtung sinnvoll. Wenn man also damit vergleicht, was bspw. Fanxiang über Interna seiner SSD preisgibt, teilt Samsung über Datenblätter und Informationen für Reviewer der Öffentlichkeit sehr viel mit.

Frage: Was ist dann noch eine Messung der Temperatur von meinetwegen Pixelschleuder Nummero 3 noch Wert bzw. warum sollen dann die Temperaturen der anderen vier nicht die richtigeren sein?
Dass die Vertrauenswürdigkeit der SMART-Temperaturwerte zu hinterfragen ist, wurde ja schon mehrfach angemerkt. Mit externer Messtechnik und ein paar thermodynamischen Grundkenntnissen lässt diese Frage ausreichend genau klären. Dafür braucht es keine langwierige Aufarbeitung bis auf Ebene einzelner Transistoren, keine geeichte Messtechnik, Konzentration auf‘s Wesentliche und mit Sachverstand kalibrierte Messtechnik reichen vollkommen aus.

Natürlich sind solche Messungen immer fehlerbehaftet. Solange man ein paar Grundregeln beachtet, wie bspw. sämtliche Messungen unter systemtechnisch gleichen Bedingungen durchzuführen (gleiches System, gleicher Slot, gleicher Kühler, gleiche Luftströmungen im System, gleiche Vorwärmung/ stationäre Systemtemperatur, gleiche I/O-Last etc.) lassen sich viele Fehlerquellen eliminieren. Dass verbleibende Fehlerquellen, wie Ungenauigkeit und Fehlkalibrierungen der Messtechnik von Reviewern, wie Gabriel Ferraz, Igor oder Wizzard/Techpowerup erkannt und hinreichend kompensiert werden, ist sicherlich keine allzu optimistische Annahme meinerseits.

Das Temperaturverhalten von Grafikkarten ist nur mit Einschränkungen auf SSD übertragbar. Einerseits haben die absolut eine wesentlich größere Verlustleistung, andererseits können bei denen durch Powertargets Unterschiede von hunderten Watt in der Leistungsaufnahme konfiguriert werden, ohne dass sich die nutzbare Leistung signifikant unterscheidet. Bei SSD und deren Bauteilen gibt es auch Streuungen hinsichtlich Leistungsaufnahme und Effizienz sowie konfigurierbare Powertargets. Die Verlustleistung wird dadurch aber nur um Milliwatt variiert.
Verstehst du worauf ich hinaus will? Eine einzige SSD eines bestimmten Modells zu testen und das als Ultimo zu nehmen, so müssen die anderen 40 Millionen nun auch vor sich hin brüten ist schlicht falsch!!
Das mag für diese eine SSD, getestet mit diesen bestimmten Testgerät so stimmen, mehr aber auch nicht. Alles andere ist schlicht nur Spekulatius, Schall & Rauch, Rate mal mit Dosenkarl.
Ich verstehe schon, worauf du hinaus willst. Nur können mich deine Argumente unter Berücksichtigung deiner sonstigen Beträge, nicht so recht überzeugen. Wenn es wirklich so wäre, dass sich SSD nicht vergleichen lassen, weil Messungen viel zu unsicher wären und sich Hard- und Firmware ständig ändern würden, warum verkündest du hier immer wieder, dass eine bestimmte Type kühler oder heißer, langsamer oder schneller ist. Die Nebelkerze, dass sämtliche Messungen niemals nicht auf andere Exemplare übertragbar seien, müsstes du konsequenterweise in jedem deiner eigenen Beiträge zünden, in dem du technische Eigenheiten von SSD anführts.

pps: Und wenn du mir das nicht glaubst schau dir doch einfach noch einmal das Temperaturverhalten der beiden 970er in Post 20242 an. Nur weil da kein identischer Passivkühler drauf sitzt, sollen dort Temperaturunterschiede von fast 10° ...
Geringfügig Abweichungen an der Kühlung können bei SSD bereits einen großen Einfluss auf die Temperatur haben, denn die abzuführende Verlustleistung beträgt ja nur maximal 5 bis 10W. Deshalb werden Messungen, die für Vergleiche herangezogen werden, immer unter möglichst identischen Randbedingungen durchgeführt. Schlamperte Überschlagsbetrachtungen sind dafür ungeeignet.
 
Zuletzt bearbeitet:
Ich habe jetzt 3 Uralt-3.5 Zoll-Festplatten (2 STK WD Black 2 TB und 1 STK WD Red 3 TB) gegen eine Samsung SSD 870 QVO 8TB in meinem Arbeitsrechner getauscht. Die alten Platten waren teilweise aus 2010 und liefen immer noch. Das war damals noch Qualität! Jedenfalls ist das jetzt ein riesiger Unterschied. Ich habe jetzt zwar nur 1 TB mehr Speicherplatz. Aber auch viel mehr Platz im Gehäuse bei wesentlich höherer Geschwindigkeit und Ruhe. Außerdem ist der Rechner nur noch halb so schwer. Ein Grund war auch, dass ich keine SATA Ports mehr frei hatte für eine weitere Platte. Falls ich jetzt noch mehr Platzbedarf haben sollte, kann ich an den beiden jetzt freien Ports weitere Platten anschließen.
 
Leute ich hab ne kurze Noobfrage, hab mich damit irgendwie nie beschäftigen müssen:

Brauchen moderne SSDs noch irgendwas spezielles vom OS Richtung "TRIM" oder so, oder läuft das alles am Controller?
Also wenn ich ne SATA SSD in mein altes QNAP NAS (so 12 Jahre) packe, muss man da noch irgendwas beachten, oder wird das eh schon alles am Controller der SSD erledigt?

In dem Fall wäre es eine Samsung 870 Evo, aber die Frage ist allgemein gemeint.
 
TRIM muss immer vom OS getriggert werden. Das SSD kann, ohne dass ihm die freien Blöcke ausgehen, von sich aus nicht wissen, welche Blöcke komplett ungültig sind und zum Beschreiben bereitgestellt werden dürfen.
 
Ich habe mal eine Frage zu der Haltbarkeit von SSDs.

In letzter Zeit ist es bei uns in der Firma an den clients oefter vorgekommen, dass SSDs ploetzlich einfach defekt waren.
Es waren keine Billig- oder NoName-SSDs. Sondern Samsung.
Der IT-Einrichter hat dazu gesagt, dass alle Daten unwiederbringlich weg waeren und nicht mehr gerettet werden koennten.
Das leuchtet soweit ein, wegen Speicherchips etc.

Daher mache ich mir etwas Gedanken um meine privaten Daten auf der neuen SSD.

Sollte ich sie jetzt regelmaessig sichern (BackUp) um diesen GAU zu verhindern?
 
Sollte ich sie jetzt regelmaessig sichern (BackUp) um diesen GAU zu verhindern?
Sollte man nicht immer ein Backup der wichtigsten Daten haben?
Selbst HDDs sind doch mal einfach so ausgefallen.
 
@exi78
OK, du hast Recht.
Wer kein BackUp hat, muss sich ueber Datenverlust nicht beschweren ...
In der Firma sind die clients einfach nur "Dummies". Alle Daten sind am Server und auf NAS (mit BackUp!) gesichert.
Ich war nur ueberrascht, dass sich bei SSDs gar nichts mehr retten liess.
Auf klassischen HDDs waren eine Sectoren defekt und man konnte dann die Daten noch retten.
Das ist bei SSDs wohl anders.
Ich werde mir jetzt eine BackUp-Strategie ueberlegen.
 
@micki70

Je nachdem was defekt ist, lassen sich Daten sicher auch auf einer ssd retten. Das ist aber sicher aufwändig und kostet viel Geld. Somit nix für den privaten Bereich. Hier hilft einfach nur eine regelmäßige Sicherung der Daten.

Ich hab ja nur eine ssd im Rechner und die Spiegel ich regelmäßig auf eine gleich große HDD. Somit würde ein Totalverlust von einem der beiden Datenträgern so gesehen kein problem sein. Wobei meine Daten jetzt nicht überlebenswichtig sind. Für diesen Fall würde ich natürlich immer sofort alles parallel sichern bzw in einer cloud hochladen.
 
Zuletzt bearbeitet:
TRIM muss immer vom OS getriggert werden.
Richtig, weil nur das OS weiß welche Adressen auf SSD von der gerade gelöschten Datei belegt gewesen waren.

Das SSD kann, ohne dass ihm die freien Blöcke ausgehen, von sich aus nicht wissen, welche Blöcke komplett ungültig sind und zum Beschreiben bereitgestellt werden dürfen.
Nein, den SSDs gehen auch ohne TRIM die freien Blöcke nie komplett aus, denn immer wenn Daten überschrieben werden, werden die alten Daten die vorher unter der gleichen Adresse gespeichert waren, ja ebenfalls ungültig und können dann vom Controller abgeräumt werden. Beim Überschreiben spielt TRIM daher auch keine Rolle und wird auch gar nicht erst ausgeführt.

In letzter Zeit ist es bei uns in der Firma an den clients oefter vorgekommen, dass SSDs ploetzlich einfach defekt waren.
Es waren keine Billig- oder NoName-SSDs. Sondern Samsung.
Es gab bei den 870 EVO, 980 PRO und 990 PRO FW Bugs, da sollte man wirklich, wie eigentlich immer bei SSDs, darauf achten auch die neuste FW installiert zu haben. Der Bug bei den 870 EVO und 980 PRO führte dazu, dass NAND Blöcke fälschlich als defekt ausrangiert wurden und dann war die SSD in aller Regel Read Only, was bei einem Windows Systemlaufwerk natürlich fatal ist. Datenverlust ist dabei wohl auch möglich. Bei der 990 PRO war der Bug das der Zähler der Restlebenserwartung viel zu schnell runtergezählt hat. Diese Bugs sind aber wie gesagt schon längst durch FW Updates behoben worden.

Sollte ich sie jetzt regelmaessig sichern (BackUp) um diesen GAU zu verhindern?
Von allen wichtigen Daten die man nicht verlieren will, hat man sowieso immer, also zu jedem Zeitpunkt, mindestens ein ordentliches Backup zu haben.

Ich war nur ueberrascht, dass sich bei SSDs gar nichts mehr retten liess.
So pauschal stimmt dies ja auch nicht, es gibt schon Datenrettung von SSDs, aber dies kann nicht jede Datenrettungsunternehmen.
 
Ich werde mir jetzt eine BackUp-Strategie ueberlegen.

Schade, dass du nicht zumindest eine WD SSD im System hast (welche ist egal), dann könntest du von einer kostenlosen 5-Jahres (fast) Volllizenz des Acronis True Image (inkl. regelmäßiger Programmupdates) profitieren:

wd lizenz.png


..damit kannst du u.a. schön platzsparend über Backup Pläne (auch mehrere) z.b. inkrementelle, fortlaufende Sicherungen im Hintergrund erstellen. So oft und so viele wie du möchtest.
Ich habe das bei mir z.b. so eingestellt, dass ATI tgl. um 19:30 eine ink. Sicherung meines OS erstellt über gesamt 100 Sicherungen und das erste Vollbackup nie mehr gelöscht werden soll, auch wenn der Counter voll ist, die alten Sicherungen gelöscht werden und der Counter wieder bei Nr.1 beginnt. Das schöne bei ATI, dass Tool ist sehr benutzer- und anfängerfreundlich strukturiert und bietet auch noch einige Features mehr.
Die meiste Software hat ja das Problem, dass die kommerziellen Programmentwickler diese über die Jahre immer weiter mit (meist unnutzen) Zusatzfeatures künstlich aufblähen und irgendwann für den Kunden total unübersichtlich gestalten (mit Support kann man halt auch viel Geld verdienen). Das ist bei ATI, dass ich bestimmt schon 7~8 Jahre zuerst über Standalone Volllizenzen nutze nicht der Fall. Die Grundfunktionen sind erfreulicherweise immer gleich geblieben und das WD eine (fast) Volllizenz zu seinen SSD Produkten gratis dabei gibt ist eine super Sache. Crucial macht das übrigens auch aber dort ist die ATI Software wesentlich mehr eingeschränkt. Fast alle Zusatzfeatures ausgegraut und gerade die sehr nützlichen ink. Datensicherungen darf man dort nicht nutzen. Auch keine Backup Pläne, nur eine Vollsicherung:

wd ati.png

Sollte mal was passieren (z.b. Virus, SSD abrauchen usw.) kannst du über einen USB Stick mit der ATI Rescue Software ratzfatz dein gewähltes Backup recovern.
Sehr hilfreich und spart jede Menge Ärger und Arbeit für den Fall der Fälle wenn dann mal was passiert und man hat vorher nichts gesichert. (y)
 
Zuletzt bearbeitet:
@Spieluhr
Würde das auch mit den Versionen für Crucial & Seagate SSDs funktionieren oder hat da jede Version einen anderen Funktionsumfang?
 
Hab es nacheditiert. Die Crucial ATI Version ist sehr mau, leider. :shake:
Seagate und Samsung bietet eine kostenlose ATI Version leider gar nicht an. Ist wirklich nur bei WD SSD Produkten so vorhanden.
Die ist sogar so gut, dass ich meine standalone Lebenslang-Vollversion von ATI gar nicht mehr nutze sondern nur noch die von WD.

ps: wenn man tricky ist, bestellt man sich die kleinste, billigste WD SSD (Sata SSD geht auch), baut die ein und lädt sich dann die WD ATI Version herunter.
Die Software erkennt und fragt die S/N automatisch ab und dann gibts die Software 5 Jahre gratis, ist einiges günstiger als die standalone Version im Jahres-Ratata. ;)
 
Zuletzt bearbeitet:
Seagate Wizard beruht auf ATI, allerdings kenne ich nicht den Funktionsumfang:

 
@Spieluhr
Ab ca. 25,- EUR ist man dabei ... ;)
 
Zuletzt bearbeitet:
Gut, dass wusste ich jetzt nicht aus den Kopf. Müsstest du mal ausprobieren (wenn du eine Seagate hast). ;)
Ne, hab ich leider nicht.

Werde aber wohl ne günstige WD organisieren, ist gar nicht so verkehrt ;)

Edit, WD brauchts gar nicht, Sandisk tuts auch, da hab ich mehrere ;)
 
Zuletzt bearbeitet:
Wollte nur kurz hier Rueckmeldung geben, dass ich mir jetzt eine externe USB-HDD von WD besorgt habe.
Die WD Blue ist in dem anderen Rechner.

Haette ja absolut keinen Sinn gemacht, wenn ich mir irgendeine (die kleinste und billigste) SSD von WD gekauft haette.
Mit der Hardware haette ich nichts anfangen koennen und sie nur wegen Acronis gekauft.

Dann besser direkt eine richtige BackUp Platte.

Auf die externe HDD sichere ich jetzt regelmaessig die Daten von der 8 TB SSD.

Die Daten sind uebrigens nicht ueberlebenswichtig. Es waere aber sehr schade, wenn sie verloren gingen.

Evtl. benoetige ich das BackUp auch nie, weil die SSD die naechsten 20 Jahre ohne Schaden uebersteht. ;)

Ist ja nur fuer den Fall der Faelle.

Bin gerade dabei das erste BackUp mit Acronis zu erstellen.

Danke nochmals @Spieluhr fuer den Tipp!
 
Denk aber auch daran, dir unter "Einstellungen" über den "Rescue Media Builder" einen bootbaren Rescue USB-Stick zu erstellen, sonst nutzt das beste Backup nichts wenn du es nachher nicht recovern kannst. ;)
 
Ich habe mir gerade noch einen solchen USB-Stick erstellt.

Obwohl es ja nicht der gesamte PC ist, der gesichert wird, sondern nur das Laufwerk d.
Das ist nur fuer den Fall, dass beide Laufwerke c und d gleichzeitig ausfallen.
Dann komme ich an Acronis nicht mehr, um das BackUp wiederherzustellen, weil Acronis auf LW c installiert ist.
LW e ist die externe USB-Platte als Ziel der Sicherung.
Ich habe das Inkrementelle Schema gewaehlt bei woechentlicher Sicherung und alles auf Standard belassen.

Koenntest du dir das bitte mal im spoiler anschauen @Spieluhr , ob es so funktioniert und richtig eingerichtet ist.
Du bist bei Acronis ja Spezialist und kennst dich damit aus.

Wenn nicht, ist auch kein Drama. Dann wurschtel ich mich durch und probiere und teste es erstmal so.

Ansonsten wird das Thema hier etwas OT da zu speziell so denke ich.





[\spoiler]
 
1,1TB gesichert! ..dein Ernst? :haha:

Bei Backup Methode:

- Erstelle eine vollständige Version nach je 30 inkrementellen Versionen
- Speichere nicht mehr als 1 neueste Versionskette <- wählen!

..ansonsten alles richtig eingestellt. Willst du nur einmal wöchentlich sichern? ..weil du das so eingestellt hast.
 
Danke dir!

Ich habe schon "ausgemistet" als ich die 3 Platten gegen diese SSD getauscht habe.
 
Die Daten sind uebrigens nicht ueberlebenswichtig. Es waere aber sehr schade, wenn sie verloren gingen.
Die entscheidende Frage ist doch nur, ob Du es akzeptieren könntest die Daten zu verlieren oder die Daten lieber nicht verlieren möchtest? Wenn erstes, dann kann man sie eigentlich auch gleich löschen und wenn zweites, dann sollte man mindestens ein Backup davon haben.
Evtl. benoetige ich das BackUp auch nie, weil die SSD die naechsten 20 Jahre ohne Schaden uebersteht. ;)

Ist ja nur fuer den Fall der Faelle.
Das ist bei jedem Backup so, die ist wie eine Feuerversicherung, die will man auch möglichst nie nutzen wollen, aber wenn der Fall der Fälle eintritt, dann ist man froh sie zu haben, denn dann ist es auch zu spät noch eine abzuschließen. Das Backup muss man auch machen, bevor es Probleme gibt und wenn man es braucht, ist man froh es zu haben, auch wenn man eigentlich hofft es nie zu brauchen.
 
Kommenden Monat werden dann diese hier bestellt, die 990 Pro wird jedoch vorerst ausgelassen, da ich auf eine zweite M.2 ausweichen kann und dank Glasfaser egtl. mal den ein oder anderen Terrabyte an Spielen in wenigen Stunden geladen habe.


Screenshot 2023-10-19 at 03-09-48 Kaufen Wunschlisten Geizhals Deutschland.png


Dazu kommen noch ne alte 840 Pro mit 256 und 512 GB, guten Werten.

Das langt für alles.
870 Evo 4 TB - Bilder und grössere wichtige Daten,
870 Evo 1 TB - derzeit unklar, ob nicht 2x 1 TB als 1x 2 TB
870 Evo 1 TB - derzeit unklar, ob nicht 2x 1 TB als 1x 2 TB
870 Evo 256 GB - Systemklon/ vollständiges Windows 11 als Sicherung (kommt dann nur an den Strom, kein Datenkabel)
870 Evo 256 GB -Systemklon/ Windows 10/11 mit Android/ Sandbox und Linux je nachdem was ich benötige sogar beides (wird bei Bedarf zugesteckt, hängt bis dahin am Strom)

850 Pro 500 GB - RaspberryPi 4B
840 Pro 256 GB - RaspberryPi 3B

Je nachdem was es final kostet gibts eine Sata SSD als externe im Gehäuse.

Dazu dann die M.2;
980 Pro - System
990 Pro - Spiele/ andere Programme,
SN750 1 TB - PCIe4.0 x4
MP510B 960 GB - PCIe4.0 x1

Oder mal sehen ob ich irgendwann mal so einen Adapter finde mit bis zu 2x M.2, GPU kommt langfristig auch in den x8.
PCIe 4.1 x1 wird via x1 Adapter hinten auf dem Gehäuse geführt, wird somit ein externer Zugang

HDD 2x 3 TB wandern aus dem PC und der Cage ebenso, wird für Wakü und anderes benötigt.
1x 4 TB derzeit extern wird wohl zusammen mit den 2x 3 TB in ein NAS wandern, sofern ich da etwas sehr günstiges finde.

Damit habe ich für die kommenden Jahre ausgesorgt, bin maximal flexibel.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh