zfs pool mit 1 server erweitern

AnaxImperator

Neuling
Thread Starter
Mitglied seit
08.08.2021
Beiträge
17
hallo.
ich habe einen raidz2 pool mit 4 ssds name:storage
ich würde den pool "storage" gerne erweitern statt nach und nach die ssds durch größere zu tauschen...also mit einem 2. rechner da ich im 1. keinen platz mehr habe.

wie mache ich das am besten?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn es darum geht, die Daten übergangsweise auf einen zweiten Server auszulagern:
ZFS Replikation des Pools übers Netz mit zfs send, neuen Pool erstellen, zurück replizieren.
 
nein. keine replikation.

ich möchte das mehr speicherplatz hinzugefügt wird über netzwerk.
natürlich auch mit ausfallsicherheit.

leider habe ich nur einen 2. pc.

ich habe mir schon sachen rausgesucht wie GlusterFS. jedoch bräuchte ich da insgesamt 3 server. damit die daten so gestriped werden das einer ausfallen könnte.

weiterhin habe ich selbst experementiert. aber ich glaube das hat noch nie wer gemacht...

ich habe die ssds direkt über iscsi im den pool mit attach eingebunden als neue raidz2 gruppe.

also storgage mit gruppe1+gruppe2

weiß allerdings nicht ob sowas gut oder schlecht ist.

deshalb wollte ich nach meinungen fragen was es sonst noch so gibt.
 
Das, was du vor hast, ist sehr, sehr schlecht.
Jedes mal, wenn deine Netzwerkverbindung zickt, gibts nen Pool Scrub.
Außerdem bin ich mir gerade nicht sicher, ob deine Redundanz darunter leidet.
Du hast 2x 4 SSDs im RZ2?
Also in jeder Gruppe dürfen dir zwei Platten ausfallen, aber die beiden Gruppen zusammen haben gar keine Redundanz.
Im Endeffekt ist das ein RAID0 aus zwei RAIDZ2s.
 
genau deshalb frage ich hier.... was es noch so gibt. weil für GlusterFS... bräuchte ich 3 rechner
 
Ok, es ist kein RAID0, aber du verringerst dir dadurch trotzdem etwas die Redundanz.
ZFS schreibt dann bevorzugt auf das neue vdev, weshalb die Daten nicht mehr symmetrisch auf alle Platten verteilt werden.

Besser ist tatsächlich, den Storage neu aufbauen.
 
Ich habe Versuche mit iSCSI targets gemacht um damit Mirrors übers 10G Netz aufzubauen. Funktioniert prinzipiell sehr gut, allerdings ist die Performance der von SAS Pools deutlich unterlegen (Latenz). Auch ist das deutlich aufwendiger zu konfigurieren und hat einige Fallstricke.

Was problemloser ginge wäre ein HBA mit externem Anschluß und ein SAS Jbod (Gehäuse mit Platten ohne Mainboard, am Besten SAS statt Sata wegen der Kabellänge, optional mit Expander. Damit gingen Pools > 100 Platten)

Wenn man ein Storage-Cluster aufbauen möchte, gibts als sehr einfache Alternative zu CEPH Amazon S3 kompatiblen Objektstorage mit minIO, https://docs.min.io/docs/distributed-minio-quickstart-guide.html. Ohne Multi-Server Cluster sogar "idiotensicher". In napp-it habe ich das als einfache Share Option eines ZFS Dateisytems integriert. S3 Share=on/off. Das wars. Ideal um eine eigene Internet Cloud zu haben. Viel einfacher, sicherer und schneller als z.B. ein NextCloud. MinIO braucht keine komplexe Installation. Ist nur eine Datei die man starten muss.
 
Zuletzt bearbeitet:
danke. minio schau ich mir mal genauer an. jetzt ist es zu spät/früh...

also wenn ich das richtig überflogen habe geht das mit 2 servern. wo jeder server mindestens 4 platten haben muss. wäre machbar. auf jeden fall.

bei glusterfs... müsste ich 3 server haben...

ich denke das ist ganz schön tricky mit .... mehr speicher. aber ausfallsicherheit beibehalten mit nur 1 weiterem server.


immoment hab ich keine andere hardware außer das was in meinem normalen pc drin ist.

24 kerne. 64GB ram. ubuntu. zfs pool mit 4 ssds. system auf 1 ssd.

ein volume erzeugt. dieses über iscsi verteilt.

die maschine ist gleichzeitig ein hyervisor für windows server 2022 datacenter was ich bloß verwende um das kommende iscsi ziel zu einer netzwerk freigabe zu machen. samba ist mir da zu ungenügend.
 
Warum bindest du die iSCSI-Laufwerke nicht gleich als Laufwerke ein?
Geht in Linux doch noch einfacher als in Windoofs. =)
Mach ich mit meiner Games-Partition, 12 TiB aufm RZ2 im Keller, per iSCSI in Windows und Linux eingebunden, ca. 600 MB/s (10G-Netzwerk =) ) Durchsatz trotz normaler Festplatten.
Ladebalken? Wat dat denn?! :fresse:
 
das hatte uch virtuell ja schon getestet.

aber wie der vorposter gemeint hatte... würde das nicht stabil laufen. das es pool scrubs gibt und die redundanz nicht mehr gegeben ist.

das die daten dann zuerst in die neue gruppe geschrieben werden wusste ich auch nicht.


also bei meinen tests hatte ich das genau so wie ich wollte.

pool aus 4 disks.

und über iscsi von ner anderen VM wieder 4 einzelne hinzugefügt.

hat auch geklappt. hin und wieder einzelne disk gelöscht und resilvern hat funktioniert.

auch mal den 2. virtuellen server oder den 1. virtuellen server "hart" ausschalten...

wichtig war dabei. das server 2 zuerst online ist. dann klappt auch der pool import auf server 1


oder meinst du warum ich das volume nicht direkt einbinde?

ganz einfach. auf dem windows server lasse ich backups mit veeam machen.
snapshots sind für mich persönlich keine backups.backups kann man mitnehmen.

außerdem muss ich für mehrere user eigene berechtigungen setzen.

muss ja auch von mehreren pcs drauf zugegriffen werden.

unter anderem greife ich auch per vpn zu und binde so die freigabe auf meinem smartphone ein..
 
Nochmal zurück zum Pool:
Du hast nicht zwei VDEVs aus je vier Platten dazu gestöpselt, sondern dem bestehenden VDEV einfach vier Platten zugefügt?
Also nicht so:
1631778201699.png


Sondern (gedacht) so:
1631778302121.png


Das wäre blöd, weil ZFS dann folgendes macht:
1631779105228.png

Damit ist deine Redundanz voll im Popo, denn wenn dir auch nur *eine* der Platten 5..8 ausfällt, ist der gesamte Pool weg!
(Siehe auch: https://louwrentius.com/the-hidden-cost-of-using-zfs-for-your-home-nas.html)

//Edith:
Um sicher zu gehen, poste doch bitte mal nen "zpool status" hier.
 
Zuletzt bearbeitet:
so toll und bildlich kann ich das nicht darstellen. oO
liegt auch daran das ich zfs noch nicht so ganz verstehe was wann wie passiert und wo daten zuerst landen usw.

ich habe auf jeden fall den befehl "add" benutzt um die die 4 platten zusammen als zusätzliches raidz2 hinzuzufügen.
wie bekomme ich das denn hin wie auf dem 1. bild.

aber das ich immer noch am ende 1 vergrößertes volume habe. das selbe volume.... das ich per iscsi weiter gebe... ohne einen neuen pool zu bauen?


sah dann so aus...

 
Wenn alles korrekt ist, sollte ein zpool status sowas auswerfen (bei dir halt mit vier Platten pro VDEV):
Bash:
# zpool status rzpool
  pool: rzpool
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rzpool      ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            c1t0d0  ONLINE       0     0     0
            c1t2d0  ONLINE       0     0     0
            c1t3d0  ONLINE       0     0     0
          raidz1-1  ONLINE       0     0     0
            c2t2d0  ONLINE       0     0     0
            c2t3d0  ONLINE       0     0     0
            c2t4d0  ONLINE       0     0     0

Dabei ist rzpool dein Storage (der Pool), raidz1-0 & -1 die beiden VDEVs und cxtyd0 die Platten.

//Edith:
Wenn das bei dir auch nur irgendwie anders aussieht (abgesehen von den je vier Platten), solltest du dir Gedanken über ein Backup des Pools machen.
 
ja genau. so sah das bei meinen tests auch aus.
also hab ich das doch irgendwie richtig gemacht.

der pool war aber dennoch offline als ich server2 offline genommen habe ...und ich server1 neu gestartet habe.
aber solange server1 lief.... war der pool weiterhin online. neue daten würden weiter auf server1 gespeichert werden oder? oder nimmt zfs dann keine neuen daten mehr auf bis server2 wieder online ist?

also könnte ich das real dann auch so machen wie virtuell geplant?
kann ich das volume was ich ja schon erstellt habe über die grenze von raidz1-0 erweitern? oder würde zfs dann einen fehler ausgeben?

immoment habe ich das so wie auf dem bild zu sehen.... server2 gibts physikalisch schon. aber noch nicht voll einsatzbereit.

und generell muss ich bei mir im haus noch einiges umbauen z.b eigenes iscsi netzwerk...das nicht in meinem normalen lan ist...
 

Anhänge

  • Bildschirmfoto zu 2021-09-16 11-11-59.png
    Bildschirmfoto zu 2021-09-16 11-11-59.png
    24,3 KB · Aufrufe: 113
Momentan ist da nur das RZ2-VDEV aus den vier lokalen SSDs (raidz2-0).
Um den Pool (storage) zu erweitern müsstest du zunächst nur ein neues RZ2-VDEV aus den vier per iSCSI angebundenen Disks erstellen und dem Pool hinzufügen.
Meines Wissens werden dabei aber nicht die bestehenden Daten auf die neuen Disks verteilt, sondern ZFS schreibt neue Daten einfach da, wo sie am besten passen.
Deshalb hast du sowas wie ne asymmetrische Redundanz, alte Daten kullern auf den bestehenden Disks rum, neue hingegen können auf *allen* Disks liegen.
Wenn du alte Daten änderst, liegen die später (dank copy on write) auch auf allen Disks.

Und ja, der Pool ist dann offline, solange ein VDEV fehlt.
Die Redundanz besteht ja nur innerhalb des jeweiligen VDEVs, fällt aber ein komplettes VDEV aus, ist der Pool weg.

Les dich am besten mal über die verschiedenen Eigenarten von ZFS ein (Pools, VDEVs, ZVOLs usw).

Ich würde kein zweites physisches Netzwerk für iSCSI ziehen, hab ich bei mir über VLANs gelöst, fluppt prima.
 
ich muss so oder so ganz ganz viele leitungen ziehen....

ich hab noch ne klassische nullung drin. ich will ne neue verteilung. und dann eben auch das lan neu.

server schränke wo ich die tower einfach bloß rein stelle im keller. und zwei richtige switche. weil ich dann in jedem zimmer lan haben möchte.


ok ich lese immer wieder raus das das doch dann ehr schlecht ist.


ja. redundanzen sind da schon wichtig.

also über GlusterFS hahe ich gelesen das das die daten dann auch aufteilt....

und auch immer neu verteilt wenn ein server weg fällt.

hab allerdings nur 2 pcs... noch. und müsste ja dann zwingend nen 3. anschaffen.
mein aktuelles wlan mit ganz vielen extendern ist nicht soooo stabil.

und von da kommt dann auch das internet..ausm keller.
 
Jetzt muss ich mal nachfragen, was Du denn als Ziel überhaupt erreichen willst.
- Lernen/Rumexperimentieren mit über Netzwerk verteilten Storage?
- 24/7 aktiv genutzer Storage im Heim? (also quasi "produktive" Nutzung)

Wenn ersteres, fein. (aber bitte nicht über Wlan; insbesondere wenn Du schon schreibst "ist nicht sooo stabil").

Wenn letzteres, tu Dir bitte einen Gefallen und ersetze einfach diese SSDs durch welche mit ordentlicher Kapazität (so dass Dein Kapazitätsbedarf auf Sicht gedeckt ist), Performance und idealerweise Powerloss Protection.
Ich will Dir nicht zu nahe treten oder Dich frustrieren, aber diese 240GB "Plus" SSDs aus dem Screenshot sind Einfachst-SSDs und alles andere geeignet für beständig genutzte SSD Pools. Diese SSDs werden mutmasslich bei etwas andauernder Last sehr schnell einbrechen in der Performance, denn sie haben keinerlei Dram-Cache, nur 2 Flash-Kanäle und sind zusammen mit dem Flashcontroller auf niedrigste Herstellkosten optimiert, nicht auf Leistung. Dazu haben sie nur ein recht geringes Schreibvolumen über die Lebensdauer (TBW) und auch keine Powerloss-Protection.
=> Diese SSDs haben in einem aktiv genutzten SSD-Zpool meiner Meinung nach nichts verloren.

Welche SSDs empfohlen werden können, hängt natürlich vom individuellen Einsatzzweck ab. Für beständig arbeitende Datenbanken brauchst Du was anderes als für Cold Storage, der nur einmal geschrieben wird und dann i.W. immer nur gelesen.
 
Zuletzt bearbeitet:
einerseits testen... andererseits produktiv.

seit 20 jahren schleppe ich 1:1 kopien mit mir rum von usb stick zu usb stick zu externer festplatte usw.

nichts vernünftiges.

manche dateien davon sind plötzlich einfach leer. nichts großartig wichtiges. aber dennoch dinge die ich gerne bei mir hätte.

und da meine momentane externe ssd schon im gehäuse geklackert hat. dachte ich ich sollte das ganze verbessern.

bevor noch mehr daten verschwinden.

und da ich vorher mit den selbigen ssds ein raid5 hatte mit 3 davon und man mich dann von zfs überzeugt hatte.

wollte ich nicht sooo viel dazu kaufen für den anfang.

platz.... kabel.... hätte ich in meinem jetztigen gehäuse nämlich nicht mehr. mir fehlt sowieso ein kabel was man wohl nirgends bekommt(modulares netzteil)

also hab ich mir gedacht.. noch 2 ssds zusätzlich und dann läuft das schon.

ansonsten ist der pool online. ein virtueller windows fileserver sorgt für das verteilen. ebenso läuft ein vpn server damit ich vom handy zugreifen kann.

hauptsächlich habe ich text dateien und ein paar binarys...

nutzen kann ich die hälfte. und die ist auch schon voll.

das heißt ich würde davon keine backups mehr machen können. und ich würde auch gerne mehr daten speichern.

deshalb such ich was um den pool über das netzwerk hinweg zu erweitern.

ja... mein rechner läuft 24/7

wie würde das erweitern denn professionell aussehen?

unabhängig davon das die ssds scheiße sind.
 
Wenn du fertig mit bauen bist, sieh zu, dass du ein ordentliches 19" Gehäuse gebraucht bekommst.
Da passen dann mindestens 8 3,5" Platten rein oder du holst so ein schnuckeliges 2HE für 16 2,5" Platten.
Idealerweise passt da auch deine bestehende Hardware rein (wenn das Gehäuse ein Supermicro und kein HP oder Dell ist).

Zum erweitern:
Bei 240 GB SSDs kannst auch einfach 4x 1TB WD RED SSDs holen, kostet pro Stück ca. nen Hunni und du hast anschließend 4x mehr Platz und zumindest die Garantie, dass sie dauerbetriebsfähig sind.
Die SSDs einzeln tauschen, nach jeder einen resilver machen und am Ende ein "zpool expand".
Flupp, passt (so bin ich von 6x 4TB auf 6x 8TB Platten im RZ2 umgestiegen).

Das mit den "einfach 2 SSDs dazu" klappt leider nur mit normalem RAID5/6.
Bei "nur" vier SSDs würde auch ein RAID5 / RAIDZ1 reichen.
Vor allem bei den "kleinen" Größen.

An deiner Stelle würde ich wie folgt vorgehen:
Mach ein Backup vom Pool.
Erstell den Pool neu mit RAIDZ1, wenn du bei ZFS bleiben magst. =)
Kopier das Backup wieder drauf.
Damit hättest du 240 GB fürs erste mehr.

Später, wie gesagt, hol dir ein 19"-Gehäuse und erstelle gleich ein ordentlich großes RAIDZ2 mit 6..8 SSDs / Platten.
Danach immer alle gegen größere tauschen.

Ab 10TB-Platten würde ich dann über ein RAIDZ3 nachdenken, da statistisch gesehen, dir spätestens ab 12TB-Platten beim resilver eine Platte zusätzlich drauf geht (MTBF).
Bei so großen Pools lege ich dir allerdings auch folgenden Thread ans Herz: https://www.hardwareluxx.de/communi...-backup-und-warum-eigentlich-ecc-ram.1111362/
 
Storage auf ZFS-Basis ist schonmal ein sehr sinnvoller Gedanke in Bezug auf Datenintegrität. Mit das Beste, was man nehmen kann.

Wichtiger Grundsatz ist dann: Redundanz ist kein Backup. Redundanz erhöht lediglich Ausfallsicherheit, man darf aber auf Backups trotzdem nicht verzichten; zu vielfältig sind die Möglichkeiten Daten trotzdem zu verlieren.
Ferner: Keine unnötige Komplexität im Systemaufbau (Hw und Sw) . Komplexität eines Aufbaus kann schnell dazu führen, dass man Fehler macht, Schwachstellen einbaut und die Störungswahrscheinlichkeit erhöht. Ebenso geht meist der Aufwand zur Störungsbeseitigung im Falle des Falles in die Höhe.
=> Dinge einfach halten, nicht "IT-künstlerisch" ausleben.

Stichwort Schwachstellen. Verwende Hardware, die für den jeweiligen Verwendungszweck geeignet ist. Wenn Du 24/7 fährst => 24/7-taugliche Hardware. Andernfall erhöhst Du die Fehler- und Ausfallwahrscheinlichkeit. Mit jeder zusätzlichen Schwachstelle erhöhst Du die Fehlerwahrscheinlichkeit und Gefahren für die Datenintegrität. ZFS ist gut, aber der Unterbau (Hardware) muss es halt auch sein.

Anderer wichtiger Grundsatz: Experimentiere und lerne niemals mit Live-Daten, die Du nicht wieder herstellen kannst oder auf die Du nicht verzichten willst/kannst. Niemals. Früher oder später macht man einen Fehler und riskiert oder verliert dann potentiell seinen Datenbestand.
Mache Dich mit allen wichtigen Handlungen für das Storagesystem, auch für den Desasterfall, vertraut. Bevor Du es aktiv nutzt.

=> Einen Server aufbauen, der Storage entsprechend dem Bedarf lokal zur Verfügung hat. In einer Kiste. Poolstruktur dabei einfach halten; eventuell auch zwei Pools (1* HDD, 1*SSD) oder evtl. HDD-Pool mit sog. Special-Vdev.
Wenn Du Samba nicht willst, schau Dir Omni-OS (oder Solaris) an. Dort gibt es Kernel-SMB als Freigaben von ZFS-Datasets mit Windows-ähnlichen Zugriffsrechten out of the box. Mit dem Aufsatz "napp-it" von User "gea" zur bequemen Verwaltung.

Als Backupziel richtet man idealerweise einen weiteren ZFS-Filer als eigenes Geräte ein, denn ZFS kann mittels "zfs send/receive" (beinhaltet Integritätsprüfung der Daten!) inkrementell Snapshots von einem Sender (Haupt-Server) an ein Ziel (Backupfiler) schicken. Das kann man auch mit den richtigen Tools automatisieren. Und auch die Backupkiste muss nicht immer am Netz sein, sondern halt nur zum Backup durchführen, dann wieder aus das Ding.

Damit hast Du gewisse Redundanz (z.B. Mirror oder Raidz1/Raidz2) auf dem Hauptserver und eben ein echtes, unabhängiges Backupsystem. Beides jeweils mit einfacher und übersichtlicher Struktur.


Das dies alles nicht gratis oder billig zu haben ist, ist klar. Im Zweifelsfalls heisst es halt: vorhandene Hw ausmusten (zumindest für den Serverzweck).
 
Zuletzt bearbeitet:
das man snapshots hin und her schicken kann weiß ich. snapshots zähle ich allerdings nicht zu backups.
ich würde gerne echte backups machen. wozu mir ja immoment der platz fehlt.

wie machen das denn firmen?
mit mehreren 5000TB und mehr?
wie verbinden die das?

klar. ich möchte aufstocken. die alten datenträger sollen aber dannach nicht weggeschmissen werden.ich hätte gerne das ich keine "verluste" habe. also das alles weiter verwendet wird. vielleicht habe ich dann auch irgend wann 3-4 computer da stehen. nur ich muss alles irgendwie sinnvoll verbinden.

ich bin angehender IT admin für hauptsächlich windows systeme.
nutze linux seit 20+ jahren privat. hab mich allerdings noch nie vorher mit backups und speicherpools und NAS auseinander gesetzt. erst jetzt.und da bräuchte ich hilfe um zu entscheiden was das sinnvollste ist. ich hatte bisher nur schulisch. praktikum kommt ab montag. und auch eher bloß helpdesk. von daher sehe ich wahrscheinlich nie wie das in "echt" so gemacht wird....

das windows nutze ich vor allem wegen:

freigaben
zugriffsbasierte aufzählung
ressourcen manager für dateiserver(da kann ich bestimmte datei typen verbieten)
veeam backup
windows domäne
windows terminalserver
windows programme

bisher alles in EINER win 2022 datacenter VM...
 
ZFS Snapshot von Maschine A nach B zu schicken sind Backups. Was ist es denn sonst?

Es spricht ja auch absolut nix dagegen, Win Server in einer VM laufen zu lassen; so ein Vorgehen ist Standard in vielen Firmen; kannst ja auf einem ZFS Volume als Storage dahinter problemlos laufen lassen. Mach ich auch (wenn auch nicht für Storagedienste, das macht bei mir Samba/NFS).
 
Zuletzt bearbeitet:
snapshots sind snapshots. zustände....
backups kann ich mitnehmen. auch offline. 3-2-1 backup regel.
 
Snapshots sind zwar keine Backups aber Vorraussetzung um einen Pool mit offenen Dateien lokal oder übers Netz zu sichern oder online zu überprüfen. Das geht sogar mit Petabyte Server unter Hochlast. Kombiniert mit einem sicheren ZFS Pool (z.B. ab Z2) ist ein Pool Verlust extrem unwahrscheinlich. Viele Snaps (gerne hunderte, jede Stunde, Tag, Woche,Monat,Jahr) sind der Backupregel 1,2,3 dann haushoch überlegen (Da hat man halt 1,2,..1000 oder mehr). Selber habe ich in den gut 10 Jahren seit ich ZFS nutze Daten immer aus Snaps wiederherstellen können.

Wenn es brennt oder ein Dieb zuschlägt braucht man aber ein Disaster Backup. Ich habe daher 3 Backupserver. Manchmal hat das erste Backupsystem Wartung, dann brauche ich das Zweite für stündliche/tägliche Replikationen. Das dritte steht in einem anderen Brandabschnitt und wird nur ab und zu kurz hochgefahren/mit Netz versorgt (Falls mal der Blitz einschlägt)

Ansonsten: Keep it simple, STUPID..
Hilft der Datensicherheit enorm.
 
Zuletzt bearbeitet:
Doch, wenn sie einfach mechanisch (zu) lose in ihrem Gehäuse hängt. ;) Alles schon gesehen bzw. gehört. :d
 
genau so ist es. zwar nicht die komplette ssd. aber irgend ein bauteil fliegt in dem gehäuse rum.

wenns irgend ne schraube ist.... hab ich bisher glück gehabt das da nix weiter geblitzt hat...
 
snapshots sind snapshots. zustände....
backups kann ich mitnehmen. auch offline. 3-2-1 backup regel.
Ich kann auch 2 meiner Backups mitnehmen, welches auf einem separatem Pool aus einem Raidz2 VDEV aus 8x3 TB HDs besteht.
Zur Sicherung werden die HDDs in die Wechselschächte geschoben, der Backup-Pool wird importiert, ein neuer Snapshot erstellt und an den Backup-pool gesendet, danach wird der Backup-Pool exportiert und die HDDs wieder gezogen.
Das 2. Backup ist ein kompletter HP-Microserver N54L, der steht ganz weit weg im Lager und wird nur etwa alle 3 Monate aktualsiert (natürlich auch per Snapshot und ZFS Send/Receive)

Das 3. Backup läuft auf ein weiteres größeres NAS im Rack.
 
und wie sieht das mit desaster recovery aus.

angenommen du zerstörst alle server mit allen festplatten mit dem kompletten pool.

kaufst nen neuen server mit neuen festplatten.

schiebst deine alten backup festplatten rein. und importierst den pool. ist dann alles wieder da?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh