Partition >16TB

gnaa123

Enthusiast
Thread Starter
Mitglied seit
18.12.2003
Beiträge
1.372
Ort
Nürnberg
Hallo,
ich habe mein Raid 6 erweitert (12x1,5TB => 16x1,5TB) und komme nun auf eine Netto Kapazität von ca. 19,5TB.
Controller ist ein Areca 1261ML
Da ich kein Freund von vielen Partitionen bin möchte ich möglichst nur eine große Partition haben was bisher auch Problemlos möglich war, die Grenze liegt bei NTFS mit 4k Clustersize (Standard) jedoch bei 16TB pro Partition.

Erhöht man die Clustersize kommt man auf bis zu 256TB, jedoch bin ich mir nicht sicher ob das so eine gute Idee ist da ich kein Backup der aktuellen Daten (ca. 12TB) habe.

Acronis Disk Director kann z.B. "live" die Clustersize ändern ohne das formatiert werden muss, nur habe ich da etwas bedenken, zudem erkennt das Tool mein Raid ohnehin irgendwie nicht...

Die Alternative dazu wäre einfach mit dem durch die Erweiterung gewonnenen Speicherplatz eine neue Partition zu erstellen, von vornherein mit einer Clustersize >4k damit eine Partitionsgröße >16TB möglich ist. Dann die Daten von der 13TB Partition auf die neue zu verschieben, diese dann zu extenden und die 13er shrinken...

Gibt es Probleme beim verkleinern von Partitionen wenn dort Daten drauf sind? Welches Tool nimmt man am besten?

Oder sollte ich es besser lassen und 2 Partitionen machen? hmpf

Vielen Dank!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ganz ehrlich? Ich würd einfach ne zweite Partition anlegen, eben aus dem "Wenn was schief geht"-Grund.
 
Berichtigt mich, wenn ich falsch liegen, aber bei Partitionen größer als 2 TB muss doch die GPT- anstelle der klassischen MBR-Partitionierung zum Einsatz kommen. Richtig? Soweit ich weiß unterstützt der Arcronis Disk Director die "GUID Partition Table" noch gar nicht, wie derzeit die meisten oder gar alle 3rd Partitionierer. Aus diesem Grund erkennt das Programm wohl auch dein RAID nicht.

Bedenke! Bei jeder Aktion an der Partitionstabelle, dem Dateisystem und auch am Verbund selbst kann was schief gehen und du kannst deine gesamten darauf gespeicherten Daten verlieren. Solche Aktionen sind prinzipiell kritisch und sollten nur mit vorhandenem Backup in Angriff genommen werden.

[X] Oder sollte ich es besser lassen und 2 Partitionen machen?
 
Zuletzt bearbeitet:
Die neuste Version des Paragon Partition Managers kann mit GPT umgehen.
 
hm ok wusste nicht das Acronis kein GPT support bietet, irgendwie schwach in der heutigen Zeit.

Paragon hab ich mal getetset aber das tut sich selbst mit normalen Partitionen schwer und ist sehr langsam.

Werde es nun mit 2 Partitionen machen, ist sicherer *g

Danke :)
 
Ich finde die Fummelei an Datenbeständen für die man kein Backup hat völlig umsonst.
a) Du machst nen Backup und fummelst dann
b) Du verkneifst Dir das fummeln, legst einen 2. Partition an und sobald Du ein Backup hast fängst Du an zu fummeln.


<-- hat auch in den sauren Apfel gebissen und seinen File-Server 2x aufgebaut. Der eine Server macht Backup vom eigentlich Server *seufz*.
 
Da ich kein Freund von vielen Partitionen bin möchte ich möglichst nur eine große Partition haben was bisher auch Problemlos möglich war, die Grenze liegt bei NTFS mit 4k Clustersize (Standard) jedoch bei 16TB pro Partition.

Nein, die liegt bei 16 Exabyte pro Partition!

1 Exabyte = 1.000.000 Terrabyte!

NTFS ist ein 64-bit Dateisystem.

Grüsse
Roman
 
Hallo zusammen:wink:

Ich bin jetzt mal so frech und schreibe meine Frage auch hier hin:coolblue:

Im moment habe ich 6x 1,5TB Platten im Raid 6 mit 64kb Stripe-Size, jedoch ist da noch keine Partition drauf.
Diese möchte ich nun anlegen und da weiss ich nicht welche Clustergrösse ich nehmen soll. Hauptsächlich kommen auf die Partition grosse Dateien (DVD- Images und vielleicht noch ein paar MP3 mit 320kbit/s).

Macht es sinn wenn ich die gleiche Grösse wie die Stripe-Size nehme?
oder sollte die Clustersize die Hälfte der Stripe-Size sein?

Oder soll ich einfach die Standart einstellungen nehmen und dann bei bedarf einfach eine zweite Partition erstellen, falls die erste grösser als 16TB wird?

Jetzt habe ich noch die möglichkeit alles auszuwählen, später wirds ja etwas schwieriger:coolblue:

Vielen Dank und Gruss
Mr. Zylinder
 

Das ist keine Beschränkung des Dateisystems, sondern des Dateisystem-Treibers ntfs.sys, der mit Windows mitgeliefert wird.

Die liegt bei 2^32 Clustern ab Windows Server 2003.

Wobei NTFS, wie schon geschrieben, ein 64bit-Dateisystem ist und mit entsprechenden Dateisystem-Treibern auch die vollen 16 EiB genutzt werden könnten.

Nähere Infos zu NTFS: http://technet.microsoft.com/en-us/library/cc781134(WS.10).aspx

NTFS ist so weit zukunftsfähig, das es noch mindestens für die nächsten 10-15 Jahre ausreicht, wenn nicht noch viel weiter.

Grüsse
Roman
 
Zuletzt bearbeitet:
Hmm ich geb mich geschlagen ;) Heist des dan soviel wie dass ich ohne Sorge bei 4K Clustern bleiben kann wenn ich nen Raid aus 1TB Pladden bau weil ich an die Grenze davon sowieso nicht dran komme?
 
Mir geht es auch nicht um die Dateisystem Beschränkung sondern um die einer einzelnen Partition, und die liegt bei NTFS und 4k Clustersize bei 16TB.

@Bacardi Joe: klar kannst du dabei bleiben, musst halt eine zweite Partition erstellen sobald die 16TB erreicht sind.
 
Zuletzt bearbeitet:
@gnaa123

Welche einstellungen würdest du mir denn vorschlagen.
Wie gesagt die partition wird hauptsächlich für dateien ab 6MB bis xGB genutzt.
Kann ich da die stripesize des Raid6 auf 64k behalten oder soll ich 128 nehmen?
Wie sieht es dann mit der Clustersize aus? da könnte ich maximal 64k einstellen.

Das OS würde auf einem eigenen Raid1 laufen mit 4k cluster.

wäre für einen kurzen Tipp dankbar. dann könnte ich das raid einrichten und eine partition erstellen:d
danke
 
Das Problem was ihr hier habt ist bei liegt in einer Begrenzung der Menge an Cluster in NTFS.

Die Clusterliste von NTFS umfasst 32Bit, als 2^32 Cluster können verwaltet werden.
Was bei 4KiB 16TB macht. Wer auf 64KiB setzt kommt auf 280TiB.

Wer also gedenkt in diese Regionen zu Upgraden wird irgendwann abkotzen, denn bei 280TiB ist Ende mit einem Volume.

Das gleiche gilt übrigens auch für die Dateianzahl.
Denn diese "Liste" umfast auch nur 32bit. Wer also zu viele Datein Speichert wird auch hier an seine Grenzen kommen.
 
"Wer also gedenkt in diese Regionen zu Upgraden wird irgendwann abkotzen, denn bei 280TiB ist Ende mit einem Volume."

Komm erstmal auf 280 TB ;)
AUF EINEM GERÄT !
 
@Niclas
1. Mach mal auf einem ext3 eine Partition >32TB
2. Ganz einfach. Nennt sich Portmultiplier, oder auch expander.
Macht bei 256 zulässigen Drives (Adaptec kann das) und 2TB Drives entspannte 510TB Storage.
 
gnaa123 schrieb:
hm ok wusste nicht das Acronis kein GPT support bietet, irgendwie schwach in der heutigen Zeit.
Nun ja, die noch aktuelle Disk Director Suite 10 ist auch schon relativ alt. Wesentlich unverständlicher finde ich, dass selbst die aktuelle True Image Home Version (2010) kein GPT unterstützt.
 
@Niclas
1. Mach mal auf einem ext3 eine Partition >32TB
2. Ganz einfach. Nennt sich Portmultiplier, oder auch expander.
Macht bei 256 zulässigen Drives (Adaptec kann das) und 2TB Drives entspannte 510TB Storage.

1. Wäres damit mehr als 16 TB ;)
und
2. Also lassen sich aus 2. Servern mit jewils 16 TB . Eine Virtuelle 32TB Partition schalten die 1. der Server dann freigibt ?
 
1. NTFS kann 280TiB.
Wenn der User mit NTFS net umgehen kann, ist das das Problem des Users und net von NTFS.
2. Seh ich net ganz durch.

Ich rede von einem Server der 510TB könnte.
 
Eine Große Partition / Raid Array unter Linux würde ich nur & ausschließich mit XFS Formatieren (oder ev. ZFS..) Ersteres kann zumindest auch Partitionen bis 8 Exabyte, ohne Lästige Fragmentierung (in diesem Punkt ist NTFS einfach Steinzeitlich -> Für mich ein Grund niemals eine Windows Maschine als FS zu benutzen) & im Gegensatz zu Ext3 entfällt der fsck (und der kann bei derart großen Volumes dauern) der idR automatisch beim Systemstart gemacht wird wenn der Rechner "hart" ausgeschaltet wurde..

Zu 2. Wozu einen 2ten Server, wenn man nur ein besseres Dateisystem benutzen muss....
 
XFS geht bis 16Exabytes.
XFS kann (nur ^^) 8Exabytes Dateigröße.

EDIT:
Noch nich ganz fertig.
XFS ist sicherlich eine gute Erfindung. Um aber einen Linux Filer so aufzuziehen, dass man auch im Ernstfall debuggen kann, braucht es auch schon tiefere Kenntnisse in Linux.
Ich bin aber eher in der Windows Welt zu Hause und kann in Windows auch so manches Filerprobleme umgehen.

Mich persönlich interessiert ja, wie MS dem 280TiB Problem begegnet. Denn so lange ist diese Grenze ja nicht mehr hin. (für den Homeuser ist da sicherlich noch Zeit)
 
Zuletzt bearbeitet:
Hat NTFS mit Blockgrößen größer 4kB nicht auch diverse Beschränkungen? Z.B. ist kein Encryption und Compression mehr möglich. Ich weiß nicht ob bzw. was sonst noch alles nicht geht, aber ich würde auch vorschlagen lieber bei 4kB zu bleiben und stattdessen zwei Partitionen zu verwenden. Man kann ja die eine Partition in die andere einhängen (reparse point) und hat damit im Prinzip aus Benutzersicht fast wieder sowas wie eine große Partition.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh