Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Hallo zusammen,
wenn ich mal kurz dazwischen funken darf:
Ich habe ein FreeNAS System mit einem ZFS Plattenverbund aus 3 Platten quasi im Raid 0 Modus (zusammen 3TB).
Jetzt habe ich eine weitere Platte (4TB) eingebaut, auf die die bestehenden Daten gespiegelt werden sollen, also ein Raid 1 aus den vorhgandenen 3 Platten im raid0 zusammen mit der neuen 4TB Platte als Spiegel ist das Ziel.
Die 3 einzelnen Platten werden irgendwann durch eine andere große Platte ersetzt wobei das Raid 1 weiterhin bestehen soll. Das aber zu gegebener Zeit.
Ich weiss das die Lösung blöd ist, zunächst ging es aber nicht anders und nun will ich es besser machen. Daher bitte ich um konstruktive Vorschläge bzw Hilfe um das möglichst ohne Datenverlust umzusetzen.
Weiss also jemand wie man hier am besten mit dem Befehl zpool hantiert?
Vielen Dank schonmal.
Hallo,
naja, gea's Antwort "geht nicht" ist zwar prinzipell richtig, aber ich habe da noch eine etwas eigenwillige Lösung.
Man kann ein ZFS auch aus Imagedateien zusammenbauen.
Lege einen neuen Pool (sagen wir tank1) mit der neuen Platte an und kopiere alle Daten auf den neuen Pool (die neue Platte).
Mach die 3 alten Platten (den striped Pool) leer und lege eine GROOOOOOOOßE Imagedatei auf diesem ZFS an.
Danach erstelle einen neuen Pool (sagen wir tank2) mit der großen Imagedatei und kopiere deine Daten auf diesen Pool. Abschließend den Pool (tank1) mit der neuen Platte zerstören und die neue Platte danach als Spiegel dem Pool (tank2), bestehend aus der großen Imagedatei, hinzufügen.
Über Sicherheit möchte ich in diesem Zusammenhang garnicht reden, aber es wäre machbar.
Ein Raid nicht aus ganzen Platten sondern aus logischen devices (Dateien/Partitionen) aufzubauen geht technisch schon. Meist macht man das andersrum indem man aus einer großen Platte mehrere kleinere devices macht um unterschiedlich große Platten einzubinden, so wie Synology z.B. mit Hybrid Raid. Die Datensicherheit dabei entspricht dem schwächsten Glied der Konstruktion.
Das Problem dabei ist, dass man bei Problemen/ Reparaturen höllisch aufpassen muss was man macht. Der kleinste Fehler und alles geht hops.
Ich würde sowas als theoretisch möglich aber als praktische Katastrophe sehen. Ein Datenverlust ist da fast vorprogrammiert.
Hallo gea,
die neue Version mit Realtime Monitor ist ja wirklich eine coole Sache. Das gefällt mir schon richtig gut! TOP!!!
Hast du evtl. geplant das Monitoring noch etwas auszubauen, damit man auch auf längere Zeiträume zurückgreifen kann und sich dort informieren kann, wie sich das System über Tagen, Wochen, Monate, Jahre verhält?
Grüße
EDIT: Wenn ich mir noch was wünschen darf, vielleicht noch ein TAB, bei dem man mit verschiedenen Farben Read, Write etc. in einem Diagramm auf einen Blick hat...
Danke gea!!!
@gea: Ich glaube du hast dich da mit der Copy Pasta vertan, Hardforum, nicht Fratzenbuch.
Der Vergleich trifft den Nagel so ziemlich auf den Kopf, deswegen kann man die Herstellerangaben allenfalls für statistische Mittelwertsanalysen heranziehen. Ein Raid aus "Montagsplatten" wird mit hoher Wahrscheinlichkeit eine MTTDL von 50% oder mehr im ersten Jahr haben.was nützen MTBF von 1,5 Mio Stunden oder MTTDL wenn normale Ausfallraten bei 2-15% pro Jahr liegen, bei alten Platten gerne mehr. Das ist wie wenn xx bei Neuwagen einen Verbrauch von 4,9l angibt der in der Praxis bei 7l liegt und nach 5 Jahren auf 9l steigt.
Das wollte ich wissen.zur Frage
raid-z3 mit 19 Platten ist ok - nicht furchtbar schnell was IO angeht- aber ok
Wenn schon "meckern", dann richtigWas ist ein "tank"? Du meinst "pool". Bleib doch bei den Standardbegriffen und denk dir nicht neues Zeug für die gleiche Sache aus. Das verwirrt nur.
Was ist ein "tank"? Du meinst "pool". Bleib doch bei den Standardbegriffen und denk dir nicht neues Zeug für die gleiche Sache aus. Das verwirrt nur.
Tank ist der Standardname in Beispielen für Pools, ist schon seit dem ersten ZFS-Release so in den Docs und so ziemlich jedem Tutorial.
Wenn schon "meckern", dann richtig
Es geht hier - soweit ich ZFS verstanden habe - um VDs bzw. VDevs. Ein Pool kann immerhin aus mehreren VDs/VDevs bestehen, wobei die einzelne Disk ja auch als VDev bezeichnet wird, was ich persönlich ein wenig verwirrend empfinde.
Also wenn sowas "deinen Tag macht", spricht das nicht gerade für dich.
In einer Diskussion persönlich zu werden, spricht auch nicht gerade für dich. Natürlich kenne ich den Unterschied und jeder, der geantwortet hat, wusste auch was damit gemeint war,
nur Du musstest dich über den verwendeten Begriff aufregen.
gea schrieb:xalur schrieb:Hallo gea,
ich versuche mir gerade auch für Büro (nur ich) und Zuhause einen VM-Server zusammen zu stellen.
Ich frag die jetzt einfach mal kurz ganz direkt, weil ich die Mac Frage nicht durcheinander bringen möchte.
Habe ich das so in etwa richtig verstanden (deine Tipps):
Bsp:
+ HP ProLiant ML310e Gen8 v2
+ IBM 1015
+ 1* SSD (Crucial M550 128GB, 2.5", SATA 6Gb/s hab ich mir da gedacht)
+ 4* HDD (HGST Deskstar 7K4000 4TB - wird ja hier immer empfohlen)
+ Ilo dedicated Karte (will ich gern haben - hat aber eigentlich nichts mit meiner Nachfrage zu tun )
- Dann Installiere ich Vmware auf einer SD-Kart, welche in den HP-internen-Slot gesteckt wird
- Der IBM Controller wird LSI IT geflasht
- Danach kommt napp-it von dir als VM auf die SSD
- Im Controller muss ich nichts machen - der reicht ja bei ZFS nur durch
- Im napp-it Konfiguriere ich ein ZFS RAID das ich für meinen Fileserver (dein napp-it) als Storage verwenden kann
- Dann gibt es halt ganz normale Freigaben und Netzlaufwerke usw. für MacPro im Büro und sonstiges im Haushault
- Wenn ich jetzt weitere VMs einsetze (Mailserver, Webserver oder was mir dann sonst noch so einfällt, dann kommt das ebenfalls auf die SSD - wenn die Datenplatz brauchen, könnten die auch über "Netzwerk" auf das Storage vom napp-it zugreifen (Also die Datenbank liegt dann in der Freigabe/Partition auf den ZFS-Store)
- napp-it kann Snapshots erzeugen und die an ein anderes NAS an einem anderen Standort kopieren?
Wenn das alles so klappen würde wäre ich mega happy! Wenn die Geschwindigkeit mit 2 Netzwerkadapter (Mac Pro hat auch 2) noch über die 200 Mb/s kommt, dann kann ich mir so noch ein Thunderbolt2 Storage im Büro sparen.
Oder sollte lieber jede weitere VM einen eigenen dezidierten NIC bekommen?
Viele Grüße!!!
es ist so gedacht:
Auf die SSD kommt nurdie OmniOS VM (man auch ESXi da drauf packen, bootet einfach schneller)
napp-it legt dann auf den 4 TB Platten einen Pool an und gibt den mit SMB, AFP oder NFS frei
ESXi nutzt die NFS Freigabe für weitere VMs. Die Storage VM muss dazu als erste VM gestartet werden.
Die anderen kommen mit einer Verzögerung
Man kann snapshots erzeugen und die mit napp-it replikation oder CLI + zfs send auf andere Maschinen kopieren
2 Netzwerkkarten machen nicht 2 Gb/s sondern 2 x 1 Gb/s
Zwei Prozesse nutzen damit je 1 Gb/s. 2 Gb/s ist mit round robin vermutlich möglich.
Ich sehe da aber jede Menge Probleme da alle Netzwerkkomponenten da mitmachen müssen.
Ich würde das lassen.
Der einzig sinnvolle Ausweg ist 10 Gbe.
Leider laufen die 300 Euro 10 Gb Intel Karten nicht direkt auf den Macs sondern nur solche mit angepasster Firmware zum doppelten Preis.
Huhu Leute, ich poste nochmal hier - vllt. gibt es ja noch andere Anfänger, die wie ich den Überblick etwas verlieren!
1. Der "pool" von dem du immer sprichst, ist quasi das, was man immer RAID bezeichnest? Nur das es halt ein wachsendes System ist, statt eine vordefinierte Größe!?
Ich lege also einen pool für alles an, oder mehere pools - quasi wie Partitionen?
- VM-pool | Arbeits-pool | Medien-pool | Backup-pool
oder
- pool auf 4*HDD mit Ordner für VM | Medien | Arbeit | Backup
Kleine Zusatzfrage: Welche wichtigen Funktionen fallen denn nach den 3 Monaten Test bei ESX weg? Vllt. kennst du ja auch ein Buch oder Tut für Vmware für Dummies; ich bekomme einfach keinen Überblick über die ganzen Funktionen und Bestandteile und Programme oder Verschiedene Verwaltungsgeschichten.
Bei der Aufteilung 11, 11 & 8 Platten wäre das Raid aus 8 Platten ungünstig, bei einer Aufteilung 15 & 15 Platten wären beide Subsystem ungünstig.
Eine alternative wäre noch 3x10 Platten im Raidz2 (Raid6), was bei 4TB Platten eine erhebliche Verschlechterung in Bezug auf die MTTDL (Mean Time To Data Loss) bedeuten würde, nämlich fast 0,3% in 5 Jahren ggü. 0,0004%, was einem Faktor von ca. 1000 entspricht bei 11 Platten im Raidz3.
Der Vergleich trifft den Nagel so ziemlich auf den Kopf, deswegen kann man die Herstellerangaben allenfalls für statistische Mittelwertsanalysen heranziehen. Ein Raid aus "Montagsplatten" wird mit hoher Wahrscheinlichkeit eine MTTDL von 50% oder mehr im ersten Jahr haben.
deswegen hatte ich für meine persönliche Risikobewertung auch nur eine URE von 10^13 angenommen und eine MBTF von 145.000h
Am besten einen Pool über alle Platten (Bei 4 Platten würde sich ein Pool aus 2 RAID1 VDEVs anbieten) und dann die ZFS-Datasets anlegen (VM/Medien/Arbeit/Backup)
Hier gibt's eine Übersicht:
VMware vSphere 5 Editionen Funktionsunterschiede
Danke!
Noch jemand Erfahrung mit den Netzwerkkarten?
Wie geht man vor bei einem AD? Legt man einen AD-User an, gibt die Freigabe ans AD und mittels Login am Mac und den PCs werden die Freigaben dann erteilt? Irgendwie hab ich beim Schreiben gerade das Gefühl, gar kein AD zu benötigen, wenn eh die Medienfreigaben ohne Login funktionieren. Dachte irgendwie als Sicherheit, damit die Freigaben auf dem Mac nur bei einem authentifizierten Login bereitgestellt werden.
Habe folgendes Problem: Wenn ich einen neuen User hinzufüge bei nappit mit SMB Zugriff dann taucht er da nicht auf.
Wollte Zugriffsrechte setzen verbunden per SMB als root.
Als "Benutzer" tauchen dort aber nur 2 EInträge auf nämlich "root" und "everyone". Weder sonstige User sehe ich da noch andere Gruppen, jemand ne Ahnung wodran es liegt?
Also verwende W8.1 Update Pro
Mh okay aber die Rechte auf dem Server setzen kann ich nur mit der Extension glaube ich.