[Sammelthread] ZFS Stammtisch

Hm, hab ich mich so missverständlich ausgedrückt?

Ich hatte doch oben beschrieben, wie die Userrechte im obersten Verzeichnis gesetzt sind. Also bin ich davon ausgegangen, dass die Darunterliegenden die gleichen Userrechte vererbt bekommen.
Beim Filesystem "bilder" funktioniert ja auch alles richtig, nur nicht bei "digi-cam".
In den Filesystemen gibts keine trivial User, auch schon gar nicht everyone@. aclinherit und aclmode stehen beide auf passthrough. Inheritance auf file,dir.

Macht es Sinn und geht es überhaupt alle ACLs zu löschen und dann komplett neu zu machen??

Die ACL werden auch (bei SMB) beim Anlegen neuer Ordner und dateien vererbt, sofern folder/file inherit on ist und aclinherit auf pass-through steht. Everyone@=modify ist die Voreinstellung beim Anlegen eines Dateisystems, daher meine Annahme.

Man kann nicht alle ACL löschen.
Ein chmod A- filesystem löscht zwar alle ACL, das Ergebnis sind aber die default-ACL Einstellungen

---------- Post added at 18:42 ---------- Previous post was at 18:35 ----------

Heute neues System aufgesetzt mit OI 151a7 und Napp-it 0.9 und bekomme folgende Fehlermeldung in orangenem Bereich unter Settings:
"oops...
This key is only valid on host xxxxxx
back/ return to former menu"

Liegt das vielleicht daran das ich die IP des Rechners nachträglich geändert habe?

Ähnliche Fehlermeldung beim email test:
"oops...
send error to xxxx.xxxx@xxxxxxx.de
back/ return to former menu"

Ich kann man mir beide Fehler nicht erklären, denn beides funktioniert mit OI 151a7 und 0.8er napp-it auf dem gleichen Rechner ohne Probleme.

Fals extension-keys Installiert sind, so laufen die nur auf dem Server mit dem Namen xxxxxx.
Die IP spielt keine Rolle (außer bei Replikationen, da muss die IP gleich bleiben).


Die emailjobs eventuell löschen, in den napp-it settings die Maileinstellungen kontrollieren und jobs neu anlegen.
Falls TLS (z.B. Googlemail) benutzt wird, muss man die mailjobs auf TLS umstellen (Menü jobs - TLS mail)


ps
napp-it 0.9 hat eine komplett neue Jobverwaltung mit editierbaren Zeitangaben und Einstellungen.
Alte Replikationen sollten aber weiterlaufen (Gleicher hostname und ip vorrausgesetzt)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die ACL werden auch (bei SMB) beim Anlegen neuer Ordner und dateien vererbt, sofern folder/file inherit on ist und aclinherit auf pass-through steht. Everyone@=modify ist die Voreinstellung beim Anlegen eines Dateisystems, daher meine Annahme.

Man kann nicht alle ACL löschen.
Ein chmod A- filesystem löscht zwar alle ACL, das Ergebnis sind aber die default-ACL Einstellungen

Danke gea für die schnelle Antwort.
Ich frage lieber vorher, da es sich um einige hundert Verzeichnisse und Dateien geht.

Dann müsste doch folgendes hoffentlich funktionieren:
# chmod -A digi_cam
Danach steht bei allen Verzeichnissen und ihre Dateien @everyone=modify_set drinne
anschliessend @everyone löschen und dann meine User in der gleichen Reihenfolge wie vorher mit den entsprechenden acl-set eingeben
und abschliessend ein reset ACLs mit current-folder; folder, files, recursive alle enabled, machen.
 
Zuletzt bearbeitet:
Danke gea für die schnelle Antwort.
Ich frage lieber vorher, da es sich um einige hundert Verzeichnisse und Dateien geht.

Dann müsste doch folgendes hoffentlich funktionieren:
# chmod -A digi_cam
Danach steht bei allen Verzeichnissen und ihre Dateien @everyone=modify_set drinne
anschliessend @everyone löschen und dann meine User in der gleichen Reihenfolge wie vorher mit den entsprechenden acl-set eingeben
und abschliessend ein reset ACLs mit current-folder; folder, files, recursive alle enabled, machen.

Nö, falsche Annahmen
- chmod A- digi_cam arbeitet nicht rekursiv
- everyone=modify ist napp-it default (ich habs gerne, dass erst mal alles geht)
Solaris default ist Unixlike: alle dürfen erstmal garnichts

Die Ziel-ACL sind z.B.
/digi-cam alle lesen ohne Vererbung (read-x), root=full: niemend außer root kann Ordner/Dateien anlegen
/digi-cam/folder1 Nur die User, die reindürfen haben Rechte (mit Vererbung), z.B. readx, modify, full
/digi-cam/folder2 Nur die User, die reindürfen haben Rechte (mit Vererbung)
..
 
Dann müsste doch folgendes hoffentlich funktionieren:
# chmod -A digi_cam

Du musst chmod A- rekursiv benutzen um auch die ACLs von subfolders zu löschen, also


Wenn du wirklich verstehen willst, was im Hintergrund passiert, würde ich mich einmal sauber mit ACLs auseinander setzen und das komplett ohne napp-it machen.

Heißt: Mal mit Kapitel 8 des ZFS user guide und insbes. den dortigen Beispielen beschäftigen, u.a.

Link 1 New Solaris ACL Model - Oracle Solaris ZFS Administration Guide
und Link 2 Setting and Displaying ACLs on ZFS Files in Verbose Format - Oracle Solaris ZFS Administration Guide bzw. für Compact-Format Setting and Displaying ACLs on ZFS Files in Compact Format - Oracle Solaris ZFS Administration Guide

Es spricht ja nichts dagegen napp-it zu nutzen, wenn man es dann richtig verstanden hat.
 
Also ganz ehrlich.
Alles was ich bisher bei Microsoft über ACL gelesen habe mußte ich zweimal lesen um es zu verstehen.

Die Anleitungen von Oracle/Solaris sind dagegen aber fast unverständlich.
Vielleicht genügt es, dass Solaris ACL (wenn man deny Regeln aussen vor läßt) wie bei Windows arbeitet.
Wenn man ACL bei Windows setzen kann, dann geht es auch bei Solaris genauso.

Das Hauptproblem ist meistens, dass die normalen Regeln eigentlich ziemlich einfach sind, man aber
unendlich komplizierte Sachen damit machen kann.
 
Ist es möglich bei ZFS aus einen Raid1 mit zustecken von zwei weiteren HDDs ein Raid1+0 zu machen?
 
Fals extension-keys Installiert sind, so laufen die nur auf dem Server mit dem Namen xxxxxx.
Die IP spielt keine Rolle (außer bei Replikationen, da muss die IP gleich bleiben).

Ich hab keine Keys gekauft bis jetzt. Replikation nutze ich auch nicht. Meine Vorgehensweise: OI 151a7 installiert->Napp-it installiert->IP von DHCP auf manuell geändert. Unter 0.8 hat das bis jetzt immer funktioniert. Diesen Fehler hatte ich vor 2 Wochen auf einem anderen System auch schonmal und bin deswegen bei der 0.8er geblieben, aber bei meinen neuen System will ich das jetzt mit 0.9er hinbekommen. Ich werde morgen mal meine Vorgehensweise in einer VM testen und bereichte dann.

Die emailjobs eventuell löschen, in den napp-it settings die Maileinstellungen kontrollieren und jobs neu anlegen.
Falls TLS (z.B. Googlemail) benutzt wird, muss man die mailjobs auf TLS umstellen (Menü jobs - TLS mail)

ps
napp-it 0.9 hat eine komplett neue Jobverwaltung mit editierbaren Zeitangaben und Einstellungen.
Alte Replikationen sollten aber weiterlaufen (Gleicher hostname und ip vorrausgesetzt)

Da das System neu ist, sind noch keine Jobs erstellt. Es geht erstmal nur um den reinen Email-SMTP-Test. Die Maileinstellungen stimmen, da ich sie immer aus einem Passwortprogramm kopiere. TLS nutze ich nicht. Die absolut gleichen Mail-Einstellungen (Adresse, Passwort usw.) funktionieren unter der 0.8er Version ohne Probleme. Auch hier werde ich morgen nochmals in einer VM testen.

Mit welcher Opiton bekomme ich eigentlich die letzte 0.8er napp-it Version auf ein frisches OI installiert?

P.S.: gea ich bin von deiner Unterstützung hier absolut begeistert. Das Thema Solaris/ZFS verfolgt mich nun schon seit über 3 Jahren mit Höhen und Tiefen. Mit napp-it ist da für mich noch mal ein ganz neuer Schwung reingekommen.
 
Zuletzt bearbeitet:
me2

Sooo, alles da, bis aufs Gehäuse :rolleyes:
War ungeduldig und habs mal kurz offen aufgebaut.
Standard-Setup mit
Xeon E3-1220V2, SuperMicro X9SCM-F, 16GB RAM, IBM ServeRAID M1015.
Fürs erste 6x 3TB Toshiba DT01ACA im RAID-z2

M1015 auf X9SCM-F flashen:
Zuerst über einen FreeDOS USB-Stick, erzeugt mit Rufus
Habe einen bootzyklus gebraucht zwischen
megarec -writesbr 0 sbrempty.bin
und
megarec -cleanflash 0,
ohne Bootzyklus kam error code 64 bei -cleanflash 0
Den nächsten Teil hab ich über die efi shell gemacht.

M1015 wird heiss, hab nen kleinen Lüfter draufgesetzt.

Offenbar beginnt mein M1015 bei Port 1 zu zählen (Platten 0,1,2,3),
an Port 0 hängen dann die Platten 4,5,6,7.

Hab ne 32GB SSD für das OS und wollte erstmal FreeNAS ausprobieren.
Habe das FreeNAS img mit physdiskwrite unter Windows 7 auf die SSD geklatscht.
Hierfür physdiskwrite und die GUI dazu so einstellen dass sie immer mit admin rechten laufen.
Dann die SSD (ohne Partition, nicht eingehängt, im Explorer nicht sichtbar)
mit der angezeigten Größe 0 auswählen, FreeNAS image auswählen,
bestätigen dass auf dieses dev geschrieben werden soll,
irgendwas mit 2GB-Grenze auswählen (will keine 2GB-Grenze),
warten, fertig.

Erster kurzer Test ergab 80-100 MB/s über Samba und 1GbE. Passt.
Hier könnte auch die HDD des Quellsystems gebremst haben,
bislang hat nur mein Notebook ne SSD (aber nur nen 100er NIC).
Hab dann nicht weiter getested, weil die Platten im offenen
Aufbau so langsam warm wurden.
 
Da das System neu ist, sind noch keine Jobs erstellt. Es geht erstmal nur um den reinen Email-SMTP-Test. Die Maileinstellungen stimmen, da ich sie immer aus einem Passwortprogramm kopiere. TLS nutze ich nicht. Die absolut gleichen Mail-Einstellungen (Adresse, Passwort usw.) funktionieren unter der 0.8er Version ohne Probleme. Auch hier werde ich morgen nochmals in einer VM testen.

Mit welcher Opiton bekomme ich eigentlich die letzte 0.8er napp-it Version auf ein frisches OI installiert?

Bei 0.9 ist ein Testkey für die extensions dabei. Der läuft 30 Tage und meckert, falls der Rechner umbenannt wird. Den kann man aber mit Extension - register - edit löschen

napp-it 0.8 installieren:
wget -O - www.napp-it.org/nappit08 | perö
 
Zuletzt bearbeitet:
Ich bin am verzweifeln...

Seit Solaris 11.1 bekomm ich meine SMB Shares nicht mehr in den Griff. napp-it kann ich nicht zum verwalten verwenden, da meine Pools nicht auf Standard /xyz gelegt sind, sondern auf /mnt/pool/xyz außerdem kommt immer noch die Fehlermeldung mit sharemgr, das war glaub ich bei Solaris 10 noch da, aber neueren Versionen ist das ja nicht mehr vorhanden.


Code:
root@ZFSSERVER:~# share
IPC$            smb     -       Remote IPC
c$      /var/smb/cvol   smb     -       Default Share
storage_backup  /mnt/storage/backup     smb     -
Backup  /mnt/storage/backup     smb     -

Ich habe immer 2 SMB Freigaben vom selben ZFS Folder...

Code:
root@ZFSSERVER:~# zfs get -r share storage/backup
NAME                           PROPERTY  VALUE  SOURCE
storage/backup                 share     name=storage_backup,path=/mnt/storage/backup,prot=smb  local
storage/backup                 share     name=Backup,path=/mnt/storage/backup,prot=smb  local

So sieht es aktuell aus.

Code:
root@ZFSSERVER:~# zfs set -c share=name=storage_backup storage/backup
share 'storage_backup' was removed.

Ok soll also weg sein (hatte bei Solaris 11.0 geklappt)... ist es aber nicht siehe:

Code:
root@ZFSSERVER:~# zfs get -r share storage/backup
NAME                           PROPERTY  VALUE  SOURCE
storage/backup                 share     name=storage_backup,path=/mnt/storage/backup,prot=smb  local
storage/backup                 share     name=Backup,path=/mnt/storage/backup,prot=smb  local

Aber wenn ich mit Windows auf meinen Server gehe, ist dieser storage_backup Ordner weg und nur der Backup Ordner ist da, wäre ja schön aber, nach jedem Neustart ist dieses dumme storage_backup Share wieder da.

Falls es noch hilft hier noch die restlichen Einstellungen:

Code:
root@ZFSSERVER:~# zfs get share.all,share.smb.all storage/backup
NAME            PROPERTY                VALUE                SOURCE
storage/backup  share.auto              off                  local
storage/backup  share.autoname          off                  local
storage/backup  share.desc                                   default
storage/backup  share.nfs               off                  default
storage/backup  share.nfs.*             ...                  default
storage/backup  share.point             /mnt/storage/backup  inherited from storage
storage/backup  share.protocols         smb                  local
storage/backup  share.smb               on                   local
storage/backup  share.smb.*             ...                  default
storage/backup  share.smb.abe           off                  default
storage/backup  share.smb.ad-container                       default
storage/backup  share.smb.catia         off                  default
storage/backup  share.smb.csc                                default
storage/backup  share.smb.guestok       off                  default
storage/backup  share.smb.none                               default
storage/backup  share.smb.ro                                 default
storage/backup  share.smb.rw                                 default


Kann mir jemand helfen, ich bekomme das nicht in den Griff. Danke.


/EDIT

Ich fasse es nicht, ich hab geschafft, Juhu :banana: (steht auch noch etwas mehr dazu hier: Managing SMB Shares - Managing SMB File Sharing and Windows Interoperability in Oracle Solaris 11.1)

Lösung:

1: zfs set share.autoname=off storage/backup

2: zfs set share=name=Backup,path=/mnt/storage/backup,prot=smb storage/backup

3: zfs set share.smb=on storage/backup

4: zfs set -c share=name=storage_backup storage/backup

Nun gibt es auch nach einem Neustart keinen SMB Ordner mit "storage_backup" sondern nur deine eine "Backup".
 
Zuletzt bearbeitet:
Bei 0.9 ist ein Testkey für die extensions dabei. Der läuft 30 Tage und meckert, falls der Rechner umbenannt wird. Den kann man aber mit Extension - register - edit löschen

napp-it 0.8 installieren:
wget -O - www.napp-it.org/nappit08 | perö

Danke. Ja das mit dem Key hab ich jetzt rausbekommen. Wenn ich ein "_" im Rechnernamen habe, erkennt das napp-it 0.9 nicht korrekt. Unter 0.8 gings. 06.01.jpg

Das mit den emails habe ich nicht hinbekommen. Unter 0.9 gehts einfach nicht und ich weiß nicht worans liegt. Gleiches System mit OI 151a7 und napp-it 0.8-> die mails funktionieren.
 
@gea: ich teste grade mögliche Konfigurationen in der VMware Workstation und bin gerade bei OpenIndiana mit der LiveCD (151a5) und bekomme bei dem Befehl "wget -O - www.napp-it.org/nappit | perl" mehrere Fehler ala "The proposed operation cannot be performed on a live image"
Habe bis hier hin lediglich die Grundeinstellungen (LAN, Uhrzeit, etc.) angepasst, ansonsten ist das System Jungfräulich - Was muss ich noch beachten, bzw. was mache ich falsch? (Dieses Tutorial wollte ich nutzen: http://www.napp-it.org/doc/downloads/all-in-one.pdf)
 
Hast Du nur von der LiveCD gebootet? Dann geht das natürlich nicht. Erst das System auf einer Platte installieren. Dafür gibt es ein Icon auf dem Desktop.
 
@milleniumpilot: ich habe das System natürlich via Shortcut auf dem Arbeitsfläche installiert.
Die virtuelle CD (iso) ist auch nicht eingehängt, sprich die VM booted von 'Festplatte'!

---
hab jetzt mal die neuste version der livecd (151a7) runtergeladen und siehe da: es funktioniert :)
 
Zuletzt bearbeitet:
Müssen alle Platten für ein RAID-Z1 gleich groß sein?
Möchte evtl. 5 Festplatten im Z1-Verbund betreiben: 4x 2TB 1x1,5TB
Würde das funktionieren und netto 7,5TB Speicherplatz rauskommen (4x2TB+1,5TB - 2TB Parität)?
 
Müssen alle Platten für ein RAID-Z1 gleich groß sein?
Möchte evtl. 5 Festplatten im Z1-Verbund betreiben: 4x 2TB 1x1,5TB
Würde das funktionieren und netto 7,5TB Speicherplatz rauskommen (4x2TB+1,5TB - 2TB Parität)?


Die Platten müssen nicht gleich groß sein -
die kleinste bestimmt aber die Kapazität

also ergibt das 5 x 1,5 TB = 7.5 TB Raw = 6 TB nutzbar.
Lohnt also nicht denn

4 x 2 TB = 8 TB Raw = 6 TB nutzbar
dann besser die 1,5er verkaufen oder besser für Backup nutzen
 
Nach einer kleinen Unachtsamkeit beim Erstellen eines neuen Volumes habe ich nun "Disk Ghosts" ( wenn man es so nennen darf ) die als Timeout von einem
LSI 9207-8E Controller gemeldet werden. Die Disks wurden zuerst auf einem mpt_sas Pfad erkannt und ich habe das Volume zu diesem Zeitpunkt erstellt, das war der
Fehler. Danach habe ich eine Anpassung in /kernel/drv/scsi_vhci.conf vorgenommen, damit mpxio korrekt funktioniert. Nun wurde jede zweite Disks quasi als neues
Gerät erkannt, wodurch ich nun 12 Ghosts im System habe, die den Reboot enorm verlangsamen, sowie die Error Logs aufblähen.
Sollte ich zurückschalten auf mpt_sas und hoffen, dass ich das alte Volume importieren kann um es zu zerstören ? Das wird vermutlich nicht funktionieren, weil ich vor
dem editieren der scsi_vhci.conf ein zpool destroy durchgeführt habe.

edit : Wie vermutet lässt sich der zerstörte Pool nicht importieren.
edit2: Habe nun /etc/zfs/zpool.cache gelöscht und die Fehlermeldungen beim Boot sind schonmal weg. dmesg gibt allerdings noch weitere Fehler aus.

Code:
Jan  8 13:00:58 z1 scsi: [ID 243001 kern.warning] WARNING: /pci@0,0/pci8086,3c0a@3,2/pci1000,3040@0 (mpt_sas16):
Jan  8 13:00:58 z1      mptsas_handle_event: IOCStatus=0x8000, IOCLogInfo=0x31120101


edit3: Hm refurbished SAS I/O Module im JBOD.... teste ein anderes *grml* Benchmarks laufen gerade um Last zu erzeugen.
edit4: Es war ein Hardwarefehler.
 
Zuletzt bearbeitet:
Mich hat es jetzt auch gepackt und ich kaufe gerade eifrig die Einzelteile für mein neues ZFS-NAS :love: Es wird aus 5 640GB HDD im RAIDZ1 bestehen, plus eventuelle SSD für ZIL oder L2ARC. Gute Überleitung...
Ich versuche gerade zu veranschlagen welche CPU-Klasse ich brauche und wollte nach euren Meinungen fragen.

Der Pool wird nicht verschlüsselt und vermutlich auch nicht komprimiert, ebenso sind die Schreibraten (lol: Schrei-Braten) sekundär. Auf das Gerät wird nur im seltensten Fall mehr als ein paralleler Zugriff erfolgen. Wenn dann zwei, wobei einer ein Stream sein wird. Ich möchte aber definitiv Deduplikation betreiben. Der Grund dafür sind liegt im Verwendungszweck. Als Daten werden dort Backups von bis zu drei Geräten abgelegt und private Daten wie Fotos, EBooks und Filme. Der Zugriff erfolgt von unterschiedlichen Systemen und es ist einfach praktisch Sachen in verschiedenen Volumes liegen zu haben.

Ich habe nun fast alles für ein AM3 System zusammen, bin mir aber bei der CPU unschlüssig:

Reicht ein Athlon II X2? Lieber ein Phenom II X6?


Vielleicht könnt ihr mir einen Rat geben. :wink:
 
Zuletzt bearbeitet:
Nimm einen Quadcore, kostet nicht viel mehr. Ram solltest du ECC kaufen, die meisten AM3-Boards unterstützen ECC, sollten mindestens 4GB sein, besser 8GB oder mehr.
 
Ich möchte aber definitiv Deduplikation betreiben.

Dedup macht im privaten Umfeld in den wenigsten Fällen Sinn - und kann u.U. Ram in rauhen Mengen verschlingen. Die Dedup-Table darf maximal 25% des vorhandenen Arbeitsspeichers nutzen und Pi mal Daumen kannst du pro Terabyte Nutzdaten mit 1GByte Ram rechnen, heißt also bei 2 TByte Kapazität kannst du schonmal mindestens 8 GByte Ram anschaffen.

Lieber Komprimierung aktivieren und da sparen (natürlich abhängig von der Datenstruktur - auf meinen Laufwerken mit ISO-Dateien und Office-files schaffe ich teilweise 1.10x, das ist schon ein guter Wert.

Ich würde in dem Fall einen schnellen (2x3 GHz) Dual Core Athlon vorziehen.
 
Möchte mir gerne einen HP Microserver N40L als Backup (mit ZFS) fuer meinen Server (Windows Server) kaufen.
Würde das N40L dann mit 8GB Ram erweitern.
Frage ist ob die CPU des N40L für ZFS ausreicht? (Es ist geplant das N40L einmal pro Woche anzuschalten und via 1Gbit LAN ein Backup zu starten.) Dabei wuerde ich schon gerne das Gbit ausreizen (also 65-85MB/s sollten es schon sein).
Nun die Frage: Welches OS soll ich dafür nehmen (N40L ist ja nicht gerade Leistungsstark). Ich denke OI-nappit, FreeNas oder Nas4free wird es werden, bloss schwanke ich zwischen diesen...
(Da aber FreeNas seit 8.3 auch ZFS v28 hat, faellt mMn nas4free weg, da FreeNas doch "älter" und dadurch "ausgereifter" ist. Bitte korrigiert mich falls ich falsch liege.
Das OS soll aufjedenfall auf einen USB-Stick installiert und hochgefahren werden.
Habe mal gelesen das OI fuer Windows Freigaben Schneller ist bzw das besser in dem Kernel integriert ist? richtig?
Deswegen tendiere ich z.Z zu OI, falls der n40L das ueberhaupt packt.
(Ich koennte auch selber einen kleinen mini-itx PC bauen, jedoch waere das N40L die einfachere und wahrscheinlich guenstigere Wahl.)
 
Zuletzt bearbeitet:
Möchte mir gerne einen HP Microserver N40L als Backup (mit ZFS) fuer meinen Server (Windows Server) kaufen.
Würde das N40L dann mit 8GB Ram erweitern.
Frage ist ob die CPU des N40L für ZFS ausreicht? (Es ist geplant das N40L einmal pro Woche anzuschalten und via 1Gbit LAN ein Backup zu starten.) Dabei wuerde ich schon gerne das Gbit ausreizen (also 65-85MB/s sollten es schon sein).
Nun die Frage: Welches OS soll ich dafür nehmen (N40L ist ja nicht gerade Leistungsstark). Ich denke OI-nappit, FreeNas oder Nas4free wird es werden, bloss schwanke ich zwischen diesen...
(Da aber FreeNas seit 8.3 auch ZFS v28 hat, faellt mMn nas4free weg, da FreeNas doch "älter" und dadurch "ausgereifter" ist. Bitte korrigiert mich falls ich falsch liege.
Das OS soll aufjedenfall auf einen USB-Stick installiert und hochgefahren werden.
Habe mal gelesen das OI fuer Windows Freigaben Schneller ist bzw das besser in dem Kernel integriert ist? richtig?
Deswegen tendiere ich z.Z zu OI, falls der n40L das ueberhaupt packt.
(Ich koennte auch selber einen kleinen mini-itx PC bauen, jedoch waere das N40L die einfachere und wahrscheinlich guenstigere Wahl.)

Der Solaris CIFS Server ist schon deutlich "Windows kompatibler" als SAMBA und meist auch schneller -
auf jeden Fall einfacher zu konfigurieren. Ich würde jedoch als Basis OS Omni-OS statt OI nehmen
(stable release, extrem schlank und schnell, besonders aktuell).

Bis auf SmartOS sind jedoch die Solarisartigen Systeme nicht auf USB ausgelegt, was bedeutet dass USB geht, es aber ziemlich langsam ist. Wenn Solaris, würde ich auf jeden Fall eine kleine SSD (ab 20 GB oder Laptop-Platte) als Systemplatte nehmen. (N40 hat 6 x Sata onboard, eventuell anstatt des CD Laufwerk ein Bootlaufwerk einbauen oder eSATA wieder zurückführen. Eine kleine SSD kriegt man immer noch irgendwie unter - zur Not mit doppelseitigem Klebeband)

Die angepeilte Geschwindigkeit ist auf jeden Fall machbar.
 
Ich habe mir mal die omnios VM installiert, den Controller per Passthrough durchgereicht.
Jetzt bekomme ich beim klicken auf Platten -> Details o. hinzufügen immer nur eine ewig ladende Website und:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
c2t0d0s0 ONLINE 0 0 0

errors: No known data errorsexe (get-disk.pl 28): parted -lm

Any ideas?
 
Ich habe mir mal die omnios VM installiert, den Controller per Passthrough durchgereicht.
Jetzt bekomme ich beim klicken auf Platten -> Details o. hinzufügen immer nur eine ewig ladende Website und:
Any ideas?

parted bleibt bei Platten hängen, die keine oder keine passende Partitionstabelle haben.
Dann per Menü Disk - Initialize die Platten erst initialisieren.
 
besser 8GB oder mehr.
Ja, 8GB sind als Minimum gesetzt.

Dedup macht im privaten Umfeld in den wenigsten Fällen Sinn - und kann u.U. Ram in rauhen Mengen verschlingen.
Ich bin wie gesagt darauf vorbereitet eine MLC-SSD als Cache einzusetzen.

Ich würde in dem Fall einen schnellen (2x3 GHz) Dual Core Athlon vorziehen.
Nimm einen Quadcore, kostet nicht viel mehr.

Ich glaube ich tendiere nun zu Aussage B) und plane einen Quadcore.

Mein Planung ist aber etwas schwieriger geworden und ich will damit nicht den Thread vollkotzen. Ich starte einen neuen hier im Unterforum, würde mich freuen wenn ihr dort reinschauen könntet. :wink:
 
parted bleibt bei Platten hängen, die keine oder keine passende Partitionstabelle haben.
Dann per Menü Disk - Initialize die Platten erst initialisieren.

Ah stimmt !Hatte ich letztens sogar noch mitgelesen. Funktioniert nun.
Allerdings kann ich jetzt keinen neuen Pool o. Vdev anlegen (?)
processing, please wait..

About Hilfe Dienste System Benutzer Platten Pools ZFS Dateisysteme Schnappschüsse Comstar Aufgaben Extensions Extras Privates
home Pools Anlegen

Software error:

Perl API version v5.16.0 of IO::Tty does not match v5.14.0 at /usr/perl5/5.14.2/lib/i86pc-solaris-thread-multi-64int/DynaLoader.pm line 213.
Compilation failed in require at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7.
Compilation failed in require at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
Compilation failed in require at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1719.
BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1719.

For help, please send mail to this site's webmaster, giving this error message and the time and date of the error.
Software error:

[Wed Jan 9 11:07:37 2013] admin.pl: Perl API version v5.16.0 of IO::Tty does not match v5.14.0 at /usr/perl5/5.14.2/lib/i86pc-solaris-thread-multi-64int/DynaLoader.pm line 213.
[Wed Jan 9 11:07:37 2013] admin.pl: Compilation failed in require at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7.
[Wed Jan 9 11:07:37 2013] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7.
[Wed Jan 9 11:07:37 2013] admin.pl: Compilation failed in require at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
[Wed Jan 9 11:07:37 2013] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Expect.pm line 22.
[Wed Jan 9 11:07:37 2013] admin.pl: Compilation failed in require at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1719.
[Wed Jan 9 11:07:37 2013] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1719.
Compilation failed in require at admin.pl line 442.

For help, please send mail to this site's webmaster, giving this error message and the time and date of the error.
[Wed Jan 9 11:07:37 2013] admin.pl: [Wed Jan 9 11:07:37 2013] admin.pl: Perl API version v5.16.0 of IO::Tty does not match v5.14.0 at /usr/perl5/5.14.2/lib/i86pc-solaris-thread-multi-64int/DynaLoader.pm line 213. [Wed Jan 9 11:07:37 2013] admin.pl: [Wed Jan 9 11:07:37 2013] admin.pl: Compilation failed in require at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7. [Wed Jan 9 11:07:37 2013] admin.pl: [Wed Jan 9 11:07:37 2013] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/IO/Pty.pm line 7. [Wed Jan 9 11:07:37 2013] admin.pl: [Wed Jan 9 11:07:37 2013] admin.pl: Compilation failed in require at /var/web-gui/data/napp-it/CGI/Expect.pm line 22. [Wed Jan 9 11:07:37 2013] admin.pl: [Wed Jan 9 11:07:37 2013] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/CGI/Expect.pm line 22. [Wed Jan 9 11:07:37 2013] admin.pl: [Wed Jan 9 11:07:37 2013] admin.pl: Compilation failed in require at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1719. [Wed Jan 9 11:07:37 2013] admin.pl: [Wed Jan 9 11:07:37 2013] admin.pl: BEGIN failed--compilation aborted at /var/web-gui/data/napp-it/zfsos/_lib/zfslib.pl line 1719. [Wed Jan 9 11:07:37 2013] admin.pl: Compilation failed in require at admin.pl line 442.
 
Zuletzt bearbeitet:
Omni-OS stable und bloody brauchen unterschiedliche tty.io Module.
Ein aktuelles napp-it 0.9 sollte das erkennen und die jeweils richtige nutzen

(kopiert den Inhalt von /var/web-gui/data/tools/omni_bloody/ oder /var/web-gui/data/tools/omni_stable/ nach /var/web-gui/data/napp-it/)
 
komisch, denn ich habe schon die 0.9a3 drauf.
Vorhin alles frisch installiert.

ich schaue mal..

Nächstes Problem: habe den Hostnamen geändert.

Jetzt im Webinterface ein
oops...

This key is only valid on host omnios-bloody

Hattest du nicht geschrieben das es an die IP gebunden ist?
Ich habe übrigens keinen "_" im Hostnamen.

PS: ist auch nicht so wichtig.

Edit3;
Und im Menü springt trotz ausgewählter Sprache "deutsch" das Webinterface teilw. zwischen Deutsch und Englisch hin und her,
mal werden einige Menüs deutsch angezeigt, mal englisch. Bekannt?

Gruß
 
Zuletzt bearbeitet:
komisch, denn ich habe schon die 0.9a3 drauf.
Vorhin alles frisch installiert.

ich schaue mal..

Nächstes Problem: habe den Hostnamen geändert.

Jetzt im Webinterface ein

Hattest du nicht geschrieben das es an die IP gebunden ist?
Ich habe übrigens keinen "_" im Hostnamen.

PS: ist auch nicht so wichtig.

Edit3;
Und im Menü springt trotz ausgewählter Sprache "deutsch" das Webinterface teilw. zwischen Deutsch und Englisch hin und her,
mal werden einige Menüs deutsch angezeigt, mal englisch. Bekannt?

Gruß


- Extension sind an hostname gebunden
- napp-it ist aktuell nur zum allerkleinsten Teil eingedeutscht

-welches Omni-Build ist es denn?
napp-it about oder uname -a
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh