[Sammelthread] ZFS Stammtisch

Geht soweit ich weiß nicht, da die ZFS Version von Solaris Express 11 in Openindiana nicht unterstützt wird (Oracle hat den Code nie freigegeben).

Danke für die Info. Umkopieren wäre aber keine Sache (neue virtuelle Maschine mit OI und napp-it, neuer Pool und dann rüber und danach den SE Pool löschen). Bin nur unsicher ob OI inzwischen Verschlüsselung kann oder nicht.

Gruss Otto

Lese gerade hier http://www.hardwareluxx.de/community/f101/zfs-stammtisch-570052-73.html Ok. Mal durchkauen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
dmcrypt & ZFSonLinux oder GELI & FreeBSD, Verschlüsselung ist kein Problem. Die Performance der nativen ZFS-Encryption bei Oracle ist sowieso absoluter Käse, selbst mit AES-NI rödelt die CPU da um einiges mehr als unter Linux, sehr enttäuschend, einfach mal ein paar Benchmarks anschauen.

Kurzanleitung für Linux, nicht vollständig, nur für einen groben Überblick:
Ich verwende hier ein Keyfile, so muss ich nicht für jede Festplatte das Passwort eingeben. Das Keyfile liegt auf der verschlüsselten Rootpartition.
ZFSonLinux und cryptsetup installieren, ich verwende Debian Squeeze mit 3.2er Kernel (da der 2.6.32 kein xts-plain64 und dmcrypt nicht wirklich threads kann) aus den Backports sowie die ZFSonLinux Ubuntu-PPA, deren Ubuntu 10.04 Lucid Pakete sind binärkompatibel mit Debian 6.0 Squeeze.
Keyfile für LUKS erstellen:
dd if=/dev/urandom of=decryptor.key bs=512 count=4
chown root.root decryptor.key
chmod 400 decryptor.key


Alle Festplatten die in euren zpool sollen verschlüsseln:
cryptsetup luksFormat -c aes-xts-plain64 -s 512 -h sha512 --align-payload=2048 /dev/sdb /root/decryptor.key
--align-payload=2048 ist für 4K-Festplatten, also quasi jede SSD sowie jede HDD über 2TB (Advanced Format).

Dann Geräte in /etc/crypttab eintragen, UUID mit cryptsetup luksUUID /dev/sdb herausfinden:
# <target name> <source device> <key file> <options>
Festplatte_001_Samsung_XYZ UUID=cc3410bf-b136-46f6-ad85-7d9a6b788ed4 /root/decryptor.key luks
Festplatte_002_Samsung_XYZ UUID=eure-uuid- /root/decryptor.key luks
Festplatte_003_Samsung_XYZ UUID=eure-uuid- /root/decryptor.key luks
Festplatte_004_Samsung_XYZ UUID=eure-uuid- /root/decryptor.key luks

reboot oder /etc/init.d/cryptdisks reload (unter Debian, bei anderen Distris abweichend, im Zweifel rebooten) .

Die verschlüsselten Festplatten sollten nun automatisch eingehängt sein, prüfen mit ls -al /dev/mapper/ .

zpool create -o ashift=12 poolname raidz2 /dev/mapper/Festplatte_001_Samsung_XYZ /dev/mapper/Festplatte_002_Samsung_XYZ /dev/mapper/Festplatte_003_Samsung_XYZ /dev/mapper/Festplatte_004_Samsung_XYZ

-o ashift=12 ist für 4K-Festplatten, also quasi jede SSD sowie jede HDD über 2TB (Advanced Format).

Ich habe meine Festplatten alle nummeriert und in einer Exceltabelle inklusive Kaufdatum, Seriennummer, LUKS-UUID... eingetragen, sollte es mal Fehler geben kann ich die Festplatte so sehr schnell identifizieren und weiß auch sofort ob ich noch Garantie habe oder nicht.


OT: Schade dass es Napp-IT nicht für Linux gibt, würde direkt eine Lizenz kaufen. ;)
 
Zuletzt bearbeitet:
Hallo,

ich bau mir gerade ein neues NAS zusammen und grübel noch über meinen Datenverbund.
Bis jetzt habe ich ein vollverschlüsseltes System (Ubuntu 12.04 Server) und habe 4 2TB Platten als verschlüsseltes Raid5 aufgesetzt (gerade zum Test XFS).
Da ist ja die Reihenfolge: Raid5 - luks - Dateisystem
Ein testweiser Raid Rebuild mit einer neuen Platte geht aber dauert natürlich seine Zeit.

Welche Vorteile hätte ich durch dein Setup?
Was passiert wenn eine Platte ausfällt? Wird das Raid trotzdem gemountet?
Der Rebuild sollte ja durch das ZFS nach dem Entschlüsseln wesentlich schneller funktionieren und die sonstigen ZFS Vorteile greifen ja auch... oder habe ich etwas übersehen?
Kommt mir sehr ungewohnt vor die Platten einzeln zu verschlüsseln und danach das RaidZ anzulegen - du hast aber wohl gute Erfahrungen damit gemacht, oder?

Danke
 
Hallo,
ich versuche momentan napp-it auf openindiana zum laufen zubringen.
Die installation ging Problemlos.
Aber bei der Einrichtung von einem zfs pool meinte napp-it das ich nur eine Festplatte im system habe.
Es sind aber 5 Festplatten vorhanden. Eine 146gb sata platte für das system und 4x 2TB Festplatten.
Napp-IT erkennt nur die kleine system festsplatte und eine 2TB platte
Vorher habe ich auf diesem System FreeNas 8, NexentaStor und openmediavault gestestet und alle liefen Problemlos, bei allen konnte ich entweder ein raid oder ein zfs pool einrichten und nutzen.

Nur Napp-IT verweigert den dienst.
Kennt vll. jemand die lösung dieses Problems?

AVAILABLE DISK SELECTIONS:
0. c0d0 <Hitachi- MN1220F307ZSR-0001-1.82TB>
/pci@0,0/pci-ide@1f,2/ide@0/cmdk@0,0
1. c0d1 <ST320005- 6XW21E1-0001-1.82TB>
/pci@0,0/pci-ide@1f,2/ide@0/cmdk@1,0
2. c1d0 <Unknown-Unknown-0001 cyl 19454 alt 2 hd 255 sec 63>
/pci@0,0/pci-ide@1f,2/ide@1/cmdk@0,0
3. c1d1 <ST320005- 6XW1YNQ-0001-1.82TB>
/pci@0,0/pci-ide@1f,2/ide@1/cmdk@1,0
4. c3t1d0 <ATA-Hitachi HDS72302-A180-1.82TB>
/pci@0,0/pci8086,27d0@1c/pci197b,2363@0/disk@1,0

nur c3t1d0 ATA Hitachi HDS72302 2.00 TB wird von nappit im WebGUI erkannt.
mfg
 
Zuletzt bearbeitet:
Was passiert wenn eine Platte ausfällt? Wird das Raid trotzdem gemountet?
Das ist von der Verschlüsselung völlig unabhängig, hat damit nichts zu tun.

Bitte verwende bei Pools über 10TB Gesamtgröße immer mindestens Raid-Z2 (Raid6), bei 20TB aufwärts Raid-Z3 (Raid7), ansonsten kommst du in schnell in die Bereiche des tatsächlich wahrscheinlichen Datenverlustes bei einem Rebuild, siehe:
[H]ard|Forum - View Single Post - ZFS: RAID-Z3 (raidz3) Recommended Drive Configuration :
RAID-Z3 is better than RAID 10 in most cases that do not require high performance for small, random writes. Certainly for a media server, the performance of RAID-10 is not required.

First, with 10 drives of capacity C, you get only 5C available capacity with RAID 10. You get 7C with RAID-Z3. That is 40% more space.

Then there is the probability of data loss.

Assume that the probability of a single drive failing during a rebuild (i.e., after you have already lost one drive) is F. Note that F is probably higher than the pro-rated annual failure rate over the rebuild time, since all of the data on at least one of the drives must be read during the rebuild, which creates a greater stress on the drive(s) than is seen by the average drive in AFR studies.

So, the probability of data loss with RAID 10, after one drive has already failed, is F.

After a single drive failure with RAID-Z3, you must lose at least three more drives for data loss to occur. To compute this, we need the general formula for probability of failure of exactly X drives out of K drives. It is

C[K, X] F^X (1 - F)^(K - X)

where C[K, X] is the combination formula, the number of ways of choosing X out of K:

C[K, X] = K! / ( X! (K - X)! )

The probability of losing at least 3 drives out of an N-drive RAID-Z3 that has had a single drive failure is (1 - P3), where P3 is the probability of losing 0, 1 or 2 drives.

P3 = (1 - F)^(N - 1) + (N - 1) F (1 - F)^(N - 2) + (N - 1)(N - 2) F^2 (1 - F)^(N-3) / 2

As long as we have that formula, it is easy to compute the corresponding P for RAID-Z1 and RAID-Z2:

P2 = (1 - F)^(N - 1) + (N - 1) F (1 - F)^(N - 2)

P1 = (1 - F)^(N - 1)

Let's take an example. We will assume F = 5%. A 16-drive RAID-10 will have a capacity of 8C, the same as an 11-drive RAID-Z3, a 10-drive RAID-Z2, or a 9-drive RAID-Z1. So, for a capacity of 8C, the probability of data loss during a rebuild after a single drive failure is:

RAID-10:
F = 5%

RAID-Z1:
1 - (1 - F)^(9 - 1) = 33.7%

RAID-Z2:
1 - (1 - F)^(10 - 1) - (10 - 1) F (1 - F)^(10 - 2) = 7.1%

RAID-Z3:
1 - (1 - F)^(11 - 1) - (11 - 1) F (1 - F)^(11 - 2) - (11 - 1)(11 - 2) F^2 (1 - F)^(11 - 3) / 2
= 1.15%

So, for a capacity of 8C, you need only 11 drives with RAID-Z3, as compared to 16 drives with RAID-10, and your probability of data loss during a rebuild after a single drive failure is only 1% with RAID-Z3, as compared to 5% with RAID-10.

If F were only 2%, then the corresponding data loss probabilities for RAID-10, -Z1, -Z2, -Z3 are: 2%, 14.9%, 1.3%, and 0.086%. So that is less than 0.09% for RAID-Z3, as compared to 2% for RAID-10 : 23 times higher chance of data loss with RAID-10 as compared to RAID-Z3 !

Bottom line is that RAID-Z3 is greatly superior to RAID-10, except in rare applications where the higher performance of RAID-10 is required.

Wenn bei mir eine Festplatte ausfällt tausche ich sie nicht sofort aus sondern mach mit ddrescue -n /dev/defektehdd /dev/neuehdd logdatei.log eine Kopie von der defekten Festplatte auf die Austauschfestplatte, so wird ein langwierigere Resilver-Vorgänge umgangen, es müssen danach nur die tatsächlich nicht mehr lesbaren Dateien resilvert werden, das schont die Festplatten und minimiert die Ausfallwahrscheinlichkeit für den kompletten Pool weil nicht wieder von allen Festplatten dauerhaft für 15 Stunden gelesen wird.

Ein Raid-Z1 (Raid5) kann ziemlich schnell ausfallen, sofern du kein Backup hast und dir deine Daten lieb sind, lass die Finger davon.
Wenn du Raid-Z3 verwendest fallen statisch gesehen bevor 3 Festplatten ausfallen die Controller, Kabel, Backplanes... aus, du bist damit also ziemlich gut abgesichert gegen "reguläre" Hardwareausfälle. Natürlich ersetzt das alles kein vernünftiges Backupkonzept. Aber wenn es aber darum geht Datensicherheit von sehr großen Datenmengen ohne ein Budget für die doppelte Haltung der Daten (Cloud/seperates System in anderer Brandzone...) aufzuwenden, also der typische Anwendungsfall Homeserver, bist du hier optimal aufgestellt.

Um eine optimale Performance mit 4K/AF-Drives zu erhalten sollte man auch immer auf eine optimale Stripesize achten:
[H]ard|Forum - View Single Post - ZFS NAS build, how to arrange 8x1.5TB drives?
128KiB / (nr_of_drives - parity_drives) = maximum (default) variable stripe size

3-disk RAID-Z = 128 / 2 = 64KiB
5-disk RAID-Z = 128 / 4 = 32KiB
9-disk RAID-Z = 128 / 8 = 16KiB

4-disk RAID-Z2 = 128 / 2 = 64KiB
6-disk RAID-Z2 = 128 / 4 = 32KiB
10-disk RAID-Z2 = 128 / 8 = 16KiB

4-disk RAID-Z3 = 128 / 1 = 128
5-disk RAID-Z3 = 128 / 2 = 64
7-disk RAID-Z3 = 128 / 4 = 32
11-disk RAID-Z3 = 128 / 8 = 16
Also ein Raid-Z1 immer mit 3,5 oder 9 Festplatten, ein Raid-Z2 immer mit 4,6 oder 10 und ein Raid-Z3 immer mit 4,5,7 oder 11 Festplatten.
Man kann auch von der Größe abweichen, hat dann aber etwas weniger Performance. Das ist zwar meistens nicht wirklich relevant, aber wenn das Maximum raus holen willst, halte dich an diese Guidelines.

Der Rebuild sollte ja durch das ZFS nach dem Entschlüsseln wesentlich schneller funktionieren und die sonstigen ZFS Vorteile greifen ja auch... oder habe ich etwas übersehen?
Kommt mir sehr ungewohnt vor die Platten einzeln zu verschlüsseln und danach das RaidZ anzulegen - du hast aber wohl gute Erfahrungen damit gemacht, oder?

Du hast alle Vorteile von ZFS, durch die Nutzung von Verschlüsselten Blockdevices unter ZFS bekommt man keine Nachteile im Bereich Daten-Integrität/Daten-Sicherheit/Fehlerhandling oder ähnlichem. Der einzige Nachteil ist eine geringere Performance als wenn man ZFS unverschlüsselt direkt auf die Festplatte schreiben würde, aber das liegt ja in der Natur der Dinge. ;)

Bei meinem RaidZ3-Pool aus 11x Seagate 3TB (ST3000DM001) auf einem Intel Xeon E5-1620, 4x 3.60GHz (Sockel-2011) erreiche ich ~400 mb/s beim Resilvern, ~200mb/s beim Scrubben sowieso volle Gbit-Geschwindigkeit über Samba und NFS, bei moderater CPU-Last, die Cores sind im Schnitt zu 10-30% ausgelastet. Mit der nativen ZFS-Encryption unter Solaris 11 ackert die CPU wesentlich mehr.
 
Zuletzt bearbeitet:
Hallo,
ich versuche momentan napp-it auf openindiana zum laufen zubringen.
Die installation ging Problemlos.
Aber bei der Einrichtung von einem zfs pool meinte napp-it das ich nur eine Festplatte im system habe.
Es sind aber 5 Festplatten vorhanden. Eine 146gb sata platte für das system und 4x 2TB Festplatten.
Napp-IT erkennt nur die kleine system festsplatte und eine 2TB platte
Vorher habe ich auf diesem System FreeNas 8, NexentaStor und openmediavault gestestet und alle liefen Problemlos, bei allen konnte ich entweder ein raid oder ein zfs pool einrichten und nutzen.

Nur Napp-IT verweigert den dienst.
Kennt vll. jemand die lösung dieses Problems?



nur c3t1d0 ATA Hitachi HDS72302 2.00 TB wird von nappit im WebGUI erkannt.
mfg

Das Problem mit der Erkennung von Platten via IDE (4 stellige Nummern z.B. c0d1) ist bekannt und
wird in der nächsten Version 0.9 behoben sein.

Workaround bis dahin:
Pool manuell anlegen oder
Sata im AHCI Modus oder SAS Controller benutzen
 
Zuletzt bearbeitet:
Danke für die Antwort.
Hm, wieso sind die Platten via IDE angebunden? Es sind eigentlich sata platten.
Wo kann ich die Konfiguration dafür auslesen/ändern?

Hm ... mein Board (p5b-mx) unterstützt leider kein AHCI. Muss es dann wohl manuel erstellen.
Habe ich durch manuele Erstellung irgendwelche restriktion in der Zukunft?
lg

PS.
Gibt es irgendwo ein Butrack für nappit im netzt?
Währe recht hilfreich wie ich finde :)
 
Zuletzt bearbeitet:
Danke für die Antwort.
Hm, wieso sind die Platten via IDE angebunden? Es sind eigentlich sata platten.
Wo kann ich die Konfiguration dafür auslesen/ändern?

lg

Im Rechner-Bios aktueller Mainboards kann man Sata zwischen IDE Modus, AHCI und Raid umstellen.
AHCI ist das richtige für aktuelle Systeme, IDE braucht man nur für alte Systeme, die Sata native (AHCI) nicht können.
 
Hab grad noch mal den rechner aufgeschraubt und geschaut, wie die Fesptplatten verbunden sind.
Und alle 4 2TB Festplatten sitzten am gleichem Controller.
Wie kann es dann sein, das sich 3 Festplatten als IDE zu erkennen gaben. Und eine als SATA?
 
Hab grad noch mal den rechner aufgeschraubt und geschaut, wie die Fesptplatten verbunden sind.
Und alle 4 2TB Festplatten sitzten am gleichem Controller.
Wie kann es dann sein, das sich 3 Festplatten als IDE zu erkennen gaben. Und eine als SATA?

Das ist nicht Platten- sondern controller-abhängig.
Einen solchen Mix am gleichen Controller hatte ich aber noch nicht.
Was ist es denn für ein Mainboard und steht der Controller auf AHCI?
 
Das Board ist ein Asus P5B-MX
Es gibt leider keine AHCI Unterstützung auf dem Board.
Die zusätzliche ca.160Gb festplatte für das Betriebsystem ist auf eine "noname" raid karte angebracht.
 
viel gute Info...

Danke für deine tolle ausführliche Antwort.

D.h. der einzige Nachteil wäre dass das Raid unter ZFS nicht erweiterbar ist.
Ich möchte eigentlich nur ein verschlüsseltes NAS das mein GB Netzwerk auslastet (CPU unterstützt AES-NI) d.h. es wird ein RaidZ1 mit 4*2TB Platten.
Die wirklich wichtigen Sachen werden per rsync auf ein kleines NAS bei meinen Eltern gesynct. Sollte das RaidZ verloren sein, ist es nicht ganz so schlimm aber den Komfort mit hoher Wahrscheinlichkeit eine defekte Platte einfach tauschen zu können nehm ich gerne mit :)

Was muss ich beachten wenn die Platten teilweise 4k Platten sind und teilweise nicht? Beim verschlüsseln der einzelnen Platten kann ich ja darauf achten - was muss ich beim anlegen des ZPool beachten?
 
Was muss ich beachten wenn die Platten teilweise 4k Platten sind und teilweise nicht? Beim verschlüsseln der einzelnen Platten kann ich ja darauf achten - was muss ich beim anlegen des ZPool beachten?

ashift=12 (zpool) und --align-payload=2048 (cryptsetup). 4K-Alignment bringt keine Nachteile für 512Byte-Sektoren Festplatten, Windows legt daher Partitionen seit Windows 7 (oder auch schon Vista?) immer mit 4K-Alignment an.
 
Zuletzt bearbeitet:
So, jetzt habe ich mal alles eingerichtet und getestet und irgendwo hab ich n Hund versteckt...

Egal was ich mache - ich komme auf maximal 58MB/s schreibend und lesend auf 40MB/s...
Ich habe es als raidz mit ohne ohne 4K Alignment, als einzelne Platte mit ext4, mit und ohne Verschlüsselung usw. versucht...
Es ist ein Asus P8H77 mit 8GB Ram und nem i5-3550 - die Konfig sollte müde über sowas lächeln (das System ist dabei zu 80% im Idle)
Am gleichen Switch hängt mein alter HTPC mit nem Pentium Dual Core E5200 (nix mit AES). Da steckt ne einzelne Verschlüsselte Platte drin auf die schreib ich mit 85MB/s und les ich mit 95MB/s (vom gleichen Rechner).
Laut iperf und ethtool gibts keine Netzwerkprobleme und hdparm bescheinigt auch anständige leseraten - jetzt bin ich planlos :(

Hat jemand eine idee wo ich ansetzen kann?
 
Egal was ich mache - ich komme auf maximal 58MB/s schreibend und lesend auf 40MB/s...
Ich habe es als raidz mit ohne ohne 4K Alignment, als einzelne Platte mit ext4, mit und ohne Verschlüsselung usw. versucht...
Es ist ein Asus P8H77 mit 8GB Ram und nem i5-3550 - die Konfig sollte müde über sowas lächeln (das System ist dabei zu 80% im Idle)
Hat jemand eine idee wo ich ansetzen kann?
Du hast neben einem Raidz also auch separat mal alle Platten einzeln mit ext4 formatiert? Versuch doch mal bitte probeweise XFS und ggf. noch JFS(2) als Dateisystem.
 
Ich habe das raidz aufgelöst und dann mal zwei Platten mit ext4 formatiert. Nachdem das nichts gebracht hat, habe ich bei einer Platte die Verschlüsselung entfernt und die in ext4 formatiert.
Ich werds heut abend mal mit XFS versuchen und dann mal schauen ob der Samba Server spinnt und es mal mit NFS/SSH usw. versuchen.
Ist halt echt sehr komisch dass lesen langsamer wie schreiben geht...
 
Mal bitte eine genaue Auflistung sämtlicher verwendeter Hardware, Software (Distri, Kernel) und Testmethoden (wobei genau werden diese Geschwindigkeiten erreicht?), ansonsten ist nur Rätsel raten angesagt.
 
Zuletzt bearbeitet:
SSH bzw. SFTP bringt für Performance-Messungen dieser Art eh recht wenig, wenn musst du die Verschlüsselung abstellen, aber da kannst du es auch gleich anders machen.
Wenn man die Performance zuverlässig beim "Dateien hin und her schieben auf HDDs" testen will nimmt man ein Ramdrive oder eine SDD, stellt währenddessen auch den Lese- und Schreibcache ab. Natürlich sollte man sicher gehen dass der Controller auch genügend Bandbreite (PCIE-Lanes, SAS/SATA 3/6/12) für das Vorhaben hat und und und... alles nicht so einfach. ;)
 
Zuletzt bearbeitet:
Liegt wohl am Samba...
Ich hab jetzt mal auf die schnelle einen FTP Server aufgesetzt und habe auf anhieb lesend und schreiben volle Gigabit Geschwindigkeit.
Wie gesagt benutze ich einen frisch installierten Ubuntu 12.04 Server und habe im Netz von diversen Leuten gelesen dass da mitm Samba wohl was im argen liegt bzw. mehrere Geschwindigkeitsprobleme haben.
Ich schau mal was ich machen kann, sonst setz ich n Debian auf :)
 
Mach mal deine /etc/samba/smb.conf leer, installier dir SWAT ( Samba Webinterface) und lass dir davon eine Konfiguration mit den Defaults schreiben. Ich habe leider oft die Erfahrung machen müssen dass die von den Distributionen mitgelieferten Konfigurationsdateien für Samba Probleme (Authentifizierung, Performance...) verursachen, besonders unter Ubuntu.
 
Zuletzt bearbeitet:
Oh mann - es hätte so einfach sein können...
Zum Glück bin ich in einem Forum auf den entscheidenden Tip gekommen. Ich habe für die ganzen Tests über Nautilus (gvfs) auf die Samba Shares zugegriffen.
Naja, da ist wohl irgendwo der Hund drin - als ich die Samba Freigabe einfach "korrekt" gemountet hatte, hatte ich schreibend und lesend knapp 100MB/s auf einer Platte (ein bischen weniger als der FTP Test vorher aber es passt soweit).
So, jetzt teste ich morgen mal mit dem ZFS Pool weiter :)


Ok, jetzt ist morgen...
Schreiben auf den verschlüsselten raidz1 ZFS Pool ~120MB/S lesen vom Pool ~85MB/s
Beim lesen geht bestimmt noch was... mal schaun was ich da nich rausbekomm :)
-----------------------------------------------------------------------------------------------

Eine Nacht weiter - ein neues problem.
Ich habe jetzt mal einen Test gemacht und eine defekte Platte simuliert. Platte offline gesetzt getauscht, verschlüsselt, crypttab angepasst, reboot, platte online, zpool replace...
Jetzt habe ich das problem das der ZFS Mountpoint der sonst nachm Rebooten da war, nicht mehr da ist. Erst wenn ich ihn händisch mittels "zpool mount poolname" mounte ist er da. Dachte zuerst das wäre nur während des resilverns aber es ist immer noch so - ich muss nach einem reboot den Pool erst mounten.
Hab grad ne weile gegoogelt aber nichts passendes dazu gefunden - kennt sich einer von euch da aus?


Hat sich erledigt - man sollte das Wiki auch genauer lesen...
 
Zuletzt bearbeitet:
Morgen zusammen,

Wochenende ist Bastelzeit. Zu meinem vollständigen Glück beim Microserver (da läuft aktuelle Openindiana) fehlt mir noch eines - automatisches Login beim booten. Idee: Freundin drückt auf Anschalter - ein paar Minuten später sieht sie dann auf Windows die Shares. Das geht jetzt schon. Allerdings - um die Kiste runterzufahren muss man napp-it nehmen (der Rechner ist per Remotecard angeschlossen und hat keinen Bildschirm) oder eben remote einloggen. Schön wäre: Einfach nur Knopf drücken und die Kiste fährt rauf, dann wieder Knopf und es geht runter. Ich habe gesehen man kann einstellen - Runterfahren bei Ausschalter drücken. Das geht aber eben nur wenn man sich vorher angemeldet hat.

Google hat nichts ausgespuckt. Fürchte da braucht man ein Skript. Und das kann ich nicht.

Gruss
Otto
 
Morgen zusammen,

Wochenende ist Bastelzeit. Zu meinem vollständigen Glück beim Microserver (da läuft aktuelle Openindiana) fehlt mir noch eines - automatisches Login beim booten. Idee: Freundin drückt auf Anschalter - ein paar Minuten später sieht sie dann auf Windows die Shares. Das geht jetzt schon. Allerdings - um die Kiste runterzufahren muss man napp-it nehmen (der Rechner ist per Remotecard angeschlossen und hat keinen Bildschirm) oder eben remote einloggen. Schön wäre: Einfach nur Knopf drücken und die Kiste fährt rauf, dann wieder Knopf und es geht runter. Ich habe gesehen man kann einstellen - Runterfahren bei Ausschalter drücken. Das geht aber eben nur wenn man sich vorher angemeldet hat.

Google hat nichts ausgespuckt. Fürchte da braucht man ein Skript. Und das kann ich nicht.

Gruss
Otto

Hi,
du könntest es auch so machen, dass du unter Windows mit plink.exe einen shutdown Befehl an deinen Server schickst.
Du legst einen User auf dem OI Server an, welcher das Recht hat mit sudo oder pfexec einen shutdown Befehl ohne Passworteingabe auszuführen.
Mit plink kann man mit dem User und dem shutdown Befehl den Server bequem von Windows aus herunterfahren. Wenn plink ausgeführt wird, muss man nur noch das Passwort des Users eingeben -> fertig.

Für sudo unter OI und plink unter Windows sollte es genügend how-tos im Netz geben.

Ghandalf
 
Hi,
du könntest es auch so machen, dass du unter Windows mit plink.exe einen shutdown Befehl an deinen Server schickst.
Du legst einen User auf dem OI Server an, welcher das Recht hat mit sudo oder pfexec einen shutdown Befehl ohne Passworteingabe auszuführen.
Mit plink kann man mit dem User und dem shutdown Befehl den Server bequem von Windows aus herunterfahren. Wenn plink ausgeführt wird, muss man nur noch das Passwort des Users eingeben -> fertig.



Für sudo unter OI und plink unter Windows sollte es genügend how-tos im Netz geben.

Ghandalf

Ok, das schaue ich mir mal an :-)
Danke!
Otto

Hmm, scheint nicht so schnell zu gehen. Da kann man auch napp-it nehmen.
Könnte das:
"Two – go to /etc/x11/gdm/custom.conf (in newer releases its just /etc/gdm/custom.conf) and manually modify the required fields in the [daemon] section and add the following;

[daemon]
AutomaticLoginEnable=true
AutomaticLogin=username

Note: You cannot auto-logon as root."
Quelle: http://sigtar.com/2009/01/29/open-solaris-autologin/
Gehen? Keine Ahnung ob das Opensolaris auch bei OI geht ...
 
Zuletzt bearbeitet:
Ich muss auch immer mich als erstes normaler Nutzer anmelden und dann als root damit ich meinem ZFS Server herunterfahren kann. Einzige schon erwähnte Alternative napp-it Login und shutdown.
 
Hi,

hier ein kleines HowTo:

Auf dem OI Server:
Code:
useradd -d /export/home/hwluxx -m -s /bin/bash -c "HardwareLuxx" hwluxx
passwd hwluxx

Code:
visudo -> Am Ende folgendes eintragen:
hwluxx ALL = NOPASSWD: /usr/sbin/shutdown
"hwluxx" ist der User und kann angepasst werden.

Bei visudo wird vi als Editor benutzt. Der ist ein wenig komplizierter!
Mit den Cursertasten nach unten scrollen.
Mit "a" kommt man dann ans Zeilenende und mit "enter" eine neue Zeile, dann die Zeile einfügen. Am besten die Zeile schon vorher korrgieren, den im vi ist das nicht so einfach!
Danach mit "ESC" den Insert-Modus verlassen und mit :wq speichern.
Sollte was schiefgelaufen sein, kann man mit :q! den Editor ohne speichern verlassen!
BEACHTE: Im Insert-Modus funktionieren keine Curser-Tasten!! Wenn gescrollt werden muss, vorher mit "ESC" den Inser-Modus verlassen!

Bei Windows:
Erstelle eine .bat Datei:
Code:
@echo off

"C:\Program Files (x86)\Putty\plink.exe" 192.168.10.200 -l hwluxx -pw xxx sudo /usr/sbin/shutdown -y -g5 -i5

echo "OpenIndiana is shutting down"
pause

-pw kann auch weggelassen werden, dann muss das Passwort immer eingegeben werden.

Das wars auch schon. Damit lässt sich der OI Server herunterfahren.

EDIT: Hatte bei Server noch sudo vergessen!!

Grüße Ghandalf
 
Zuletzt bearbeitet:
Super Ghandalf!
Wenn ich heute Abend nach 3 Saunaaufgüssen noch in der Lage bin mache ich mich dran :-)
LG
Otto

---------- Post added at 13:02 ---------- Previous post was at 13:01 ----------

Aha Leute - wir knacken bald die 100 Seiten Marke :-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh