[Sammelthread] ZFS Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Lohnt sich ein evtl. Umsteieg von einer OI151A VM die als Storage läuft?

Hat das ZFS v. 33 Vorteile (wenn das neuer ist als das im OI151A verwendetet)...
 
Wie sieht es denn bei Solaris 11 Lizenz technisch aus, kann das wie express privat verwendet werden?
Kann man jetzt auch endlich mit pkg Updaten oder braucht man dafür immer noch einen Support contract?
Danke
 
Wie sieht es denn bei Solaris 11 Lizenz technisch aus, kann das wie express privat verwendet werden?
Kann man jetzt auch endlich mit pkg Updaten oder braucht man dafür immer noch einen Support contract?
Danke

License Terms
Oracle Solaris, Oracle Solaris Cluster and Oracle Solaris Express
Oracle Technology Network Developer License Terms for Oracle Solaris, Oracle Solaris Cluster and Oracle Solaris Express

f you want to use the Programs for any purpose other than as permitted under this agreement, including but not limited to distribution of the Programs or any use of the Programs for your internal business purposes (other than developing, testing, prototyping and demonstrating your applications) or for any commercial production purposes, you must obtain a valid license permitting such use. We may audit your use of the Programs.

Also ganz streng genommen sind nur Tests und Demonstation eigener Anwendungen erlaubt,
keine echte Nutzung - auch keine dediziert erlaubte Privatnutzung.

Wenn kostenlos dann OpenIndiana oder Nexentacore (EoL, künftig iCore, Basis wir OpenIndiana)

---------- Beitrag hinzugefügt um 20:21 ---------- Vorheriger Beitrag war um 20:19 ----------

Ist das gratis? Warum hat Oracle dann OpenSolaris eingestampft?

Sie haben's nicht eingestampft, sondern closed source zu Solaris 11
weiterentwickelt - um ganz viel Geld damit zu verdienen.

OpenSolaris wird aber auch frei weiterentwickelt - als OpenIndiana-

---------- Beitrag hinzugefügt um 20:23 ---------- Vorheriger Beitrag war um 20:19 ----------

Lohnt sich ein evtl. Umsteieg von einer OI151A VM die als Storage läuft?

Hat das ZFS v. 33 Vorteile (wenn das neuer ist als das im OI151A verwendetet)...

Es kann vor allem mit ZFS V. 33 mehrere shares auf ein ZFS legen,
wobei der Pfad beliebig ist. Damit lassen sich shares flexibler gestalten.

Als VM: dann vorher auf ESXi5 updaten
 
Zuletzt bearbeitet:
Da bleib ich lieber bei OpenIndiana.

Btw. versuch ich hier grad einen NFS export unter Linux zu mounten aber bekomme keinen Zugriff.

Habe unter OI das ganze mit rw=192.168.2.2,root=192.168.2.2 exportiert:

sharemgr show -vp
default nfs=()
smb smb=()
* /var/smb/cvol
c$=/var/smb/cvol smb=(abe="false" guestok="false") "Default Share"
zfs
zfs/data1/public nfs=() smb=() nfs:sys=(rw="192.168.2.2" root="192.168.2.2")

Beim OI Server taucht unter messages auch immer access denied auf.

Mount:
server:/etc# mount -t nfs -o rw 192.168.2.3:/data1/public /mnt/nfssolaris/

In den Foldern ist root nicht explizit als user oder gruppe eingetragen aber das müsste doch auch so gehen :confused:
 
Info: Oracle 11 final mit ZFS V. 33 ist jetzt verfügbar
Oracle Solaris 11 Downloads

napp-it 0.6c (download eventuell heute noch) wird es unterstützen

Hallo Gea,

habe mal auf Solaris 11 geupdatet und wollte dann napp-it installieren.
Nach dem Reboot lief es schonmal nicht. Hab dann mal versucht es manuell zu starten und die Meldung bekommen, dass libssl.so.0.9.8 und libcrypto.so.0.9.8 nicht gefunden wurden.
-> openssl version = 1.0.0e

Hab jetzt mal von /usr/lib/libssl.so.1.0.0 und /usr/lib/libcrypto.so.1.0.0 jeweils eine Kopie erstellt, also /usr/lib/libssl.so.0.9.8 usw.
Dann funktionierts auch.

Könnte natürlich auch daran liegen, dass ichs neu installiert hab und er erstmal die 0.5er napp-it Version gezogen hat. ;)
 
Hallo Gea,

habe mal auf Solaris 11 geupdatet und wollte dann napp-it installieren.
Nach dem Reboot lief es schonmal nicht. Hab dann mal versucht es manuell zu starten und die Meldung bekommen, dass libssl.so.0.9.8 und libcrypto.so.0.9.8 nicht gefunden wurden.
-> openssl version = 1.0.0e

Hab jetzt mal von /usr/lib/libssl.so.1.0.0 und /usr/lib/libcrypto.so.1.0.0 jeweils eine Kopie erstellt, also /usr/lib/libssl.so.0.9.8 usw.
Dann funktionierts auch.

Könnte natürlich auch daran liegen, dass ichs neu installiert hab und er erstmal die 0.5er napp-it Version gezogen hat. ;)

Damit läuft zwar der mini-httpd webserver, nicht aber das neue
share-management von Solaris 11 - unbedingt napp-it 0.6d nehmen
napp-it.org
 
Damit läuft zwar der mini-httpd webserver, nicht aber das neue
share-management von Solaris 11 - unbedingt napp-it 0.6d nehmen
napp-it.org

Bin wohl blind, das war doch eben noch nicht da. :d
Alles klar, danke!

Edit: Und ich bin grad SMB am installieren.. Denke das brauche ich dann auch nicht, oder? ;)
 
Zuletzt bearbeitet:
Es kann vor allem mit ZFS V. 33 mehrere shares auf ein ZFS legen,
wobei der Pfad beliebig ist. Damit lassen sich shares flexibler gestalten.
Sonst keine Unterschiede? Schneller? Weniger Bugs?

Und was heist das das man mehrere Shares auf ein ZFS legen kann? Kann man nicht jetzt schon diverse Filesysteme in einem Pool anlegen und diese freigeben? oder ist das was anderes?

Als VM: dann vorher auf ESXi5 updaten

Mein ESXi läuft inzwischen auf Version 5. Aber warum ist das nötig?
 
Sonst keine Unterschiede? Schneller? Weniger Bugs?

Und was heist das das man mehrere Shares auf ein ZFS legen kann? Kann man nicht jetzt schon diverse Filesysteme in einem Pool anlegen und diese freigeben? oder ist das was anderes?

Mein ESXi läuft inzwischen auf Version 5. Aber warum ist das nötig?

Ich hatte erst Bootprobleme mit meinem 4.1 ESXi und bin dann gleich
auf ESXi 5 gegangen, da ich wusste, dass da Solaris 11 direkt als OS anwählbar ist.
Da gab es dann auch kein Problem mehr mit der Installation.

Zu den shares.
Bisher konnte man sharing nur aktivieren und dem share einen Namen geben.
Die sharestruktur entsprach 1:1 der Poolstruktur.

ex:
/pool
/pool/share1
/pool/share2
/pool/share2/share3

Aus share 2 kann man bisher per smb nicht in den darunterliegenen share3 wechseln
oder ein share an einer anderen Stelle mounten oder ein ZFS unter mehreren Namen freigeben.

Solaris 11 kann ein ZFS Dateisystem mehrfach unter unterschiedlichen Namen freigeben. Jedem Share kann ein
eigener share-Pfad zugeordnet werden unter dem er erscheint. Ich habe heute jedoch hauptsächlich Solaris 11 + napp-it angepasst und noch nicht allzuviel mit diesen Möglichkeiten herumgespielt.

(Das war bisher das einzige, was SAMBA auf Solaris interessant machte)
 
Zuletzt bearbeitet:
Bei mir startet zwar Solaris 11 Final unter ESXi 5 aber die vmware tools lassen sich nicht installieren, klappt das bei euch?
 
Ohne VMWare tools auch keine VMX3Net oder?

korrekt, das und z.B. keine Herunterfahren durch ESXi
Bei einem all-in-one und E1000 können aber durch Aktivieren von
VMCI (VM-Eigenschaften) zwischen den VM's auch schon mehrere
Gbit/s Datenraten erzeihlt werden.

Die CPU Last ist etwas höher und Performance damit micht ganz so gut.
Manche nutzen nur diese Variante da vmxnet3 wohl nicht auf allen
Maschinen stabil läuft.

Und: Solaris 11 ist gerade mal einen Tag da - wird schon noch
 
Bei einem all-in-one und E1000 können aber durch Aktivieren vonVMCI (VM-Eigenschaften) zwischen den VM's auch schon mehrere
Gbit/s Datenraten erzeihlt werden

Bringt das wirklich was? Im VMWare Forum hab ich gelesen das wäre witzlos.

Einfach bei allen VMs aktivieren und man merkt wirklich einen Effekt?
 
Zuletzt bearbeitet:
bis ZFS V.19 war ein Pool mit fehlendem Log device verloren.

Mit der V.22 läuft ein Pool auch mit fehlendem log device,
er kann aber nicht mehr importiert werden

Mit aktuellem ZFS geht das aber auch.

Also:
Openindiana/SE11 nehmen und Pool ohne log device importieren.
siehe Migrating ZFS Storage Pools - Oracle Solaris ZFS Administration Guide

ab napp-it 0.6 wird das auch per menü pool-import unterstützt.

Vielen Dank für die Info und Hilfe, Daten werden gerade kopiert. http://www.hardwareluxx.de/community/images/smilies/banana.gif "Jabajabadu!"
 
Zuletzt bearbeitet:
Hallo,

erstmal eine kleine Vorstellung: ich lese schon länger mit und hab mir dieser Tage einen
Solaris 11.11 ZFS Server aufgesetzt. Xeon 1230, X9SCM-F, 8 GB ECC, 4*1,5 TB Seagate, 500 GB zum Booten, napp-it 0.6d. ZFS Pool (Raidz 1) mit 2 ZFS Freigaben. Beide Netzwerkanschlüsse am Gbit Switch. Primärer Einsatzzweck Backupserver. Ziel max. Performance auf 2 Gbit Strecken (2 Netze) von 2*Windows 7/64bit Clients. Hat jemand schon Erfahrung mit WOL, lässt sich im Bios 1.1a nicht konfigurieren?

Zunächst mal: napp-it 0.6d zeigt manche Zpool Properties der ZFS FS nicht korrekt an, so habe ich bei einer Freigabe probehalber dedup=on gesetzt (per Konsole). Nappit 0.6.d zeigt nur "n.a." bei dieser Freigabe an, genauso bei Kompression. Möglicherweise ein Konfigfehler im Napp-it.

Leider ist der Netzwerkdurchatz eher lahm bei ca. 30 MB/s von W7 zum ZFS ( ohne Dedup und ohne Kompression) durch eine Backupsoftware, welche sehr ruppiges Übertragungsverhalten zeigt. Beim normalen Filecopy mit grosser Datei kein Problem, konstant ca. 110 MB/s. Es sieht so aus, als ob erst nach einigen Sekunden die volle Speed erreicht wird, welche aber das Backupprogram nicht halten kann, dadurch der Durchsatz auf Null geht und die Speed wieder von vorne aufgebaut werden muss. Zudem kommt es zu Aussetzern. Die Backupsoftware sollte rund 5 TB Daten übertragen, in 600 MB Teilen, da kommen rund 10-15000 Dateien á 600 MB aufs ZFS.

Die Samba Version vom neuen Solaris ( 3.5.10) ist ja nicht die letzte.

Meine Frage ist der Durchsatz noch verbesserbar ? Z.b. mit max protocol=smb2 ( wie von Windows verwendbar)? Kanm man das im Solaris konfigurieren? Wie sieht denn das aus mit der Sync Geschichte durch SAMBA im Solaris aus? Konfigurierbar? Soll ich dem ZFS noch ein SSD spendieren für Cache, die Zugriffe sind allerdings ausschliesslich Streams kein Random. Alternativ könnte man auch noch TCP/IP im Solaris tunen.

Vl so ( habs noch nicht versucht):
ndd -set /dev/tcp tcp_wscale_always 1
ndd -set /dev/tcp tcp_tstamp_if_wscale 1
ndd -set /dev/tcp tcp_max_buf 16777216
ndd -set /dev/tcp tcp_cwnd_max 8388608
ndd -set /dev/tcp tcp_xmit_hiwat 1048576
ndd -set /dev/tcp tcp_recv_hiwat 1048576

Mein Testaufbau (Kbuntu 11.10 Kernel 3.0 mit zfsonliunx 0.38 auf selber HW) und Samba 3.6.1 mit Protocol smb2 hatte die doppelte Performance für die Backupsoftware wie nun Solaris. Wenn das mit Solaris nicht so geht, würde ich den ZFS Server dann mit Kbuntu und zfsonlinux aufsetzen.

Für Ideen und Vorschläge wäre ich dankbar.

Grüsse aus Wien
 
Zuletzt bearbeitet:
Hallo,

erstmal eine kleine Vorstellung: ich lese schon länger mit und hab mir dieser Tage einen
Solaris 11.11 ZFS Server aufgesetzt. Xeon 1230, X9SCM-F, 8 GB ECC, 4*1,5 TB Seagate, 500 GB zum Booten, napp-it 0.6d. ZFS Pool (Raidz 1) mit 2 ZFS Freigaben. Beide Netzwerkanschlüsse am Gbit Switch. Primärer Einsatzzweck Backupserver. Ziel max. Performance auf 2 Gbit Strecken (2 Netze) von 2*Windows 7/64bit Clients. Hat jemand schon Erfahrung mit WOL, lässt sich im Bios 1.1a nicht konfigurieren?

Zunächst mal: napp-it 0.6d zeigt manche Zpool Properties der ZFS FS nicht korrekt an, so habe ich bei einer Freigabe probehalber dedup=on gesetzt (per Konsole). Nappit 0.6.d zeigt nur "n.a." bei dieser Freigabe an, genauso bei Kompression. Möglicherweise ein Konfigfehler im Napp-it.
..
Die Samba Version vom neuen Solaris ( 3.5.10) ist ja nicht die letzte.

..
Wenn das mit Solaris nicht so geht, würde ich den ZFS Server dann mit Kbuntu und zfsonlinux aufsetzen.

Grüsse aus Wien

napp-it bitte auf die neueste 0.6e updaten,
da gehen auch dedup und encryption property

Dann würde ich unter Solaris immer den Solaris SMB/CIFS Server nehmen
und nicht SAMBA. napp-it unterstützt SAMBA auch nicht.

Von zfsonlinux habe ich eigentlich noch nicht gehört, dass es so schnell oder stabil sei wie unter Solaris.
Die einzig wirklich empfohlene Alternative ist Free-BSD, aber die hinkt auch hinterher und gilt als langsamer denn Solaris.
ZfS ist bei Solaris ohnehin nicht nur ein Dateisystem-add-on, sondern die Idee eines integrierten Gesamtpaketes auf ZFS Basis.

Wenn ZFS, dann eigentlich was aus dem Solaris-Umfeld (Nexenta, OpenIndiana, Solaris)
 
Zuletzt bearbeitet:
Hallo,

ich habe ohnehin den Solaris CIFS Server in Verwendung, ich dachte nur, dass dieser ident ist mit der installierten SAMBA Version. Wegen Speed des ZFS, da habe ich keine Sorgen, sowohl zfsonlinux (Version 0.38 unter Kernel 3.0, wenn auch buggy :confused:) als auch ZFS unter Solaris gehen bestens.

Nur die Geschwindigkeit im Netzwerk ist bei Solaris schlechter. Da ist auch ein klarer Unterschied, ob lesen /schreiben von Solaris. Keine Ahnung ob der integrierte CIFS Server SMB2 verwendet oder wie das Caching zu konfigurieren wäre.

Nappit 6e installiert, die Properties gehen jetzt. Vielen Dank für den Hinweis.
 
Hallo,

ich habe ohnehin den Solaris CIFS Server in Verwendung, ich dachte nur, dass dieser ident ist mit der installierten SAMBA Version. Wegen Speed des ZFS, da habe ich keine Sorgen, sowohl zfsonlinux (Version 0.38 unter Kernel 3.0, wenn auch buggy :confused:) als auch ZFS unter Solaris gehen bestens.

Nur die Geschwindigkeit im Netzwerk ist bei Solaris schlechter. Da ist auch ein klarer Unterschied, ob lesen /schreiben von Solaris. Keine Ahnung ob der integrierte CIFS Server SMB2 verwendet oder wie das Caching zu konfigurieren wäre.

.

Ein der Besonderheiten von ZFS ist, dass es u.A. wg copy on write und
Prüfsummen langasamer ist als viele andere Systems - dafür aber extrem
gut mit der Anzahl der vdevs skaliert ohne das irgendetwas konfiguriert werden müsste.

Ich würde mal probehalber:
einen Pool aus 4 vdevs (basic, Raid-O) und aus
2 vdevs (jeweils mirror=Raid 10) zum Vergleich heranziehen.

Leseprobleme bei kleinen files lassen sich auch wunderbar mit Hilfe eines
SSS Read-Caches lösen (ZFS Hybrid Storage)
 
Zuletzt bearbeitet:
Hallo,

ja kann ich noch versuchen, aber ich kann mir nicht vorstellen, das
die 4 Platten unter RaidZ 1 zu langsam sind. Scrub meint 360 MB lesen zu können. Mit einem einzelnen File ereiche ich ja auch >100 MB/s nur die Backupsoftware ist so blöd.

Anbei noch das Muster der Netzwerkübertragung .. wenn was kommt, dann geht die Speed auf 100 MB/s hoch... nur dann geht lang nix und ich weiss nicht, welches System da bremst oder was das System dazwischen macht.

Bonnie ist mir gerade abgestürzt ( aufgerufen aus napp-it) .. wollte wissen was der auswirft.
 

Anhänge

  • auslastung.JPG
    auslastung.JPG
    40,5 KB · Aufrufe: 180
Hallo,

ja kann ich noch versuchen, aber ich kann mir nicht vorstellen, das
die 4 Platten unter RaidZ 1 zu langsam sind. Scrub meint 360 MB lesen zu können. Mit einem einzelnen File ereiche ich ja auch >100 MB/s nur die Backupsoftware ist so blöd.

Das hängt von den Daten ab. Wenn viele kleine Pakete übertragen werden,
so ergibt sich kein sequentieller Zugriff als Datenstrom sondern jedes Paket
wird einzeln auf einem fragmentierten Datenträger gespeichert.

Dann zählt fast nur noch I/O Leistung weil bei jedem Datenpaket erst die
Köpfe aller Platten positioniert werden müssen.

Deshalb kann ein Pool aus vielen vdevs erheblich schneller sein. als es
ein benchmark aus sequentiellen Daten erwarten läßt.
Für Datenbanken und VM's wird daher immer multiple mirror (Raid-10) empfohlen.
 
kleine files übers netzwerk sind grundsätzlich langsam. Genauso übrigens auch wenn man sie lokal kopiert. Kopiere mal einen Windows Folder dann weisst du was ich meine.
 
Hallo,

also mein Backupprogramm fasst alles zusammen und erstellt jeweils 600 MB grosse Dateien, davon aber 15000. So gesehen habe ich keine kleinen Dateien, sondern viele grosse.

Habe jetzt noch das Solaris TCp Tuning angeworfen:

ndd -set /dev/tcp tcp_wscale_always 1
ndd -set /dev/tcp tcp_tstamp_if_wscale 1
ndd -set /dev/tcp tcp_max_buf 16777216
ndd -set /dev/tcp tcp_cwnd_max 8388608
ndd -set /dev/tcp tcp_xmit_hiwat 1048576
ndd -set /dev/tcp tcp_recv_hiwat 1048576

ndd -set /dev/tcp tcp_conn_req_max_q 8000
ndd -set /dev/tcp tcp_conn_req_max_q0 8000
ulimit -n 2048

Damit wird die Stabilität grösser, keine Ausfälle mehr, allerdings ist die Speed selbst beim Lesen vom ZFS Array übers Gbit Lan mit rund 70 MB/s lau.
Ich weiss immer noch nicht, ob smb 1 oder smb 2 von Solaris verwendet wird. So wie die Durchsatzwerte aussehen ist es das smb1 Protokoll. Mit Samba 3.6 könnte man das smb Protokoll 2 oder sogar 2.1 nutzen.

Hab nun auch gestest wie es mit Deduplizierung ausieht. Da sinkt der Durchsatz ins Nirwana, trotz 8 GB RAM, beim Lesen und beim Schreiben. So gesehen mit Raid z1 nix zu machen.

zfsonlinux bringt sogar mit 3 GB Speicher im Dedupmodus 70 MB/s . Schade das es noch nicht stabil ist. Jedenfalls kann Kubuntu bei einem 12 Stunden Kopiervorgang rund 3800 MB/min im Schnitt aufs ZFS schreiben, Solaris macht 1800 MB/min.

Hab jetzt noch die MTU size auf 9000 erhöht, Jumbo Pakete sozusagen. Beidseitig W7 und Solaris. Jetzt schaut es etwas besser aus.

Für die Doku:

Change /kernel/drv/e1000g.conf to:

MaxFrameSize=3,3,3,3,3,3,3,3,3,3,3,3,3,3,3,3;
# 0 is for normal ethernet frames.
# 1 is for upto 4k size frames.
# 2 is for upto 8k size frames.
# 3 is for upto 16k size frames.
# These are maximum frame limits, not the actual ethernet frame
# size. Your actual ethernet frame size would be determined by
# protocol stack configuration (please refer to ndd command man pages)
# For Jumbo Frame Support (9k ethernet packet)
# use 3 (upto 16k size frames)

reboot
ifconfig net0 mtu 9000

Auf Windows Seite :Jumbo enable und auf 9000oder 9014 stellen , ist dasselbe.


2800 MB/min und Spitzen über 90 MB/s.

Ich werde doch noch Samba 3.6.1 selbst compilieren und versuchen das zum laufen zu kriegen, mal schauen ob das nicht noch besser wird.
 
Zuletzt bearbeitet:
Ich habe jetzt mal seit langem wieder ein Update von napp-it eingespielt, jetzt v0.6h.

Meine ganzen Jobs sind nicht mehr gelaufen, also habe ich alle neu eingerichtet. Seltsamerweise liefen Diese auch nicht, erst als ich einen Job manuell angestoßen hatte, funzten die Anderen ab da dann auch.

Ferner hab ich einen Altert-Job eingerichtet. Ist es richtig, dass Dieser jede 15 Minuten ausgeführt wird, obwohl keine email verschickt wird bzw. nichts ankommt. Mir ist schon klar, dass er ausgeführt wird, meine aber muss er in der Übersicht unter Last und in der Log aufgeführt werden, wenn keine Alert-Ereignisse stattgefunden haben?

Mein 1/4 Std Job soll von 6-24 h stattfinden. Kann ich auch in der neuen Version in der entsprechenden Datei unter hour=every-1BCD ändern und auch im Dateinamen die Änderung machen?

Beim Snap-Job anlegen, ist in der Minuten-Auswahlbox ein Anzeigefehler.
heißt:
every, every-5, every-15, every-15, every-20, ...
sollte, lt. Fußnote, wohl heißen:
every, every-3, every-5, every-10, every-15, every-20, every-30,...
Code:
&ask('select_min','Minute',',every,every-5,every-15,every-15,every-20,15-35-45,0,15,30,45,','0');
 
@pete
welches Backuprogramm haste denn da?

Ich habe derzeit auch ein Performanceproblem, allerdings mit ganz anderer Konstellation. Und zwar ESX auf iSCSI (starwind). In meiner Testumgebung die zigmal Virtualisiert ist komme ich auf gute Raten, nur bei 2 Xeon Servern ist die Kopiergeschwindigkeit unterirdisch. Es muss also nicht immer an der Software liegen.

Und Solaris hat übrigens ne ganz eigene SMB Version, wie schon von Gea erwähnt, die um einiges performanter ist als Samba.
 
Ich habe jetzt mal seit langem wieder ein Update von napp-it eingespielt, jetzt v0.6h.

Meine ganzen Jobs sind nicht mehr gelaufen, also habe ich alle neu eingerichtet. Seltsamerweise liefen Diese auch nicht, erst als ich einen Job manuell angestoßen hatte, funzten die Anderen ab da dann auch.

Ferner hab ich einen Altert-Job eingerichtet. Ist es richtig, dass Dieser jede 15 Minuten ausgeführt wird, obwohl keine email verschickt wird bzw. nichts ankommt. Mir ist schon klar, dass er ausgeführt wird, meine aber muss er in der Übersicht unter Last und in der Log aufgeführt werden, wenn keine Alert-Ereignisse stattgefunden haben?

Mein 1/4 Std Job soll von 6-24 h stattfinden. Kann ich auch in der neuen Version in der entsprechenden Datei unter hour=every-1BCD ändern und auch im Dateinamen die Änderung machen?

Beim Snap-Job anlegen, ist in der Minuten-Auswahlbox ein Anzeigefehler.
heißt:
every, every-5, every-15, every-15, every-20, ...
sollte, lt. Fußnote, wohl heißen:
every, every-3, every-5, every-10, every-15, every-20, every-30,...
Code:
&ask('select_min','Minute',',every,every-5,every-15,every-15,every-20,15-35-45,0,15,30,45,','0');

Die 0.6 hat noch ein paar Ungereimtheiten. Das neue Jobmanagement
und die Änderungen durch Solaris 11 haben doch eine Menge Auswirkungen.
Es wird also schon noch ein paar Tage dauern bis die kleinen Bugs wieder
drausen sind
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh