[Sammelthread] ZFS Stammtisch

Update From Oracle Solaris 11 Express to Oracle Solaris 11

Meine Solaris 11 Express SRU 12 ließ sich schon auf SRU 13 nicht updaten, meint das neue BE führt kurz nach dem Laden durch grub zum reboot; gleiches zeigt sich nun beim update von SRU 12 auf Solaris 11 Release. Diese Installation läuft auf einem HP MicroServer N36L.

Update Considerations - Oracle Solaris 11 Release Notes

How to Upgrade Your OS 11 Express or OS 11 Early Adopter System - Transitioning From Oracle Solaris 10 to Oracle Solaris 11

Jemand ähnliches gesehen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mein 1/4 Std Job soll von 6-24 h stattfinden. Kann ich auch in der neuen Version in der entsprechenden Datei unter hour=every-1BCD ändern und auch im Dateinamen die Änderung machen?

Meine manuelle Änderung geht bereits richtig.

Die 0.6 hat noch ein paar Ungereimtheiten. Das neue Jobmanagement
und die Änderungen durch Solaris 11 haben doch eine Menge Auswirkungen.
Es wird also schon noch ein paar Tage dauern bis die kleinen Bugs wieder
drausen sind

Anregung:
every-1BC (hour) means every hour between 7-12 and 13-19 hour (ABCD, each 6 hours from 0..23)
Eine feinere Graduierung in z.B 4 Stunden noch besser 3 Stunden lässt es sich betrieblich besser anpassen und es gibt nicht so viele Snaps mit Used 0k, denn auch Diese zählen ja mit bei "Snaps to keep".

Ursprünglich wollte ich in den sauren Apfel beissen und mir Sol11 zulegen, da die Hilfen schon um Klassen besser sind als bei OpenIndiana. Leider bietet OpenIndiana, für Neueinsteiger, in dieser Richtung so gut wie überhaupt nichts. Ich kann nur hoffen, dass es kein BS für Geeks und Nerds wird.

Warum entwickelst du für Solaris 11 überhaupt noch weiter. Frei darf Sol11 nicht genutzt werden, sondern nur noch zum Experimentieren oder Entwickeln.
Updates oder Bug-fixes gibts nur, wer einen Subscriptionsvertrag hat und der ist IMHO für den Homeuser und Kleinbetriebe jenseits des Erträglichen.
Ich hab meinen Augen nicht getraut, als ich den Einjahrespreis von 792,00 Euro, 3Jahre 2376,00 Euro gesehen habe.
Quelle: https://shop.oracle.com/pls/ostore/product?p1=OracleSolaris&p2=&p3=&p4=&tz=1:00
 
Zuletzt bearbeitet:
Eine feinere Graduierung in z.B 4 Stunden noch besser 3 Stunden lässt es sich betrieblich besser anpassen und es gibt nicht so viele Snaps mit Used 0k, denn auch Diese zählen ja mit bei "Snaps to keep".

ZFS hat kein Problem mit vielen snaps und 0K size verbrauchen
praktisch keinen Platz. Ansonsten ruhig mal das Script anschauen
und auf eigene Wünsche anpassen. Angelegte jobs werden auch
nach updates so ausgeführt.

Ursprünglich wollte ich in den sauren Apfel beissen und mir Sol11 zulegen, da die Hilfen schon um Klassen besser sind als bei OpenIndiana. Leider bietet OpenIndiana, für Neueinsteiger, in dieser Richtung so gut wie überhaupt nichts. Ich kann nur hoffen, dass es kein BS für Geeks und Nerds wird.

Warum entwickelst du für Solaris 11 überhaupt noch weiter. Frei darf Sol11 nicht genutzt werden, sondern nur noch zum Experimentieren oder Entwickeln.
Updates oder Bug-fixes gibts nur, wer einen Subscriptionsvertrag hat und der ist IMHO für den Homeuser und Kleinbetriebe jenseits des Erträglichen.
Ich hab meinen Augen nicht getraut, als ich den Einjahrespreis von 792,00 Euro, 3Jahre 2376,00 Euro gesehen habe.
Quelle: https://shop.oracle.com/pls/ostore/product?p1=OracleSolaris&p2=&p3=&p4=&tz=1:00

Ich konzentriere mich in Zukunft vor allem auf OpenIndiana und Solaris 11.
Solaris ist dabei enorm wichtig. Manche legen auf Bugfixes schon wert.
Der Preis von knapp 70 Euro/ Monat schreckt da nicht - und es gibt mit OI ja eine Alternative.

Ansonsten:
Ich selbst habe erst gerade Adobe Software gekauft. Da geht richtig Geld über den Tisch.
Bei VMware ist es ja ähnlich. Von Storage Alternativen ganz zu schweigen. Einfach mal
die NexentaStor Preisliste anschauen. Und wenns richtig ins Geld gehen darf, die von netApp
 
Zuletzt bearbeitet:
ZFS hat kein Problem mit vielen snaps und 0K size verbrauchen
praktisch keinen Platz. Ansonsten ruhig mal das Script anschauen
und auf eigene Wünsche anpassen. Angelegte jobs werden auch
nach updates so ausgeführt.

Wenn ich das tue, dann sind meine Änderungen nach dem nächsten Update wieder weg und das ist ja nicht Sinn und Zweck - deshalb mein Vorschlag.
Dass ZFS mit vielen Snaps keine Probleme hat, hab ich ja schon gelernt. Mir geht es aber mehr um deine Option "Snaps to keep" und da spielen die 0k-Snaps sehr wohl eine Rolle.

Ich konzentriere mich in Zukunft vor allem auf OpenIndiana und Solaris 11.
Solaris ist dabei enorm wichtig. Manche legen auf Bugfixes schon wert.
Der Preis von knapp 70 Euro/ Monat schreckt da nicht - und es gibt mit OI ja eine Alternative.

Ansonsten:
Ich selbst habe erst gerade Adobe Software gekauft. Da geht richtig Geld über den Tisch.
Bei VMware ist es ja ähnlich. Von Storage Alternativen ganz zu schweigen. Einfach mal
die NexentaStor Preisliste anschauen. Und wenns richtig ins Geld gehen darf, die von netApp

Ich gebe dir ja Recht, wenn es um Storage oder wie Oracle das Solaris als Cloud-BS vorgestellt hat, dann will ich ja über den Preis nichts sagen.
Wenn das BS aber als Alternative zu Windows oder Linux eingesetzt werden soll, dann stimmt diese Preislage definitiv nicht.
Als Desktop-BS ist Sol11 für mich jetzt keine Wahl mehr und die ganzen Linux Derivate wollte ich nicht.
 
Wenn ich das tue, dann sind meine Änderungen nach dem nächsten Update wieder weg und das ist ja nicht Sinn und Zweck

angelegte jobs sind unabhängig von den updates

- deshalb mein Vorschlag.
Dass ZFS mit vielen Snaps keine Probleme hat, hab ich ja schon gelernt. Mir geht es aber mehr um deine Option "Snaps to keep" und da spielen die 0k-Snaps sehr wohl eine Rolle.

ich habe mir überlegt, bei den keep snaps eine option anzubieten,
die 0k snaps beim Zählen ignoriert und löscht

Ich gebe dir ja Recht, wenn es um Storage oder wie Oracle das Solaris als Cloud-BS vorgestellt hat, dann will ich ja über den Preis nichts sagen.
Wenn das BS aber als Alternative zu Windows oder Linux eingesetzt werden soll, dann stimmt diese Preislage definitiv nicht.
Als Desktop-BS ist Sol11 für mich jetzt keine Wahl mehr und die ganzen Linux Derivate wollte ich nicht.

Auf dem Desktop hat Solaris 11 praktisch keine Vorteile zu OI. Das ist auch nicht
das Ziel von Oracle. Die wollen in die RZ/Datacenters. Vom Preis muss eh Windows 2008 oder
RedHat Linux verglichen werden und die kosten auch ordentlich.
 
replikation

irgendwie habe ich tomaten auf den augen. wo kann ich die ip adresse für den zielserver für die replikation angeben?
ich sehe nur einstellungen für den lokalen host als ziel (jobs -> replicate)
(oi151a @ 0.500s)
 
irgendwie habe ich tomaten auf den augen. wo kann ich die ip adresse für den zielserver für die replikation angeben?
ich sehe nur einstellungen für den lokalen host als ziel (jobs -> replicate)
(oi151a @ 0.500s)

Replikation in napp-it ist pull only. Ziel ist also immer der lokaler Rechner.
Wenn eine Gruppe gebildet wurde (menü extension - appliance group),
dann kann als Quelle ein anderer Server gewählt werden.
 
replikation

hat hier jemand replikation zwischen zwei hosts am laufen, ausserhalb von napp-it?
ich test gerade replikation mit diesem skript (von hier The Blog of Ben Rockwood) :

Code:
#!/bin/bash
## ZYNK: The Zuper Zimple ZFS Sync (Replication) Tool
## Form: zynk local/dataset root@remote.host destination/dataset

# Please note: The reason this is so simple is because there is no error checking, reporting, or cleanup.
#               In the event that something goes wonkey, you'll manually need to fix the snapshots and
#               modify or remote the /var/run/zynk datafile which contains the most recent snapshot name.
# Furthermore, this absolutely relies on the GNU version of 'date' in order to get epoch time
# Before using, make sure you've distributed your SSH key to the remote host and can ssh without password.


if [ ! $3 ] 
then
        echo "Usage: zynk local/dataset root@remote.host destination/dataset"
        echo "WARNING: The destination is the full path for the remote dataset, not the prefix dataset stub."
        exit
fi


DATE=`date +%s`
if [ $DATE == "%s" ]
then
        echo "Must use GNU Date, please install and modify script."
        exit
fi


if [ -e /var/run/zynk ] 
then
        # Datafile is found, creating incr.
        echo "Incremental started at `date`"
        zfs snapshot ${1}@${DATE}
        zfs send  -i  ${1}@`cat /var/run/zynk` ${1}@${DATE} | ssh -c arcfour ${2} zfs recv -F ${3}
        zfs destroy ${1}@`cat /var/run/zynk`
        ssh ${2} zfs destroy ${3}@`cat /var/run/zynk`
        echo ${DATE} > /var/run/zynk
        echo "Incremental complete at `date`"
else 
        # Datafile not found, creating full.
        echo "Full started at `date`"
        zfs snapshot ${1}@${DATE}
        zfs send     ${1}@${DATE} | ssh -c arcfour ${2} zfs recv ${3}
        echo ${DATE} > /var/run/zynk
        echo "Full completed at `date`"
fi

momentan komme ich nicht über 80mb/s übers netz. wie könnte ich den transfer schneller hinbekommen könnte, vielleicht mit bsp ?
 
Upgrade Sol Express 1 auf Solaris 11, Esxi 4 auf 5

Hallo zusammen,

ich habe mich eine gute Zeit ausgeklinkt gehabt. V.a. aus dem guten Grund weil alles ganz gut läuft. Unlängst musste ich den Microserver neu machen - Hardwareprobleme. Nun habe ich dann gleich Solaris 11 drauf. Geht gut.

Nun meine Frage: Habe auf dem anderen Server napp-it al in one mit Esxi 4.x und Solaris Express 11. Frage mich ob ein Upgrade auf Esxi 5 und Solaris 11:
- Sinnvoll ist (welche Vorteile)?
- Wie viel Aufwand das ist

Falls das schon behandelt wurde bitte einfach kurz ein paar Stichworte.

Danke,
Otto

Natürlich Express 11 auf Solaris 11 in der Überschrift...
 
zfs send/receive

wenn ich darüber nachdenke das per gepatchtem ssh und -c NONE zu machen, kann ich das dann gleich mit rsh/rlogin machen.
das ist dann komplett unsicher und ohne verschlüsselung, auf eigenes risiko.

falls das jemand nachmachen will:

auf dem zielserver:
svcadm enable network/shell:default
svcadm enable network/login:rlogin

echo "name oder ip des server der die verbindung aufbaut" >> $HOME/.rhosts

im skript "ssh -c arcfour" durch "rsh" ersetzen und aufrufen mit dem was in .rhosts reingeschrieben wurde, also name oder ip.

damit habe ich mein leitungsmax. erreichen können. (als nächstes könnte man das mit integrierter kompression tunen)
 
hat hier jemand replikation zwischen zwei hosts am laufen, ausserhalb von napp-it?

Habe vor einem Jahr mal Nexentastor mit wöchtl. Replication und Dedup bei jemandem eingerichtet und den ersten Replikationdurchlauf gemacht, da ich nichts mehr von ihm gehört habe, wird das wohl ohne Probleme laufen (bei Problemen klingelt sonst immer nach 0,1 Pikosekunden mein Handy).

Gruß
Ron
 
Folgendes Szenario:

Ich will meine Festplatten von Windows 7 (NTFS formatiert) in eine OpenIndiana Umgebung bringen. Allerdings sind alle Platten so gut wie voll, eine Möglichkeit zum zwischenspeichern mit anschließendem formatieren in zfs besteht nicht. Gibts eine Möglichkeit um alle Festplatten komfortabel ohne Datenverlust in zfs zubringen oder muss ich mir eine zusätzliche Festplatte zum zwischenspeichern kaufen (bei den derzeitigen Preisen leider etwas teuer)?

EDIT: Ok, google sagt das funktioniert nicht.
 
Zuletzt bearbeitet:
Folgendes Szenario:

Ich will meine Festplatten von Windows 7 (NTFS formatiert) in eine OpenIndiana Umgebung bringen. Allerdings sind alle Platten so gut wie voll, eine Möglichkeit zum zwischenspeichern mit anschließendem formatieren in zfs besteht nicht. Gibts eine Möglichkeit um alle Festplatten komfortabel ohne Datenverlust in zfs zubringen oder muss ich mir eine zusätzliche Festplatte zum zwischenspeichern kaufen (bei den derzeitigen Preisen leider etwas teuer)?

OpenIndiana wird alle Platten neu formatieren müssen, um darauf ein
ZFS Dateisystem anzulegen. Hilft alles nichts. Es werden auf jeden
Fall eine oder mehrere freie Platten benötigt.

-> OpenIndiana installieren, ZFS-Pool anlegen
-> Daten übers Netz vom Windows-Rechner per SMB überspielen
-> ZFS Datenpool mit freien Platten erweitern
 
Folgendes Szenario:

Ich will meine Festplatten von Windows 7 (NTFS formatiert) in eine OpenIndiana Umgebung bringen. Allerdings sind alle Platten so gut wie voll, eine Möglichkeit zum zwischenspeichern mit anschließendem formatieren in zfs besteht nicht. Gibts eine Möglichkeit um alle Festplatten komfortabel ohne Datenverlust in zfs zubringen oder muss ich mir eine zusätzliche Festplatte zum zwischenspeichern kaufen (bei den derzeitigen Preisen leider etwas teuer)?

EDIT: Ok, google sagt das funktioniert nicht.

@gea und google sagten dir ja schon, dass es so nicht geht.

Das mit den Festplattenpreisen ist ein riesen Problem und anscheinend wird es bis weit in das 1. Quartal 2012 nicht besser werden, bis die Produktion wieder voll läuft und die Preise sich auf Normalniveau wieder einpendeln.

Um wieviele HDs und TB geht es denn?
Vielleicht könnte man die Files bei jemanden zwischenspeichern, baut aus den dann leeren HDs einen Pool und kopiert die Files wieder drauf.
Exportiert den pool und du importierst ihn dir. Und alles ist gut.
Aus welchem Teil unserer schönen Republik kommst du denn?
 
Zuletzt bearbeitet:
Es geht um 4HDDs und 6,5TB also eher überschaubar.
Ich werd mal Ausschau nach Angeboten bei Discountern halten; dort gabs ja in letzter Zeit ext. HDD für 80€. Ansonsten muss ich die größeren Festplatten halt auf mehrere kleinere stückeln.
 
Es geht um 4HDDs und 6,5TB also eher überschaubar.
Ich werd mal Ausschau nach Angeboten bei Discountern halten; dort gabs ja in letzter Zeit ext. HDD für 80€. Ansonsten muss ich die größeren Festplatten halt auf mehrere kleinere stückeln.

Auch eine Alternative.
Mein Angebot war halt die Günstigste sozusagen.
 
Wenn die Summe der freien Bereiche aller jetzigen HDDs größer als eine HDD ist, könntest Du ein ZFS (zpool) aus Dateien, verteilt auf die restlichen HDDs, anlegen. Dann diese eine HDD in den zpool aus Dateien leerschaufeln und ein neues ZFS (zpool) auf dieser anlegen. Nachdem die Daten dann auf die ZFS-HDD zurückgeschaufelt sind, kannst du mit den anderen HDDs genauso verfahren. Dabei sind die ZFSs nur normale zpools (also äquivalent RAID0) ohne Redundanz.

Gruß
Ron
 
Zuletzt bearbeitet:
Ich kann mir eine ext. HDD ausleihen, insofern sollte die Datenmigration kein Problem mehr sein.
Allerdings habe ich noch ein paar Fragen:
Ich möchte alle Festplatten in einen Pool zusammenhängen, momentan wegen Festplattenmangel noch ohne Redundanz.
Wie werden die Dateien gespeichert? Wird eine Festplatte voll gemacht und anschließend die andere weiter beschrieben oder werden die Dateien verteilt gespeichert auch wenn die erste HDD noch nicht voll ist?
Wie schaut es mit der Datenrekonstruierung bei einem Festplattenausfall aus; sind die anderen Festplatten immer noch problemlos lesbar?
Kann ich nachträglich den zpools immernoch in ein raid umwandeln?
Die Möglichkeit kritische Dateien auf mehreren HDDs zuspeichern besteht auch oder?
 
Zuletzt bearbeitet:
Ich kann mir eine ext. HDD ausleihen, insofern sollte die Datenmigration kein Problem mehr sein.
Allerdings habe ich noch ein paar Fragen:
Ich möchte alle Festplatten in einen Pool zusammenhängen, momentan wegen Festplattenmangel noch ohne Redundanz.
Wie werden die Dateien gespeichert? Wird eine Festplatte voll gemacht und anschließend die andere weiter beschrieben oder werden die Dateien verteilt gespeichert auch wenn die erste HDD noch nicht voll ist?
Wie schaut es mit der Datenrekonstruierung bei einem Festplattenausfall aus; sind die anderen Festplatten immer noch problemlos lesbar?
Kann ich nachträglich den zpools immernoch in ein raid umwandeln?
Die Möglichkeit kritische Dateien auf mehreren HDDs zuspeichern besteht auch oder?

Die Daten werden blockweise auf alle verfügbaren HDDs verteilt, fällt eine aus, sind alle Daten futsch! Deine Idee mit dem gemeinsamen Pool ist gar keine gute Lösung. Weiterhin lässt sich eine HDD nicht wieder aus dem Pool entfernen, nur gegen eine andere, mindestens gleich große, ersetzen. Es lässt sich aber ein zpool zu einem redundanten zpool erweitern, dabei sind allerdings nicht alle Konstellationen möglich, also vorher genau die Vorgehensweise überlegen.
Da man beliebig viele Dateisysteme in einem zpool erstellen kann, kann man natürlich für einige definierte Dateisysteme eine doppelte Speicherung einstellen, das hilft aber nicht, wenn ein zpool aus gestripten HDDs ohne Redundanz besteht, denn dann sind die Daten zwar 2x vorhanden, beim Ausfall einer HDD ist aber der gesamte Pool nicht mehr lesbar.

Gruß
Ron
 
Also mehr oder weniger wie JBOD.
Bei einem Raid-Z1 benötige ich eine Festplatte mehr und bin gegen den Ausfall einer HDD abgesichert oder? Die Festplatte muss dabei mind. so groß sein wie die größte.
Gibt es Probleme mit 4K-Festplatten?
Macht es was aus wenn die anderen 4 Festplatten verschiedene Größen haben?
 
Zuletzt bearbeitet:
Bei einem Raid-Z1 benötige ich eine Festplatte mehr und bin gegen den Ausfall einer HDD abgesichert oder? Die Festplatte muss dabei mind. so groß sein wie die größte.
..
Macht es was aus wenn die anderen 4 Festplatten verschiedene Größen haben?

Wenn ein Raid (mirror, Raid 5/6 oder Raid-Z1-3) aus Platten unterschiedlicher Größe gebildet wird,
so bestimmt die kleinste die Gesamtkapazität. Das bedeutet, dass von den größeren Platten
nur soviel benutzt wird, wie die kleinste Platte an Kapazität hat.

Lediglich bei einem ZFS-Pool aus Einzelplatten als basic-vdevs addiert sich die volle Kapazität.
Fällt dann aber eine aus, ist alles weg.


Gibt es Probleme mit 4K-Festplatten?

Jein,
es geht problemlos. Die Platten sind aber derzeit etwas langsamer als
ansonst vergleichbare 512B Platten.
 
Zuletzt bearbeitet:
Identifizieren von Zugriffen

Ich hatte gestern ein wenig im Keller zu tun und konnte wieder mal einen Blick auf meinen Server werfen. Dabei fiel mir auf, daß die Platten meines ZFS-Pools fröhlich vor sich hin flackerten, obwohl eigentlich niemand auf den Pool zugegriffen haben sollte.
O.K., es war der erste Advent und vielleicht wollten die Platten auch einfach ein wenig Adventsstimmung verbreiten - nein, Spaß beiseite: Normalerweise legen sich die Platten nach längerer Ruhe schlafen und da leuchtet dann auch nichts. Gestern aber blinkte es über eine Stunde ganz wild. Ein Scrub lief zu diesem Zeitpunkt nicht. Auf den Windows-Rechnern, die ZFS-Shares gemappt hatten konnte ich nichts außergewöhnliches feststellen (keine aktiven Verbindungen zum Server).

Die Kiste läuft unter Solaris 11 Express. Gibt es eine Möglichkeit unter Solaris festzustellen, wer oder was sich da gerade auf den Pools zu schaffen macht?
 
>>>Macht es was aus wenn die anderen 4 Festplatten verschiedene Größen haben?<<<

Du könntest diese 4 HDDs zu einem basic-vdevs addieren (z.B. mit insgesamt 2 TB) und später eine 2TB HDD als mirror dazubauen.

Gruß
Ron
 
Die Kiste läuft unter Solaris 11 Express. Gibt es eine Möglichkeit unter Solaris festzustellen, wer oder was sich da gerade auf den Pools zu schaffen macht?

vielleicht is da etwas dabei:
Oracle Solaris Performance Analysis: Favorite Commands

---------- Beitrag hinzugefügt um 21:56 ---------- Vorheriger Beitrag war um 21:54 ----------

>>>Macht es was aus wenn die anderen 4 Festplatten verschiedene Größen haben?<<<

Du könntest diese 4 HDDs zu einem basic-vdevs addieren (z.B. mit insgesamt 2 TB) und später eine 2TB HDD als mirror dazubauen.

Gruß
Ron

ich hatte mal einen Raidcore Controller, der konnte das,
ZFS kann das nicht (Quasi ein Raid-0 als Spiegelpartner einer Platte einrichten)
 
Zuletzt bearbeitet:
klingt genau richtig für mich. hast du evtl. ein howto für *nix anfänger?

Nö, hab ich nicht. Ich probiers mal:

0, pkg install gcc-45 (wenn nicht bereits installiert)
1, wget http://ftp.spline.de/pub/OpenBSD/OpenSSH/portable/openssh-5.8p1.tar.gz
4, tar -xvzf openssh-5.8p1.tar.gz
3, wget http://www.psc.edu/networking/projects/hpn-ssh/openssh-5.8p1-hpn13v11.diff.gz
4, gunzip openssh-5.8p1-hpn13v11.diff.gz
5, cd openssh-5.8p1
6, patch openssh-5.8p1 -i openssh-5.8p1-hpn13v11.diff
7, alle Fragen mit y beantworten
8, ./configure
9, make all install
10, ln -s /opt/csw/lib/libcrypto.so.0.9.8 /usr/lib/libcrypto.so.0.9.8
11, in der Datei /lib/svc/method/sshd die Zeile /usr/lib/ssh/sshd ersetzen durch /usr/local/sbin/sshd
12, svcadm restart svc:/network/ssh:default
13, cp /usr/local/bin/ssh /usr/bin/ssh

ab hier läuft dann OpenSSH mit HPN patch, jetzt kann im Replikationsscript ssh -oCompression=yes -oNoneSwitch=yes -oNoneEnabled=yes verwendet werden.
na dann viel Spaß
 
Nö, hab ich nicht. Ich probiers mal:

0, pkg install gcc-45 (wenn nicht bereits installiert)
1, wget http://ftp.spline.de/pub/OpenBSD/OpenSSH/portable/openssh-5.8p1.tar.gz
4, tar -xvzf openssh-5.8p1.tar.gz
3, wget http://www.psc.edu/networking/projects/hpn-ssh/openssh-5.8p1-hpn13v11.diff.gz
4, gunzip openssh-5.8p1-hpn13v11.diff.gz
5, cd openssh-5.8p1
6, patch openssh-5.8p1 -i openssh-5.8p1-hpn13v11.diff
7, alle Fragen mit y beantworten
8, ./configure
9, make all install
10, ln -s /opt/csw/lib/libcrypto.so.0.9.8 /usr/lib/libcrypto.so.0.9.8
11, in der Datei /lib/svc/method/sshd die Zeile /usr/lib/ssh/sshd ersetzen durch /usr/local/sbin/sshd
12, svcadm restart svc:/network/ssh:default
13, cp /usr/local/bin/ssh /usr/bin/ssh

ab hier läuft dann OpenSSH mit HPN patch, jetzt kann im Replikationsscript ssh -oCompression=yes -oNoneSwitch=yes -oNoneEnabled=yes verwendet werden.
na dann viel Spaß

Vielen Dank, dass du das kleine HowTo gemacht hast. :bigok:

Ist dir bekannt, ob das auch auf oi_148 läuft, oder nur ab oi_151?

Das Replikationsscript, welches du ansprichst, ist aber nicht Dieses welches @aschrate hier gepostet hatte.
Stellst du dein Script hier bitte mal rein, damit mal zu sehen ist, wie sich so was aufbaut?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh