Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
bei mir klappt die installation von napp-it auf einem oi_151a2 (mit einem selbsterstellten pre1 iso) nicht mehr. ist das zu erwarten oder kann mein iso kaputt sein?
anleitung für die iso-erstellung von weiter unten auf der seite hier: oi_151a_prestable0 Release Notes - OpenIndiana - OpenIndiana Wiki
Sagt mal, wie konfiguriere ich 3x160 GB und 2x500 GB am besten? Würde gerne eine Kombination als iSCSI-Target haben und die andere als Snapshot-Pool.
Da die 160er Platten wohl schon aus dem Jahre 2004 herum sind, würde ich diese als three-way mirror einrichten und fürs iscsi benutzen. Die zwei 500er Platten dann als normalen Mirror für Snapshots - welche du aufheben willst.
OpenIndiana (powered by illumos) SunOS 5.11 oi_151a September 2011
admin@sumi02:~$ cfgadm
Ap_Id Type Receptacle Occupant Condition
c3 scsi-bus connected configured unknown
sata0/0::dsk/c4t0d0 disk connected configured ok
sata0/1::dsk/c4t1d0 disk connected configured ok
sata0/2::dsk/c4t2d0 disk connected configured ok
sata0/3::dsk/c4t3d0 disk connected configured ok
sata0/4::dsk/c4t4d0 disk connected configured ok
sata0/5::dsk/c4t5d0 disk connected configured ok
sata0/6 sata-port disconnected unconfigured unknown
sata0/7::dsk/c4t7d0 disk connected configured ok
usb0/1 unknown empty unconfigured ok
usb0/2 unknown empty unconfigured ok
usb0/3 unknown empty unconfigured ok
usb1/1 unknown empty unconfigured ok
usb1/2 unknown empty unconfigured ok
usb1/3 unknown empty unconfigured ok
admin@sumi02:~$
mir ist unter oi151a eine platte abgeraucht. die habe ich mit cfgadm aus dem sytem entfernt:
in der napp-it (0.7g) -> Disks übersicht wird diese noch angezeigt, unter Disks -> Details nicht.
meine frage ist jetzt, wenn die ersatzplatte da ist, muss ich eventuell mit einer falschen anzeige unter napp-it rechnen
oder wird das dann richtig aktuallisiert sobald die platte mit cfgadm wieder den system zugefügt wird und ich kann diese dann als hot-spare dem zpool zufügen?
(ich möchte äusserst ungerne den server neustarten)
Level 2 war bisher das Richtige bei OpenIndiana.
Bei der neuesten Version (und bei Solaris 11) scheint die Einstellung Level 3 notwendig zu sein
Hallo,
das müsste meiner Meinung nach aber andere Ursachen haben. Mit WD20EARS, also auch 4k-Platten, sind viel höhere Werte, nah an 512b-Platten ereichbar.
Gruß Millenniumpilot
Info:
NexentaCore wurde auf Version 3.1 upgedatet
Update mit:
apt-get update
apt-clone upgrade
anschliessend unterstützt NexentaCore ZFS V.28 (gleiche ZFS Version wie OpenIndiana)
real memory = 4294967296 (4096 MB)
avail memory = 1997144064 (1904 MB)
ZFS NOTICE: Prefetch is disabled by default if less than 4GB of RAM is present;
to enable, add "vfs.zfs.prefetch_disable=0" to /boot/loader.conf.
ZFS filesystem version 5
ZFS storage pool version 28
storage# zpool create braindead /dev/mfid0 /dev/mfid1 /dev/mfid2 /dev/mfid3 /dev/mfid4 /dev/mfid5 /dev/mfid6 /dev/mfid7
storage# zfs list
NAME USED AVAIL REFER MOUNTPOINT
braindead 95.5K 532G 31K /braindead
storage# zpool export braindead
storage# zpool import braindead
storage# bonnie++ -d /braindead/ -r 2G -x 1 -s 531G -u root -g wheel
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
1.96,1.96,storage,1,1330143166,531G,,100,99,358881,89,63179,15,241,99,77993,14,201.6,15,16,,,,,24440,97,+++++,+++,22370,99,23099,98,+++++,+++,22880,99,462ms,1701ms,1479ms,54075us,281ms,602ms,13261us,67us,102us,26287us,30us,72us
storage#
Version 1.96 | Sequential Output | Sequential Input | Random Seeks | Sequential Create | Random Create | |||||||||||||||||||||
Size | Per Char | Block | Rewrite | Per Char | Block | Num Files | Create | Read | Delete | Create | Read | Delete | ||||||||||||||
K/sec | % CPU | K/sec | % CPU | K/sec | % CPU | K/sec | % CPU | K/sec | % CPU | /sec | % CPU | /sec | % CPU | /sec | % CPU | /sec | % CPU | /sec | % CPU | /sec | % CPU | /sec | % CPU | |||
storage | 531G | 100 | 99 | 358881 | 89 | 63179 | 15 | 241 | 99 | 77993 | 14 | 201.6 | 15 | 16 | 24440 | 97 | +++++ | +++ | 22370 | 99 | 23099 | 98 | +++++ | +++ | 22880 | 99 |
Latency | 462ms | 1701ms | 1479ms | 54075us | 281ms | 602ms | Latency | 13261us | 67us | 102us | 26287us | 30us | 72us |
Ist wohl ein Rundungsfehler, deswegen 1GiB weniger oben ausgewählt.storage# bonnie++ -d /braindead/ -r 2G -x 1 -s 532G -u root -g wheel
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...Can't write block.: No space left on device
Can't write block 69622560.
ich habe ein seltsames problem auf einem unserer storage server. hardware ist ein supermicro 933 mit supermicro H8DAE board, installiert ist oi151a. die kiste läuft ca 14 tage normal, dann plötzlich kann ich keinen tcp/ip dienst mehr erreichen, weder ssh noch napp-it frontend oder vnc server.
was lustig ist, der nfs server ist weiterhin aktiv und die gehosteten VMs laufen normal weiter - alsob nix ist, ping geht auch. ein identischer supermicro, der sich nur in den verbauten platten und deren config unterscheidet, zeigt sowas nicht.
hatte jemand sowas schonmal?
wie sollte ich vorgehen, um die fehlerquelle einzugrenzen?
Nach einem Neustart geht alles wieder?
Beide Netzwerkanschlüsse mit Switch verbunden?
nach neustart ist alles wieder ok. alle NICs sind verbunden. ich werde die kiste mal abends/nachts auf den aktuellen build updaten, vielleicht hilft's.
insgesamt sind je server 5x nics verbaut. 4x sind gebundled per IPMP und laufen auf einen separaten switch für das storage. 1x nic für kommunikation. ich habe auf der mailingliste geschaut, aber nix gesehn. hättest du vielleicht noch den link? das wäre super, danke!
The OpenIndiana-discuss January 2012 Archive by subject Thread "CIFS performance issues"
"gebundled per IPMP"?? IPMP ist doch zur Ausfallsicherung und Lastverteilung zuständig und nicht trunking also "link aggregation".
Bring ich da was durcheinander?
Hallo zusammen,
hatte mich eine gute Zeit ausgeklinkt. Unter anderem weil alles lief. Nun habe ich gedacht ich probiere mal Solaris 11 aus. So sass ich gestern mit einem Kumpel der in einem Rechenzentrum die Solaris 10 Server betreut. Wie soll ich sagen - irgendwie ein Alptraum. Das Einrichten einer statischen IP alleine wird schon zum Alptraum. Die Befehle wurden scheinbar zum Teil geändert (gegenüber SE11).
Leute, helft mal bitte. Wo kann ich in napp-it überprüfen, ob sich die HDDs in Standby bzw. Spindown Modus befinden?
Leute, helft mal bitte. Wo kann ich in napp-it überprüfen, ob sich die HDDs in Standby bzw. Spindown Modus befinden?
Hallo zusammen,
Die Befehle wurden scheinbar zum Teil geändert (gegenüber SE11). Nun bin ich gespalten - besser mal OpenIndiana ausprobieren? Und: Hat wer von Euch Solaris 11 am Laufen? Wenn ja - wie wurde der Zauber mit dem Netzwerk bewerkstelligt?
Aufgabenstellung ist gleich geblieben - simpler, sicherer Fileserver (hier HP Microserver).
Moin,
ich musste mich auch umgewöhnen… von OSol auf SE11. S11 und SE11 machen das eigentlich gleich und es ist auch tatsächlich wiklich einfach einer NIC eine statische IP zu geben. Im Grunde sind das nur zwei, drei Kommandos:
Zuerst die Netzwerk-Ports finden mittels dladm…
dladm show-phys
Dann einem Gerät ein IP-Interface zuweisen, bzw. eines erzeugen:
ipadm create-ip <device>
Schlussendlich dem Teil eine IP geben:
ipadm create-addr -T static -a local=a.b.c.d/netzmaske <port>/v4 <- IPv4 Adresse
Das wärs schon. Ist doch eigentlich leichter, als dieses ganze /etc/hostname.xxx, /etc/netmasks usw.
Ich habe mehrere S11-Kisten laufen, ein paar in der Firma und ein HP N40L zuhause und ich bin sehr zufrieden mir S11…
Cheers