Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Problem: Appliance Map
Ich habe zwei Maps, je 8 Platten. Beginne ich mit dem Zuordnen der Platten, kann ich alle im System verfügbaren Platten sehen. Ordne ich die erste Platte zu, verschwinden zwei aus der Liste. Die, die ich zuordnen will und eine weitere. Ich vermute, das liegt am SAS-Slot, der gedoppelt ist. Siehe Bild im Anhang.
Anhang anzeigen 431183
Hat hier jemand auf Ubuntu 18 ZFS am laufen?
Ich habe 2 Disks - Eine davon hat ZFS Partitionen
Die HDD ist SDB, SDB1 hat 100GB, SDB9 hat 500 MB.
Ich möchte nun das Ding auf 200GB vergrößern - Mit Autoexpand=on usw. komme ich aber nicht weiter. der Pool "daten" bleibt bei seinen 99G angezeigt.
Kann hier jemand weiterhelfen? Muss ich erst eine Partition 2 erstellen und dann mit dem "zpool online -e..." den bisherhigen Pool "daten" vergrößern, oder wie gehts weiter?
Habe bei Linux so noch nicht mit ZFS gearbeitet
Hi Gea,
das Problem besteht leider weiterhin und ich komme nicht weiter.
Controller 1: on-board SAS3008, 4 Platten
Controller 2: PCIe Dell Perc H310, 6 Platten
Disk-Location zeigt e1:m0:s00, e1:m0:s01, e1:m0:s02, e1:m0:s03, je zwei mal. Ordne ich eine der Platten einer Map zu, verschwindet die andere gleich mit aus der Liste.
Wäre für einen Tipp dankbar. System läuft mit aktuellen Versionen, PRO Lizenz.
Danke
Welches OS ist es denn und welche Firmware auf den HBAs (Version und Modus wie IT oder IR)??
Neben dem Logout (finde ich nur open rechts) habe ich nur noch die Punkte "Sprache-umstellen" und "Edit" (enable/disable logs and edit). Für die letzten beide Punkte "Mon" und "Acc" benötige ich eine Pro-Version. "Acc" sollte damit in der Free-Version doch gar nicht aktiviert sein.Ein kritischer Hinweis ist das nur bei sehr wenig RAM oder zu kleinem Swapspace wenn das rambasierte /tmp Dateisystem voll ist. Das wird für Acceleration benutzt. Dann Acceleration ausschalten (Topmenü neben Logout).
napp-it
running version : 18.12p pre4
uname -a
SunOS vmnas 5.11 omnios-r151028-d3d0427bff i86pc i386 i86pc
Ich werde im neuen Jahr ein paar Test mit einer änlichen Konfiguration machen.
Lass mich einfach wissen, falls ich mit testen soll
DANKE !
Läuft die Update-Anfrage über HTTPS?request all update options for current version 18 from napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris ownloads
--2018-12-29 14:13:49-- napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris ownloads Resolving napp-it // webbased ZFS NAS/SAN appliance for OmniOS, OpenIndiana and Solaris ownloads... 188.93.13.227, 2a00:1158:1000:300::368 Connecting to www.napp-it.org|188.93.13.227|:80... connected. HTTP request sent, awaiting response
#
# Copyright 1996-2002 Sun Microsystems, Inc. All rights reserved.
# Use is subject to license terms.
#
#pragma ident "@(#)power.conf 2.1 02/03/04 SMI"
#
# Power Management Configuration File
#
device-dependency-property removable-media /dev/fb
autopm enable
autoS3 default
cpu-threshold 1s
# Auto-Shutdown Idle(min) Start/Finish(hh:mm) Behavior
autoshutdown 30 9:00 9:00 noshutdown
cpupm enable
device-thresholds /dev/dsk/c1t0d0 300s
device-thresholds /dev/dsk/c1t1d0 300s
device-thresholds /dev/dsk/c0t50014EE1AF6378B6d0 300s
device-thresholds /dev/dsk/c0t50014EE104BF8EC3d0 300s
device-thresholds /dev/dsk/c0t50014EE104BF8F2Dd0 300s
device-thresholds /dev/dsk/c0t50014EE2B17DBB22d0 300s
Hi Gea,
das Problem (mit Disk Location and Map bei gleichzeitiger Nutzung von LSI 6G und 12G Adaptern) besteht leider weiterhin und ich komme nicht weiter.
Controller 1: on-board SAS3008, 4 Platten
Controller 2: PCIe Dell Perc H310, 6 Platten
Disk-Location zeigt e1:m0:s00, e1:m0:s01, e1:m0:s02, e1:m0:s03, je zwei mal. Ordne ich eine der Platten einer Map zu, verschwindet die andere gleich mit aus der Liste.
Wäre für einen Tipp dankbar. System läuft mit aktuellen Versionen, PRO Lizenz.
Danke
Prinzipiell sollte es so gehen (nach Start bzw Neustart des Dienstes).
Es darf dann aber keine Zugriffe auf den Pool geben, z.B. via Fault Management (Systemüberwachung) oder napp-it Alerts, acceleration oder monitoring oder VMs oder andere Clients.
pci bus 0x0003 cardnum 0x00 function 0x00: vendor 0x103c device 0x323b
Hewlett-Packard Company Smart Array Gen8 Controllers
CardVendor 0x103c card 0x3351 (Hewlett-Packard Company, P420)
STATUS 0x0010 COMMAND 0x0007
CLASS 0x01 0x04 0x00 REVISION 0x01
BIST 0x00 HEADER 0x00 LATENCY 0x40 CACHE 0x10
BASE0 0xfd300000 SIZE 1048576 MEM
BASE2 0xfd4ff000 SIZE 1024 MEM
BASE4 0x00004000 SIZE 256 I/O
BASEROM 0x00000000 addr 0x00000000
MAX_LAT 0x00 MIN_GNT 0x00 INT_PIN 0x01 INT_LINE 0x0b
Jemand ne Idee wo die Platten sind?
Das Problem ist, dass das bisherige sas3ircu (ein LSI Tool für 12G LSI HBAs um den Slot für eine Platte mit WWN Nummerierung zu ermitteln) bei neueren Systemen teilweise nicht mehr arbeitet. Napp-it benutzt dann die Slotermittlung über den mpt_sas Treiber. Wenn man nun 6G HBAs mit functionierendem sas2iru und 12G Adapter mit einem nicht funktionierendem sas3ircu mischt, stimmen die ermittelten Controller IDs nicht überein. Die napp-it Menüs Disk > Location und Disk > Map zeigen dann falsche oder doppelte Controller Nummern.
Eine nicht arbeitende sas3ircu wird in napp-it 18.12 p5 nun erkannt und Menü Disk Location gibt eine Fehlermeldung. Ich habe zusätzlich im Menü Disk > Location eine Option hinzugefügt um eine andere sas2ircu/ sas3ircu auszuwählen oder diese komplett zu deaktivieren. Napp-it ermittelt dann den Controller ausschliesslich über den Treiber (was auch viel schneller ist).
Disk Detection über edie rote Alert LED einer backplane geht dann halt nicht mehr, dazu braucht es die sasircu
18.12p5 ist hochgeladen und kommt per About > Update: download 18.12