[Sammelthread] ZFS Stammtisch

Was ich damit sagen wollte ist:

Sobald die Konfiguration etwas spezieller wird, gibt es zuviele Möglichkeiten um
etwas zu automatisieren oder darauf hinzuweisen. Ansonsten sind wir wieder bei
den Manuals als Meterware und Software mit tausenden von Optionen.

Ich seh da nur die Option etwas zu vereinfachen, also z.B. keine Domäne zu Hause,
oder eben AD auf lokalem Store, 24h Betrieb oder eine Anleitung zum Einschalten oder
ein cron-job, der mit Verzögerung den SMB Dienst neu startet.

(Ich habe es noch nicht probiert, würde aber zunächst auch erwarten, dass OI mit Verzögerung
den AD findet)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...ein cron-job, der mit Verzögerung den SMB Dienst neu startet.

Ich hab das gestern als es mal wieder aufgetreten ist manuell versucht. Leider bringt das nichts. SMB Server Service über den Napp-It Menupunkt neugestartet ohne Besserung.

Erst die übliche Lösung: OI raus aus der Domäne in eine Workgroup und danach wieder in die Domäne funktionierte.

Da muß wohl etwas anderes neugestartet werden...?
 
Mit OpenSolaris und Solaris 11 Express ist IPS doch bereits eingesetz, natürlich im Gegensatz zu Solaris 10. Was scheiterte genau auf Solaris 11 EA?

Ihr habt natürlich Recht, IPS gibt es schon länger. Das Problem war, dass scheinbar die Install-Scripte von napp-it diese Version noch nicht explizit unterstützt haben. Ich warte nun einfach auf die finale Version.
 
Hallo Gea,

auf was bezieht sich Deine Empfehlung für 2..3GB RAM / TB beim Einsatz von Deduplizierung? Auf die aktuell zu kopierenden Daten, dem Füllstand des Pools oder der Größe des Pools?
Habe meinem OI 8GB zugeteilt, Pool ist 9,5TB groß aber noch leer und habe testweise 1TB Videos raufkopiert. Mit aktivierter Deduplizierung ging die Übertragungsrate von gewohnten 95..100MByte/s auf magere 30MB/s zurück. Ein Zill oder L2ARC setze ich (noch) nicht ein.
Arbeitet hier jemand mit Deduplizierung? Ich meine nämlich, dies macht mehr Sinn als Komprimierung.

Gruß Millenniumpilot
 
Ich hab irgendwo gelesen das es geher um 2-3 GB RAM PRO TB Daten geht. Also bei Deinen 9,5 TB Daten sollte der Ram eher in Richtung 30 GB gehen :)
 
Ich habe noch OI_148 und da geht die Toolbox auch nicht.
Code:
root@ripley:~# uname -a
SunOS ripley 5.11 oi_148 i86pc i386 i86pc Solaris
bei gleicher Fehlermeldung
Code:
root@ripley:~# /usr/bin/vmware-toolbox
ld.so.1: vmware-toolbox-gtk: fatal: relocation error: file /usr/lib/64/libgobject-2.0.so.0: symbol g_array_ref: referenced symbol not found
Killed

Der Mauszeiger hat bei OI_148 zwar keinen Versatz reagiert aber nur sehr lahm in der vSphereConsole. Auch bleibt der Mauszeiger im Consolenfenster "eingesperrt", nur über die Tastenkombination wird der Mauszeiger wieder freigegeben.
Den Versatz habe ich, wenn ich auf OI mit einem VNC-Viewer zugreife. Habe für dieses Problem keine Lösung gefunden. Leider.

Hast Du inzwischen eine Lösung gefunden?
Peter
 
In einem System habe ich 4 x 1 GB HDDs. Wie lege ich da einen Pool mit maximaler Performance an?
Ich habe erst einen Mirror aus zwei HDDs gemacht und dann einen weiteren Mirror aus zwei Hdds dazugefügt. War das so richtig? Der Speed im Vergleich zum Raid Z1 aus 3 x 1 GB + 1 x Spare ist leider nicht umwerfend schneller.

Es soll doch aber so sein das die Schreibgeschwindigkeit 2x und die Lesegeschwindigkeit 4x so hoch ist wie eine Einzelplatte.

Und wie wäre die performanteste Lösung bei 6 platten?
 
Zuletzt bearbeitet:
Hallo Wirrkopf,

wie hast Du denn die Performance ermittelt? Ich habe die selben Überlegungen angestellt und alle möglichen Kombinationen (Einzelplatte, Mirror, Mirror aus mehreren vdevs, Raidz1, RaidZ2) getestet. Im Normalfall wirst Du beim SMB-Zugriff keinen Unterschied bemerken, hier begrenzt das Gigabit-Netzwerk. Auch bei kleinen Dateien, z.B. die MP3-Sammlung, wirst Du keine signifikanten Unterschiede erkennen. Im Gegensatz zu normalen Hardwareraids, die brechen hier gerne mal auf 30..40MB/s ein.
Wo ich immer einen Unterschied zw. RaidZ1/2 und Mirror erkennen konnte waren im Bonnietest die Werte RND Create und RND Seeks, hier aber signifikant. Daher auch die üblichen Empfehlungen für Mirrors als Datastore für VMs und Datenbanken.
Seit gestern habe ich ein RaidZ2 aus 8 Platten und die RND Create und RND Seeks sind ca. 3x so hoch wie von einer Einzelplatte. Das reicht mir völlig für meine wenigen VMs.

Gruß Millenniumpilot
 
Zuletzt bearbeitet:
messen tue ich meist mit dem ATTO Diskbenchmal 2.47. Bei dieser Gelegenheit kann mir mal jemand verraten warum bei diesem seit neuestem auf Windows 7 die gemappten Netzlaufwerke nicht mehr auswählbar sind?

Na ich setzte ja Geas "All-in-One" System auf einem VMWare ESXi Server ein. Der Client von dem ich messe ist eine Windows 7 VM die auf dem selben ESXi Server läuft.

Da sind dann über den virtuellen Netzwerkswitch eben max. 10 GB drin. Einer der hauptvorteile dieser All-in-One Lösung Bei dem 2 x 2 Mirror kann ich auch leseraten von ca. 250 MB/s lesend und 130 MB/s schreibend messen. Aber das ist wie gesagt eben nicht so viel anders als beim vorherigen Z1. Aber ich werd das nochmal genauer untersuchen indem ich erst 1 HDD alleine, dann einen Mirror aus 2 etc. messe.

Wenn ich von einem echten Client messe dann ist klar das es nicht viel mehr als 100 MB/s werden. Aber echte Clients werden bei mir fast nur noch zum Connecten auf eine VM per RDP genutzt :) Ist halt einfach viel bequemer und spart auch Strom wenn nur noch VMs 24h durchlaufen und die echten Clients abgeschaltet werden.

Nur wenns ums Video schauen und Spielen geht werden die Clients noch nativ genutzt.
 
Zuletzt bearbeitet:
Hi,

habt ihr einen Tipp für mich, welche SSD am besten als l2arc Cache geeignet wäre? Ich hätte da so an ca. 120gb gedacht oder wäre ein Raid0 aus zwei 60gb ssds sinnvoller, da ich nur SATA2 Anschlüsse im Server habe?

Folgende SSD hab mir mal angesehen:
Crucial m4 SSD 128GB
Corsair Force Series GT 120GB
Intel SSD 320 Series 120GB

Grüße Ghandalf
 
Zuletzt bearbeitet:
Hallo Ihr,

ich setze aktuell ein SASUC8i ein, dieser Unterstützt wohl kein durchreichen der SMART-Werte der Platten, auch ist bei den Platten bei 2TB Schluss. Aktuell sind ja 3TB-Platten leichter zu bekommen als die kleineren 2TB.

Setzt wer von Euch den IBM M1015 unter OI ein? Wie zufrieden seit Ihr damit? Werden hier die SMART-Werte durchgereicht und können mit smartctl ausgelesen werden?
Lässt sich der IBM M1015 mit einer IT-Firmware flashen und unterstützt er Platten > 2TB?

Gruß Millenniumpilot
 
...mit power.conf; habe die Anleitung vor einiger Zeit hier in diesem Thread gefunden ;-)
In der IT-FW gibt es diese Option im M1015 auch nicht mehr, glaube ich.
 
weil überall in den Foren auftaucht, dass die Leute ihre Platten im IT-Mode über power.conf nicht zum schlafen kriegen... Der einzige Grund warum ich noch im IR-Mode bleibe...
Gut zu wissen, dass es prinzipiell funktioniert. Vllt haben die alle noch Steinzeit-Firmware drauf.
 
...ja, funktioniert gut sobald man raushat wir die disks-adressen in die power.conf müssen.
Bei mir sind die disks am M1015 unter "/scsi_vhci/" zu finden.
... und um den fmd wieder einschalten zu können (ich nutze eine ide-time von 1h) muss man
das scan-interval in der "/usr/lib/fm/fmd/plugins/disk-transport.conf" anpassen.
 
Weiterhin All-in-One Probleme

Ich bin jetzt fast am Ende meine Lateins. Auch Versuche mit dem ESXi 5 ergeben immer noch alle 1-2 Tage einen Verbindungsabbbruch des virtuellen NFS/SMB Servers. Bis auf das Bios Update habe ich alle möglichen Fehlerquellen ausgeschaltet (nur 1vCPU, e1000 NIC, OI151A, ESXi5 ohne jede Modifikation)

Da ich ein Solaris Laie bin würde ich gerne genauer in den OI151A Logs nachsehen wo der Fehler genau steckt. Leider sind diese Logs alle Separat so das ich vor lauter logs nicht sehe wo ich nachsehen soll und was mir die meldungen sagen sollen. Das System log eines Windows Servers ist mir da doch geläufiger... Vielleicht mag mir da jemand sagen wo ich genau nachsehen soll?

Herausfinden will ich ob der Fehler wirklich am fehlerhaften IO-MMU des Boards liegt. Das also das OI151A zu den Zeitpunkten an dem die Verbindungsabbrüche passieren Fehler im Zusammenhang mit dem durchgereichten AMD SB700 SATA Controller auftreten.

Da ich mich mit Solaris wie gesagt nicht auskenne wundert es mich das so gar nichts auf der GUI an Fehlermeldungen aufpoppt. Von Windows wäre ich es gewohnt das da jede menge Fehlermeldungen aufpoppen wenn der SATA Controller zicken macht.
 
Nur so als Versuch, Stromsparmodus des Netzwerkadapters ausschalten?


Weiß jemand wie die Lizenz des kommenden Solaris 11 gestaltet ist? Kann man das wie SE11 noch im privaten Umfeld nutzen oder geht da gar nichts?
 
Ist zwar reine Spekulation von mir, aber glaube nicht, dass die Lizenz geändert werden wird. Die Lizenz wird von Oracle für viele Produkte eingesetzt, unter anderem auch für Solaris 10.
 
Nur so als Versuch, Stromsparmodus des Netzwerkadapters ausschalten?

+1 ...wäre auch mein Verdächtiger no.1

Alternativ: bist Du sicher das die OI-VM nicht irgendwann einfach in den suspend geht?
Bei meiner SolEx11 Installation war das S3 suspend standardmässig aktiviert...was steht in Deiner power.conf dazu?
 
Ich habe etwas getan was man nicht sollte, an der passwd rumgefummelt und die UID geändert. In Folge funktioniert jetzt kein SMB mehr, weil Solaris eine erweiterte ACL benutzt. Ich kann den User z.B. nicht mehr der SMB Gruppe Administratoren hinzufügen, es kommt die Meldung das die SID fehlt.

Ich habe den User auch schon gelöscht und neu angelegt, wieder das gleiche.

Wenn man einen User mit anderem Namen anlegt (zb user test) gehts auch.

Wie kann man denn die SID manipulieren?

smbadm add-member -m trechber administrators
failed to add trechber: unable to obtain SID

idmap dump -n
winuser:Guest@solaris == uid:2147483649
usid:S-1-5-21-2194802604-294610990-2465633959-2001 == unixuser:test
gsid:S-1-5-21-2194802604-294610990-2465633959-2147483658 == unixgrou p:staff
wingroup:Administrators@BUILTIN == gid:2147483650
wingroup:Network == gid:2147483651
wingroup:Authenticated Users == gid:2147483652


idmap list
add -d winuser:test@solaris unixuser:root
add -d winuser:trechber@solaris unixuser:trechber


sharemgr show -vp
default nfs=()
smb smb=()
* /var/smb/cvol
c$=/var/smb/cvol smb=(abe="false" guestok="false") "Default Share"
zfs
zfs/data1/public nfs=() smb=() nfs:sys=(rw="192.168.2.2" root="192.168.2.2")
public=/data1/public
 
weil überall in den Foren auftaucht, dass die Leute ihre Platten im IT-Mode über power.conf nicht zum schlafen kriegen... Der einzige Grund warum ich noch im IR-Mode bleibe...
Gut zu wissen, dass es prinzipiell funktioniert. Vllt haben die alle noch Steinzeit-Firmware drauf.

Ich habe 2 HBA stecken und beide laufen im IT-Mode und da funktioniert das schlafenlegen.
1. LSI 9211-8i und 2. Supermicro AOC-USAS2-L8i.
Beide IT-Mode LSI-Firmware 9.x - also keine Uralt Firmware.

...ja, funktioniert gut sobald man raushat wir die disks-adressen in die power.conf müssen.
Bei mir sind die disks am M1015 unter "/scsi_vhci/" zu finden.

Hier nochmals die Anleitung, für die die nicht hier im Thread unzeilige Seiten durchsuchen wollen. :d
Code:
/usr/sbin/pmconfig -r
Um PM "unconfigure" und einen Reset zu machen. Die Option -r muss nur einmalig pro Installation benutzt werden.

Die genaue Bezeichnung jeder einzelnen HD über format ermitteln:
Code:
# format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
       0. c1t5000CCA369CA262Bd0 <ATA-Hitachi HDS5C302-A580-1.82TB>
          /scsi_vhci/disk@g5000cca369ca262b
       1. c1t5000CCA369CBF60Cd0 <ATA-Hitachi HDS5C302-A580-1.82TB>
          /scsi_vhci/disk@g5000cca369cbf60c
       2. c1t5000CCA369CC9E8Cd0 <ATA-Hitachi HDS5C302-A580-1.82TB>
          /scsi_vhci/disk@g5000cca369cc9e8c
       3. c1t5000CCA369CC721Dd0 <ATA-Hitachi HDS5C302-A580-1.82TB>
          /scsi_vhci/disk@g5000cca369cc721d
       4. c1t5000CCA369CD3944d0 <ATA-Hitachi HDS5C302-A580-1.82TB>
          /scsi_vhci/disk@g5000cca369cd3944
       5. c1t5000CCA369CE5B24d0 <ATA-Hitachi HDS5C302-A580-1.82TB>
          /scsi_vhci/disk@g5000cca369ce5b24
       6. c1t5000CCA374F780FBd0 <ATA-Hitachi HDS72105-A3MA-465.76GB>
          /scsi_vhci/disk@g5000cca374f780fb
       7. c1t5000CCA374F7791Ed0 <ATA-Hitachi HDS72105-A3MA-465.76GB>
          /scsi_vhci/disk@g5000cca374f7791e
       8. c1t50024E9003CE031Bd0 <ATA-SAMSUNG HD203WI-0003-1.82TB>
          /scsi_vhci/disk@g50024e9003ce031b
       9. c1t50024E9003CE0317d0 <ATA-SAMSUNG HD203WI-0003-1.82TB>
          /scsi_vhci/disk@g50024e9003ce0317
      10. c1t50024E9003CE0368d0 <ATA-SAMSUNG HD203WI-0003-1.82TB>
          /scsi_vhci/disk@g50024e9003ce0368
- hit space for more or s to select -
Dann die Datei
Code:
/etc/power.conf
bearbeiten und nicht vergessen autopm von default auf enable setzen sonst funktioniert es nicht.

Bei mir sieht die power.conf dann so aus:
Code:
autopm			enable
autoS3			default
cpu-threshold		1s
S3-support		enable
# Auto-Shutdown		Idle(min)	Start/Finish(hh:mm)	Behavior
autoshutdown		30		9:00 9:00		noshutdown
cpupm  enable 
system-threshold	always-on
# rpool
device-thresholds	/pci@0,0/pci15ad,1976@10/sd@0,0	        always-on
# pool
device-thresholds	/scsi_vhci/disk@g5000cca374f780fb	always-on
device-thresholds	/scsi_vhci/disk@g5000cca374f7791e	always-on
# archiv-pool
device-thresholds	/scsi_vhci/disk@g5000cca369ca262b	10m
device-thresholds	/scsi_vhci/disk@g5000cca369cbf60c	10m
device-thresholds	/scsi_vhci/disk@g5000cca369cc9e8c	10m
device-thresholds	/scsi_vhci/disk@g5000cca369cc721d	10m
device-thresholds	/scsi_vhci/disk@g5000cca369cd3944	10m
device-thresholds	/scsi_vhci/disk@g5000cca369ce5b24	10m
device-thresholds	/scsi_vhci/disk@g50024e9003ce031b	10m
device-thresholds	/scsi_vhci/disk@g50024e9003ce0317	10m
device-thresholds	/scsi_vhci/disk@g50024e9003ce0368	10m
device-thresholds	/scsi_vhci/disk@g50024e9003cf7685	10m

Datei speichern und noch einmal
Code:
/usr/sbin/pmconfig
um die Änderungen zu aktivieren.

Bei mir funktioniert das wunderbar. Nach 10 Minuten idle gehen die Platten pennen. Das Einzige ist, wenn ich auf den schlafenden Pool zugreife, muss ich erst einmal bis zu 60 sec. warten, bis die Platten laufen.

... und um den fmd wieder einschalten zu können (ich nutze eine ide-time von 1h) muss man
das scan-interval in der "/usr/lib/fm/fmd/plugins/disk-transport.conf" anpassen.

Kannst du da mal näher drauf eingehen? Bis jetzt war ich der Meinung, dass die idle-time in power.conf eingestellt wird. Oder bin ich jetzt an der falschen Baustelle?
 
Zuletzt bearbeitet:
+1 ...wäre auch mein Verdächtiger no.1

Alternativ: bist Du sicher das die OI-VM nicht irgendwann einfach in den suspend geht?
Bei meiner SolEx11 Installation war das S3 suspend standardmässig aktiviert...was steht in Deiner power.conf dazu?

Um welche Netzwerkkarte gehts denn dabei? Die virtuelle e1000 in der OI151A VM? Oder die echte im ESXi5 Server?

So kann ich denn den Energiesparmodus ändern? Das kannst aber eigentlich nicht sein da ich mich ja auch WÄHREND bzw. direkt nach der Störung an das OI151A anmelden kann. Die ist nicht im Suspendmodus.

Das ist ja auch das was es so schwierig macht. Das Problem tritt plötzlich auf aber im Solaris OI151A kann ich nichts sehen. Was aber daran liegt das ich mit dem OS völlig planlos bin.

Ich bin auch kurz davon die OI151 VM durch eine WinServer 2008 R2 VM zu ersetzten. Nur um zu überprüfen ob dieser Fehler dann auch dort auftritt. Noch hält mich davon ab das ich dann ca. 2 TB daten vom ZFS runterschaufeln muß, und wieder zurück auf das Raid-5 des WinServers.

Wenn der Fehler dann dort auch auftritt kann ich hoffentlich mehr sehen bzw. hab dann den indirekten Beweis das es nicht an irgendwelchen Einstellungen am OI151A liegt sondern wohl wirklich ein tieferliegendes Problem ist. Ich wäre aber SEHR erleichtert wenn das Problem auch unter OI151A/FZS so zu beseitigen wäre...
 
Bei mir funktioniert das wunderbar. Nach 10 Minuten idle gehen die Platten pennen. Das Einzige ist, wenn ich auf den schlafenden Pool zugreife, muss ich erst einmal bis zu 60 sec. warten, bis die Platten laufen.

..dito. Bislang war ich aber zu faul im BIOS des controllers einzustellen, dass er mehr als 2 Platten gleichzeitig anfahren soll..wenn das Netzteil reicht, könnte man das erhöhen und dann sollte es schneller gehen, oder?


... und um den fmd wieder einschalten zu können (ich nutze eine ide-time von 1h) muss man
das scan-interval in der "/usr/lib/fm/fmd/plugins/disk-transport.conf" anpassen.
Kannst du da mal näher drauf eingehen? Bis jetzt war ich der Meinung, dass die idle-time in power.conf eingestellt wird. Oder bin ich jetzt an der falschen Baustelle?

Hmm...ja, sorry für die Verwirrlichkeit...
Also ich habe 1h idle-time in der power.conf und 24h scan-interval für fmd eingestellt.
Irgendwo stand, dass der fmd regelmässig die Hardware, also auch die Disks, scant um z.B. bei Fehlern evtl vorhandene Spares zu aktivieren.
Deshalb gab es die Empfehlung, um disk power-down zu testen, dass der fmd de-aktiviert werden sollte.
Er sorgt sonst halt dafür das die Disks regelmässig "von selbst" wieder aufwachen.
Einige User wollen die Disks mehr oder weniger schnell schlafen legen
und dann sollen sie auch schlafen, bis externe Clients wieder aktiv Daten anfragen.
Wenn der fmd sehr kurzfristig alles wieder hochfährt ist der UseCase kaputt.
Siehe auch hier: Discussion about OpenSolaris fault management ()

---------- Beitrag hinzugefügt um 14:30 ---------- Vorheriger Beitrag war um 14:18 ----------

Um welche Netzwerkkarte gehts denn dabei? Die virtuelle e1000 in der OI151A VM? Oder die echte im ESXi5 Server?

...es geht um die echte Karte auf dem Motherboard.
Ich habe z.B. ein X8SIL-F von Supermicro und die eingebauten Intel NICs haben genau das Problem.
Im BIOS ASPM eingestellt und bei Last geht irgendwann nix mehr.
...evtl gibt es sowas auch für die on-board SATA ports bei Dir?

So kann ich denn den Energiesparmodus ändern? Das kannst aber eigentlich nicht sein da ich mich ja auch WÄHREND bzw. direkt nach der Störung an das OI151A anmelden kann. Die ist nicht im Suspendmodus.

...suspend und wake-up geht schnell.
War nur ein Verdacht...OI-VM ist idle...geht in S3 (virtuell).
...dann ist der NAS/SMB Service für andere erstmal weg.
...wenn Du diesen Fehler detektierst, ist aber schon das wake-up wieder initiert,
also kurz darauf alles wieder i.O....da die OI-VM alles macht was sie soll, gibts auch nix im Log.

Das ist ja auch das was es so schwierig macht. Das Problem tritt plötzlich auf aber im Solaris OI151A kann ich nichts sehen. Was aber daran liegt das ich mit dem OS völlig planlos bin.
...schon klar...mal versucht ständig "strom" auf das NAS zu geben?
...zb. alle 5min eine neue, kleine Datei erzeugen, aus einer anderen VM.
...ein paar tage laufen lassen bis der Fehler auftritt...oder auch nicht ;-)

EDIT: Hmmm, ja...weiss nicht wie ich es jetzt geschafft habe zwei Beiträge zusammenzuführen...war keine Absicht, sorry.
Ich hoffe jeder findet was er sucht ;-)
 
Zuletzt bearbeitet:
..dito. Bislang war ich aber zu faul im BIOS des controllers einzustellen, dass er mehr als 2 Platten gleichzeitig anfahren soll..wenn das Netzteil reicht, könnte man das erhöhen und dann sollte es schneller gehen, oder?

Also ich wüsste jetzt nicht, wo man eine Zeitverzögerung oder eine Reihenfolge im BIOS des Controllers einstellen könnte.
Hm, das Netzteil sollte doch von vorneherein so ausgelegt sein, dass wenn der Server gestartet wird, es nicht in die Knie geht.

Hmm...ja, sorry für die Verwirrlichkeit...
Also ich habe 1h idle-time in der power.conf und 24h scan-interval für fmd eingestellt.
Irgendwo stand, dass der fmd regelmässig die Hardware, also auch die Disks, scant um z.B. bei Fehlern evtl vorhandene Spares zu aktivieren.
Deshalb gab es die Empfehlung, um disk power-down zu testen, dass der fmd de-aktiviert werden sollte.
Er sorgt sonst halt dafür das die Disks regelmässig "von selbst" wieder aufwachen.
Einige User wollen die Disks mehr oder weniger schnell schlafen legen
und dann sollen sie auch schlafen, bis externe Clients wieder aktiv Daten anfragen.
Wenn der fmd sehr kurzfristig alles wieder hochfährt ist der UseCase kaputt.
Siehe auch hier: Discussion about OpenSolaris fault management ()

Jetzt hab ich verstanden, was du gemeint hast.
Die Änderung im fault management macht aber nur dann Sinn, wenn wie bei dir, die idle auf 60m gestellt ist. Denn dann würden die Platten nie abschalten, da fmt auch alle 60m auf Fehler überprüft und so würden die Platten nie abschalten.
Nur macht es Sinn nur alle 24 Std. eine Überprüfung? Ist eine lange Zeitspanne.
 
Also ich wüsste jetzt nicht, wo man eine Zeitverzögerung oder eine Reihenfolge im BIOS des Controllers einstellen könnte.

Doch geht...in der IT-FW des LSI9211-8i kann man nur angeben, wieviele
auf einmal angestartet werden, glaube ich....Standard ist 2 Disks at a time.
Bei einem Supermicro AOC-SASLP-MV8 gibt es auch "startup-groups",
falls ein Array mit Extender am HBA hängt....dann werden diese Gruppenweise angestartet.

Der Effekt zum wake-up der Platten sollte also, wenn das Feature aktiv ist,
von der Anzahl der Platten und den Einstellungen zu dem Parameter abhängen.
Bei 2 Platten gleichzeitig, braucht ein System mit 8 Disks länger als z.B
ein System mit 2 Disks. Wobei ich nicht denke, das der Faktor linear ist.
Ich habe derzeit 6 Platten und denke es sind ca. 20sec. startup...bei 2 Platten im HBA konfiguriert.
Wenn Du sagst, es sind 60sec bei Dir...wieviele Platten hast Du an wievielen Controllern?


Hm, das Netzteil sollte doch von vorneherein so ausgelegt sein, dass wenn der Server gestartet wird, es nicht in die Knie geht.
Ja, das sagt die Hausregel....ist bei mir auch derzeit so.
Allerdings, wenn das "Anstarten in Gruppen" vom HBA auch beim Kaltstart funktioniert
(muss ich nochmal testen), dann kann man ein optimaleres NT aussuchen,
dass für ein System im Idle in einem effizienteren Leistungsbereich arbeitet.
Warum ein 900W Gold - NT kaufen, wenn es bei 120W im Idle dümpelt,
ein 400W Gold NT noch nichtmal die 50% erreicht, bei der es noch "gold" ist
aber bei 4 Disks je Startup-Group locker ausreichen würde?
Ich denke das ist noch Potential im Sinne der Energie-Effizienz.


Jetzt hab ich verstanden, was du gemeint hast.
Die Änderung im fault management macht aber nur dann Sinn, wenn wie bei dir, die idle auf 60m gestellt ist. Denn dann würden die Platten nie abschalten, da fmt auch alle 60m auf Fehler überprüft und so würden die Platten nie abschalten.
Nur macht es Sinn nur alle 24 Std. eine Überprüfung? Ist eine lange Zeitspanne.
...mein System ist 18h von 24h im idle...mindestens.
Die Wahrscheinlichkeit ist also hoch, dass sich fmd im Fehlerfalle um ein Problem
dann kümmert, wenn es eh keinen Interessieren würde ;)
 
Doch geht...in der IT-FW des LSI9211-8i kann man nur angeben, wieviele
auf einmal angestartet werden, glaube ich....Standard ist 2 Disks at a time.
Bei einem Supermicro AOC-SASLP-MV8 gibt es auch "startup-groups",
falls ein Array mit Extender am HBA hängt....dann werden diese Gruppenweise angestartet.

Momentan kann ich nicht an den Server dran, aber dieses Feature hab ich wirklich noch nicht gefunden.
Kannst du mir beschreiben, wo ich Dieses finde, dann schau ich heute abend mal nach?

Der Effekt zum wake-up der Platten sollte also, wenn das Feature aktiv ist,
von der Anzahl der Platten und den Einstellungen zu dem Parameter abhängen.
Bei 2 Platten gleichzeitig, braucht ein System mit 8 Disks länger als z.B
ein System mit 2 Disks. Wobei ich nicht denke, das der Faktor linear ist.
Ich habe derzeit 6 Platten und denke es sind ca. 20sec. startup...bei 2 Platten im HBA konfiguriert.
Wenn Du sagst, es sind 60sec bei Dir...wieviele Platten hast Du an wievielen Controllern?

2 Controller mit je 6 Platten dran, siehe oben.

Ja, das sagt die Hausregel....ist bei mir auch derzeit so.
Allerdings, wenn das "Anstarten in Gruppen" vom HBA auch beim Kaltstart funktioniert
(muss ich nochmal testen), dann kann man ein optimaleres NT aussuchen,
dass für ein System im Idle in einem effizienteren Leistungsbereich arbeitet.
Warum ein 900W Gold - NT kaufen, wenn es bei 120W im Idle dümpelt,
ein 400W Gold NT noch nichtmal die 50% erreicht, bei der es noch "gold" ist
aber bei 4 Disks je Startup-Group locker ausreichen würde?
Ich denke das ist noch Potential im Sinne der Energie-Effizienz.

Im Grunde genommen ein guter Denkansatz, aber wenn du einen heavy-load auf deinen Platten hast, geht das Netzteil in die Knie.

Ich hab z.B. ein Enermax Revolution 85+ 920W NT dranhängen. Beim Auslesen von Event-Log auf der SMC-Console tauchen bei mir diese Fehler auf:
66 2011/10/23 10:23:59 -12 V Voltage Lower Non-Critical - Going Low - Asserted
67 2011/10/23 15:39:47 -12 V Voltage Lower Non-Critical - Going Low - Deasserted
Dies ist immer in der Zeit, wenn OI einen scrub macht.
Offensichtlich hat das NT Schwierigkeiten auf der -12V Schiene die Spannung konstant zu halten.
Nur weis ich jetzt nicht, was ich mit dem NT machen soll. Eventl. so eine Bastellösung, wo ich Grafikkartenanschlüsse umfunktioniere für die Plattenanschlüsse. Wobei es ja die -12V Schiene und da ist mir nicht bekannt, für was die ist.

...mein System ist 18h von 24h im idle...mindestens.
Die Wahrscheinlichkeit ist also hoch, dass sich fmd im Fehlerfalle um ein Problem
dann kümmert, wenn es eh keinen Interessieren würde ;)
Ja, stimmt von der Warte aus betrachtet.
 
Momentan kann ich nicht an den Server dran, aber dieses Feature hab ich wirklich noch nicht gefunden.
Kannst du mir beschreiben, wo ich Dieses finde, dann schau ich heute abend mal nach

...Hmm...habe schon lange nicht mehr gebootet ;)
Das BIOS ist nicht sooo umfangreich...einfach mal durchhangeln...irgendwas mit "spinup".
Das hier ist aus dem Manual des LSI9211-8i:
Code:
This section lists the features of the LSI PCIe to SAS HBAs:
 Supports serial SCSI protocol (SSP), serial ATA tunneling protocol (STP), and serial
management protocol (SMP), as defined, in the Serial Attached SCSI (SAS)
Specification, version 2.0.
 Supports SATA, as defined in the Serial ATA Specification, version 2.6.
 [COLOR="Red"]Provides configurable drive spin-up sequencing on a per-phy basis[/COLOR].
 Simplifies cabling with a point-to-point, serial architecture.
 Provides smaller and thinner cables that promote unrestricted airflow.
 Provides a serial, point-to-point, enterprise-level storage interface.
 Transfers data using SCSI information units.
 Provides compatibility with SATA target devices.
 Supports narrow ports and wide ports, as described in the following table.


Im Grunde genommen ein guter Denkansatz, aber wenn du einen heavy-load auf deinen Platten hast, geht das Netzteil in die Knie.
..IMHO ziehen die Drives am meisten beim Start auf der 12V-Schiene.
Load ist auf 5V (Head-move), wenn sie einmal hochgedreht sind, ist 12V konstant und
zieht weniger Ampere als beim spin-up.

Ich hab z.B. ein Enermax Revolution 85+ 920W NT dranhängen. Beim Auslesen von Event-Log auf der SMC-Console tauchen bei mir diese Fehler auf:

...jo, hmmm...das NT hat mehr als eine 12V-Rail (3x ???)...das heisst auf einem Rail
sind dann nur 300W oder so...das reicht nicht für 12 Drives.
EDIT: Korrekur...Dein NT hat sogar 4x12V Rails...also auf jedem Rail nur 1/4tel von 912W, hier: http://www.enermax.com/home.php?fn=eng/product_a1_1_2&lv0=1&lv1=7&no=117

Nur weis ich jetzt nicht, was ich mit dem NT machen soll. Eventl. so eine Bastellösung, wo ich Grafikkartenanschlüsse umfunktioniere für die Plattenanschlüsse. Wobei es ja die -12V Schiene und da ist mir nicht bekannt, für was die ist.
Für einen FileServer ein Single-Rail NT holen. Erkennt man an den Specs.
Jedes Rail ist da gelistet...Single-Rails haben KEIN 12V1, 12V2, ...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh