[Sammelthread] ZFS Stammtisch

Nur Heimanwender brauchen das. Für kommerzielle Installationen ist es eher unnötig.
Stabilität ist aber in beiden Fällen essenziell. Ich würde das nicht als Beta nutzen und wenn es final ist ein paar Monate warten.

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Info: Security update OmniOS r151046e (2023-05-31)

Weekly release for w/c 29th of May 2023.
This is a non-reboot update

Security Fixes
Curl has been updated to version 8.1.2, fixing CVE-2023-28319, CVE-2023-28320, CVE-2023-28321, CVE-2023-28322.
OpenSSL has been updated to versions 1.1.1u and 3.0.9, fixing CVE-2023-2650. OpenSSL 1.0.2 has also been patched against this.
 
Hi

In folgendem Fred ist die Frage nach Hotswap aufgekommen:


Kann mir jemand sagen, wieso ich bei napp-it die Platten nicht offline schalten kann? Die hängen an einem perc 310 im IT Mode. Kein RAID, oder so.
 
Zuletzt bearbeitet:
Security and feature update r151046h (Solaris Unix fork 2023-06-20)

Wenn OmniOS Windows AD Member : Update notwendig

Weekly release for w/c 19th of June 2023.
This update requires a reboot

Security Fixes

Python has been updated to version 3.11.4;
Vim has been updated to version 9.0.1443.

Other Changes
SMB NetLogon Client Seal support;
Windows clients could get disconnected when copying files to an SMB share;
%ymm registers were not correctly restored after signal handler;
The svccfg command now supports a -z flag to manage services within zones;
The startup timeout for the system/zones service has been increased to resolve problems when starting a large number of bhyve zones in parallel in conjunction with a memory reservoir configuration;
Use automatic IBRS when available;
blkdev and lofi did not properly initialise cmlb minor nodes;
The ping command would fail when invoked with -I 0.01;
In exceptional circumstances, a zone could become stuck during halt due to lingering IP references;
An issue with resolving DNS names which have only multiple AAAA records has been resolved;
Improvements within the nvme driver to resolve a race and allow it to bind to devices that are under a legacy PCI root;
In exception circumstances, the system could panic when dumping a userland process core.
 
moin moin,

laut zfs ist mein pool 'degraded', da eine disk 'too many errors' erzeugt (hat).

die smart werte sehen meiner meinung nach unauffaellig aus. oder uebersehe ich da was?
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 050 Pre-fail Offline - 0 3 Spin_Up_Time 0x0027 100 100 001 Pre-fail Always - 2836 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 8 5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 050 Pre-fail Offline - 0 9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 4843 10 Spin_Retry_Count 0x0033 100 100 030 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 8 23 Unknown_Attribute 0x0023 100 100 075 Pre-fail Always - 0 24 Unknown_Attribute 0x0023 100 100 075 Pre-fail Always - 0 191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 2 193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 11 194 Temperature_Celsius 0x0022 100 100 000 Old_age Always - 27 (Min/Max 15/31) 196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 220 Disk_Shift 0x0002 100 100 000 Old_age Always - 203554825 222 Loaded_Hours 0x0032 088 088 000 Old_age Always - 4833 223 Load_Retry_Count 0x0032 100 100 000 Old_age Always - 0 224 Load_Friction 0x0022 100 100 000 Old_age Always - 0 226 Load-in_Time 0x0026 100 100 000 Old_age Always - 596 240 Head_Flying_Hours 0x0001 100 100 001 Pre-fail Offline - 0 SMART Error Log Version: 1 No Errors Logged

fehler loeschen und weiter beobachten?
oder direkt beim haendler melden und einen austausch anleiern?

mfg
pille
 
Es gibt drei Arten von Fehlermeldungen:
- iostat Warnungen. Das bedeutet meist dass ein wiederholter Schreib/Leseversuch erfolgreich war
- Smart Warnungen. Das sind oft eher Prognosen über künftige Ausfälle, wie zu hoher Blutdruck beim Arzt,
- ZFS Fehler wie checksum errors oder too many errors. Das sind tatsächliche aufgetretene Fehler die eine Platte nicht beheben konnte.

Too many errors kann eine defekte Platte bedeuten. RAM, Kabel oder PSU Fehler können auch eine Ursache sein. Ein Austausch jenseits der Rückgabefrist läßt sich damit daher schwer begründen. Ich würde einen intensiven Plattentest eventuell RAM Test machen (z.B. WD data lifeguard von Hirens Boot-USB Stick). Ist der ok, dann nach anderen Ursachen suchen.
 
Bei mir habe ich tatsächlich den 6 Jahre alten Wechselrahmen im Verdacht solche Fehler zu erzeugen. Oder Netzteil bzw. Kabel Ist aber auffällig, dass es immer auf dem selben Laufwerk Auftritt.

Woran kann man erkennen, dass es am Netzteil liegt? Spannungen sind laut IPMI voll in Ordnung, auch wenn ich die 12V Leitung mit 11.84 V schon etwas niedrig finde.
 
jo ich weiß, alle anderen Systeme bei mir hatten aber eher so 11.96 V - 12.04 V
 
Stromversorgungsprobleme können auch auftreten wenn das Netzteil selber ok ist, z.B. wegen schlechter Power-Steckverbinder oder Wechseleinschübe. Das läßt sich aber durch Wechsel des Stromanschlusses mit einer "guten" Platte ausschließen. Gleiches gilt für den Sata/SAS Anschluß.
 
Security and feature update Solaris Fork/ Unix OmniOS r151046l LTS (2023-07-20)

Weekly release for w/c 17th of July 2023.
This update requires a reboot

Security Fixes
OpenSSH updated to version 9.3p2, fixing CVE-2023-38408.
The prgetsecflags() interface leaked a small (4 byte) portion of kernel stack memory - illumos 15788.
OpenJDK packages have been updated to 11.0.20+8 and 17.0.8+7.

Other Changes
Various improvements to the SMB idmap service have been backported:
illumos 14306
illumos 15556
illumos 15564 Most notably, it was previously possible to get flurries of log messages of the form
Can't get SID for ID=0 type=0 and this is now resolved.

The UUID generation library could produce invalid V4 UUIDs.
An issue with python header files that could cause some third party software to fail compilation has been resolved.
 
Critical security update OmniOS r151038dm (2023-07-25)

To update, run pkg update
To undo update: boot in former bootenvironment


Weekly release for w/c 24th of July 2023.
This update requires a reboot

Changes
AMD CPU microcode updated to 20230719, mitigating CVE-2023-20593 on some Zen2 processors.
Intel CPU microcode updated to 20230512, refer to Intel's release notes for details.

Actions you need to take:

If you are not running the affected AMD parts, then there is nothing you need to do.
If you are running the affected AMD parts then you will need to update the AMD microcode.

Note, only Zen 2 based products are impacted. These include AMD products
known as:

* AMD EPYC 7XX2 Rome (Family 17h, model 31h)
* AMD Threadripper 3000 series Castle Peak (Family 17h, model 31h)
* AMD Ryzen 3000 Series Matisse
* AMD Ryzen 4000 Series Renoir (family 17h, model 60h)
* AMD Ryzen 5000 Series Lucienne (family 17h, model 68h)
* AMD Ryzen 7020 Series Mendocino (Family 17h, model a0h)

We have pushed an initial commit which provides a microcode fix for this
issue for the following processor families:

* Family 17h, model 31h (Rome / Castle Peak)
* Family 17h, model a0h (Mendocino)

 
Spricht etwas gegen den Einsatz chinesischer LSI 9300-8/-16, sind da z.B. Fakes oder nicht flashbare Exemplare bekannt? Die 16er sind bei 70€ angekommen, das juckt mich schon ein wenig...
 
Zumindest bei STH gibts bisher keine negativen Kommentare dazu

Controller findet man auch bei Ebay de
 
Zuletzt bearbeitet:
Jep. Zur Zeit der Frage stand der beispielsweise noch bei 71€. Und das ist eigentlich ein Kurs, wo man prüfen sollte, ob man nicht in too-good-to-be-true-Land ist.
 
OpenSSL ist für die Daten-Sicherheit oft essentiell und liefert häufig Sicherheitsupdates die man einspielen sollte -
vor allem wenn der Server im Internet erreichbar ist.

Security update OmniOSce v11 r151046n (2023-08-03)

Weekly release for w/c 31st of July 2023.
This is a non-reboot update

Security Fixes
OpenSSL packages updated to versions 3.0.10 / 1.1.1v / 1.0.2u-1, resolving CVE-2023-3817, CVE-2023-3446, CVE-2023-2975.
OpenJDK 8 has been updated to version 1.8.0u382-b05.

To update, run "pkg update"
To undo update: boot in former bootenvironment
 
Was kann man auf die schnelle tun wenn ein zpool nicht gefunden wird ? Import taucht er auch nicht auf. Ist ein Solaris 11.4 und ein raidz2 pool aus hdds, die auch alle bei napp-it unter disks auftauchen.
 
Was kann man auf die schnelle tun wenn ein zpool nicht gefunden wird ? Import taucht er auch nicht auf. Ist ein Solaris 11.4 und ein raidz2 pool aus hdds, die auch alle bei napp-it unter disks auftauchen.
Okay, nach einem Reboot hat er ihn mit
Code:
zpool import -f <poolname>
wieder gefunden...komisch
 
Neustart hilft öfter wenn sich was verklemmt hat oder etwas blockiert oder hängt - nicht nur bei Windows.
 
wahrscheinlich seh ich den Wald vor lauter Bäumen nicht...

2 OmniOS Server mit je einem RAID-Z2 Pool mit 12x12TB, der Pool heißt jeweils "data"
Server 1:
1692702591308.png

Server 2
1692702610807.png


Soweit so gut. Server 1 Pool ist ganz gut gefüllt:
1692702678806.png


Server 2 soll als Spiegel dazu arbeiten, dazu nehme ich zrep. Funktioniert soweit auch 1a. Ich habe die Replikation allerdings neu initialisieren müssen und nachdem er alle Daten rübergeschaufelt hat:
1692702749058.png


jetzt das kuriose: auf Server 2 ist /data/archive leer. Obwohl es Speicher einnimmt. Und zrep hält es auch synchron. Also irgendwo sind die Daten schon und scheinen auch dem korrekten Stand zu entsprechen

Auf Server 1 sehe ich im mount Befehl folgendes:
1692702822707.png


Während die untere Zeile auf Server 2 fehlt...Also scheint /data/archive auf Server 2 nur ein Ordner zu sein, kein Mountpunkt.
Aber wie/wo setze ich den?

EDIT:
Code:
df -h
Server 1
1692703067350.png

Server 2
1692703142544.png
 

Anhänge

  • 1692703090065.png
    1692703090065.png
    11 KB · Aufrufe: 35
Wenn man im Menü ZFS Dateisysteme auf data/archive klickt, werden alle ZFS Eigenschaften des Dateisystems inkl. mounted und Mountpoint angezeigt.
Was steht da jeweils?

Das Dateisystem data/archive auf Server2 ist ja zumindest angelegt.
 
Zuletzt bearbeitet:
Tatsache: mounted: no
1692707135516.png

Server 1 (wie erwartet) mounted: yes
Beitrag automatisch zusammengeführt:

Nachtrag: ich hab mich jetzt einfach mal an deinen Rat gehalten @gea

Jeder boot tut gut. Jetzt ist alles wieder korrekt. Komisch ist es trotzdem
 
Zuletzt bearbeitet:
Habe noch einen ML10 v2 mit Xeon 4x3,1Ghz und 12GB ECC Ram (könnte aufgerüstet werden). Aktuell nutze ich die Virtualisierungsfunktionen von OmniOS, allerdings ist mir das ganze zu "speziell", es gibt keine große Community und How2s und so weiter sodass ich überlege auf Proxmox umzusteigen und OmniOS einfach virtualisiert darunter zu betreiben. Wäre das Sinnvoll?
KonfigurationIdee wäre wie folgt: 1-2 SSDs für Proxmox für die VMs zu benutzen am internen SATA Controller. 2 M.2 SSDs (mit PCIE Adapter) durchzureichen an eine OmniOS VM (mir reicht vorerst ein Mirror aus 2 M.2s, rein für Daten).

"Problem" ist wenn man so will die PCIe Bestückung. Es gibt 2mal x1 2.0 und 2mal x8 3.0. In den x1 2.0 Ports würden die SSDs also auf 500MB/s limitiert werden, wobei ich eh nur 1Gbit Ethernet habe und das warscheinlich egal wäre.

Wenn ich vor habe noch eine 10Gbit Netzwerkkarte in einen der PCIe Slots zu verbauen was wäre dann klüger? Die Netzwerkkarte in den x.1 2.0 Port. Damit hätte ich maximal 500MB/S. Oder die beiden SSDs in den langsammen x1 2.0 Ports, dann wären diese auf 500MB/s limitiert, aber zumindest lesend von einem Mirror wären dann theoretisch 1000MB/s möglich (sofern die CPU das mitmacht). Wobei ich auch nicht umbedingt die 10Gbit erreichen muss, deutlich mehr wie 1Gbit also so um die 4-5Gbit wären auch schon okay...

Oder was ganz anderes? Brauche eigentlich nur VMs/Container und ein NAS, möchte das aber trennen vorallem damit die VMs auch durchlaufen können wenn man mal das NAS neustartet ist auch der Grund was mir an VMs "unter" einem NAS nicht so gefällt.
Als Datastorage für eigene Dateien reicht mir wie gesagt ein SSD Mirror. 2 maximal 4TB damit bin ich glücklich...
 
Zuletzt bearbeitet:
OmniOS ist mit Bhyve, KVM, LX Linux Zonen und Solaris Zonen featuremäßig sehr komplett. Ich würde aber unter einem NAS auch nichts virtualisieren. Allein die Menge und Häufigkeit kritischer Sicherheitsupdates z.B. mit OpenSSL oder aktuell den AMD/Intel CPUs jeweils mit Reboot lassen das nicht ideal erscheinen.

Ich persönlich favorisiere ESXi als Basis. Genau wie OmniOS bei ZFS Storage ist es mit die resourcenschonendste und schnellste Basis bei VM Server. Dazu mit der besten OS Unterstützung und den schnellen vmxnet3 vnics. Zwar kein OpenSource aber kostenlos nutzbar wenn man HA und vSAN Storage (stattdessen ZFS via NFS/SMB) nicht braucht. ESXi lst der de Facto Standard im kommerziellen Umfeld und sehr stabil. VMs z.B. OSX, Linux (auch Debian, Proxmox, Unraid) oder Windows laufen perfekt getrennt und weiter wenn man eine VM stoppt. ESXi selber braucht seltener Updates wenn es keine Internet/ unsichere LAN Anbindung hat. ESXi ist mehr eine Boot Firmware mit Weboberfläche zum Virtualisieren als ein OS.

ProxMox im Vergleich ist ein vollwertiges "fettes" Debian. Hat Vorteile aber auch Nachteile, vor Allem wenn man da auch Sicherheitspatches installieren möchte. Dann ist die Situation kaum besser als bei einem NAS als Basis.

Zur Aufteilung
Nic intern ist Software. Da macht auch eine 1G Nic extern intern 10G. Es koomt also nur darauf an was man extern braucht. Ansonst die Lanes für NVMe nehmen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh