[Sammelthread] ZFS Stammtisch

Hab nochmal wget drüber laufen gelassen, nun tauchen die Nutzer auf. Cool thx.

SMB Freigaben IN anderen Freigaben gehen aber nicht oder? Beispielsweise wenn ich den Ordner "Videos" freigebe und "Videos/Movies" und "Videos/TV_Shows"

Meine ich hatte mal irgendwie was gelesen dass es mit verschachtelten Freigaben ein Problem gibt.

Muss ich irgendwas beachten wenn ich NFS Freigaben vom selben Ordner machen will?

Wie läuft das bei einem Import von einem Pool. Es heißt ja NFS und SMB sind ZFS Eigenschaften. Aber wenn ich einen Pool importiere kennt das andere System ja die Benutzer noch gar nicht, wenn ich vorher keinen angelegt habe? Was muss ich dann machen wenn ich mit meinem Pool umziehe auf ein "frisches" System?

Und was ist der Unterschied zwischen ACL on Folders und ACL on SMB Shares. Bzw. wieso soll ich ACL on Folders benutzen und nicht on SMB Shares.

- SMB Freigaben
sind beim Solaris CIFS Server ZFS Eigenschaften. Damit lassen sich nur Dateisysteme sharen. Bei verschachtelten Dateisystemen kann man allerdings nicht per SMB in tieferliegende Dateisysteme wechseln sondern muss das entsprechende Share anwählen. Grund: Dateisysteme können komplett unterschiedliche Eigenschaften haben. SMB berücksichtigt das nicht.

Man kann also im Beispiel Movies und Shows als Dateisystem anlegen wenn es unterschiedliche Shares sein sollen. Oder Video ist das Dateisystem und Movies, Shows sind einfache Ordner in die man problemlos wechseln kann.

NFS und SMB gleichzeitig sharen
geht, man muss aber die Rechteproblematik in den Griff bekommen, da NFS keine User und keine Authentifizierung kennt, sondern alles auf die Client IP (und eventuell Unix UID) bezieht.

Bei einem Pool Import werden die shares erhalten. Wenn die Zugriffsrechte z.B. wegen anderer User (uid, Windows SID) nicht passen, muss man halt die Rechte neu setzen. Bei einer Windows Domäne bleiben aber alle Rechte (Domänen SIDs aus Windows intakt). Das geht aber nur mit dem Solaris CIFS Server, nicht mit SAMBA da der keine Windows SID kann.

ACL on Folders/Shares
ist eine Funktion, die jeder Windows Server auch kann.
ACL on Folders sind ACL auf Dateien und Ordner. Die müssen immer passen. Zusätzlich kann man den Zugriff auf Share-Level beschränken, ohne dass man Dateirechte ändern muss. Diese werden zusätzlich beachtet.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das geht noch nicht. Einmal hinzugefügt, kriegst du ein vdev nicht mehr raus, selbst wenn da noch keine Daten draufliegen.

Das wäre ja auch zu schön gewesen. Also wäre dann folgendes Vorgehen richtig: Backup machen, Pool löschen, Vdev löschen, vdev neu anlegen, Pool neu ...
 
Das wäre ja auch zu schön gewesen. Also wäre dann folgendes Vorgehen richtig: Backup machen, Pool löschen, Vdev löschen, vdev neu anlegen, Pool neu ...

Es gibt keine vdevs ohne Pool. Der besteht daraus:
- Backup machen
- Pool zerstören
- Pool neu mit erstem vdev anlegen
- Restore
 
Moin moin,

ich habe da ein kleines großes Problem mit meinem ZFS Pool...
Seit gestern Mittag läuft ein Scrub und eine der Platten (Raid-Z1, 4 HDDs), hat 62,8k Checksum Errors.
Wenn ich sie raushole und im WD Tool auf defekte Sektoren etc checke kommt nichts.
Kann ich irgendwie rausfinden, ob es an der Platte oder am Kabel/Mainboard liegt ohne eine neue Platte zu resilvern?

Schöne Grüße,
fuku
 
NFS und SMB gleichzeitig sharen
geht, man muss aber die Rechteproblematik in den Griff bekommen, da NFS keine User und keine Authentifizierung kennt, sondern alles auf die Client IP (und eventuell Unix UID) bezieht.
Ich will Medienverzeichnisse, also Audio und Video und Bilder halt parallel als NFS Shares einrichten. Zum Beispiel für Netzwerkplayer. Würde es die Sache einfacher machen wenn ich mich da mit Readonly Shares zufrieden geben? Sprich jeder Netzwerkplayer soll alles abspielen, aber nichts verändern. Da bräuchte ich ja dann keine Rechte oder?

ACL on Folders/Shares
ist eine Funktion, die jeder Windows Server auch kann.
ACL on Folders sind ACL auf Dateien und Ordner. Die müssen immer passen. Zusätzlich kann man den Zugriff auf Share-Level beschränken, ohne dass man Dateirechte ändern muss. Diese werden zusätzlich beachtet.
Also gelten ACL on Folders überall. Sprich selbst wenn ich einen FTP Server einrichte kann jemand mit dem Account "User1" nur das sehen was für "User1" bestimmt ist. Er hätte also genau die gleichen Möglichkeiten über FTP die er im eigenen Netzwerk per SMB hätte, richtig?

Und mit ACL on SMB Shares, könnte ich hier den Zugriff im LAN einschränken. Zumindest über SMB. Würde ich ihm dann nur bei "ACL on SMB Shares" was sperren, könnte er aber weiterhin über FTP drauf zugreifen?

Bei verschachtelten Dateisystemen kann man allerdings nicht per SMB in tieferliegende Dateisysteme wechseln sondern muss das entsprechende Share anwählen. Grund: Dateisysteme können komplett unterschiedliche Eigenschaften haben. SMB berücksichtigt das nicht.
Also bei mir geht das. Zumindest als root.

Man kann nur ZFS Ordner/Dateisysteme freigeben oder auch ganz normale Ordner?
 
Zuletzt bearbeitet:
Moin moin,

ich habe da ein kleines großes Problem mit meinem ZFS Pool...
Seit gestern Mittag läuft ein Scrub und eine der Platten (Raid-Z1, 4 HDDs), hat 62,8k Checksum Errors.
Wenn ich sie raushole und im WD Tool auf defekte Sektoren etc checke kommt nichts.
Kann ich irgendwie rausfinden, ob es an der Platte oder am Kabel/Mainboard liegt ohne eine neue Platte zu resilvern?

Schöne Grüße,
fuku

Wenn es die Platte nicht ist, bleiben Kabel, Buchse oder Controller.
Ich würde erst ein anderes Kabel (sata und Power) versuchen, dann eine andere Platte anstecken, einen Pool darauf anlegen, vollschreiben, scrubben.

---------- Post added at 20:48 ---------- Previous post was at 20:42 ----------

Ich will Medienverzeichnisse, also Audio und Video und Bilder halt parallel als NFS Shares einrichten. Zum Beispiel für Netzwerkplayer. Würde es die Sache einfacher machen wenn ich mich da mit Readonly Shares zufrieden geben? Sprich jeder Netzwerkplayer soll alles abspielen, aber nichts verändern. Da bräuchte ich ja dann keine Rechte oder?


Also gelten ACL on Folders überall. Sprich selbst wenn ich einen FTP Server einrichte kann jemand mit dem Account "User1" nur das sehen was für "User1" bestimmt ist. Er hätte also genau die gleichen Möglichkeiten über FTP die er im eigenen Netzwerk per SMB hätte, richtig?

Und mit ACL on SMB Shares, könnte ich hier den Zugriff im LAN einschränken. Zumindest über SMB. Würde ich ihm dann nur bei "ACL on SMB Shares" was sperren, könnte er aber weiterhin über FTP drauf zugreifen?


Also bei mir geht das. Zumindest als root.

Man kann nur ZFS Ordner/Dateisysteme freigeben oder auch ganz normale Ordner?

- NFS + SMB: am Besten everyone@ erlauben, aclinherit auf pass-through und aclmode auf discard
- acl on folders gelten immer, acl on shares zusätzlich für SMB (Solaris CIFS)

- Per SMB in andere Dateisysteme wechseln, die unterhalb gemounted sind, geht bei Solaris CIFS nie
- Solaris CIFS kann nur Dateisysteme sharen, SAMBA auch einfache Ordner. Nested shares sind dann möglich.
(einer der wenigen Vorteile von SAMBA)
 
Zuletzt bearbeitet:
Wenn es die Platte nicht ist, bleiben Kabel, Buchse oder Controller.
Ich würde erst ein anderes Kabel (sata und Power) versuchen, dann eine andere Platte anstecken, einen Pool darauf anlegen, vollschreiben, scrubben.

Anderes Kabel ist schwierig, weil es ein HP Microserver ist. Ist ein fester Wechselrahmen für alle vier HDDs. Hab gerade nen neuen Raid-Z1 Pool auf anderen HDDs angelegt und den gefüllt und gescrubbt.
Keine Checksum Errors....
Das heisst dann wohl die HDD ist Schuld. Kabel etc ist alles gleich. Aber krieg' ich die durch die RMA, wenn das WD Tool nichts anzeigt??! Und wie kann das überhaupt sein, dass die HDD Tools nichts erkennen o0
 
Der Wechselrahmen hat ein Kabel dass zum Mainboard führt, auch der Wechselrahmen an sich kann defekt sein.
Schon mal an defekten RAM gedacht? Verwendest du ECC RAM?
 
Zuletzt bearbeitet:
Ich verwende ECC Ram, aber habe ja die gleiche Konfiguration jetzt mit anderen HDDs getestet.
Da der Rest gleich bleibt und ich jetzt keine Fehler mehr hab spricht doch alles für die HDD?!

Natürlich hab ich die im gleichen Rahmen eingebaut wie vorher den anderen Pool. Der alte Pool liegt jetzt komplett ausgebaut hier.
 
Nein, das spricht eben nicht definitiv für eine defekte HDD.
Die Checksum Errors können auch durch defekten Arbeitsspeicher, ein defektes Kabel oder eine defekte Backplane verursacht werden. Da kann die HDD dann auch nichts dafür wenn die Daten die sie bekommt bereits falsch sind. Da hilft es auch nichts andere HDDs einzubauen, es hat ja niemand gesagt dass der Fehler immer wieder an der gleichen Stelle auftritt.

Besonders nach dem du mehrere Festplatten rein und raus gezogen hast können z.B. defekte Kabel oder ein Haar-Riss auf der Backplane plötzlich keine Probleme mehr machen.
Manchmal funktionieren Backplanes/Kabel auch bei gewissen Betriebstemperaturen nicht weil sich das Material dann weitet/verzieht. Das können wirklich sehr viele Sachen sein.

Im professionellen Umfeld tauscht man einfach alle in Frage kommenden Komponenten direkt aus da dieses Vorgehen wirtschaftlicher ist aufgrund der vergleichsweise niedrigen Preise für Ersatzteile als eine Fehler-Diagnose und den eventuell für Downtimes auftretenden Kosten. Je nach dem Wert der Gesamt-Hardware tauscht man eventuell auch einfach gleich den gesamten Server (Kostenrichtung HP Microserver) oder nur einzelne Teile (z.B. Supermicro 24 Slot Gehäuse). Manchmal aber auch einfach den gesamten 10.000€ Server damit man sich den defekten Server in Ruhe in der Werkstatt angucken kann weil die Firma eine Stunde Downtime bereits mehrere Tausend Euro kosten würde.

Kannst du in den Log-Dateien eventuell Meldungen über ECC-Fehlerkorrekturen entdecken?

Wenn das WD Tool die Festplatte für in Ordnung hält wird das wohl schwierig mit der RMA, zu mindestens als Privat-Kunde. Mein Händler nimmt die Festplatten auch so an, aber das ist auch ein IT-Systemhaus und reiner Online-Verbimmler.

Wie schaut es denn mit den SMART-Werten aus? Mach mal bitte einen Long Test mit smartmontools:
smartctl -t long /dev/sda

Den Status des Tests und das Ergebnis kannst du mit prüfen, der Long Test dauert schon eine gewisse Zeit, also etwas Geduld mitbringen.
smartctl -a /dev/sda

/dev/sda natürlich mit dem Gerätenamen der jeweiligen Festplatte austauschen

Die Ausgabe sieht dann in etwa so aus, ganz am Ende findet man Status/Ergebnis des Tests.
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, smartmontools

=== START OF INFORMATION SECTION ===
Model Family: SAMSUNG SpinPoint F3 EG
Device Model: SAMSUNG HD203WI
Serial Number: XXXXXXXXXXXXXXX
LU WWN Device Id: 5 0024e9 0035caf81
Firmware Version: 1AN10002
User Capacity: 2,000,398,934,016 bytes [2.00 TB]
Sector Size: 512 bytes logical/physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: 8
ATA Standard is: ATA-8-ACS revision 6
Local Time is: Wed Aug 7 22:46:04 2013 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (25800) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 255) minutes.
SCT capabilities: (0x003f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 100 100 051 Pre-fail Always - 34
2 Throughput_Performance 0x0026 056 056 000 Old_age Always - 23483
3 Spin_Up_Time 0x0023 061 058 025 Pre-fail Always - 11905
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 445
5 Reallocated_Sector_Ct 0x0033 252 252 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 252 252 051 Old_age Always - 0
8 Seek_Time_Performance 0x0024 252 252 015 Old_age Offline - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 5255
10 Spin_Retry_Count 0x0032 252 252 051 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 252 252 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 184
191 G-Sense_Error_Rate 0x0022 100 100 000 Old_age Always - 1554
192 Power-Off_Retract_Count 0x0022 252 252 000 Old_age Always - 0
194 Temperature_Celsius 0x0002 064 056 000 Old_age Always - 36 (Min/Max 12/45)
195 Hardware_ECC_Recovered 0x003a 100 100 000 Old_age Always - 0
196 Reallocated_Event_Count 0x0032 252 252 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 252 252 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0036 100 100 000 Old_age Always - 3
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 147
223 Load_Retry_Count 0x0032 252 252 000 Old_age Always - 0
225 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 7605

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 342 -
# 2 Extended offline Completed without error 00% 322 -

Note: selective self-test log revision number (0) not 1 implies that no selective self-test has ever been run
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Completed [00% left] (0-65535)
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Diese Ausgabe postest du dann hier mal im in einem Spoiler-Tag, dann können wir mal einen Blick drüber werfen.
 
Zuletzt bearbeitet:
Moin,

klar könnte ich jetzt den Server direkt komplett tauschen, aber wirklich wollen tu ich das nicht ;)
ist jetzt natürlich großes Kino, dass es nicht einfach die HDD zu sein scheint. Der große Smarttest lief fehlerfrei durch. :fresse2:
smartctl 5.43 2012-06-30 r3573 [FreeBSD 8.3-RELEASE-p4 amd64] (local build)
Copyright (C) 2002-12 by Bruce Allen, smartmontools

=== START OF INFORMATION SECTION ===
Device Model: WDC WD30EFRX-68AX9N0
Serial Number: WD-WMC1T1308984
LU WWN Device Id: 5 0014ee 0037737fb
Firmware Version: 80.00A80
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: 8
ATA Standard is: ACS-2 (revision not indicated)
Local Time is: Thu Aug 8 11:30:46 2013 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (42480) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off supp ort.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 426) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x70bd) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_ FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 192 177 021 Pre-fail Always - 5383
4 Start_Stop_Count 0x0032 099 099 000 Old_age Always - 1564
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 098 098 000 Old_age Always - 1774
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 154
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 15
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 1549
194 Temperature_Celsius 0x0022 124 114 000 Old_age Always - 26
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA _of_first_error
# 1 Extended offline Completed without error 00% 1772 -
# 2 Short offline Completed without error 00% 1764 -
# 3 Short offline Completed without error 00% 1763 -
# 4 Short offline Completed without error 00% 1709 -
# 5 Short offline Completed without error 00% 1580 -
# 6 Short offline Completed without error 00% 1460 -
# 7 Short offline Completed without error 00% 1340 -
# 8 Short offline Completed without error 00% 1220 -
# 9 Short offline Completed without error 00% 1100 -
#10 Short offline Completed without error 00% 980 -
#11 Short offline Completed without error 00% 860 -
#12 Short offline Completed without error 00% 696 -
#13 Short offline Completed without error 00% 596 -
#14 Short offline Completed without error 00% 496 -
#15 Short offline Completed without error 00% 396 -
#16 Short offline Completed without error 00% 296 -
#17 Short offline Completed without error 00% 250 -
#18 Short offline Completed without error 00% 238 -
#19 Short offline Completed without error 00% 226 -
#20 Short offline Completed without error 00% 214 -
#21 Short offline Completed without error 00% 202 -

SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
In den Logs steht auch nichts von ECC Korrekturen...
Und nu? :d

Ein für jede Hilfe dankbarer fuku
 
Zuletzt bearbeitet:
Ganz großes Kino ist es jetzt nicht wirklich, für einen erfahren IT-Techniker ist das nichts besonders. ;)

Auf jeden Fall den Speicher auf Fehler mit MemTest86 V4.3.0 oder MemTest85 V5.0 Beta testen, zwei komplette Passes durch laufen lassen, das wird ein paar Stunden dauern.
http://www.memtest86.com/download.htm

Sollten dort auch keine Fehler angezeigt werden, empfehle ich folgendes:
Auf Garantie wirst du wohl kein einziges Bauteil einfach so kostenlos ausgetauscht bekommen da du einen Defekt nicht eindeutig nachweisen kannst.
Die Fehlerquelle im Nachhinein zu bestimmen ist sehr schwer da der Fehler anscheinend nicht so einfach zu reproduzieren ist. Wenn du etwas tauschen willst, dann die Festplatte auf der die Checksum Errors waren, sonst nichts und dann hoffen dass es damit getan ist. Die würde ich dann als gebraucht und in Ordnung bei Ebay verkaufen, laut WD Tool und smartctl ist sie dass ja auch.

Solltest du später nochmal ähnliche Probleme haben und die HDD ist laut WD Tool und smartctl wieder in Ordnung, versuch den Microserver los zu werden. Sei es über Garantie, was sehr schwierig sein wird, oder über Ebay und kauf dir einen Neuen. Auch wenn letzteres leicht ethisch bedenklich ist dürfte es die beste Lösung für dich sein, man muss halt sehen wo man bleibt. ;)

Und tu dir beim nächsten Neukauf einen Gefallen und kauf immer die höchst verfügbare Festplattengröße, auch wenn der Preis pro TB etwas höher ist ist es am Ende durch günstiger da dich auch jeder Festplatten Slot Geld kostet. Bei deinem Microserver in etwa 50€ pro Slot. Wenn du das mit ein berechnest sind die 4TB Festplatten plötzlich günstiger oder kosten fast das selbe pro TB.
HGST Deskstar 7K4000 4TB, SATA 6Gb/s (HDS724040ALE640/H3IK40003272SW)
 
Zuletzt bearbeitet:
Frage:
Für ein Selbstbau-NAS (8 Platten) würde ich gern den IBM 1015 einsparen und stattdessen ein A85X Board (8 x SATA 6GB) mit AMD-CPU nehmen. Wird Omnios oder OI damit laufen? Ich würde darauf gern ein RAIDz2 erstellen.
 
Zuletzt bearbeitet:
Naja zum einen brauchst du dann noch was für dein Bootlaufwerk, zum anderen schauts doch bisher düster aus mit ECC auf FM1/2. Oder hat sich da was getan?
 
ECC ist nicht auf FM2. Als System hatte ich gedacht/gehofft einen/zwei USB Sticks nutzen zu können. Es direkt richtig zu machen (Xeon, Supermicro-Board + 1 (2) x M1015 + 19 Zoll Gehäuse) ist mir dann für privat doch etwas zu teuer. Die Platten sind schon teuer genug. Evtl. später mal.
 
Das Board könnte eventuell gehen, Boot per 2 x USB Stick als Mirror auch, aber

- Realtek Nic taugt nicht, also wenigstens eine Intel Nic (PCI-e) dazunehmen
- Ich vermute, dass die Onboard Sata kein Hotplug können, man muss also immer rebooten zum Platten wechseln.

Angesichts des Preise für das Gesamtsystem (mit 8 Platten) würde ich auch nicht so stark am Grundsystem sparen.
Reichen denn 6 x 4 TB nicht - und dafür lieber ein SuperMicro Serverboard mit ECC und kleinstem Xeon nehmen.

Mit einem Extra Controller gibt es dann auch die Option All-In-One (Virtualisieren von OSX, Linux, Windows, Solaris)-
am billigsten mit einem SM Board mit integriertem LSI Controller.
 
Ich werde es mal durchrechnen ... Danke!
 
.....Sockel AM3 und AM3+ CPUs können ECC .... geht auch bei Desktop Boards...bei ASUS steht es immer gut in den Specs.
 
Wenn der Controller nicht serienmäßig unterstützt wird, würde ich den unter Omni vergessen sondern:
- versuchen den Controller unter ESXi zu nutzen
- Sata (AHCI) durchreichen

Danke für den Tipp der Controller war aus irgend einen Grund nicht auf AHCI.

Jetzt hätte ich nur noch ein einziges Problem (hoffe ich zumindest ;-) )

Wenn ich die Installation unter OpenIndiana durchführe läuft alles problemlos, jedoch möchte ich OmniOS verwenden.

Bei der OmniOS Installation habe ich jedoch folgendes Problem:

Ich installiere OmniOS
führe install SUNWtoo
reboot
vmware tools isntalieren
reboot funktioniert nicht mehr und ich kann nicht mehr weiterarbeiten, die VM lässt sich nicht mehr starten

wo liegt das Problem?
 
Gibt es irgendwo eine gescheite Anleitung für die Einrichtung von Apache + Owncloud ? Will es "produktiv" einsetzen, hab gelesen dass man da auf Xampp verzichten solle. Allerdings weiß ich nicht wie ich es zum laufen bekommen soll und was es sonst noch zu beachten gibt alles bei einem von außen zu erreichenden Webserver
 
Bei der OmniOS Installation habe ich jedoch folgendes Problem:

Ich installiere OmniOS
führe install SUNWtoo
reboot
vmware tools isntalieren
reboot funktioniert nicht mehr und ich kann nicht mehr weiterarbeiten, die VM lässt sich nicht mehr starten

wo liegt das Problem?

wozu SUNWtoo?
wie werden vmware tools installiert?
-> http://napp-it.org/doc/ESXi-OmniOS_Installation_HOWTO_de.pdf

(Patch ist bei neuestem ESXi nicht mehr nötig)

Es gibt zumindest kein grundlegendes Proglem.
Bei mir laufen mehrere All-In-One mit OmniOS und vmware tools.
 
Zuletzt bearbeitet:
Nochmal eine Verständnisfrage: Der CIFS Server kann ja nur Datasets sharen. Aber es müsste doch durch ACL on Folders beispielsweise möglich sein bei einer Freigabe für einen user, einen bestimmten Ordner einfach zu sperren.

Beispielsweise ich habe mehrere Filme welche ich User1 und User2 zur Verfügung stellen will, alles läuft unter einer Freigabe nämlich "movies" (dataset).
User2 soll aber in movies nicht in "FSK18" (normaler Ordner) rein. Also könnte ich hier doch ganz einfach mit ACL on Folders dies erreichen. "movies" gebe ich für beide frei, aber "FSK18" nur für User1

Kann mich sich nicht mit einem KOnto von 2 verschiedenen PCs anmelden auf dem Server? Kann nur mit meinem Notebook auf die Freigabe zugreifen. Der Desktop PC mit den gleichen Passwort und Username geht nicht. Zugriff verweigert
 
Zuletzt bearbeitet:
Nochmal eine Verständnisfrage: Der CIFS Server kann ja nur Datasets sharen. Aber es müsste doch durch ACL on Folders beispielsweise möglich sein bei einer Freigabe für einen user, einen bestimmten Ordner einfach zu sperren.

Beispielsweise ich habe mehrere Filme welche ich User1 und User2 zur Verfügung stellen will, alles läuft unter einer Freigabe nämlich "movies" (dataset).
User2 soll aber in movies nicht in "FSK18" (normaler Ordner) rein. Also könnte ich hier doch ganz einfach mit ACL on Folders dies erreichen. "movies" gebe ich für beide frei, aber "FSK18" nur für User1

Kann mich sich nicht mit einem KOnto von 2 verschiedenen PCs anmelden auf dem Server? Kann nur mit meinem Notebook auf die Freigabe zugreifen. Der Desktop PC mit den gleichen Passwort und Username geht nicht. Zugriff verweigert

Mehrfachanmeldung ist kein Problem und den Zugriff auf Ordner kann man mit ACLs regeln.
Entweder
- per Windows (nur Pro Versionen, als root anmelden und keine deny Regeln setzen)
- per cli und chmod
- per napp-it ACL extension (nur Basis-ACL frei nutzbar)
 
Ok also bei mir klappt es mit der Mehrfachanmeldung nicht, was hab ich gemacht:

Nappit installiert, User1 erstellt, eine Freigabe eingerichtet. Alles weitesgehend auf Standard gelassen. "everyone" und "modify"

Zuerst hab ich mich dann von meinem Notebook angemeldet. Username und Passwort ist identisch, daher kam wohl keine Abfrage.

Danach hab ich es von meinem Desktop Rechner versucht. Verwende dort den gleichen Usernamen und das gleiche Passwort. Beim Anwählen der Freigabe öffnet sich ein Fenster und er verlangt username und passwort, nach der Eingabe wird der Zugriff aber verweigert.

Auf der Server Konsole kommt die Meldung dass der Zugriff verweigert wurde da Guest Access nicht erlaubt sei.

edit: Wenn ich im Explorer den Server über die IP anwähle klappt es. Wenn ich aber unter Netzwerkumgebung "NAS" (=Servername) mich verbinden will klappt es nur von meinem Notebook aus

okay ein neustart hat das problem gelöst
 
Zuletzt bearbeitet:
Das kommt drauf an, das Risiko ist natürlich für die VMs dann größer. Du gewinnst Sicherheit für das Host-Dateisystem, verlierst aber etwas für die VMs.

Du kannst das Problem aber umgehen in dem du den Storage mittels zvols via iSCSI bereitstellst....

Ich hab da noch einen anderen Weg gefunden, der allerdings irgendwie abgefahren ist :) -> Alles nur mal zum Test

- ZoL auf dem Proxmox Host installiert, Pool erstellt etc.
- NFS-Server auf dem Proxmox Host installiert
- Den gemounteten ZFS Pool per NFS exportiert
- In Proxmox diesen lokalen NFS-Share als Storage hinzugefügt.
- VM erstellt mit Platte auf diesem Storage
- VM gestartet -> geht, keine Fehlermeldung :)

Irgendwie schräg das ganze.
 
Zuletzt bearbeitet:
Ich hab da noch einen anderen Weg gefunden, der allerdings irgendwie abgefahren ist :) -> Alles nur mal zum Test

- ZoL auf dem Proxmox Host installiert, Pool erstellt etc.
- NFS-Server auf dem Proxmox Host installiert
- Den gemounteten ZFS Pool per NFS exportiert
- In Proxmox diesen lokalen NFS-Share als Storage hinzugefügt.
- VM erstellt mit Platte auf diesem Storage
- VM gestartet -> geht, keine Fehlermeldung :)

Irgendwie schräg das ganze. Auch die Ausgabe von pveperf ist irgendwie seltsam:





Denn warum hab ich über den NFS Umweg einen viel höheren Wert bei FSYNCS/SECOND als direkt???

Ob lokal oder über ethernet nfs bleibt nfs.
Siehe Network File System

und

OSI-Modell

Das kostet alles. Kosten "direkter Mount" + nfs server + nfs client + ... Einmal OSI-Schichtenmodell runter, Einmal OSI-Schichtenmodell rauf ...
 
War ja auch nur ein Test, weil man auf dem direkten Weg die Platten der VM auf "Write Back" stellen muss, bei dem Umweg über den NFS braucht man das wohl nicht.

Die Sache mit "FSYNCS/SECOND" die ich geschrieben hatte hat sich erledigt, ich hatte zuvor beim besagten Dataset "Sync" abeschaltet und hatte es vergessen wieder anzuschalten für den Test, deshalb hatte ich so hohe Werte :)
 
Wie installiert man Apache2 und was gibt es zu beachten? Will nicht xampp benutzen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh