[Sammelthread] ZFS Stammtisch

Hallo,

die verschiedenen Checksummen verursachen unterschiedliche CPU-Last und sind natürlich "unterschiedlich" sicher,
aufsteigend. Die Last bewegt sich aber von der geringsten zur größten im Bereich von max. 15%, zumindest bei mir.

Gruß
Ron

Edit: setzt du ein verify noch hintendran, dann wird der Block auch noch einmal neu gelesen und das ZFS verlässt sich nicht nur auf die Prüfsumme (vielleicht bei fletcher2 und 4 und großen Datenmengen von Vorteil, aber dazu gibt es ausgeklügelte Wahrscheinlichkeitberechnungen), kostet aber derbe Performance.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe mit einem nas4free Server, e5200 mit 4GB Ram und 2 WDEARS (4K Sektoren) AES verschlüsselt (128) enorme Performanceprobleme. Ich nehme an, dass das an den 4k sektoren liegt.

fileserver:/mnt/data# diskinfo -v /dev/ada0
/dev/ada0
512 # sectorsize
2000398934016 # mediasize in bytes (1.8T)
3907029168 # mediasize in sectors
4096 # stripesize
0 # stripeoffset
3876021 # Cylinders according to firmware.
16 # Heads according to firmware.
63 # Sectors according to firmware.
WD-WCAZA2887662 # Disk ident.

Welche Festplatten nutzt ihr um ordentliche Performance zu erreichen? An der CPU wird es ja nicht liegen, die sollte ausreichend potent sein, oder?

capacity operations bandwidth
pool alloc free read write read write
------------ ----- ----- ----- ----- ----- -----
pool1 350G 1.47T 2 154 17.3K 13.8M
mirror 350G 1.47T 2 154 17.3K 13.8M
ada0.eli - - 1 133 9.14K 13.9M
ada1.eli - - 1 133 9.71K 13.9M
------------ ----- ----- ----- ----- ----- -----
 
Zuletzt bearbeitet:
Hallo,

du hast dir ja so ziemlich die schlechtesten Platten, was die Performance betrifft, ausgesucht, die ich kenne, und dann noch nur 2 im Einfachmirror (RAID1). Damit hast du schreibend die IOPS einer einzelnen Platte und lesend die von 2. Der Gewinn durch eine andere Blockgröße dürfte bei nur ca. 4-6% liegen, aber ein zweiter Plattenspiegel in diesem Pool verdoppelt die Performance nahezu. Wenn du Performance brauchst, nimm nicht wenige große sondern viele kleine Platten, wenn`s geht mehrere Spiegel (3-4) in einem Pool.
 
mag sein, aber rund 15mb/s sind doch recht mager - oder? Das sollte doch (irgendwie) mehr drin sein, oder? Unter Linux mit einem dmraid Mirror und ext4 komme ich (allerdings unverschlüsselt) auf 60-80 mb/s
 
@sashXP Geb mal:
Code:
zdb pool1 | grep ashift
ein

Wenn da 9 steht ist es schlecht, denn die Perfomance mit den HDDs ist da sehr schlecht fast 50% Verlust (hab die gleichen), du musst das 4 K Align also ashift = 12 haben. Hier ist eine Anleitung wie man das beheben kann unter FreeBSD (also NAS4Free): Fixing the ZFS ashift problem on FreeBSD musst aber den Pool neu anlegen, also vorher alles sichern.

@ron2105

Danke für die Info, dann lass ich es beim Default mit den Checksummen.
 
Zuletzt bearbeitet:
Hast du unter FreeBSD ZFS im Bootloader/Sysctl usw. getweakt? Hatte mir unter FreeBSD einiges gebracht. ZFSTuningGuide - FreeBSD Wiki / How to improve ZFS performance | ICESQUARE - Solve Computer Server Problems, Computer Help, Server Support, Server Help


Btw. gerade mal mit NetIO gebencht:

Code:
C:\Program Files\TCP\netio\bin>win32-i386.exe -t 192.168.0.60

NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size  1k bytes:  117.33 MByte/s Tx,  118.03 MByte/s Rx.
Packet size  2k bytes:  117.48 MByte/s Tx,  118.04 MByte/s Rx.
Packet size  4k bytes:  117.78 MByte/s Tx,  118.04 MByte/s Rx.
Packet size  8k bytes:  118.12 MByte/s Tx,  118.07 MByte/s Rx.
Packet size 16k bytes:  118.05 MByte/s Tx,  118.08 MByte/s Rx.
Packet size 32k bytes:  118.01 MByte/s Tx,  118.08 MByte/s Rx.
Done.

Gigabit Lan vom Windows 7 PC (mit Onboard LAN) auf den Homeserver, einwandfrei, nun ist alles optimal wie es sein soll :)
 
Zuletzt bearbeitet:
Durch die Änderungen aus dem 2. Link bin ich nun bei 20-30MB/s - also schon etwas schneller. Wenn ich mir während des Transfers allerdings die CPU-Auslastung ansehe liegt die immer bei 85-99% - zieht hier tatsächlich die AES Verschlüsselung soviel performance?

sash
 
Bei einem 1,4GHz Pentium 3 sind 90% CPU-Auslastung bei 30MByte/sec verschlüsselter AES Netzwerktransfers normal. Aktuelle CPUs liegen bei ca. 400-800MByte/sec, weswegen man auch eher auf eine CPU mit AES-NI achten sollte bei einem Neukauf. Welche CPU verwendest du denn?
 
Hallo zusammen,

Ich bin neu hier und habe kurz im Forum hier recherchiert, konnte aber noch keine Informationen finden, wie ich folgendes anstelle:

Ausgangspunkt ist Oracle Solaris 11.
Wie kann ich mir anzeigen, welche Nutzer aktuell Last über welche Freigaben und/oder Filesysteme am System verursachen.
(Hilfreich wäre zunächst eine Lösung für CIFS-Freigaben.)

Hintergrund ist, dass man sich z.B. zwar anzeigen lassen kann, wie groß die IO-Last ist, aber nicht einfach woher diese kommt.

Vielen Dank
 
Bei einem 1,4GHz Pentium 3 sind 90% CPU-Auslastung bei 30MByte/sec verschlüsselter AES Netzwerktransfers normal. Aktuelle CPUs liegen bei ca. 400-800MByte/sec, weswegen man auch eher auf eine CPU mit AES-NI achten sollte bei einem Neukauf. Welche CPU verwendest du denn?

ich verwende einen Core2Duo e6300. Wenn ich wie gesagt mit höchster Transferrate kopiere ist die CPU-Leistung im Anschlag, die Optimierungstips haben denke ich dazu geführt, die CPU-Last beim schreiben zu verringern (und damit für eine höhere Transfer-Leistung gesorgt)

Mir würden grundsätzlich 50MB/s reichen... das das Bottleneck die CPU ist (und das schon bei 30/mb) hätte ich aber nicht gedacht.
 
ESXi und ZFS

Hallo,

ich habe mal eine Frage an die ZFS Nutzer hier, die ZFS im ESXi Umfeld einsetzen. Welche Performance ist aus euren Systemen jeweils zwischen den ESXi Hosts und dem ZFS Datastore möglich. Mir ist schon klar, dass es im ESXi Umfeld eher um Latenzen geht.

Warum ich das Frage ist recht einfach. Ich setze hier eine Sun 7420 im Cluster ein. Sind derzeit 38 Platten im Mirrored Raid. Innerhalb des Sun Systems sind Leseraten von ca. 4,6GByte/s und Schreibraten von ca. 2,2GByte/s möglich (asynchron). Lesend bekommen ich von 6 ESXi Servern aber nur auf ca. 1,08GByte/s, schreibend bremsen mich die 4 ZIL SSD's auf ca. 220MByte/s aus (synchron). Oracle verbaut derzeit keine schnelleren SSD's.

Welche Durchsatzraten sind zwischen euren ESXi Servern und dem Datastore möglich. Mein maximaler Durchsatz je Einzelserver liegt bei max. ca. 380MByte/s.

PS: "Byte" weil viel Byte und Bit verwechselt wird. Das Netz ist durchgehend 10GBit Ethernet!
 
Mit wievielen Links hängen denn ESXi-Server und Sun jeweils dran? 1,08GB/s sieht doch OK aus für 10Gbps.
 
Hallo TCM,

die beiden Sun Köpfe mit 4x10GBit (2NFS/2CIFS). Die 6 ESXi Hosts mit jeweils 2x10GBit je Host. Ein Flaschenhals ist der Bladeswitch, der nur mit 2x10GBit nach außen geht. Das 1GByte/s OK ist, klar, aber was mich stört sind die Einzelwerte der Server. Wie geschrieben, bei ca. 380MB/s ist Schluss. Man kann drehen/schrauben wo man will, es ist ein Flaschenhals. Das Speichersystem ist im Schnitt nur zu 2% ausgelastet und ich hatte es selbst unter voller Last nie über 40% (Alle 6 ESXi Hosts gleichzeitig über alle Ports aktiv).
 
Sieht nach 4Gbit/sec FC aus deine 380MByte/sec ;)
Falls wirklich alle 38 Platten in einem pool als Mirror arbeiten ist es nicht verwunderlich wenn du mit weniger Clients nur einen Teil der Leistung vordern kannst. Interessant wäre eher wie du die Datenraten auf dem Storage selbst erziehlst (benchmark).
 
Hallo,

ich habe mal eine Frage an die ZFS Nutzer hier, die ZFS im ESXi Umfeld einsetzen. Welche Performance ist aus euren Systemen jeweils zwischen den ESXi Hosts und dem ZFS Datastore möglich. Mir ist schon klar, dass es im ESXi Umfeld eher um Latenzen geht.

Warum ich das Frage ist recht einfach. Ich setze hier eine Sun 7420 im Cluster ein. Sind derzeit 38 Platten im Mirrored Raid. Innerhalb des Sun Systems sind Leseraten von ca. 4,6GByte/s und Schreibraten von ca. 2,2GByte/s möglich (asynchron). Lesend bekommen ich von 6 ESXi Servern aber nur auf ca. 1,08GByte/s, schreibend bremsen mich die 4 ZIL SSD's auf ca. 220MByte/s aus (synchron). Oracle verbaut derzeit keine schnelleren SSD's.

Welche Durchsatzraten sind zwischen euren ESXi Servern und dem Datastore möglich. Mein maximaler Durchsatz je Einzelserver liegt bei max. ca. 380MByte/s.

PS: "Byte" weil viel Byte und Bit verwechselt wird. Das Netz ist durchgehend 10GBit Ethernet!

Ich würde erst mal sync disablen (ZFS property, ESXi möchte via NFS syncron schreiben) und die Schreibperformnce messen. Das ist dann das maximal erreichbare. Wenn man diese asyncrone Schreibrate syncron erhalten möchte, dann die ZIL SSD's durch etwas DRAM basiertes ersetzen (SSD taugen nicht wirklich als ZIL) also z.B: ZeusRAM oder DDR-drive.
 
Zuletzt bearbeitet:
Die Schreib-/Leseraten sind asynchron mit "dd" ermittelt. Das die Zeus-SSD's bremsen, hatte ich schon geschrieben. Leider gibt es hier keine Alternative als x-fach mehr Platten. Mich stört, was aus ESXi je Server an Input und Output läuft. Bei zig Migrationen gleichzeitig erreiche ich mal ca. 700-800 MByte/s (lesend). Wo bleiben aber die ca. 700MByte/s beim Einzelserver hängen? Kann man in VMware ESXi wirklich so bremsen oder ist es so gebremst, dass nur noch 30% der möglichen Leistung ankommen und wenn ja, warum ?

Die 1GByte/s erreiche ich nur beim gleichzeitigen Starten von 12 Servern aus dem "Pause" Modus auf allen 6 ESXi Servern.
 
Es kommen da mehrere Faktoren zusammen. Zum einen übertragen 10Gbit Eth NICs nur bei vielen (Client) Zugriffen und größerer Packetgröße auch 1GByte/sec und zum anderen arbeiten HDDs auch nur am Maximum wenn auch genügend Anfragen ankommen.
Vielleicht helfen auch die Tips von Performance_Tuning_Guide_for_Mellanox_Network_Adapters_rev_1_0.pdf
Intel und auch andere Hersteller dürften auch eigene Tuning Guides haben. Wichtig sind vor allem 10kbyte große Jumboframes!
 
Ich tippe ja auch auf ein Transferproblem (möchte nicht nur Netzwerk schreiben). Etwas muss aber bremsen. Beispiel: Wenn ich einen Server aus dem Pausezustand starte und die Daten zu 100% im Lesecache liegen, dann müsste man hier wenigstens auf die Hälfte der Bandbreite kommen. Dem ist aber nicht so, man braucht alle 6 Server um selbst mit 12 Ports das GByte/s voll zu bekommen, dabei ist auf zwei Ports nicht mal eine Gleichverteilung (ca. 65% zu 35%). 6 Server mit 96GB RAM ziehen 12 Maschinen mit ca. 2GB belegtem RAM aus dem Snapshot. Der ZFS Datastore hat alleine 128GB RAM und 512GB Lesecache, sowie 2 x 10GBit.

Gibt es den hier keinen Leser, der Performance Probleme in der ESXi Umgebung hat? Nebenbei, wir haben auch noch eine Netapp, die auch keine besseren Werte zeigt. An NFS/iSCSI liegt es nicht.
 
Zuletzt bearbeitet:
Der RAM ist ja mal ordentlich. :)
Um welche NICs und welche eingesetzten Switche handelt es sich denn?
Auch wenn netio nur das Netzwerk grob testet, wie sehen da die Transferraten aus?
 
Das ist eine Appliance, ich schraube die nicht auf um nach Netzwerkkarten zu sehen. Ich denke Sun als Erfinder von Solaris, ZFS und NFS wird wohl wissen was da rein muss. Im ESXi sind es zwei Cisco Switches intern, extern sind es zwei Extreme Switches. Der Extreme Switch soll so der Netzwerkmann nur ca. 3% Auslastung CPU seitig haben, wenn ich mal wieder Tests durchführe.

Ich tippe bei meinem Performance Verdacht sehr auf die ESXi Umgebung einschließlich der Switche im Bladesystem. Vielleicht sind die Parameter in VMware nicht optimal oder VMware bringt schlicht die Leistung nicht durch die Systeme. Was auffällt ist, das man extrem in die Breite gehen muss um mehr Leistung zu bekommen.

Auch wenn der Vergleich etwas lachhaft ist, aber ein NFS/ZFS Pool mit einem NFS Share läuft langsamer, als der gleiche NFS/ZFS Pool mit NFS1-IP1, NFS2-IP2, ... NFS kennt kein balancing. IP1 und IP2 jeweils unterschiedliche Subnetze/VMKernels. Die NFS Shares jeweils separate Freigaben. Der ZFS Pool ist dabei jeweils der Gleiche.

NetIO habe ich noch nicht probiert, kenne es auch nicht. Da ich in den zwischenliegenden Ebenen kaum testen kann, wird das Ergebnis wohl ähnlich sein.
 
Zuletzt bearbeitet:
NFS: Best Practices for Running vSphere on NFS Storage

Hat eigentlich hier schon mal jemand die ZFS Parameter verwendet? Ich glaube es wird ja alles vom RAM bis auf 1GB für ZFS verwendet. Evtl. macht es bei mir Sinn noch mehr davon abzuzwacken (benutze sonst nur rdiff-backup), ich habe jetzt fast 8TB voll und 4GB RAM verbaut.

Um von 512byte auf 4kb umzustellen, muss man alles neu anlegen oder? Leider war das mit ashift noch nicht so bekannt damals als ich den Pool auf die 5x HD204UI anlegte (welche 4kb haben müssten). Aber ich habe keine Möglichkeit so viele Daten irgendwo zwischen zu speichern.
 
Zuletzt bearbeitet:
Hat eigentlich hier schon mal jemand die ZFS Parameter verwendet? Ich glaube es wird ja alles vom RAM bis auf 1GB für ZFS verwendet. Evtl. macht es bei mir Sinn noch mehr davon abzuzwacken (benutze sonst nur rdiff-backup), ich habe jetzt fast 8TB voll und 4GB RAM verbaut.

Was für ein OS nutzt du? Solaris / OI nutzen deinen RAM optimal dynamisch, da musst du normalerweise nichts mehr umstellen. Bei FreeBSD und Co. hab ich ZFS getweakt damit der RAM voll genutzt wird und allgemein die ZFS Performance steigt, hat einiges gebracht. Mal ein Beispiel mit Solaris werden meine 16 GB Ram bei Volllast bis auf ~ <1GB voll genutzt und ich hab damit eine sehr schöne Performance und das out-of-the-box ohne etwas einzustellen. Deine 4 GB Ram bei 8 TB Daten ist aber für ZFS alles andere als optimal, würde da mind. 8 GB verbauen. Pro TB = 1 GB RAM hatte ich mal so als "Faustregel" gelesen, weiß nicht ob das noch der Fall ist, hatte mir damals gleich günstig 16 GB für die Zukunft gekauft, als ich gelesen hatte "was braucht ZFS neben RAM, noch mehr RAM". Nur bei richtig viel RAM kannst du die Grenze noch kleiner einstellen, z.B. bei 96 GB und mehr RAM damit -> Let ZFS use all of your RAM » ZFS Build

Um von 512byte auf 4kb umzustellen, muss man alles neu anlegen oder? Leider war das mit ashift noch nicht so bekannt damals als ich den Pool auf die 5x HD204UI anlegte (welche 4kb haben müssten). Aber ich habe keine Möglichkeit so viele Daten irgendwo zwischen zu speichern.

Ja das du musst leider neu anlegen, hatte ich bei meinen 4xHD204UI im RAID 10 (Striped Mirror Vdev Pool) auch nicht gemacht und es war schon sehr träge unter ZFS, seit dem ich 4 K habe eine Steigerung von knapp 40% der Performance, da macht das schon mehr Spass. Und wie sicherst du allgemein deine Daten? Nur auf deinem ZFS Storage und sonst nichts? Hab mit zfs send | zfs receive meine vielen TB gesichert in kurzer Zeit auf Wechselfestplatten.
 
Zuletzt bearbeitet:
Mal eine Frage.

Mein OI läuft unter ESXi mit reservierten 8 GB RAM.
Ich hab einen Pool der knapp 10 TB groß ist. Jetzt sollte man nicht mehr als 80 % den Pool füllen, das sind aber knapp 2 TB. Bis 87 % ist es kein Problem, danach fangen die Videos zu ruckeln an.

Macht es Sinn einen der ZFS-Caches auf SSD auszulagern, damit das Ruckeln aufhört?
ESXI hat insgesamt 16 GB RAM. Soll ich für OI mehr RAM abzwacken?
Und ja ich weis durch zusätzliches stecken von weiteren HDs löst sich das Problem von selbst.
 
ZFS Einsteiger

Hallo,
ich will mir einen HP Microserver N40L zulegen, diesen mit 8GB Ram und mit 4 oder 5 3TB WesternDigital Red HDDs ausstatten. Das Betriebssystem soll auf einen USB Stick. Die Platten sollen in einem RAID-Z2 laufen. Teile des Pools wollte ich noch verschlüsseln für sensiblere Geschäftsdaten und TimeMachine Backups. Die Performance sinkt dann sicher auf 20MB/s aber das ist dann in Kauf zu nehmen. DeDuplication benötige ich nicht. Der Server soll "nur" als Backupserver via SMB, TimeMachine und FTP verwendet werden.

Ich habe jetzt vorhab aber noch einige Fragen und hoffe das sie mir jemand beantworten kann:
1.) Welches Betriebssystem nimmt man am besten? Es gibt inzwischen ja schon viele Alternativen (freenas, nas4free, solaris, openindiana, zfsguru, nexentastor, ...)
2.) Kann ich nachträglich einfach von 4 auf 5 Platten in einem RAID-Z2 aufstocken (falls es erst mal nur 4 Platten werden)?
3.) Wie lange dauert auf einem N40L ca. ein rebuild einer 3TB Platte?
4.) Welche Firmware flasht man am besten damit man den 5. Port voll benutzen kann?
5.) Welche Verschlüsselungsmethode ist zu empfehlen? (Solaris mit ZFS eigener Verschlüsselung oder *BSD mit geli?)
6.) Sind die 8 GB Ram ausreichend für mein Vorhaben?
7.) Kann ich einfach ein weiteres 4GB ECC Modul dazu kaufen oder sollte ich beide Bänke mit gleichen Modulen ausstatten?
8.) Wie würdet ihr Vorgehen um Teile der Daten sicher auf eine externe USB/esata HDD periodisch zu backupen? Ich denke zusätzlich noch Truecrypt laufen zu lassen würde ziemlich langsam werden <= 10MB/s?

Gibt es sonst noch was zu beachten, an das ich noch nicht gedacht hab?

Vielen Dank für eure Hilfe!
 
Zuletzt bearbeitet:
Hallo,

ich kann dir leider nicht alle Antworten geben, das müssen die anderen übernehmen.

1.) Welches Betriebssystem nimmt man am besten? Es gibt inzwischen ja schon viele Alternativen (freenas, nas4free, solaris, openindiana, zfsguru, nexentastor, ...)

"Am besten" gibts nicht, kommt immer auf deine Wünsche/Ansprüche an. Alle haben Vor- und Nachteile. Wenn du auf USB Stick installieren willst, fallen schon einmal Solaris, OpenIndiana und Nexentastor weg. Die laufen nur auf normalen HDDs/SSDs gut/flüssig. FreeNas, nas4free und zfsguru basieren alle auf FreeBSD (je nach Build von FreeBSD 8.x bis 9.x) und lassen sich sehr gut auf USB Sticks installieren.

2.) Kann ich nachträglich einfach von 4 auf 5 Platten in einem RAID-Z2 aufstocken (falls es erst mal nur 4 Platten werden)?

Geht schon ist aber nicht zu empfehlen schau dir mal die Stripesize an 4 HDDs @ RAID-Z2 = 128KB / 2 = 64KB und bei 5 HDDs @ RAID-Z2 = 128KB / 3 = 42,66* KB. Könntest ja die 5. als Spare machen, dann könnten bis zu 3 HDDs ausfallen, das wäre aber sehr übertrieben.

Hier mal Wiki von Solaris:

RAIDZ Configuration Requirements and Recommendations

A RAIDZ configuration with N disks of size X with P parity disks can hold approximately (N-P)*X bytes and can withstand P device(s) failing before data integrity is compromised.

Start a single-parity RAIDZ (raidz) configuration at 3 disks (2+1)
Start a double-parity RAIDZ (raidz2) configuration at 6 disks (4+2)
Start a triple-parity RAIDZ (raidz3) configuration at 9 disks (6+3)
(N+P) with P = 1 (raidz), 2 (raidz2), or 3 (raidz3) and N equals 2, 4, or 6
The recommended number of disks per group is between 3 and 9. If you have more disks, use multiple groups.

5.) Welche Verschlüsselungsmethode ist zu empfehlen? (Solaris mit ZFS eigener Verschlüsselung oder *BSD mit geli?)

Ab ZFS v31 also Solaris Express und aufwärts kannst du ZFS Verschlüsseln, hat natürlich die bessere Performance als mit GELI. Hab aber noch nie die Verschlüsselung aktiviert, da kann dir sicher jemand noch was dazu sagen.

6.) Sind die 8 GB Ram ausreichend für mein Vorhaben?

Bei ~ 6 TB Daten sollte das passen, ich weiß leider nicht was die Verschlüsselung noch "schluckt".

7.) Kann ich einfach ein weiteres 4GB ECC Modul dazu kaufen oder sollte ich beide Bänke mit gleichen Modulen ausstatten?

Meinst du jetzt einen anderen Hersteller? Kann ich dir leider nicht sagen, ich hab den N36L und 2x4 GB ECC von der selben Marke. Schau dazu mal lieber in den N36L/N40L Thread, da wird dir sicher schnell geholfen.

8.) Wie würdet ihr Vorgehen um Teile der Daten sicher auf eine externe USB/esata HDD periodisch zu backupen? Ich denke zusätzlich noch Truecrypt laufen zu lassen würde ziemlich langsam werden <= 10MB/s?

Auf der USB/eSata HDD auch ZFS Verschlüsselung anschalten, wie schon bei deinem NAS. Kannst doch pools importieren und exportieren nach belieben, da ist kein TrueCrypt und Co. notwendig.
 
Zuletzt bearbeitet:
Beginnerfrage

Moin,
ich habe eine Beginnerfrage: Ich teste gerade etwas an einem kleinen ZFS Nas herum und habe Probleme eine weitere HDD einzubinden.

Openindiana 151a5 mit napp-it 0.8 installiert auf einer 8GB SSD.
Jetzt möchte ich eine oder mehrere Festplatten als Pool für die Daten hinzufügen.
Festplatten, System-SSD und DVD sind alle am gleichen Onboard Controller (Intel ICH-8) angeschlossen.

In napp-it erscheint die Platte unter home>disks bei all disks. Wen ich auf disks>details gehe, erscheint nur die Sytem SSD (Disk in use) und die Tabelle bei available disks ist leer.

Wie mache ich die Festplatte (Sata, 500GB Seagate ES) verfügbar?

Ich habe hier gelesen, das ich Sie vorher formatieren soll. Habe ich probiert:
Mit einer Windows Boot CD ntfs formatiert (keine Schnellformatierung),
mit Seatools Boot CD komplett gelöscht,
Fat 32 formatiert,
im Terminal mit dem Befehl format probiert, da kommt die Fehlermeldung ich sollte ein Herstellertool zur Formatierung benutzen,

dann den Rechner immer neu gestartet und gehofft die Platte ist verfügbar.
Eine andere Platte habe ich auch probiert, ging auch nicht.

Ich habe auch die Platte gelöscht und mit gparted eine Sun Partitionstabelle erstellt, hatte auch kein Erfolg.

Also: was mach ich falsch, wie bekomme ich die Festplatte verfügbar?

Vielen Dank für Eure Hilfe..
Christoph
 
Zuletzt bearbeitet:
Was für ein OS nutzt du? Solaris / OI nutzen deinen RAM optimal dynamisch, da musst du normalerweise nichts mehr umstellen.

OI
Einstellen könnte man anscheinend ne Menge
ZFS Evil Tuning Guide - Siwiki



Und wie sicherst du allgemein deine Daten? Nur auf deinem ZFS Storage und sonst nichts? Hab mit zfs send | zfs receive meine vielen TB gesichert in kurzer Zeit auf Wechselfestplatten.

Da liegen massenhaft HD Filme drauf die gar nicht gesichert werden und zum Teil fungiert die Kiste auch als Backupserver für Linux über rdiff-backup. Die wirklich wichtigen Daten sind nur 50gb.
 
Zuletzt bearbeitet:
Und ich habe natürlich mal wieder voll ins Klo gegriffen!
Sieht so aus als hätte ich DIESES problem, mögliche ursache.
Das sorgt für schöne timeouts, nicht reagierendes System und Datenfehler.
Es ist so wie es aussieht entweder ein treiber oder ein ZFS problem.

Kurze Zusammenfassung für die lesefaulen: LSI1068E + SAS Expander + SATA platten + Solaris = *boom*

Hast Du das Problem in den Griff bekommen? Bezieht sich das Problem mehr auf die Kombination SAS-Expander + Sata-Platten oder spielt der Kontroller die große Rolle? Konnte das leider bisher noch nicht richtig rauslesen.
Habe einen HP 468406-B21 bestellt und leider erst jetzt von diesem Problem gelesen. :mad:
Funktioniert die Kombination mit einem IBM M1015 + HP SAS Expander und SATA-Platten? Hier macht der Kontroller ja auch schon 6G und ist ein LSI2008.

Ziel der Aktion: Wollte eigendlich in meinem 24-Plattencase 3 Stück IBM M1015 einbauen, aber erstens gibts die gerade nicht so günstig wie gewünscht und zweitens weis ich noch nicht sicher, ob diese 3 HBAs auch ohne Probleme in meinem Board funktionieren. Bei 24 Platten lohnt sich daher nun doch langsam ein Expander und den zweiten M1015 baue ich dann lieber in den Backupserver ein.

Edit: oder solle man lieber auf einen Intel RES2SV240 umsteigen? Dieser ist zwar teurer, aber anscheinend sind da die SFF8087 Kabel dabei, das kann man sich dann schönrechnen und wenn er weniger Probleme macht ist mir das dann auch etwas wert.
 
Zuletzt bearbeitet:
Einstellen könnte man anscheinend ne Menge
ZFS Evil Tuning Guide - Siwiki

Lies dir mal die Bemerkungen zu den Variablen durch, das meiste wird dir garnichts bringen, oder sogar deine Leistung verschlechtern. Hab da auch viel probiert, ging dabei auch viel mehr IOPS für z.B. Datenbanken. Einiges halte ich auch für nicht sehr sinnvoll wie Checkensummen abstellen usw. aber da musst du selbst wissen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh