[Sammelthread] ZFS Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das läuft auf jedem OI und auf Solaris 11 und 11 Express.
Ich verwende folgendes Script:
http://www.open-tech.com/othowto/zfsrep.sh.txt

Nochmals vielen Dank.

ab hier läuft dann OpenSSH mit HPN patch, jetzt kann im Replikationsscript ssh -oCompression=yes -oNoneSwitch=yes -oNoneEnabled=yes verwendet werden.

Jetzt hab ich mal versucht rauszubekommen, wo du die Optionen her hast und bin bei ssh_config(4) noch bei sshd_config(4) fündig geworden. Aber die beiden Optionen NoneSwitch und NoneEnabled hab ich nicht gefunden.

Suche ich an der falschen Stelle?
 
Zuletzt bearbeitet:
Hm sagt mal wie geht ihr mit damit um, wenn eine Platte (raid-z1) wegen zu vielen Fehlern als degraded gemeldet wird?

Nach nem "zpool clear", reboot und resilvering läuft das ganze jetzt wieder seit einer Woche problemlos.
Dabei werden jeden Tag um die 300-400GB auf das System geschaufelt.
 
Platte erstmal durch eine andere tauschen (zpool replace) und dann mit einem Herstellertool ordentlich testen. Diese defekte werden von anderen Betriebssysteme immer zu spät erkannt. Wenn die platte wirklich defekt ist ab in die RMA beim Hersteller. Ansonsten ist es die nächste Ersatzplatte.
 
vielleicht is da etwas dabei:
Oracle Solaris Performance Analysis: Favorite Commands

---------- Beitrag hinzugefügt um 21:56 ---------- Vorheriger Beitrag war um 21:54 ----------



ich hatte mal einen Raidcore Controller, der konnte das,
ZFS kann das nicht (Quasi ein Raid-0 als Spiegelpartner einer Platte einrichten)

Ja, stimmt! Die erste Seite des Mirrors war bei mir auch ein SoftRAID0 (Linux md0) und kein ZFS-zpool.

Gruß
Ron

---------- Beitrag hinzugefügt um 16:44 ---------- Vorheriger Beitrag war um 13:25 ----------

.... und da habe ich hier gleich noch einmal eine Frage:
Ich habe mir auf einem Linux-PC aus HDD-Resten einen zpool unter fuse-zfs zusammengestrickt. Funktionierte auch ein Jahr ganz gut. Zwischdurch habe ich den Pool mal ex- und wieder importiert. Dabei sind die Bezeichnungen der Devices ohne mein zutun von z.B. /dev/sdd auf die disk-id gewechselt worden. Das war mir bisher auch wurscht, hat ja trotzdem funktioniert. Jetzt hat eine der alten HDDs aufgegeben:

pool: tank0
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-2Q
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
tank0 DEGRADED 0 0 0
mirror-0 ONLINE 0 0 0
disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10X889101 ONLINE 0 0 0
disk/by-id/ata-SAMSUNG_HD160JJ_S08HJ1TLA36602 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
disk/by-id/ata-SAMSUNG_SP2504C_S09QJ1HP109456 ONLINE 0 0 0
disk/by-id/ata-SAMSUNG_SP2504C_S09QJ1HP109455 ONLINE 0 0 0
mirror-2 DEGRADED 0 0 0
disk/by-id/ata-SAMSUNG_HD160JJ_S08HJ1TLA36595 ONLINE 0 0 0
disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10Y252418 UNAVAIL 0 0 0 cannot open
logs
mirror-3 ONLINE 0 0 0
sda3 ONLINE 0 0 0
sdb3 ONLINE 0 0 0
cache
sda4 ONLINE 0 0 0

, also raus das Ding, neue größere rein, pool auf autoreplace gestellt ........ nix, nanu! Noch zusätzlich auf autoexpand gestellt .... immer noch nix. Neue HDD als spare dem Pool hinzugefügt .... wieder nix. Also Handarbeit........ mit:

zpool replace tank0 disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10Y252418 /dev/sdh

gibt es ein:

cannot replace disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10Y252418 with /dev/sdh: no such device in pool

er erkennt die Bezeichung defekten HDD nicht (habe es mit allen möglichen anderen Komandos versucht).

Was kann ich da noch tun???

Vielen Dank schon einmal für Eure hoffentlich reichlichen Bemühungen, mir zu helfen.

Gruß
Ron
 
versuch mal "zpool replace tank0 /dev/disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10Y252418 /dev/sdh"

Edit:
ansonsten kannst du dir auch mit "zdb -l" die zfs IDs raussuchen.
 
Zuletzt bearbeitet:
Nach vielen Versuchen habe ich es nun doch geschafft. Hier ein Auszug:

linux-061x:~ # zpool replace tank0 /dev/disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10Y252418 /dev/sdh
zfsfuse_ioctl_read_loop(): file descriptor closed
cannot replace /dev/disk/by-id/ata-SAMSUNG_SP1614C_S01XJ10Y252418 with /dev/sdh: I/O error
linux-061x:~ # zpool replace tank0 /dev/sdh
connect: Connection refused
Please make sure that the zfs-fuse daemon is running. (dann habe ich den daemon nochmal gestartet, lief aber schon)
internal error: failed to initialize ZFS library
linux-061x:~ # zpool replace tank0 /dev/sdh
invalid vdev specification
use '-f' to override the following errors:
/dev/sdh is part of active pool 'tank0'

dann hat er's doch getan .... Hurraaaaaa!

Edit:
Hätte ich doch bloß 30 Minuten gewartet, dann hätte ich deinen richtigen Tipp ausführen können und hätte mir die Raterei erspart.
 
Zuletzt bearbeitet:
Hilfe mit All-in-One

Guten Tag Forum,


Seit gestern bin ich ein intensiver Leser dieses Forums und ich glaube das ich hier richtig bin zum Thema „All-in-one“.

Aufgrund der steigenden Festplattenpreise habe ich vor ca 4 Wochen angefangen mich mit dem Thema „Zentraler Storage Server“ zu beschäftigen um meine Festplatten zu konsolidieren (Sogar meine alten IDE Festplatten sahen wieder sehr gut aus :-) ). Nach einigen kurzen Gastspielen mit FreeNAS, Openfiler, Windows Storage Server, Starwind ect… bin ich auf OpenIndiana und ZFS gestoßen und somit auch auf Napp-It.
Ich bin mittlerweile sehr davon überzeugt und würde gerne die „All-in-one“ Lösung umsetzen.
Seit 2 Jahren arbeite ich mit der Virtualisierungslöung von Proxmox welches bisher super funktioniert. Leider ist PCI Passthrough in Proxmox nicht ausreichend um einen ZFS Storage Server zu implementieren. Somit habe ich mich für ESXI 5+OpenIndiana+Napp-it entschieden. (mit ESXI habe ich vor 2 Jahren experimentiert aber wegen der strikten Hardwareanforderungen wieder verworfen.)
Soweit die Einleitung – sorry :rolleyes:
Hardware
MSI Z68A-G43 (G3)
(Supermicro X9SCM-F-O + 16 GB ECC Ram ist unterwegs. Da aber VT-D auf diesem Board einwandfrei funktioniert !!! probier ich schon mal rum)
E3-1235
16 GB RAM
Intel SASUC8I (IT Firmware)
6 x 1 TB Hitachi Disk (3 vdev mirrord)
2 x 500 GB Samsung (mirrord)
1 x 60 GB SSD für ESXI und OI VM
Intel Dual Nic PCI-x4 (Insgesamt mit der Onboard Realtek 3 Nics)
Cisco SG-300-20 managed Switch
2 x Proxmox VE Server
1 x SBS 2011 Server
1 x ClearOS 5.2 als Firewall/Spam-Filter
Hier die Idee:
All-in-one mit ZFS Storage + SBS2011 und ClearOS als VM
Zusätzlich ISCSI für Proxmox Server
Hier meine Frage:
Ich bin der Anleitung von Gea fast bis aufs Wort gefolgt (sehr gute und sehr verständliche Anleitung! Danke!!). Womit ich jetzt seit ein paar Tagen kämpfe ist die Netzwerkkonfiguration :wall:.
Wie müsste ich die Schnittstellen in ESXI konfigurieren damit ich einen dedizierten NIC für ISCSI in Napp-It bekomme??
Benötige ich vlan wenn alle Systeme im selben Subnet sind?
Wie viel Speicher müsste ich für OI+Napp-it reservieren? (Überhaupt reservieren? )


Sorry wenn das Noobfragen sind aber die Lernkurve ist sehr steil und ich tu mein bestes…
Für jede Hilfe wäre ich sehr dankbar!
Gruß
 
Zuletzt bearbeitet:
Wie müsste ich die Schnittstellen in ESXI konfigurieren damit ich einen dedizierten NIC für ISCSI in Napp-It bekomme??

OpenIndiana braucht eine zweite Netzwerkkarte:
-> entweder der OpenIndiana VM zwei virtuelle nics zur Verfügung stellen

oder (weniger empfohlen)
-> eine physikalische nic per pass-through direkt dem Netz zur Verfügung stellen
(auch dann hat OpenIndiana zwei nics)

Benötige ich vlan wenn alle Systeme im selben Subnet sind?

Mit vlans lassen sich getrennte LAN's z.B. Internet, DMZ, SAN und LAN
getrennt am Cisco verkabeln und über eine Leitung direkt mit einer
phyikalischen Netzwerkkarte in den ESXi führen und dort über den
ESXi eigenen virtuellen Switch wieder aufdröseln und den virtuellen
Netzwerkarten der VM's zuordnern.

Ganz was tolles, muss aber nicht sein, wenn alles im gleichen Netz liegt.

Wie viel Speicher müsste ich für OI+Napp-it reservieren? (Überhaupt reservieren? )

OpenIndiana braucht ca 1 GB zum Laufen. Alles darüber wird als Cache genutzt.
Bei 16 GB würde ich der Storage VM 4GB geben.

ESXi ordnet Speicher normalerweise dynamisch zu. Mit pass-through wird der Speicher
fest zugeordnet, was im Falle einer Storage VM ohnehin Sinn macht, da OpenIndiana eh
immer alles belegt (Cache) was es hat.
 
Zuletzt bearbeitet:
Guten Tag Forum,
Hardware
MSI Z68A-G43 (G3)
(Supermicro X9SCM-F-O + 16 GB ECC Ram ist unterwegs. Da aber VT-D auf diesem Board einwandfrei funktioniert !!! probier ich schon mal rum)
Intel Dual Nic PCI-x4 (Insgesamt mit der Onboard Realtek 3 Nics)

Welches der zwei Board nutzt du denn jetzt? Das MSI oder das X9SCM-F?

Beim X9SCM-F wird eine Intel Nic von oi nicht unterstützt. Siehe Motherboards - OpenIndiana - OpenIndiana Wiki
So weit ich aber weis, unterstützt ESXI5 die beiden Intel Nics, daher dürfte es für geas all-in-one kein Problem sein, da du eh oi den ESXI Treiber VMXNET3 zuweisen solltest.
Die dritte, die Realtek, kannst du nicht für oi oder irgendeine VM nutzen, diese ist nur für IPMI und dies ist ein Feature das ich nie mehr missen möchte.

Willst du die SSD wirklich so "verschwenden"? Die idled nach den Start on ESXI und oi eh nur rum.
Du kannst die SSD auch in oi verwenden. Lese dich mal ein in L2ARC und ZIL.
Eine super Alternative hat gea auf seiner Seite beschrieben:
i prefer the following setup:

use a 2x2,5" 160GB hardware raid-1 enclosure and attach it to onboard sata ( Raidsonic SR2760-2S-S2B)
und das funzt prima.
 
@ Gea

Vielen Dank für Deine prompte Antwort!!!

Wenn ich Dich richtig verstanden habe sollte ich das Netz so konfigurieren? (siehe Anhang esx_vswitch2)
oder lieber einen separaten vSwitch? (siehe Anhang esx_vswitch1)

Dem indi-server habe ich 2 virtuelle nic's zugeordnet. Was ich nicht ganz verstehe:
Ich würde gerne die ISCSI Verbindung von der NFS/SMB getrennt halten da ich für iscsi Jumbo Frames benutzen will. Wie wird das auf der physikalischen Nic getrennt? (Vielleicht verstehe ich das Konzept aber auch noch nicht richtig?)

@layerbreak
Ich benutze z.Zt das MSI Board, das X9SCM-F müsste heute ankommen. Auf IPMI bin ich gespannt. Das ist mein erstes "Serverboard" mit dieser Option.
Die Option mit VMXNET3 habe ich gesehen. Würdest Du beide NICs im indi-server mit VMXNET3 bestücken? Laut Beschreibung sind es 10 GB Treiber, würden diese mit meinem 1 Gb Lan laufen? Werde ich testen.

Mit der SSD hast Du recht. Wenn ich die 2 anderen Server migriert habe werden, unter anderem, 2 x 2,5 80 GB Platten frei (Kann ich die SSD auf das Raid später klonen?) . Dann würde ich diese nutzen und die SSD für ZFS einsetzen. Wobei ich sagen muss das die SSD, eine OCZ Vertex Plus, nicht die schnellste ist.

Viele Grüße
GuNa
 

Anhänge

  • esx_vswitch1.jpg
    esx_vswitch1.jpg
    21,5 KB · Aufrufe: 264
  • esx_vswitch2.jpg
    esx_vswitch2.jpg
    17,9 KB · Aufrufe: 257
@layerbreak
Ich benutze z.Zt das MSI Board, das X9SCM-F müsste heute ankommen. Auf IPMI bin ich gespannt. Das ist mein erstes "Serverboard" mit dieser Option.
Die Option mit VMXNET3 habe ich gesehen. Würdest Du beide NICs im indi-server mit VMXNET3 bestücken? Laut Beschreibung sind es 10 GB Treiber, würden diese mit meinem 1 Gb Lan laufen? Werde ich testen.

Klar doch, rennt ohne Probleme in deinem Netz.

Dann hast du für das SM Board ja noch zusätzlich die 2-Nic-Karte. Dann kannst diese Karte auch per passthrough an dein Clear-OS durchreichen und ESXi kommt mit dem Eingang-WAN nicht mal in Berührung.

Mit der SSD hast Du recht. Wenn ich die 2 anderen Server migriert habe werden, unter anderem, 2 x 2,5 80 GB Platten frei (Kann ich die SSD auf das Raid später klonen?) . Dann würde ich diese nutzen und die SSD für ZFS einsetzen. Wobei ich sagen muss das die SSD, eine OCZ Vertex Plus, nicht die schnellste ist.

Ich selbst nutze das Raidsonicteil. Könnte mir vorstellen, wenn du das Schalterchen auf Mirror stellst und nur die SSD reinpackst, das Ganze trotzdem läuft. Anschließend die größere 80 GB Platte dazu. Raidsonic stellt dann den Mirror her. Dauert aber Stunden bis Raidsonic damit fertig ist.
Anschließend SSD raus und Zweite Platte rein und wieder ein rebuilt.
Selbst hab ich das aber noch nicht gemacht, glaube aber dass es geht. Ein Versuch ist es aber immer wert.
 
Hi layerbreak,

Mein SM Board ist da :banana:
Werde mich gleich mal in das Handbuch einlesen und es heute Abend einbauen.

Dann hast du für das SM Board ja noch zusätzlich die 2-Nic-Karte. Dann kannst diese Karte auch per passthrough an dein Clear-OS durchreichen und ESXi kommt mit dem Eingang-WAN nicht mal in Berührung.

Guter Tipp!! An diese Möglichkeit hatte ich nicht gedacht.

Ich selbst nutze das Raidsonicteil. Könnte mir vorstellen, wenn du das Schalterchen auf Mirror stellst und nur die SSD reinpackst, das Ganze trotzdem läuft. Anschließend die größere 80 GB Platte dazu. Raidsonic stellt dann den Mirror her. Dauert aber Stunden bis Raidsonic damit fertig ist.
Anschließend SSD raus und Zweite Platte rein und wieder ein rebuilt.

Wenn ich es so umsetze stehen mir am ende nur 60 GB zur Verfügung richtig?
Ich werde es mal ausprobieren. Aber vielleicht stelle ich ClearOS schon heute auf das neue Board um. Dann kann ich ESXi gleich auf die 80er packen.
 
Hi layerbreak,

Mein SM Board ist da :banana:
Werde mich gleich mal in das Handbuch einlesen und es heute Abend einbauen.

Mein neues Board X8SI6-F kommt hoffentlich nächste Woche. :motz:


Wenn ich es so umsetze stehen mir am ende nur 60 GB zur Verfügung richtig?
Ich werde es mal ausprobieren. Aber vielleicht stelle ich ClearOS schon heute auf das neue Board um. Dann kann ich ESXi gleich auf die 80er packen.

Ja ist so. Die HD muss gleich oder größer wie die SSD sein, damit du die SSD frei bekommst.

Ich hab noch einen Vorschlag für dich. Spar dir das Gefrickel mit ClearOS und
schau dir mal Astaro an. Unter Hardware ist rechts eine Möglichkeit dir das Ganze mal live anzuschauen.
Für Privat gibts die Software Appliance for free.
IMHO gibt es momentan nichts Vergleichbares, schon gar nicht für lau.
 
Hi layerbreak,

Wow - das board hat mir gleich mal das leben schwer gemacht ;-)
Habe die IPMI Firmware von 1.08 auf 1.27 upgegraded und prompt ging die standard Anmeldung nicht ... Erst nachdem ich mühsam eine bootfähige DOS USB Stick gebastelt hatte und mit ipmicfg -fd das ganze wieder auf factory default gesetzt habe konnte ich mich anmelden. Hat mich ein paar Stunden gekostet!! (Irgendwo habe ich gelesen das es eine 1.30 geben soll die genau dieses Problem nicht hat, allerdings ist diese Version auf der Supermicro Seite nicht für dieses Board gelistet ...tolle Wurst)

So jetzt läuft alles wieder.

Astaro kenne ich sehr gut. War mal ein begeisterter Anhänger der Software. Doch dann haben sie die Home Version komplett beschnitten und das war der Grund warum ich zu ClearOS gewechselt bin. Aber ich schau mir die neue Version nochmal an. Habe schon die VM Version runter geladen.

---------- Beitrag hinzugefügt um 15:37 ---------- Vorheriger Beitrag war um 14:47 ----------

Eine andere Frage:

Ich habe noch ein paar Raid Controller übrig. Unter anderem eine Dell Perc 5i 256 RAM mit BBU. Da ich für diesen vorerst keine weiter Verwendung habe hatte ich mir überlegt die 2 80er an den Controller zu hängen. Oder wäre das zu sehr Overkill?

Was meinst Du/Ihr?
 
Hi layerbreak,

Wow - das board hat mir gleich mal das leben schwer gemacht ;-)
Habe die IPMI Firmware von 1.08 auf 1.27 upgegraded und prompt ging die standard Anmeldung nicht ... Erst nachdem ich mühsam eine bootfähige DOS USB Stick gebastelt hatte und mit ipmicfg -fd das ganze wieder auf factory default gesetzt habe konnte ich mich anmelden. Hat mich ein paar Stunden gekostet!! (Irgendwo habe ich gelesen das es eine 1.30 geben soll die genau dieses Problem nicht hat, allerdings ist diese Version auf der Supermicro Seite nicht für dieses Board gelistet ...tolle Wurst)

So jetzt läuft alles wieder.

Guck mal da: Supermicro X9SCM-F Mainboard
Saug dir doch mal Freedos, dann mit IPMI das Image einbinden und starten. DOS brauchst du eh, wenn du mal eine HBA umflashen musst.

Astaro kenne ich sehr gut. War mal ein begeisterter Anhänger der Software. Doch dann haben sie die Home Version komplett beschnitten und das war der Grund warum ich zu ClearOS gewechselt bin. Aber ich schau mir die neue Version nochmal an. Habe schon die VM Version runter geladen.
Nicht die VM-Version nehmen, sondern die Appliance und diese dann auf ESXi installieren.


Ich habe noch ein paar Raid Controller übrig. Unter anderem eine Dell Perc 5i 256 RAM mit BBU. Da ich für diesen vorerst keine weiter Verwendung habe hatte ich mir überlegt die 2 80er an den Controller zu hängen. Oder wäre das zu sehr Overkill?

Keine Ahnung ob die Karte von oi erkannt wird. Im Zweifel verticken. Hier gibt es glaub ich auch einen Marktplatz.
 
Firmware gefunden. War etwas versteckt. Vielen Dank!!
Das Board kann nur Software Raid. Werde doch den Dell mal reinhängen. Laut HCL erkennt ESXI 5 den Dell Controller. Werde ich mal probieren.

Danke schon mal für Deine Tipps und Hilfe layerbreak!!
 
Guten Tag Forum,
Seit 2 Jahren arbeite ich mit der Virtualisierungslöung von Proxmox welches bisher super funktioniert. Leider ist PCI Passthrough in Proxmox nicht ausreichend um einen ZFS Storage Server zu implementieren. Somit habe ich mich für ESXI 5+OpenIndiana+Napp-it entschieden. (mit ESXI habe ich vor 2 Jahren experimentiert aber wegen der strikten Hardwareanforderungen wieder verworfen.)

GuNa,

worauf basieren Deine Erfahrungen?
Guck mal hier: PCI / PCIe passthrough
Da hat jemand einen VDR unter Proxmox mit durchgeschleifter PCIe DVB-Karte hinbekommen.
Ich bin selbst ein absoluter Fan von Proxmox und nur wg. ZFS / napp-it auf ESXi gewechselt...aber das man ein Windooze braucht ist mir echt ein Dorn im Auge.
Sobald ich wieder Zeit habe und es 32GB unbuffered ECC für akzeptable Preise zB für die 1155er Boards von SM gibt,
werde ich es mal mit Proxmox probieren und das all-in-one Windoze-free mal angehen.
 
Hi hominidae,

Ich habe selber 2 Proxmox Server seit 1,5 Jahren am laufen und bin mehr als zufrieden.
Allerdings habe ich es nicht geschafft den Controller per passthrough an die VM zu hänegn. Ein weiterer Punkt ist, das es mir nicht möglich war USB-Platten an eine VM durchzuschleifen. Habe ver 1.9 mit den aktuellsten Kernel im Einsatz. Ich nutze sie weiterhin, füge nur den Storage Server noch hinzu.

Ich bin selbst ein absoluter Fan von Proxmox und nur wg. ZFS / napp-it auf ESXi gewechselt
Genau das gleiche bei mir. Daher die "All-in-One" Lösung von Gea.

Aber halte mich mal mit Deinem Versuch auf dem laufendem.

Gruß
 
HI GuNa,

ja, nur im Moment gibts nicht die Combo, die ich suche.
.. XEON Board mit 32GB ECC und CPU mit AES-NI....das X9SCM würde ja 32GB aufnehmen, wenn es nur die 8GB-Module geben würde :-(

Ich will wirklich einen All-in-One ...und ohne Windoze.
Habe schon zuviel Teile hier rumfliegen...also muss ich wohl noch warten,
aber dann werde ich Proxmox auf jeden Fall nochmal austesten.
 
Festplatten schlafenlegen

Hallo,

hat es einer von euch schon hinbekommen, die Festplatten schlafen zu legen? Die /etc/power.conf gibt es ja leider nicht mehr. Die Stromsparfunktionen werden nun über poweradm gesteuert, zum Festplatten Spin Down hab ich da aber leider nichts gefunden.

Gruß
inx1tmp
 
Dem indi-server habe ich 2 virtuelle nic's zugeordnet. Was ich nicht ganz verstehe:
Ich würde gerne die ISCSI Verbindung von der NFS/SMB getrennt halten da ich für iscsi Jumbo Frames benutzen will. Wie wird das auf der physikalischen Nic getrennt? (Vielleicht verstehe ich das Konzept aber auch noch nicht richtig?)

iSCSI läßt sich mit Comstar zu einer bestimmten IP's und damit einer Netzwerkkarte zuordnen.
Das geht mit SMB nicht, das arbeitet mit allen Netzwerkkarten und ließe sich nur per Firewall eingrenzen.

Es ist aber eine Frage der Nutzung nicht des Angebots.
Einfach eine IP/ Netzwerkkarte nur für iSCSI und die andere für SMB nutzen. Dann behindern
die sich nicht. Dazu braucht man aber auch getrennte Datenwege, also z.B. jede virtuelle Nic
auf einen anderen virtuellen Switch legen. Jedem virtuellen Switch eine andere physikalische Nic
zuordnen. Das "SMB-Netz" auf den Switch legen, der auch Management macht.

Den VMXnet3 Treiber kann man auch testen (macht manchmal Probleme). Er bringt 10 Gb
zwischen VM und virtuellem Switch. Auch VMCI (VM settings) kann erheblich Performance zwischen
VM's bringen. (Mehrere Gb/s auch mit e1000 Treiber). Lediglich wenn der Datenverkehr nach außen
geht, braucht man ein physikalisches 10 Gb Netz um die Performance zu halten.
(Dieses interne high-speed per Software ist einer der Gründe für all-in-one und ein virtualisiertes SAN)
 
Zuletzt bearbeitet:
Hallo

Hallo,

...bin neu hier...

und wechsle bereits seit einiger Zeit so langsam auf Linux (Ubuntu).

Dabei war/bin ich ein früher Nutzer von zfsonlinux, derzeit allerdings noch nicht als ROOT.

Allerdings haben mich die jüngsten Veröffentlichungen auf deren Mailingliste dazu ermutigt, es erneut zu versuchen, was ich also demnächst in meiner freien Zeit in einer VM ausprobieren werde.

Und da es angeblich weltweit noch keine 1000 Nutzer dieser nativen ZFS-Implementierung gibt, hoffe ich, hier "Artgenossen" zu finden.

Aber - bevor ich hier falsche Vorstellungen/Erwartungen wecke - mein Linux-Know-How ist noch recht rudimentär, weil ich über ein Jahrzehnt ausschließlich in der WINDOOZE-Welt zu Hause war.

Also: Bin ich in diesem Thread (ZFS-Stammtisch) richtig gelandet?
 
Zuletzt bearbeitet:
Hallo,

...bin neu hier...

und wechsle bereits seit einiger Zeit so langsam auf Linux (Ubuntu).

Dabei war/bin ich ein früher Nutzer von zfsonlinux, derzeit allerdings noch nicht als ROOT.

Allerdings haben mich die jüngsten Veröffentlichungen auf deren Mailingliste dazu ermutigt, es erneut zu versuchen, was ich also demnächst in meiner freien Zeit in einer VM ausprobieren werde.

Und da es angeblich weltweit noch keine 1000 Nutzer dieser nativen ZFS-Implementierung gibt, hoffe ich, hier "Artgenossen" zu finden.

Aber - bevor ich hier falsche Vorstellungen/Erwartungen wecke - mein Linux-Know-How ist noch recht rudimentär, weil ich über ein Jahrzehnt ausschließlich in der WINDOOZE-Welt zu Hause war.

Also: Bin ich in diesem Thread (ZFS-Stammtisch) richtig gelandet?

Darf ich nach dem Grund fragen, warum Linux + ZFS benutzt werden soll?
Nach allem was ich bisher gelesen habe, ist Linux + ZFS derzeit immer noch
genauso als experimentell anzusehen wie btrfs das als Reaktion auf ZFS entwickelt wird.

Wenn ein stabiler ZFS Storageserver das eigentliche Ziel ist und nicht die Frage
was bei Ubuntu noch nicht so gut geht, dann ist meine Empfehlung ganz eindeutig: Unix/Solaris -
also entweder das kommerzielle Original Solaris 11 oder der freie Fork OpenIndiana oder
die Varianten von Nexenta (Solaris Kernel mit Ubuntu Handling)
 
Zuletzt bearbeitet:
Hi Gea,

Danke für Deine Antwort. Hab verstanden was Du meinst. Werde es gleich mal umsetzen.

@All
An alle SM Board nutzer:
Habe versucht meinen All-in-One Storage Server (X9SCM-F) um einen weiteren Raid Controller zu erweitern. Leider wird mir dann beim DELL Controller das Bios nicht angezeigt und es geht dann auch nicht mehr weiter.
Da dies mein erstes SM Board ist, gibt es eine bestimmte Einstellung die ich setzen muss?
Wenn ich die Controller einzeln einsetze werden sie beide korrekt erkannt und ich kann auch beim DELL ins Raid Bios. Aber beide zusammen klappt nicht...

Raid Controller:
Intel SASUC8i (IT Firmware) im ersten PCI-E x16
Dell Perc 5/i (aktuellste DELL Firmware ) im zweiten PCI-E x16

Gruß
 
Sobald ich wieder Zeit habe und es 32GB unbuffered ECC für akzeptable Preise zB für die 1155er Boards von SM gibt,

Sorry, was sind denn für dich akzeptable Preise?
Gerade letzte Woche, 7.12.11, hab ich 4GB buffered ECC x8 organisiert, PC1333 anbieten lassen und das für schlappe 45 Euro + USt. das Riegelchen.
Am 11.04.11 haben mich der Gleiche 85 Euro und
am 12.12.10 99,80 Euro gekostet.
Gekauft habe ich dann die Gleichen aber als unbuffered für 27 Euro, da ich mir dachte für einen oi-Versuchs-Server tuns auch die Unbuffered.

attachment.php


Also bitte nur noch geschenkt ist günstiger.
 

Anhänge

  • ram.png
    ram.png
    8,5 KB · Aufrufe: 476
Darf ich nach dem Grund fragen, warum Linux + ZFS benutzt werden soll?

Ja.

Aus Spielerei ;-)

Solaris ist mit Lizenztechnisch zu sehr eingeschränkt, ich dürfte z.B. ohne Kosten keinen Webserver (oder irgend etwas Produktives) betreiben.

Openindiana hat bei meinen Versuchen SEHR instabil gewirkt.

zfsonlinux (.org) läuft nun schon fast 1 Jahr stabil bei mir, ich beginne Nutznießer der Vorzüge an reduzierter Wartungszeit, erhöhter Konfigurierbarkeit und Flexibilität, Datensicherheit, sowie phanstastischen Erleichterungen bei der Datensicherung zu sein.

Also ist die ursprüngliche Motivation/Erwartung, die mich im Übrigen sogar zu Linux überhaupt wechseln ließ, bei Weitem übertroffen worden.

> Nach allem was ich bisher gelesen habe, ist Linux + ZFS derzeit immer noch
genauso als experimentell anzusehen wie btrfs das als Reaktion auf ZFS entwickelt wird.

Aha?!? Ja - was die Integration in debian angeht, stimmt das. - Ich habe mir BTRFS angesehen und lehne es gleich aus mehreren Gründen ab. (Nix für ungut, ich respektiere auch andere Ansichten.) ZFS kann deutlich mehr, BTRFS hat zwar Ambitionen, ist aber m.E. zu kurz gegriffen. Abgesehen von der mangelnden Stabilität hat es im Gegensatz zu ZFS noch kaum Praxiserprobung. Und ich sehe sogar konzeptionelle Mängel...

...von dem "Pferdefuß" Oracle mal ganz abgesehen...

> Wenn ein stabiler ZFS Storageserver das eigentliche Ziel ist und nicht die Frage was bei Ubuntu noch nicht so gut geht, dann ist meine Empfehlung ganz eindeutig: Unix/Solaris - also entweder das kommerzielle Original Solaris 11 oder der freie Fork OpenIndiana oder die Varianten von Nexenta (Solaris Kernel mit Ubuntu Handling)

Mag sein. Ich bin aber "nur" ein Spielratz, der für seine VM's einen besseren Unterbau gesucht hat, als (bislang) NTFS. Und so allmählich ziehe ich immer mehr Funktionalität aus den VM's, wobei mir ZFS eine große Hilfe war/ist.

PS: Soll ich deine/Ihre Antwort als ein "Nein!" verstehen? Bin ich hier etwa "verkehrt", weil ich nur mit ZFS "spiele"?
 
@All
An alle SM Board nutzer:
Habe versucht meinen All-in-One Storage Server (X9SCM-F) um einen weiteren Raid Controller zu erweitern. Leider wird mir dann beim DELL Controller das Bios nicht angezeigt und es geht dann auch nicht mehr weiter.
Da dies mein erstes SM Board ist, gibt es eine bestimmte Einstellung die ich setzen muss?
Wenn ich die Controller einzeln einsetze werden sie beide korrekt erkannt und ich kann auch beim DELL ins Raid Bios. Aber beide zusammen klappt nicht...

Raid Controller:
Intel SASUC8i (IT Firmware) im ersten PCI-E x16
Dell Perc 5/i (aktuellste DELL Firmware ) im zweiten PCI-E x16

Schau mal hier im Luxx da gibt es zu diesem Dell Controller einen Thread und da hab ich beim Überfliegen schon mal gelesen, dass dieses Dell Controller nur auf bestimmten Boards geht.

Bevor du an diesem Problem weitermachst, hast du was gefunden, dass dieser Controller überhaupt von oi unterstützt wird?

---------- Beitrag hinzugefügt um 15:22 ---------- Vorheriger Beitrag war um 15:16 ----------

Openindiana hat bei meinen Versuchen SEHR instabil gewirkt.

Da ich auch noch auf der Suche bin, interessiert mich dieser Punkt ungemein.

Was für Versuche hast du gemacht?
In welcher Form hat sich dieses "SEHR instabil" ausgewirkt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh