[Sammelthread] ZFS Stammtisch

layerbreak,

den dell controller will ich in ESXI 5 benutzen. Da wird er auch erkannt.
An OI hatte ich dabei nicht gedacht.

Leider bekomme ich beide Controller nicht zusammen auf dem Board zum laufen (siehe post weiter oben.)
Vielen Dank für den Link - hatte ich schon gechecked aber nichts gefunden.

Jetzt habe ich das Problem das mein LSI Controller voll bestückt ist und ich Platten onboard hängen habe.

Wie kann ich diese denn OI zur verfügung? (Habe die SSD an dem Onboard Controller und noch 2 x 1 TB die ich in OI einbinden möchte.)

Habe zwar noch 2 Highpoint Controller rumliegen aber diese werden von ESXI nicht unterstützt und soweit ich es checken konnt auch nicht von OI.

Muss mir vielleicht doch noch einen 2ten Intel SASUC8i zulegen....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da ich auch noch auf der Suche bin, interessiert mich dieser Punkt ungemein.

Was für Versuche hast du gemacht?
In welcher Form hat sich dieses "SEHR instabil" ausgewirkt?

Tut mir leid, meine Erfahrungen sind nicht sehr aktuell, denn die Entscheidung für meine Konfi fiel vor etwa 1 Jahr. Seinerzeit habe ich sowohl oi als auch nexenta in virtuellen Maschinen ausprobiert. Allerdings hatte ich zu der Zeit nur 32-bit zur Verfügung und irgend einen Entwicklungsstand "zwischen den Releases".

Für mich als Linux-noob war das keine schöne Erfahrung. Zu der Zeit war Solaris Express noch weit im Rennen und ich nahm an, daß ich das lernen würde. Der Einstieg über Ubuntu war aber einfacher, Hilfe in Foren gut zu finden, und vor allem uneingeschränkt nutzbar. Dann kam auch noch ein Kontakt zum Entwicklerteam von zfsonlinux zustande, was die Entscheidung leicht machte. Obwohl ich erwäge, mein Setup nochmal zu verändern (ZFS auch als root), habe ich den Schritt nicht bereut sondern schon mehrfach von den Snapshots/Backups/Filesystems/usw.. profitiert. (Könnte lange Geschichten erzählen, die hier aber niemanden interessieren dürften.)
 
Tut mir leid, meine Erfahrungen sind nicht sehr aktuell, denn die Entscheidung für meine Konfi fiel vor etwa 1 Jahr. Seinerzeit habe ich sowohl oi als auch nexenta in virtuellen Maschinen ausprobiert. Allerdings hatte ich zu der Zeit nur 32-bit zur Verfügung und irgend einen Entwicklungsstand "zwischen den Releases".

Es wäre trotzdem interessant, welche "Probleme" du hattest ...
Ich verwende Nexenta seit ca. 1 Jahr und hatte relativ wenige Probleme und Hilfe/Dokus fand ich persönlich auch ausreichend.
 
Sorry, was sind denn für dich akzeptable Preise?
Gerade letzte Woche, 7.12.11, hab ich 4GB buffered ECC x8 organisiert, PC1333 anbieten lassen und das für schlappe 45 Euro + USt. das Riegelchen.
Am 11.04.11 haben mich der Gleiche 85 Euro und
am 12.12.10 99,80 Euro gekostet.
Gekauft habe ich dann die Gleichen aber als unbuffered für 27 Euro, da ich mir dachte für einen oi-Versuchs-Server tuns auch die Unbuffered.

attachment.php


Also bitte nur noch geschenkt ist günstiger.

Oh ja ... DIE Preise sind OK...
Tja, das X9SCM-Board kann aber nur 4 Riegelchen...und NUR unbuffered...also 4x4 = 16GB.
Ich braiuche aber 32GB, wie schon geschrieben.
Leider sind 8GB Module so günstig nicht zu bekommen: Kingston ValueRAM DIMM Kit 16GB PC3-10667E ECC CL9 (DDR3-1333) (KVR1333D3E9SK2/16G) | Geizhals.at Deutschland
Das macht schlappe 610EUR für 32GB unbuffered ECC in 4Stck 8GB Modulen.
...und DAS sind leider keine akzeptablen Preise für mich, sorry.
 
Tut mir leid, meine Erfahrungen sind nicht sehr aktuell, denn die Entscheidung für meine Konfi fiel vor etwa 1 Jahr. Seinerzeit habe ich sowohl oi als auch nexenta in virtuellen Maschinen ausprobiert. Allerdings hatte ich zu der Zeit nur 32-bit zur Verfügung und irgend einen Entwicklungsstand "zwischen den Releases".

Für mich als Linux-noob war das keine schöne Erfahrung. Zu der Zeit war Solaris Express noch weit im Rennen und ich nahm an, daß ich das lernen würde. Der Einstieg über Ubuntu war aber einfacher, Hilfe in Foren gut zu finden, und vor allem uneingeschränkt nutzbar. Dann kam auch noch ein Kontakt zum Entwicklerteam von zfsonlinux zustande, was die Entscheidung leicht machte. Obwohl ich erwäge, mein Setup nochmal zu verändern (ZFS auch als root), habe ich den Schritt nicht bereut sondern schon mehrfach von den Snapshots/Backups/Filesystems/usw.. profitiert. (Könnte lange Geschichten erzählen, die hier aber niemanden interessieren dürften.)

Es wäre trotzdem interessant, welche "Probleme" du hattest ...
Ich verwende Nexenta seit ca. 1 Jahr und hatte relativ wenige Probleme und Hilfe/Dokus fand ich persönlich auch ausreichend.

Ich schliesse mich da @baldis Nachfrage an.
Verstehe es nicht so, dass dich jemand in die Ecke drängen will, es ist aber doch so, dass die Meisten von uns Quereinsteiger sind und noch das eine oder andere Problem bzw. Unwissen, was ZFS betrifft, haben und da hilft oft jeder Hinweis, wenn man dann doch auf Probleme stößt.
So nach dem Motto: Aahh, das hab ich doch schon mal gelesen.

Wie kann eine Instabilität bei oi oder Nexenta bei ZFS aufkommen, wenn beiden der gleiche Quellcode zugrunde liegt. zfsonlinux aber dann stabil ist?
Die IMHO einzige Möglichkeit ist, dass zfsonlinux noch einen (ur)alten Quellcodestand von SUN zugrunde liegen hat.

---------- Beitrag hinzugefügt um 16:18 ---------- Vorheriger Beitrag war um 15:50 ----------

den dell controller will ich in ESXI 5 benutzen. Da wird er auch erkannt.
An OI hatte ich dabei nicht gedacht.

Leider bekomme ich beide Controller nicht zusammen auf dem Board zum laufen (siehe post weiter oben.)
Vielen Dank für den Link - hatte ich schon gechecked aber nichts gefunden.

Jetzt habe ich das Problem das mein LSI Controller voll bestückt ist und ich Platten onboard hängen habe.

Wie kann ich diese denn OI zur verfügung? (Habe die SSD an dem Onboard Controller und noch 2 x 1 TB die ich in OI einbinden möchte.)

Habe zwar noch 2 Highpoint Controller rumliegen aber diese werden von ESXI nicht unterstützt und soweit ich es checken konnt auch nicht von OI.

Muss mir vielleicht doch noch einen 2ten Intel SASUC8i zulegen....

Ganz ehrlich? Keine Ahnung

Ich habe bei meinem all-in-one nur den LSI-9211-8i und SM-AOC-USAS2-L8e per passthrough an oi weitergereicht. Ich glaube, dass du die 6 SATA nicht durchreichen kannst, bzw. gehen tut das schon, nur hast du dann keine Möglichkeit mehr ESXi auf SATA-Platte zu installieren. ESXi auf USB-Stick geht nicht bzw. kannste vergessen.

Dell Controller geht nicht
Highpoint Controller geht nicht

Das einzige was du machen kannst, entweder einen zweiten HBA oder einen Expander zu kaufen. Der Intel SASUC8i hat ja noch den alten 1068e Controller drauf.
Der HBA AOC-USAS2-L8e ist gleich zum LSI nur sind die Bauteile auf der anderen Seite verlötet. Das Slotbleich muss umgearbeitet werden. LSI-Originalfirmware kann drauf geflasht werden. Das SM-Teil kostet so um die 110 Euro.
Schau mal hier im Thread nach, da war der Expander im Okt.2011 ein Thema. Ich glaube gea hatte diesen Intel® RAID Expander Card RES2SV240 empfohlen.

---------- Beitrag hinzugefügt um 16:28 ---------- Vorheriger Beitrag war um 15:50 ----------

Oh ja ... DIE Preise sind OK...
Tja, das X9SCM-Board kann aber nur 4 Riegelchen...und NUR unbuffered...also 4x4 = 16GB.
Ich braiuche aber 32GB, wie schon geschrieben.
Leider sind 8GB Module so günstig nicht zu bekommen: Kingston ValueRAM DIMM Kit 16GB PC3-10667E ECC CL9 (DDR3-1333) (KVR1333D3E9SK2/16G) | Geizhals.at Deutschland
Das macht schlappe 610EUR für 32GB unbuffered ECC in 4Stck 8GB Modulen.
...und DAS sind leider keine akzeptablen Preise für mich, sorry.

Ich glaube du solltest dich von den 32 GB verabschieden,
denn für die X8 und X9 UP-Boards sind die 8GB noch unbezahlbar.
Somit kommst du mit den X9 Boards nicht über 16 GB und bei den X8 Boards nur bis max. 24 GB.
Auch die Socket 1366 Board können nicht mehr wie 24 GB.

Oder du nimmst ein bisschen Geld zur Hand und kaufst dir ein DP Board vom Schlage 5520 (Tylersburg) BOARDS / Socket 1366.
Aber ob das Sinn macht?
 
Hallo zusammen,

Ich habe aktuell folgende Hardware als Virtualisierungs-Server / All-in-One am laufen:

Hardware:

- Mainboard Supermicro X8SIL-F (Bios V1.1 27.05.2010 / IPMI-Firmware: 2.01)
- CPU: XEON L3426
- RAM: 32GB (4x8GB) DDR3 ECC Reg.
- HDD: 160GB Scorpio Black für System
- HDDs: 5 x 2TB als raidz1 für Daten
- ...


Ich habe nun ein Problem mit vt-d und der onboard NIC Intel 82574L.

Da das aber eigentlich ESXi (eventuell Mainboard ?) betrifft , habe ich das mal hier im ESXi Hilfethread gepostet.
Link

Vielleicht kann mir auch einer von Euch weiterhelfen, da ja der ein oder andere von Euch auch dieses Mainboard besitzt.

Ich möchte hiermit keinen Doppelpost erzeugen.
Falls ich jetzt was falsch gemacht habe bitte ich um "Gnade". :)


Gruß
mlampe
 
Zuletzt bearbeitet:
layerbreak,

den dell controller will ich in ESXI 5 benutzen. Da wird er auch erkannt.
An OI hatte ich dabei nicht gedacht.

Leider bekomme ich beide Controller nicht zusammen auf dem Board zum laufen (siehe post weiter oben.)
Vielen Dank für den Link - hatte ich schon gechecked aber nichts gefunden.

Jetzt habe ich das Problem das mein LSI Controller voll bestückt ist und ich Platten onboard hängen habe.

Wie kann ich diese denn OI zur verfügung? (Habe die SSD an dem Onboard Controller und noch 2 x 1 TB die ich in OI einbinden möchte.)

Habe zwar noch 2 Highpoint Controller rumliegen aber diese werden von ESXI nicht unterstützt und soweit ich es checken konnt auch nicht von OI.

Muss mir vielleicht doch noch einen 2ten Intel SASUC8i zulegen....

mit dem Perc scheint es öfter Probleme zu geben.

Alternativen:
1. billigen SIL Controller nehmen und ESXi davon booten um onboard Sata durchzureichen

2. Einen LSI 2008 HBA kaufen z.B. LSI 9211 oder AOC-USAS2-L8e (erfordert Bastelei)
Der ist dann auch schneller, kann 6Gb, Platten > 2TB und arbeitet gut mit Expandern zusammen
Ein zweiter SASUC8i macht eigentlich keinen Sinn

3. Größere Platten nehmen, alte als Backup nutzen




---------- Beitrag hinzugefügt um 20:09 ---------- Vorheriger Beitrag war um 19:32 ----------

Hallo zusammen,

Ich habe aktuell folgende Hardware als Virtualisierungs-Server / All-in-One am laufen:

Hardware:

- Mainboard Supermicro X8SIL-F (Bios V1.1 27.05.2010 / IPMI-Firmware: 2.01)
- CPU: XEON L3426
- RAM: 32GB (4x8GB) DDR3 ECC Reg.
- HDD: 160GB Scorpio Black für System
- HDDs: 5 x 2TB als raidz1 für Daten
- ...


Ich habe nun ein Problem mit vt-d und der onboard NIC Intel 82574L.

Da das aber eigentlich ESXi (eventuell Mainboard ?) betrifft , habe ich das mal hier im ESXi Hilfethread gepostet.
Link

Vielleicht kann mir auch einer von Euch weiterhelfen, da ja der ein oder andere von Euch auch dieses Mainboard besitzt.

Ich möchte hiermit keinen Doppelpost erzeugen.
Falls ich jetzt was falsch gemacht habe bitte ich um "Gnade". :)


Gruß
mlampe

Ich hab das gleiche Board und es mal probehalber probiert (all-in-one mit Solaris 11).
Im Gerätemanager wird die Netzwerkarte als falsch konfiguriert erkannt und nicht weiter
angezeigt. Ich würde mal erst die Netzwerkkarte bereit stellen und dann das OS installieren.

An sonsten würde ich nach Möglichkeit immer alles über den ESXi Switch laufen lassen.
Das ist viel flexibler.
 
Zuletzt bearbeitet:
Hallo Gea!

Danke für deine Antwort

Ich habe eine neue virtuelle Maschine erstellt, die Netzwerk-Karte entsprechend hinzugefügt und Debian 6, Windows 7 bzw. Openindiana (testweise) installiert.
Bei Debian 6 und Windows 7 wird die Netzwerk-Karte gar nicht erkannt, als ob Sie nicht da wäre. :heul:

Ich gebe Dir recht, dass man über den ESXi internen Switch wesentlich flexibler ist. In einer vSphere Umgebung wäre ein per vt-d durchgereichtes Gerät auch ein sog. "Single point of failure" und gar nicht empfehlenswert.

Wenn es gar keine Lösung mit der onboard nic gibt, werde ich mal sehen ob ich eine PCIe-Karte mit anderem Netzwerk-Chip testweise bekomme.

Vielleicht , wie fdsonne schreibt, gibt es gerade mit dieser Probleme.

Ich bleibe am Ball und werde meine Erkenntnisse hier mitteilen.

Danke und Gruß
mlampe
 
Zuletzt bearbeitet:
@ gea, laeyerbreak,

habe mal nach den Preisen für den 9211-8i geschaut. Die günstigste Variante war über 218 Euro. Neue Festplatten kommen mich teurer z.Zt :(.
Muss ich mir nochmal überlegen.
Einer der Gründe für den Storage Server war ja meine Festplatten zu konsolidieren damit ich den meisten Nutzen aus meinen bestehenden Platten raushole, anstatt TB's ungenutzt in verschiedenen Systemen hängen zu haben.

Mit Expandern habe ich gar keine Erfahrung. Würde mich aber interessieren. Habt Ihr vielleicht einen guten Link wo ich mal, als Anfänger zu diesem Thema, mich einlesen kann? (Was würde ich denn, außer der Expanderkarte, noch an Hardware brauchen? (Sprich Gehäuse?)

Habe gerade einen Adaptec 5405 "frei" bekommen. Finde es aber zu schade den für 1-2 80er ESXI Bootplatten einzusetzen. Der Stromverbrauch wäre auch nicht zu verachten...
Anmerkung für alle interessierten:
Der Adaptec 5405 läuft nicht mit EFI Bios zusammen!! Somit ist er auf vielen neueren Boards nicht einsetzbar....

Gruß

---------- Beitrag hinzugefügt um 16:17 ---------- Vorheriger Beitrag war um 15:49 ----------

gea,

wie schon geschrieben habe ich noch 2x1 Tb 5400rpm Festplatten. Könnte ich die 2 500GB 7200 rpm Platten tauschen? Wenn ja, wie würde sich das denn auf die Performance auswirken ?
Z.Zt habe ich 4 vdev's mirrord im System (6 x 1 TB 7200rpm, 2 x 500 GB 7200 rpm)
Was müsste ich tum um diese vdev mit den 2x 500er aus dem Pool zu nehmen? Geht das überhaupt oder müsste ich den Pool neu aufsetzen?

Gruß
 
lol -Danke !! Die Idee ist sehr gut! Leider hat das X9SCM-F kein PCI Slot, nur PCI-E. Aber hast mich auf eine gute Idee gebracht.

Ich installiere gerade Astaro. Sieht gut aus. Hat sich ja doch was verändert seit der Version 7. Danke für den Tipp!

---------- Beitrag hinzugefügt um 17:23 ---------- Vorheriger Beitrag war um 16:39 ----------

Ich werde mal diesen hier testen:
Digitus DS-30102 (hat einen SIL3132). Ist PCI-E x1 und sollte eigentlich gehen.
Kostet ca 25 Euro.
 
@ gea, laeyerbreak,

habe mal nach den Preisen für den 9211-8i geschaut. Die günstigste Variante war über 218 Euro. Neue Festplatten kommen mich teurer z.Zt :(.
Muss ich mir nochmal überlegen.

Neue Festplatten zu akzeptablen Preisen wird es wohl erst im II. Qu. 2012 wieder geben. Bis dahin wird der Markt von "Wegelagerern" bestimmt. :kotz:
Also schau einfach, dass du die Zeit bis dahin überbrücken kannst.
Den Test-Server SM X8Si6-F werde ich vorerst mit SATA der Gen 1 betreiben.

Ich hatte dir doch hier geschrieben, dass es eine Alternative, für weniger als die Hälfte, zu dem LSI9211-8i gibt.

Einer der Gründe für den Storage Server war ja meine Festplatten zu konsolidieren damit ich den meisten Nutzen aus meinen bestehenden Platten raushole, anstatt TB's ungenutzt in verschiedenen Systemen hängen zu haben.

Mit Expandern habe ich gar keine Erfahrung. Würde mich aber interessieren. Habt Ihr vielleicht einen guten Link wo ich mal, als Anfänger zu diesem Thema, mich einlesen kann?

Reale Erfahrung hab ich mit Expandern bis jetzt auch noch nicht. Aber schau doch hier im Oktober nach, da war Expander ein Thema.
Du hast doch den Intel SASUC8i Controller und da weis ich nicht, ob er für den Intel® RAID Expander Card RES2SV240 geeignet ist. Das sollte dir @gea am ehesten beantworten können.

(Was würde ich denn, außer der Expanderkarte, noch an Hardware brauchen? (Sprich Gehäuse?)

Uih uih.
Zuerst hatte ich ein großes Towergehäuse. Bald war mir aber der Kabelknäuel ein Kraus, denn die Fan-out-Kabel sind nicht einfach zu verstecken. Auch hatte ich für die HDs keine Lüftung.
Dann bin ich über ein US-Forum auf das Servergehäuse Norco RPC-4224 gestoßen.
Geordert habe ich das Case in GB, gibts aber auch in NL.
Als ich im Sommer einen heavy load auf das System hatte stieg die HD-Temp. über 40 Grad und da wurde es Zeit für einen Mod.
Folgendes hab ich dann an dem Case gemacht:
In NL das Blech für 12 cm Lüfter gekauft.
Alle Lüfter gegen Supermicros 4-pin PWM ausgetauscht und die Lüfter direkt auf das X8Sia-F Board gesteckt.
3 X Supermicro FAN-0077L4, 120/120/38, 4-pin PWM Fan, Rated Current (A): 0.68, Fan Speed (RPM):4,000, Air Flow (CFM): 148.3, Static Pressure (in.H20):0.60, Noise (dBA): 51.0
2 X Supermicro FAN-0062L4, 80/80/32, 4-pin PWM Fan, Rated Current (A): 0.55, Fan Speed (RPM):5,000, Air Flow (CFM):59.1, Static Pressure (in.H20):0.49, Noise (dBA): 47.0
Supermicro Xeon passiv Kühler SNK-P0046P, Supermicro Air Shroud MCP-310-48003-0N


Auf dem Board steckt inzwischen LSI9211-8i und Supermicro AOC-USAS2-L8e für oi mit 12 HDs und Supermicro AOC-SG-I4 für Astaro. ESXi und oi liegt auf einem internen SATA Steckplatz mit 2x2,5 Zoll 160 GB HDs im Raidsonic SR2760-2S-S2B Case.

Bis jetzt hatte ich mit dem ganzen System keine größeren Probleme.
Ziemlich am Anfang ging eine 2,5 Zoll HD hinüber (machte nur noch klack-klack-klack) - also raus mit der defekten Platte Neue rein und das Raidsonic machte einen rebuild, der allerdings mehrere Stunden dauerte.
Für meine ZFS-pools habe ich eine 2 TB HD in Reserve in der Schublade liegen.

---------- Beitrag hinzugefügt um 19:36 ---------- Vorheriger Beitrag war um 18:47 ----------

lol -Danke !! Die Idee ist sehr gut! Leider hat das X9SCM-F kein PCI Slot, nur PCI-E. Aber hast mich auf eine gute Idee gebracht.
Ich werde mal diesen hier testen:
Digitus DS-30102 (hat einen SIL3132). Ist PCI-E x1 und sollte eigentlich gehen.
Kostet ca 25 Euro.

Das wusste ich schon, dass dir PCI fehlt, es ging mir darum ein Produkt zu zeigen, welches den Chipsatz SIL3512 verbaut hat.

Bitte berichte, ob der Digitus DS-30102 Controller von ESXi erkannt wird und wie er läuft.
 
Zuletzt bearbeitet:
zum Thema Expander
Ich selbst habe mehrere LSI SAS2 Expander (Intel und SuperMicro) an LSI 9211 und
Supermicro AOC-USAS2-L8e im Einsatz und das funktioniert bisher prima.

Den Alternativexpander von HP würde ich nicht mehr neu kaufen, da er keine
6G Sata Platten unterstützt und als deutlich problematischer gilt.

gute Informationsquelle zum Thema LSI Expander
(Intel, gilt aber auch für andere mit gleichem Chip z.B. Chenbro, SuperMicro):
Intel RES2SV240 24-port SAS2 Expander Wiki (engl.)
http://forums.servethehome.com/showthread.php?146-HP-SAS-Expander-Wiki
 
Zuletzt bearbeitet:
@gea, schön dass du so schnell antwortest.

Ich erlaube mir gleich mal nachzufragen :coolblue:
Werden beide SFF-8087-Anschlüsse vom LSI mit dem Expander verbunden?
Wie wirkt sich der Expander auf die Leistung/Geschwindigkeit aus, da ja weit mehr HDs dranhängen?
 
@ layerbreak

Danke für Deine ausführliche Post.
Das Norco Gehäuse ist ja ein mords Brummer :-). Habe zwar einen kleinen begehbaren Kleiderschrank in einen Serverraum umgemodelt (Meine Freundin schüttelt heute noch den Kopf wenn sie an der Tür vorbei geht :d ) aber ob ich schon in so einer Liga spiele weiß ich noch nicht. Vielleicht gibt es ja was kleineres ... Aber auf jeden Fall habe ich schon mal eine Vorstellung. Merci.

Den AOC-USAS2-L8e habe ich für ca 150€ im Netz gesehen ist aber nirgends verfügbar. (In der Bucht wird er auch nicht gelistet)

Werde mal den DS-30102 ordern. Wenn der nix ist geht er halt wieder zurück.


@gea
Einen LSI 2008 HBA kaufen z.B. LSI 9211 oder AOC-USAS2-L8e (erfordert Bastelei)

...hat mich etwas abgeschreckt - was genau muss gebastelt werden? Die Slotblende?

Danke für die Links meine Herren!

Gruß
 
Zuletzt bearbeitet:
@ layerbreak

Danke für Deine ausführliche Post.
Das Norco Gehäuse ist ja ein mords Brummer :-). Habe zwar einen kleinen begehbaren Kleiderschrank in einen Serverraum umgemodelt (Meine Freundin schüttelt heute noch den Kopf wenn sie an der Tür vorbei geht :d ) aber ob ich schon in so einer Liga spiele weiß ich noch nicht. Vielleicht gibt es ja was kleineres ... Aber auf jeden Fall habe ich schon mal eine Vorstellung. Merci.

Den AOC-USAS2-L8e habe ich für ca 150€ im Netz gesehen ist aber nirgends verfügbar. (In der Bucht wird er auch nicht gelistet)

Werde mal den DS-30102 ordern. Wenn der nix ist geht er halt wieder zurück.

Gerne.
Ein ganz normales Servergehäuse. Hier im Luxx gibts ein paar nette Bilder, wo Leute solche Servergehäuse in einen Ikea-Holzhocker einbauen. Dann kann sich deine Freundin in aller Ruhe draufsetzen und sich ihre Klamotten im Schrank raussuchen. :wink:
Ich spiele in keiner Liga, ich bin ein ganz normaler HomeUser, der seine Rechner und Platten konsolidiert hat. Das Case ist "auf Vorrat" gekauft aber ich wollte in jedem Falle Backplanes haben.

Für die AOC-USAS2-L8e habe ich im September 121 Euro + Porto bezahlt. Wenn du willst, kann ich nachfragen, was er jetzt kostet. Ich kaufe nicht bei ibäh sondern beim Großhändler.

Bitte aber Erfahrung über den DS-30102 hier berichten.

@gea
...hat mich etwas abgeschreckt - was genau muss gebastelt werden? Die Slotblende?

Ja, bitte dieser Mod würde mich auch interessieren, wie die Original-Slotblende zu umarbeiten ist.
 
Zuletzt bearbeitet:
@gea, schön dass du so schnell antwortest.

Ich erlaube mir gleich mal nachzufragen :coolblue:
Werden beide SFF-8087-Anschlüsse vom LSI mit dem Expander verbunden?
Wie wirkt sich der Expander auf die Leistung/Geschwindigkeit aus, da ja weit mehr HDs dranhängen?

man könnte beide verbinden falls Expander und SAS Controller mitspielen, aber ein 8087 hat bereits vier Kanäle. Bei 3 Gb/s pro Kanal ergibt das 12 Gb/s, bei Sata3/SAS3 Platten und LSI2 Expander sogar 24 Gb/s. Das reicht auch bei mehr Platten. (die schnellsten Festplatten haben weniger als 2 Gb/s, 6G SSD das Doppelte). Das muss der Server erst mal verarbeiten können.

Dennoch würde ich heute immer SAS2 Controller und SAS2 Expander nehmen.

---------- Beitrag hinzugefügt um 22:05 ---------- Vorheriger Beitrag war um 21:47 ----------

G
..
Für die AOC-USAS2-L8e habe ich im September 121 Euro + Porto bezahlt. Wenn du willst, kann ich nachfragen, was er jetzt kostet. Ich kaufe nicht bei ibäh sondern beim Großhändler.
..

Ja, bitte dieser Mod würde mich auch interessieren, wie die Original-Slotblende zu umarbeiten ist.

Der USAS2 L8e ist falsch herum bestückt (gedacht für 1 HE Gehäuse um ihn zusätzlich zu einer normalen PCI-e übereinander unterzubringen). Obwohl es ein Spezialteil ist, kostet er seltsamerweise nur gut die Hälfte wie ein LSI 9211.

Ich schraube einfach das Sloblech ab und befestige den Adapter mit einem Kabelbinder am Steg zwischen den Slotaussparungen. Alternativ das Slotblech um 180° biegen und mit Abstandhalter anschrauben oder das Slotblech kürzen und neu bohren. (vgl http://churnd.wordpress.com/2011/06/27/zfsesxi-all-in-one-part-1/ ).

Da die Karte aber keinen externen Anschluß hat, ist es völlig unkritisch.
 
Zuletzt bearbeitet:
Ich schraube einfach das Sloblech ab und befestige den Adapter mit einem Kabelbinder am Steg zwischen den Slotaussparungen. Alternativ das Slotblech um 180° biegen und mit Abstandhalter anschrauben. Da die Karte aber keinen externen Anschluß hat, ist es völlig unkritisch.

LOL, die guten alten Kabelbinder. So hab ich meine Karte momentan auch befestigt.
Deine 2. Variante gefällt mir aber besser, denn dann hat die Karte auch einen ordentlichen Masseanschluß.
 
Ich hab diesen Controller gefunden, der den Chipsatz sil3512 verwendet.
Für knappe 15 Euro ist er mal einen Versuch wert, beim all-in-one die onboard SATA frei zu bekommen. :)

So die Karte ist heute angekommen. Gleich eingebaut, BootHD umgesteckt und gestartet.
ESXi4.01 startet anstandslos, während des Startablaufs ist kurz zu sehen, wie ESXi den Treiber SIL3512 ladet.

attachment.php

Passthrough der onboard-SATA kein Problem.
oi stehen jetzt weitere 6 HDs zur Verfügung.
 

Anhänge

  • passthrough2.png
    passthrough2.png
    2,5 KB · Aufrufe: 272
Zuletzt bearbeitet:
cool :-) Jetzt vermiss ich doch einen PCI Slot auf meinem Board ;-)

Ich habe die SIL3132 doch nicht bestellt. Habe nochmal intensiv recherchiert und die Posts die ich gesehen habe betrafen alle ESXI 3.5 und 4 aber keine Aussage zu ESXI 5. Und das auch nur wenn man die oem.gz modifiziert. :wall:
Werde weiterhin nach alternativen ausschau halten.
Übrigens, habe Supermicro Support wegen der DELL Perc 5i angeschrieben. Mal schauen was die sagen.

Hat Dein Großhändler vielleicht doch noch eine AOC-USAS2-L8e übrig ?
 
Ich habe die SIL3132 doch nicht bestellt. Habe nochmal intensiv recherchiert und die Posts die ich gesehen habe betrafen alle ESXI 3.5 und 4 aber keine Aussage zu ESXI 5. Und das auch nur wenn man die oem.gz modifiziert. :wall:
Werde weiterhin nach alternativen ausschau halten.

Schade, Versuchskaninchen werden immer gerne gesucht und hilft Anderen in der Zukunft.

Hat Dein Großhändler vielleicht doch noch eine AOC-USAS2-L8e übrig ?

Ich befürchte der hat so Viele, dass er sie sogar verkaufen muss. :rolleyes:
Soll ich mal einen aktuellen Preis einholen?
 
Hallo Ihr,

ich habe hier noch zwei Stück Delock 70154 zu liegen, das sind PCI-Controller mit 4 SATA-Ports und einem SIL3114. Die nonRAID-Firmware ist schon geflascht.
Aktuell kopiere ich gerade in paar TB auf mein ZFS. Wenn er damit fertig ist, kann ich heute Abend gerne mal den Kontroller testen, also ob der ESXi 5 davon bootet und ich die SATA-Ports des MB an den OI durchreichen kann. Für den ESX + OI und einen Domänencontroller sollte diese Lösung performancemäßig wohl ausreichen. Muss nur schauen, ob mir die Vollbestückung mit 32GB RAM einen Strich durch die Rechnung machen könnte (Stichwort MemoryMapping).

Millenniumpilot
 
Hallo ZFS-Geeks =)

ich möchte bald einen ESXi 5 Server erstellen mit dem ich Solaris als Host-VM einsetzen möchte. Die Festplatten sollen alle in diese VM durchgereicht werden, um es als Fileserver zu nutzen. Ist eine Verschlüsselung der HDD's möglich?
Bisher habe ich einen Fileserver mit Debian Lenny (mit Raidcontroller) und verschlüssele das Raid per dm-crypt und luks. Gibt es für Solaris eine alternatives Verschlüsselungstool? Hat jemand Erfahrungen damit gemacht bezüglich der Performance?

Ich habe gelesen ZFS kann keine Raidz vergrößern. Wird dieses Feature vllt. irgendwann mal auftauchen?
 
Sorry, überlesen. Testen werde ich es aber im eigenen Interesse trotzdem ;-)

Über eine PM bezüglich AOC-USAS2-L8e würde ich mich auch freuen. Lässt sich da was machen?

Millenniumpilot
 
Ist eine Verschlüsselung der HDD's möglich?
Gibt es für Solaris eine alternatives Verschlüsselungstool? Hat jemand Erfahrungen damit gemacht bezüglich der Performance?

Solaris11 kann Verschlüsselung. Openindiana momentan noch nicht.


Ich habe gelesen ZFS kann keine Raidz vergrößern. Wird dieses Feature vllt. irgendwann mal auftauchen?

Du kannst mit ZFS dein Raidz auf zwei Arten vergrößern:
Du tauscht eine HD nach der Anderen gegen eine größere Platte aus und machst zwischen jedem Austausch ein resilver.
Du hängst ein weiteres Raidz an deinen pool.
 
@laybreak: Danke für die Antworten. Wie nennt sich denn das Tool für die Verschlüsselung unter Solaris11?

Die Vergrößerung des Raidz ist nicht gerade zufriedenstellend. Einfache eine neue Platte dran, um das Raidz zu vergrößern wäre mir lieber gewesen :/
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh