FC / FreeNAS / VMWare / HP Server

Im Grunde würde für mich nur "General Tuning" in Frage kommen. Hier die Frage, welche Parameter sind empfehlenswert anzuhängen?
Sollte Prefetch wirklich deaktiviert werden ?

Ich sagte ja bereits, dass auch 1000€ möglich wären. Natürlich alles gebraucht.

Hier ein Beispiel: Infortrend EonStor A16F-R2431 Storage-System Fibre auf SATA, redund. Controller | eBay
Das wäre der Controller mit 16 Slots. Sagen wir mal 200€
Zusätzlich würden 12x 300GB 10K Platten rein kommen. Für die schnellen Anwendungen super. Kostenpunkt 200€
Die 4x 3TB von WD könnte ich dazu einbauen um einen langsamen Datenspeicher zu haben. Kostet mich nichts, nehme ich aus dem FreeNAS raus.
Anschließend noch die Umstellung auf FC, würde ca. 550€ Kosten.

Nach meiner Rechnung komme ich bei 950€ raus. Puffer Beträgt also noch 50€. Oder ?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ZFS auf einem RAID6 aus 6 Platten kommt mir äußerst ungünstig vor. Wie langsam ein RAID 6 über Hardwarecontroller sein kann habe ich schom mehrfach schmerzlich festgestellt.
Bei 4 Platten wäre ein Stripe über 2 Mirrors denkbar, nur minimal unischerer aber wenn man die verwaltung ZFS überlässt sicher etwas flotter.
Vielleicht reicht dir das ja schon, wenn ich es richtig verstanden habe soll ja alles über eine 1GBit Leitung angebunden werden.
Selbst wenn du 4 neue HDs hast musst du ja irgendwie die Daten migrieren. Das ist ohne neue Hardware mit downtimes verbunden. Kann man anstelle der 4 3.5"HDs evtl. mehr 2.5" HDs verbauen, mit anderer Backplane oder so? Oder eben ein externes JBOD Gehäuse + SAS Controller. Wer 3 Esx Server betreibt sollte bei einem zentralen Storage dafür nicht so geizig sein ;-)
 
Bisher ist ja alles super gelaufen :d
Die Performance ist beim aktuellen RAID6 aus 4 WD Green Platten nicht besonders gut. Wie einen Post drüber vorgeschlagen, würde ich gerne auf FC wechseln mit einem anderen Storage. Den aktuellen FreeNAS HP Server könnte ich als 4. ESX Server betreiben.
Um mehr 2,5" verbauen zu können, bräuchte ich ein anderen Gehäuse. Daher einen Post drüber, wäre dies eine Möglichkeit als zukünftiges Storage oder benötige ich bei dem Angebot noch etwas dazu ? Denke eigendlich, dass der einen Controller eingebut hat, oder ?

Kurz gesagt, ist dies ein eigenständiges System, oder benötigt man noch andere Bauteile ? http://www.ebay.de/itm/Infortrend-E...zwerkspeicher_Disk_Arrays&hash=item35cf6781e5

Edit: Angebot ist ja nun abgelaufen. Ich bin momentan der Meinung, dass die einzige sinnvolle Möglichkeit ist ein richtiges Storage zu kaufen, oder über irgendeine Möglichkeit viele SATA Ports für den FreeNAS (DL 160 G6) zu erhalten.

Wer 3 Esx Server betreibt sollte bei einem zentralen Storage dafür nicht so geizig sein ;-)

Momentan ist eigendlich garkein Budget vorhanden, daher setze ich die grenze bei 1000€ :P (Eine Lösung muss nunmal her)
 
Zuletzt bearbeitet:
Hab mich nun nochmals ein wenig umgesehen.

Wäre ein neues Chassis für 16 oder mehr 3,5" Laufwerke mit kompatibler Backplane zum DL160 G6 nicht am sinnvollsten ?
Der DL160 G6 müsste nur eine zusätzliche 4xGbit Netzwwerkkarte erhalten. Jeden ESX würde ich dann eine eigene Gbit/s Leitung geben.
16GB RAM + 2x L5520 mit FreeNAS sollte meines erachtens ausreichen.

Edit:

Ich bin momentan etwas verwirrt. Eine MSA kann man wohl auch direkt an einen DL160 G6 verbinden? Wie soll das funktionieren :d
 
Zuletzt bearbeitet:
Na das solltest du auf der HP ja finden :) Aber das scheint mir die beste Lösung momentan für dich
 
Die Backplane vom FreeNAS abklemmen und das SAS Kabel durch den Server nach draußen zum MSA60 legen. So hab ichs nun verstanden. Hätte dann 12 Slots anstatt 4 zur Verfügung.
Wie folgt würde ich bestücken:

8x 1.000GB zum RAID 10 (Netto 4TB)
4x 3.000GB zum RAID 6 (Netto 6TB)

Das RAID wird mit ZFS (FreeNAS) erstellt. Damit genügend Leistung für jeden ESX Server da ist, bekommt der FreeNAS noch eine 4Port Gbit Karte, welche mit dem internen Switch verbunden wird.

Habe ich einen Denkfehler, oder sollte es so klappen?
 
Zuletzt bearbeitet:
Wenn das so realisierbar ist, ist das ne gute Lösung. Leider bin ich nicht besonders firm in ZFS Dingen. Da sollte noch einer der Experten sich dazu melden.
 
Wenn du schon eine externes Storage verwendest, dann doch bitte gleich ZFS unter Solaris (omniOS), das hat mehr Performance als FreeBSD und vernünftiges iSCSI. Wenn du mit der Shell nicht klar kommst gibt es auch napp-it als Webinterface.

Auf jeden Fall LZ4-Compression nutzen, Dedup auf keinen Fall einschalten.

Warum kein 10GbE? Würde eventuelle Engpässe im Netzwerk vollständig bereinigen. 3 ESX-Server und 1Gbit-Netzwerk, da kann ich nur den Kopf schütteln. Okay, es ist wohl eine ältere Installation, aber 10GbE hätte ich damals trotzdem in Erwägung gezogen.
Jetzt noch FC zu kaufen finde ich gespart am völlig falschen Ende. Wer einen solchen Aufbau wie du hat wird sollte auch entsprechende Budget für 10GbE haben. Außerdem kostet 10GbE auch nicht mehr die Welt.
Wirklich nur 1000€ zur Verfügung? Kann ich mir nicht vorstellen. ;)

Netzwerk LAN/Modems » Switches mit Portanzahl 10GBase: ab 8
Netzwerk LAN/Modems » Netzwerkkarten/-adapter mit Porttyp: 10GBase

Wenn ich mir die Hardware anschaue könnte man das fast auch schon alles verkaufen und einfach 1 neues All-in-One-System mit ZFS-Storage-VM hinstellen, dann braucht es auch kein 10GbE-Netzwerk. Vorausgesetzt man wird die Teile irgendwie für einen halbwegs guten Preis los, kannst dir ja mal ein Ankauf-Angebot von einem der vielen Gebrauchtwaren Hardwarehändler geben lassen.
Verbraucht weniger Platz, weniger Wartungsaufwand und hat mehr Performance. Da dein Storage sowieso nicht redundant ist verlierst du auch keine Ausfallsicherheit. Außerdem weniger Platzverbrauch, weniger Stromverbrauch und dadurch geringere Mietkosten im RZ. Wenn ich das alles mal so Pi*Daumen rechne dürftest du sogar nach einer Weile Geld sparen.

Supermicro X9SRL-F retail (Sockel-2011) (MBD-X9SRL-F-O) ab €242,46
Intel Xeon E5-1650 v2, 6x 3.50GHz, Sockel-2011, tray (CM8063501292204) ab €491,93
6 Kerne mit 3,9GHZ (Turbo), dazu noch HT, also 12 Threads. Du hast leider nicht angegeben was du genau in den Servern drin hast, aber selbst wenn die "Gesamt-Rechenkraft" bei deinem alten Aufbau größer ist werden die Maschinen hier mit wohl deutlich schneller laufen da die Single-Thread-Performance sich mehr als verdoppelt, sogar fast verdreifacht wenn man die bessere Leistung pro Ghz und die neuen Features der neueren CPU mit einbezieht. Netzwerk-Bottlenecks gibt es auch keine mehr weil alles auf einer Maschine laufen würde.

Wie bereits von Vorrednern angemerkt ist Raid-Z2 äußerst unsinnvoll für so etwas, nur brauchbar als reine Datenablage. Auf keinen Fall mehr 1TB Festplatten kaufen, immer so groß wie möglich, am besten 4TB. Denk auch über eine SSD für den L2ARC (Readcache) nach, ist nur ein Cache daher braucht es keine Redudanz. Wenn du viel Geld hast auch ein SSD-Mirror für ZIL, beschleunigt die Writeperformance enorm, da es ein Writecache ist sollte es unbedingt ein Mirror sein.

Heutzutage noch 2,5"-Festplatte zu verwenden mach meiner Meinung überhaupt keinen Sinn, nur 3,5" Festplatten und SSDs. Wenn das Budget sehr klein ist lieber Consumer-SSDs als 2,5" Server-HDDs.
Frequently Asked Questions About Flash Memory (SSDs) and ZFS
 
Zuletzt bearbeitet:
Auf jeden Fall LZ4-Compression nutzen, Dedup auf keinen Fall einschalten.
FreeNAS 9.1 bringt LZ4 mit. Nimmt Dedup wirklich soviel Leistung weg?

Warum kein 10GbE? Würde eventuelle Engpässe im Netzwerk vollständig bereinigen. 3 ESX-Server und 1Gbit-Netzwerk, da kann ich nur den Kopf schütteln. Okay, es ist wohl eine ältere Installation, aber 10GbE hätte ich damals trotzdem in Erwägung gezogen.
Die Server stehen schon eine Zeit lang im RZ. Es sind 4 baugleiche HP DL160 G6. Der als Storage genutze Server würde 4Gbit/s erhalten. Die ESX Server können Anteile ordentlich verwalten, sofern die gesamte Bandbreite der Schnittstelle verfügbar ist. So zumindestens der Support von VMWare.

Jetzt noch FC zu kaufen finde ich gespart am völlig falschen Ende. Wer einen solchen Aufbau wie du hat wird sollte auch entsprechende Budget für 10GbE haben. Außerdem kostet 10GbE auch nicht mehr die Welt.
Wirklich nur 1000€ zur Verfügung? Kann ich mir nicht vorstellen.
Ich habe tatsächlich eigendlich momentan garkein Budget und muss sehen, wie ich die 1000€ zusammen bekomme. Es sollte wirklich nur das notwendigste sein.

Wenn ich mir die Hardware anschaue könnte man das fast auch schon alles verkaufen und einfach 1 neues All-in-One-System mit ZFS-Storage-VM hinstellen, dann braucht es auch kein 10GbE-Netzwerk. Vorausgesetzt man wird die Teile irgendwie für einen halbwegs guten Preis los, kannst dir ja mal ein Ankauf-Angebot von einem der vielen Gebrauchtwaren Hardwarehändler geben lassen.
Verbraucht weniger Platz, weniger Wartungsaufwand und hat mehr Performance.
In jedem HP DL160 G6 laufen aktuell 2x L5520(4Core + HT, also 8Threads und davon 2 Stück pro Server) Prozesoren mit 72GB ECC RAM. Da glaube ich kaum, dass der Intel 6 Core dies bewältigen könnte?
Aktuell wird allerdings auch mehr der RAM genutzt, als die CPU´s(CPU Auslastung pro Host bei ca. 30-40%).

Da dein Storage sowieso nicht redundant ist verlierst du auch keine Ausfallsicherheit.
Das liegt am Budget, ich hätte auch gerne ganz andere Hardware :P

Außerdem weniger Platzverbrauch, weniger Stromverbrauch und dadurch geringere Mietkosten im RZ. Wenn ich das alles mal so Pi*Daumen rechne dürftest du sogar nach einer Weile Geld sparen.
Wir haben aktuell im DUS3 einen sehr günstigen Vertrag. In diesem ist ein 5A Anschluss inklusive (Strom wird nicht extra bezahlt). Da ist noch ne Menge Platz drinnen und Storm ist auch da. Preis ändert sich nicht.

Wie bereits von Vorrednern angemerkt ist Raid-Z2 äußerst unsinnvoll für so etwas, nur brauchbar als reine Datenablage. Auf keinen Fall mehr 1TB Festplatten kaufen, immer so groß wie möglich, am besten 4TB. Denk auch über eine SSD für den L2ARC (Readcache) nach, ist nur ein Cache daher braucht es keine Redudanz. Wenn du viel Geld hast auch ein SSD-Mirror für ZIL, beschleunigt die Writeperformance enorm, da es ein Writecache ist sollte es unbedingt ein Mirror sein.
Was ist nun ein Raid-Z2, konnte auch bei google jetzt nicht sofort was finden, bin nur kurz am PC.
Glaube der MSA60 schafft nur mit hängen und würgen die Kompatiblität mit 3TB, halte 4TB also für unrealisitisch (Vorallem vom Preis). Einen so großen Datastore brauch ich auch nicht, es liegt ja eher an der Performance.
Ich hätte noch eine 120 GB Intel SSD hier. Kostet mich nichts, wenn ich diese in einen Server einbauen würde. Jedoch weiß ich nicht, ob Consumer SSD´s in dem Bereich nicht zu schnell kaputt gehen?
Das nächste Problem wäre für mich die L2ARC Konfiguration. Ich hab keine Ahnung, wie ich dies konfiguriere und habe leider niemanden, der mir bei sowas hilft.
Aus dem L2ARC gleich ein Raid1 ? Ich hab wirklich kein Budget -.-

Heutzutage noch 2,5"-Festplatte zu verwenden mach meiner Meinung überhaupt keinen Sinn, nur 3,5" Festplatten und SSDs. Wenn das Budget sehr klein ist lieber Consumer-SSDs als 2,5" Server-HDDs.
Bisher läuft alles in 3,5". So sollte es auch bleiben. Nur bei dem L2ARC würde ich dann die Intel SSD dran packen wollen :d
Das FreeNAS läuft übrigends auf einem USB Stick. Sollte auch nicht so selbstverständlich sein, da die ESX Server noch jeweils eine 160GB Server HDD für das System haben.
 
Zuletzt bearbeitet:
Also gut: Wenn du Performance brauchst, dann lass die Finger vom Dedup, das bringt nur noch mehr Random I/O und das können deine Platten nun wirklich nicht ab! Wie die Platzersparnis tatsächlich wäre, kannst du mit
zdb -S Senepia
herausfinden. Aber Vorsicht, diese Berechnung dauert und braucht RAM, also behalt den Prozess im Auge und schiess ihn ab wenns zu knapp wird.
Ein RaidZ2 hast du selber gebaut, siehe deinen Screenshot. Bei einem Raid-Controller würde man Raid-6 dazu sagen. Hier ne Übersicht OpenSolaris ZFS: Mirroring vs. other RAID schemes
L2Arc braucht kein Raid, eine SSD reicht. Die Intels sind normalerweise recht robust, die sollte das schon packen. Aber ich dachte du hast kein Anschluss übrig?

cu
 
Also gut: Wenn du Performance brauchst, dann lass die Finger vom Dedup, das bringt nur noch mehr Random I/O und das können deine Platten nun wirklich nicht ab! Wie die Platzersparnis tatsächlich wäre, kannst du mit
zdb -S Senepia
herausfinden. Aber Vorsicht, diese Berechnung dauert und braucht RAM, also behalt den Prozess im Auge und schiess ihn ab wenns zu knapp wird.
Werde ich ausprobieren.

Ein RaidZ2 hast du selber gebaut, siehe deinen Screenshot. Bei einem Raid-Controller würde man Raid-6 dazu sagen. Hier ne Übersicht OpenSolaris ZFS: Mirroring vs. other RAID schemes
Wieso wird das bei ZFS nun anders genannt?

L2Arc braucht kein Raid, eine SSD reicht. Die Intels sind normalerweise recht robust, die sollte das schon packen. Aber ich dachte du hast kein Anschluss übrig?
Ich hätte 12 Anschlüsse, wenn ich einen MSA60(Bekommt man recht günstig) anschließe. So meine Überlegung.
 
Gerade bei dem begrenztem Budget würde ich kein Geld in FC versenken.
Ich vermute mal, dass dein Problem ist, dass dein Storage mit den 4 Platten im Raid6 eine schwache IO leistung hat. Beseitige erstmal den Flaschenhals und dann kann man immernoch überlegen, ob man etwas an der Storage-Anbindung ändert. Man könnte auch mal überlegen, ob man ein paar VMs auf lokale Datastores legt, da fallen ja dann außer den HDs keine weiteren Kosten an.
 
Da die ESX Loadbalancing unter anderem betreiben ist ein Storage pflicht.

Wie schon gesagt würde ich ein MSA60 kaufen wollen und per SAS Kabel ans Mainboard anschließen. Dann hätte die aktuelle Backplane keine Funktion mehr.
Der Storage würde dann noch für wenige Euro einen 4Port Gbit/s Anschluss erhalten.

Dann hätte ich 12 Platten Slots zur Verfügung.
 
Und was für Platten und wie viele füllen dann die 12 Slots?
Ein Stripe über 5 Mirrors wäre denkbar. Dann wäre noch Platz für Boot Platte(n) oder SSD.
Kann denn der SAS controller und das Storage die Platten einzeln an dein ZFS durchreichen?
Über die 4 Port GBit Karte gehst du dann mit je 1 verbindung zu den ESX servern?
Kann immer noch nicht verstehen, dass man in so einer Umgebung so am Storage spart. Wenn man sich überlegt, was allein die VMWare lizenzen kosten. Loadbalancing, failover usw. alles toll in software realisiert und am ende schafft man sich ein single point of failure und Flaschenhals mit der (neben der Netzwerkinfrastruktur) einzigen zentralen Komponente.
Aber jetzt kann ich gut was erzählen, hab auch schmerzhaft erfahren müssen, was es bedeutet wenn so ein Storage mal nicht wie vorgesehen funktioniert oder schlicht überlastet ist.
 
Ich hab gerade mal nachgesehen. Ich hätte 12x2TB, 4x 3TB, 1x 120GB SSD (2,5" Intel)
Da der MSA60 keine eigenen Raids o.ä. erstellt und man diesen per SAS Kabel an das Mainboard vom DL160 G6 anklemmen kann, wird wohl jede Platte einzeln an FreeNAS übergeben.

Über die 4 Port GBit Karte gehst du dann mit je 1 verbindung zu den ESX servern?
Im Grunde hätte ich onboard mit der Erweiterungskarte 6x Gbit/s + ILO. 1x Gbit/s + ILO gehen ins externe Netz. Die anderen intern. Könnte entweder die ESX direkt an dem Storage anschließen, oder über einen Switch. Macht keinen Kostenunterschied.

Kann immer noch nicht verstehen, dass man in so einer Umgebung so am Storage spart. Wenn man sich überlegt, was allein die VMWare lizenzen kosten. Loadbalancing, failover usw. alles toll in software realisiert und am ende schafft man sich ein single point of failure und Flaschenhals mit der (neben der Netzwerkinfrastruktur) einzigen zentralen Komponente.
Aber jetzt kann ich gut was erzählen, hab auch schmerzhaft erfahren müssen, was es bedeutet wenn so ein Storage mal nicht wie vorgesehen funktioniert oder schlicht überlastet ist.
Wie schon gesagt. Wo kein Geld ist, kann auch keines ausgegeben werden. Bzw. es muss das nötigste geholt werden. Aktuell ist das Storage auch nicht redundant und trotzdem läuft alles seit 200 Tagen ohne Unterbrechung.
 
Habe nun folgendes vor:

36GB RAM (Insgesammt) für den Storageserver (FreeNAS)
MSA60 (direkt per SAS Kabel angeschlossen(Gibt die Platten laut Techniker einzeln durch)
10x 2TB Festplatten (ZFS RAID 10)
1x L2ARC (Intel 510 120GB) (Noch keine Ahnung wie ich das einrichte)
1x USB Stick für FreeNAS

4x Netzwerkkarte (EMULEX LPE11000 4GBps PCIe x4 FIBRE CHANN)
1x FC Switch (Muss noch angeschafft werden)

Sollte ich noch etwas wichtiges beachten ? Die 3TB Festplatten würde ich als Backup Speicher nutzen. (Kommen in die anderen DL160 rein)
Die SSD wird im seq. begrenzt durch die MSA60 (SATA150). Sollte nicht groß Probleme verursachen, da es um die 4k Werte geht, oder ?
Ich habe auch noch ziemlich viel über FreeNAS gelesen. Sollte der ZIL nicht auch auf eine SSD gecached werden ?

Jetzt das, was mir wohl niemand glauben mag:
70x2GB ECC 10600 (250€)
6x4GB ECC 10600 (70€)
MSA60 + 12x 2TB HDD (199€)
4x Netzwerkkarte (28€)

Habe also bisher 547€ inklusiv Versand ausgegeben. Mir fehlt nun noch ein FC Switch + 4x FC Kabel (Empfehlung, Tipps?.
Würde mich nochmals über Antworten freuen!

PS: Frohes Neues!
 
Zuletzt bearbeitet:
Na die Preise sind ja völlig marktüblich (ebay). Da hast du auf jeden Fall nicht zu viel bezahlt.
Ich bezweifel aber immer noch das FC da so viel Unterschied macht (Bei Random Zugriffen).
 
ein MSA60 incl 12 Platten für 199,- ?
da würd ich doch gleich ein paar Sätze von kaufen...
 
ein MSA60 incl 12 Platten für 199,- ?
da würd ich doch gleich ein paar Sätze von kaufen...

Denke doch auch, das es ein Schnäppchen hoch 10 war :P
Gab aber nur einen davon, sogar mit Rails und SAS Kabel inklusive.


Na die Preise sind ja völlig marktüblich (ebay). Da hast du auf jeden Fall nicht zu viel bezahlt.
Ich bezweifel aber immer noch das FC da so viel Unterschied macht (Bei Random Zugriffen).

Bei Random Zugriffen erstmal bestimmt nicht. Ich möchte nur zeitnah nicht wieder aufrüsten müssen. Die MSA60 ist ja flexibel erweiterbar. (Bis zu 4 MSA60, soweit ich das gelesen habe)

@Topic (Hatte noch ein Paar Fragen im letzten Beitrag :d)

-Sollte der ZIL nicht auch auf eine SSD gecached werden ?
-Mir fehlt nun noch ein FC Switch + 4x FC Kabel (Empfehlungen, Tipps?)

1 Slot im MSA60 wäre noch frei. Sollte da eine zweite SSD für den ZIL rein ?
 
# Push

Guten Morgen,

in den letzten 2 Tagen hat sich doch viel getan und weitere Kosten sind entstanden.
Der MSA60 ist mit 12x SAS 2TB angekommen. Nun habe ich mir das mit dem anschließen nochmal überlegt und bin auf folgendes gekommen:

-Jeder der 3 DL160 G6 (ESXI) erhält einen PCI Riser x16 für die Netzwerkkarte (Emulex LPe11000).

-Der andere DL160 G6 (FreeNAS) erhält auch den Riser, allerdings wird dort ein HBA (LSI Logic 9212-4I4E) eingebaut. Dieser ist nativ mit dem MSA60 kompatibel und bietet 4 weitere interne SATA Ports. Zusätzlich bietet der HBA JBOD für FreeNAS, sollte klar sein :d. Da der FreeNAS aber auch noch per Glasfaser angebunden werden muss, wird in den internen x4 PCI Slot die LPe11000 eingebaut und das Kabel nach außen verlegt.

-An einen internen SATA Port der HBA möchte ich nun also die SSD als L2ARC anschließen. Desweiteren bleiben in der Front 4 weitere Einschübe frei, welche ich später für ein SSD RAID (OS Platte für die VM´s) nutzen möchte.

Was noch gekauft werden muss ist ein SAN Switch und FC Kabel. Worauf muss ich bei den Kabeln achten ?

Bisher angeschaffte Dinge(Berichtigt incl. Versand):

70x2GB ECC 10600 (200€)
6x4GB ECC 10600 (70€)
MSA60 + 12x 2TB SAS HDD + SAS Kabel + Rails (203,90€)
4x Netzwerkkarte LPe11000 (31,80€)
PCI x16 Riser (84€(Neu))
LSI Logic 9212-4I4E (209€(Neu))
Stromleiste 19" (30€(Neu))
Intel SSD 510 120GB (Kostenlos)

Komme bisher zusammen auf 828,70€. Da noch der SAN Switch + Glasfaserkabel angeschafft werden müssen, werde ich auf 1000-1100€ kommen. Denke für die Menge an Hardware ist das ein fairer Preis.

PS: Der Umabu ist für Ende dieser oder Anfang nächster Woche geplant und wird Nachts durchgeführt. Rechne mal mit 4 Stunden arbeit, da die Reihenfolge der Server im Rack wohl geändert werden müssen. Zudem wird FreeNAS auf die aktuellste Version gebracht.
 
Zuletzt bearbeitet:
Ich hab noch BroCade E200 Switche, könntest dir einen verkaufen wenn du noch interesse hast.
Hätte auch ggfs. noch EMC Shelfs mit 10k FC 450GB Platten.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh