Storage Spaces Direct mit Cache einrichten ?!?

tcg

Enthusiast
Thread Starter
Mitglied seit
28.10.2009
Beiträge
1.417
Ort
iwwero
Hi,

Prolog:
ich habe einen kleinen Server zum Basteln mit folgender Ausstattung:
(heftig wie das Zeugs im Preis gefallen ist, hab mal ein paar Preise dazu geschrieben, hab bei ebay wohl auch etwas Glück gehabt ;-)
*) HPE MicroServer Gen8 (neu gekauft)
*) CPU: E3-1240v2 (gebraucht gekauft)
*) RAM: 16GB@1333 (gebraucht gekauft)
*) Controller: P222/2GB-FBWC (FW: 8.00) (50€ plus 25€ für 2GB ! neu !)
*) HDs: 4*ST33000651NS/3TB @ Intern (4 * 59€ !!! neu !)
*) SSDs: 4*SA400S37/120G @ Extern (4*27€ !!! neu !)
*) ODD-SSD 250GB 850Evo @ AHCI (neu)
*) Kleinkram: SFF-8088-auf-4-Sata Kabel für die SSDs und 1-zu-4 Sata-Strom Kabel

Ich habe jetzt einen Windows Server 2016 installiert (auf die ODD-SSD) und die 4 HDs als Raid6 am P222 laufen.
Soweit so gut, läuft sehr stabil und einigermaßen schnell.
Aber halt nur einigermaßen.
Auf dem Raid liegen ein paar Hyper-V VMs, u.a. ein Win10.
Das habe ich nun auf 1803 gehoben, und das hat eeewig gedauert und die HDs haben dauerhaft gerattert, recht heftig und laut, wie Serverplatten halt so sind ;-)

Jetzt will ich die 4 SSDs zum Cachen benutzen und überlege gerade wie das gehen könnte.
(Ja, mir ist klar dass die keine Power-Loss-Protection haben, ist auch nur der Bastelserver…)

An meinem „Hauptwürfel“ habe ich das schon mal gemacht, allerdings direkt auf der HW: ich habe die SSDs direkt vom Controller eingebunden (https://www.hardwareluxx.de/community/f101/hp-smartcache-saap-1116871.html) -> läuft richtig super ! Super schnell, total transparent, … Kostet aber Geld (die SmartCache Lizenz) und ich kenn das ja schon und lerne dann nix neues ;-)

Da ich einen Server 2016 einsetze, bietet sich „Storage Spaces Direct“ an, aber da kenn ich mich aber gar nicht aus. Ich hab mal mit Server 2012-R2 und Tiering gespielt (cold data, hot data, …), aber das war wohl irgendwas anderes…

Hier (https://docs.microsoft.com/de-de/windows-server/storage/storage-spaces/understand-the-cache) steht schon einiges, u.a. dass es eigentlich mit 4 HDs und 4 SSDs super klappen sollte.

Fragen:
Aber ich hätte da noch ein paar Unklarheiten zu entsorgen:
*) hier (https://docs.microsoft.com/de-de/windows-server/storage/storage-spaces/storage-spaces-direct-hardware-requirements) steht: „Minimum of 2 servers“ ! Ups, kann ich das jetzt gleich vergessen ?
*) Und „NOT SUPPORTED: RAID controller cards“, also muss ich den P222 in HBA schalten. Aber wenn ich das mache, läuft dann der HW-Cache vom Controller noch (will ich natürlich weiterhin haben, 2GB FBWC ist schon was feines) ?

Konkret wäre mein Plan:
*) Server 2016 bleibt auf der ODD-SSD (Sata2 reicht ja fürs OS)
*) 4*HD werden vom P222 irgendwie per HBA-Mode an das OS durchgereicht (aber der FBWC soll an bleiben !)
*) 4*SSD auch (der FBWC wäre mir da egal)
*) je 2 SSDs werden zu nem Raid1 gebündelt, die 2 SSDs Raids sollen dann die HDs cachen (Write-Back natürlich ;-)
*) alternativ alle 4 SSDs einzeln und dann als Write-Through

So, nun bitte fleißig mit diskutieren ob der Plan sinnvoll ist, ob das überhaupt so geht (z.b. mit FBWC)…
Und wie man das überhaupt einrichten kann (GUI ? PowerShell ?)
Danke schonmal für die vielen sinnvollen Antworten ;-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wahrscheinlich weiss ich nicht mal wie sich das nennt was ich will, da hast du recht ;-)

Danke für den Link...

Wenn das was ich will (eigentlich mein HW-R6 mit nem HW-R10-SSD-Cache drüber) genauso ist wie beim 2012r2 (ich wüsste tatsächlich nicht was das "direct" nun besser macht / bedeuten soll) hatte ich das vor einiger Zeit ja schon mal am laufen.
Irgendwie per PowerShell... Ich schau mir aber nochmal den Server Manager an, mal schaun was sich da geändert hat seit 2012r2...

edit:
"CommodoreX64"... Damals war alles irgendwie viel einfacher ;-)
 
Zuletzt bearbeitet:
So, hab noch etwas drüber nachgegrübelt.
Da es ein Bastelrechner (Homelab nennt sich das ja heute) ist, probier ich einfach zuerst mal das: HW-R6-HDs mit nem HW-R10-SSD-Cache (oder lieber einen HW-R5-SSD-Cache ? Wie performant ist denn da der P222... muss ich mal messen: R0 vs. R5 vs. R6 vs. R10 auf SSDs...)
Allerdings fehlt mir immer noch das genauere Verständnis:

Storage Tiering ist auf Drive-Ebene, richtig ? Kennt also nicht das FS / die Dateien.
Das bedeutet dann doch dass Sektoren bzw. Cluster gecached werden, nicht das ganze VHDX einer VM, richtig ?

Beim Tier mit HD und SSD dient die SSD nur als Cache und nicht als zusätzlicher Speicher ?
Was passiert wenn die SSD defekt ist ? Ist dann alles kaputt oder einfach nur wieder langsamer ? (natürlich nur bei einem WT-Cache)

Wie sage ich denn dem Tier ob ich Write-back oder Write-through haben will ?
 
So, hab noch etwas drüber nachgegrübelt.
Da es ein Bastelrechner (Homelab nennt sich das ja heute) ist, probier ich einfach zuerst mal das: HW-R6-HDs mit nem HW-R10-SSD-Cache (oder lieber einen HW-R5-SSD-Cache ? Wie performant ist denn da der P222... muss ich mal messen: R0 vs. R5 vs. R6 vs. R10 auf SSDs...)
Ohne den HP zu kennen, würde ich bei älteren Controllern eher zu R10 tendieren.
Ich habe einen SAS2108 basierten Controller (single core) und das RAID5 ist einfach zu lahm für SSDs.
Storage Tiering ist auf Drive-Ebene, richtig ? Kennt also nicht das FS / die Dateien.
Ja
Das bedeutet dann doch dass Sektoren bzw. Cluster gecached werden, nicht das ganze VHDX einer VM, richtig ?
Ja. "The data is mapped and moved at a sub-file level. So if only 30 percent of the data on a virtual hard disk is "hot," only that 30 percent moves to your solid-state drives"
Quelle: Understand Storage Space Tiering in Windows Server 2012 R2 Larryexchange Blog
Beim Tier mit HD und SSD dient die SSD nur als Cache und nicht als zusätzlicher Speicher ?
Nein. Der SSD-Speicher wird aufgeteilt. Der eine Teil fürs Tiering stellt zusätzlichen Speicher bereit. Der andere Teil für den WriteCache ist echter Cache.
Was passiert wenn die SSD defekt ist ? Ist dann alles kaputt oder einfach nur wieder langsamer ? (natürlich nur bei einem WT-Cache)
Wie sage ich denn dem Tier ob ich Write-back oder Write-through haben will ?
Ergibt sich aus obiger Antwort. Die Daten sind weg. Und zwar alle, denn die Datenblöcke können sich entweder auf dem HDD-Tier oder auf der SSD-Tier befinden. Daher ist es sinnvoll Redundanz in jedem Tier zu haben.
 
Super ! Vielen Dank für die Details...
Jetzt muss ich das echt nochmal überdenken !
Das mit dem "alle Daten weg" macht mir dann doch etwas Sorgen, ich hab ja nicht die teuersten SSDs gekauft ;-)
Ich spiel dann mal rum (wenn ich wieder Zeit habe, das Wochenende ist ja quasi vorbei).
Wenn ich Bench-Ergebnisse habe (R0 vs R1 vs R5 vs R6 vs R10) lass ichs wissen.
Vor allem das "RAID5 ist einfach zu lahm für SSDs" interessiert mich jetzt mal, der P222 ist ja gar nicht mal so ganz alt...
 
Super ! Vielen Dank für die Details...
Jetzt muss ich das echt nochmal überdenken !
Das mit dem "alle Daten weg" macht mir dann doch etwas Sorgen, ich hab ja nicht die teuersten SSDs gekauft ;-)
Das bezog sich auf das Szenario 1 SDD + 1 HDD. Das ist grob vergleichbar mit einem RAID0. Die Ausfallwahrscheinlichkeit steigt erstmal.
Wenn du > 2 SSDs und > 2 HDDs oder mehr hast, kannst Du Redundanz hinzufügen. Dann funktioniert das quasi wie ein RAID01 (2 Tier + 2 Way-Mirror), wobei die heißen Daten automatisch auf dem schnelleren SSD-"RAID" gehalten werden.

Ich habe damit auch herumgespielt und es hat gut funktioniert. Nur waren meine SSDs noch ein paar sehr alte Intels und dahinter zwei relativ neue HDDs, so dass es nicht sooo gerockt hat. Da ich auch so einen Würfel habe, waren mit die Steckplätze für HDDs am Ende wichtiger.

Da die Storage Spaces sehr flexibel sind, geht nur ein kleiner Teil der Funktionalität per Dialog-Einstellung. Für vieles ist die Powershell die 1. Wahl. Storage cmdlet Reference

Vor allem das "RAID5 ist einfach zu lahm für SSDs" interessiert mich jetzt mal, der P222 ist ja gar nicht mal so ganz alt...
Den SAS2108-Chip der auf meinem Controller verbaut ist, gibt es ja auch seit ~2008. Da war noch nicht so viel mit SSDs. Könnte beim P222 besser ausschauen.
 
Da ich auch so einen Würfel habe, waren mit die Steckplätze für HDDs am Ende wichtiger.

Ich hab in meinem 9 Laufwerke drin ;-)

- - - Updated - - -

Das bezog sich auf das Szenario 1 SDD + 1 HDD. Das ist grob vergleichbar mit einem RAID0. Die Ausfallwahrscheinlichkeit steigt erstmal.
Wenn du > 2 SSDs und > 2 HDDs oder mehr hast, kannst Du Redundanz hinzufügen. Dann funktioniert das quasi wie ein RAID01 (2 Tier + 2 Way-Mirror), wobei die heißen Daten automatisch auf dem schnelleren SSD-"RAID" gehalten werden.

Das wäre dann der endgültige Plan, die 4 HDs und dann noch 4 SSDs zum Cachen, je nach P222 Performance dann in Raid5 oder halt Raid10...
Oder aber auch ganz ohne HW Raid und per Storage Space Parity.
Aber dann evtl. auch ohne FBWC und auf Kosten der CPU (die sollte das ja eigentlich schaffen, E3-1240V2)...
 
Hmmm, so, hab mal etwas weiter gespielt.

Hier der Status:

Die Kingston SSDs (SA400S37/120G) sind zwar günstig, aber auch billig !
Die Write-Performance ist einfach nur schlecht !
Die Teile werden mit „bis zu 320 MB/s“ Schreibgeschwindigkeit beworben, davon sind sie aber weit entfernt. Einen Einzeltest habe ich nicht gemacht, aber selbst im Raid0 (!!!) mit allen 4 (!!!) bekomme ich auf nicht mal 300MB/s (!!!) am Smart-Array mit 2GB FBWC (!!!).

Momentan habe ich sie am Controller als SmartCache hängen, also das was ich im ersten Würfel schon mal gemacht habe, aber hier auch mit sehr bescheidenen Werten (300 MB/read, 200MB/write) auf dem resultierenden Laufwerk aus 2*HD204UI (R1) und 4* SA400S37 (R0-SmartCache).
Wobei mich die 200MB write wundern, so schnell dürfte das gar nicht sein, ist ja WT nicht WB !

Totale Enttäuschung…

- - - Updated - - -

Der nächste Schritt war dann: ein neuer Rechner muss her…
Hab ich günstig bei eBay bekommen: einen ML350p G8 (siehe Signatur). Naja, günstig ist relativ, da musste natürlich eine 2. CPU rein, und dann gleich ne schöne, und das erfordert dann auch den Tausch der Ersten, und auch nen weiteren CPU-Kühler, und noch nen Lüfter (sonst bootet der gar nicht durch, "insufficient cooling" !), und auch mehr Speicher, ein LFF-Cage auch noch, ach ja, ne Soundkarte, ne USB3-Karte, ne Grafikkarte (meine alte GTX 960), usw. ;-)

An den On-Board Controller will ich nun ein paar 2TB HDs (ich habe 4-5 HD204UI von alten Bastelaktionen übrig) und erstmal die 4*SSDs anschließen. Dazu habe ich mir einen „SAS Expander“ (487738-001) gekauft (noch nicht da), mal schauen wie/ob ich das zum Fliegen bekomme. Keine Ahnung ob das mit dem P420i geht, laut HP ist der Expander für den P410…

Der ML350p hat natürlich den Vorteil dass massig PCIe Karten (bei 2 CPUs bis zu 9 ?) rein passen, also auch eine NVME-Karte ;-) Einen 4€ „China-Adapter“ hab ich schon mal bestellt, eine Corsair MP500/120GB kommt dann auch noch.

Dann geh ich das Thema Tiering nochmal an, allerdings dann ohne SSDs, die lohnen sich einfach nicht richtig… Dann könne ich mi den Expander auch sparen, aber ich bin Neugierig wie das geht, wie der erkannt/eingebunden wird…

Wenn das dann richtig gut rennt kommt evtl. sowas mit 4 * NVME…

Da das mein Hauptrechner wird (wenn die Lüfter mit 6% drehen ist der leiser als mein Desktop in der Firma ! Naja, bei 100% ist es dafür schon an der Schmerzgrenze) will ich einfach einen superschnellen VM store…

- - - Updated - - -

Wow, der SAS Expander sollte laufen (siehe hier)
Das Teil kostet bei servershop24 momentan gerade mal 14,99€ !!!
Very cool !!!
 
Zuletzt bearbeitet:
Die Kingston SSDs (SA400S37/120G) sind zwar günstig, aber auch billig !
Die Write-Performance ist einfach nur schlecht !
Die Teile werden mit „bis zu 320 MB/s“ Schreibgeschwindigkeit beworben, davon sind sie aber weit entfernt. Einen Einzeltest habe ich nicht gemacht, aber selbst im Raid0 (!!!) mit allen 4 (!!!) bekomme ich auf nicht mal 300MB/s (!!!) am Smart-Array mit 2GB FBWC (!!!).
Ich kenne jetzt die HP-Controller nicht, aber bei LSI ist der Standard, dass die Plattencaches abgeschaltet werden (Disk Cache Policy=Disable). Es soll der sichere Batteriegepufferte Cache des Controllers verwendet werden. Das kann sich bei SSDs deren Performance sehr vom internen Cache abhängt stark auswirken. Gibt es so eine Einstellung bei HP auch?

Kleine SSDs sind tendenziell eher ungünstig. Größere Modelle können intern mehr Chips parallel ansprechen.

Ich komme mit einem SAS2108 basieren controller bei 4 x Crucial CT525MX3 im RAID10 in einer Windows ESX VM auf folgende Werte.

Code:
-----------------------------------------------------------------------
CrystalDiskMark 5.2.1 x64 (C) 2007-2017 hiyohiyo
                           Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 bytes/s [SATA/600 = 600,000,000 bytes/s]
* KB = 1000 bytes, KiB = 1024 bytes

   Sequential Read (Q= 32,T= 1) :  1759.855 MB/s
  Sequential Write (Q= 32,T= 1) :   615.167 MB/s
  Random Read 4KiB (Q= 32,T= 1) :   173.612 MB/s [ 42385.7 IOPS]
 Random Write 4KiB (Q= 32,T= 1) :    84.958 MB/s [ 20741.7 IOPS]
         Sequential Read (T= 1) :   687.855 MB/s
        Sequential Write (T= 1) :   557.810 MB/s
   Random Read 4KiB (Q= 1,T= 1) :    22.805 MB/s [  5567.6 IOPS]
  Random Write 4KiB (Q= 1,T= 1) :    39.807 MB/s [  9718.5 IOPS]

  Test : 1024 MiB [C: 62.3% (43.1/69.2 GiB)] (x5)  [Interval=5 sec]
  Date : 2018/06/04 20:30:54
 
Ich kenne jetzt die HP-Controller nicht, aber bei LSI ist der Standard, dass die Plattencaches abgeschaltet werden (Disk Cache Policy=Disable). Es soll der sichere Batteriegepufferte Cache des Controllers verwendet werden. Das kann sich bei SSDs deren Performance sehr vom internen Cache abhängt stark auswirken. Gibt es so eine Einstellung bei HP auch?
Same thing, auch per default disabled, hab ich aber schon enabled...

Code:
   Sequential Read (Q= 32,T= 1) :  1759.855 MB/s
  Sequential Write (Q= 32,T= 1) :   615.167 MB/s

sowas schaff ich mit meinem SmartCache-Array auch, sogar auf den HDs (halt mit 1 TB SSD Cache ;-) deswegen dachte ich es geht zumindest in diese Richtung, aber die Dinger sind scheinbar echt lahm...
Man bekommt halt genau das was man bezahlt !

Egal, hab wieder was gelernt: SSD ist nicht gleich SSD !

Bin gerade wieder total im Bastel-Modus, ich hab echt mal wieder richtig Spaß...
 
Zuletzt bearbeitet:
Das die SA400S37 da eingeht, wundert mich nicht, wenn ich mir die Specs, Preise und Zielsegment anschau.

Btw, als Cachedrive setze ich (für ZFS L2Arc und Slog, Storagespaces setze ich nicht ein und kann ich auch nicht beurteilen) lieber eine einzelne ordentliche SSD ein: Intel 900p oder 905p. Das Ding rennt einfach "dreimal Wahnsinnige", egal ob lesend oder schreibend oder gemischt. Beim richtigen Workload zieht das Ding gnadenlos jedem Flashdrive, auch wirklich guten NVME-Karten, davon.
Seit ich die Optane hab, jucken mich Sync-Writes bei ZFS nicht mehr. :fresse2: Einfach "draufdonnern" auf den Pool.
 
Zuletzt bearbeitet:
Ist schon richtig: Gesamtschreibvolumen = 40TB !
Naja, da kommt jetzt mein System drauf, im Raid1 mit 2 Hotspare, das sollte reichen...
Swappen sollte die Kiste mit 64GB ja eher weniger, und wenn doch kommt das Swap auf ne andere SSD, hab noch eine SSD hier rumliegen.
Der Rechner hat ja 8*SFF und 6*LFF, und mit dem SAS Expander geht sogar alles (hoffe ich).
 
So, Mist, eben wieder Geld ausgegeben... eine 970EVO als schneller Cache für das Storage Tiering

als Cachedrive setze ich lieber eine einzelne ordentliche SSD ein: Intel 900p oder 905p

Jupp, sehr cooles Teil !!!
Da hab ich schon kurz gezuckt ! Aber ist mir dann doch zu teuer... Die 970 kostet wesentlich weniger (<100€) aber ist schon sehr nah dran.
Da ist das BangPerBuck deutlich besser, zumindest für mich / meinen Homeofficelabrechner ;-)

Jetzt kommt die NVME-SSD morgen schon, aber der NVME-China-Adapter braucht noch 3 Wochen :-(
Ich fühl mich wie ein Kind vor Weihnachten (das dauert ja noch sooooo lange !)
 
"Penny-wise, pound-foolish". Wegen 6-10 Euro Ersparnis 3 Wochen warten... wäre jedenfalls nicht meins. :d
 
Naja, muss eh auf Dienstreise, bevor ich fliege hab ich keine Zeit, und wenn ich wieder komme ist alles da ;-)

- - - Updated - - -

hab mir gerade mal dein Win10 GPU-/USB-Passthrough-VM angeschaut.
Das ist ja extrem cool... Genau sowas würde ich mir wünschen !
In meinen ML steckt ne GTX960 die gerade unter Svr2016 nicht erkannt wird, aber mit ESXi und ner Win10 VM wäre ich wirklich glücklich.
Super coole Idee, probier ich dann wohl auch mal aus !

- - - Updated - - -

gerne auch mit Srv-2016 und Hyper-V...

- - - Updated - - -

Gibts bei der Freien ESXI 6.7 Variante nicht Beschränkungen ?
Ich hab da 2 CPUs mit je 10 Cores, könnte zu viel sein... Muss ich mal Frau Google fragen

- - - Updated - - -

Mist: "Maximum vCPUs per virtual machine: 8"

- - - Updated - - -

Ich sollte aufhören hwluxx zu lesen, so viele geniale Ideen hier und resultierende dumme Gedanken bei mir !!!
 
:) Ein glück habe ich nicht so viel zeit wie du sonst würde das bei mir zuhause auch so aussehen ....
 
Ich hab ja gar nicht viel Zeit ;-)
Das geht von meinem Schlaf ab :-(
Aber das isses wert !
 
jo, is bei mir genauso.... Schlaf wird überbewertet.

Was meinst Du übrigens damit, dass deine 960 unter Server 2016 nicht erkannt wird? Gar nicht (taucht nicht im Gerätemanager auf)? Dann ist m.E. irgendwas grundsätzlich verkehrt.

Edit: sorry, ist ja eher offtopic hier. Je nachdem vielleicht in den Hyper-V oder den ESXi-GPU-Passthrough Thread wechseln... ;)
 
Zuletzt bearbeitet:
ganz kurz nochmal off-topic: ja, nicht mal im geräte manager...
einen schritt zurück: da der 4. lüfter noch nicht da ist kann ich noch keine 2. cpu einbauen (grrr, die 2 liegen auf dem schreibtisch und warten), daher rennt der ML noch mit einer einzigen 2620-v1, und daher ist evtl. die hälfte der pci-slots noch "blind und taub" (nur mit 2 cpus gehen wohl alle slots)...
das problem sitze ich mal aus bis ich wieder zuhause bin und alle komponenten hier sind (der sas-expander fehlt auch noch, ein paar sas-kabel auch).
aber das gehe ich 101% an: die GPU in ner VM !!!
 
Zuletzt bearbeitet:
Jau, dann wird die Graka in einem der Slots von der 2. CPU stecken.
 
Das gehe ich an wenn alles da und verbaut ist.
Momentan betreibe ich die Kiste eh noch über iLO.
 
Hmmm, ich habe gestern den 4. Lüfter bekommen und die neuen CPUs eingebaut, aber trotz 2. CPU wird die Grafikkarte nicht erkannt (die war aber eh schon in einem CPU 1 Slot) ?!?
Ich kam aber nicht mehr dazu Slots zu tauschen, mache ich evtl. morgen (je nach Zeit).

Evtl. ist es ja auch die Stromversorgung ?
Ich habe einen 6-Pol Poweradapter zwar angeschlossen, weiss aber nicht ob der auch geht.
Müsste eine Grafikarte auch ohne den externen Anschluss zumindest erkannt werden ?
Über PCIe gehen ja schon mal 25W-75W, die GTX960 braucht im Idle 10W-15W, das sollte ja locker reichen !

Hat schon mal jemand eine Consumer-Karte im ML350p-G8 am Rennen gehabt ?
Wenn ja, in welchem Slot ? Slots hat die Kiste ja genug (9 ;-)
Macht es Sinn die Karte bei CPU 1 oder CPU 2 einzustecken oder ist das total egal ?
Ich hätte gerne die Slots von CPU 2 benutzt, die liegen weiter oben, da brauch ich nur ein kurzes Kabel / bin freier in der Position des Monitors, und die Wärme der Grafikkarte zieht nicht durch den ganzen Rechner über die CPUs nach oben...

Dass die Karte defekt ist glaube ich nicht, die lief vor kurzem noch als eGPU an meinem Laptop ohne Probleme...
Das probier ich dann aber auch nochmal dort aus !
 
Ich habe jetzt nochmal neu installiert, 2 der SA400S37/120G im Raid1, die beiden anderen Hot Spare.
Das hier meint CDM:
A400_120G.JPG
(Am P420i/2GB mit 20% read und 80% write)
 
Zuletzt bearbeitet:
Hmm, um die Kiste etwas aufzurüsten habe ich mir einen G7 drive-cage gekauft. Einer für G8 kostet das X-fache !!

Wird das passen ?
Vor allem das Power-Kabel !

1x Cage 496074-001
2x Cable 498426-001
1x Cable 602507-001

Und ein paar davon zum Spielen:
10x HD 418399-001
ist wohl eine ST9146802SS incl G7 Caddy.
Bin mal gespannt, für 8€/Stück, das kann ja nix Gutes sein ;-)
 
Für Dell Server kosten die 146GB-10k SAS Platten inkl. Caddy auch nur 7€. Lohnt sich alleine für die Caddies (zahlste teilweise 20€ pro caddy woanders).
Ich kann nur sagen die 146GB-10k SAS Platten haben nicht wirklich ne gute Performance. je nach Platte zwischen 70 und 90MB/s (SCSI/SAS/FC/SATA Disks Performance Data...)
 
Hatte ich so auch erwartet... Langsam, aber gut genug zum Basteln und probieren...
 
Kennt jemand die Steckerbelegung (Stromkabel) ?
Wie bekäme ich denn ein G8 LFF Cage bestromt (SAS Kabel hab ich inzwischen massig)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh