[Sammelthread] Server Zubehör Sammelthread (m.2-Adapter, Performance, Kompatibilität...)

besterino

Legende
Thread Starter
Mitglied seit
31.05.2010
Beiträge
7.412
Ort
Wo mein Daddel-PC steht
Hallo,

nachdem wir in verschiedenen Threads schon einige Diskussionen zum Thema SSDs, Adapter, Bifurcation usw. geführt haben und es noch keinen Sammelplatz für Derartiges gibt, starte ich mal versuchsweise einen...

Ich kann auch schon etwas mitgeben, nämlich erste Erfahrungen mit einer recht preisgünstigen 2x m.2 "Adapterkarte" von Supermicro names AOC-SLG3-2M2.

Es ist mir aber leider bisher nicht gelungen, den Adapter so in Betrieb zu nehmen, dass auch zwei gleichzeitig installierte PCIe-m.2-NVMe SSDs erkannt werden. Getestet habe ich das Ganze bisher in drei Systemen jeweils mit einem "passenden" Xeon-Prozessor:

Intel S1200BTLR (Sockel 1155)
Supermicro X11SPi-TF (Sockel 3647)
Dell T130 (Sockel 1151)

Test-SSDs waren eine Samsung SM961 (256GB), eine Intel P600 (256GB) und eine Intel Optane (32GB).

Im Intel-Board wird nur die SSD im "oberen" Slot (=SLOT A) erkannt. Habe hier aber auch noch nicht vertieft weiter getestet, da die Erfolgsaussichten wohl eh eher gering sind.

Bei dem Supermicro-Board habe ich schon diverse mir bisher sinnvoll erscheinende Bios-Einstellungen ausprobiert, insbesondere den OPROM-Modus für den jeweiligen PCIe-Slot (EFI/Legacy) sowie die beiden "NVMe Firmware Source" Einstellungsmöglichkeiten (Vendor Defined Firmware/ und AMI Native Support - siehe Quelle). Laut Adapter User Guide sollte es doch eigentlich gehen: "...add up to two NVMe M.2 SSDs to any X11 motherboard..." ...es sei denn die Supermicro-Freunde hätten die Formulierung so spitzfindig gewählt, dass "up to two" quasi "mindestens eine SSD" abhängig vom Motherboard" heißen soll.... ;) Außerdem ist das Board zickig mit der Optane-SSD. Die findet es in dem Adapter überhaupt nicht, im onboard-m2-Slot hingegen aber schon. Komisch.

Witzigerweise bin ich im - sonst eher zickigen - T130 bisher am "weitesten" gekommen: zum einen hat der einen PCIe-Slot, der schon irgendwie mit "riser..." gelabelled ist. In den hab ich dann natürlich mal prompt den Adapter gestopft. Der Lifecycle Controller (generell ein ziemlich cooles Ding übrigens) findet dann im Hardware-Inventar immerhin zwei PCIe-SSDs!

IMG_3525.jpg

IMG_3526.jpg

IMG_3528.jpg

Im Windows-Setup z.B. findet er aber dann allerdings trotzdem nur die SSD in Slot A als Datenträger.

Die Funktionalität der beiden SSDs habe ich bisher in erster Linie durch BIOS-Bootoptionen und mit Windows 10 Installer getestet. Vielleicht liegt auch darin mein Fehler und die Hardware wird einfach nicht gescheit von der Software erkannt.

Hat vielleicht sonst noch jemand Ideen, was ich probieren kann?

Kleine Anekdote am Rande: Bei Inbetriebnahme des X11SPi-Boards hatte ich versehentlich zunächst UNBUFFERED ECC RAM anstatt registered gesteckt. Lief (booten und Betrieb), obwohl nirgends in einer Docu angegeben. Wenn ich die Kiste nochmal runterfahre, check' ich vielleicht mal, ob dann auch die ECC-Funktionalität aktiv ist (hatte ich seinerzeit vor dem RAM-Wechsel vergessen nachzuschauen).
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin besterino,
es freut mich, dass Bastler mit etwas Liquidität immer wieder was neues ausprobieren.

zum RAM: Registered oder unbufferd hat nichts mit ECC zu tun, sondern betrifft nur die maximal adressierbare RAM-Größe des Systems. In jedem Mainboard läuft unbuffered non-ECC, auch unbuffered ECC - diese Funktion wird ggf. nur nicht genutzt.
"Registered" bedeutet, dass ein zusätzlicher Chip auf dem RAM ist, der den Adressraum z.Teil selbst verwaltet und dem System daher mehr RAM erlaubt: In den meisten Beschreibungen steht z.B: "max 64GB unbuffered, 256GB mit registered". Also sollte Dein unbuffered ECC tadellos mit ECC laufen. Der Ausbau ist nur eingeschränkt ;)
Edit: Und wegen dieser Eigenadressverwaltung (Zusatzchip auf dem RAM) funktioniert Registered RAM in non-Server-Mainboards nicht.

zur SSD-Karte: Aus einem Slot mehrere zu machen geht nur auf zwei Wegen: über einen Switch-Chip oder über bifurcation.
Das liegt daran, dass im Normalfall ein Slot durch die CPU oder den PCH eine PCIe-Root-Adresse erhält. Eine. Wenn zwei Geräte angeschlossen werden erhält das elektrisch gesehen "erste" die Adresse und das wars.
Der Chip träte als Root-Inhaber auf und erlaubt dahinter je nach Chipvariante mehrere neue PCIe-Slots.
Bei Bifurcation wird über CPU/PCH eine weitere Adresse auf den Slot zugewiesen. Das ist jedoch absolut hardwareabhängig, und zwar sowohl von CPU/Chipsatz (wieviele PCIe-Root-Ports gibt es) UND vom Mainboard-Hersteller (Board-Design und Bios). Mein Asrock C2550 z.B. hat vier Root-Ports und nur einen PCIe-Slot. Es werden aber über das Board-Layout zwei Root-Ports für onboard-Komponenten verwendet. Zum Glück war der Support so freundlich, über eine Bios-Modifikation den letzten freien Port im Rahmen einer Bifurcation-Option dem Slot zuzuweisen, so dass im Bios "x8 oder x4/x4" auswählbar wird.
Ich kann bei Deiner Karte nicht erkennen, ob ein Switch-Chip verwendet wird. Ansonsten musst Du im Bios nach PCIe-Einstellungen/Bifurcation suchen und dem Slot eine Doppelrolle erlauben. Ggf. kann es bei der "Riser"-Beschriftung einen Automatismus im Bios geben. Da Dein Board nicht auf der "validated"-Liste von Supermicro steht, ist das im Bios evtl. nicht korrekt programmiert. Also: Support anschreiben, fehlerhaftes Bios monieren ("Riser/bifurcation läuft nicht!") und hoffen.
btw: Ich bin geübter Halbwissender. Technische Details und Fachbegriffe ohne Gewähr ;)

nochmal Edit: Auch die Möglichkeiten der PCIe-Lane-Verteilung ist CPU-abhängig. Ganz kleines Problem bei den 128 Lanes des Epyc: Kann nicht nach Lust und Laune verteilt werden, sondern nur in bestimmten Optionen - genau wegen der verfügbaren Adressierbereiche CPU...
 
Zuletzt bearbeitet:
Ich hab mal stumpf den Supermicro-Support angeschrieben. Mal schauen, was die dazu erzählen.
 
Sorry noch eine Frage zum RAM: kann ich denn prinzipiell unbuffered und registered mischen? Wenn ich dich richtig verstehe, müsste das ja grds. gehen, wenn es nicht "zu viel" wird. Konkret überlege ich, weitere 64GB dazu zu stecken, so dass ich dann insgesamt bei 128GB wäre...

Wahrscheinlich gilt auch da: Versuch macht kluch...?

- - - Updated - - -

@Danielmayer: Danke übrigens auch zum Thema SSD! Dein Post hat mich vielleicht auf die richtige Fährte gebracht, denn ich fürchte, ich habe die wesentliche Einstellung im BIOS leider NICHT vorgenommen. Seite 82 im Manual, wäre wohl unter Chipset-->CPU Configuration gewesen (wer sucht denn da bitte wenn alles andere rund um PCIe/NVMe woanders ist?):

CPU Configuration
IOU0 (II0 PCIe Br1)
This item configures the PCI-E port Bifuraction setting for a PCI-E port specified by the user. The options are x4x4x4x4, x4x4x8, x8x4x4, x8x8, x16, and Auto.
IOU1 (II0 PCIe Br2)
This item configures the PCI-E port Bifuraction setting for a PCI-E port specified by the user. The options are x4x4x4x4, x4x4x8, x8x4x4, x8x8, x16, and Auto.
IOU2 (II0 PCIe Br3)
This item configures the PCI-E port Bifuraction setting for a PCI-E port specified by the user. The options are x4x4x4x4, x4x4x8, x8x4x4, x8x8, x16, and Auto.

Mist. RTFM halt mal VORHER. Aber nein, ich weiß es ja immer selbst (und natürlich auch immer alles besser)...

Aber wenn ich das so richtig verstehe, könnte man das theoretisch für 3 Slots machen... macht theoretisch 1 onboard + 3x2=7 m.2 SSDs... :eek: leider reicht dafür die "Liquidität" zum Testen dann doch nicht. :(

...nächster Test coming up soon(ish).
 
Zuletzt bearbeitet:
Ich hätte jetzt noch scharf überlegt, ob man channel-gruppenweise z.B. 4xunbuffered auf A1-D1 und 4xReg auf A2-D2 mischen kann. Aber ich täts nicht mal probieren ;)
Außerdem ist Registered i.d.R. billiger als unbuffered ECC.
Zu den bifurcation: Das sieht ziemlich heftig aus. Ja, 7 sollten möglich sein und +4 wenn auf dem x16er Slot auch noch ein 4xM2 gefunden wird. Spätestens das wäre ein spannender Versuch: Bifurcation auf x4/x4/x4/x4; passive Risercard x16->x8/x8 und darauf jeweils DualM2.... Vorausgesetzt, das Gehäuse hat einen Sack voll Slotblenden.... 11xM2 auf "go" ;)
 
Zum RAM-Cocktail: Wenn ich die Kiste eh mal offen hab, werd' ich's vielleicht einfach trotzdem mal ausprobieren.

Zur m2-Farm: Tjo, sorry, nicht das nötige Kleingeld. Außerdem: erstmal muss ich ja mal die 2in1 ans Rennen bekommen! :d

Soooo teuer ist so ein AOC-SLG3-4E4T"]4er-NVMe-HBA eigentlich gar nicht (theoretisch): ca. 120 Euro.

Da käme dann aber zum Beispiel wohl noch "ein bisserl mehr" drauf, um die 4 OCulink-Ports auf irgendwas "brauchbares" bis hin zu m.2 zu bringen, also z.B.:

4x Oculink auf u.2 ~15 Euro
4x u.2 auf m.2 je ~35 Euro

...also mal ca. 50 Euro pro Steckplatz = 200 Schleifen nur für Gedöns, um 4 m.2 unterzubringen - bzw. 2 mehr (wie du auf 11 kommst, hab ich noch nicht ganz geschnallt). Und ob's dann mit dem jeweiligen Board überhaupt lüppt, weisste vorher auch nicht sicher. :d

Da warte ich doch lieber, bis meine Asus Hyper x16 mal endlich ankommt (bzw. überhaupt verschickt wird) - das ist von der Karte her ja noch billischer und käme ohne zusätzliches Gelumpe wie Adapter/Kabelage aus. Ich werde berichten (müsste nur noch irgendwo mindestens eine weitere m.2-SSD für Testzwecke auftreiben).
 
Zuletzt bearbeitet:
Na, ich hatte aus dem Handbuch gesehen, dass x16, x8,x8,x8,x4 elektrisch als Slots vorhanden sind.
x16 -> x4/x4/x4/x4,
x8 -> x4/x4,
x8 -> x4/x4,
der native x8 und
der native x4
= zehn aus PCIe-Slots zzgl einer onboard -> 11xM2.
Ich stimme aber zu, dass allein das Zubehör die Wirtschaftlichkeitsbetrachtung gegenüber anderen nativen NMVe-Lösungen fraglich stellt, z.B. das nette Epyc-Barebone von Tyan mit 24xNVMe-SSD-Slots...
 
Zuletzt bearbeitet:
Ah ok.

Ich bin aber offenbar zu doof, das richtig zu konfigurieren. Ich hab den Adapter inzwischen sowohl in Slot 6 und in Slot 3 ausprobiert. Im BIOS alle 3 Settings testweise auf x4/x4/x4/x4 und trotzdem wollte die Karte die 2 SSDs ums verrecken nicht preisgeben. Muss ich wohl auf die Antwort vom Support warten.
 
Um hier mal den "Flow" aufrecht zu erhalten: Großes Lob an den Supermicro-Support, die (wieder einmal) sehr flott geantwortet haben und versuchen, mir zu helfen. ;)

Die haben "für mich" extra einen kurzen Test aufgebaut, bei dem die AOC-SLG3-2M2 in genau dem Slot steckt, wie bei mir (CPU Slot 6):

00_TestSetup.jpg

Die nötigen BIOS-Settings sind an zwei Stellen zu finden:

01_Bifurcation.jpg

01_NVME_setting.jpg

Und dann tauchen (angeblich ;) ) die SSDs schon im Bios auf:

Bios_result.jpg

Muss das jetzt nur noch einmal bei mir nachvollziehen und wohl leider auch noch mal mit anderen SSDs probieren. Immerhin müssen es offenbar nicht zwei identische SSDs sein.
 
Zuletzt bearbeitet:
So liebe Freunde des gepflegten Testmarathons: melde erstes Erfolgserlebnis.

Mit den obigen BIOS-Settings lief es auch mit einem voll bestückten X11SPi-TF, wenn man denn die "richtigen" SSDs benutzt. Ich hatte jetzt in einem letzten Verzweiflungsakt die PM961 aus meinem Daddel-PC geplündert, diese mit einer SM961 gepaart und siehe da:

00_BIOS.jpg

Da sind'se ja! Dann nun (endlich) auch im Windows10 Installer (Tip: shift+F10 öffnet im Installer eine CMD --> "wmic diskdrive get name,model"):

01_win10installer.jpg

Im T130 klappt's leider nicht, wird nur eine von beiden angezeigt:

02_T130_win10inst.jpg

Bisheriges Fazit: keine Intel m.2 PCIe-SSDs für den Einsatz in diesem Adapter verwenden/kaufen - jedenfalls die Optane m.2 und die P600 gehen nicht.
 
Im X11SSH hab ich diese Optionen nicht im Bios. Bifurcation unterstützt wohl also erst der große Sockel 2011 und höher/neuer (3647).
Als E3-Xeon reiht sich der T130 da ein. Eigentlich schade, dass Supermicro das nicht näher spezifiziert. An manchen stellen schreiben sie ja "any X11 Board", an anderen "most X11", auf der Homepage spezifizieren sie ein paar Boards.

D.h. bei E3 bleiben letztlich nur die Zusatzkarten mit Switch-Chip, wie die Amfeltec-Boards z.B. (teuer, laut da Miniquirl zur Belüftung notwendig)
Insofern glaub ich nicht, dass die Asus-Karte in nem E3/115x-Sockel was bringen wird.

Beim X11SSH-CTF finde jedoch diese kleinen Multiplexer-Chips, ich vermute mal die dienen dann zur Abtrennung der Lanes für den unteren x2 PCIE-Slot.

Ich werd mich also von meinem Vorhame "NVME-Raidz" auf dem X11SSH gedanklich trennen müssen, es geht max. ein Mirror 2TB reichen mir aber nit ganz. Ok 3*960pro 2TB würde ich derzeit angesichts der Nand-Preise eh nicht kaufen (da wäre eine Amfeltec-Karte noch der "günstigere" Anteil ;) ). Ausnützen würde ich es wohl auch nit wirklich.
Aber ok, also kommt halt der SAS3008 zu Ehren. Wofür hab ich ihn denn auf dem Board sonst.
 
Zuletzt bearbeitet:
Habe mir mal die Mühe gemacht, vdiverse Manuals zu Supermicro 1151 Boards anzuschauen.

X11SSH-F/LN4F (-)
X11SSH-CTF/TF (-)
X11SSM-F (-)
X11SSL-F (-)
X11SSL-CF/nF (-)
X11SSA-F (-)
X11SSi-LN4F (-)
X11SAT/-F (-)
X11SAE/-F (-)
X11SSZ-F/QF/TLN4F (-)

Achtung: in den Supermicro-Manuals ist ein Typo drin, die schreiben BifurACtion nicht BifurCAtion!

Sieht jedenfalls bei Supermicro mit Sockel 1151 in der Tat eher mau aus. Verstehe ich aber auch ein wenig: mit den 16 Lanes lässt sich eh nicht so viel anstellen...

Die Sockel 2066-Bretter können es zum Teil:
X11SRA/-F/-RF (+)
X11SRM-F/VF (+)

Die W-Xeons haben aber auch schlappe 48 Lanes. Ist schon schade, dass die spannenden Features so viel teurer sind. Werde wohl mal im AMD-Lager schauen, was da so geht. Mehr Lanes beim 4/8-Kerner W2125 kosten im Intel-Lager dann schon gleich 550+ und der bringt dann auch nur noch bisserl vt-d und ECC "zusätzlich" mit.
 
Zuletzt bearbeitet:
Nach der AOC-SLG3-2M2 versuch' ich mal mein Glück mit der ASUS Hyper m.2 X16 - Mein Review dann hier.
 
JFYI, ich hab mal Supermicro angeschrieben wg. Bifurcation auf dem X11SSH-CTF. Lt. den FAQs können die X11SSH es. Es gibt wohl für manche X11SSn ein Bios 2.0c, während das CTF bislang nur 2.0b hat. 2.0c ist als Minimum-Anforderung in einem der Faq genannt.
Die Plattform C236+Xeon sollte x8/x4/x4 können. Der x8 geht ja an den SAS3008, die anderen 8 Lanes an den Slot6.

Na mal sehn auf die Reaktion.
 
Toitoitoi!
 
Also zumindest das ASUS Prime Z370-A unterstützt es für die 16 PCIe 3.0 Lanes der CPU (die der Chipsatzes kann man ja sowieso nur zu max. x4 kombinieren):
Die S. 1151 Boards können es also im Prinzip, aber eben nur für max. 3 Geräte, weil eben nur x8/x8 bzw. x8/x4/x4 möglich sind, aber eben nicht x4/x4/x4/x4. VROC gibt es aber meines Wissens nicht, dies bieten selbst die X299er System dann nicht, wenn eine Kaby Lake-X CPU im Sockel steckt.
 
Zuletzt bearbeitet:
X10SLR-F = „Leider“ Sockel 2011. Aber natürlich immer gut wenn’s dann (doch noch) kommt.

Die Fujitsu ist ein schöner Tip. Würd mich mal interessieren, ob die auch mit den SSDs so zickig ist wie die SM 2M2. Aber die kauf ich mir jetzt nicht auch noch (hab eh schon deutlich mehr m.2 Slots als Datenträger). ;)
 
Zuletzt bearbeitet:
X10SLR-F = „Leider“ Sockel 2011. Aber natürlich immer gut wenn’s dann (doch noch) kommt.

warum leider, CPUs (und Rams teilweise) dafür sind günstig zu haben im 2. market :)

mein 1650v3 schnurrt immernoch ... wüßte nix, was dessen P/L auf 3647 grad angreifen kann ... das Board ist auch sehr günstig ( Supermicro X10SRL-F retail Preisvergleich Geizhals Deutschland ) und mit den FS Carriern auch evtl gut bestückbar (muss ich noch testen, atm zuwenig m2 nvme ^^) - in Theorie gut für 10* 4x (wobei 4-8 schonmal weit ausreichen, denn man muss ja die 40GBit Nic irgendwo einsetzen
der Intel Xeon Silver 4108 (einzig halbwegs sinnvolle P/L) ist langsamer und kostet mehr ^^ - PassMark - Intel Xeon Silver 4110 @ 2.10GHz - Price performance comparison (vom 4110)
 
Zuletzt bearbeitet:
Supermicro hat geantwortet: X11SSH-CTF "nicht validiert" für die 2M2 und "asked Product Manager, he claims "not supported " "
Komisch, das nackte X11SSH-F kann Bifurcartion. Vielleicht schreib ich Ihnen noch, das ich gern gewillt bin selbst zu testen, wenn Sie mir ein BIOS dafür bauen öde ein Beta-BIOS schicken.
Ich bin eigentlich ziemlich sicher: das CTF sicher auch. Oder die haben den nicht teilbaren 8x auf den Slot6 und der SAS3008 hängt auf den Lanes. die sonst 4x/4x teilbar wären.
Wollte schon das BIOS für das kleine SSH flashen. Lt. AMI MM-Biostool sind da die gleichen Module drin. Aber dann fürchte ich, fehlen die Onboard-Chips für SAS und X550 oder ich hab nen Brick, weil Hardwareaddressen und Slotkonfig bissl anders sein müssen.

Bleibt also nur: abwarten, ob das CTF auch ein BIOS 2.0c bekommt oder doch eine Karte mit PLX-Chip nehmen.
Preislich möchte ich aktuell eh noch keine 3x NVME einbauen da Flash teuer derzeit. Aber interessieren würde mich trotzdem.
Werd wohl auf die Intel DC P4501 warten im m.2 Format .
 
Zuletzt bearbeitet:
Auf eine Intel DC P im M.2 Formfaktor wird man wohl lange warten können, da schon deren Controller zu breit für die üblichen 22mm der M.2 SSDs ist. Außerdem erlaubt M.2 nur etwas über 8 Watt, damit kommen die DC P auch nicht aus.
 
Intel® SSD DC P4501 Series (500GB, M.2 110mm PCIe 3.1 x4, 3D1, TLC

Intel SSD DC P4501 2TB, M.2 Preisvergleich sterreich


Nach dem Misserfolg (bislang) mit der 2M2 überlege ich nun, eine AOC-SLG3-2E4 zu testen. PCIe3.0x8 auf 2*U.2. Da das Ding einen PLX-Chip drauf hat, sollte da doch eigentlich nix anbrennen. U.2 könnt ich 2 unterbringen.
Alternativ könnte man ja auch 12Gb/s SAS-SSDs verwenden, da gibts ja welche die durch Bündelung zweier SAS-Ports durchaus knapp 2GB/s erreichen. Wofür hat man denn einen SAS3008 am Board.:d Nur gehts da dann halt schnell in Preisregionen, die fürs Homelab völlig indiskutabel sind.
 
Zuletzt bearbeitet:
Ich hab für ein relativ spezielles Problem ein neues Ding gefunden: wer sehr viele Platten (>8) anbinden will, keine Expander-Backplane im Gehäuse hat und gleichzeitig mit PCIE-Slot-Mangel kämpft: Intel RES2CV240 bzw. RES2CV360. Also ggf. was für mITX/mATX Boards in großen Gehäusen. ;)

Hardware User Guide for Intel® RAID Expander RES2CV240 and RES2CV360

Basiert auf einem LSI Expander Chip, sollte also mit den üblichen Versächtigen/Controllern funktionieren.

Der Expander frisst keinen PCIe-Slot, sondern wird mit „good Old Molex“ mit Strom versorgt und befeuert in der 360er-Variante mindestens 24 Disks. Irgendwo hab ich auch gelesen, dass bis zu 32 möglich sein sollen, was auch dem Support-Doc entspricht, wonach jeder Port Input- und Output-fähig ist. Einen Input braucht man ja mindestens, so dass bei einem 4er-Input dann von 36 insgesamt 32 für Disks bleiben würden.

Ich bin mal gespannt, ein 360er ist aus USA auf den Weg zu mir. Bin auch mal auf den Unterschied beim Stromverbrauch gespannt, da bei mir zurzeit 3 HBAs werkeln und ich gerne zwei Slots für andere Zwecke „zurückgewinnen“ würde.
 
SAS Expander gibt es viele, die belegen alle keine PCIe Slots, weil es eben Expander sind und damit sowas wie bei USB die Hubs. Um einen USB Hub anzuschließen braucht man keinen PCIe Slot, aber eben einen USB Port und genauso braucht man für einen SAS Expander eben mindestens einen SAS Expander muss an einen SAS HBA/RAID Controller (oder wenn kaskadiert eben einem anderen SAS Expander, für den dann aber das Gleiche gilt) als Upstream gehen, damit diese funktionieren und da sich alle Platten am SAS Expander die Bandbreite des Upstreams teilen müssen, sollte es bei so vielen Platten dann besser mehr als eine Port sein.

SATA Platten machen an SAS Expandern gerne mal Probleme, ich würde daher dann die Verwendung von SAS Platten vorziehen!
 
Naja. Sooooo viele, die nicht als Backplane oder PCIe-Steckkarte daherkommen, gibt es eben nicht.
 
@Holt: Dass Expander keinen PCIe-Slot "bräuchten" bezweifelt keiner. Tatsächlich nutzen aber fast alle marktgängigen den PCIe-Slot für die Strombereitstellung -und brauchen also doch einen solchen Slot... Das macht das - seeehr teure - Modell von Intel eben anders.
 
Soooo teuer war der auch nicht. Zumindest nicht gebraucht bei Ebay. ;)

Zu spät gesehen: gibt sogar schon den Nachfolger als 12G-Variante, dann allerdings nicht mehr mit einem Broadcom/LSI Chip (PM8044, siehe hier Seite 11, dafür (neu) deutlich billiger als der alte (neu).

Macht aber nix - ich hab eh noch die alten SFF8087 Kabel und nicht eine einzige SAS3.0 Disk. ;)
 
Gerade wenn man mit Expandern arbeitet, dann ist der schnellere Uplink ein Vorteil, auch wenn die einzelnen Platten selbst die schnelle Schnittstelle gar nicht nutzen können.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh