ASUS WS C246 Pro - Korrekter PCIe Slot für MegaRAID 9271-8i

Tues86

Experte
Thread Starter
Mitglied seit
01.03.2015
Beiträge
453
Ort
Berlin
Hallo zusammen,

ich habe aktuell noch ein ASUS WS C246 Pro Mainboard und möchte dort einen MegaRAID 9271-8i Controller installieren.
An diesem RAID-Controller sind aktuell 4 SSD-Festplatten abgeschlossen.

Meine Frage ist nun, in welchen PCIe-Slot wollte ich den Controller am besten einstecken?

Aktuell läuft der Controller im PCIEX16_3

MfG
Pascal
 

Anhänge

  • MB.png
    MB.png
    41,6 KB · Aufrufe: 61
  • MB_1.png
    MB_1.png
    12,5 KB · Aufrufe: 81
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Womit der Traffic komplett über die Link zwischen CPU und Chipsatz geht. Was relativ ungünstig ist, wenn da noch viel mehr gleichzeitig laufen sollte (Sata-Ports, USB-Traffic, LAN, die anderen PCIe-Slots)

Wenn Du keine Grafikkarte nutzt, PCIEX16_1 . Ansonsten PCIEX16_2 (womit die Karte in PCIEX16_1 nur noch 8 Lanes nutzen könnte, dann musst Du überlegen wo welcher Datentraffic läuft und ggf. priorisieren was Dir wichtiger ist: Grafik mit x16 oder ggf. Engpass-Vermeidung am Chipsatz => kommt dann auf den konkreten Anwendungsfall an).

Mit HDDs wärs nicht so wichtig, weil dann z.B. bei sequentiellen Datenzugriffen eh deutlich weniger Bandbreite benötigt wird als bei SSDs.

Btw, 9271 und ein SSDs-Array? Da würde ich vermuten (ohne es zu wissen), dürfte es düster aussehen mit Trim-Support auf den SSDs.
 
Zuletzt bearbeitet:
Womit der Traffic komplett über die Link zwischen CPU und Chipsatz geht. Was relativ ungünstig ist, wenn da noch viel mehr gleichzeitig laufen sollte (Sata-Ports, USB-Traffic, LAN, die anderen PCIe-Slots)

Wenn Du keine Grafikkarte nutzt, PCIEX16_1 . Ansonsten PCIEX16_2 (womit die Karte in PCIEX16_1 nur noch 8 Lanes nutzen könnte, dann musst Du überlegen wo welcher Datentraffic läuft und ggf. priorisieren was Dir wichtiger ist: Grafik mit x16 oder ggf. Engpass-Vermeidung am Chipsatz => kommt dann auf den konkreten Anwendungsfall an).

Mit HDDs wärs nicht so wichtig, weil dann z.B. bei sequentiellen Datenzugriffen eh deutlich weniger Bandbreite benötigt wird als bei SSDs.

Wow, danke für die schnelle und präzise Antwort auch für mich Laien. o_O
In diesem Rechner wird keine dedizierte Grafikkarte verbaut, daher sind bis jetzt alle PCIe Slots frei.

Also würde ich den Controller jetzt in PCIEX16_1 stecken, korrekt?
Wenn der PCIe 1 frei ist, dann dort. PCIe 3 ist nur x4, die Karte nutzt PCIe 8x.

Gut das ich gefragt habe. :-)
 
Yup, dass kommt noch dazu mit dem x4 Limit, ist aber bei der jetzigen Ausbaustufe mit 4 SSDs noch nicht tragisch.
Gen3x4 kann etwa 3-3,5 GB/s pro Richtung transferieren. Was auch das Limit zwischen CPU und Chipsatz da ist übrigens.

Ohne Graka > nach PCIEX16_1 damit :-)

Btw, wegen dem potentiell fehlendem Trim: Ich hoffe, Du hast da gute, ausdauernde SSDs dran... Einfach-SSDs werden Dir da relativ schnell eingehen oder zumindest deutlich an Performance verlieren.
 
Yup, dass kommt noch dazu mit dem x4 Limit, ist aber bei der jetzigen Ausbaustufe mit 4 SSDs noch nicht tragisch.
Gen3x4 kann etwa 3-3,5 GB/s pro Richtung transferieren. Was auch das Limit zwischen CPU und Chipsatz da ist übrigens.

Ohne Graka > nach PCIEX16_1 damit :-)

So, ich gehe mal umbauen. Ich hoffe der Rest passt.
 
Hin und wieder gab/gibt es im Consumerbereich Boards, die im Grafik-Slot keine Raidcontroller mögen und dann nicht laufen; deren Bios ist dann da nicht drauf ausgelegt.
Meist ist es heute kein Problem mehr, gerade bei einem WS-Board würd ich da eher keine Problem erwarten.
 
Stimmt das mit dem fehlenden Trim am LSI HBA? Ich hatte diesbezüglich schon im ZFS Thread gefragt. Wenn das OS Trim unterstützt, sollte das auch über HBA gehen, so mein Stand? Wobei @gea blieb da relativ wage. Verbaue am LSI aber auch nur noch Datacenter SSD btw. Hatte mal eine 2TB Evo 850 mit ca 15 VMs drauf für einige Jahre. Ohja, das wurde dann echt schnachlangsam mit der Zeit. Wenn ich da unter einem Windows Gast was entpackte, ging das noch mit 5 MB/s.

edit: ah das ist ein HW RAID Controller. Das ist natürlich was anderes.
 
Hin und wieder gab/gibt es im Consumerbereich Boards, die im Grafik-Slot keine Raidcontroller mögen und dann nicht laufen; deren Bios ist dann da nicht drauf ausgelegt.
Meist ist es heute kein Problem mehr, gerade bei einem WS-Board würd ich da eher keine Problem erwarten.

Ist umgebaut und auch schon wieder erfolgreich gestartet. 1000 Danke für die schnelle Antworten.

Anbei mal eine Übersicht vom Server mit WS2019 Standard (Kein High-End)
Vielleicht hat ja noch jemand einen Tipp auf was man groß achten muss, natürlich nicht im Detail.

Hardware-Details:
Intel Xeon E-2244G
ASUS WS C246 Pro
2x 16GB DDR4-2666 CL19-19-19 - ECC
FSP Twins Pro 500W Netzteil
MegaRAID 9271-81 mit 1GB Cache
CPU-Kühler - Alpenföhn Ben Nevis Rev.b
3x Nocua 80mm Lüfter
2x BQ 120mm Lüfter

Festplatten-Details:
2x 1TB SSD WD Blue SA510 - Im RAID1 für C:
2x 2TB SSD WD Blue - Im RAID1 für D:
1x 2TB HDD WD Blue- Kein RAID, nur für

RAID-Details:
Strip Size - 256 KB

Read Policy - No Read Ahead

IO Policy - Direct IO

Current Write Policy - Write Through
Default Write Policy - Write Through

Current Access Policy - Read Write
Default Access Policy - Read Write

SSD Caching - Disabled
 
Zuletzt bearbeitet:
Stimmt das mit dem fehlenden Trim am LSI HBA? Ich hatte diesbezüglich schon im ZFS Thread gefragt. Wenn das OS Trim unterstützt, sollte das auch über HBA gehen, so mein Stand? Wobei @gea blieb da relativ wage. Verbaue am LSI aber auch nur noch Datacenter SSD btw. Hatte mal eine 2TB Evo 850 mit ca 15 VMs drauf für einige Jahre. Ohja, das wurde dann echt schnachlangsam mit der Zeit. Wenn ich da unter einem Windows Gast was entpackte, ging das noch mit 5 MB/s.

edit: ah das ist ein HW RAID Controller. Das ist natürlich was anderes.

ZFS konnte Trim schon fast seit Anbeginn - allerdings nur auf Einzelplatten, nicht im Raid. Das Feature ist erst seit 2019 möglich - unabhängig vom Controller da ZFS das macht. Es gibt/gab aber immer wieder mal Berichte über Probleme mit einzelnen SSDs. Meist gehen Enterprise SSD problemlos. Auch die meisten "besseren" Desktop SSD machen keine Probleme.

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh