Hallo zusammen,
bin neu hier und hoffe mit meiner Frage oder Fragen richtig zu sein.
Hintergrund:
Ich bin gerade dabei mir ein Server-Cluster zusammen zu stellen.
Ist:
Ubuntu 18.04 LTS 2-Node Cluster DRBD Corosync
Soll
Ziel Proxmox 3-Node HA-Cluster mit Ceph.
Meine Isthardware ist nun mittlerweile 6 Jahre alt und aufgrund von einigen Konstruktionsfehlern im Bezug auf Hardwareabstimmung und Clusteraufbau komme ich nun an die Grenzen meiner Möglichkeiten mit diesem Setup.
Grund war teilweise das Mischen von Consumer mit Server Hardware um Kosten zu reduzieren. Aber auch und darauf komme ich noch zurück den Zusammenbau und auf Setup der Server zu erleichtern. Kein HBA kein Hot-Swap und auch keine Backplane / Expander usw.
______________________________
Nun bräuchte ich Hilfe im Bezug auf die Konstruktion. Im speziellen bei der Abstimmung Chassis / Backplane / HBA / NVMe
Hier fehlt mir Detailwissen, da ich hiermit noch nichts gemacht habe.
Chassis:
Ich brauche ich ein EATX Chassis mit Backplane die NVMe möglich macht.
Ich benötige zu beginn 4 nvme die ich bis auf 8 ausbauen kann.
Ich hatte noch keine NVMe in der Hand.
Welches Kabel geht von NVME zur Backplane?
Mit welchem SFF- Kabel wird Backplane mit HBA verbunden?
Brauche ich überhaupt einen HBA?
Oder gibt es die Möglichkeit Backblane mit Motherboard ohne HBA mit vollem Durchsatz zu verbinden?
Als Nvme dachte ich folgende
3200GB Micron 9300 MAX sequentiel (r/w 3500/3100)
Hier stellt sich mir die Frage, wie viele Platten hänge ich auf einen HBA 4.0 16x mit 31,5 GB/s das durch die Schnittstelle möglich ist?
write 3100*8/1000=24,8 GB/s
Wenn ich mit der sequentiellen Möglichkeit rechne, nutze ich ja schon fast mit einer Platte die volle Bandbreite des PCI 4.0 16x.
Oder habe ich einen Rechenfehler oder gar Denkfehler?
Wenn dem so ist, welche Option habe ich alles aus 4 Platten als Ceph-Pool herauszuholen?
Gibt es eine HBA Empfehlung von euch?
Vielen Dank für eure Hilfe
bin neu hier und hoffe mit meiner Frage oder Fragen richtig zu sein.
Hintergrund:
Ich bin gerade dabei mir ein Server-Cluster zusammen zu stellen.
Ist:
Ubuntu 18.04 LTS 2-Node Cluster DRBD Corosync
Soll
Ziel Proxmox 3-Node HA-Cluster mit Ceph.
Meine Isthardware ist nun mittlerweile 6 Jahre alt und aufgrund von einigen Konstruktionsfehlern im Bezug auf Hardwareabstimmung und Clusteraufbau komme ich nun an die Grenzen meiner Möglichkeiten mit diesem Setup.
Grund war teilweise das Mischen von Consumer mit Server Hardware um Kosten zu reduzieren. Aber auch und darauf komme ich noch zurück den Zusammenbau und auf Setup der Server zu erleichtern. Kein HBA kein Hot-Swap und auch keine Backplane / Expander usw.
______________________________
Nun bräuchte ich Hilfe im Bezug auf die Konstruktion. Im speziellen bei der Abstimmung Chassis / Backplane / HBA / NVMe
Hier fehlt mir Detailwissen, da ich hiermit noch nichts gemacht habe.
Chassis:
Ich brauche ich ein EATX Chassis mit Backplane die NVMe möglich macht.
Ich benötige zu beginn 4 nvme die ich bis auf 8 ausbauen kann.
Ich hatte noch keine NVMe in der Hand.
Welches Kabel geht von NVME zur Backplane?
Mit welchem SFF- Kabel wird Backplane mit HBA verbunden?
Brauche ich überhaupt einen HBA?
Oder gibt es die Möglichkeit Backblane mit Motherboard ohne HBA mit vollem Durchsatz zu verbinden?
Als Nvme dachte ich folgende
3200GB Micron 9300 MAX sequentiel (r/w 3500/3100)
Hier stellt sich mir die Frage, wie viele Platten hänge ich auf einen HBA 4.0 16x mit 31,5 GB/s das durch die Schnittstelle möglich ist?
write 3100*8/1000=24,8 GB/s
Wenn ich mit der sequentiellen Möglichkeit rechne, nutze ich ja schon fast mit einer Platte die volle Bandbreite des PCI 4.0 16x.
Oder habe ich einen Rechenfehler oder gar Denkfehler?
Wenn dem so ist, welche Option habe ich alles aus 4 Platten als Ceph-Pool herauszuholen?
Gibt es eine HBA Empfehlung von euch?
Vielen Dank für eure Hilfe