S2D Cluster mit 2 Nodes

fard dwalling

Experte
Thread Starter
Mitglied seit
22.10.2017
Beiträge
874
Guten Abend zusammen,

für unseren dritten Firmenstandort ist dringend Zeit für ein neues Setup.

Wir würden hier gerne ein S2D Cluster mit 2 Nodes aufbauen.
Je Server folgende grobe Ausstattung:
2x 8 Core
64GB RAM
2x 2TB NVMe Cachedrive
6x 6TB (oder 6x 4TB) HDD Storage

Vermutlich 40 oder 100gbit RDMA Karten für die Cluster Vernetzung.

Hatte mir jetzt mal ein Angebot von Thomas Krenn eingeholt, welches sich schon ganz gut liest.

Hat jemand schon Erfahrung

a) mit S2D Cluster?
b) mit Thomas Krenn Server?

Vielen Dank für eure Ideen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wir haben ein S2D Cluster für unser ERP System und sind sehr zufrieden damit.
Läuft sehr unauffällig und liefert bei uns als reines Flash System eine sehr gute Performance.

Man muss aber jemanden haben, der sich gut damit auskennt. Beim erstellen gibt es eingies zu beachten.

MfG
 
Vielen dank schon mal für seine Erfahrung.
Thomas Krenn bietet wohl komplette ersteinrichtung an. Mal schauen. Ansonsten einfach mal mit befassen.

Bedenken hab ich nur ob der Speicherplatz Größe. Den so 20TB müssten schon an Platz zur Verfügung stehen. Hieße gesamt 80TB brutto zu haben, also in Summe.
 
Thomas krenn ist eine gute wahl. S2D ist auch brauchbar. Je nachdem, was für Anwendungen drauf laufen, solltet ihr euch überlegen wie viel performance ihr ggf. Braucht. Thema all flash z.B.

Edit: Und 80TB schön und gut bedenk aber das das nicht vollumfänglich das Backup ersetzen kann/sollte. :)
 
Zuletzt bearbeitet:
Die 80 wären brutto. Nutzbar bleiben ja nur knapp 20.
Wir haben jetzt noch ein Alternativangebot mit zwei HPE DL385 und einem MSA2052. 2x 800GB SSD, 14x 2,4TB SAS 10k HDDs.
Preislich gar nicht so weit weg und unser Systemhaus hatte einige nicht so feine Erfahrungen mit S2D.
Daher wird es wohl eher das. :-)
 
wir haben erst mitte des Jahres eine MSA2052 gekauft, allerdings als SAS-Version - FC wäre mir lieber gewesen, vlt. beim Update für den andern Serverraum mit de Server gleich mal noch mittauschen ^^

ich hab die mit 17x 600GB SAS Platten gekauft - 2x8Disks im Raid5 + 1x HS - laut Guide von HP
dazu 4x 800GB SAS SSD als "All-Flash" Speicher im 3x im R5 für die SQL-VMs + 1 HS

das Diskarray hat noch 2 "alte" 400er SSDs als Cache bekommen, weil wir die noch hatten.

läuft an sich auch gut, nur ab und an, merkt man dem Ding irgendwie, das es nicht ganz so performt, wie ich das gerne hätte, denke aber in erster Linie, das es an der SAS-Anbindung an die 2 Hosts liegt...
 
Wir würden sie mit je 2x 10/25Gbit als iSCSI an die Hyper V Host anbinden.
An dem einen Standort gibt es nur 10-12 Jahre alte Server die die VMs zum Teil auf andere Replizieren.

An dem anderen (meinem) Standort hab ich ein Qnap Storage welches ich dann auch nächstes Jahr ersetzen möchte.
Ich denke das sollte ganz gut laufen oder?

Bin noch unschlüssig wieviel die SSDs so als Cache bringen oder ob mal lieber direkt wichtige Sachen da drauf legt.
Beim Tiering hätte ich immer Bedenken ob da nicht sie "falschen" Sachen abgelegt werden. :-)
 
Naja gut, auf das was abgelegt wird, hat man ja quasi keinen Einfluß - geladen werden Daten, die häufig in Verwendung sind.

Aber es gibt den VMs durchaus einen merkbaren Performance-Schub. - im Vergleich zum All-Flash natürlich definitiv langsam ^^
Die nächste Ausbaustufe hier wird aber Caching-SSDs in den VM-Hosts und eine Erweiterung des All-Flash ;-)

ggf. einfach da nochmal nachbessern - unsere MSA mit den 17x 600GB und 4x 800GB SSD lag irgendwo im Projektpreis bei <18k
 
Wir sind jetzt bei 14x 2,4TB und 2x 800GB SSD bei um die 18k. Also ähnlich.
Ich bin mal gespannt. ;-)
 
aber die 14x 2,4TB - im welchem Modus sollen die laufen?
laut Guide von HP: 7x Data + 1 Parity für Raid5 - macht also eigentlich 8 Disks... ?
 
Mh sind ja schon 2 platten die ausfallen dürfen und wenn ich am nächsten Tag die Ersatzplatte da hab.. Die Hotspare hat ja schon die gleiche Laufzeit wie alle anderen.
 
Also Probleme mit S2D kann Ich so nicht bestätigen.
Habe hier selbst mehrere Projekte durchgeführt und wir haben das bei größer 10 Kunden in diversen Konfigurationen am laufen. Klar gibt es mehrere Stolpersteine beim einrichten, sobald das aber mal bekannt und entsprechend gehandhabt wurde läuft das.
Bei keinem der Kunden gab oder gibt es hier im Betrieb Probleme.
Das schlimmste was wir mal hatten war ein Projekt mit gebrauchter Hardware (durch den Kunden gestellt) wo leider die Mainboards zweiter Server inklusive deren Firmware nachher nicht identisch waren. Hatten da dann lustige Fehlermeldungen beim Setup. Sofern aber die Hardware baugleich ist gibt es da keine Probleme.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh