JohnnyBGoode
Enthusiast
Thread Starter
- Mitglied seit
- 29.01.2010
- Beiträge
- 1.122
Hallo,
ich schildere zunächst mein bisheriges Windows-Setup:
Als "Server" ist folgende Hardware vorhanden:
- Xeon E5-1650 v4, 6 x 3.60 GHz, 4 GHz Turbo, 6C/12T
- ASRock X99 WS (mit ECC-Support)
- 128 GB UDIMM ECC (läuft mit Multi-bit-ECC)
- GTX 960 2 GB
- Thunderbolt 2-Zusatzkarte für 20 GbE-Netzwerkdirektverbindung
- Intel I350-T4
- Broadcom 9361-8i, 8 x SAS3, PCIe 3.0 x8, mit Stützkondensator
- Intel RES3TV360 RAID Expander (36 x SAS3/SATA III)
- 3 x 8 HDDs, je als RAID6 konfiguriert
- SSD-RAID1 für OS (Windows 8.1)
Als "Client" ist in etwa das gleiche System nochmal vorhanden, nur ohne RAID-Controller und mechanische Festplatten, dafür mit 4 x EVO 850 1 TB-SSDs
Beide Systeme sind in unterschiedlichen Stockwerken und vom Kabelweg (Leerrohre) her etwa 30 m entfernt. Bislang sind sie mit einem normalen 1 GbE-Netzwerk über Switches und direkt mittels Thunderbolt 2-Direktverbindung (Corning-Glasfaser-Kabel) miteinander verbunden (in Windows erscheint dann eine virtuelle 20 GbE-Netzwerkkarte, praktisch sind über SMB etwa 1,4 GB/s möglich, wobei beim ASRock X99 WS aufgrund dessen UEFIs die Thunderbolt-Controller-Karte leider im Chipsatz-PCIe-Slot stecken muss, so dass hier eventell noch DMI 2.0 limitiert).
Was wird mit den Systemen gemacht?
- A/V-Bearbeitung von noch unkomprimiertem Material
- Speicherung von Backup-Images diverser Systeme im Haushalt (Datenintegrität und -verfügbarkeit hat hohe Priorität)
Wo hakt es gegenwärtig?
- Bei gleichzeitiger Aktivität der drei RAID6-Verbunde bricht der Durchsatz des RAID-Controllers trotz ausreichender Bandbreite seitens PCIe und SAS-Expander deutlich ein (Controller-Temperatur maximal 50°C).
- Windows wird mir immer unsympathischer, daher möchte ich von Windows als Server-OS weg. Zu einem Client-Windows ist man gezwungen, wenn man Thunderbolt verwenden möchte, da Intels Thunderbolt-Dienstprogramm unter Windows Server die Installation verweigert.
Überlegungen für Änderungen:
- Wechsel zu ZFS, evtl. unter FreeNAS (Bauchgefühl)
- RAID-Controller zum HBA degradieren (geht das sauber? Hat dann der Stützkondensator noch eine Funktion?)
- 2 x Intel Optane-Karten mit je 480 GB als ZIL und L2ARC (im RAID1), um die mechanischen Festplatten zu entlasten
- Statt Direktverbindung mit Thunderbolt, Direktverbindung mit zwei Intel XL710-QDA2 (QSFP+)-Karten, um weniger proprietäre Netzwerktechnik einzusetzen
- Bislang soll nur ein "forderndes" Client-System bedient werden, später zwei, daher die Netzwerkkarte mit zwei Ports
- Was ein noch ungewisses Ziel ist, würde gerne das Client-System komplett ohne lokalen Speicher betrieben und das OS (leider noch Win 8.1, wegen Adobe, Office & Co.) über die 40 GbE-Karte vom Server booten, damit man hier auch von den ZFS-Vorteilen wie Kompression und Snapshots profitieren kann. Dann würde ich die 4 Samsung 1 TB-SSDs für OS-Images an einen Port des RAID-Controllers hängen, damit diese nicht durch das DMI 2.0 gebremst werden.
Sonstige Fragen:
- Kann man ein über Netzwerk gebootetes OS in den S3-Modus schicken (natürlich bleibt der Server dabei an)?
- Gibt es für die Intel QSFP+-Karte auch "günstigere" Transceiver-Module? Meine einzige bisherigen Erfahrungen mit Glasfaser sind managed TP-Link-Switche, die mittels 1 GbE-SFP-Modulen zwischen den Stockwerken miteinander verbunden sind (und seit Jahren problemlos funktionieren)
Wäre der 6C/12T-Xeon auf der Server-Seite leistungsfähig genug, um das Netzwerk auszulasten? Auf der Client-Seite kommt eventuell später im Jahr ein TR2-System, bislang war ich aber mit der CPU-Leistung her relativ zufrieden. Mir ist auch ECC-Support wichtiger als das letzte bischen Leistung und vor 2 Jahren war von Ryzen & Co. ja noch nichts zu sehen.
Bin für jede Anregungen dankbar!
ich schildere zunächst mein bisheriges Windows-Setup:
Als "Server" ist folgende Hardware vorhanden:
- Xeon E5-1650 v4, 6 x 3.60 GHz, 4 GHz Turbo, 6C/12T
- ASRock X99 WS (mit ECC-Support)
- 128 GB UDIMM ECC (läuft mit Multi-bit-ECC)
- GTX 960 2 GB
- Thunderbolt 2-Zusatzkarte für 20 GbE-Netzwerkdirektverbindung
- Intel I350-T4
- Broadcom 9361-8i, 8 x SAS3, PCIe 3.0 x8, mit Stützkondensator
- Intel RES3TV360 RAID Expander (36 x SAS3/SATA III)
- 3 x 8 HDDs, je als RAID6 konfiguriert
- SSD-RAID1 für OS (Windows 8.1)
Als "Client" ist in etwa das gleiche System nochmal vorhanden, nur ohne RAID-Controller und mechanische Festplatten, dafür mit 4 x EVO 850 1 TB-SSDs
Beide Systeme sind in unterschiedlichen Stockwerken und vom Kabelweg (Leerrohre) her etwa 30 m entfernt. Bislang sind sie mit einem normalen 1 GbE-Netzwerk über Switches und direkt mittels Thunderbolt 2-Direktverbindung (Corning-Glasfaser-Kabel) miteinander verbunden (in Windows erscheint dann eine virtuelle 20 GbE-Netzwerkkarte, praktisch sind über SMB etwa 1,4 GB/s möglich, wobei beim ASRock X99 WS aufgrund dessen UEFIs die Thunderbolt-Controller-Karte leider im Chipsatz-PCIe-Slot stecken muss, so dass hier eventell noch DMI 2.0 limitiert).
Was wird mit den Systemen gemacht?
- A/V-Bearbeitung von noch unkomprimiertem Material
- Speicherung von Backup-Images diverser Systeme im Haushalt (Datenintegrität und -verfügbarkeit hat hohe Priorität)
Wo hakt es gegenwärtig?
- Bei gleichzeitiger Aktivität der drei RAID6-Verbunde bricht der Durchsatz des RAID-Controllers trotz ausreichender Bandbreite seitens PCIe und SAS-Expander deutlich ein (Controller-Temperatur maximal 50°C).
- Windows wird mir immer unsympathischer, daher möchte ich von Windows als Server-OS weg. Zu einem Client-Windows ist man gezwungen, wenn man Thunderbolt verwenden möchte, da Intels Thunderbolt-Dienstprogramm unter Windows Server die Installation verweigert.
Überlegungen für Änderungen:
- Wechsel zu ZFS, evtl. unter FreeNAS (Bauchgefühl)
- RAID-Controller zum HBA degradieren (geht das sauber? Hat dann der Stützkondensator noch eine Funktion?)
- 2 x Intel Optane-Karten mit je 480 GB als ZIL und L2ARC (im RAID1), um die mechanischen Festplatten zu entlasten
- Statt Direktverbindung mit Thunderbolt, Direktverbindung mit zwei Intel XL710-QDA2 (QSFP+)-Karten, um weniger proprietäre Netzwerktechnik einzusetzen
- Bislang soll nur ein "forderndes" Client-System bedient werden, später zwei, daher die Netzwerkkarte mit zwei Ports
- Was ein noch ungewisses Ziel ist, würde gerne das Client-System komplett ohne lokalen Speicher betrieben und das OS (leider noch Win 8.1, wegen Adobe, Office & Co.) über die 40 GbE-Karte vom Server booten, damit man hier auch von den ZFS-Vorteilen wie Kompression und Snapshots profitieren kann. Dann würde ich die 4 Samsung 1 TB-SSDs für OS-Images an einen Port des RAID-Controllers hängen, damit diese nicht durch das DMI 2.0 gebremst werden.
Sonstige Fragen:
- Kann man ein über Netzwerk gebootetes OS in den S3-Modus schicken (natürlich bleibt der Server dabei an)?
- Gibt es für die Intel QSFP+-Karte auch "günstigere" Transceiver-Module? Meine einzige bisherigen Erfahrungen mit Glasfaser sind managed TP-Link-Switche, die mittels 1 GbE-SFP-Modulen zwischen den Stockwerken miteinander verbunden sind (und seit Jahren problemlos funktionieren)
Wäre der 6C/12T-Xeon auf der Server-Seite leistungsfähig genug, um das Netzwerk auszulasten? Auf der Client-Seite kommt eventuell später im Jahr ein TR2-System, bislang war ich aber mit der CPU-Leistung her relativ zufrieden. Mir ist auch ECC-Support wichtiger als das letzte bischen Leistung und vor 2 Jahren war von Ryzen & Co. ja noch nichts zu sehen.
Bin für jede Anregungen dankbar!
Zuletzt bearbeitet: