Zusammenstellung Server - Optimierung der Netzwerkleistung

numerobis

Enthusiast
Thread Starter
Mitglied seit
13.09.2006
Beiträge
583
Moin,

ich bin grad dabei mir einen neuen Server zusammenzustellen. Es geht um einen reinen Fileserver mit einfachem RAID1 und zwei Backup-Platten.

Ich mache 3D-Visualisierung. Auf den Server greifen eine Workstation und im Renderfall zusätzlich bis zu 10 Rendernodes zu (nur beim Laden der Szenen) Dateigrößen bis um die 5GB aber auch viele kleine Dateien beim Laden der Szenen.
Als Switch habe ich einen Netgear ProSafe GS716T. Geräuschentwicklung ist weitestgehend egal, da das Ding im Keller steht, zusammen mit den anderen 10 Rechnern.

Bisher nutze ich einen Core2Duo 8200 auf P5W64 WS Pro und 4GB RAM. Zwei 2TB-Platten im RAID1 für die Daten und eine 2TB-Platte für Bibliotheken. Zusätzlich zwei 2TB Platten im Wechsel-Cartridge als Backup. (plus nochmal zwei im Wechsel).
Der Hauptgrund für die Aufrüstung ist eigentlich die Plattenkapazität, die mit 2TB mittlerweile zu gering ist. Und wenn ich das Teil jetzt schon umbaue, dann auch gleich auf was aktuelles und sparsameres (Verbrauch liegt momentan so bei stattlichen 120W mit 5 Platten.)


Bisher habe ich folgendes zusammengestellt:

Intel Pentium G3240, 2x 3.10GHz
ASRock Z87 Extreme6 (wegen 2 LAN Ports für Trunking, 4xDDR3, 6+4 SATA6Gb)
2x4GB DDR3 1600MHz aus Altbeständen
Samsung 840 EVO 120GB
SeaSonic G-Series G-360 360W

Und halt die Platten... 4x Toshiba DT01ACA 3TB für die Daten (Raid1 + 2x Backup) - die Bibliotheken bleiben erstmal wo sie sind.


Die Frage wäre jetzt, ob man da generell und vor allem in Hinblick auf möglichst optimale Netzwerkperformance noch was optimieren kann/sollte?!?

Reicht der Prozessor aus oder wäre ein i3 hier besser? Wie gesagt, sollte auch möglichst sparsam sein - auch, wenn er in in Standby geht wenn er nicht gebraucht wird.

Ich habe hier noch mehrere Intel Gigabit CT Karten rumliegen, würde es was bringen, da zwei oder drei von zu trunken anstatt der Onboard-Chips? Oder geht das auch zusätzlich?
Braucht natürlich dann auch wieder mehr Strom...


Danke!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
OnBoard chips kannste oft net richtig bündeln, das meistens zwei verschieden Chips verwendet werden.
Dann lieber eine richtige dual NIC Karte.

Edit: Die Intel CT Karten sind fürn Desktopbereich. Glaube nicht das der Treiber von den Karten trunking oder teaming unterstützt.
 
Zuletzt bearbeitet:
Ok sorry, habe das Board mir nicht angeschaut. Ist halt nur die generelle Problematik bei Trunking oder Teaming wenn zwei verschiedene Chips verbaut sind bzw der native Treiber es nicht unterstützt.
Dann kannste da ruhig die OnBoard LAN Ports holen. Bei 2x 1GBit geht das nicht so wirklich auf die CPU.
 
Zuletzt bearbeitet:
Wäre denn nen Atom genug? Kann man sagen wann die CPU die Netzwerkperformance limitiert?
Billiger als nen Pentium ist das ja nicht gerade... was wäre denn der Vorteil außer dem evtl. etwas geringeren Verbrauch und 4 Lan-Ports?

Die beiden Boards haben aber leider nur 2x SATA3 und kein RAID.
Bzgl. Fernwartung reicht mir eigentlich Remote Desktop - wenn ich mehr machen muss, geh ich halt runter. Hat bisher eigentlich ganz gut funktioniert.
 
Wäre denn nen Atom genug? Kann man sagen wann die CPU die Netzwerkperformance limitiert?
Billiger als nen Pentium ist das ja nicht gerade... was wäre denn der Vorteil außer dem evtl. etwas geringeren Verbrauch und 4 Lan-Ports?

Die beiden Boards haben aber leider nur 2x SATA3 und kein RAID.
Bzgl. Fernwartung reicht mir eigentlich Remote Desktop - wenn ich mehr machen muss, geh ich halt runter. Hat bisher eigentlich ganz gut funktioniert.

die Dinger sind extra so gebaut und nix limitiert da die Netzwerkleistung :)

Vorteil: 7/24 Hardware mit Serverclass NICs und sehr angemessenem Verbrauch (der Preis ist wirklich nicht hoch beim "kleinen", ist ja Mainboard, CPU und NICs in einem)

die Boards haben beide 6* SATA und wenn du Hardware Raid meinst, nein, das hat aber auch kein Consumer Board (wenn du das "Intel onboard Raid" meinst, das ist rein Software)

hier mal ein etwas genauerer Link:

Supermicro | Products | Motherboards | Atom Boards | A1SRM-2558F




p.s. wenn da 10 Rendernodes drauf zugreifen würd ich mir an deiner Stelle eh mindestens ein HW Raid 10 (evtl sogar mit SSD Cache) überlegen
oder nen richtigen ZFS Fileserver aufsetzen (hat aber MASSIV höhere Hardwareanforderungen !!!!! )
lies dir das hier mal durch: http://forums.freenas.org/index.php...l-m500-120gb-vs-intel-330-60gb-as-slog.20463/

es ist zwar recht speziell aber zeigt den Performanceschub durch SSds

Zitat:

Without an SLOG device

Transfer size Operations / sec avg. access time max. access time avg. Speed
512 bytes 115 IOPS 8.643 ms 51.265 ms 0.056 MB/s
4 KB 110 IOPS 9.071 ms 57.329 ms 0.431 MB/s
64KB 98 IOPS 10.182 ms 87.282 ms 6.138 MB/s
1 MB 6 IOPS 156.015 ms 493.247 ms 6.410 MB/s
Random 11 IOPS 83.850 ms 397.923 ms 6.051 MB/s



Then we wanted to know if we could increase the performance using an two year old Intel 330 SSD (60GB):

Transfer size Operations / sec avg. access time max. access time avg. Speed
512 bytes 2844 IOPS 0.351 ms 5.678 ms 1.389 MB/s
4 KB 2252 IOPS 0.443 ms 5.139 ms 8.798 MB/s
64KB 865 IOPS 1.168 ms 8.031 ms 53.476 MB/s
1 MB 95 IOPS 10.421 ms 185.222 ms 95.956 MB/s
Random 167 IOPS 5.966 ms 147.249 ms 85.03951 MB/s
 
Zuletzt bearbeitet:
Welchen Vorteil haben denn "Serverclass NICs"? Bessere Performance? Bessere Stabilität? Macht das wirklich was aus?
Bzgl. SSD-Cache: Geht das auch unter Windows? Wahrscheinlich nicht. Ich wollte die Sache eigentlich möglichst einfach halten und bei RAID1 und auch bei Win 7 (Pro x64) bleiben.

Hab schon alles abgesucht nach Vergleichen verschiedener Prozessoren in Verbindung mit Hard- oder Software-RAID - leider ohne wirklichen Erfolg...

Noch eine Frage... geht Link Aggregation eigentlich auch mit Onboard + PCI Karten? Kam nur gerade drauf, weil das QNAP hier es mit 2x Onboard + 2x per Karte ermöglicht QNAP TS-470 im Test: Business-taugliches 4-Bay-NAS - Ein NAS für anspruchsvolle Anwender ...aber wahrscheinlich mit 4x dem gleichen Chip. Das QNAP hat nen Celeron.
 
Wenn du ein Raid1 aus zwei platten einrichtest, limitieren doch ohnehin die platten. Du wirst da kaum 150 MB/s erreichen. Da sehe ich den Sinn von 4 NICs nicht. Welche Daten sollen die ausliefern?

Ich finde auch den Atom ziemlich schwach, was die Leistung betrifft. Welchen Nutzen die genannten Boards bringen sollen erschließt sich mir nicht.

Der zitierte Benchmark ist doch von einem zfs Raidz2 volume. Was hat das mit dem geplanten raid1 zu tun?


Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Wenn du ein Raid1 aus zwei platten einrichtest, limitieren doch ohnehin die platten. Du wirst da kaum 150 MB/s erreichen. Da sehe ich den Sinn von 4 NICs nicht. Welche Daten sollen die ausliefern?

Ich finde auch den Atom ziemlich schwach, was die Leistung betrifft. Welchen Nutzen die genannten Boards bringen sollen erschließt sich mir nicht.

Der zitierte Benchmark ist doch von einem zfs Raidz2 volume. Was hat das mit dem geplanten raid1 zu tun?

jup, genau deshalb der Vergleich oben, um ihm zu zeigen, dass mit einem simplen Raid 1 die Netzwerkleistung allein schon durch die HDDs limitiert wird (und zwar sehr stark grad bei mehreren Clients (deshalb sagte ich auch er soll evtl nen Raid 10 mit SSD Cache in Betracht ziehen)

die CPU wird bei HW Raid sogut wie NICHT belastet (Ausnahmen sind Spielereien wie Nappit + Encrypt als SW) ... guck mal auf deinen PC bei 100% Netload (wenn die CPU mehr als 2-3% Last hat, passt was nicht)

Wenn man 10 Clients mit einigermaßen ordentlichen Daten versorgen mag, dann ist ein SW Raid 1 sicherlich NICHT das Mittel der Wahl :) --- selbst ein gebrauchter LSI/3Ware 9750-8i mit Raid 10 wäre ne Option, wegen dessen Multicast Firmware (wobei SSD Read Caching sinvoller wäre)
 
Zuletzt bearbeitet:
Mmmh... ich war ja irgendwie davon ausgegangen, dass ich bei RAID 1 beim Lesen eine bessere Performance hab als nur mit einer Platte... aber irgendwie scheint das nur in Ausnahmefällen zu funktionieren, bzw. vom Controller abzuhängen oder nur unter Linux zu gehen. Hier ist allerdings ein Beispiel, wo es unter Win7 funktioniert: Does RAID 1 actually increase read speed? - NAS / RAID - Storage (ganz unten).
Aber wenn nicht, dann muss ich vielleicht doch nochmal über ein RAID 5 nachdenken. Mir wäre RAID 1 halt am sympathischsten, da ich die Platten zur Not auch einzeln anschließen kann. Und auch die Zeit für nen Rebuild deutlich kürzer ist. Außerdem wollte ich die Sache halt gerne einfach halten.
Wird denn bei parallelem Netzwerkzugriff auch nicht auf beide Platten zugegriffen? Ich dachte, wenn eine Platte beschäftigt ist, würde von der anderen gelesen.

Nochmal zur Zugriffssituation... die Rendernodes greifen nur beim Laden der Szene auf den Server zu, sonst sind sie unabhängig und auch das Speichern der fertigen Dateien aller Rechner geschieht auf der Workstation (Manager) auf einer SSD. Der Manager schickt dann die fertige Datei zum Server. Es gibt also nur Mehrfachzugriff beim Lesen und nur einmalig beim Laden der Szene.
 
Zuletzt bearbeitet:
TEaming zweier oder mehrerer NT geht bei WinServer2012 wunderbar und soll so viel ich weiss auch mit Win8 funktionieren. Werde ich bei gelegenheit mal ausprobieren.
 
Naja, es kommt mir nicht vor allem auf den Preis an, aber ich möchte es schon in einem vernünftigen Rahmen halten - aber wie gesagt hauptsächlich in Bezug auf Aufwand und Sicherheit.
Hier ist übrigens noch ein Bericht zur gesteigerten Leseperformance bei RAID 1 - allerdings unter Win 8: RAID 1 (mirror) read speed as fast as RAID 0 (stripe) | WishMesh

Das H87 Board sieht nicht schlecht aus... hatte ich bisher aussortiert wegen nur einem LAN-Port und nur 6 SATA3 und 2 USB3. Aber vielleicht wären die CT-Karten doch ne Alternative. Ich hatte halt irgendwie im Hinterkopf, dass ich mal Probleme mit denen hatte bzgl. WakeOnLan und auch performancemäßig... aber das kann auch andere Gründe gehabt haben. Aber deshalb hatte ich erstmal auf ne Onboardlösung gesetzt.
Der Celeron ist ja echt günstig... aber ich glaub, da pack ich dann lieber noch ein paar Euronen drauf um wenigstens etwas mehr Power zu haben - für Backup, AV, WinRAR, etc.

Was ist denn von nem SSD-Cache unter Windows zu halten? Funktioniert das auch beim Lesen von häufig genutzten Daten? Dann wäre das evtl. auch noch ne Möglichkeit, wenn alle häufig genutzten Texturen und Materialien aus dem Cache geladen würden... How to: Set up Intel Smart Response Technology (SSD caching)
 
Der Celeron ist ja echt günstig... aber ich glaub, da pack ich dann lieber noch ein paar Euronen drauf um wenigstens etwas mehr Power zu haben - für Backup, AV, WinRAR, etc.

und wo genau siehst du eine Leistungssteigerung zu einem pentium ? .... ich seh keine

seltsam, am mainboard sparen, aber in der CPU mehr ausgeben ..... seltsam
ist wie jemand der statt einem 60ps Auto mit Vollverzinkter Karrosserie eher ein 65PS Blechauto kauft :)

ich denke du musst dir erstmal klar werden, was du willst, bevor wir dir helfen können :)
 
Zuletzt bearbeitet:
Also ich rede hier von 20€ mehr für den Prozessor... und das H87-Board hattest du doch jetzt vorgeschlagen? Ich gehe bisher von nem Z87 für 135€ aus. Und das ich das Atom-Teil nicht so toll finde hat ja nicht nur preisliche Gründe...
 
Guck mal hier rein: Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storage Spaces - ComputerBase Forum Sind zwar "etwas" andere Speicherkapazitäten, aber sonst könnte das für dich ganz gut passen (musst eventuell ein paar Seiten überspringen, es wird viel rumgetestet). Die Datenraten (besonders Lesen) mit den SSD's als Cache sind schon ziemlich krank, und es läuft alles auf einem Atom (ok, 8 Kerner :d) mit AES - ohne Verschlüsselung tuns vielleicht nochmal ein paar Kerne weniger.

Bleibt natürlich noch die Frage, ob du Zugriff auf einen 2012 R2 hast - sonst könnte es teurer werden.
 
Zuletzt bearbeitet:
das ist ja mal einiges an Info... wenn ich denn durchsteige. Danke! Werde mal sehen, ob ich da was raus ziehen kann.

Allerdings wird es mit nem Server 2012 wohl eher nix... hab nur Win 7 hier.

Hab jetzt mal nen Atto Bench beim bestehenden System gemacht, einmal lokal und einmal über LAN - keine Ahnung ob das aussagekräftige Werte liefert, allerdings ist der Unterschied schon krass... Lokal auf dem Server komme ich auf auch schon nicht so pralle 90MB/s max (bei fast komplett gefüllter Partition, falls das das nen Einfluss hat...) und übers Netz nur max 70MB/s - bei den kleineren Dateien siehts noch wesentlich düsterer aus, da kommt nur 1/3 bis 1/5 durch...
Also scheint hier das LAN schon deutlich zu limitieren, warum auch immer - oder ist das normal, dass soviel weniger ankommt?
 
Zuletzt bearbeitet:
Hm zu Windows 7 würde ich in diesem Fall dann aber eher weniger tendieren...
Kauf dir doch lieber ein Windows 8 Pro (+-50€) und mach ein Update auf 8.1.
Das System wird immerhin länger von M$ supportet und gepflegt.

Grüße
Kümmel
 
Welchen Vorteil soll denn jetzt Win 8 haben? Mein ganzes Netzwerk läuft unter Win 7, da stört Win 8 wohl eher nur. Und der Support ist wohl das geringste Problem... 6 Jahre sollten denke ich reichen.
 
interessant... kannte ich noch nicht.
Allerdings sehe ich nicht wirklich einen Nutzen für mich, bei einem neuen System und vor allem in Bezug auf Backup und Organisation... das wird mir ehrlich gesagt alles zu unübersichtlich mit gesplitteten Partitionen usw. Und da kann ich dann auch nicht einfach mal ne Platte an nen anderen Rechner hängen um weiterzuarbeiten, falls da mal was abraucht.
 
Du erkennst wenn das LAN am Limit ist wenn beim lesen / schreiben konstant um die 110 MB /sec anzeigt werden.

Du scheint hier zu glauben das physikalische Limit der Ethernet Verbindung dich limitiert das ist aber so gut wie nie der Fall.
Um sicherzugehen teste mal: Iperf zum Messen der Netzgeschwindigkeit :: network lab


Das lokal etwas schneller ist als SMB ist klar aber so deutlich sollte das nicht ausfallen.

Ich habe hier auch ein kleines NAS allerdings unter ubuntu und die Festplatten alle einzeln (Greyhole gepoolt und mit snapraid Redundanz gegen Festplattenausfall)
Habe jetzt nen atom c2550 davor hatte ich aber nen Ivy-Bridge Pentium und da bin ich selbst mit Verschlüsselung ans Gigabit Limit gekommen (allerdings nur wenn die Festplatten leer waren je voller und damit je weiter innen die Daten liegen nimmt der Speed natürlich ab)
 
Funktioniert irgendwie nur in eine Richtung, mit dem Server als "Client". Nur knapp 400Mb/s!
In die andere Richtung (Server als "Server") bekomm ich immer "connect failed: Network is unreachable" mit Firewalls an oder "connect failed: Connection refused" (jperf 2.02) mit Firewalls aus. :confused:

edit:
Hab jetzt nochmal unter Windows getestet. Beim Verschieben einer 1,5GB Datei komm ich auf rund
85-90MB/s Workstation -> Server
75-80MB/s Server -> Workstation

(laut Windows Anzeige)

Von der "Workstation" zu nem anderen Rechner im Netz komm ich auf etwa 110-115MB/s in beide Richtungen (3930K und 4930K, beide mit SSD) - dann scheint es wohl klar am Server zu liegen...
 
Zuletzt bearbeitet:
Von der "Workstation" zu nem anderen Rechner im Netz komm ich auf etwa 110-115MB/s in beide Richtungen (3930K und 4930K, beide mit SSD) - dann scheint es wohl klar am Server zu liegen...

ich hab mal was markiert :)
 
Wegen der SSDs hab ich ja die beiden genommen und gesagt, dass es wohl am Server liegt. Ich war mir nur bisher nicht sicher, ob nicht beim Netzwerk sonst noch was klemmt.
 
bei normalen HDDs kommt es öfters mal zu Einbrüchen (grad wenn kein Raid 10 oder mehrere zugreifen)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh