Workstation/Server-Konfiguration f. CAD-System - Fragen u. Kaufberatung

andichen

Enthusiast
Thread Starter
Mitglied seit
21.09.2007
Beiträge
2.675
Ort
Brändenburgh
Hallo Leute,

und zwar soll für ein KMU (kleines, mittelständisches Unternehmen) eine PC-Infrastruktur eingerichtet werden. Maßstab für die „Dimensionierung“ soll das Programm Autodesk Inventor (CAD) sein. Ausgangsbasis sollen 6 Clients und 1 Server sein. Der Server soll primär nur die CAD-Daten speichern, welche durch das Programm Autodesk Vault, welches auf einem SQL-Server basiert, verwaltet werden.

An dieser Stelle möchte ich schon mal sagen, dass es sich im Folgenden nicht um „Workstation-/Serverhardware“ im klassischen Sinne handelt. Das Thema habe ich deshalb hier platziert, weil es, wie eigentlich immer, so ist, dass der Anspruch an die Hardware größer ist, als Bereitschaft auch die entsprechenden Kosten zu tragen, um es mal etwas abmildernd zu formulieren… Ihr wisst ja, was ich meine… ;)

Aus eigener Erfahrung und meiner Vorstellung habe ich mir die folgenden Konfigurationen überlegt:

„Workstation“:

Code:
Pos.	Bauteil	      Anzahl	Modell
1	Gehäuse	        1       Cooltek K2 Rev. B
2	Netzteil	1	be quiet Straight Power 400W ATX 2.3 (E7-400W/BN113)
3	Mainboard	1	MSI H55-GD65, H55 (dual PC3-10667U DDR3) (7637-020R)
4	CPU	        1	Intel Core i5-650, 2x 3.20GHz, boxed (BX80616I5650)
5	Speicher	2	Kingston ValueRAM DIMM Kit 4GB PC3-10667U CL9 (DDR3-1333) (KVR1333D3N9K2/4G)
6	Festplatte	1	Western Digital Caviar Black 500GB, SATA II (WD5001AALS)
7	Optisches LW	1	LG Electronics GH22NS50, SATA, schwarz, bulk
8	Frontpanel	1	SilverStone FP35 schwarz, 3.5" Multifunktionspanel
9	Systemlüfter	1	Scythe S-FLEX 800, 120x120x25mm, 800rpm, 57m³/h, 9dB(A) (SFF21D)
10	Grafikkarte	1	Unberücksichtigt: Wird von alten PCs übernommen.

Bei den von den von den alten PCs übernommenen Grafikkarten handelt es sich um ATI Fire GL V5600

„Server“:

Code:
Pos.	Bauteil	        Anzahl	Modell
1a *)	Gehäuse	        1	Cooltek K2 Rev. B
2	Netzteil	1	be quiet Straight Power 400W ATX 2.3 (E7-400W/BN113)
3	Mainboard	1	MSI H55-GD65, H55 (dual PC3-10667U DDR3) (7637-020R)
4	CPU	        1	Intel Core i3-530, 2x 2.93GHz, boxed (BX80616I3530)
5	Speicher	2	Kingston ValueRAM DIMM Kit 4GB PC3-10667U CL9 (DDR3-1333) (KVR1333D3N9K2/4G)
6	Festplatte	4	Western Digital Caviar Black 500GB, SATA II (WD5001AALS)
7	Controller	1	Adaptec RAID 2405 retail, PCIe x8 (2260100-R)
8	Wechselrahmen	1	RaidSonic Icy Box IB-554SSK, SAS/SATA II Wechselrahmen (55104)
9	Optisches LW	1	LG Electronics GH22NS50, SATA, schwarz, bulk
10	Frontpanel	1	SilverStone FP35 schwarz, 3.5" Multifunktionspanel
11	Systemlüfter	1	Scythe S-FLEX 800, 120x120x25mm, 800rpm, 57m³/h, 9dB(A) (SFF21D)
12	Controllerlüfter1	SilenX iXtrema Pro, 40x40x20mm, 3500rpm, 10.19m³/h, 14dB(A) (IXP-13-14)
13	Grafikkarte	1	Auf CPU vorhanden

Da bereits ein 19“ Serverschrank vorhanden ist, wäre es auch möglich, die Hardware in einem 19“-Gehäuse zu platzieren. Hierfür würde ich das Chenbro RM42300, 4HE, wählen.

Als Betriebssystem soll jeweils Windows 7 Professional zum Einsatz kommen.

Als Raid würde ich aus den 4 WD Blacks ein Raid 1+0 (10) einrichten, da es meiner Meinung nach für diese Zwecke einen guten Kompromiss aus Redundanz und Geschwindigkeit darstellt. Daraus würde sich dann eine Kapazität von 1TB netto ergeben. Die Datensicherung erfolgt dann über eine externe Festplatte.

Die Gesamtkosten für die Hardware lägen nach meiner Rechnung bei ca. 6000 Euro.

Meine Fragen hierzu:

1. Hättet ihr noch irgendwelche Änderungsvorschläge/Bedenken zur Hardware? Wenn ja, gäbe es im Rahmen des Budgets Änderungsmöglichkeiten?

2. Der Server bzw. SQL-Server muss vor allem sehr viele kleine Dateien verwalten. Gäbe es im Rahmen der Möglichkeiten günstigere Raidkonfigurationen? Hat jemand Erfahrungen mit Raid 1+0 (10)? Welche Stripesize würdet ihr hierbei empfehlen? Bei kleinen Dateien wird ja gemeinhin eine kleine Stripesize empfohlen. Also bei Adaptec ist wohl 256kb der Standard. An dieser Stelle würde ich persönlich auf 64kb gehen. Afaik konnte ich damals bei meinem damaligen Adaptec 3405 für ein Raid 1 keine Stripesize einstellen. Wäre es evtl. möglich, für das die beiden Raid 1 umfassende Raid 0 eine andere Stripesize einzustellen?

3. Kennt jemand Hot-Swap-Backplanes für 3,5“-Platten welche den I²C/SGPIO-Bus des Adaptec 2405 unterstützen und in 3x 5,25“ Slots passen? Also ich habe eine ganze Weile gesucht, aber so gut wie nichts gefunden. Daher habe ich erst mal ein Raidsonic gewählt, weil es das nächstbessere wäre. Da ist leider das Problem, dass man im Fehlerfalle am Backplane anhand der LEDs nicht sehen kann, welche HDD controllerseitig defekt ist bzw. die Festplatte nicht genau identifizieren kann. So müsste man diese halt beschriften, um bei Bedarf die richtige zu ziehen.

Natürlich wäre ich auch für sonstige sachdienliche Hinweise dankbar…

Danke im Voraus und einen schönen Tag noch… ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zum einen würde ich mehr RAM und eine stärkere CPU für die CAD PC´s empfehlen zum anderen einen Server von einer Professionellen Firma.
Denn wenn ich das richtig sehe denn hast du ein DesktopBoard genommen wofür es in der Regel keine verifizierten treiber für Serverbetriebssysteme gibt. Und wenn schon sollten die HDD´s mindestens für 24/7 verifiziert sein.
Über die Grafikkarten kann ich wenig sagn da ich da wenig Ahnung habe, aber ich glaube nicht das "alte Grafikkarten aus alten Rechnern" noch genug Power mitbringen.

Ps: Das RAID 10 ist eine sehr gute Wahl für Datenbanken.

lg

Edit: sehe grade hast 8 GB RAM für die Clients, hatte nur 4 gelesen *sorry*, 8 GB sind okay :)
 
Zuletzt bearbeitet:
Joa, also 8GB Speicher sind gegenwärtig eig. schon das Optimum vom Preis-/Leistungsverhältnis. Allein schon, wenn ich statt 4 Modulen à 2GB 2 Module à 4GB (zertifiziert (!)) nehmen würde, um später evtl. auf 12 oder 16GB aufrüsten zu können, würde das schon fast das Doppelte kosten. Es gibt nämlich nur ein einziges zertifiziertes 4GB-Modul für dieses Board. Natürlich könnte ich auch unzertifizierte Module nehmen, aber da ist eben immer noch das Restrisiko dabei, was ich ungern auf mich nehmen möchte.

Bei der CPU-Leistung ist auch wieder der Preis die Limitierung. Allerdings könnte man diese CPU sicherlich gefahrlos noch um 300-400MHz übertakten und das CAD-Programm kann mit Mehrkernprozessoren noch nicht so viel anfangen. Von daher denke ich, dass diese CPU noch sehr gut im Rennen sein sollte.
Zu diesem Thema liegen mir auch professionelle Lösungen vor, allerdings kosten diese insgesamt ca. 4000 Euro mehr und sind nicht signifikant leistungsfähiger.

Für den Server wollte ich auch das Win 7 Pro nehmen (nicht hauen ;)) Diese Anwendung rechtfertigt einfach kein Serverbetriebssystem...

Ok, also die 15 Euro/Stück mehr für RE3 WDs für den Server wären sicherlich noch drin und sinnvoll... Komischerweise haben die nur den halben Cache.. Hm..na ja...

Die Grafikkarten sind eigentlich noch ziemlich aktuell. Leistungsmäßig müssten die so auf dem Niveau der QuadroFX 1800 liegen.
 
Stimmt Raid 1 sollte beim Server für das OS dabei sein, allerdings ist Raid5 sehr Suboptimal für eine Datenbank.
und der Cache der Festplatten ist ja auch nur der Schreibcache, das kannst du durch etwas mehr Cache am Controller noch ausgleichen.
Aber SSD´s, 12 GB RAM und eine 4Fach NIC für nen kleinen Datenbankserver sind nicht nötig.
Aber um das sicher sagen zu können müsste man etwas mehr über die Belastung erfahren.
 
Mal so gefragt:
Was kostet so ein CAD-Ingenieur pro Stunde?
Was kostet es die Firma wenn der selbstgebastelte Server ausfällt und man ein paar Tage braucht um den wieder hinzufrickeln?
Hast du mal mit der Firma über solche Fragen gesprochen?

Alle reden immer nur darüber wie man die Hardware noch ein bisschen billiger bekommt, Tatsache ist aber das 80% der Gesamtkosten erst NACH dem Hardwarekauf entstehen.

Backbone
 
Ich denke aber da würde eine DualNic ausreichen selbst bei ständig 6 zugreifenden Clients. Der TE kann sich ja dazu mal äußern.
 
Also den Server würde ich ein Board mit 2 CPUs nehmen und Genug Ram so min 12GB.
Für die Festplatten solltest du für das System eine Spiegel mit 2 SSDs Machen.
Beim Speicher hast du wie wahl (die sinvoll ist) zwischen raid5 oder raid 10. Ich würde raid 5 empfehlen da beim raid 5 die Sicherheit und die Gewschwindigkeit ein gutes verhältnis haben. Bei den Festplatten für das Speichern der Daten solltest du eventuell über SAS Festplatten Nachdenken die Sind zwar teure aber sind natürlich besser. Wenn nicht würde ich festeplatten aus der Enterprise Storage Serie von WD nehemen. Ebenfals solltest du bein Raidcontrolle net geitzen für hotswap giet es Spezielle Controllen und achte darauf das sie autorepair haben. Nun zu lan anbindung da solltest du an eine 4 port lan karte denken und Trunken. (Würde ich auch in die Clientrechner machen) Das erhöht einfach die Geschwindigkeit für den Datentransfehr. Achtung dafür brauchst du einen Manegment Switsh. Als gehäuse soltest du eventuell ein Chembro mit Hotswap rahmen nehmen oder ein Supermicro (aber mit backplane.).

1. Wozu 2 CPUs und 12 Ram, wenn es nur um die Bereitstellung von Dateien geht?

2. Zur LAN-Verbindung:
Wozu soll er denn 4x1 GBit/s bündeln? Der TE schrieb, dass es viele kleine Dateien sind. Dann würde es nur Sinn machen NICs im Server zu bündeln, damit mehr Klienten zugreifen können. Aber jenachdem wie klein die Files sind, ist dies auch nicht sinnvoll.

3. Das mit dem Chenbro Hotswap-Gehäuse fände ich gut

4. Warum soll er für das System des Server ein SSD Raid 1 einsetzen? Das System ist doch kaum gefordert. Wenn man über SSDs nachdenkt, dann aber bitte für die Datenbanken und die kleinen Files, aber nicht für das System. Ich denke es kommt drauf an, wie klein die Files sind. Könnte der TE mal Auskunft über die Größe geben? Ich denke es wir sich aber um 2-10 MB drehen und nicht so 5-100 KB, aber ich habe keine Ahnung von CAD-Dateien.

Ich würde das System des Servers auf ein kleines Raid 1 legen, damit Nutzdaten und System getrennt sind :)

Zuletzt möchte ich einmal den TE loben:

Dein Thread ist mir sehr positiv aufgefallen, denn deinen Text kann man lesen, da du die Zeichensetzung und Rechtschreibung beherrscht und auch sinnvolle Absätze benutzt. Damit sticht dein Thread sehr positiv heraus, da so mancher TE das nicht brücksichtigt. Bei solchen Fragen versuche ich gerne zu helfen:)
 
Als erstes ist natürlich mal wieder anzusprechen, das zu allermindestens der Server über ausreichend zertifizierte Hardware inkl. Wartungsvertrag verfügen sollte...
Ich kenne nun die Software so im Detail nicht, sprich bin nicht sicher, was passiert, wenn der Server mal steht. Aber so wie das klingt, heist ein Server Stillstand gleichzeitig auch das alle CAD Plätze nicht mehr arbeiten können. Mal ganz davon ab, das wohl auf dem Server der AutoCAD Lizenzserver tuckern wird und ohne diesen bekommt man AutoCAD nichtmal auf...

Man sollte also über einen Angemessenen Wartungsvertrag wenigstens für den Server nachdenken. Gerade so Sachen wie SQL Server usw. können sich sehr zickig haben, wenn es darum geht, mal eben so ein neuen PC hinzustellen, wo dieser drauf laufen soll...


Zur Dimensionierung, also ein Dual CPU Server muss es sicher nicht sein...

Quad NIC für den Server ist auch bisschen zu hoch gegriffen. Ich gehe stark davon aus, das die Clients nicht permanent hunderte von MB an Daten auf den Server schreiben müssen. Sprich das was dort an Traffic anfällt sollten sich eher zurückhalten. Und ob eine Zeichnung nun 10 sekunden oder 15 sekunden brauch, sollte wohl keine große Rolle spielen.
Auch ist das Trunken der NICs am Client nicht sonderlich sinnvoll, weil eben auch gleichzeitige Zugriffe von nöten wären um den Trunk auszulasten. Mal ganz davon ab, schafft man mit 4 Desktop HDDs nichtmal ansatzweise den Durchsatz im Raid 10, welcher ein Quad NIC Trunk bieten würde...

Thema SSDs. SSDs machen durchaus Sinn im Datenbank Bereich, die Frage ist halt, sind die Zugriffe so Zeitkritisch, das sich der Vorteil der geringen Zugriffszeit überhaupt bemerkbar macht.
Das Trennen von System, Datenbank und den eigentlichen DWG Files sollte aber durchaus in die Planung einbezogen werden.
 
Nein trunken ist in beiden Fällen Unsinn... Eben weil du bei nem QuadNIC Trunkt auch vier gleichzeitige Zugriffe brauchst.
Mit einer Anwendung wirst du aber nur einen Zugriff auf das Netz haben.

Mal ganz davon ab profitieren Datenbankabfragen sowieso eher nicht vom Netzwerktraffic, sondern viel eher von kurzen Verzögerungszeiten, sowie schnellen HDDs/SSDs oder noch besser dem vorenthalten der kompletten DB im RAM des Servers.



Im kenne Beispielsweise AutoCAD ECSCAD 2009/2010/2011... Dort laufen auch im Hintergrund Datenbanken. Ich würde mal meinen, hier ist das ähnlich, nur eben Servergestützt sprich auf SQL Server Basis, und nicht wie im ECSCAD eben Client DB Gestützt.
In den DBs liegen dann Artikel, Symbole, Macros usw. Halt alles was man mehrfach in verschiedenen Projekten ansich brauch. Die reinen Files werden trotzdem auf dem Fileserver abgespeichert.
 
Soo... Danke erst mal für die rege Beteiligung... ;)

Ja, vielleicht habe ich doch etwas zu viel Vorkenntnisse zu diesem System bzw. der Arbeitsweise vorausgesetzt. So alltäglich ist das ja nicht.

Es ist in der Tat so, dass der Server eigentlich nur dazu dient, die Daten, die durch die Clients erstellt werden und somit fortlaufend aktualisiert werden, zu bündeln und zentral zu verwalten (Versionshistorie, Ordnerstruktur, Verknüpfungen [Baugruppe(n), Bauteil(e), Zeichnung(en)]). Man kann sich das so vorstellen, dass alle Clients quasi mit einer einzigen Festplatte arbeiten. Die Zugriffssteuerung übernimmt dabei das Verwaltungssystem, sodass 2 Clients nicht an derselben Datei arbeiten können und es so zu keinen Konflikten kommt. Trotz dieser Tatsache erfolgt der Großteil der Arbeit auf der lokalen Festplatte. Das heißt, dass zur Bearbeitung die erforderlichen Daten vom Server abgerufen werden und dort den Status "In Bearbeitung" bzw. "ausgecheckt" bekommen. Somit sind diese Daten für andere Clients für die Bearbeitung gesperrt, können aber dennnoch zentral und lokal betrachtet und über die Versionshistorie abgerufen werden. Erfolgt hierbei eine Änderung und es wird versucht, dieselben Daten/Dateien auf dem Server zu aktualisieren, kommt die Meldung, dass diese in Bearbeitung sind. Das ist eigentlich ziemlich gut gemacht, wie ich finde.
Das heißt also, dass theoretisch die Daten nur morgens zu Arbeitsbeginn auf die Clients geladen werden und gegen Feierabend bearbeitet wieder (neu erstellt oder aktualisiert) auf den Server geladen werden müssen. Natürlich wird das so nicht gemacht, da man ja gerne über den Tag hinweg auch gerne einige Erstellungs-/Bearbeitungsstände sichern möchte. Es ist aber auch nicht so, dass dort dauernd Datenverkehr herrscht.

Hoffe, dass ich diese Vorgänge in der Kürze einigermaßen verständlich erklärt habe. Man braucht schon eine Weile, ehe man das System so bedienen kann, dass es auch das tut, was man möchte... ;) Das hat aber auch sehr mit dieser Baugruppenstruktur von 3D-CAD-Programmen zu tun. Diese ganze Referenzierung von Baugruppe, Bauteil und Zeichnung ist schon ziemlich komplex und manche Bauteile dutzende Querverbindungen haben. Ohne Verwaltungssystem wäre man bei einer zentralen Speicherung ziemlich aufgeschmissen.

Die Netzwerklast ist auch sehr davon abhängig, wie groß die Baugruppen bzw. die Struktur dahinter ist. Wir setzen dieses System seit ca. 2 Jahren ein und sind somit von der Baugruppengröße her noch auf einem unteren Level. Die größten Baugruppen haben bei uns um die 2000 Einzelteile inkl. Normteile, was schon recht viel ist. Später sollen aber tatsächlich mal Baugruppen von kompletten Maschinen erstellt werden, die dann so bei 4-5000 Einzelteilen inkl. Normteilen liegen. Vor kurzem haben wir schon die Normteiledatenbank vom Server auf die Clients gelegt, weil dies ja unnötigen zusätzlichen Traffic bedeutet. Das wird auch vom Programm her seit der letzten Version generell so gemacht. Insgesamt kommen für die größten Baugruppen inkl. Normteile bisher ca. 60-100MB in vielen kleinen Dateien zusammen, die dann über das Netz müssen. Nun weiß ich allerdings nicht, wie das ohne Normteile aussieht. Vermutlich kann man da dann noch was abziehen. Das ist aber wirklich das Maximum zur Zeit.

Habe mir heute auch mal den Dateninhalt des Servers angeschaut: Es sind bei ca. 35GB über 150.000 Dateien, wovon aber nur um 4000 größer als 1MB sind (Baugruppen). Ca. 80.000 sind sogar kleiner als 100KB, was vor allem Ursache dieser Ordnerstruktur ist. Es ist halt ein riesiger Verzeichnisbaum. Von daher wäre eine gute Lese- und Schreibleistung von Vorteil, wie es ja beim Raid 10 der Fall ist. Das Gigabit-Netzwerk sollte für die Zugriffe auch ausreichend sein, da es eigentlich ziemlich selten vorkommt, dass mal mehr als 2 Clients parallel Daten anfordern/senden. Aus diesem Grund halte ich trotz der vielen Dateien die SSDs doch für etwas übertrieben zumal sie doch einiges kosten und von der Technologie meines Erachtens noch nicht ganz so ausgereift sind. Daher finde ich auch, dass der Rest der Hardware auch ausreichend sein müsste, da ja eigentlich mehr der Controller die Arbeit verrichtet. Daher habe ich auch für den Server nur einen i3 gewählt. Hatte auch schon überlegt, ob man für das Betriebssystem vielleicht noch extra eine Platte anlegt und diese dann über das Mainboard anschließt, sodass die Datenbank auf dem Raid 10 läuft. Problematisch ist nur, wenn die Festplatte des Betriebssystems ausfallen sollte. Um das einigermaßen abzusichern bräuchte man ja noch ein Raid 1, eine weitere Festplatte und dann wieder einen größeren Controller. Man könnte natürlich ein Mainboard mit Onboard-Raid nehmen, allerdings wären dann in jedem Fall wieder 2 weitere Festplatten fällig... Schwierig...

Von der Organisation wird es so sein, dass dann Angebote über (diese) PC-Konfigurationen eingeholt werden und dann etwaige Wartungen und die Garantieleistungen über diese Firma abgewickelt werden. Für das CAD-System gibt es dann noch einmal gesonderte Betreuer bzw. einen Wartungsvertrag. Sicherlich wäre es günstiger, alles aus einer Hand zu haben, aber das kostet natürlich alles extra... ;)

Was die Hardware, besonders die des Servers betrifft, ist das sicherlich nicht das gelbe vom Ei, aber es wäre schon ein Meilenstein gegenüber der bisherigen Hardware(-infrastruktur). Die aktuellen PCs sind alles Athlon 64 der 5000er-Klasse mit 3-4GB Speicher und auf dem Server mit 100Mbit-Anbindung an einen "Spielwarenladen-Switch" hat sogar noch jemand gearbeitet. Das kann man sich zwar kaum vorstellen, aber selbst das ging noch einigermaßen. Wenn jetzt nicht ein Umzug anstünde und die PCs reihenweise den Geist aufgeben würden, was wahrscheinlich vor allem Ursache der Wärme und der verbauten Hardware (Asrock-Board, No-Name-Ram) ist, würde die Sache sicherlich noch weiterhin so laufen. Es ist u.a. auch schon ziemlich bezeichnend, dass wir uns als Konstrukteure schon selbst um die Hardware kümmern müssen/sollen...

Backbone: Bei einem kompletten Serverausfall sitzt man natürlich erst mal auf dem Trockenen. Für diesen Fall kann man aber vorsorgen und dieses Verwaltungssystem vorsorglich auf einem Client installieren. Dann müsste man nur noch die Datensicherung einspielen, die Pfade neu setzen und man wäre wieder einigermaßen startklar. Genau das haben wir vor kurzem auch gemacht, als der "Client-Server" nicht mehr wollte. Das war innerhalb von 2-3 Stunden erledigt. Von daher müsste die Kiste schon einige Male ausfallen, um den Aufpreis für die Profi-Hardware zu rechtfertigen. Es ist ja auch nicht so, dass die von mir ausgesuchte Hardware irgendwelche Hardware vom "Grabbeltisch" ist... ;)

gdfan: Was meinst du für ein Hot-Swap-Gehäuse von Chenbro? Meinst du dieses 5er Backplane: Chenbro Micom Co., Ltd. ? Wenn ja, so hat es leider auch keine Unterstützung für einen Verwaltungsbus. Bei Super Micro müsste man dann offenbar gleich ein ganzes Gehäuse nehmen. Einzelne Backplanes habe ich da leider nicht gefunden.
Danke übrigens für das Lob. ;) So sollte eigentlich jeder Thread aussehen... ;)
 
gdfan: Was meinst du für ein Hot-Swap-Gehäuse von Chenbro? Meinst du dieses 5er Backplane: Chenbro Micom Co., Ltd. ? Wenn ja, so hat es leider auch keine Unterstützung für einen Verwaltungsbus. Bei Super Micro müsste man dann offenbar gleich ein ganzes Gehäuse nehmen. Einzelne Backplanes habe ich da leider nicht gefunden.
Danke übrigens für das Lob. ;) So sollte eigentlich jeder Thread aussehen... ;)
Ja die meinte ich. Wenn der Bus nicht unterstüzt wird, wäre das ja blöde. Darauf hatte ich nicht geachtet.

Ich würde aber auf jedenfall ein zweites Raid 1 für den Server nehmen, da du so die Betriebsystemlast vom Raid 10 wegnimmst. Es reicht meines Erachtens auch ein Onboard Raid, da Raid 1 auch dort ordentlich funktioniert.

Das mit den Dateien ist ja schwierig:
Es sind zu viele um sie alle im Ram vorzuhalten. Gibt es ganz häufig benutzte, also welche die bei fast jedem Projekt geladen werden?
Ich glaube in diesem Anwendungsfall wäre echt über den Einsatz von SSDs nachzudenken. Es würden ja 2 64/80 GB SSDs reichen, die dann als Raid 1 laufen. Ich denke der Geschwindigkeitsvorteil wäre brachial :d
Dann kannst du ja noch ein zusätzliches Raid 1/5 für große Daten aus Festplatten kaufen.

Ich denke die Bündelung von NICs macht in dem Fall kaum/keinen Sinn, da die Last einfach nicht groß genug ist. Wenn du sagst, dass fast nie/selten 2 gleichzeitige Zugriffe stattfinden, reizt du 1GBit/s nicht aus. Außerdem werden die Festplatten bremsen, wenn du nicht auf SSDs setzt. Lieber einen ordentlichen Switch kaufen, als NICs bündeln :)

Was mir noch einfällt:
Sind die Netzteile groß genug dimensioniert, um auch später vllt. mal eine neuere Profi-Grafik/CAD-Karte ein zu bauen? Vllt. ist es sinnvoll, schon welche mit genügend Leistung und PCIe-Steckern zu nehmen.

Danke übrigens für das Lob. ;) So sollte eigentlich jeder Thread aussehen... ;)

Wenn es nur so wäre...
 
Zuletzt bearbeitet:
Ja die meinte ich. Wenn der Bus nicht unterstüzt wird, wäre das ja blöde. Darauf hatte ich nicht geachtet.

Ja, also mich wundert es schon ziemlich, dass es da so gut wie gar nichts in der Richtung mit Bus gibt. Die einzigen, die einen Bus unterstützen und die ich gefunden habe, wären die Backplanes von Intel. Davon habe ich selber 2 Stück. Das Blöde ist da nur wieder, dass diese nicht für 5,25"-Slots gebaut sind. 3,5" ist das aber auch nicht, sondern liegt irgendwo dazwischen. Man wird also dazu verdammt, ein Gehäuse von Intel zu kaufen und wahrscheinlich auch den ganzen Rest. Alle anderen Backplanes unterstützen nur die direkte Einspeisung von Signalen für die LEDs, und die beschränken sich meist nur auf die der Aktivität. Reicht sicherlich, aber mehr wäre wünschenswert...

Hmja, dieses zweite Raid 1... Macht das denn wirklich so einen großen Unterschied, wenn das Betriebssystem extra läuft? Wie groß wäre da der Geschwindikeitsgewinn/-verlust? Hast Du da evtl. ein Praxisbeispiel? Man muss halt abwägen, ob sich dafür ein anderes Board (H57) und zwei weitere Festplatten von je ca. 70 Euro lohnen. Also das wären sicherlich wieder 150 Euro, die man zusätzlich investieren müsste...

Klar, SSDs wären schon nicht schlecht, allerdings sehe ich da wieder die Kosten, denn mit 80GB wird man da nicht sehr weit kommen. Es müssten schon mindestens 160GB sein, um für die nächsten 2-3 Jahre gerüstet zu sein. Das wären dann auch wieder knappe 800 Euro, allein für die SSDs. Also ich denke, dass man da evtl. zu einem späteren Zeitpunkt darüber nachdenken könnte, aber bei den gegenwärtigen Preisen... Also so rein vom Gefühl her würde ich sagen, dass das Raid 10 bestimmt um die 150-200MB/s schafft. Ist eben nur etwas fraglich, wie sich das bei den vielen kleinen Dateien verhält. Das sollte aber vom Datenaufkommen her schon ausreichen, zumal der Zugriff, wie gesagt, ja auch nicht ununterbrochen und kaum mehr als 2x parallel ist. Also ich denke, dass SSDs in diesem Fall momentan noch ziemlicher Luxus sind.. ;) Insofern sollte das mit der Gbit-Anbindung auch gut gehen.

Ja...die Netzteile. Da hatte ich auch schon überlegt und hatte davor auch schon welche mit 450W drin, aber bin doch immer wieder zu dem Schluss gekommen, dass die Last des Systems in der gegenwärtigen Konfiguration, auch bei Vollast nie 250W übersteigen wird. Vielmehr wird es bei 150-200W "dümpeln". Das wäre halt der Punkt, wo das Netzteil seinen besten Wirkungsgrad hat...

Ich fasse mal die angenommenen Lasten zusammen. Da ich selbst einen i3 mit entsprechender Hardware besitze, kann ich das ganz gut schätzen, denke ich. Also mein i3-System benötigt im idle ca. 60W und unter Last bis 110W, wobei der Controller schon mind. 25W zieht. Wenn man dazu jetzt noch die Grafikkarte (ATI Fire GL V5600) mit 70-100W addiert, wäre man bei unter 200W, also recht gut im optimalen Bereich. Laut Tests soll ein i5 750 mit GTX280 im 3DMark auch nicht über 270W kommen. Allerdings kann ich mir nicht vorstellen, dass wir in absehbarer Zeit mal Grafikkarten dieser Leistungsklasse bzw. für mehr als 500 Euro/Stück verbauen werden. Ein PCIe-Stecker ist ja auch dran. Daher sollte das auch ausreichen... ;)
 
moerfinator: Sorry, aber bis auf einen (kleinen) Geschwindigkeitsvorteil und der physikalischen Trennung von OS und Daten sehe ich persönlich da keinen weiteren Vorteil. Das Betriebssystem wird ja ebenfalls gespiegelt und ist nach dem Ausfall einer Festplatte immernoch einsatzfähig. Genauso könnte man OS und Daten durch Partitionierung einigermaßen trennen. Daher stellt sich mir wirklich die Frage, ob das zusätzliche 150 Euro wert ist. Vor allem steigt ja auch die Ausfallwahrscheinlichkeit und der Stromverbrauch mit den zusätzlichen Platten.

Momentan läuft bei mir zu Hause auch ein Raid 1 aus 2x WD20EARS. Da habe ich 2 Partitionen drauf, eine mit OS und eine mit den Daten. Über die Geschwindigkeit kann ich eigentlich nicht klagen, obwohl es ziemlich langsame Platten sind. Wenn ich da eine Platte ziehe, läuft die Kiste auch mit OS ganz normal weiter...
 
Sodele, ich bins mal wieder... ;)

Nach der Vorstellung der Systeme gab es leider doch einen Kritikpunkt vom Chef, den ich schon geahnt habe: Der Server braucht kein Raid, ist überflüssig. Die Daten sollen dann täglich auf den Server der EDV-Abteilung laufen. Außerdem sollen die dann ihrerseits täglich ein Backup machen, was dann entsprechend verstaut wird. Die haben dort einen teuren "richtigen" Server bekommen. Was da alles drin werkelt weiß ich nicht, ist auch nicht mein Bier. Darauf werde ich mich (wir uns) dann verlassen müssen, dass dort alles seinen Gang geht. Leider konnte ich ihn bei den vergleichsweise geringen Mehrkosten von ca. 300 Euro nicht von der Zweckmäßigkeit eines solchen Raids überzeugen...

Trotzdem wollte ich nochmal nachfragen, was ihr dazu meint, ob sich ein Raid 10 mit diesem Intel-Matrix-Controller und einem entsprechenden Mainboard (P55, H57) lohnt oder ob man nur auf eine einzige große Platte setzen sollte. Leider gibt es da kaum was zu lesen, wahrscheinlich weil es nicht viel Sinn macht... Aber gut, was meint ihr..? ;)
 
Kritikpunkt vom Chef, den ich schon geahnt habe: Der Server braucht kein Raid, ist überflüssig. [...] Leider konnte ich ihn bei den vergleichsweise geringen Mehrkosten von ca. 300 Euro nicht von der Zweckmäßigkeit eines solchen Raids überzeugen...
Er riskiert also den Arbeitsausfall mehrerer Mitarbeiter, um 300 Euro zu sparen? Das halte ich für relativ blauäugig von ihm ;)
Klar ist es gut, wenn Backups woanders gemacht werden. Aber da Raid kein Backup, sondern erhöhte Verfügbarkeit ist, sollte man nicht daran sparen wenn die Mitarbeiter auch bei einem Plattenausfall halbwegs ungestört weiterarbeiten können sollen.
 
Ja...aber er hat es eben u.a. auch damit begründet, dass es die letzten 2 Jahre auch gut gegangen ist, wobei er ja nicht damit arbeiten muss. Er ist halt Ökonom und hat kaum technisches Verständnis/Erfahrung, was Hardware betrifft. Was soll man dazu sagen..? ;) Er sieht eben immer nur das, was man aktuell an Geld sparen kann... Wir haben uns vor einiger Zeit auch günstige OKI-Drucker gekauft, nur jetzt "fressen" die Toner etc. einen Haufen Geld...

Na ja, ich werde das sicherlich so machen, dass ich dann halt ein einfaches Raid 1 mit dem Matrix-Controller und einem entsprechenden Board mache. Das ist sicherlich keine Rakete, aber immerhin ist die Ausfallsicherheit höher. Das muss dann halt reichen...
 
Ja...aber er hat es eben u.a. auch damit begründet, dass es die letzten 2 Jahre auch gut gegangen ist, wobei er ja nicht damit arbeiten muss. Er ist halt Ökonom und hat kaum technisches Verständnis/Erfahrung, was Hardware betrifft. Was soll man dazu sagen..? ;) Er sieht eben immer nur das, was man aktuell an Geld sparen kann... Wir haben uns vor einiger Zeit auch günstige OKI-Drucker gekauft, nur jetzt "fressen" die Toner etc. einen Haufen Geld...
Klarer Fall von mieserabler Beratung. OK, manche Kunden sind eben beratungsresistent und müssen erstmal auf die Schnauze fallen. Aber in solchen Fällen MUSS man einfach über die TCO reden, alles andere wäre grob fahrlässig.

Backbone
 
Sehe ich auch so... Das Raid erhöht die Verfügbarkeit. Klar kann es die letzten Jahre gutgegangen sein, aber sei dir sicher, irgendwann kommt der Punkt, wo die HDDs wegfliegen. Dann ist das Raid quasi Goldwert. Ohne hat man einen Betriebsstillstand solange die Wiederherstellung inkl. Einspielung Backup usw. dauert. Unter Umständen muss das komplette System neuaufgesetzt werden, weil es das alte Systemimage nicht mehr tut oder sonstwas.

Nur für ein paar Taler Einsparung auf ein Raidvolumen zu verzichten ist äußerst fahrlässig.
 
Tjo...er ist eben der große "Sparfuchs"... Ihm macht es ja auch erst mal kaum was aus, wenn das System steht. Wie letztens bekommt halt jeder 1-2 Tage unbezahlte Freizeit. Wird nur dann blöd, wenn wirklich mal eine zeitkritsche Aufgabe ansteht. 300 Euro mehr für dieses "Feature" sind nun wirklich nicht zu viel. Hätte schon fast gesagt, dass ich die Kosten übernehme, weil es ja schließlich auch um unseren Komfort geht. Wenn es wirklich dick kommen sollte, stehen wir ja blöd da und müssen uns beeilen...

Nun ja, habs jetzt so gemacht, dass an den Intel-Matrix-Controller vom MSI H57-Board 2x 1TB WD RE4 drankommen, die dann als Raid 1 laufen. Ist sicherlich eine Beleidigung für die RE4, aber da müssen sie sich woanders beschweren... ;)
 
Mit Sparfuchs hat das in meinen Augen nix zu tun, sondern eher mit fehlendem Wissen (was keine Schande ist).
Aber dafür beauftragt er ja Leute, die das ganze konsolidieren sollen. Und diese Leute haben dann im Bedarfsfall zu argumentieren und Vor/Nachteile aufzuzählen.

Wenn es nicht so kritisch ist, das das System auchmal für ein paar Tage stehen kann, dann ist das zwar schonmal ein Schritt in die richtige Richtung, aber so ein Ausfall kommt dann idR immer genau dann, wo gerade alles gehen muss... ;)
 
Ja...deswegen hatte ich Sparfuchs ja auch in Anführungszeichen gesetzt, es müsste eher Sparesel heißen, wobei ich das Tier damit nicht beleidigen will... ;) Das mit der Beratung ist natürlich richtig, aber irgendwie ist seine Meinung sehr schnell gefestigt, sodass da schnell nichts mehr geht... "Rien ne va plus" sozusagen... ;)

Nun ja, insgesamt bin ich einigermaßen zufrieden, auch wenn das nicht hätte sein müssen. Immerhin sind die Clients bewilligt worden, wenn auch mit Zähneknirschen... ;)
 
Erfahrungsgemäß lernen solche Sparfüchse erst dann, wenn sie nach Defekten, richtig tief in die Tasche greifen müssen. Auf gut deutsch gesagt, "bevor er nicht auf die Schnauze gefallen ist, wird er sein Verhalten nicht ändern."

Da triff auf alle zu. Letztlich wird man irgendwann kirre, wenn man im Leben immer nur den schlechtesten Fall annimmt.

Die Spezies hier haben nur den nicht zu unterschätzenden Vorteil, weit mehr gesehen und erfahren zu haben, als Dein Chef.

Vielleicht gibst Du ihm mal den Link hier auf diesen Thread. Denn hier hat ja keiner etwas davon, wenn Ihr mehr oder weniger Geld ausgebt.

Vorher solltest Du aber Deine Wortwahl (Sparesel) korrigieren, damit er nicht einen falschen Eindruck von Dir bekommt, obwohl Du sehr engagiert bist.
 
Zuletzt bearbeitet:
PCs für Firmen und selber bauen ist absoluter Blödsinn. Gibt soviele Firmen die Top Preise machen und bei denen du noch 3 Jahre Garantie hast. Selbst wenn ein Rechner nur einen Tag ausfällt rechnet sich das meistens schon die 200-300€ mehr für Garantie zu blechen.

Selber bauen ist für mich in dem Gebiet en Epic Fail!
 
heiner.hemken: Tjo, allerdings haben sich die Defekte bzw. die Ausfallzeit bisher immer im Rahmen gehalten, was nicht zuletzt auf das Softwaresystem und dessen Variabilität zurückzuführen ist. Man schafft es halt bei einem Ausfall des Servers, wenn man darin etwas Übung hat, innerhalb von 2-3 Stunden dieses System auf einem anderen PC einzurichten. Allerdings kommt es hierbei eben auf den Stand der letzten Sicherung an. Wenn diese jetzt in Zukunft täglich gemacht wird, sind schlimmstenfalls ein Tag Arbeit/Person und weitere 3 Stunden verloren. Wie ich schon zuvor andeutete, ist das unserem Chef an der Stelle aber ziemlich schnuppi, da ihn nur die Ergebnisse interessieren und wir somit in Zugzwang sind. Er schiebt uns unterschwellig quasi den "schwarzen Peter" zu, obwohl wir es ja besser wüssten... Das ist leider nicht nur dort der Fall, aber was soll man machen... Daher werde ich ihm natürlich keinen Link hierher geben. Es sollte ja eigentlich auch nur eine kleine "Absicherung" meinerseits sein, um größere Schwierigkeiten zu vermeiden. Ansonsten denke ich, dass trotzdem jeder etwas hiervon hat, der auch privat/freiberuflich sowas in dieser Richtung plant.

upt0zer0: Den Beitrag hättest Du Dir sparen können. Wenn Du nicht nur die letzten paar Beiträge gelesen hättest, wüsstest Du, dass ich nur die Vorgaben für das System mache und alles andere inkl. Garantieleistungen über eine externe Firma läuft. Es sind eben nicht nur 200-300 Euro mehr, sondern mindestens das 10-fache davon, wenn das alles eine CAD-Fachfirma machen würde. Die Hardware wäre hierbei nahezu dieselbe (S1156-System). Glaubst Du etwa, dass wir uns in der Richtung keine Angebote eingeholt haben? Vermutlich hast Du nur einen Grund gesucht, um das "Epic Fail!" anzubringen. Vielen Dank! Ich kanns echt nicht mehr sehen...!

Von mir aus kann das Thema erst mal geschlossen werden, da jetzt der erste Beitrag kam, der schon nicht mehr zum Kontext passt. Schade, dass sowas schon knapp nach dem ersten Block auftaucht...

Dann bedanke ich mich schon mal für die konstruktiven Beiträge. Mal sehen, wenn der Wunsch besteht bzw. es mir vergönnt sein sollte, kann ich gerne noch meine Erfahrungen bezüglich dieses Projekts mitteilen...
 
Man schafft es halt bei einem Ausfall des Servers, wenn man darin etwas Übung hat, innerhalb von 2-3 Stunden dieses System auf einem anderen PC einzurichten. Allerdings kommt es hierbei eben auf den Stand der letzten Sicherung an. Wenn diese jetzt in Zukunft täglich gemacht wird, sind schlimmstenfalls ein Tag Arbeit/Person und weitere 3 Stunden verloren.

Nur mal als kleiner Denkanstoß für deinen Chef...
Rechne ihm mal vor, was bei dem Stundensatz pro Mitarbeiter auf 8h pro Tag an Geld zusammen kommen würde.
Diesen Betrag stellst du dann dem Mehrpreis einer Prof. Lösung gegenüber.

Ich behaupte mal so aus dem Bauch raus, das wird sich nicht viel nehmen.

Bei gar keinem Ausfall hat man natürlich "eingebüßt" aber wenn Ausfälle kommen, rechnet sich sowas.

Ein gutes Argument ist da immer der Vergleich mit Versicherungen. Auch der Hartneckigste Chef wird mindestens für sein Auto oder seine Wohnung Versicherungen in irgend einer Form haben... Warum? Ja weil es sicherer ist und man im Schadensfall nicht alles selbst tragen muss. Klar sind das teils andere Dimensionen, dennoch läuft es im Grunde auf das selbe drauf raus.
Nutzt man den Umfang nicht aus, zahlt man quasi ohne Gegenleistung drauf, aber wenn man ihn mal nutzt, ist das was an Leistung kommt idR deutlich über dem, was man für die Versicherung gezahlt hat. Der riesige Vorteil der ganzen Versicherungsgeschichte ist, das du nicht nur einen Ausfall abdeckst, sondern die komplette Laufzeit. Und wenn diese 3 Jahre beträgt, kann die Kiste jeden Tag wegbrennen. Stell dir nur mal die Mehrkosten allein für die Ersatzteile vor, wenn jeden Tag was neues her müsste... ;)

Aber gut, genug jetzt davon, vllt muss es wirklich erst einmal richtig knallen ;)
Ich wünsche dir aber auf jedenfall viel Glück, sofern du die Person sein solltest, welche dann die Geschichte wieder ganz machen darf ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh