Gigabit LAN umstellung - Hardwarefragen

Also, erstmal Danke für Eure Antworten!

@funztnet: Seh ich das richtig, dass ich bei nem Nortel Switch mal locker 3000€ auf den Tisch legen darf?

@ all:
Woher habt ihr den durchschnittlichen Datendurchsatz? Gibt es da ein Tool womit man das auslesen kann?
Wenn wir also NICs kaufen, dann sicherheitshalber von 3com oder Intel, richtig? Die sind mit ca 50€ pro Stück ja noch zu verschmerzen.
Ist vielleicht ne doofe Frage, aber was hab ich denn durch z.b. ein HP ProCurve 2824 Switch für ca. 2500€ für Vorteile im Gegensatz zu nem günsitgen 3com 24 Port Switch?
Brauch ich die Features die mir ein Managbarer Switch bietet? Wird das Netzwerk dadurch schneller, stabiler?
Wir müssen sowohl sehr kleine (<1MB) als auch große Dateien (>100MB) laden.
Die Datenbankabfragen selbt sind jetzt bereits sehr schnell, da wird keine verbesserung benötigt.
Nur das laden/speichern von Zeichnungen (vom Server) soll beschleunigt werden.

Da wir das Kabel zwischen Server und Switch sowieso neu ziehen müssen würde ich hier LWL wählen. Wir bräuchten also einen 24 Port Switch mit mindestens einem LWL Port.
Die Clients müssten erstmal mit den onboard NICs auskommen.
Der Server würde eine PCI-X LWL Karte bekommen. Die muss zwar mit nem normalen PCI Port auskommen,aber bei ner Aufrüstung könnte diese dann weiterverwendet werden.
Was für einen Switch würdet ihr da empfehlen (2500€ sind zu viel).

Ein weiteres Problem sind die Festplatten im Server. Momentan haben wir da ein RAID 1, wegen der Sicherheit :cool:
Wahrscheinlich haben wir mit Gigabit LAN aber genau da einen Flaschenhals. Welches RAID wäre zu Empfehlen, wie gesagt, bei einem Plattenausfall sollte ohne Unterbrechung weiter gearbeitet werden können. Bringt RAID 0+1 Geschwindigkeitsmäßig einen großen Vorteil gegenüber RAID 1?

So das war hoffentlich erstmal alles....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@topic: nimm einen switch mit mehreren 100mbit ports und 2 Gbit ports, an den GB hängst du den server an die anderen die clients, dann teilen die sich die geschwindigkeit und du sparst geld, managed lohnt sich bei dir nicht, da kannst zwar viele sachen festlegen (zb VLAN und Radius Server, Port Security etc) die nützlich sind, aber sich in einem kleinen Netz nicht lohnen

wichtig wäre es auch das du schnelle Festplatten hast, wenn die langsam sind ist alles langsam, wenn es kleinere Kapazitäten sind die gespeicehrt werden (bis 150gb) dann würden sich sogar 15k SCSI Festplatten lohnen, kommt natürlich immer drauf an wieviel und wie oft du darauf speicherst/lest, aber da du von 15 Clients redest die vermutlich permanent damit arbeiten könnte das mit normalen Platten durchaus zum Problem werden

An deiner Stelle würd ich nen neuen Server kaufen mit nem Xeon/Dual Xeon, 2-4 GB RAM und ordentliche 10k oder 15k SCSI Platten, dann hast auch wirklich ne steigerung, gibts sowieso relativ billig bei DELL

was ist denn momentan verbaut in die Server? kannst du grob sagen wieviel Datendurchsatz du pro Tag erreichst, bzw mal messen ?


@underclocker2k4: du redest müll, nur weil dein netz lahm ist ist nicht jedes lahm
 
@Burni87: Wenn ich nen Switch mit nur 2 GBit Ports nehme und z.B. gleichzeitig nur zwei Clients laden hat jeder nur 100MBit, richtig? Da wäre es doch falsch am Switch zu sparen, vor allem, da die Clients sowieso schon Gigabit Onboard haben.
15k SCSI Festplatten sind nicht ganz billig, hören sich aber sehr gut an, es macht also Sinn sich nach nem neuen Server umzusehen.
Momentan ist im Server Desktop Hardware verbaut.
Wie kann ich denn den Datendurchsatz messen?
Wie teuer ist denn in deinen Augen ein billiger Server bei Dell (wir sind schnell auf ca 10k € gekommen)?
Die Frage ist wie stark man diese 10k € im Betrieb merkt, bringen z.b. die 15k SCSI Platten so viel oder spüren wir das bei 15 Clients nicht?
 
Zuletzt bearbeitet:
Magic_Merlin schrieb:
@Burni87: Wenn ich nen Switch mit nur 2 GBit Ports nehme und z.B. gleichzeitig nur zwei Clients laden hat jeder nur 100MBit, richtig? Da wäre es doch falsch am Switch zu sparen, vor allem, da die Clients sowieso schon Gigabit Onboard haben.
15k SCSI Festplatten sind nicht ganz billig, hören sich aber sehr gut an, es macht also Sinn sich nach nem neuen Server umzusehen.
Momentan ist im Server Desktop Hardware verbaut.
Wie kann ich denn den Datendurchsatz messen?
Wie teuer ist denn in deinen Augen ein billiger Server bei Dell (wir sind schnell auf ca 10k € gekommen)?
Die Frage ist wie stark man diese 10k € im Betrieb merkt, bringen z.b. die 15k SCSI Platten so viel oder spüren wir das bei 15 Clients nicht?

ja richtig die haben dann beide nur 100mbit, wenn der switch nicht allzu teuer ist dann kannst ruhig einen nehmen mit 24x 1gb
naja 15k scsi platten müssen es nicht unbedingt sien aber es wäre einfach interessant mal etwas mehr über das aktuelle system zu wissen, welche platten sind verbaut, raid?, controller? usw

für 5000 euro solltest schon was schönes bekommen ... ich schau mal kurz nach
wieviel kapazität brauchst du denn ? wie willst du sichern bzw willst du sichern oder reicht dir ein raid ?


edit: kurz was zusammengestellt:

Power Edge 2800:
2x Xeon 3GHz
2x 1GB RAM
Bronze Support (Wenn du die Daten auf nen andern Rechner sicherst kann der auch kurzzeitig als Ersatz dienen bis der server wieder läuft)
Raid 10
4 x 300GB 10k SCSI (das wären dann 600GB die zur verfügung stehen)

=3229 Euro

damit solltest dann doch etwas leistung haben, ein zweites redundantes netzteil wäre auch von vorteil aber nicht notwendig
 
Zuletzt bearbeitet:
Wie gesagt unser jetziger "Server" ist mehr ein Desktop Rechner...
Verbaut sind normale 7200er SATA Platten, im Raid 1 an nem Silicon Image Controller.
Die Clients haben auch 7200er Platten.
Nur zum Verständnis, auf dem Server läuft eine Oracle Datenbank über die der Zugriff auf die eigentlichen Zeichnungsdateien geregelt wird.
Dein Server sieht schonmal ganz gut aus.
Was für ein RAID wäre denn zu Empfehlen, wenn Datensicherheit und Geschwindigkeit gut sein sollen? Raid 10?
 
raid 10:
es speichert die daten wie beim raid0, sprich verteilt die daten auf 2 festplatten und diese werden dann zusätzlich noch gespiegelt auf die beiden anderen, du hast halkt nur 50% der eigtl kapazität

raid5:
auch gut, hat 66% kapazität aber braucht wegen der berechnung der parity mehr leistung und wenn du dann ein schnelles raid willst solltest du einen kontroller kaufn und der kostet schnell über 500euro, da würde ich eher in eine platte mehr investieren

und den flaschenhals kennst du ja damit, ein desktop rechner mit 7200er platten die lahme zugriffszeiten haben und warscheinlich ziemlich viele datenbank zugriffe laufen ... aber informationen zum belegten plattenplatz sowie RAM CPU etc wäre einfach mal gut um zu wissen worans eigtl noch liegen kann ...
 
.hm aber was, wenn er das Array erweitern möchte. Wenn dann doch mal 2 Platten ausfallen(ich weiß kommt nie vor), wenn er die Array-Art wechseln möchte. Dafür nen schönen nicht zu günstigen Controller ala Tekram oder 3 Ware.. das is was Wert!!!!
 
Osiris-Storage schrieb:
.hm aber was, wenn er das Array erweitern möchte. Wenn dann doch mal 2 Platten ausfallen(ich weiß kommt nie vor), wenn er die Array-Art wechseln möchte. Dafür nen schönen nicht zu günstigen Controller ala Tekram oder 3 Ware.. das is was Wert!!!!

wieso sollte es ein Problem sein das Raid zu erweitern oder zu ändern ? ich habs zwar nich nicht ausprobiert mit den teilen aber funktionieren sollte das trotzdem ... und zur not kann man alles mal eben auf ein backupmedium schieben und dann ändern

nur ein guter kontroller kostet mind 500 euro und das wäre mir das geld nicht wert
 
Also beim Server ist :
ein Pentium4 3000Mhz(Cpu auslastung immer sehr gering also wohl ausreichend),
AsusP4 800 SE Mainboard(ist schlecht, weil halt kein Servermainboard und nur "normales" Pci und nicht Pci-X,
1GB DDR- Ram(Mittlerweile wohl auch zu wenig),
4 Platten wovon jeweils 2 im Raid 1 sind,
Jede Platte hat 2 Partitionen also insgesammt 4 Partitionen
(29988Mb,27237mb frei/ 46351, 41093Frei/ 99998, 94199mbFrei/ 138474, 73676 Frei)
Realtek Rtl8139 Pci Fast Ethernet Adapter
Zu den Clients:
Ungefähr das gleiche, nur mit ner einzelnen 7200er Platte ohne Raid.
Die Clients müssen auch unbedingt auf 2Gb umgestellt werde, was in Planung ist und evtl. auch neue Festplatten a la Raptor.


Wir haben auch seit kurzen nen Dell-Rechner mit ner Raptor nen Dual Core D920 und ner Quadro Fx 1400.
Allerdings ist hier die Geschwindigkeit beim laden und speichern auch nicht schneller(auf dem Server), wobei das lokale Backup vom Cad-Programm was lokal alle 10Minuten beim arbeiten erstellt wird natürlich schneller ist!

Nachdem wir den Dell Rechner bekommen haben, haben wir halt das Problem erst richtig festgestellt das es ein Netzwerk/ Serverproblem sein muss.
 
Zuletzt bearbeitet:
aber man geht immer vom worst case aus, aber ich denk das ist dir auch klar *g*

gruß
hostile
 
hm naja aber nen RAID-6 hilft da schon lol...aber wir gehen natürlich vom Worst Case aus...

also 24x Gbit Switch wird gekauft oder? wie er schon gesagt hat.. is halt für die Zukunft schon ok..

vielleicht reichts ja wenn du das Board austauschst und den RAM aufstockst.. dann haste nen Tyan Board mit 2x Gigabit und kannst ja eventuell noch ne 3te NIC reinstecken und die Lasten auf die versch. NICs verteilen und versuchen PCi und PCIe optimal auszulasten
 
hostile schrieb:
aber man geht immer vom worst case aus, aber ich denk das ist dir auch klar *g*

gruß
hostile

ist mir schon klar, deswegen würde ich die daten auch regelmässig auf den alten server rüberschaufeln, dann kannst im falle eines serverausfalls erstmal auf dem weiterarbeiten

@topic: so wie ich das sehe sind eh nur ca 100Gb belegt, dann würden sogar 4x 146Gb reichen, dann hättest immernoch 300gb zur verfügung

und das der Datendurchsatz nicht sonderlich hoch ist sollte auch klar sein, da es einfach relativ lahme komponenten in verbindung mit 100mbit lan sind, die sich zur not auch noch 15 clients teilen ...
 
ja, mach doch nen failover-cluster mit linux. das ist *die* herausforderung für dich ;)

gruß
hostile
 
ne, aber ne sicherung auf nen andern rechner ist wohl eine relativ billige lösung

cluster dagegen sind ja schon eher die "hohe schule" und es is wieder langsam wenn du den alten und den neuen server synchronisierst ;)
 
Ich rede also müll ja? Ich kann dir nur sagen, wie es zu den anfangszeiten bei mir mit gbit aussah! Ich vertrau mir ich bin kein netzwerknoob. Und bei 2 NICs und einem switch, kann man außerdem auch nicht all zu viel falsch machen.
Billig komponenten sind nunmal immer nich das gelbe vom ei und darauf wollte ich aufmerksam machen.
Aber du bist ja der profi und kannst natürlich meine ergebnis mit meiner hardware nachvollziehen oder auch nicht......
 
Wie funktioniert das denn mit mehreren NICs?
Der Server wird ja über seinen Namen angesprochen, der eine IP zugeordnet ist.
Hat die zweite/dritte NIC die gleiche IP, oder muss ich mir selbst überlegen, welcher Client den Server auf welcher IP erreichen soll (durch Eintrag der entsprechenden IP in der Hosts Datei von Windows)?

Hab grad kurz bei Wikipedia geschaut, Raid 6 ist nicht so ganz einfach zu verstehen. Meiner Meinung nach sollte ein Raid 10 mit 4 146GB SCSI Platten sollte lange ausreichen.

Was bringt mir denn ein besserer Raid Controller?

Ein 24 Port GBit Switch soll sowieso angeschafft werden, am liebsten einer um den Server per LWL anzubinden. (Kabel muss wohl durch nen Kabelschacht mit vielen Stromkabeln) Kupferkabel ist ja relativ störempfindlich, seh ich das richtig?
Bräuchte noch ne Empfehlung was den Switch angeht.

Außerdem bin ich noch auf der Suche nach nem Tool zum Messen des Datendurchsatzes und des Datenvolumens des Netzwerkes.
 
lol ne ist mir eigtl auch relativ egal was du hier redest, aber weitergeholfen haben deine aussagen wohl niemanden, aber gut zu wissn das du dir selber vertraust ;)
 
Es gibt einmal die möglichkeit die NICs getrennt zu behandeln, so das jede einzeln für sich angesprochen werden muß. Das ist dann die uncoole version oder man bündelt die NICs, dies erfodert entsprechende NIC treiber und ein passendes switch. Dann werden diese NICs zu einer "großen" zusammen gefasst.

RAID6 ist nix weiteren als RAID 5, wo einfach noch eine 2. platte weitere paritydaten enthält. Der kontroller muß als 2x parityberechnen, dies erfordert entsprechende power und kostet zeit. Dafür können aber auch 2 platten ausfallen.

@kabelverlegung: Wenn die "berührung" zwichen strom und datenleitung nur kurz ist, gehts. Laufen die kabel aber über längere stecke parallel, ist die einstrahlung schon enorm. In einem solchen fall sollte LWL verwendet werden. Wenn ein patchkabel verwendet wird unbedingt auf mechanischen schutz achten(in form von leerrohr). Elektriker benehmen sich manchmal die die wilden auf kabeltrassen. Die frage ist halt, ob es wirklich 230V sind und ob keine trennung möglich ist.

edit: @burni Wir(bzw der threadersteller) haben also nich gelernt, das zur effektiven ausnutzung von gbit auch entsprechende HW in form von guten NICs(intel, 3com und ähnlich) erforderlich ist? Dann solltest du nochmal lesen. ;)
Ich habe schon oft erlebt, dass viele geschrieben haben, mein gbit is zu langsam und raus kam, dass sie eben billigheimer NICs verwendet haben.
 
Zuletzt bearbeitet:
Bleibt mal locker und streitet nicht,das hilft nun wirklich niemanden.
Ihr habt bis jetzt beide hilfreiche Beiträge geschrieben, bitte weiter so!

Ist Raid 10 den langsamer als Raid 5 oder Raid 6? Weil Platzmäßig ist das bei uns ja relativ egal. Wenn von den 4x 146GB 2x146GB übrigbleiben reicht das dicke. Systempartition kommt auf eine einzelne Platte.

Kabel sind definitiv 230V Kabel, n Lehrrohr dürfte gehen.

edit: Glaube schon das man nicht die günstigste Hardware verwenden sollte, und die NICs von z.B. Intel kosten ja ca. 50€, das passt schon.
Hier ist in der Vergangenheit ne Menge Desktop Hardware in Servern verwendet worden, das ist nicht immer schlecht, aber auch nicht optimal.
Ich hoffe ich kann bei unserem Chef n Entsprechendes Budget rausschlagen, denn so kann es auf keinen Fall weitergehen.
Ich denke es wird als erstes der Switch mit GBit kommen, danach dann der Server.
 
Zuletzt bearbeitet:
RAID10 ist definitiv schneller was transferspeed und IOs angeht.
RAID6 is langsamer als RAID5(is ja klar).
RAID10 erfordert auch keinen dicken XOR controller. Wobei man bei produktivservern schon drauf achten sollte, dass der controller zuverlässig arbeitet und die software auch keine "scheiße" am server produziert und entsprechen möglichkeiten zu informationvermitttlung im fehlerfall bietet.
Diese controller haben dann schon ne XOR drauf. (kannst also im falle des falles nen RAID5 oder ggf RAID6 machen)

Um welche strecke handelt es sich denn @parallel 230V?
 
Zuletzt bearbeitet:
ich würd sagen die sind ähnlich, bei raid 5 hast du halt noch parity berechnung was zusätzlich leistung kostet bei raid 10 hast du dafür eine platte mehr und die daten werden nur gespiegelt, ich würde sagen raid10 ist einen tick vorne

gibt auch kabelschächte die 230v und ethernet trennen

@underclocker: eine karte von 3com kostet 36euro das ist auch nicht wirklich teuer wer sich irgendwelchen billigscheiss kauft ist ja selber schuld wenns dann etwas lahmer ist, ich würde einfach die lan onboard verwenden
 
Ich denke dann sollten wir schon ein Raid 10 anpeilen.
Gibt es Controllerempfehlungen?

Das Netzwerkkabel dürft ca 6-7m parallel zu den Stromkabel verlaufen, von einem ins andere Stockwerk.
Werde mal mit unserem Elektriker Meister sprechen was der dazu sagt.
 
ich habe mir ehrlich gesagt nur kurz ein angebot angesehen von dell und bei mir einfach den onboard controller verwendet ... beim Raid10 fällt ja kaum CPU Last an und deswegen denke ich sollte das ausreichend sein, aber es kommt natürlich immer darauf an wieviel leistung bzw datendurchsatz du brauchst, ein guter kontroller kann da siche rnoch etwas mehr leistung rausholen
 
was underclocker2k4 meint: dafür gibt's einen namen und nennt sich port trunking... muss der switch (802.3ad) unbedingt haben sonst geht's nicht. bei der intel-nic-software kannst du einfach nen team aus zwei adaptern machen (oder mehr). für das trunking müssen noch andere vorraussetzungen erfüllt werden, möcht ich hier aber nicht näher drauf eingehen... (hab's gestern mal ausprobiert, es verhält sich auch nicht jeder switch gleich.. :\ )

gruß
hostile

edit; was raid 1+0 oder 5 angeht: es kommt halt drauf an was du mehr willst; bissl mehr performance oder bissl mehr netto-kapazität. für nen fileserver würd ich da auf raid 5 gehen, für nen db-server mit file-server als nebenaufgabe dann doch eher 1+0.
 
Zuletzt bearbeitet:
@NICs
Naja, zu den anfangszeiten haben die alle gleichviel gekostet, da gabs kein billig oder teuer(mal jetzt die fetten serverkarten ausgenommen)



RAID10 ist wesentlich schneller als RAID5/6 IO und transfer ca 20-25%(3ware und raidcore). Gibt bestimmt genügend benches im netz.

Das mit der kabelverlegung muß geklärt werden.

Möglichekeiten für CAT kabel:
2 trassen mit fernmelder und elektro getrennt oder eine bauliche trennung innerhalb einer trasse.
Ich kann mir ehrlich gesagt nicht vorstellen, wenn da schon fernmeldeleitung sind, dass die alles zusammengepackt haben, mir würde sich da alles im magen umdrehen.

@merlin, mach ggf fotos@kabelschacht, wenn du dir unsicher bist.
 
Zuletzt bearbeitet:
da er ohne hin genug reserven haben wird würde ich halt zum raid 10 gehen und so teuer sind die paar "verlorenen" gb nicht
 
Hi Magic_Merlin !

Ich Link (<- Achtung - kleiner Scherz :d ) mich auch mal in den Thread ein.

Um auf Deine Grundfrage zurückzukommen ...
Derzeit verwendest Du ein Mid-Range Desktop Board als Server.
Dieses hat weder PCI-X noch PCI-E noch einen ordentlichen Raid-Controller (abgesehen von dem Intel ICH5R Onboard)

Somit ist dort mit Aufrüsten bzgl. Gigabit Karte / Raid Karte der PCI-Bus im Weg.

Und warum steht da Realtek 8139 ? Ist da noch eine Netzwerkkarte drin ? Oder hängt der "Server" gar mit der am Hub/Switch ?!?!

Also - um ordentlich mehr Power zu bekommen bräuchtest Du:
1 - neuen Server mit besseren Board / Anbindungen
2 - neuen Switch (entweder mit GB Uplink oder ein reiner GB)
3 - GB Karten für die Clients

Das ist schon recht viel und was ich mitbekommen habe auch nicht im Budget drin.

Deshalb meine Empfehlung wodurch Du sicher an Leistung gewinnst:
Nimm auf jeden Fall einen 24 Port GB Switch (kann auch ruhig ein billiger sein denn bei Eurem Netzwerk ist ein managed etwas zu hoch gegriffen) oder einen 24 oder 48 Port 100MBit mit 1000-TX (!) Uplink Ports (aufpassen - denn viele Switches haben nur GBIC Slots wo man diese dann erweitern kann - kostet wieder extra)
Häng alle Clients und den Server auf die Mainboard internen GB Anschlüsse (diese sind zwar meist [wie z.B. auch beim P4P800-SE] über den PCI angebunden - aber ein wenig Leistungssteigerung hast Du sicherlich damit)
Für alle die keinen GB Lan onboard haben kauf' Dir billige GB PCI Karten. Zwischen 10 und 20 EUR solltest Du ganz brauchbare bekommen. Marke / Chip ist in der Preisklasse fast egal. Mehr zahlt sich nicht aus.

Somit hast Du sicherlich mal eine Leistungssteigerung - denn 100MBit Netzwerke erreichen selbst bei super NW Karten und super Switches nur so 8-9MB/sek.
Du solltest dann (geschätzt) zwischen 30 und 50 MB/sek zusammenbekommen.

Und derzeit hast Du ja dann mehrere Flaschenhälser die das GB Netzwerk runterbremsen - die wie gesagt sich auf einmal zu wechseln nicht ohne großem Budget lösen lässt.
Deine Flaschenhälser dann:
1. Server :
1.1 Festplatten nicht schnell genug - Abhilfe Raid (0,5,10 etc) oder bessere Platten
1.2 Controller (nur über PCI angebunden - auch nicht sinnvoll upgradebar) - Abhilfe neues Board / Server mit entweder integrierten ordentlichen Controller oder PCI-X oder PCI-E Schnittstellen + Controller dafür
1.3 Netzwerk Chip auch nur über PCI angebunden - Abhilfe neues Mainboard / Server denn Du hast derzeit nur PCI
2. Clients:
2.1 Netzwerk Chip auch nur über PCI angebunden (bei den P4P800-SE Boards, bei dem angesprochenen Dell Pentium-D wird der Netzwerkchip [hoffentlich] über PCI-E angebunden sein)

Wenn Du einen Punkt beim Server änderst - bringt Dir das nix - eben weil die anderen Punkte noch bremsen. Somit ist dort nur ein Mainboardwechsel / Serverwechsel sinnvoll.
Bei den Clients zahlt sich auch kein Wechsel aus - denn wie gesagt haben die bestimmt auch fast alle nur PCI - und da hilft auch ne bessere Karte nix.

Also - lauf los und besorg Dir nun günstigen Switch + GB Karten falls benötigt (alle die schon intern GB Lan haben solltest Du diese verwenden).

Für das nächste Upgrade brauchst Du / Ihr ja dann "nur" noch nen besseren Server mit ordentlichen Platten bzw. Raid / Controller - und tauscht diesen.
Der Switch und die Clients hast Du ja dann schon "vernünftig optimal" angebunden.
 
Also, unser Elektriker Meister sagt, dass wir n neues Kabel, getrennt von den anderen verlegen können. Wir nehmen also zur Sicherheit n Cat 6 oder 7 Kabel vom Server zum Switch.
Jetzt brauch ich aber immernoch ne Switch Empfehlung für weniger als 2000€.
Lohnt sich denn dieses Port Trunking oder kann ich das in der Praxis sowieso nicht ausnutzen? Wäre ja schon super, wenn z.b. im optimal Fall zwei Clients mit je 1GBit habe, kann jeder diese dann auch ausnutzen? (bei nem entsprechenden Server mit 4 15k SCSI Platten im Raid 10 und entsprechend 2 PCI-X NICs)

Edit: @Bucho: Dein Post bringt die gesamte Problematik auf den Punkt!
Wir werden dann auch genau so vorgehen!
Also erst mal neuer Switch und gegebenfalls neue Nic´s falls die Clients keinen Onboard Gigabit haben.
Mal schauen was unser Chef zum neuen Server sagt, ich hoffe wir können ih davon überzeugen!

Gibt es denn beim Switch denn trotzdem nen günstigen Tip bei dem man nichts verkehrt machen kann?
Wir wollen jetzt auch nicht den billigsten nehmen den es gibt, aber gibt es vielleicht ne bestimmte Firma die gute und günstige Switches anbietet? Und was sollte das untere Preislimit sein wenn man später nen neuen Server kauft, nicht das hinterher der Switch der Flaschenhals ist!

Und hat noch jemand nen gutes Tool zum auslesen des Datendurchsatzes pro Tag?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh