Gigabit LAN umstellung - Hardwarefragen

Magic_Merlin schrieb:
Also, unser Elektriker Meister sagt, dass wir n neues Kabel, getrennt von den anderen verlegen können. Wir nehmen also zur Sicherheit n Cat 6 oder 7 Kabel vom Server zum Switch.
Jetzt brauch ich aber immernoch ne Switch Empfehlung für weniger als 2000€.
Lohnt sich denn dieses Port Trunking oder kann ich das in der Praxis sowieso nicht ausnutzen? Wäre ja schon super, wenn z.b. im optimal Fall zwei Clients mit je 1GBit habe, kann jeder diese dann auch ausnutzen? (bei nem entsprechenden Server mit 4 15k SCSI Platten im Raid 10 und entsprechend 2 PCI-X NICs)

Das mit dem Kabel könntest/solltest Du machen - da es sich ja nur um einen PC (Server) und nur einer kurzen Strecke handelt zahlt sich das auf jeden Fall aus.

Port Trunking macht nur Sinn wenn wirklich die benötigte Platten Leistung dahinter steht. Bei 4 15k SCSI Platten oder auch 10k SATA1/2 Platten im Raid0 oder 10 denke ich sollte es reichen 2-5 Clients wie sie derzeit angebunden sind gleichzeitig optimal zu versorgen.
Macht aber nur Sinn wenn wirklich viele Clients gleichzeitig drauf zugreifen oder ein 2. Server (Backup Server o.Ä.) auch sehr flott am Netzwerk angebunden ist und viel Bandbreite braucht.

Ist halt die Frage was entprechende Netzwerkkarten / Switches die das Port Trunking optimal unterstützen kosten.
Wenn Switch und Karte zusammen gleich mal 2000-3000 EUR kosten zahlt es sich bei Euch meiner Meinung nach nicht aus.

Da bist Du mit einem 24Port 1000er Switch um die 500 EUR besser bedient.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bucho schrieb:
Das mit dem Kabel könntest/solltest Du machen - da es sich ja nur um einen PC (Server) und nur einer kurzen Strecke handelt zahlt sich das auf jeden Fall aus.

Was meinst du mit "nur" Pc(Server)?
Sollten wir, wenn eh nen neuer Server angeschafft wird auf andere Kabel setzen?

Gibt noch n Edit auf Seite 2
 
Zuletzt bearbeitet:
Nimm doch einfach den Taskmanager von Windows um die Datentransferrate anzuzeigen. Die % Zahlen von den rechneste dann einfach um in MB und fertig.Das reicht.

Ach ja logischerweise sind alle %-Zahlen die über 10 liegen (zb 13,18 oder 25)
ein Ergebnis der neuen Verkabelung/Netzwerkstruktur!!! da siehste dann schon was du geschafft hast!
 
ähm... Netio? *g* frei erhältlich.

um nicht immer neu die parameter einhacken zu müssen hab ich mir ne batchdatei geschrieben:

client.bat:
Code:
@echo off
set /p DEST=Bitte Ziel-IP eingeben:
win32-i386 -t %DEST%
call client.bat

server.bat
Code:
@echo off
win32-i386 -s -t

bei mehreren verbindungen:

client2.bat:
Code:
@echo off
set /p DEST=Bitte Ziel-IP eingeben:
set /p PORT=Bitte Ziel-Port eingeben:
win32-i386 -p %PORT% -t %DEST%
call client2.bat

server2.bat
Code:
@echo off
set /p PORT=Bitte Port eingeben:
win32-i386 -s -t -p %PORT%


gruß
hostile
 
Also ich denke jeder Switch mit 24 GB Ports sollte da ok sein - auch die billigen. Der von Dir gelistete ASUS ist sicherlich OK.
Gute Switches (stackable oder managed oder beides) braucht man nur für größere Netzwerke bzw. wenn man wirklich dediziert mehrere Server einsetzt und diese auch jeweils eine Hauptaufgabe besitzen und man halt jedes letzte Quantchen an Leistung rausholen will.
Für Eure Größenordnung (solange Ihr unter 24 Netzwerkgeräten bleibt) ist so ein "billiger" Switch ausreichend.

Schau halt eventuell drauf wie lange der Hersteller Garantie gibt.

Bzg. Tools ... lad' Dir mal DU Meter runter
http://www.dumeter.com/download.php?LangID=DE

Kannst Du 30 Tage lang als Shareware verwenden.
In dem Prog kannst Du in den Optionen einstellen was für ein Interface er überwacht. Dazu zählen auch Modems bzw. Einwählverbindungen.
Die Grafik kannst Du beliebig einstellen - und auch die Aktualisierungsgeschwindigkeit usw.
Ebenfalls kannst Du mitprotokollieren wieviel Daten da drüber gehen und auch dann ne tägliche Übersicht aufrufen.
Ist echt recht praktisch.

EDIT:
Mit dem Kabel dachte ich daß Du nur beim Server das Problem hast daß das Netzwerkkabel neben den Stromkabel verläuft.
Aber ich hätte mal gesagt bevor Ihr da groß zum Neuverkabeln anfangt schaut mal nach was Ihr jetzt habt (Cat5e sollte es schon sein) und probiert's mal mit diesem aus.
 
Zuletzt bearbeitet:
Richtig Ebay kommt nicht in Frage!

Denke wir nehmen dann den Asus oder nen vergleichbaren von 3Com...
Die liegen bei ca.350€ was schön günstig ist und für unsere Bedürfnisse reichen müsste!
 
jo, managed braucht ihr nicht ;)

hauptsache genug ports und dann eben auch 24x Gb wenns nicht viel teurer ist
 
Naja, im bei einem Ausfall müsste wohl für ein oder zwei Tage mit dem bestehenden 100Mbit Switch gearbeitet werden, das wäre kein Beinbruch.

Ich hab aber noch ne Frage zu den verschiedenen Raid Varianten.
Zur Auswahl stehen mit 4 Platten ja Raid 10 und 01.
Wenn man sich die Bilder auf Wikipedia anschaut ist der Unterschied klar:
180px-RAID_01.png

180px-RAID_10.png

Doch warum laut Wiki Raid 10 sicherer als Raid 01 sein soll verstehe ich nicht.
Welches von beiden ist denn schneller?

Was hat es denn mit dieser Variante aus dem Raid Guide im Festplatten Bereich auf sich?
Steht unter Raid 10, aber ist doch weder Raid 10 noch 01 oder?
RAID_10.gif
 
Zuletzt bearbeitet:
also ich erkenne da keinen logischen unterschied, du hast halt zwei platten auf die werden die daten aufgeteilt und diese beiden platten werden dann wiederum gespiegelt ...
 
aber da gibts schon nen Unterschied,. erst spiegeln dann Parity oder erst Parity und dann spiegeln.. aber ich weiß auch net wie das gehen soll lol is halt Raid 0+1 und Raid 10
 
Und was untere Darstellung hier aus dem Forum zu bedeuten?
Das ist doch eine ganz andere Logik als die von Wikipedia, oder nicht...
 
nee meinte ja nur DatenverTEILung.. dass es doch noch jmd auffiehl.. mensch is ja wieder peinlich *indieeckegeh*
 
meiner meinung nach ist raid 01 besser als raid 10.

begründung: bei einem raid 10 wie auf dem bild zu erkennen ist gibt es 2*raid1 was dann zu einem raid0 zusammen gefasst wird. was passiert wenn jetzt aber der controller für 2 platten aussteigt ? dann ist das komplette raid hinüber.

beim raid01 gibt es ja 2*raid0 und das wird gespiegelt. fällt also eine controller aus geht alles weiter. hier müssen schon 2 controller gleichzeitig ausfallen damit nichts mehr geht.

aber man sollte bei nem raid eh für jede platte einen extra controller nehmen eben wegen oben beschriebenen problem
 
für jede platte nen extra kontroller ?!?

wie jetz ? die hängt man alle an einen Raid Controller und richtet darauf das raid ein
 
an einem controller ist ohnehin klar, sonst musst ud das raid ja über mehrere controller machen und das is ja wohl unsinn, zumal ein controller eigtl eh nie kaputt wird
 
Früher hat man öfters 2 Controller verbaut.
Mir ist zwar auch noch nie zu Ohren gekommen daß mal ein Controller vor seinen Platten eingeht - aber was soll's.
In der Firma von meinem Vater hatten wir vor ... uhm ... sicher 18 Jahren oder so einen 386er :fresse: Server mit 2 x Adaptec ISA SCSI Controller und jeweils 2 x 80 MB Quantum SCSI Platten dran.
Das ganze lief unter Novell Network 3.x und wurde (softwareseitig !) in ein Array (jeweils die 2 Platten an einem Controller) zusammengefallst und das ganze dann aufeinander gespiegelt :fresse:

Gut - damals war noch SCSI bzw SCSI-2 (Fast SCSI) gängig und somit nicht mehr als 5MB/s bzw. 10MB/s am SCSI Kanal möglich - aber die Platten haben das damals glaub ich eh noch nicht geschafft :d

Ach ja - weil auch mal die Frage hier aufkam ... also 15k RPM SCSI Platten haben hauptsächlich einen Vorteil bei der Zugriffszeit. Somit sind diese sehr gut geeignet für Datenbanken oder Webserver / Fileserver für eher kleinere Files.
Von der Datenübertragung liegen gute SATA 10k RPM Platten bzw. sehr gute 7,2k RPM SATA Platten (Maxtor Maxline III) und 10k RPM SCSI Platten nicht sehr weit von 15k RPM SCSI Platten entfernt welche gleich um ein Hauseck teurer sind.
 
burni87 schrieb:
an einem controller ist ohnehin klar, sonst musst ud das raid ja über mehrere controller machen und das is ja wohl unsinn, zumal ein controller eigtl eh nie kaputt wird


eigentlich ist eigentlich nicht eigentlich ;)

wenn er kaputt geht ist das geschrei groß :)
 
Sollte der Controller vor einer Platte schlapp machen, ist immernoch das onboard Raid da, von daher mach ich mir da nicht so große Sorgen.

In unserem Zeichnungsordner liegen ca 125000 Files, wobei nur 7000 größer als 1MB sind, von daher passen die 15k SCSI Platten ziemlich gut, denke zumindest das die was bringen sollten.
 
falconx schrieb:
eigentlich ist eigentlich nicht eigentlich ;)

wenn er kaputt geht ist das geschrei groß :)

Deshalb sollte man ja noch zusätzlich externe Backups machen. Bei uns in der Firma wird jeden Tag ein Backup von den Zeichnungen gemacht.
 
Ja wie bereits gesagt wurde, der Flaschenhals ist auf jeden Fall der Server.
Wenn ich das richtig verstanden habe ist es sowohl ein Fileserver als auch ein Database Server? Hier würde ich dann klar trennen, also Datenbank und die anderen Daten auf verschiedenen Platten bzw. RAID-Systemen.

Ein RAID10 bietet sich hier auf jeden Fall an.

Die Netzwerkanbindung ist bisher offensichtlich sehr langsam, da sich alle Clients eine 100MBit Anbindung teilen müssen. Daher wäre es nicht unbedingt nötig, für alle Clients Gigabit zu verwenden, wohl aber für den Server. Wenn alle Clients volle 100MBit ausschöpfen können, dann geht das mit den 100MB Plänen schon ruckzuck...

Ich würde hier einen 24-Port-Switch mit 10/100MBit nehmen + 2 Gigabit Ports. Der Switch sollte managebar sein und der Server dann eben an den Gigabit Ports hängen. So hätte man einen guten Kompromiss aus Leistung und Kosten.

Sollte der Controller vor einer Platte schlapp machen, ist immernoch das onboard Raid da, von daher mach ich mir da nicht so große Sorgen.
Diese Aussage ist mit Vorsicht zu geniessen. So mancher RAID Controller hat sein ganz eigenes System die Platten zu verwalten. Ein andersartiger RAID Controller kann Probleme bekommen ein vorhandenes Array zu erkennen und zu übernehmen. Es ist aber tatsächlich eher selten, dass der Controller sich verabschiedet.
 
Zuletzt bearbeitet:
@jraf
Wenn wir Raid 10 oder 01 nehmen würden müssten wir dann ja für die Datenbank 4 Platten haben und für die Zeichnungsdaten nochmal 4.
Meinst du nicht, dass das für unser System zu viel ist?
Die Datenbank selbst ist nur ca 2GB groß.
Wir wollen fürs System zwei Platten im Raid 1 verwenden. Man könnte ja auch die Datenbank da mit drauf packen.
Zum Switch, warum auf volles Gigabit verzichten wenn wir nen nicht gemanaged Switch für unter 400€ bekommen?
Nutzen uns die Managing Funktionen etwas?

Backups werden natürlich jeden Tag von den Zeichnung gemacht.
Zwar auch auf Festplatten, aber das ist eine andere Baustelle.
 
2 server für 15 clients ist übertrieben ...

nimm einen her wo alles drauf liegt, den bisherigen stellst du dann in einen anderen raum und machst regelmässig backups drauf (mind. 1x pro tag) und dann kann dir auch gerne der controller verrecken, dann steckst einfach den backup server ans netz

und ich finde 10k platten reichen ... die 15k sind schweineteuer, auch wenn sie schnell sind ...
 
burni87 schrieb:
2 server für 15 clients ist übertrieben ...

nimm einen her wo alles drauf liegt, den bisherigen stellst du dann in einen anderen raum und machst regelmässig backups drauf (mind. 1x pro tag) und dann kann dir auch gerne der controller verrecken, dann steckst einfach den backup server ans netz

und ich finde 10k platten reichen ... die 15k sind schweineteuer, auch wenn sie schnell sind ...

Jup - kann burni87 hier in allen Punkten zustimmen.

2 Server für <24 Clients ist wirklich übertrieben.
Zumal ich davon ausgehe daß nicht pausenlos alle 15 Clients größere Datenbankabfragen durchführen bzw. pausenlos Files abrufen / speichern usw.

Wir haben in unsererm Unternehmen auch ca. 15-18 Rechner / Personen wobei fast nie alle gleichzeitig da sind.
Unser Server (wurde von mir vor ca. 2 Jahren zusammengestellt und aufgesetzt :cool: :drool: ) besteht aus:
ASUS PU-DLS (Intel 7501 Server Chipsatz mit Dual Sockel 604 / mehreren PCI-X Slots und einen Ultra320 SCSI Controller onboard sowie 2 x GB Lan onboard)
2 x Intel Xeon 2,8GHz 512kB 2nd Level Cache 533FSB mit HT (somit 2 CPUs und 2 virtuelle CPUs)
2GB (4 x 512MB) Infineon RegECC DDR266 CL2 RAMs im Dual Channel Mode
Einer Adaptec Zero Channel Raid Karte im PCI-X Slot mit 133MHz / 64Bit Mode
3 x Seagate Cheetah 36MB 15k RPM Platten im Raid5 und die in einem HotSwap Einschub

Das ganze in einem Servercase mit reduntanten Netzteil und genug Lüfter um jeden Industrie Staubsauger alt aussehen zu lassen :d (vor allem in der Lautstärke :fresse: )
Da drauf rennt Win2k3 Server und eine Oracle 10g Datenbank (ca. 10GB)
Ansonsten wird er als Domainserver und Fileserver verwendet.

Und ich muß sagen der ist um Lichtjahre schneller als unser (davor verwendeter) alter HP Netserver LH3 (Dual P3 500 mit 512MB RegECC PC100 und 3 x 7,2k RPM SCSI im Raid5 auf dem HP Netraid onboard Controller) der auf WinNT4 Server Basis und Oracle 7.3 gelaufen ist.

Und bis jetzt hatten wir noch nie Geschwindigkeitsprobleme - selbst wenn mehere Leute größere Datenbank Abfragen starten und andere Office Dateien drauf herumkopieren.

Also wie gesagt - wenn Du nicht gerade sehr viel Geld für superflotte Zugriffszeiten ausgeben willst sind 10k RPM SCSI oder SATA Platten im Raid auch kaum langsamer als 15k RPM Platten.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh