Encrypted 3-4 Gigabit Fileserver

mrlinux

Chef von der Geschäft
Thread Starter
Mitglied seit
02.12.2008
Beiträge
2.848
Hi leute bin gerade dabei ein Projekt für meine Firma zu realisieren...
Gesucht ist ein Fileserver für ca 2000 clients um Daten abzulegen bzw Daten die sehr häufig genutzt werden schnell verfügbar zu machen. Etliche Clients sollen auch das System vom Lan botten, sprich sehr hohe lasten werden auftreten. Das ganze soll wenn möglich auch noch verschlüsselt sein.

Was würdet ihr an Cpu und Mainboard empfehlen
Bei den Festplatten hatte ich an
OCZ Z-Drive m84 256GB, PCIe 2.0 x8
gedacht für die Files die häufig gebraucht werden.

Netzwerktechnisch wird das ganze mit einer
Intel® PRO/1000 PT Quad Port Server Adapter
und bonding realisiert

Als Betriebssystem kommt Gentoo64 zum einsatz.
Die Frage ist nun was eignet sich als Mainboard und Cpu
wenn man davon ausgeht dass Peaks von 300mb/s verschlüsselt werden müssten (Cryptsetup Luks aes-xts-256 oder ähnliches...)
Bis jetzt war ein Quadcore 2.66Ghz vorgesehen mit Gigabyte Mainboard, was vermutlich nicht ausreicht. Muss nicht unbedingt Server Hardware sein, da wir davon mehrere Bauen und somit Ausfallsicherheit gewährleitet ist.

MfG mrlinux
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie ist das Budget?
Und ich booten alle Rechner (ungefähre Anzahl wäre nicht schlecht) das gleiche Betriebssystem vom Server oder hat jeder sein eignes?
Wie viel Speicherplatz wird insgesamt gebraucht?
 
8 opteron cores crunchen bei truecrypt aes+towfish 300MB/s weg. Wenn Single, dann nen highclock i7. Oder direkt 6core i7.
 
Wäre für sowas nicht eine dedizierte SAN die sinnvollste Lösung. Ich mein 2000 clients sind ja kein Pappenstiel, sowas baut man ja nun nicht mehr selber.

Backbone
 
Laut hdparm schafft mein i5(der kleinste) ca 150mb/sec lesend mit aes-xts-256 und 220 stelliges PW, nur so als kleiner vergleich
 
Schnapp dir einen Core i5/i7 mit AES Instructions, 'schnelle' Zugriffszeiten kannst du allerdings bei Encryption primär vergessen.

Eine weitere Möglichkeit stellt natürlich ein Crypto-Coprozessor dar (alternativ, soweit möglich, z.B. via FPGA realisieren), dann sind Peaks von mehreren GByte/s kein Problem mehr. Das Problem der Latenzzeit bleibt natürlich, durch den zusätzlichen Verarbeitungsschritt und ggf. Page Faults/Cache Misses bestehen.

Laut hdparm schafft mein i5(der kleinste) ca 150mb/sec lesend mit aes-xts-256 und 220 stelliges PW, nur so als kleiner vergleich

Wow, ein 220 stelliges Passwort (=1760 Bit), welches via Hashing auf 256 Bit reduziert wird, das bringt es hinsichtlich der Sicherheit. Die Geschwindigkeit vom i5 liegt primär begründet in den AES Instructions.

Selbst ein nicht übertakteter Celeron E3200 kriegt problemlos via hdparm 80MB/s von einem SW-RAID6 (mdadm = zusätzliche Last auf der CPU) hin.


Wäre für sowas nicht eine dedizierte SAN die sinnvollste Lösung. Ich mein 2000 clients sind ja kein Pappenstiel, sowas baut man ja nun nicht mehr selber.

Backbone

2000 Clients sind nun nicht soviele Clients. Einige Webserver im Highperformance Bereich kommen auf Quadcores problemlos mit dem 100fachen klar.

8 opteron cores crunchen bei truecrypt aes+towfish 300MB/s weg. Wenn Single, dann nen highclock i7. Oder direkt 6core i7.

Crunchen tust du bei Truecrypt erstmal gar nix, berechnen tust du etwas, aber nicht crunchen.
 
Rofl - kannst gleich abbrechen mit Selbstbau. Da muss eine professionelle SAN Lösung her. Das ist das Einzige was bei derart vielen Zugriffen was reissen kann.
 
Zuletzt bearbeitet:
ein quad und ne handvoll ssds ;) herrlich. und wir haben schon probleme mit einem testserver auf dem files, plus exchage plus 4 vt-maschinen laufen (nicht ansatzweise über 5% ausgelastet und kaum ram zugewiesen). das exchange lahmt dermaßen und die vms sind so mehr im mid-performance bereich wenns drauf ankommt. (web server für vll maximal 5 clients gleichzeitig u.A. kleinigkeiten)..
ist auch ein xeon Quad mit 8gb und serverboard im gbit lan..

überdenke dein vorhaben gründlich. bei solchen ansprüchen solltest du mehr darüber nachdenken ob du 1 oder 2 serverschränke brauchst :)

vor allem was macht ihr, wenn diese endverbraucherlösung den löffel abgibt? erstmal einen clon von dem zusammengebastelten aufstellen? was ist mit den daten darauf? wie synchronisieren.. etc pp. kann u.U. schon ein paar stunden dauern bis es wieder so läuft, wie es soll ne.
wenn schlimmstenfalls 1000-2000 clients nicht mehr gescheit arbeiten oder gar booten können, muss die geschäftsleitung schon seeeehr gechillt sein um dich nicht gleich zu entlassen weil da so ein spielzeug seinen dienst verrichtete.

und btw 2000 clients und 300 mb/s .. das macht rechnerisch jute 6mb/s pro client. kann man schön 2-3 kaffe trinken gehn bis ein client davon bootet.
 
Zuletzt bearbeitet:
Crunchen tust du bei Truecrypt erstmal gar nix, berechnen tust du etwas, aber nicht crunchen.


Dann einfach nochmal deine Englischkenntnisse auffrischen.
crunchen = berechnen

Kommmt vom numbers crunchen, was soviel heißt wie über zahlen brüten und die durchrechnen, ergo berechnen.

Es wird bei truecrypt also gecruncht(es wird ein einfacher algorithmus durchgerechnet mit einem einfachen Ergebnis, welches anschließend gespeichert wird), oder auch berechnet, wenn man es in Deutsch ausdrücken möchte.
 
Zuletzt bearbeitet:
8 opteron cores crunchen bei truecrypt aes+towfish 300MB/s weg. Wenn Single, dann nen highclock i7. Oder direkt 6core i7.
dito....


überdenke dein vorhaben gründlich. bei solchen ansprüchen solltest du mehr darüber nachdenken ob du 1 oder 2 serverschränke brauchst :)

dito...
also selbst der vorschalg mit den 5 system ist schon witzlos...
man überlege 1 server a 500clients die am besten morgneds ncoh alle zur gleichen zeit booten - gute nacht :wink: (okay mir fallen server ein mit exteren storages die das schaffen würden - aber kauft davon lieber neue firmen ... )


also 2 Serverschränek a 42HE wirste vollbekommen mit alle server storages / backup storage / autoloadern / usvs etc... und die netzwerkverkabeln nicht vergessen und die trennung der stromkreise und abtrennung via fiber - der backupsysteme etc...



Grüße
MAFRI
 
Was gibt denn euer Netzwerk her?
Ich hab hier schon probleme mit vergleichsweise wenig Nutzern wenn ich nur deren datan im Netzwerk liegen habe, also ohne zu booten. GBit LAN ist da schon schnell ein Nadelöhr.
Die Kisten die davon Booten, müssen die danach auch noch datzen aus dem Netz lesen oder verteilt ihr ein Ramdisk image oder sowas?

Hab gerade nochmal deine Frage gelesen, nur ein Teil der clients soll von dem Storage booten oder?
Mach dir Gedanken darüber welche Daten du verschlüsseln möchtest und welche wie schnell im Zugriff sien müssen. Ich schätze mal das gnaze wird sich besser realisieren lassen wenn du die Systeme genau nach ihren Anforderungen baust. Also verschlüsselte Daten nicht auf dem gleichen System ablegst wie Daten auf die besonders performant zugegriffen werden muss.

Wie werden die Daten freigegeben? 0815 Protokoll wie CIFS oder NFS? Wie sieht eure Netzwerkinfrasturktur aus?
 
Zuletzt bearbeitet:
Dann einfach nochmal deine Englischkenntnisse auffrischen.
crunchen = berechnen

Kommmt vom numbers crunchen, was soviel heißt wie über zahlen brüten und die durchrechnen, ergo berechnen.

Es wird bei truecrypt also gecruncht(es wird ein einfacher algorithmus durchgerechnet mit einem einfachen Ergebnis, welches anschließend gespeichert wird), oder auch berechnet, wenn man es in Deutsch ausdrücken möchte.

1. Crunchen wäre wenn eine eingedeutsche Form von "to crunch", und "to crunch" entspricht "zermalmen" und nach meinem Kenntnisstand heißt es nicht "ich zermalme mal eben die Wurzel aus 2".
2. "Number crunching" ist ein Begriff aus dem High-Performance Computing, welches sich ausschließlich auf die massive Verarbeitung von numerischer oder mathematischer Daten zur Analyse bezieht, insb. trifft also bei Truecrypt diese Definition nicht zu.

Get your facts straight l.


Rofl - kannst gleich abbrechen mit Selbstbau. Da muss eine professionelle SAN Lösung her. Das ist das Einzige was bei derart vielen Zugriffen was reissen kann.

Wenn man kann Ahnung hat, einfach mal Fr*ss* halten.



ein quad und ne handvoll ssds ;) herrlich. und wir haben schon probleme mit einem testserver auf dem files, plus exchage plus 4 vt-maschinen laufen (nicht ansatzweise über 5% ausgelastet und kaum ram zugewiesen). das exchange lahmt dermaßen und die vms sind so mehr im mid-performance bereich wenns drauf ankommt. (web server für vll maximal 5 clients gleichzeitig u.A. kleinigkeiten)..
ist auch ein xeon Quad mit 8gb und serverboard im gbit lan..

überdenke dein vorhaben gründlich. bei solchen ansprüchen solltest du mehr darüber nachdenken ob du 1 oder 2 serverschränke brauchst :)

vor allem was macht ihr, wenn diese endverbraucherlösung den löffel abgibt? erstmal einen clon von dem zusammengebastelten aufstellen? was ist mit den daten darauf? wie synchronisieren.. etc pp. kann u.U. schon ein paar stunden dauern bis es wieder so läuft, wie es soll ne.
wenn schlimmstenfalls 1000-2000 clients nicht mehr gescheit arbeiten oder gar booten können, muss die geschäftsleitung schon seeeehr gechillt sein um dich nicht gleich zu entlassen weil da so ein spielzeug seinen dienst verrichtete.

und btw 2000 clients und 300 mb/s .. das macht rechnerisch jute 6mb/s pro client. kann man schön 2-3 kaffe trinken gehn bis ein client davon bootet.

1. Siehe unten
2. Schonmal die Kosten von einem Kontextwechsel angeguckt? Treten bei dir, dank Exchange und VMs, definitiv zuhauf auf.
3. Ich habe es gerade einmal gecruncht und es sind rechnerisch 0.6MB/s pro Client, booten kann er bei so geringen Datenübertragungsgeschwindigkeiten, zumindestens wenn er es nicht staggered umsetzt, vergessen.

Einen Backupplan sollte er natürlich haben, aber das ist nicht Thema des Threads.


Die Fragen von Fr@ddy sind, bei ernsthaftem Interesse, sinnvoll zu beantworten.



Der Threadposter hat weder gesagt, dass alle 2000 Clients von dem System booten soll, noch, dass das OS welches geladen werden soll mehrere Hundert MB oder mehrere GB groß ist, daher sind mal wieder so ca. 90% der Antworten (neben Fr@ddy stellt FlameZz, trotz Orthografie, eine Ausnahme dar) in diesem Thread reine Interpretation ohne fundierte Argumentation, aber hauptsache erstmal einen auf 'dick Ahnung' machen, obwohl ihr noch bei Mama/Papa im Keller wohnt.
 
Mal so nebenher als "Unwissender aber extrem Interessierter": Was fallen denn bei solch einem Projekt für Kosten an...?

Also ich hab mir gestern einfach auch mal ein paar Gedanken dazu gemacht und war erst einmal von 500 Clients ausgegangen die vom Netz booten sollen (Zitat TE: "etliche Clients").

Die angesprochenen 3-4Gbit packen das ganze, aus meiner Sicht, nie im Leben. Oder irre ich mich..?

Ich selbst würde wohl eher zu einem ca. 40HE Serverschrank tendieren und den voll ausrüsten und eben komplett noch ein zweites Mal als Backup aufstellen.

Aus meiner Sicht spielt die CPU Power eig. gar nicht mal so das Problem dar - ich denke das man da mit Multi-Core-Opertons oder gut dimensionierten XEONs (ich würde Quad-Cores vorschlagen) gut auskommt. Den Flaschenhals wird wohl zum einen die Netzwerkverbindung und darstellen und durchaus auch noch die Platten. Ich mein 2000 Clients sind nun echt nichts kleines mehr...

Auf die Frage, wieviel RAM man den Servern spendieren sollte, konnte ich aber leider keine Antwort finden.

Aber ich denke eig. das es min. schon 10Gbit sein dürfen - vielleicht sogar noch etwas mehr.

Ich möchte an dieser Stelle aber noch einmal betonen das ich in derartigen Größenordnungen noch nie irgendetwas realisiert habe. Würde mich also freuen, wenn sich mal einer der "großen, erfahrenen" hier mal meines Postings annehmen könnte und einzelne Fakten durchsprechen könnte. Hilft dem TE ja sicher auch.

Aber ich denke wir sind uns alle einig: Selbstbau wird in diesem Falle schwierig - allein schon wegen der Wartung. Ich denke in diesem Fall wäre eine Lösung von Dell/HP schon eher angebracht - insbesondere wegen der Hardware-Wartung und einer schnellen Verfügbarkeit von Ersatzteilen.

Noch mal eine Frage an den TE: Was für ein OS kommt denn eig. auf den Clients zum Einsatz und was für Anwendungen laufen darauf..? Es hieß ja das viele, schnell verfügbare Daten ständig über das Netz übertragen werden. Datenbanken vielleicht..?

Gespannte Grüße

yumyum
 
Die vermeintlich großen haben auch nicht für jedes Problem eine Lösung. Und wenn man nicht zum sparen gezwungen ist kann auch ein selbst durchgeführtes Projekt was anders werden als eine Bastellösung.

Ich würde erstmal definieren welcher Dienst wie stark genutzt werden soll, für jeden Anwendungsfall Anforderungen wie Verfügbarkeit, Performance, Verschlüsselung definieren und dann mal sehen wie alles zusammenpasst.
Zuvor natürlich prüfen ob eure Netzinfrastruktur dem Vorhaben gewachsen ist.

Dann kann man sich Gedanken machen welche Protokolle für die Datenübertragung genutzt werden.
Und dann kann man sich über Hardware Gedanken machen.

Evtl. tuts für den Datenaustausch ne fertige Lösung wie z.B. ne Netapp, für booten der Clients kanns ja warscheinlich ne redundante selbstbaulösung sein oder eine VM. Vielleicht kann man die kKste(n) mit den Client-Images auch "näher" an die boot-clients schieben, um die Last im Netzwerk zu verringern.

Vielleicht wirfst du aber auch schon einen Teil des Vorhabens über Bord weil es sich nicht realisieren lässt.

Egal wie du das ganze Angehst bevor man über Hardware nachdenkt sollte alles andere mindestens einmal durchdacht sein.
 
@Mod, ich denke, dass gehört in den Profi Bereich

BTT:
Also, 2k Clients und ein Server ist unmöglich.
Zudem gibt es noch ein praktisches Problem: Wenn du die Quad Karte bündelst auf 4GBit/s, hast du nur noch ein Netzwerk. In ein Klasse C Netz können aber max. 254 Clients (z.B. 192.168.1.1-255)
D.h. damit alle 2k Clients auf den einen Server zugreifen können, musst du 8 C-Klasse Netze machen und untereinander über Routing Server Verbinden. Du kanns natürlich auch einen einfach Router nehmen, der dann aber ein absoluter Flaschenhals ist, da dann über den einen Routerport 254 Clients zugreifen wollen.
Ich würde eher für jedes Netz einen Server nehmen und die Clients, die übers Netzwerk booten müssen gleichmäßig über diese Netze verteilen.
Dann musst du auch die Daten so speichern, dass möglichst wenig Daten von einem Netzwerk ins andere übertragen werden müssen, weil dann schnell der Routing Server zum Flaschenhals wird.
 
BTT:
Also, 2k Clients und ein Server ist unmöglich.

Falsch. Bitte einmal nach Benchmarks suchen (Stichwort: High Performance *Server). Danke.

Zudem gibt es noch ein praktisches Problem: Wenn du die Quad Karte bündelst auf 4GBit/s, hast du nur noch ein Netzwerk. In ein Klasse C Netz können aber max. 254 Clients (z.B. 192.168.1.1-255)
D.h. damit alle 2k Clients auf den einen Server zugreifen können, musst du 8 C-Klasse Netze machen und untereinander über Routing Server Verbinden. Du kanns natürlich auch einen einfach Router nehmen, der dann aber ein absoluter Flaschenhals ist, da dann über den einen Routerport 254 Clients zugreifen wollen.
CIDR.

Ich würde eher für jedes Netz einen Server nehmen und die Clients, die übers Netzwerk booten müssen gleichmäßig über diese Netze verteilen.
Dann musst du auch die Daten so speichern, dass möglichst wenig Daten von einem Netzwerk ins andere übertragen werden müssen, weil dann schnell der Routing Server zum Flaschenhals wird.

Du würdest auch von einem Hochhaus springen, sollte man trotzdem nicht nachmachen.

___________________________________________________________________________________________________________________________________________ <- Achtung Kontextwechsel!

Nächster?
 
Zuletzt bearbeitet:
Hier is er:xmas:

Falsch. Bitte einmal nach Benchmarks suchen (Stichwort: High Performance *Server). Danke.


Das was andere angedeutet haben ausschreiben ist ja echt keine kunst.... ( siehe mein post... )
Also haben doch mehr als 2 leute hier sinnvolles oder inhaltlich richtiges geschrieben...

also leute wie du sollten diesem forumbereich fernbleiben... '(oder etwas freundlicher werden - echt ey )

Mit einem Server ist sowas nicht machbar!
Selbst eine kiste die alle 2000Cleints bedienen kann in allen bereichen - wo ist da dann das Backup / die Fehlertoleranz etc. ?


Ich entschuldige wenn ich mit Begriffen wie Fehlertoleranz / Backup deine Intelligenz beleidige - weil sowas ja nicht nötig ist ( wenn man jetzt deiner 1 Serverthese folgt... )




Ich finde der Theardstarter sollte mal genauere angaben für uns posten und dann können wir weitersehn...


grüße
MAFRI
 
Zuletzt bearbeitet:
@Autokiller

@Routing oder nichtrouting
Es gibt zig Einrichtungen, die haben deutlich mehr Devices wie es das ursprüngliche Klasse C-Netz zugelassen hat. Ich kenn da so einige Netze, da würdest du auch mit 20 alten "C-Netzen" nicht hinkommen, dennoch scheint das einwandfrei zu gehen, ohne dass man inhouse nen völlig bescheuertes Routing schafft.

CIDR wurde schon genannt.
Man hat dann doch irgendwann gemerkt, dass man damit (alte Einteilung) nicht weiterkommt. Somit ist es also heute möglich selbst riesige physische Netze in ein großes logisches Netz zu stecken.

@Server:
Es kommt immer auf die Server an. Es gibt aber durchaus Server, die können das x-fache dessen leisten, was du dir vorstellst. Nur sind diese hier(Forum), leider, kein Thema, weil wir einfach keine User dafür haben. Aber man kann sich da schon das ein oder andere Eigenheim anstelle eines solchen Server von kaufen.

Wie gestern(oder heute Morgen) schon gesagt wurde, müßte man erstmal die Anwendung genaustens spezifizieren. Die ersonne Lösung kann Sinn machen, wenn du User nur kleine .doc öffnen, für das Arbeiten mit großen Files ist das dann widerum nicht mehr praktikabel.

*moved*

EDIT:
Was mich aber noch viel mehr interessiert, was soll denn eigentlich verschlüsselt werden? Die Daten (auf dem Storage) selber, oder die Kommunikation?
Was wird damit bezweckt?
 
Zuletzt bearbeitet:
Hier is er:xmas:

Das was andere angedeutet haben ausschreiben ist ja echt keine kunst.... ( siehe mein post... )
Also haben doch mehr als 2 leute hier sinnvolles oder inhaltlich richtiges geschrieben...

Korrekt, das wären: Fr@ddy, FlameZz und ich. Was hast du bitte ausgeschrieben? Hast du meinen ersten Post nicht gelesen (Hinweis: er ist vor deinem)?

also leute wie du sollten diesem forumbereich fernbleiben... '(oder etwas freundlicher werden - echt ey )
Fühlst du dich etwa persönlich angegriffen? Darf ich bitte um etwas mehr Objektivität bitte?

Ich bin (noch) freundlich, aber es nervt jedesmal, dass hier wieder viele einen auf 'dicken Macker' machen.


Mit einem Server ist sowas nicht machbar!
Selbst eine kiste die alle 2000Cleints bedienen kann in allen bereichen - wo ist da dann das Backup / die Fehlertoleranz etc. ?
Ich entschuldige wenn ich mit Begriffen wie Fehlertoleranz / Backup deine Intelligenz beleidige - weil sowas ja nicht nötig ist ( wenn man jetzt deiner 1 Serverthese folgt... )

Lern lesen (und schreiben). Es geht darum, dass es mit einem Server machbar ist. Das Backups und Fehlertoleranz notwendig sind, kannst du in einem meiner vorhergehenden Posts lesen, allerdings ist es völlig irrelevant für diesen Thread, denn darum geht es einfach nicht. Generell wird die Fehlertoleranz/Backup Geschichte wird hier in jedem Thread mindestens 17mal aufgegriffen und diskutiert, abgesehen davon, dass es nicht mehr diskussionswürdig ist (jedem ist klar, dass es n Möglichkeiten mit m Unterschieden und j Vorzügen bei i Anbietern gibt), scheint es so, als würde hier jeder nur grundlegende Ahnung von Fehlertoleranz/Backups haben und mit den Begriffen wild um sich werfen bzw. blenden, damit er auch mal Ansätze von Aufmerksamkheit bekommt.

Ich finde der Theardstarter sollte mal genauere angaben für uns posten und dann können wir weitersehn...

grüße
MAFRI

Stimme ich zu.

EDIT:
Was mich aber noch viel mehr interessiert, was soll denn eigentlich verschlüsselt werden? Die Daten (auf dem Storage) selber, oder die Kommunikation?
Was wird damit bezweckt?
Frage ich mich ebenso.

.
 
Zuletzt bearbeitet:
Meine Empfehlung währe es ein Firma zu beauftragen die dir das Cluster auch plant und instaliert. Denn bei der Größenordung sollte man die Finger wirklich lassen wenn so etwas net schomal gemacht hat.

Das sage ich auch.
Mich wunderts schon, dass dieser Thread überhaupt eröffnet wurde.

Ich würde das auf jeden Fall eine externe Firma machen lassen, mit entsprechenden Verträgen. Denn wenn mal was nicht geht, dann bringts der Firma nicht viel, den eigenen IT-Verantwortlichen zu beschuldigen...
 
V.a. ist bei 2000 Clients das Thema (Hoch-)Verfügbarkeit wichtig. Wenn da auch nur 1 Stunde lang nichts geht, kann es ja gleich eine Menge Geld kosten. Zumal man (je nach Branche) darüber hinaus ja auch gezwungen ist, seine Daten für einen sehr, sehr langen Zeitraum aufzubewahren.
 
vll ists ja sogar ein systemhaus und nicht die firma selbst. den startpost kann man so oder so interpretieren..

wie rum auch immer. entweder man setzt es sicherheitshalber stark überdimensioniert auf eigene faust um, testet die lösung mehrere tage/wochen im kleinen (ip-)kreis oder man übergibt das projekt, zahlt warscheinlich nicht wesentlich mehr und es wird funktionieren. zumindest besteht dann ein anspruch darauf.

ich hatte das seinerzeit in einem 150 mann unternehmen umgerechnet, was ein reiner PDC & BDC(durch z.b. plötzliche überlast) ausfall mit all seinen konsequenzen wie auch bsp. exchange pro stunde kosten würde. die edv hatte sich dann auch entschlossen, neue server und einen dazugehörigen wartungsvertrag von extern anzuschaffen.
den verlust der da im ernstfall aufgelaufen wäre, wenn die umsetzung schief gelaufen wäre oder ein ausfall stattgefunden hätte, den hätte kaum noch was wettmachen können. ging an die 150.000€ pro tag.
und so lange brauchts wenn man unvorbereitet irgend einen haufen hardware "zur sicherheit doppelt" im schrank eingelagert hat. vll noch eine datensicherung vom vorabend, weil hat mit dem projekt vorrangig ja nix zu tun, braucht man nicht konsequent weiterverfolgen^^

und auch wenns vielleicht richtig fies rüberkommt.
in einem unternehmen dass (auch wenn als neues projekt systemhaus) für so viele workstations verantwortlich sein soll und dafür solide lösungen entwickeln muss, hat die inkompetenz des TE einfach nichts verloren. auch wenn das doch häufig der fall ist. allein vom ansatz her ist das projekt ein fail.
 
Zuletzt bearbeitet:
RamSan-6200
selbst wenn alle 2k gleichzeitig booten bleiben theoretisch für jeden noch 30MB/s :d
 
Bevor hier weiter gemutmaßt wird sollte sich der TO mit genaueren Infos zu Wort melden sonnst kann hier jeder X Lösungen vorstellen die zu 90% am Ziel vorbeigehen...
 
himmel
selbstbau :eek:
und dann noch das ober-frickel-linux gentoo :lol:

mit solchen anforderungen tritt man an IBM heran und die kommen vorbei und beraten einen was man da nehmen kann.
ohne mindestens eine SAN kommt man da sicher nicht rum
ausserdem sollte das ja wohl hochverfuegbar ausgelegt sein - sprich 2. san in einem anderen gebaeude sowie mehrere server im cluster.
 
ok, einfach Rechnung mit rein theoretischen Werten:

4x Gbit bietet dir 500Mb/s
wenn wir mal annehmen das gleichzeitig nur ca. 1/3 aller User darauf zugreifen sind wir schon mal bei weniger als 1Mb/s pro User.

Da pflichte ich doch meinen Vorrednern bei: Jemanden fragen der sich mit sowas auskennt, bzw. n sauberes Server Sizing erstellt.
 
Zuletzt bearbeitet:
4 x GBit 600MB/s ?
4 * 1000 Mbits/s / 8bit = 500MB/s oder nicht ?
Habe ich einen Fehler in der Rechnung?
Und das ist auch nur die theoretisch mögliche Geschwindigkeit ..

lg
 
4gbit*1024mbit/8bit=512MB/sek, effektiv wird man wohl bei knapp unter 500 landen
 
Wer sagt das sie viel Speicher brauchen?
Es wurde berichtet das ein Teil der Daten verschlüsselt werden soll. Und platz zum Datenaustausch zur Verfügung gestellt wird.

Das Booten der clients kann ganz verschieden sein, per ISCSI verbundene Platten für jeden einzelnen Rechner bei 2000 clients sind was anderes als wenn an jeden Rechner ein kleines boot-image verteilt wird, das nach dem Boot clientseitig in einer Ramdisk vorgehalten wird.

Man kann auch einen Bootmanager über LAN starten und wenn das neuste OS installiert ist danach on der lokalen Platte starten, da fließen kaum Daten. Für sowas betreibe ich ne kleine VM mit ca. 100 clients im Workstation-subnetz. Wir verteilen damit neue Images. Installationen dauern bei clients die mit 100mbit angebunden sind ca. 20min inkl. Anwenderprogrammen. Die daten werden komprimiert bevor sie übertragen werden. Bzw. das Image liegt komprimiert vor.

In einem anderen Netz haben wir eine ähnliche Lösung auf einer kleinen physiklischen Maschine für etwas mehr als 150 clients und die wird auch die nächste Ausbaustufe mit 200-250 clients versorgen können.

Ich wollte nur aufzeigen das nicht immer alles riesengroß und unmöglich sein muss, auch wenn es im ersten Moment vielleicht so klingt.
Wenn du das Projekt wirklich selbst realisierst viel Spass und Glück. Konzentrier dich auf die Lösung für dein Problem und nciht auf die die dir andere verkaufen wollen.
Und das tolle Systemhaus und große Hersteller wie IBM und co kochen auch nur mit Wasser, allerdings mit Wasser das wenigstens mal wer getestet hat.
Ich glaube aber das viele Projekte an die gehen damit man jemand anderem die Schuld zuweisen kann wenn mal was schiefgeht. Nur das lassen die sich auch gut bezahlen.

Spekulieren kann man viel, ohne konkrete Informationen kommt man nicht weiter.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh