Wofür die CPU im Server?

Amigac64

Profi
Thread Starter
Mitglied seit
02.10.2018
Beiträge
543
Moin!
Ich half gestern einem verzweifelten ITler der vom Cheff Auftrag bekam, die Hardware zu übernehmen (Rente) und den 20 Client Server auf zu päppeln.

Da ich neugierig bin wollte ich daher Mal fragen.
Welche Rolle spielt die CPU bei einem Datenserver?

Wenn ich z.b. einen N6005 kaufen würden (Atom) 16GB Ram 2 Sata im Raid und ein Switch mit 40GB/s an ein Netzwerk mit 20 Clients anschliesse,
mit einem Traffik von etwa 25GB/Stunde die lediglich Daten auf dem Server sichern und abrufen.
Packt die CPU das?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...soll das ein fertiges NAS sein?

Welche Rolle spielt die CPU bei einem Datenserver?
Kommt auf die Art der Nutzung und Bandbreite des Disk-Arrays bzw. der Netzwerk-Anbindung an, was da limitiert.
Für eine 10Gbps Anbindung brauchst es schon ein eine CPU mit recht potenter Single-Thread Performance.

Wenn ich z.b. einen N6005 kaufen würden (Atom) 16GB Ram 2 Sata im Raid und ein Switch mit 40GB/s an ein Netzwerk mit 20 Clients anschliesse,
...bei nur 2 HDDs im Raid1 und bis zu 2x1Gbps LAN kommt der N6005 aber bestimmt gut mit.

mit einem Traffik von etwa 25GB/Stunde die lediglich Daten auf dem Server sichern und abrufen.
damit meinst Du aber ganze Dateien zwischen Clients hin-/her-kopieren und nicht simultan die Datei dort öffnen und auf einem Netzwerk-Share arbeiten ?!? Sonst brauchst Du da mehr IOPS als eine HDD Dir liefern kann.

Packt die CPU das?
siehe oben...je nach Art der Nutzung ist nicht die CPU der Bottleneck.
 
...soll das ein fertiges NAS sein?


Kommt auf die Art der Nutzung und Bandbreite des Disk-Arrays bzw. der Netzwerk-Anbindung an, was da limitiert.
Für eine 10Gbps Anbindung brauchst es schon ein eine CPU mit recht potenter Single-Thread Performance.


...bei nur 2 HDDs im Raid1 und bis zu 2x1Gbps LAN kommt der N6005 aber bestimmt gut mit.


damit meinst Du aber ganze Dateien zwischen Clients hin-/her-kopieren und nicht simultan die Datei dort öffnen und auf einem Netzwerk-Share arbeiten ?!? Sonst brauchst Du da mehr IOPS als eine HDD Dir liefern kann.


siehe oben...je nach Art der Nutzung ist nicht die CPU der Bottleneck.
NAS, ne, dass ist nur Theorie, der von gestern hat nen Serverraum mit 3 Servern, 2 zum Backup und Probleme wegen Datenraten von 70mb/s und Stau (Traffik über 200GB zu Hotspots)

Zum Atom:
Die Raids hab ich gerad nicht im Kopf, die 2te SSD dient der Sicherung.
LAN ist angebunden mit 4*10Gbps.
Ja, hin und herkopieren. Daten sichern und teilen.
Packt die N6005 das?
 
Zuletzt bearbeitet:
NAS, ne, dass ist nur Theorie, der von gestern hat nen Serverraum mit 3 Servern, 2 zum Backup und Probleme wegen Datenraten von 70mb/s und Stau (Traffik über 200GB zu Hotspots)
Dann habt ihr aber eher andere Probleme, oder?
Zum Atom:
Die Raids hab ich gerad nicht im Kopf, die 2te SSD dient der Sicherung.
LAN ist angebunden mit 4*10Gbps.
Ja, hin und herkopieren. Daten sichern und teilen.
Packt die N6005 das?
...nicht mit 4x10Gbps...ich würde tippen, dass es bis 4x1Gbps (im Bond, 3.5-3.9Gbps - der N6005 hat ja wohl 4C je 2GHz) auf dem LAN und einem SSD-Raid1 mit dann max. 5-10Gbps dann noch gut geht.
Wie gesagt, gehe ich dabei von einem dedizierten Einsatz als NAS / File-Storage aus.
 
Dann habt ihr aber eher andere Probleme, oder?

...nicht mit 4x10Gbps...ich würde tippen, dass es bis 4x1Gbps (im Bond, 3.5-3.9Gbps - der N6005 hat ja wohl 4C je 2GHz) auf dem LAN und einem SSD-Raid1 mit dann max. 5-10Gbps dann noch gut geht.
Wie gesagt, gehe ich dabei von einem dedizierten Einsatz als NAS / File-Storage aus.
Probleme: Er war fixiert auf Kabel, hab ihm erklärt wo der Flaschenhals sitzt

Zum Atom:
. https://geizhals.de/?cat=WL-2225546
Bei welchen Sczenaien wäre der Atom überfordert?
 
Kann man so nicht sagen. Grundsätzlich ist die CPU bei reinem Storage vor allem beschäftigt mit Parity-Berechnungen (Software-RAID), Kompression, Ent-/Verschlüsselung und je nach Netzwerk kann auch da einiges anfallen.

Dummerweise kommt’s dann auf die Details an: manche Aufgaben hängen an einem einzelnen Kern, manche wollen möglichst viele. Willst Du sicher gehen, nimmst halt viele schnelle Kerne - das wird aber voraussichtlich unnötig teuer. :d
 
Zusätzlich bestimmt die CPU die Pereferie-Anbindung, wie Netzwerk und Festplatten. Der N6005 bietet 2x SATA und 8x PCIe-Gen3, kein PHY. Weiter sagt Intel, dass maximal 16GB Ram unterstützt werden. Damit sind die Grenzen sehr klar definiert, was IO angeht. Im kleinen Bereich funktionieren die Prozessoren aber gut, werden mit kleinen Änderungen in diversen NAS-Boxen verbaut.

20 Client-Server ist als Aussage aber sehr wenig und 25GB/h sagt auch nichts über die Verwendung des Storgages. Interessant wäre ein Einblick, was aktuell verwendet wird und was die Anforderungen sind.
  • Was für zusätzliche Aufgaben, wie AD, Webserver, Applikationsserver, Datenbankserver, ... werden benötigt?
  • Wird ein bestimmtes Betriebssystem wie MS Server 2019 oder Vergleichbares benötigt?
  • Was ist das mögliche Budget?
  • Was ist die Backup-Strategie und wie schlimm ist ein Ausfall?
  • Wie ist das Netzwerk aufgebaut?
  • Gibt es einen Server-Schrank und welche Abmessungen hat diese?

Vermutlich ist mit einem Gespann aus zwei redundanten "Wald und Wiese" Servern mit einem E2224, 2x 10g und 32gb Ram, einem primären Storage-Server und einem Backup-Storage die einfachste Zusammenstellung. Auf den Servern ein beliebiges Virtualisierungs-System und alles benötigte auf den zwei Servern verteilen und versuchen genug Ram frei zu lassen, dass alle VMs als sicherheit auch auf einem System laufen können.

Rechnungsbeispiel:
  • Server
    • Dell PowerEdge T40 (~450€)
    • QNAP QXG-10G2SF-CX4 Netzwerk (~180€)
    • 2x Kingston KSM26ES8/16ME (~200€)
      • Weniger als 850€ inkl Ust pro Server
  • Storage
    • Synology DS1821+ (1000€)
    • 2x Corsair MP510 480GB (~140€)
    • 4x Toshiba MG08ACA16TE (~1250€)
    • 4x WD Red SA500 NAS 1 TB (~500€)
    • QNAP QXG-10G2SF-CX4 Netzwerk (~180€)
      • Etwa 3070€ inkl Ust
  • BackupStorage
    • Synology DS1821+ (~1000€)
    • Festplatten ??
 
Zuletzt bearbeitet:
Die Hauptprobleme mit schwacher CPU treten bei höheren Datenraten im Software Raid und Verschlüssellung zu Tage. Ohne Verschlüssellung und 1G Netzwerk bei wenig Nutzern ist istAtom sicher kein Problem. Will man aber 1 GB/s oder mehr, so muss die CPU sehr leistungsfähig sein. Highend Storage auf neueren und besonders sicheren Dateisystemen wie ZFS hat eher nochmal höhere Anforderungen (mehr Daten wegen Prüfsummen, Copy on Write, Software Raid, ZFS Verschlüssellung). Max 16GB RAM begrenzt nochmal die Anwendungsmöglichkeiten bei Multi-User Betrieb. Da ist mehr RAM als Cache nötig oder wünschenswert. Auch sollte man bei einem Filer nicht nur ausreichend RAM haben sondern auch auf ECC achten.

z.B. https://napp-it.org/doc/downloads/epyc_performance.pdf im Vergleich Xeon vs Epyc bei einem 3k Euro Server/Filer unter ZFS.
Wobei man da die Core Anzahl auf 8 Cores reduzieren kann ohne dass die Performance massiv einbricht.
 
Moin!
Ich half gestern einem verzweifelten ITler der vom Cheff Auftrag bekam, die Hardware zu übernehmen (Rente) und den 20 Client Server auf zu päppeln.

Da ich neugierig bin wollte ich daher Mal fragen.
Welche Rolle spielt die CPU bei einem Datenserver?
Wenn man von solchen Sachverhalten keine Ahnung hat, geht man zu einem Systemhaus und diskutiert mit denen die Anforderungen. Da kommt dann ein passendes System bei raus. Des Weiteren hat man dann auch Support auf die Hardware, wo einem dann auch geholfen wird, wenn man was defekt ist. (gegen den Einwurf kleiner Münzen)

Was man nicht macht, sich für 50EUR das nächstbeste Billigboard nehmen und da irgendwas zusammenlöten und darauf zu hoffen, dass damit User glücklich werden und zu jeder Zeit produktiv arbeiten.
Ich kann ehrlich nicht verstehen, wie man auf die glorreiche Idee kommt, dass sowas eine gute Idee ist.
Hier gehts um Geld verdienen und um Geld zu verdienen muss man auch Geld investieren und das macht man nicht mit 50EUR aus der Kaffeekasse, die nicht alle werden.

Die CPU selber ist bei sowas eigentlich kein Diskussionspunkt. Da geht es um ganz andere Aspekte wie ECC, RAID-Controller, Wechselbarkeit, Redundanzen, RAM Kapa, Applikationen und Dienste, Adminkonzepte, Backupkonzepte, Netzwerk und vieles mehr. Die CPU(s) kommen dann automatisch bei raus. Sprich, man designt ein System nicht um die CPU herum.
Das lässt man keinen machen, der alle 3 Jahren mal den neuen CoD-PC zusammenbaut. Da gibt es Leute, die sind vom Fach und kennen sich aus. Und auf Kompetenz sollte man hören.
Rest siehe @Beinfreiheit
 
Die Wichtigkeit von Redundanz sollte man nicht unterschätzen.
Gerade erst diese Woche passiert:
Netzteil im Server ist gestorben.
Da der Server aber 2 redundante Hot-Plug-Netzteile hat, war das kein Problem: Netzkabel vom defekten Netzteil abstecken, defektes Netzteil rausziehen, neues Netzteil einstecken, Netzkabel dran, läuft und ohne Downtime.

Wie schon geschrieben wurde: Server designt man nicht um die CPU herum.
Das ist ein Gesamtkonzept.
Und für 25 GB/h braucht man auch keine 4x 10 GBit. Das würde selbst eine einzelne GBit-Verbindung noch schaffen.
Kommt natürlich auch drauf an, ob es Spitzen gibt. Da könnten dann wiederum die 10 GBit nötig werden.
Aber dazu müsste man den Traffic mal genau analysieren um herauszufinden, was nötig ist und was Overkill ist.
 
Zuletzt bearbeitet:
Die Hauptprobleme mit schwacher CPU treten bei höheren Datenraten im Software Raid und Verschlüssellung zu Tage. Ohne Verschlüssellung und 1G Netzwerk bei wenig Nutzern ist istAtom sicher kein Problem. Will man aber 1 GB/s oder mehr, so muss die CPU sehr leistungsfähig sein. Highend Storage auf neueren und besonders sicheren Dateisystemen wie ZFS hat eher nochmal höhere Anforderungen (mehr Daten wegen Prüfsummen, Copy on Write, Software Raid, ZFS Verschlüssellung). Max 16GB RAM begrenzt nochmal die Anwendungsmöglichkeiten bei Multi-User Betrieb. Da ist mehr RAM als Cache nötig oder wünschenswert. Auch sollte man bei einem Filer nicht nur ausreichend RAM haben sondern auch auf ECC achten.
Ich wollt lediglich das Potential der SSD vollangebunden wissen. Bei Sata-ssd wäre es ja ein 5Gbit Netzwerk oder im Raid 0 ein 10Gbit möglich. Daher dachte ich auch das die 16GB Ram voll ausreichen, da der Cache ja nur nötig wird wenn die SSD Performance verliert, bei entsprechend viel Traffic. Warum ist ECC wichtig?
 
Ganz schön wirre Beiträge.
vorallem wird so viel mit einander verschmolzen...

3 Server und auch ein Rack in nem separaten
Raum machen daraus noch keinen Serverraum, bzw. sagen halt auch nichts über die Ausstattung/Verwendung.
Probleme: Er war fixiert auf Kabel, hab ihm erklärt wo der Flaschenhals sitzt

Zum Atom:
. https://geizhals.de/?cat=WL-2225546
Bei welchen Sczenaien wäre der Atom überfordert?

der Geizhals link hat bei mir 2 Lenovo LOM-Karten drin - welcher Atom also?
 
Ganz schön wirre Beiträge.
vorallem wird so viel mit einander verschmolzen...

3 Server und auch ein Rack in nem separaten
Raum machen daraus noch keinen Serverraum, bzw. sagen halt auch nichts über die Ausstattung/Verwendung.


der Geizhals link hat bei mir 2 Lenovo LOM-Karten drin - welcher Atom also?
Ach mit dem Tremont/Gracemont ist nur eine Idee wo mich die Praxis mit der Theorie interessiert. Die gedachte CPU ist die N6000, vergleichbar mit einer 2200g.
Der Server oben, da geht es um Videobearbeitung. Der Programmierer soll den Server Updaten wegen Stau (Firmenitler ist in Rente), 70mb/s ist Spitze und über 200GB Traffic bei Feierabend und Morgens.
Er wollte das mit Cat. 8 Kabeln erledigen, ich hab ihm den Tip gegeben RAM ausbauen und vom HDD Raid auf SSD gehen. Von den Cat. 8 war er besessen.
Was für eine Switch dort ist oder wie die angebunden ist wollte er nicht verraten.
Ich erwähnte das oben auch nur, weil mich das neugierig gemacht hat, was mit dem kleinen Atom 10nm heute so möglich ist.
 
Cat 8 ist bei 10 GBit Unsinn.
10 GBit geht schon mit Cat 6A.
Cat 8 braucht man erst ab 40 GBit.
Und ein Kabel macht noch lange kein schnelles Netzwerk.
Dazu gehören auch Switche und Netzwerkkarten sowohl im Server als auch in den Clients.
Und nicht zu vergessen Patchpanels und Netzwerkdosen.
Und das Plattensubsystem muß auch noch die Datenmenge liefern können.
 
Und ein Kabel macht noch lange kein schnelles Netzwerk.
Dazu gehören auch Switche und Netzwerkkarten sowohl im Server als auch in den Clients.
Das ist der Punkt. Wo sind denn eigentlich die aktiven 40GBASE-T Komponenten? Ich sehe keine!
Wenn 0815, dann 10GBE über CU. Wenn >10GBE, dann Fibre.
40GBASE-T ist ne RZ Architektur und wird allein schon durch die 30m Gesamtlänge in der Strukturierten Verkabelung kaum was bringen.

Wenn man wissen will, was mit bestimmten CPUs geht, dann schaut man sich Benchmarks an, dann weiß man was geht.
Es hat übrigens einen Grund, warum so nen Xeon "E"-Server Entry Server genannt werden.
Des Weiteren gibt es nen guten Grund, warum und wie Intel den Atom C ausstattet und am Markt positioniert und was die Hersteller daraus machen. Und nen Atom C ist ne ganz andere Nummer als nen Atom N und dessen Ableger.
Nur soviel sei gesagt, eine Rechenarchitektur macht noch lange keine CPU.

PS: Ein Programmierer ist noch lange kein IT(Infrastruktur) Fachmann. Und wie sich das hier so anhört, sollte die Firma entweder einen (fachkundigen) Nachfolger einstellen oder das ganze extern vergeben. Hier werden Sachen zusammengereimt, die eher einen Scriptkiddy-Vorgehensweise entsprechen als einer IT-Beplanung.
 
Und nicht zu vergessen Patchpanels und Netzwerkdosen.
Und das Plattensubsystem muß auch noch die Datenmenge liefern können.
Kannst du das Mal erläutern? Sprichst du hier von der Switch und dem Festplattenspeicher?
lg
Wenn man wissen will, was mit bestimmten CPUs geht, dann schaut man sich Benchmarks an, dann weiß man was geht.
Es hat übrigens einen Grund, warum so nen Xeon "E"-Server Entry Server genannt werden.
Xeon x5650 ist vergleichbar in Benchmarks mit dem Pentium Silver N6000. Das sagt mir aber nicht, was im Alltag geht. Verschlüsselungen aussen vor oder wird man im Serverbereich dazu gewzungen?
Daneben nochmal die Frage, warum ist ECC wichtig?
 
Zuletzt bearbeitet:
Daneben nochmal die Frage, warum ist ECC wichtig?
ECC macht für den Arbeitsspeicher das was Raid für die Festplatten macht, sprich ein RAM Fehler wird erkannt und meist korrigiert bevor ein Problem entsteht. Selbst mit dem sichersten derzeitigen Dateisystem ZFS sind RAM Fehler wegen fehlendem ECC so ziemlich das einzige was da noch unerkannt korrupte Daten erzeugen kann.

alt - aber immer noch gültig (RAM ist heute besser, dafür weit größer):

wegen Verschlüssellung
Die DSGVO fordert Datensicherheit bei der Verarbeitung personenbezogener Daten nach "Stand der Technik". Das bedeutet zweifelsfrei Verschlüssellung.
 
Zuletzt bearbeitet:
ECC macht für den Arbeitsspeicher das was Raid für die Festplatten macht, sprich ein RAM Fehler wird erkannt und meist korrigiert bevor ein Problem entsteht. Selbst mit dem sichersten derzeitigen Dateisystem ZFS sind RAM Fehler wegen fehlendem ECC so ziemlich das einzige was da noch unerkannt korrupte Daten erzeugen kann.

alt - aber immer noch gültig (RAM ist heute besser, dafür weit größer):
Ich mag dich :)
Ja das hab ich gerad gelesen (angepinnt im Forum ECC).
ZFS fand ich überfllüssig wenn Raid 0 genutzt wird. Daten abrufen, bearbeiten, doppelt/dreifach sichern.
ECC ist doch speziell bei ZFS wichtig?
Danke für den Link!
 
Ich mag dich :)
Ja das hab ich gerad gelesen (angepinnt im Forum ECC).
ZFS fand ich überfllüssig wenn Raid 0 genutzt wird. Daten abrufen, bearbeiten, doppelt/dreifach sichern.
ECC ist doch speziell bei ZFS wichtig?
Danke für den Link!

So unwichtige Daten dass man Raid-0 macht, kann es gar nicht geben. Allein schon der Zeitverlust bei der Arbeit ist ausreichend, das nicht zu machen.

Und nein, ECC ist nichts was bei ZFS speziell notwendig wäre. Im Gegenteil, auch ohne ECC sind mit ZFS Daten besser aufgehoben als bei anderen Dateisystemen ohne ECC. Ist eher so zu sehen wie bei einem Auto mit vollem Sicherheitsprogramm wie ABS, ESP, Sicherheitsgurt und beste passive Sicherheit. Wäre blöd wenn man da die Nackenstütze wegläßt und darauf hofft dass niemand hinten auffährt.

Dreifach Backup
ZFS kann Versionierung mit 10000 Snaps. Backup ist als Disasterbackup (Feuer, Diebstahl) zwar trotzdem notwendig aber mit Dreifach Backup allein den ZFS Snaps + sicherem Pool Layout weit unterlegen.
 
Kannst du das Mal erläutern? Sprichst du hier von der Switch und dem Festplattenspeicher?
lg

Xeon x5650 ist vergleichbar in Benchmarks mit dem Pentium Silver N6000. Das sagt mir aber nicht, was im Alltag geht. Verschlüsselungen aussen vor oder wird man im Serverbereich dazu gewzungen?
Daneben nochmal die Frage, warum ist ECC wichtig?
der Xeon 5650 ist Steinalt, ich hab gestern einen am Schreibtisch liegen haben...
Wenn dann solltest Du schon die aktuellsten CPUs anschauen, oder mal in vernünftigen Sätzen sagen, was eigentlich hier jetzt das Ziel sein soll?
 
Hier versucht einer, der keine Ahnung von IT-Infrastruktur hat, einem anderen, der ebenfalls keine Ahnung hat, dabei zu helfen eine produktive IT-Infrastruktur zu beplanen.

Das ist in etwa so, als wenn du auf dem Schulhof bei der COD-Gruppe nachfragst, wie man denn am besten nen ESX-Cluster mit vSAN und NSX aufbaut. Raus kommt nen RGB MB mit nem RGB Case zusammen mit RGB Lüftern, einer RGB GTX3090, 200Hz curved LCD und ganz wichtig, low latency Maus und Tastatur, damit der Admin möglichst schnell den Cluster abschießen kann.

EDIT:
Wie gesagt, man geht mit den Anforderungen zu einem Systemhaus oder einem Fachmann, der was baut, was am Ende auch für die Umgebung geeignet ist. Und diese Umgebung ist nicht der heimische Keller, sondern ein Unternehmen, wo Menschen arbeiten, die davon ihre Familien ernähren. Geht die IT den Bach runter, dann wars das auch mit der Arbeit und je nach Dauer und Größe des Desasters, auch mit der Firma. Ist eigentlich eine sehr einfache Formel, mit sehr wenigen Variablen.
 
Zuletzt bearbeitet:
der Xeon 5650 ist Steinalt, ich hab gestern einen am Schreibtisch liegen haben...
Wenn dann solltest Du schon die aktuellsten CPUs anschauen, oder mal in vernünftigen Sätzen sagen, was eigentlich hier jetzt das Ziel sein soll?
Ich möchte wissen was ein Pentium Silver N6000 an Traffic schafft.
Hier versucht einer
Ne, ich hab ihm nur gesagt, das er mit Cat. 8 Kabeln nicht weiterkommt.

Ich meinte Raid 1
 
Zuletzt bearbeitet:
Ganz schön wirre Beiträge.
vorallem wird so viel mit einander verschmolzen...
Ist auch nicht weiter wichtig, da er den Thread irgendwann plötzlich verlassen und sich nicht wieder blicken lassen wird.

Siehe auch hier, Thread ebenfalls von gestern:
Beitrag automatisch zusammengeführt:

oder mal in vernünftigen Sätzen sagen, was eigentlich hier jetzt das Ziel sein soll?
Das Ziel lautet "bisschen rumlabern", ähnlich wie dieser @Latiose immer will, dass User für ihn irgendwelche synthetischen Benches von TR-CPUs machen. Als dann mal gefragt wurde, wofür er die braucht, kam dann sinngemäß "ich wollte das mal wissen" ;)
 
Wenn man nicht mitliest und nur rumtrollt kann man sich auch raushalten Spacki.
ZFS kann Versionierung mit 10000 Snaps. Backup ist als Disasterbackup (Feuer, Diebstahl) zwar trotzdem notwendig aber mit Dreifach Backup allein den ZFS Snaps + sicherem Pool Layout weit unterlegen.
Macht ein ZFS ohne HW Raid auch Sinn zur Datensicherung?
Reicht Client + NAS mit ZFS als Backup?
Ist das mit 16 GB Ram realisierbar?
 
Wenn man nicht mitliest und nur rumtrollt kann man sich auch raushalten Spacki.
Im Gegensatz zu dir schreibe ich sogar mit, hier z.B. in deinem eigenen Thread, welcher dich schon nicht mehr interessiert:
 
Macht ein ZFS ohne HW Raid auch Sinn zur Datensicherung?

Ein Hardwareraid macht mit ZFS generell keinen Sinn!
Warum? Man verliert die Copy on Write Sicherheit von ZFS gegen kaputte Dateisysteme beim Absturz während eines Schreibvorgangs.
Hardwareraid leidet immer unter dem Write Hole Problem, http://www.raid-recovery-guide.com/raid5-write-hole.aspx
Reicht Client + NAS mit ZFS als Backup?
Auch ZFS kann sterben (Feuer, Blitz, Diebstahl, Amok-Hardware).
Ein zusätzliches Disasterbackup ist immer notwendig und wenn es nur ein Einzelbackup der wichtigen Daten auf einer Extra Platte ist.
Ist das mit 16 GB Ram realisierbar?
Prinzipiell ja. Ein minimalistisches ZFS OS wie OmniOS oder Solaris Text (natives ZFS oder native ZFS Umgebung) läuft ab 4 GB stabil - egal welche Poolgröße, mehr RAM bringt aber auch hier Performance. Andere Plattformen möchten gerne ab 8-16 GB.
 
Was hat es mit der 2TB Grenze auf sich?
Ich hab erst irgendetwas quergelesen, dass es Server gibt die Softwareseitig? nur 2TB Platten untertstüzen. Das habe ich gerade nochmal beim Aufbau eines großen Servers gesehen, 18* 2TB PCIe ssds.
Macht es also Sinn im NAS auf 2TB zu gehen?
 
Kannst du das Mal erläutern? Sprichst du hier von der Switch und dem Festplattenspeicher?
Nein, z.B. den Wanddosen.
Du kannst Cat 8 und 40 GBit-Netzwerkkarten und 40 GBit Switche haben, wenn da eine CAT 6 Wanddose dazwischen hängt, geht eben nur so viel wie mit CAT 6 möglich ist. Du bremst damit die Netzwerkgeschwindigkeit aus. Eine Kette ist immer nur so stark wie ihr schwächstes Glied.
Und deshalb sollten alle Glieder der Kette gleich stark sein.
Und du kannst durchgängig 40 GBit-Netzwerk haben, wenn die Platten im Server nur 20 GBit liefern können, hilft dir das 40 GBit-Netzwerk auch nichts.

Ich kann mich nur dem Rat von Einigen hier anschließen:
Geh zu einem Systemhaus, die haben mit so etwas Erfahrung und können euch ein Konzept nach euren Anforderungen ausarbeiten.

Lieber einmal richtig Geld in die Hand nehmen als jahrelang an der IT-Infrastruktur herumzufrickeln.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh