Brauche Infos für Storage Lösung

Skrewdriver

Neuling
Thread Starter
Mitglied seit
14.11.2008
Beiträge
62
Hallo,

Ich bin auf der suche nach einer Storage Lösung die meinen Anforderungen gerecht wird.

Es geht darum das ich eine schnell genuge storage Lösung brauche um 5 gbit fullduplex auszureizen. Das natürlich sequentiell.
Aber es sollten zeitgleich 5 gbit/s read und write zur verfügung stehen.
Ausserdem sollte die Storage Lösung keine Einbrüche haben wenn viele gleichzeitige write und read transfers geschehen.

Mir schwebt dabei viel im Kopf herum, einerseits SAS oder SSD.
SAS hab ich die bedenken das bei viellen gleichzeitigen transfers das raid nichtmehr die leistung bringt.
SSD's brechen dafür ja leider nach längerer benutzung im write speed ein.

Natürlich ist der Preis auch nicht ganz egal.

Ein paar grundsätzliche Infos welche Controller dafür geeignet wären ohne einen Flaschenhals darzustellen wären auch ganz Nett.

Bin gespannt auf eure Meinungen was dafür am besten taugt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also SAS ist genau das, was du brauchst. Die 5 gleichzeitigen zugriffe sind garnichts für SAS.

Wichtig ist natürlich, dass du sequentiellen Transfer hast. Da gehen bei SAS HDDs schon 150-200MB. Nimmste also zB 5 im RAID0 und schon hast du deine Probleme beseitigt.

Soll das nen Server werden? Wie sieht es mit Redudanz oder Backups aus. Müssen die Daten redudant sein -> höheres RAID LVL.
 
Naja was heisst 5 gleichzeitige, zu stosszeiten sinds bestimmt 20 transfers die raufgehn und 30 - 40 clients die gleichzeitig runterlesen wollen.

Jo soll nen Server werden :) Redundanz geschieht über backup von raid0 auf internes raid5 über cronjob, so hatte ich mir das zumindest gedacht.
 
Bei den file größen gehts denk mal ab 20 mb los bis ca 300 - 400 mb, oder wäre das kein sequentieller transfer mehr?

Nuja Storage Volumen, wichtig wär mir ein performantes raid um aktuelle neue Daten in Stosszeiten gut verfügbar zu machen, dabei würden schon 200 gigabyte reichen, und je nach dem wie das realisierbar ist sollte der Rest der hddbays mit 2 tb Platten ausgestattet werden.

Entweder 3 oder 4 he Case habe ich da ins Auge gefasst.
 
Meinst die 4 ssd's würden die 5 gbit auslasten als raid0 ? Dafür wäre ja allerdings wieder nen SATA2 Controller von nöten.
Nochmal zur Verständniss :) wollte nen raid0 welches 5 gbit fullduplex auslastet, ob sas oder ssd egal und sollte minimum 200 gig groß sein.
Das Restliche Storage Volumen fürs raid5 sollte aus 2 tb Platten bestehen, western digital oder samsungs mit 5400 u/min

:)

Zwecks Budget bin ich mir noch nicht Sicher, denke das raid0 wirt Schrittweise erweitert das raid5 genauso.
Vllt mit 2 ssd's starten + 2 mal 2 tb als Storage
 
Zuletzt bearbeitet:
Ähm, ich bring dir nen RAID5 und SAS, dass passt schon. Die SSD rocken locker 200MB weg. (x 3 > 600MB/s)
So sparste dir das RAID5. Problem ist, da ist beim LSI bei ca 400-500MB/s schluß. Also genau die Grenze dessen, was du da möchtest.

Man könnte jetzt anfangen und nen RAID5 über mehrere Controller spannen... -> macht keinen Spaß

Wenn du auf dem LSI nen RAID0 fährst, dann ist irgendwo bei 2-3 GB/s schluß, passt also. Braucht dann aber noch nen RAID5 zusätzlich, bzw ein RAID1 aus 2 großen HDDs.

EDIT: Wenn du dir 4SSD im RAID0 nimmst, dann kommste bei ca 800MB/s raus. Passt also.

2nd EDIT:

Die SSD laufen auch an nem SAS Controller, genausowie SATA HDDs.
 
Zuletzt bearbeitet:
Frage ist: Wie haltbar soll das Ganze sein? Wieviel wird darauf täglich geschrieben?

Dann kann man sich erstmal ausrechnen, ob man lieber zu SSDs oder sicherheitshalber zu SAS-HDDs greift ...

Wenn es keine 200GB wären könnte man auch gut mit ner RAM-Disc puffern :d
 
Ob die ssd's wirklich so abrocken is die frage, anscheinend ja nur im Atto disk benchmark weil die daten die atto schreibt sich gut komprimieren lassen, wie das jetzt unter reellen bedingungen aussieht is warscheinlich mal wieder ne andere sache.



Geschrieben werden sollten pro tag zwischen 50 und 100 gig.
Haltbar sollte das ganze schon sein will nicht nach einem Jahr schon anfangen im raid0 platten zu ersetzen. Wenn ich richtig rechne wären das bei 100 gig am Tag x 360 Tage = 36 000 gigabyte oder ca 35 tb. Ob die sdd's damit zurecht kommen weis ich nicht denke selbst bei minimum von 50 gig am tag wären das schon 17,5 tb im jahr.

Kommt damit der gebrauch von ssd's für mich garnicht erst in Frage oder was meint ihr?
 
Mal so gesprochen: Die großen Markenhersteller bieten mittlerweile auch für ihre Storage-Lösungen SSDs an. Die sind aber teils noch um Größenordnungen teurer als das was bei geizhals und co zu finden ist. Hier ist einfach das Problem das die 24/7/365 durchhalten müssen.

Für oben genannte Anforderungen kann man aber schon fast eine professionelle SAN-Lösung in Betracht ziehen, die ist dann mit SAS-Platten und entsprechend dicken Raid-Controller auch schnell genug.

Backbone
 
Kommen denn die Daten hinzu, oder werden die vorhandenen Daten überschrieben?

Ich halte das Vorhaben mit beschränkten Mitteln für nicht realisierbar. 5xGBit sind mal schlappe 625MB/sec, die in dem Fall schreibend (random) auf das Array machbar sein müssten.
Stellst du dir nun eine Kiste hin, welche mit einem einzigen Zugriff sagen wir 700MB/sec sequentiell schafft, so hast du bei 20 gleichzeitigen Zugriffen nicht 700/20=35MB/sec pro Client, sondern das wird weit weniger sein.
Denn bei 20 Zugriffen ist es eben nicht mehr Sequentiel sondern schon wieder Random.
SSDs werden hier aufgrund der geringen Zugriffszeit punkten. Bei dem Schreibvolumen könnten diese aber schnell den Bach runter gehen. Da eben die Anzahl der Schreibzugriffe pro Speicherzelle begrenzt ist.


Auch solltest du von einem Raid 5 oder 6 hier wohl die Finger lassen, bei einem derartigen Volumen an Schreibzugriffen muss der Controller massiv arbeiten um die Paritätsdaten zu berechnen, da kommt es zu Flaschenhälsen. Ich würde hier ganz klar ein Raid 10 vorschlagen. Das ganze dann erstmal mit 8-10 SAS 15k HDDs probieren. Können ja kleine sagen wir 72GB Platten sein. Im Raid 10 wären das dann 360GB nutzbar.
Mit den 10 HDDs wären dann bei einem sequenziellem Zugriff grob 500-600MB/sec drin. Random natürlich weit weniger, das sollte klar sein, je nach Dateigröße dann halt...

Mal so gesprochen: Die großen Markenhersteller bieten mittlerweile auch für ihre Storage-Lösungen SSDs an. Die sind aber teils noch um Größenordnungen teurer als das was bei geizhals und co zu finden ist. Hier ist einfach das Problem das die 24/7/365 durchhalten müssen.

Für oben genannte Anforderungen kann man aber schon fast eine professionelle SAN-Lösung in Betracht ziehen, die ist dann mit SAS-Platten und entsprechend dicken Raid-Controller auch schnell genug.

Backbone

Mit ner prof. SAN Lösung ist man sicher gut dabei... Sowohl in der Leistung aber leider auch im Preis...
Ne kleine MSA mit FC Dualcontroller Anbindung und 8GBit/sec über LWL ist da zwar ausreichend in der Anbindung, aber mit 12 HDDs ist das Teil in der Plattenanzahl beschränkt. Man kann zwar mehrere Enclosures kann man zwar die HDD Anzahl erhöhen, aber diese sind meines erachtens nach "nur" über SAS angebunden, sprich legt man dann das Raid Array über mehrere Enclosures, ist die externe SAS Schnittstelle der Flaschenhals, der die Enclosures verbindet...

Ein dickes SAN hingegen macht das wohl besser, aber ist auch gleich um Unmengen teurer... Ich denke im Bereich 50-80t€ ist da was zu machen, inkl. HDDs ;)
Aber selbst mit ner kleinen MSA inkl. HDDs und FC Switches + HBA für den/die Server ist man mit guten 15-20t€ auch nicht mehr im kleinen Geldbereich...


Ich hab hier aber so das Gefühl, die Firma ist nicht soo groß, das sich eine derartige Anschaffung wirklich lohnt. Zumindest klingt das für mich so. Denn 20 gleichzeitige Zugriffe sind nun so viel nicht. ;)
 
Zuletzt bearbeitet:
Die Daten kommen den tag über auf das array und werden nachts per cronjob ins Archiv verschoben. So das am nächste tag das array was die 5 gbit befeuern muss wieder frei ist.

Würde ein raid0 array bei ca 20 transfers wirklich so arg einbrechen das ich mit sagen wir 5 - 8 sas platten nicht genug luft habe um 500 - 600 mb zu erreichen?
bei nem raid0 würde der controller doch nicht wirkliche rechenarbeit leisten müssen zwecks paritäts informationen oder seh ich das falsch?

Ne aktuelle sas sollte ja 170 mb/s read und write packen. Aber vllt nicht bei den filegrössen die bei uns in verwendung sind im Bereich von 20 bis 300 mb.

Gibt wohl leider nicht viele leude die da aus eigener erfahrung sprechen können oder mal eben so nen testsystem daheim aufbauen können hehe.
 
Raid 0 gehen die Controller bis fast an die 3GB/s ran (die aktuelle generation von LSI) ...

Bei den HDDs würde ich mir mal richtige Workstation/Server-Benches angucken wie die einzelnen laufwerke performen ... je nachdem kann man beurteilen, wieviele Laufwerke man benötigt. Andere Frage wäre: Wie wichtig sind die Daten ... reicht ein Raid 0 oder muss es dann doch eher ein Raid 10 sein?


Andere Frage wäre: Muss diese geschwindigkeit wirklich aufrehct erhalten bleiben? Was passiert, wenn der Server einbricht? Warten die Clients dann nicht mit den Daten?
 
Zuletzt bearbeitet:
Ne kleine MSA mit FC Dualcontroller Anbindung und 8GBit/sec über LWL ist da zwar ausreichend in der Anbindung, aber mit 12 HDDs ist das Teil in der Plattenanzahl beschränkt. Man kann zwar mehrere Enclosures kann man zwar die HDD Anzahl erhöhen, aber diese sind meines erachtens nach "nur" über SAS angebunden, sprich legt man dann das Raid Array über mehrere Enclosures, ist die externe SAS Schnittstelle der Flaschenhals, der die Enclosures verbindet...
Die Erweiterungen der SANs (schnuppe ob nun MSAs, Eternux oder sonstwas, sind meistens über proprietäre Sachen angebunden. DAS ist bei der ganzen Konstruktion noch nie der Flaschenhals gewesen.

Teuer sind die allerdings schon, wobei man teuer auch wieder relativ sehen muss. Eine Lösung die stabil und zuverlässig das tut was sie soll ist nicht teuer, allenfalls angemessen. Man findet freilich immer etwas das noch billiger ist, dann aber eben nur zu Kompromissen.

Backbone
 
Zur Sicherheit der Daten, das wäre im falle eines ausfalls im raid0 kein problem.
Klar werden die clienten warten nur wenn ich eine 5 gbit Leitung bezahle möchte ich die auch gerne ausreizen :) und die clients solln sich ja auch nicht beschweren über fehlende performance.

Ich werd mal schauen ob ich nen aktuellen Aussagekräftigen Test über die neue Seagate Cheetah 15k.7 Reihe finde, wenn ja werd ich das hier verlinken, wenn jemand schneller sein sollte oder was vergleichbares findet möge vielleicht auch was melden :)

Stellt sich aber immernoch ne Grundlegende frage ob die Bandbreite mit 15k sas platten realisierbar wäre wenn ca 20 write clients und 20 - 30 im read anstehen , bzw mit ssd's und ob diese das schreib volumen aushalten. Wer mehr dazu weiss raus damit :)
 
Die Daten kommen den tag über auf das array und werden nachts per cronjob ins Archiv verschoben. So das am nächste tag das array was die 5 gbit befeuern muss wieder frei ist.
Das könnte mit SSDs problematisch werden, weil immer wieder die selben Speicherzellen überschrieben werden würden...
Bin mir grad nicht ganz sicher, aktuelle SSDs der besseren Gen. verteilen ja intern automatisch die Daten auf die Speicherzellen, das nicht manche Bereich zu stark beansprucht werden, sondern das gleichmäßig eine "Abnutzung" stattfindet, aber ob das bei einem Raidbetrieb ebenso der Fall ist??

Würde ein raid0 array bei ca 20 transfers wirklich so arg einbrechen das ich mit sagen wir 5 - 8 sas platten nicht genug luft habe um 500 - 600 mb zu erreichen?
bei nem raid0 würde der controller doch nicht wirkliche rechenarbeit leisten müssen zwecks paritäts informationen oder seh ich das falsch?

Mit einem sequentiellen Transfer ist das sicher machbar, aber du sprichst ja hier von gleichzeitigen Zugriffen.
Ich sag mal so, man kann das Problem warscheinlich etwas eindämmen, indem man die Clustergröße des Arrays extrem hoch wählt, also 256KB oder noch mehr.
Denn das Problem ist der gleichzeitige Schreibzugriff beim Verwenden von HDDs. Schreibst du eine große Datei sequentiel auf das Array, werden die Daten schön hintereinander geschrieben, sprich es sind nur die nötigstens Kopfbewegungen wirklich nötig.
Schreibst du schon zwei Files gleichzeitig, werden die Files in der Clustergröße wohl gesplittet. Heist soviel wie, die ersten 256KB auf dem Array (bei 256KB Clustergröße) gehören der ersten Datei, die nachfolgenden sind für File 2, dann kommt wieder 256KB File 1 usw. immer im wechsel.

Um so mehr gleichzeitige Schreibzugriffe, desto mehr Kopfbewegungen muss der Arm in der HDD vollziehen, was extrem die Datenrate drückt.

Dazu kommt noch die Tatsache, das es zu Fragmentierungen auf dem Filesystem kommen kann, was nochmals mehr Kopfbewegungen nachsich ziehen würde.
Im Extremstfall liegen die Sektoren auf den HDDs so ungünstig verteilt, das mit jedem Schreiben/Lesen eines Sektors der Arm in der HDD eine komplette Neujustierung machen muss... Mit sequentiellem Lesen/Schreiben hat das leider dann gar nix mehr zu tun.

Stellt sich aber immernoch ne Grundlegende frage ob die Bandbreite mit 15k sas platten realisierbar wäre wenn ca 20 write clients und 20 - 30 im read anstehen , bzw mit ssd's und ob diese das schreib volumen aushalten. Wer mehr dazu weiss raus damit :)

Also bei 20 schreib- und 20-30 lese- Zugriffen schaffst du in meinen Augen defintiv keine 625MB/sec. Vor allem nicht bei der Datenmenge und bei Zugriffen auf verschiedene Files... Wir haben hier 8x450GB SAS 15k HP Platten (auch Seagate), die erreichen im Raid 0 auf allen Platten über FC 8GBit zwar über 500MB, aber eben nur mit einem Zugriff, steigen die gleichzeitigen Zugriffe, bricht die Datenrate weg. Genauere Tests kann ich leider nicht liefern, weil das System im scharfen Betrieb werkelt, sprich Tests wären nicht aussagekräftig.
Bei SSDs bin ich mir nicht sicher, da fehlen mir die Erfahrungen dazu...
 
Zuletzt bearbeitet:
Ich werd mal schauen ob ich nen aktuellen Aussagekräftigen Test über die neue Seagate Cheetah 15k.7 Reihe finde, wenn ja werd ich das hier verlinken, wenn jemand schneller sein sollte oder was vergleichbares findet möge vielleicht auch was melden :)

Die Cheetah ist super. ;)

Man muß sich zwischen 2 Lösungen entscheiden.

1. Leistung
2. Betriebssicherheit

1. Leistung, ganz klar SSD. Hier kann man auf SLC setzen. x-Mal http://preisvergleich.hardwareluxx.de/a546564.html und der angesprochene LSI. Sicherlich laufen die bei Write irgendwann ins Verderben. Aber eine SLC ist hier eine MLC im Vorteil. Die zu verarbeitenden Datenmengen sind nicht ohne.

2. Betreibssicherheit. Die angesprochenen Cheetah ist im Moment Stand der Dinge und macht eine gute Figur. Problem ist, dass du beim Zugriff auf die HDDs bei der Userzahl echt in den Keller wanderst. Um das etwas zu kompensieren, mußtest du extreme Plattenzahlen realisieren und dennoch hättest du hier einen merklichen Nachteil.

Was sind das denn für Daten. Müssen denn diese 5x gbit sein? Kann man sowas net auseinanderziehen und zB mehrere einzelne Storages machen?

Tendenziell würde, wenn es die Anwendung unbedingt erfordert, auf SLC gehen und einfach drauf scheißen, dass die irgendwann sterben. Wenn du damit Geld verdienst, dass die User instant Zugriff haben, dann kaufste halt nach 2 Jahren neue.
 
Zuletzt bearbeitet:
Eine verteilung der Daten ist leider nicht möglich :/

Das ganze soll hauptsächlich zum streamen von hd materiel benutzt werden.

@fdsonne--> Liese sich damit sagen das der einbruch aufgrund der mechanischen Bauart und der damit vielen kopfbewegungen der sas platten begründen liese nehm ich mal an.

@underclocker--> Ich denke auch das ich um das zu umgehen wirklich auf ssd's mit slc nand speicher setzen muss, die frage ist nur welche ssd verliert im laufe der zeit nicht all zu viel schreibleistung.

Im Prinzip wäre es ja auch möglich 6 - 8 x ssd mit jeweils 32 gigabyte für das raid zu nehmen.

btw kann eine ssd die mit 100 mb/s read und write sequentiell angegeben wird diese 100 mb/s zur gleichen zeit im read und write liefern? oder ist das auch nur wieder entweder oder?

Mit dem schreibvolumen bin ich mal großzügig gewesen, dass wird im durchschnitt eher bei 30 - 50 gig am tag liegen, aufgesplittet auf 6 -7 ssd's wäre das ganze ja auch wieder nicht ganz so tragisch bzw sollte die ssd's vllt annehmbar lange überleben lassen.

Wobei sich die durawrite technik vom sandforce controller auch nett anhört, soll ja angeblich die lebenszeit der nand speicher beachtlich erhöhen, nur obs nen leistungseinbruch im write gibt nach längerer benutzung weis wohl keiner.
 
Zuletzt bearbeitet:
Nur damit du mal eine Größenordnung hast. Eine SolidState für Entry-Storage-Systeme von Fujitsu (wir reden hier von einer kleinen Eternus DX80) kostet bei 100GB um die 7000€/Stück. Das sind dann Platten die auch dem harten Storage-Alltag standhalten.

Backbone
 
Das hätte ich jetzt auch nicht anders vermutet. Es soll dir auch nur verdeutlichen, welchen Aufwand die "üblichen Verdächtigen" machen, um SSDs fit für hohe Storage-Anforderungen zu bekommen. In diesem Umfeld ist der Stress für die Platten nunmal ein echtes Killerargument.

Backbone
 
Das liegt eindeutig über meinem Budget :)

... Und das zeigt aber leider auch, das entweder deine Anforderungen zu hoch für dein Budge angeordnet sind, oder eben das Budge zu niedrig für deine Anforderungen. ;)


Die Eierlegende Wollmilchsau gibt es nun leider nicht, für spezielle Anwendungsfälle muss man idR tief in die Tasche greifen. Ich zähle 50 gleichzeitige Zugriffe (lesend/schreibend) durchaus zu speziell, wenn es darum geht, 625MB/sec liefern zu müssen.


Aber mal eine andere Geschichte...
Wenn man im Rahmen 100-150GB bleibt, kommt man vllt sogar günstiger, den ganzen Spaß direkt in eine RAMDisk zu schieben.
Ein brauchbares Board mit 18 DDR3 SpeicherSlots vorrausgesetzt. Dazu einfach die kleinsten Dual CPUs von Intel und dann 18x8GB Module = 144GB.
Dann für das System 4GB reservieren und 140GB als RAMDisk...

Mit Lese/Schreibraten von mehreren GB/sec und sogut wie keinen Einbrüchen bei mehreren Zugriffen.

So ein 8GB Modul kost ca. 350-400€. Macht also 2800€ für die Speicher. Dazu zwei kleine HDDs im Raid 1 fürs System. Den teuren Raidcontroller kannst dann für die Kiste sparen, wenn nicht noch anderweitig Platten hinzu kommen. Das Restsystem sollte für um die 1000€ dann zuhaben sein.
Macht knapp 4000€ in Summe passend zu den Anforderungen.

Nachteil ist halt, mehr wie 8GB/RAM Modul ist derzeit soweit ich weis nicht, Sprich wenn ihr die Datenmenge signifikannt hochdreht und die 144GB mal nicht reichen sollten, dann wirds mit aufrüsten schwer... Bei HDDs/SSDs kannst da einfach welche nachschieben und gut ist.
 
Mehr geht freilich immer, wobei es dann natürlich auch wieder teuer wird. Es sind durchaus konfigurierbare Server am Markt die 512GB Ram und mehr zur Verfügung stellen können...

Backbone
 
Mehr geht freilich immer, wobei es dann natürlich auch wieder teuer wird. Es sind durchaus konfigurierbare Server am Markt die 512GB Ram und mehr zur Verfügung stellen können...

Backbone

Gut das stimmt natürlich...
Aber ich sag mal so im "normalen" Rahmen...

Freilich kann man auch Quad Sockel Systeme nehmen, mit jeweils dann 9 RAM Slots. Oder gar ganz andere Lösungen.
Wobei das dann wie du schon sagtest, spezielle Systeme sind, welche ebenso mit Sicherheit das Budge Sprengen.

Ich hab mich jetzt mal an der Aussage orientiert, das die 7000€ von weiter oben weit über dem Budge liegen ;) Deswegen sollte es so Preisgünstig wie möglich sein. Und da sind wohl 18x8GB und ein Dual CPU Intel Server denke ich das einzige, was wirklich durchgängig dank 14xGB RAMDisk die besagten 625MB/sec liefern können quasi unabhängig der gleichzeitigen Zugriffe ;)
 
Eine Ramdisk würde mit der Last denke ich auf jedenfall klarkommen. 18 mal 350€ sind bei mir aber nicht 2800 :) sondern 6300 hehe. Geschweige den wie hoch da die Warscheinlichkeit ist das mal ein Riegel ausfällt, und wie damit die Ramdisk umgeht. Wird sich wohl das ganze System verabschieden.

Ich merk schon das ich mir die ganze Sache noch meeehrmals durch den Kopf gehen lassen muss wie ich das Regel.
 
An sich ist die Sache für dich denkbar einfach. Du definierst möglichst präzise die Anforderungen und schaust du dir dann die diskutierten Lösungen an. Wenn die Lösungen über deinem Budget liegen und deswegen GAR NICHT gehen gibts dafür zwei gründe.

Entweder hast du bei den Anforderungen zu sehr übertrieben und Sachen genannt die du gar nicht brauchst. Oder du brauchst die Lösung an sich gar nicht.

Letzlich ist es immer so wenn mir ein Kunde die Ohren vollheult wie teuer das alles wieder ist. Entweder er brauchst für sein Business, dann kann es nicht zu teuer sein (für einen Bauarbeiter ist ein Bagger auch nicht "zu teuer" blos weil er mehr kostet als eine Schaufel). Oder er brauchts eben doch nicht, dann isses aber auch kein Kunde sondern Zeitverschwendung.

Backbone
 
Eine Ramdisk würde mit der Last denke ich auf jedenfall klarkommen. 18 mal 350€ sind bei mir aber nicht 2800 :) sondern 6300 hehe. Geschweige den wie hoch da die Warscheinlichkeit ist das mal ein Riegel ausfällt, und wie damit die Ramdisk umgeht. Wird sich wohl das ganze System verabschieden.

Ups... ;)
Da hat sich beim schnellen tippen im calc wohl die 1 bei 18 verabschiedet... 6300€ ist natürlich richtig... Neja aber immernoch günstiger als ein Raidarray mit SAS Platten in der nötigen Anzahl um die Datenraten zu erreichen ;)
Geschweige den vom Controller / den Controllern um die Platten zu verwenden.

Zum Thema RAM ausfall... Das ist ECC Speicher. Der hat eine eigene Fehlerkorektur wenn man so will. Heist soviel wie, da geht nicht mal eben so ein Riegel kaputt.
Im übrigen, wenn dir das Diskarray auseinander fliegt, steht auch die ganze Kiste ;) das nimmt sich gar nix ;)

fdsonne, die 8GB/Modul haben wir schon lange hinter uns.

Wer will, kann HP NW089AV 64GB DDR3 SDRAM Memory Module haben.

Preislich eine andere Liga. :fresse:

Ne nicht wirklich... Schau mal genau, das ist ein Kit aus 8x8GB ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh