Norco RPC-4224 (aka Inter-Tech IPC 4U-4324L)

Hallo,

nur zur Information: Das Chieftec ATM-1322S Backplane (auch bekannt als OIMaster Swap 2) ist definitiv nicht nicht SATA 6Gbps aka SATA3 kompatibel. Auf dem Produkt selber steht zwar auch nur "up to SATAII with SATA 3Gbps drauf, aber im Internet - wie auch hier - findet man Vermutungen, wonach das auch mit 6GB/s läuft. Das ist definitiv nicht der Fall:

Das Backplane/der Wechselrahmen ist also nicht für aktuelle SSDs zu empfehlen.

6GBit SATA Backplanes bekommste nur recht selten gebraucht ... (auch ein grund warum ich wieder auf selbstbau gehe und die backplanes weglasse)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@WhistlOr
Wer baut denn auch SSD's in Wechselrahmen? Wenn der Wechselrahmen die Signale nur durchschleift, müssen auch 6 Gbps an der Plate/SSD ankommen. Merkwürdig das ganze ist ...
 
kleine Empfehlung: nachdem ich von SATA3 (6GBps)-"Problemen" (Inkompatibilitäten) in SATA-Backplanes hier gelesen habe, eine einfache Empfehlung für 2.5" (SSD)-Laufwerke:

Der billig verarbeitete 4fach 2.5" SATA-Wechselrahmen (für 1x 5.25") Chieftec ATM-1042SAS funktioniert bei mir einwandfrei mit SATA3 an einem ASUS Z77-Mainboard - gerade noch schnell getestet. Ist ja eigentlich auch kein Wunder, da das Signal direkt verbunden ist (keine wirkliche Backplane-Logik dazwischen), allerdings habe ich es bei der Verarbeitungsqualität doch etwas in Frage gestellt. Für mich reicht es völlig, da ich so die Datastores meines ESXi im Rack einfach von vorne wechseln kann und nicht viel schrauben muss.
 
Zuletzt bearbeitet:
Hat von euch schon mal jemand mit dem Gedanken gespielt, dass Inter-Tech 4U-4316L hinter der "Lüfter"-Zwischenwand abzuschneiden und ein Mini-ITX-System nebst 1U-Netzteil oben hinter die 5,25" Blenden zu pflanzen?

So ein "kleines" System würde mich ja schon reizen^^ Allerdings ist meine Modding-Fähigkeiten und Know-How nicht die besten und ich will das Ding natürlich nicht vermurksen.

Daher brauch ich jetzt jemanden, der mit gutem Beispiel voran geht.:fresse2:

8a_4316_innen_detail.jpg

Was haltet ihr von der Idee?
 
Zuletzt bearbeitet:
Und was soll das bringen? Es würde scheiße aussehen und die ganze Arbeit nur für so ein bisschen Platzersparnis? Gerade da man 19"-Gehäuse eh meist in ein Rack einbaut erschließt sich mir der Sinn des Vorhabens noch weniger.
Aber wenn du Spaß dran hast, dann nur zu. Vergiss bitte nicht das Powdercoating, die Kaltlicht-Kathoden, die Modding-Lüftergitter, die Wasserkühlung, die Lüftersteuerung, das Display und ganz wichtig das Tribal auf dem Gehäusedeckel. :fresse:
Der obligatorische "Projekt-Thread" mit täglichen Postings über mehrere Monate darf natürlich auch nicht fehlen.
 
Zuletzt bearbeitet:
Vergiss bitte nicht das Powdercoating, die Kaltlicht-Kathoden, die Modding-Lüftergitter, die Wasserkühlung, die Lüftersteuerung, das Display und ganz wichtig das Tribal auf dem Gehäusedeckel. :fresse:

made my day :d

du kriegst da oben vielleicht das mainboard rein, aber was ist mit einem controller/expander, sonst kannst du die 16 slots ja nicht sinnvoll nutzen ;)

gruß
 
Ein Low-Profile-Controller könnte passen und das sind ja quasi alle kleinen SAS-Controller sowieso. Mini-ITX muss es nicht mal sein, ich denke ein µATX sollte auch passen und wäre günstiger, die Auswahl wesentlich größer und man hätte dann auch genug PCIE-Slots.

SAS-Expander sollte man nur mit SAS-Festplatten verwenden, SATA-Festplatten an SAS-Expandern können unerwünschte Probleme hervorrufen.

Aber wie schon gesagt, ich halte von der Idee nichts. Wenn du auf Bastelarbeit stehst leb dich doch lieber an einem PC aus den man auch immer sieht, für einen Server der eh in einen separaten Raum aufgrund der Geräuschentwicklung sollte halte ich das für absolut vergeudete Zeit. Ansonsten gibt es hier auch noch schöne Bastelanleitungen.

Origami_Raptor_aus_Papier.jpg
RUAARRRR!
 
Zuletzt bearbeitet:
zfs-discuss - ZOL + SATA + Interposers + SAS Expanders is bad Mkay.:
Basically what is happening here is that a hardware error occurs be it a read error or a drive overwhelmed with cache-sync commands a device or bus reset is issued. What happens next is that the single reset turns into *MANY* resets. The initial reset on the SAS expander causes all in-progress IO operations to abort. It should then generate a proper SAS hardware error/sense code. Here is where the problem starts. The interposers instead lose things in protocol translation from SATA --> SAS and instead return a generic hardware error/sense code. Thus now the Linux (sg) driver steps in and tries to be helpful by issuing another reset in an effort to right the ship. Thus given this scenario if you have a lot of IO going on, EG: the kind of IO that ZFS can generate with a disk subsystem like this needless to say the ship never rights itself and instead makes a quick trip to Davey Jones...

http://garrett.damore.org - Why SAS->SATA is not such a great idea
hardforum.com - ZFS and SAS expanders with SATA drives a toxic combo?

Nur weil diese Links sich mit Solaris, Linux und ZFS beschäftigen ist nicht relevant. Das Problem kann auch unter FreeBSD oder Windows auftreten.

Ich habe es zwar zu Hause auch ZFS mit SATA-Festplatten und SAS-Expander laufen, aber sobald ich das nächste Upgrade benötige oder auch mal die beschriebenen Probleme bei mir sehe werde ich die Expander wieder verkaufen und ein Ghetto-Setup machen indem ich die Gehäuseböden ausschneide und die Gehäuse einfach übereinander staple und somit aus drei 4HE-Gehäusen ein großes 12HE-Gehäuse schaffe.
In schön gibt es dass natürlich auch von Chenbro oder Supermicro, nur kostet dass dann über 4000€ und nicht 3x350€ wie beim Norcotek/Inter-Tech/X-Case.

Man kann ohne Probleme mit einen X9SRL-F und 6x 8-Port SAS-Controllern 66 (7x8+10) Festplatten betreiben, bei Verwendung von 16-Port-Controllern sogar 122 (7x16+10), es gibt also kaum Gründe für einen Expander, sofern es bei den 8-Port SAS-Controllern bleibt ist die Lösung sogar günstiger als eine Expander-Lösung, performanter ist sie sowieso in jedem Fall. Sockel 2011 mit 40 PCIE-Lanes macht es möglich.
 
Zuletzt bearbeitet:
@GrafikTreiber:
Was glaubst du ist ein Interposer in diesem Kontext? Das scheint mir irgendwie relevant zu sein für diesen Fall.

Darüber hinaus scheint das durchaus ein spezifisches Problem bei ZFS zu sein, wenn es überhaupt eins ist. Zumindest sagt das der Autor, dessen technischen Sachverstand ich aber zumindest mal skeptisch anzweifeln möchte an dieser Stelle. Ich wäre mir nicht so sicher, ob er alle Zusammenhänge da richtig verstanden hat.

Grundsätzlich ist der Betrieb von SATA Festplatten an SAS Expandern mal gar kein Problem.
 
1. Ich denke auch das es hier hauptsächlich um ZFS geht.
2. Wird von SAS-Controllern und Expandern das SATA-Protokoll unterstützt und diese schalten beim erkennen auf dieses um - siehe Probleme von Dunkler Rabe mit der Kabellänge an SATA-Platten und nicht mehr an SAS-Platten.
3. Der Artikel ist von 2010. Inzwischen gibt es SATA-Platten die auch etwas "robuster" sind.

Just my 2 cents

PS:
...
Man kann ohne Probleme mit einen X9SRL-F und 6x 8-Port SAS-Controllern 66 (7x8+10) Festplatten betreiben, bei Verwendung von 16-Port-Controllern sogar 122 (7x16+10), es gibt also kaum Gründe für einen Expander, sofern es bei den 8-Port SAS-Controllern bleibt ist die Lösung sogar günstiger als eine Expander-Lösung...

Könntest du mir das mal vorrechnen, für Raid5 oder Raid6?
 
Zuletzt bearbeitet:
Was glaubst du ist ein Interposer in diesem Kontext? Das scheint mir irgendwie relevant zu sein für diesen Fall.
Bitte die anderen Links auch lesen, da geht es nämlich einfach um das Thema SAS-Expander und SATA-Festplatten im Allgemeinen.

Darüber hinaus scheint das durchaus ein spezifisches Problem bei ZFS zu sein, wenn es überhaupt eins ist. Zumindest sagt das der Autor, dessen technischen Sachverstand ich aber zumindest mal skeptisch anzweifeln möchte an dieser Stelle. Ich wäre mir nicht so sicher, ob er alle Zusammenhänge da richtig verstanden hat.
Die Techniker/Entwickler von Nexanta und das LLNL (ZFSonLinux) sagen das selbe, stellst du deren Sachverstand auch in Frage?
Das Problem ist nicht ZFS-spezifisch, sondern tritt einfach bei sehr hohem I/O auf, auch btrfs ist dazu in der Lage. Mit primitiven Dateisystemen wie NTFS oder EXT ist es natürlich schwierig eine so hohe Last zu erzeugen. Doch nur weil das im "Normalbetrieb" nicht auftritt heißt es nicht dass das Problem nicht da ist. Muss ja jeder selbst wissen ob er mit dem Risiko leben will dass seine Reifen schon bei 100 km/h platzen. Also immer schön langsam fahren.

Grundsätzlich ist der Betrieb von SATA Festplatten an SAS Expandern mal gar kein Problem.
Ja, Ficken im Puff ohne Kondom ist grundsätzlich erst mal kein Problem, bis es dann ein paar Tage später anfängt zu jucken.

2. Wird von SAS-Controllern und Expandern das SATA-Protokoll unterstützt und diese schalten beim erkennen auf dieses um - siehe Probleme von Dunkler Rabe mit der Kabellänge an SATA-Platten und nicht mehr an SAS-Platten.
Ich habe nur meinen Kopf geschüttelt als ich die Beiträge dazu gelesen habe, leider erst Wochen später sonst hätte ich direkt etwas dazu geschrieben. Der maximale Signalweg von SATA beträgt 1m, von SAS 10m. Kein Wunder dass das was er vor hatte nicht funktioniert hat, das ist doch schon von vornherein klar. Intel empfiehlt für die Backplane 25cm einzurechnen, es bleiben dann also eigentlich nur noch 75cm für ein Kabel.

Außerdem hat das für dieses Thema aber auch keine wirkliche Relevanz, denn da wird nicht auf ein Protokoll umgeschaltet, sondern mittels STP (SATA Tunneling Protocol) SATA über SAS getunnelt!
Eine Protokollumschaltung gibt es nur bei SAS-Controllern, die können mit direkt angeschlossenen SATA-Festplatten direkt SATA sprechen, aber wie schon gesagt nicht bei Expandern, sie heißen ja nicht umsonst SAS-Expander und NICHT SATA-Expander, sie expandieren SAS.

3. Der Artikel ist von 2010. Inzwischen gibt es SATA-Platten die auch etwas "robuster" sind.
Es ist völlig egal ob der Artikel von 2010 oder 2006 ist, es gibt in diversen Foren und Mailingliste dazu ständig etwas, zuletzt vor ein paar Tagen auf zfs-discuss oder auch im Hardforum wieder.
SATA-Festplatten können nicht "robuster" werden, das Problem sind nämlich nicht die Festplatten an sich sondern die grundsätzliche Technik von STP, da ändern also auch neue Festplatten nichts dran.

Könntest du mir das mal vorrechnen, für Raid5 oder Raid6?
Verstehe ich nicht ganz, was meinst du? Meinst du die Performance? :confused:
 
Zuletzt bearbeitet:
Was Garrett D'Amore da effektiv sagt ist: Kauft professionellen Storage für euren professionellen Bedarf. Kann ich nur unterstützen, das ist ein guter Rat.

Vielleicht solltest du an der Stelle dann mal Kontakt zu den ganzen Systemherstellern aufnehmen und sie bitten SATA Platten aus dem Portfolio zu nehmen. Zumindest solange sie keine SATA Infrastruktur dafür anbieten können.
Und danach quatschst du mal mit den Ingenieuren von LSI und PMC, damit die wieder RoCs mit nativem SATA Support bauen. Und dann muss das INCITS nur noch den SATA Support per STP aus der SAS Spec streichen.
Dann sind wir wieder auf dem Stand von vor einigen Jahren und können SATA Raidcontroller mit SATA Platten gemeinsam nutzen und sind nicht mehr auf SAS Raidcontroller angewiesen.

Alternativ könnte man mal die SCSI Trade Association bitten sich für günstigere SAS Laufwerke einzusetzen, SATA kann dann sterben.

Letzteres wäre sogar tatsächlich noch mal eine Option. Dann könnte man die Zusammenführung von SATA und SAS vollenden.

Um mal einen wirklichen Grund gegen Expander anzubringen:
In Verbindung mit manchen Controllern ist das Mapping der physikalischen Ports zu den virtuellen Ports zu den Festplatten ziemlich daneben. Das ist zwar kein Weltuntergang, aber teilweise fies zu troubleshooten. Das war dann auch für mich der Grund den Expander außer Betrieb zu nehmen.
 
Zuletzt bearbeitet:
...
Verstehe ich nicht ganz, was meinst du? Meinst du die Performance? :confused:

Auf die performance bist du schon eingegangen also kannst du nur die Kosten meinen und das verstehe ich nicht.
Außerden hebst du auch hier immer wieder auf ZFS ab was mich micht interessiert. ich nutze ein "primitives" Dateisystem bei mir im Keller.

Ende meines Kommentares zu dieser ~ Behauptung.
 
Zuletzt bearbeitet:
...
Alternativ könnte man mal die SCSI Trade Association bitten sich für günstigere SAS Laufwerke einzusetzen, SATA kann dann sterben.

Letzteres wäre sogar tatsächlich noch mal eine Option. Dann könnte man die Zusammenführung von SATA und SAS vollenden.
...
Ja, schön wäre es wenn Intel und AMD mal auch in ihren 0815 Consumer-Chipsätzen SAS-Unterstützung bringen würden. Ich kann mir kaum vorstellen dass SAS-Festplatten großartig teurer in der Herstellung als SATA-Festplatten sind, aber irgendwo müssen die Hersteller ja noch die ihr Geld verdienen.
Bei SAS gibt es nur Enterprise-Festplatten, bei SATA gibt es Consumer- und Enterprise-Festplatten.

Auf die performance bist du schon eingegangen also kannst du nur die Kosten meinen und das verstehe ich nicht.
Um 48 Festplatten mit Expander anschließen zu können benötigt man folgende Hardware:
2x Chenbro 36-port SAS Expander Card (CK23601H0C01) mit LSI SASIIX36 - je 400€
1x LSI SAS 9207-8e, low profile, PCIe 3.0 x8 (LSI00300) - je 280€
= 1080€
Um 48 Festplatten mit SAS-Controllern anschließen zu können benötigt man folgende Hardware:
6x IBM ServeRAID M1015, PCIe 2.0 x8 (90Y4556) geflasht auf IT-Firmware - je 125€, auf eBay sogar für knapp 100€
= 750€ / 600€ eBay

Bei Anschluss an Expander teilen sich 24 Festplatten die Bandbreite eines SAS-Anschlusses, also den für 4 Festplatten.
Bei Anschluss an SAS-Controller teilen sich die Festplatten keine Bandbreite, hier limitiert nur rein PCIE. Da bei so vielen Controllern zwei Controller mit PCIE x8 und der Rest mit PCIE x4 angebunden ist die Performance hier weit aus höher.

Außerden hebst du auch hier immer wieder auf ZFS ab was mich micht interessiert. ich nutze ein "primitives" Dateisystem bei mir im Keller.
Ich hebe auf gar nichts ab, die Problematik SATA-Festplatten mit SAS-Expandern tritt bei einfach hoher I/O-Last auf, sie ist nicht ZFS-spezifisch.
Es gibt halt fortschrittliche Dateisysteme und welche die es nicht sind, das hat nichts mit "abheben" zu tun, das ist keine Meinung, das ist ein Fakt denn du mittels Blick in den Featurekatalog schnell überprüfen kannst. Du könntest auch unter Windows ein modernes Dateisystem mit ReFS mit Storage Spaces verwenden, ich denke da wird es die selben Probleme wie mit btrfs und ZFS geben. Wenn man es wirklich darauf anlegt sollte man diese Problematik mit jedem Dateisystem provozieren können.
 
Zuletzt bearbeitet:
Ich muss da immer an meinen Mathelehrer am Gymnasium denken als es um Wahrscheinlichkeit ging.
(Ist schon eine Weile her, war sicher nicht rassistisch gemeint nur damals sehr unwahrscheinlich und bleibt mir daher im Gedächtnis)

"Wenn ich einen Tag am Bahnhof stehe und es kommt kein Farbiger, kann ich daraus schließen dass es keine Farbigen an Bahnhöfen gibt?"

Nein natürlich nicht, war damals nur sehr unwahrscheinlich außer an Bahnhöfen amerikanischer Militärstützpunkte.

Mit Sata over SAS Expander sehe ich das ähnlich. Nur weil man noch kein Problem hatte heißt das noch nicht, dass es keine gibt. Ich hatte mit WD Raptoren schon Probleme (geht/geht nicht) die ich direkt an SAS/Sata nicht hatte. Es ist einfach so, dass SAS per Design viel unproblematischer und damit professioneller ist. Sata an SAS Expandern - das gibt es nur weil es billig ist, nicht weil es gut ist. SAS wurde ja gerade geschaffen um die Beschränkungen von Sata/IDE zu umgehen. Dass es Sata überhaubt gibt liegt leider an den Marketing Menschen die meinen man braucht was billiges und was gutes, teures - auch wenn SAS eigentlich nicht teurer in der Herstellung ist.

Man kann Sata an SAS Expandern machen und oft geht es gut. Professionelle Anbieter bieten das aber meist nicht an oder supporten es nicht - sollte einem zu denken geben. Ich vermeide Sata an SAS Expandern fast generell - ohne ist es eh schneller und oft billiger.

Ausnahme: externer JBOD Storage und/oder SAS Platten
 
Zuletzt bearbeitet:
SAS wurde ja gerade geschaffen um die Beschränkungen von Sata/IDE zu umgehen. Dass es Sata überhaubt gibt liegt leider an den Marketing Menschen die meinen man braucht was billiges und was gutes, teures - auch wenn SAS eigentlich nicht teurer in der Herstellung ist.

Das stimmt ja nun mal wirklich nicht. SATA ist der Nachfolger von IDE und SAS der Nachfolger von SCSI. Beide umgehen damit jeweils die Beschränkungen ihrer jeweiligen, parallel arbeitenden Vorgänger. Nur wurde hier diesmal einiges richtiger gemacht und man hat Standards entwickelt, die nicht nahezu 100% inkompatibel zueinander sind.
Das man aus technischer Sicht SATA zu Gunsten von SAS weglassen könnte ist allerdings korrekt, das sehe ich ähnlich.

Man kann Sata an SAS Expandern machen und oft geht es gut. Professionelle Anbieter bieten das aber meist nicht an oder supporten es nicht - sollte einem zu denken geben.

Praktisch alle großen Anbieter bieten SATA Platten für SAS Infrastrukturen an und haben ebenso SAS Expander bzw. Produkte mit integriertem Expander im Angebot.
 
Praktisch alle großen Anbieter bieten SATA Platten für SAS Infrastrukturen an und haben ebenso SAS Expander bzw. Produkte mit integriertem Expander im Angebot.

Wenn die das mit zertifizierten Platten in einem speziellen Umfeld machen mag das ok sein.
Ansonsten sehe ich das so

Kann man machen, muss man nicht machen.
 
so jetzt noch einmal zum Case-Mod-Thematik:

@GrafikTreiber: Deinen Sarkasmus kannst du dir sparen.

Tut mir echt Leid für dich, dass deine eingeschränke Sichtweise einen Case-Mod nur mit blinkenden Lüftern, Wasserkühlung und Co. in Verbindung bringt.


Ich will nicht basteln und werde es wahrscheinlich auch nicht machen. Es war nur eine Idee, da es einfach keine passende Fertiglösung gibt. Wenn ihr doch was kennt, sagt Bescheid.

Es hat nicht jeder eine Server-Farm und mehrere Racks im Keller stehen.
Ich suche eine platzsparende Speicherlösung, die für Backups dienen soll und räumlich getrennt vom normalen Fileserver steht. Das Ding soll somit in einem normalen Zimmer stehen. Es bietet sich bei mir an, es in ein vorhandenes 50x50cm Ikea-Regal zu stellen.

Mir gefällt das folgende "Spielzeug" (U-NAS NSC-800 Server Chassis) eigentlich super, leider nur schwer bzw. teuer in Deutschland zu bekommen. u-nas.com :: U-NAS Server Chassis :: U-NAS NSC-800 Server Chassis
Etwas ähnlich habe ich nicht gefunden.

Nun hätte das "abgesägte" Inter-Tech Gehäuse den Vorteil, dass die Festplatten-Einschübe zu meinem vorhandenen Inter-Tech kompatibel wären.

Wegen den zu hohen Steckkarten könnte man auf so etwas zurückgreifen. u-nas.com :: Accessories :: Chassis Accessories :: 16X PCIe Extension Kit for NSC-800 Server Chassis
 
Dann kauf Synology-Spielzeug oder ähnliches. Entweder man machts richtig oder es sieht hübsch im Wohnzimmer aus. Mein langes Inter-Tech steht auch im Flur und lärmt, so what? Dafür hab ich Platz und frickel nicht mit Steckkarten rum, weil die nicht ins Lifestyle-Gadget passen.

Irgendwann muss man sich mal entscheiden, was man will.
 
so jetzt noch einmal zum Case-Mod-Thematik:

@GrafikTreiber: Deinen Sarkasmus kannst du dir sparen.

Tut mir echt Leid für dich, dass deine eingeschränke Sichtweise einen Case-Mod nur mit blinkenden Lüftern, Wasserkühlung und Co. in Verbindung bringt.
Ui ui, da ist aber jemand schwer getroffen. Es war ein Scherz, mehr auch nicht, kein Grund zu weinen. Mein Antec Mini P180 white ist überings von innen schwarz pulverbeschichtet und auch sonst alles andere als Standard (nicht beleuchtet!), aber nun gut. ;)

Es hat nicht jeder eine Server-Farm und mehrere Racks im Keller stehen.
Ich suche eine platzsparende Speicherlösung, die für Backups dienen soll und räumlich getrennt vom normalen Fileserver steht. Das Ding soll somit in einem normalen Zimmer stehen. Es bietet sich bei mir an, es in ein vorhandenes 50x50cm Ikea-Regal zu stellen.
Ja, man merkt dass du keine Server-Farm im Keller stehen hast. ;)
Denn dann würdest du die Idee mit 16 Festplatten in einem Ikea-Regal in einem Zimmer in dem man wohnt auch ganz schnell verwerfen! Soviele Festplatten machen einen heiden Lärm, da hilft auch keine Dämmung oder Entkoppelung. Von daher halte ich von der Idee einfach nichts.
Wie TCM schon sagte, kauf dir eine Synology oder vielleicht einen HP-Microserver: günstiger, mehr Möglichkeiten (ZFS/Server 2012R2), aber nicht so hübsch. Mit 4 Festplatten mag das vielleicht noch gehen, ist aber auch schon recht laut. Aber 16? Das dürfte selbst bei 5400rpm Festplatten eine Geräuschentwicklung von an 35 bis 40dbA sorgen. Überleg dir das vielleicht noch ein mal.

Hast du Zahlen parat was in dem Kontext eine hohe I/O Last ist?
Schwierig zu quantifizieren, durch die Features wie von ZFS wie Raid, Selfheal, Checksumming, CoW, Cache... und besonders durch die Arbeitsweise des Cache (Breath-in/Breath-out) kannst du halt erstmal grundsätzlich eine höhere Last als mit NTFS oder EXT4 verursachen.
Wenn dann bei einem Fehler ein Bus-Reset wegen eines Fehlers mit einer einzelnen Festplatte kommt werden alle bereits bestehenden Operationen, auch die der anderen Festplatten, einfach abgebrochen. Da dann alle bestenden Operationen neugestartet werden und dort es dabei dann eventuell wieder das gleiche Phänomen auftritt kann es zu einem Teufelskreislauf kommen.
Bei einfachen Dateisystemen ist dann noch genügend Kapazität frei damit der Betrieb ordentlich aufrecht erhalten werden kann, bei komplexeren Dateisystemen kann die generell höhere I/O-Last in einem solchen Fall zum kompletten Stillstand führen. Sprich der Esel kann den Karren mit dem Kind und ein paar Säcken Kartoffeln noch ziehen, sobald aber die ganze Familie mit auf den Anhänger will macht der Esel leider schlapp.
 
Zuletzt bearbeitet:
Ja, man merkt dass du keine Server-Farm im Keller stehen hast. ;)
Denn dann würdest du die Idee mit 16 Festplatten in einem Ikea-Regal in einem Zimmer in dem man wohnt auch ganz schnell verwerfen! Soviele Festplatten machen einen heiden Lärm, da hilft auch keine Dämmung oder Entkoppelung. Von daher halte ich von der Idee einfach nichts.
Wie TCM schon sagte, kauf dir eine Synology oder vielleicht einen HP-Microserver: günstiger, mehr Möglichkeiten (ZFS/Server 2012R2), aber nicht so hübsch. Mit 4 Festplatten mag das vielleicht noch gehen, ist aber auch schon recht laut. Aber 16? Das dürfte selbst bei 5400rpm Festplatten eine Geräuschentwicklung von an 35 bis 40dbA sorgen. Überleg dir das vielleicht noch ein mal.

16 Einschübe bräuchte ich nicht, die kleineren Gehäuse bieten nur keinen Platz über den Einschüben. Microserver hab ich und nutze ich momentan. Der hat aber zu wenig Platz. Ich bräuchte so 8 Einschübe.
Das System soll ja eben auch nicht dauerhaft laufen, sondern ca 1-2 Std in der Woche für Backups. Daher ist Lautstärke nicht so tragisch.

Von Fertig-NAS Systemen bin ich nicht so begeistert. Außerdem geht es da auch erst bei 700+ € los
 
Weiß jemand, ob die Gehäuse von Inter-Tech und XCase von den Einschüben her kompatibel sind?
 
Kommt drauf an, natürlich die die vom selben OEM kommen, nicht die mit den Hot-Swap-Lüftern von X-Case.
 
speziell meine ich dieses hier. (Die Preise wurden übrigens reduziert.)
16 bay home server case

Sieht zwar noch ähnlich aus wie das Original von Norco/Inter-Tech, soll aber eine "Weiterentwicklung" sein. Die Farbe und die Front der Einschübe ist schon mal anders. Hat jemand so ein (ähnliches) XCase-Gehäuse und kann mir sagen, wie die Einschübe von der Seite aussehen. Sind die zu den zu Inter-Tech identisch?
 
"Weiterentwicklung"? Das sind einfach nur andere Farben. Ich gehe davon aus dass es die selben Einschübe sind da des anscheinend auch die gleichen Backplanes sind und der selbe OEM. Da gibt es bei diesem Gehäusedesign sowieso kaum Raum für Veränderungen bei den Einschüben. Das ist einfach nur ein Metallrahmen um die Festplatte rum, mehr nicht.
Probiere es halt einfach mal aus, so ein Einschub kostet eh nur 6€ oder so. ;)
 
Zuletzt bearbeitet:
Probiere es halt einfach mal aus, so ein Einschub kostet eh nur 6€ oder so. ;)
Das war mir zu viel Aufwand. Ich hätte den Einschub wahrscheinlich in England bestellen müssen, wenn er überhaupt einzeln zu kaufen ist.

Ich bin daher wieder bei Intertech gelandet.

Wie versorgt ihr eure Backplanes, Lüfter und co. mit Strom?
Habt ihr alle Server-Netzteile? Die kleinen Consumer-Netzteile bieten ja leider nicht ansatzweise genug Molex-Stecker.
Gibt es irgendwelche fertigen "6 auf 1"- oder "4 auf 1"- Molex-Y-Adapter?
 
Seasonic X-760. An Molex hats da eigtl. nicht gemangelt und auch 2x 8pol. für die CPUs war direkt dran. Noch dazu ist es single-rail. Bis jetzt keinerlei Probleme.

Edit: Achja, die Lüfter (2x 80mm hinten, 3x 120mm Mitte) sind alle 3-pin direkt auf dem Mainboard.
 
Zuletzt bearbeitet:
Das war mir zu viel Aufwand. Ich hätte den Einschub wahrscheinlich in England bestellen müssen, wenn er überhaupt einzeln zu kaufen ist.

Ich bin daher wieder bei Intertech gelandet.

Wie versorgt ihr eure Backplanes, Lüfter und co. mit Strom?
Habt ihr alle Server-Netzteile? Die kleinen Consumer-Netzteile bieten ja leider nicht ansatzweise genug Molex-Stecker.
Gibt es irgendwelche fertigen "6 auf 1"- oder "4 auf 1"- Molex-Y-Adapter?
Ich hab da ein Corsair Professional Series HX750 drin. Meine 4 Backplanes brauchen 4xMolex und das geht alles von einem Kabel ab. Lüfter sind am Mainboard angeschlossen. Die einzige dicke 12V-Schiene reicht locker aus - erst recht mit staggered spin-up.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh