Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Nein, aber CrystalDiskMark testet immer das Maximum, also gibt dann halt den Best-Case wieder. Für die von dir genannten Zwecke hilft das freilich wenig. In unseren SSD-Reviews nutzen wir dazu den SSDStresstest, AIDA64 kann mit einem leeren Laufwerk praktisch das selbe.Ja aber CDM testet nicht die komplette Datei. Daher sage ich, dass CDM lügt.
Ich wuerde sagen, dass dein skizziertes Szenario eher in die Kategorie 'Brandgefaehrlich' faellt.Ist mein NAS nun lahm wie Sau oder super schnell? Kommt drauf an. Wem 30GB zu wenig sind, dann ja (Wobei ich dazu sagen muss, dass ich für diesen Test meinen 1TB SSD Cache deaktiviert habe )
Ich wuerde sagen, dass dein skizziertes Szenario eher in die Kategorie 'Brandgefaehrlich' faellt.
Ein NAS sollte nie ein Network-Attached-Trashbin sein, denn nichts anderes ist das Teil wenn man stupide in den RAM 'schreibt'.
Ein definierte Testordner auf das NAS kopieren und dabei den Datenverkehr mittels Tool aufzeichen?
Das heißt, der spreizt einfach den Test weiter? Sprich bei einer 40GB HDD könnte ich damit quasi dann die Spurenbereiche testen?
Ich will das hier jetzt nicht auf die Spitze treiben20% Schreibcache und 30 Sekunden Haltezeit ist der Linux-Standard. Oder willst du damit jetzt sagen, dass es viel gefährlicher ist 30GB an Daten zu verlieren, statt "nur" 12GB?
Bei 1.3 GB/s der SSD ist der RAM übrigens in 23 Sekunden leer. Schafft die USV gerade so :P
Nutze daher auch einfach n FreeNas mit Syncwrites und fertig.
Wie viele Zufälle müssten da zusammen kommen. Wichtige Daten verschieben, die vorher noch in keinem Backup steckten, das NAS darf die Daten noch nicht auf die SSD geschrieben haben und dann muss der Strom ausfallen und die USV versagen. Murphys Law würde eher den Blitz einschlagen lassen und NAS und Client gleichzeitig töten ^^
OpenMediaVault
- schlechtes Dashboard
- sehr niedrige Hardwareanforderungen
- wird häufig auf einem RPI installiert
- VM, Docker... lieber nicht ^^
Alle anderen OS halte ich für irrelevant.
Mir gefällt bei OMV das USB Backup Plugin ziemlich gut. https://www.openmediavault.org/?p=936Hast du OMV (OpenMedaVault) mal inder aktuellsten Version genutzt? Da gibt es ein komplett neues Dockermanagement, was echt sehr gut läuft.
Klar man bekommt es mal nich eben in 1min hin, aber prinzipiell find ichs gut.
Und wie oft guckt man ins dashboard... Kaum bis garnicht, ansonsten find ich OMV sehr gut und fahre damit seit Jahren aufm NAS sehr gut.
Hast du OMV (OpenMedaVault) mal inder aktuellsten Version genutzt? Da gibt es ein komplett neues Dockermanagement, was echt sehr gut läuft.
Transcoding, sofern es unterstützt wird z.B., mehrere VMs parallel laufen lassen, usw. Wenn für dich da ein Celeron reicht, ist das doch gut. Muss aber nicht für jeden Anwender ausreichend sein.
zum schluss, wer braucht 6x8TB datengrab?
Die Anzahl der VMs, Container etc. sagt überhaupt nichts darüber aus, wie potent eine CPU sein muss
Container machen nicht immer Sinn, insbesondere wenn man experimentelle Software oder Projekte von Github nutzt. Da reicht ein Panic im Container und der ganze Host ist gleich mit weg. RAM ist so billig wie nie, und auch eine VM braucht nicht so viel RAM, jedenfalls nicht unter ESXi.Wenn man VMs im Einsatz hat, die nichts tun, warum dann uberhaupt die VM? Mal davon abgesehen, dass man dadurch RAM blockt. Sicher, dass du davon nichts in Container auslagern kannst?
Wenn man VMs im Einsatz hat, die nichts tun, warum dann uberhaupt die VM? Mal davon abgesehen, dass man dadurch RAM blockt. Sicher, dass du davon nichts in Container auslagern kannst?
Da kommt es drauf an was man erreichen will. Ich hatte fast 10 Jahre verschiedene Synology NAS Modelle. Irgendwann hatte ich so viele HDDs, dass mich der Stromverbrauch nervte. Dank dem bescheuerten Konzept von Syno, dass auf wirklich jeder HDD das DSM und Pakete hinterlegt werden (und nicht zB nur auf dem ersten RAID Pool), war es unmöglich einzelne Pools oder gar alle HDDs schlafen zu schicken. Es gab nur die Option das ganze NAS schlafen zu schicken. Anfangs habe ich mir mit 3x DS213+ beholfen. Die kannten noch einen DeepSleep. Das Konzept wurde aber von Syno verworfen und so sparsam war das durch die Menge an NAS auch nicht mehr, da ich noch zwei gebraucht hätte. Mal abgesehen von dem hohen Wartungsaufwand und dem hohen Speicherplatzverlust (jedes mit RAID1). Als die DS1618+ zu klein wurde war ich es dann leid und der Wechsel zu Unraid war entschieden.In der großen Anzahl an Suchmaschinentreffern zum Thema Do-It-Yourself-NAS könnte man glauben, man schnappt sich einfach die Hardware, schiebt mal fix die Software auf den Stick, installiert ein wenig, macht ein paar Einstellungen und kann dann mit den großen namenhaften Herstellern mithalten oder sogar diese in der Funktionalität oder Leistungsfähigkeit überbieten
Und das für nur 2600€Und genau für sowas ist so ein Bastelprojekt 1a. Macht bock und erledigt das nötige.
So viel hat mich damals etwa mein Epyc AiO Server gekostet, inkl. Platten.Das Teuerste bei einem NAS sind halt die Platten. Von daher sind 2600€ eigentlich noch ok.
Warum ist dann eine Auflistung der Komponenten inkl. Gesamtsumme interessant? Darum ging es in dem Artikel doch gar nicht?Schade, dass einige hier nicht verstehen, worum es in dem Artikel gehen soll. Schließlich haben die Redakteure doch beschrieben, dass sie das mal versuchen wollten und mal aufzeigen möchten, dass es eben nicht getan ist mit Nachklicken von Tutorials.
Davon und der Stromverbrauchsmessung wurde ich auch angetriggert. 😅Warum ist dann eine Auflistung der Komponenten inkl. Gesamtsumme interessant?
Weil sonst sicher andere Trolls angekommen wären und sich darüber beklagt hätten. 😃Warum ist dann eine Auflistung der Komponenten inkl. Gesamtsumme interessant? Darum ging es in dem Artikel doch gar nicht?
Crap liegt sicher im Auge des Betrachters. Sie haben geschrieben, dass sie das verwendet haben, was eh gerade da war. Wo ist das Problem?Und hätte der Autor -wenn es darum ja gar nicht geht- dann nicht erwähnen können, dass die Config crap ist, da es darum ja auch gar nicht geht?
Guter PunktWeil sonst sicher andere Trolls angekommen wären und sich darüber beklagt hätten. 😃
IRRTUM!Bei zfs sollte man ca. 1 GB RAM pro TB einplanen, bei 48TB sind 32GB tendenziell zu wenig, was zu Problemen geführt haben könnte und das Einbrechen der Leistung erklären könnte. Bei meinem zfs on linux füllt er schön immer den Speicher in etwa bis zu dem Wert (wäre in diesem Fall wohl 48 GB) als Cache. Einfach noch mal mit 64 GB RAM testen
Bei deduplikation brauchst du eher noch mehrDiese Aussage trifft nur zu, wenn auf einem Pool Deduplikation genutzt werden soll und auch nur für diesen Pool - wirklich ausschließlich nur dann!!