Unraid - Lizenzverständnisfrage und allgemeine Frage bzgl. Cache und Parity Platte und Verteilung der Daten

bastis0

Enthusiast
Thread Starter
Mitglied seit
21.09.2010
Beiträge
272
Moin zusammen,

Vielleicht kann mir einer von euch helfen. Im Forum bei Unraid hab ich nix gefunden...meine Englischkenntnisse dafür sind aber auch nicht die besten.

Meine Fragen (Ich hoffe, ein Unraid Spezialist kann mir hier kurz helfen):
- Wie sieht es bei den Lizenzen bzgl. Festplatten aus? Werden sämtliche Festplatten gezählt, also Daten, Parity und Cache oder werden nur Daten bzw. Daten/Parity Platten gezählt?
- Eine Parityplatte macht ja durchaus sinn. Welche Größe sollte diese haben? Kann diese kleiner sein, als die Daten Platten oder muss diese zwingend gleich Groß sein, wie z.B. bei Raid 5)? (Bei mir geplant 4x 4TB)
- Cache Platte....muss die Grundsätzlich sein oder macht diese erst Sinn, wenn man auf 2,5/10GBit geht? Ich habe hier ein einfachen 1GBit Netzwerk, da müssten die normalen HDD den Transfer ja eigentlich schaffen
- Wie ist am besten die Verteilung der Daten? Freie Verteilung durch das System, wie es gerade passt oder macht es auch sinn, die Daten selbst zu verteilen? Also bei 3x 4TB HDD jeweils eine dediziert für Video und Musik, eine für Daten und Programminstallationsdateien, eine ausschließlich für die Backups der Systeme (in meinem Fall Veeam Images).....Externe Backups erledige ich über getrennte USB Platten für jeweils entsprechende Daten

Vielleicht kann mir hier einer mal kurz helfen, mehr zu vestehen und ein bischen mein Grundkonzept auf zu bauen.
Inzwischen finde ich dieses System sehr ansprechend, gegenüber meiner ursprünglichen Idee und die Lizenzgebühren sind auch ok. Der Gedanke, die Daten jeweils auf eigene Platten konzentriert zu schmeißen kam mir, weil Unraid dann ja nicht immer alle HDD's anfahren muss, wie bei Raid 5, wenn man z.B. nur ein Backup macht oder nur mal Musik hört. Dies spart im Endeffekt ja auch wieder Strom.

Als Info:
Ins System sollen 4x 4TB HDD's für Daten kommen (eine davon für Parity). Zusätzlich eine ca. 500GB SSD für virtuelle Maschinen, und Docker Daten....ggf. eine noch für Cache, falls dies Sinn macht.

Damit wäre ich dann ja schon 6 HDD's und somit am Limit der Basic Lizenz, wenn alle Platten für die Lizenz zählen. Sollte ich also besser gleich die Plus Variante nehmen?

Ich danke schonmal für eure Mühe
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
- Wie sieht es bei den Lizenzen bzgl. Festplatten aus? Werden sämtliche Festplatten gezählt, also Daten, Parity und Cache oder werden nur Daten bzw. Daten/Parity Platten gezählt?
...es zählen alle Platten, inkl. Parity und Cache

- Eine Parityplatte macht ja durchaus sinn. Welche Größe sollte diese haben? Kann diese kleiner sein, als die Daten Platten oder muss diese zwingend gleich Groß sein, wie z.B. bei Raid 5)? (Bei mir geplant 4x 4TB)
...die Parity Disk(s) muss mindestens die Grösse der grössten Daten-Platte (nicht Cache) haben..grösser geht, kleiner nicht.

- Cache Platte....muss die Grundsätzlich sein oder macht diese erst Sinn, wenn man auf 2,5/10GBit geht? Ich habe hier ein einfachen 1GBit Netzwerk, da müssten die normalen HDD den Transfer ja eigentlich schaffen

Muss nicht grundsätzlich sein. Aber unRaid verwendet einen etwas anderen Parity-Mechanismus und ist daher beim schreiben nicht so schnell wie ein normales Raid.
Man bekommt grundsätzlich *maximal* die Performance einer einzelnen HDD, da eine Datei immer ganz auf einer der DIsks landet...dazu muss Parity in Software berechnet und auch geschrieben werden.
Es kommt auf die Performance der HDDs an und auch darauf welchen Write Modus man einstellt, was am Ende rauskommt.
Hat man mehr als 1x Parity und 1x Daten, dann gibt es einen Modus "reconstruct write", der etwas schneller als der normale Modus ist, aber dafür laufen immer alle Disks an.
Mein Tipp: ausprobieren.
Wenn Cache, dann besser SSD statt HDD...der "Mover" verschiebt die Daten dann regelmässig auf den HDD/Parity-Pool.
Eine einzelne Cache DIsk heisst kein Parity, bis die Daten von dort in den Pool verschoben wurden. Daher besser 2xSSD (unRaid macht dann eine btrfs Raid1 daraus).
Der Cache Pool ist auch dann sinnvoll, gerade als SSD, weil stromsparender und performanter. Man kann dann VMs und Docker ebenfalls da drauf legen und so Strom sparen inkl. Performance gewinnen, gegenüber der Nutzung des Daten-Pools mit HDDs


- Wie ist am besten die Verteilung der Daten? Freie Verteilung durch das System, wie es gerade passt oder macht es auch sinn, die Daten selbst zu verteilen? Also bei 3x 4TB HDD jeweils eine dediziert für Video und Musik, eine für Daten und Programminstallationsdateien, eine ausschließlich für die Backups der Systeme (in meinem Fall Veeam Images).....Externe Backups erledige ich über getrennte USB Platten für jeweils entsprechende Daten

Wenn alle HDDs gleichen Typs sind, ist es eigentlich egal.
Wenn man nicht den reconstruct write Modus nutzt und damit die HDDs einzeln "starten", kann man etwas Strom und theoretisch Lebensdauer sparen, muss aber mehr Gehinschmalz reinstecken.


Als Info:
Ins System sollen 4x 4TB HDD's für Daten kommen (eine davon für Parity). Zusätzlich eine ca. 500GB SSD für virtuelle Maschinen, und Docker Daten....ggf. eine noch für Cache, falls dies Sinn macht.

Damit wäre ich dann ja schon 6 HDD's und somit am Limit der Basic Lizenz, wenn alle Platten für die Lizenz zählen. Sollte ich also besser gleich die Plus Variante nehmen?
SSD für VMs und Docker und SSD für Cache sind am bestens "eins", also zusammen,,,siehe meine Info oben.
Wenn Du noch erweitern willst und die 10USD sparen willst, kaufe die PLUS Lizenz...die reicht lange und man kann im Zweifel eine grössere Parity nachrüsten, gewinnt eine Datenplatte zurück und kann noch ein, zwei, drei.. weitere, grössere dazustecken ;-)
Mit der Basic und 4xHDD kannst Du das nicht mehr machen.
 
...es zählen alle Platten, inkl. Parity und Cache
Das hatte ich schon vermutet. Also doch gleich die Plus, um ein wenig Luft zu haben.


...die Parity Disk(s) muss mindestens die Grösse der grössten Daten-Platte (nicht Cache) haben..grösser geht, kleiner nicht.
Sprich, wenn die größte eine 4TB ist, dann muss die Parity 4TB sein, egal, ob es 3x 4TB sind oder nur 1x 4TB...korrekt? Kann man im Unraid eigentlich auch einen Austausch dieser Parity machen, wenn man z.B. eine 6TB einbauen will, oder tauscht man die beiden einfach aus und lässt dann neu berechnen?

Muss nicht grundsätzlich sein. Aber unRaid verwendet einen etwas anderen Parity-Mechanismus und ist daher beim schreiben nicht so schnell wie ein normales Raid.
Man bekommt grundsätzlich *maximal* die Performance einer einzelnen HDD, da eine Datei immer ganz auf einer der DIsks landet...dazu muss Parity in Software berechnet und auch geschrieben werden.
Es kommt auf die Performance der HDDs an und auch darauf welchen Write Modus man einstellt, was am Ende rauskommt.
Hat man mehr als 1x Parity und 1x Daten, dann gibt es einen Modus "reconstruct write", der etwas schneller als der normale Modus ist, aber dafür laufen immer alle Disks an.
Mein Tipp: ausprobieren.
Wenn Cache, dann besser SSD statt HDD...der "Mover" verschiebt die Daten dann regelmässig auf den HDD/Parity-Pool.
Eine einzelne Cache DIsk heisst kein Parity, bis die Daten von dort in den Pool verschoben wurden. Daher besser 2xSSD (unRaid macht dann eine btrfs Raid1 daraus).
Der Cache Pool ist auch dann sinnvoll, gerade als SSD, weil stromsparender und performanter. Man kann dann VMs und Docker ebenfalls da drauf legen und so Strom sparen inkl. Performance gewinnen, gegenüber der Nutzung des Daten-Pools mit HDDs
Als Datenplatten habe ich Seagate Ironmaster 4TB mit 5.900 U/min drin. die schaffen angeblich kontinuierliche 180MB/s. Also für GBit ausreichend. Theoretisch :)
Als Cache wollte ich definitiv eine SSD einsetzen. Mindestens eine normale Sata6 SSD oder eine M2 NVME. Aber wenn ich die Cache zusätzlich als Speicher für VM's und Docker benutzen kann, perfekt. Dann dürfte es definitiv eher die M2 500er werden, die hier noch habe. Ist der Mechanismus von Unraid sehr Rechenintensiv? Würde also, für was kleines, erst einmal eine Pentium G6400 reichen oder sollte man doch lieber direkt z.B. mit einer i3 10100er anfangen? Mir geht es schon ein wenig um Strom sparen, also keine High End Maschine, die 50-xxx Watt im Leerlauf benötigt. Als Ram dachte ich erst einmal an 16GB und drauf kommen tut erst einmal nur 1-2 kleine Docker, Filer natürlich und Openhab...entweder als Docker oder als kleine VM, je nachdem, wie ich es einfacher schaffe, den USB Stick durch zu reichen.

Wenn alle HDDs gleichen Typs sind, ist es eigentlich egal.
Wenn man nicht den reconstruct write Modus nutzt und damit die HDDs einzeln "starten", kann man etwas Strom und theoretisch Lebensdauer sparen, muss aber mehr Gehinschmalz reinstecken.
Wie meinst Du das mit dem Gehirnschmalz reinstecken? Wegen dem planen, was wohin soll oder wegen tiefergehender Konfiguration am Kern, damit auch alles so läuft? Grundsätzlich sollte das bei mir kein Problem sein, da ich solche Sachen auch immer mache, um etwas zu lernen....sonst könnte ich mir ja auch einfach ne QNAP oder Synology hinsetzen :)

SSD für VMs und Docker und SSD für Cache sind am bestens "eins", also zusammen,,,siehe meine Info oben.
Wenn Du noch erweitern willst und die 10USD sparen willst, kaufe die PLUS Lizenz...die reicht lange und man kann im Zweifel eine grössere Parity nachrüsten, gewinnt eine Datenplatte zurück und kann noch ein, zwei, drei.. weitere, grössere dazustecken ;-)
Mit der Basic und 4xHDD kannst Du das nicht mehr machen.
Also vom Grundsatz her sollte es nicht größer werden, aber ausschließen kann ich es auch nicht. Der Vorteil, den ich bei Unraid sehe, ist, das ich kleiner aufrüsten kann und nicht, wie bei Raid 5 sofort immer alle Platten mit einmal austauschen muss. Und vom Grundsatz her macht es ja auch durchaus Sinn, eher eine kleinere gegen eine Größere aus zu tauschen, als immer nur Hinzu zu packen. Da ich aber noch zwei kleine Mädels habe, weiß ich nicht, wieviel Speicherplatz ich in 5 Jahren brauchen werde....Sprich, wenn die beiden selbst mal los legen und Daten produzieren. Deshalb will ich schon ein wenig Flexibel bleiben, was die Aufrüstfähigkeit betrifft.

Eine Frage mal wegen HW Konfiguration:
Was wäre Sinnvoller:
a) Pentium Gold G6400 / i3 10100, 16GB "Standard" Ram, Gigabyte B460m Mainboard (6x Sata + 2x M2, Sockel 1200)
b) Pentium G5400 / i3 8100, 8GB ECC Ram, Fujitsu D3644-B Mainboard (6x Sata + 1x M2, Sockel 1151)
 
Sprich, wenn die größte eine 4TB ist, dann muss die Parity 4TB sein, egal, ob es 3x 4TB sind oder nur 1x 4TB...korrekt?
Ja, Du kannst Grössen auch michen/unterschiedlich im System haben, zB 1x4TB +2x3TB +1x2TB....Parity muss dann mindestens 4TB sein.
Würdest Du zB gleich eine 6TB als Parity nehmen, kannst Du auch später einfach neue Daten Disks mit jeweils bis zu 6TB nachrüsten.

Kann man im Unraid eigentlich auch einen Austausch dieser Parity machen, wenn man z.B. eine 6TB einbauen will, oder tauscht man die beiden einfach aus und lässt dann neu berechnen?
Ja...einen Parity check machen, Array stoppen, Disks austauschen, die neue als Parity festlegen und Array starten...Patity baut sich neu auf.
Wenn Deine Lizenz aber ausgefüllt ist, kannst Du die alte 4TB nicht mehr als Daten-Disk nutzen.

Ist der Mechanismus von Unraid sehr Rechenintensiv? Würde also, für was kleines, erst einmal eine Pentium G6400 reichen oder sollte man doch lieber direkt z.B. mit einer i3 10100er anfangen?
Der Algo ist im wesentlichen ein XOR...es werden die CPU-Befehle (glaube SSE o.ä.) genutzt, ist also nicht sehr rechenintesiv. Ein Pentium Gold langweilt sich da.
Die Einbusse kommt vor allem daher, dass die Parity-Prüfsumme "roh", also ohne Dateisystem an der gleichen Stelle auf die Parity-Disk geschrieben werden muss, wie die Quersumme der Bytes der Daten-Disk(s) an dieser Stelle. Notwendig um das hinterher auch rekonstruieren zu können, wenn mal eine DIsk ausfällt.
Bei "drehenden" Disks müssen also erstmal die Daten-Bytes gelesen, Parity berechnet und dann geschrieben werden.
Da Platten nie wirklich gleich schnell und synchron drehen, muss man warten bis der Schreib/Lesekopf an jeder der Stellen einmal, über alle Disks also evtl. zwei-/dreimal die Zeit die Platte braucht, vorgekommen ist um alle Daten zu haben.


Mir geht es schon ein wenig um Strom sparen, also keine High End Maschine, die 50-xxx Watt im Leerlauf benötigt. Als Ram dachte ich erst einmal an 16GB und drauf kommen tut erst einmal nur 1-2 kleine Docker, Filer natürlich und Openhab...entweder als Docker oder als kleine VM, je nachdem, wie ich es einfacher schaffe, den USB Stick durch zu reichen.
Docker ist wesentlich leichgewichtiger, da DU kein ganzes OS, sondern nur die App brauchst.
Das geht alles...openHAB ist evtl. eine Herausforderung, da Java in Form der Oracle jvm nicht mit verteilt werden darf, aus Lizenzgründen und evtl openjdk nicht optimal funktioniert.
Geht also nicht so klick, klick, finish.
Wieso einen USB-Stcik durchreichen an openHAB??
Im Docker aber auch kein Problem.

Wie meinst Du das mit dem Gehirnschmalz reinstecken? Wegen dem planen, was wohin soll oder wegen tiefergehender Konfiguration am Kern, damit auch alles so läuft? Grundsätzlich sollte das bei mir kein Problem sein, da ich solche Sachen auch immer mache, um etwas zu lernen....sonst könnte ich mir ja auch einfach ne QNAP oder Synology hinsetzen :)
Du kannst einstellen auf welchen Disks ein Share "sitzen" darf und wir die Ordner Hierarchie unterhalb des Shares über die Disks verteilt wird.
Oder Du nimmst die Default-EInstellungen ;-)

Also vom Grundsatz her sollte es nicht größer werden, aber ausschließen kann ich es auch nicht. Der Vorteil, den ich bei Unraid sehe, ist, das ich kleiner aufrüsten kann und nicht, wie bei Raid 5 sofort immer alle Platten mit einmal austauschen muss.
Ja, genau...ist die Lizenz aber ausgerizt, kannst DU zwar vertikal, gegen grösse Platten in-place tauschen, aber nicht horizontal dazusetzen. Wird eine alte Platte frei, weil gegen eine neue, grössere getausscht muss die alte raus aus dem unraid NAS..

Eine Frage mal wegen HW Konfiguration:
Was wäre Sinnvoller:
a) Pentium Gold G6400 / i3 10100, 16GB "Standard" Ram, Gigabyte B460m Mainboard (6x Sata + 2x M2, Sockel 1200)
b) Pentium G5400 / i3 8100, 8GB ECC Ram, Fujitsu D3644-B Mainboard (6x Sata + 1x M2, Sockel 1151)
SInnvoll liegt im Auge des Betrachters.
Bei 2xNVMe genau darauf achten, ob nicht doch ein/zwei SATA dafür wegfallen, wenn die bestückt werden und ob beide Slots gleiche Performance Anbindung haben. Dann sind die optimal für Cache (inkl. VMs, Docker). Cache mit 1xSSD und 1x NVMe/PCIe zu bestücken ist kontraproduktiv.
Für das , was Du vor hast reichen in jedem Fall 8GB...ein Pentium ebenso...S11551v2 oder S1200 ist ebenfalls Geschmacksache....ich würde es am Board festmachen (M.2/PCIe und Erweiterungs-Slots).
ECC ist eine Philosophiefrage ;-) Mein grosses System im 4HE hat ECC (AMD Opteron HE) schläft dafür viel, mein normales, kleines NAS nicht und spart, weil Desktop-Board mit S1151v2/i3-8100 viel Strom.
Beitrag automatisch zusammengeführt:

P.S.: sorry für die Dreckpfuhler...meine Brille verlegt ;-)
 
Zuletzt bearbeitet:
betreffend write cache: ich hatte ohne ca 60MB/s... mit 2.5gb netzwerk. mit nvme als write cache rund 250MB/s. der Cache lohnt sich insofern definitiv. Ausser bei der erstbefüllung wenn die zu kopierende menge die grösse des caches übersteigt. dann ist es mühsam.
Der Mover weckt die jeweilige platte nur wenn es wirklich was zu verschieben gibt :)
 
Ja, Du kannst Grössen auch michen/unterschiedlich im System haben, zB 1x4TB +2x3TB +1x2TB....Parity muss dann mindestens 4TB sein.
Würdest Du zB gleich eine 6TB als Parity nehmen, kannst Du auch später einfach neue Daten Disks mit jeweils bis zu 6TB nachrüsten.
Dann hab ich es richtig verstanden. Danke.

Ja...einen Parity check machen, Array stoppen, Disks austauschen, die neue als Parity festlegen und Array starten...Patity baut sich neu auf.
Wenn Deine Lizenz aber ausgefüllt ist, kannst Du die alte 4TB nicht mehr als Daten-Disk nutzen.
Danke

Der Algo ist im wesentlichen ein XOR...es werden die CPU-Befehle (glaube SSE o.ä.) genutzt, ist also nicht sehr rechenintesiv. Ein Pentium Gold langweilt sich da.
Die Einbusse kommt vor allem daher, dass die Parity-Prüfsumme "roh", also ohne Dateisystem an der gleichen Stelle auf die Parity-Disk geschrieben werden muss, wie die Quersumme der Bytes der Daten-Disk(s) an dieser Stelle. Notwendig um das hinterher auch rekonstruieren zu können, wenn mal eine DIsk ausfällt.
Bei "drehenden" Disks müssen also erstmal die Daten-Bytes gelesen, Parity berechnet und dann geschrieben werden.
Da Platten nie wirklich gleich schnell und synchron drehen, muss man warten bis der Schreib/Lesekopf an jeder der Stellen einmal, über alle Disks also evtl. zwei-/dreimal die Zeit die Platte braucht, vorgekommen ist um alle Daten zu haben.
ok...Also braucht man die Leistung der CPU bei Unraid an sich mehr für Docker und VM, als für Unraid selbst.

Docker ist wesentlich leichgewichtiger, da DU kein ganzes OS, sondern nur die App brauchst.
Das geht alles...openHAB ist evtl. eine Herausforderung, da Java in Form der Oracle jvm nicht mit verteilt werden darf, aus Lizenzgründen und evtl openjdk nicht optimal funktioniert.
Geht also nicht so klick, klick, finish.
Wieso einen USB-Stcik durchreichen an openHAB??
Im Docker aber auch kein Problem.
Deshalb dachte ich auch an Docker. Einerseits zum lernen, andererseits, da Sinnvoll, als x VM's.
Mit USB-Stick meine ich meinen Jeelink Stick, welcher meine x Temperatur und Feuchtigkeitssensoren anbindet. Aber vermutlich werde ich auch noch nach einer Xiaomi Gateway V3 Box schauen, um weitere Standards anbinden zu können. (Z-Wave, WLAN Clients, etc.)

Du kannst einstellen auf welchen Disks ein Share "sitzen" darf und wir die Ordner Hierarchie unterhalb des Shares über die Disks verteilt wird.
Oder Du nimmst die Default-EInstellungen ;-)
Ok...da ist nicht wirklich Gehirnschmalz...einen Plan muss man sich definitiv vorher machen, auch was Berechtigungen betrifft, etc. Also für mich zählt das noch unter Planung und standard :)

Ja, genau...ist die Lizenz aber ausgerizt, kannst DU zwar vertikal, gegen grösse Platten in-place tauschen, aber nicht horizontal dazusetzen. Wird eine alte Platte frei, weil gegen eine neue, grössere getausscht muss die alte raus aus dem unraid NAS..
Oder Upgraden der Lizenz dann. Aber wenn ich jetzt schon am Limit bin, bleibt's dann wohl direkt bei der Plus Variante. die 10$ kann ich mir auf jeden Fall ersparen dann

SInnvoll liegt im Auge des Betrachters.
Bei 2xNVMe genau darauf achten, ob nicht doch ein/zwei SATA dafür wegfallen, wenn die bestückt werden und ob beide Slots gleiche Performance Anbindung haben. Dann sind die optimal für Cache (inkl. VMs, Docker). Cache mit 1xSSD und 1x NVMe/PCIe zu bestücken ist kontraproduktiv.
Für das , was Du vor hast reichen in jedem Fall 8GB...ein Pentium ebenso...S11551v2 oder S1200 ist ebenfalls Geschmacksache....ich würde es am Board festmachen (M.2/PCIe und Erweiterungs-Slots).
ECC ist eine Philosophiefrage ;-) Mein grosses System im 4HE hat ECC (AMD Opteron HE) schläft dafür viel, mein normales, kleines NAS nicht und spart, weil Desktop-Board mit S1151v2/i3-8100 viel Strom.
Beitrag automatisch zusammengeführt:

P.S.: sorry für die Dreckpfuhler...meine Brille verlegt ;-)
Das mit den M2 und Sata Anbindung werde ich schauen. Danke für den Tipp...hatte ich schon nicht mehr dran gedacht.
Die Cahce / VM / Docker wird dann vermutlich erstmal eine 500GB NVME...ich denke, das sollte reichen und die Daten, die unbedingt sofort sicher sein müssen, lasse ich dann direkt durch gehen. Das sind dann ehh höchstens eingescannte Dokumente und direkte private Daten. So viel ist das an sich ja nicht, vom Volumen der einzelnen Dateien meine ich.
Dein kleines normales NAS (i3-8100er) schläft nicht so viel aber spart? Wieviel Verbrauch hast Du denn da und welcher Chipsatz hast Du? H oder B Modell? Z wäre ja eher für Gamer, also definitiv Blödsinn.
Beim 1200er Sockel dachte ich daran, das, wenn ich mit den G6400 anfange und später auf einen i3er hoch wollen würde, dieser den Vorteil hat, das der 10100er 4C + Hyperthreading hat. Deshalb vermutlich auch noch ein wenig mehr Leistung, gegenüber einem 9xxxer Series.
Beim ECC ja....wenn ich auf XEON, etc. gehen würde oder hoch Kritische Daten hätte, ein muss...aber so? Bisher hatte ich da noch nie Probleme und meine Daten werden auch regelmäßig doppelt gesichert, wenn da was weg käme, könnte es niemals so viel sein, das ich mir komplett selbst in den Hintern treten würde...außer meine Bude fackelt ab, aber dann hab ich ehh andere Probleme ;)
Beitrag automatisch zusammengeführt:

betreffend write cache: ich hatte ohne ca 60MB/s... mit 2.5gb netzwerk. mit nvme als write cache rund 250MB/s. der Cache lohnt sich insofern definitiv. Ausser bei der erstbefüllung wenn die zu kopierende menge die grösse des caches übersteigt. dann ist es mühsam.
Der Mover weckt die jeweilige platte nur wenn es wirklich was zu verschieben gibt :)
Danke für den Hinweis. Vor allem mit der Erstbefüllung. Wie gesagt, eine 500GB M2 wird rein kommen...aber ca. 7TB an Daten müssen dann wieder zurück....das wird dauern
 
Deshalb dachte ich auch an Docker. Einerseits zum lernen, andererseits, da Sinnvoll, als x VM's.
Mit USB-Stick meine ich meinen Jeelink Stick, welcher meine x Temperatur und Feuchtigkeitssensoren anbindet. Aber vermutlich werde ich auch noch nach einer Xiaomi Gateway V3 Box schauen, um weitere Standards anbinden zu können. (Z-Wave, WLAN Clients, etc.)
Ich würde alle Gizmos im Haus auf mqtt umstellen.
mqtt/mosquitto gibt es als Docker und auch openHAB V2.x hat das inzwischen nativ im Bauch, wenn man will.
Ich habe zB auch node-red als Docker im Einsatz, falls mal mqtt nicht geht, aber zB REST/TCP/UDP


Dein kleines normales NAS (i3-8100er) schläft nicht so viel aber spart? Wieviel Verbrauch hast Du denn da und welcher Chipsatz hast Du? H oder B Modell? Z wäre ja eher für Gamer, also definitiv Blödsinn.
Ja, es spart.
Das grosse NAS hat 12HDDs und Platz für 12 weitere, zieht im Idle 75W...ist nur das grosse Datengrab und wird per WOL aufgeweckt. Das kleine ist für 24x7 (Scanner Files, Smart-Home, Router, Musik/Hörspiele)
...ist dieses Board https://geizhals.de/msi-h310m-pro-vd-7b33-002r-a1795314.html?hloc=at&hloc=de mit einer Pico-PSU. das hat (nackt, mit i3 und 1x8GB, unRaid-Stick) etwa 11W im idle.
Mit 2x2.5-1TB-HDD, 2x120GB-SSD, einer Intel-QUAD i330AT und laufender MikroTik-RouterOS VM, bei schlafenden HDDs zieht es 17W, ohne weitere Last von aussen (idle kann man ja dazu dann nicht wirklich sagen).
Mit der Router VM, 1x PiHole, 2x Node-red, 2x mosquitto, 1x Blynk, 1x InfluxDB, 1x Grafana, 1xtelegraf, 1x zerotier, 1x portainer im Docker läuft es mit durchn. 4% und zieht 20-25W.
Wenn mal handbrake angeworfen wird, geht es auf 60W-75W hoch.

Beim 1200er Sockel dachte ich daran, das, wenn ich mit den G6400 anfange und später auf einen i3er hoch wollen würde, dieser den Vorteil hat, das der 10100er 4C + Hyperthreading hat. Deshalb vermutlich auch noch ein wenig mehr Leistung, gegenüber einem 9xxxer Series.
Ja, natürlich und technisch spricht nix dagegen. Das MB ohne Schnickschnack ist das Entscheidende.
EIn Board mit 2xNVMe, zB https://geizhals.de/gigabyte-h470m-ds3h-a2303666.html?hloc=at&hloc=de (da wird dann "nur" 1xSATA abgeschaltet) wäre mein aktueller Favorit.

Beim ECC ja....wenn ich auf XEON, etc. gehen würde oder hoch Kritische Daten hätte, ein muss...aber so? Bisher hatte ich da noch nie Probleme und meine Daten werden auch regelmäßig doppelt gesichert, wenn da was weg käme, könnte es niemals so viel sein, das ich mir komplett selbst in den Hintern treten würde...außer meine Bude fackelt ab, aber dann hab ich ehh andere Probleme ;)
Da denkst Du falsch..ECC hilft gegen Bitfehler im RAM. Wenn es einen Bitfehler im RAM gibt, wird der auf die Platte geschrieben (und mit Parity geschützt) und landet zwangsläufig auch in den Backups.
Da Du diese nicht ewig aufhebst, sondern rotierst, ist die letzte, unkompromitierte Version der Datei irgendwann weg...vom Event eines solchen Bitfehler im RAM, während des Backups ganz zu schweigen.
Merken tust Du das erst, wenn die Datei wieder angefasst/geöffnet wird und die App sagt "kann nicht geöffnet werden"...oder im RAW-Kamerabild ein Pixelfehler oder sowas ähnliches ist.
Hier: https://www.hardwareluxx.de/communi...arum-eigentlich-ecc-ram.1111362/post-24403410

Ich hatte das bisher in meinem grossen NAS in 10 Jahren einmal (welcher File betroffen gewesen wäre, kann ich nichtmal sagen)...in meiner Workstation (aus meinem XEON-Server Board, des ersten NAS gebaut, mit 32GB Reg-ECC) noch nie.
Ein Desktop System spart Strom und kann i.d.R. zuverlässig S3/WoL (ein Grund warum das alte XEON board zur Workstation wurde; das AMD-ECC board im grossen NAS ist ein AM3-Desktop board und mMn die einzige Combo, wo das mit ECC geht) und das ist mir wichtiger als Murphy's law (eine Datei in 10 Jahren und das wird dann die wichtigste in meinem Leben, weil die Rente ist dann weg, oder so).
Beitrag automatisch zusammengeführt:

betreffend write cache: ich hatte ohne ca 60MB/s... mit 2.5gb netzwerk. mit nvme als write cache rund 250MB/s. der Cache lohnt sich insofern definitiv. Ausser bei der erstbefüllung wenn die zu kopierende menge die grösse des caches übersteigt. dann ist es mühsam.
Der Mover weckt die jeweilige platte nur wenn es wirklich was zu verschieben gibt :)
...oder Parity bei Erstbefüllung *aus* (später die P-Disk dazu setzen/aktivieren).

Noch ein Tipp: vor dem Aktivieren der Disks im Array erst einmal (1x) Preclear drüber laufen lassen: https://forums.unraid.net/topic/54648-preclear-plugin/ ...als "burn-in".
 
Zuletzt bearbeitet:
Ich würde alle Gizmos im Haus auf mqtt umstellen.
mqtt/mosquitto gibt es als Docker und auch openHAB V2.x hat das inzwischen nativ im Bauch, wenn man will.
Ich habe zB auch node-red als Docker im Einsatz, falls mal mqtt nicht geht, aber zB REST/TCP/UDP
Danke für den Tipp...muss ich mich mal in ruhigerer Minute einlesen. Aktuell sind auch nur diese Fühler verteilt...aber vermutlich kommt noch ein wenig dazu...kein Bock immer in die zweite Etage zu laufen, nur weil meine Kinder wieder Licht angelassen haben :)

Ja, es spart.
Das grosse NAS hat 12HDDs und Platz für 12 weitere, zieht im Idle 75W...ist nur das grosse Datengrab und wird per WOL aufgeweckt. Das kleine ist für 24x7 (Scanner Files, Smart-Home, Router, Musik/Hörspiele)
...ist dieses Board https://geizhals.de/msi-h310m-pro-vd-7b33-002r-a1795314.html?hloc=at&hloc=de mit einer Pico-PSU. das hat (nackt, mit i3 und 1x8GB, unRaid-Stick) etwa 11W im idle.
Mit 2x2.5-1TB-HDD, 2x120GB-SSD, einer Intel-QUAD i330AT und laufender MikroTik-RouterOS VM, bei schlafenden HDDs zieht es 17W, ohne weitere Last von aussen (idle kann man ja dazu dann nicht wirklich sagen).
Mit der Router VM, 1x PiHole, 2x Node-red, 2x mosquitto, 1x Blynk, 1x InfluxDB, 1x Grafana, 1xtelegraf, 1x zerotier, 1x portainer im Docker läuft es mit durchn. 4% und zieht 20-25W.
Wenn mal handbrake angeworfen wird, geht es auf 60W-75W hoch.
Na, das geht ja noch. Ich gehe momentan von OpenHab, PiHole und Dokuwiki aus. Ggf. kommt irgendwann noch ein AD Controller hinzu...entweder Windows Server oder ein Samba AD...das muss ich aber erst in einigen Jahren entscheiden, wenn meine Kinder mehr machenwollen und müssen.
Bitwarden wollte ich mir auch noch anschauen, aber momentan bin ich da noch bei Password Depot und bin sehr zufrieden.

Ja, natürlich und technisch spricht nix dagegen. Das MB ohne Schnickschnack ist das Entscheidende.
EIn Board mit 2xNVMe, zB https://geizhals.de/gigabyte-h470m-ds3h-a2303666.html?hloc=at&hloc=de (da wird dann "nur" 1xSATA abgeschaltet) wäre mein aktueller Favorit.
Ich dachte ja an das Gigabyte B460M D3H...dies scheint identisch mit dem von Dir genannten zu sein, ausgenommen der Möglichkeit, LED's über das Mainboard zu steuern.
Allerdings wird ein Sataanschluß nur dann abgeschaltet, wenn Du in dem einen M2 Sockel eine M2 Sata einbaust. Wenn Du 2 NVME einbaust, stehen die alle 6 Sata zur Verfügung. Zumindest Laut Handbuch soll es so sein, bei beiden Mainboards. Ich fand das "Fan Stop" ganz gut...spart auch ein wenig wieder, wenn die Lüfter nur dann laufen, wenn diese auch benötigt werden.

Da denkst Du falsch..ECC hilft gegen Bitfehler im RAM. Wenn es einen Bitfehler im RAM gibt, wird der auf die Platte geschrieben (und mit Parity geschützt) und landet zwangsläufig auch in den Backups.
Da Du diese nicht ewig aufhebst, sondern rotierst, ist die letzte, unkompromitierte Version der Datei irgendwann weg...vom Event eines solchen Bitfehler im RAM, während des Backups ganz zu schweigen.
Merken tust Du das erst, wenn die Datei wieder angefasst/geöffnet wird und die App sagt "kann nicht geöffnet werden"...oder im RAW-Kamerabild ein Pixelfehler oder sowas ähnliches ist.
Hier: https://www.hardwareluxx.de/communi...arum-eigentlich-ecc-ram.1111362/post-24403410
Das ist mir klar, das der Fehler sich dann komplett durch zieht. Einmal geschrieben mit Fehler, ist alles danach entsprechend. Finde das bei meinen Kunden immer wieder amüsant, wenn die meinen "Haben doch Raid 1....da passiert so etwas nicht". Nein, im Ernst: Bei meinen Kunden, mit wichtigen Datenbanken ist das etwas anderes. Natürlich kann es auch mir passieren, aber bisher ist es mir nicht unter gekommen und so extremst Wichtig ist das ganze auch nicht. Dazu fahre ich ein 2 Backupplatten System für die wirklich wichtigen Daten. Diese werden abwechselnd verwendet und somit dürfte nur eine defekt sein ... theoretisch. Klar, eine Frage, wann man den Fehler bemerkt...aber dann kann es auch keine so wichtige Datei mehr sein, wenn ich es so spät erst merke.
Apropo: Kann man unter Unraid eigentlich automatische Backupjobs starten lassen, wenn ich eine USB Platte anschließe?
Hatte früher das ganze mal über eine UID gesteuert: Anschließen, Backup machen, automatisches Ausschmeißen, Mail mit Info, das Fertig

Ich hatte das bisher in meinem grossen NAS in 10 Jahren einmal (welcher File betroffen gewesen wäre, kann ich nichtmal sagen)...in meiner Workstation (aus meinem XEON-Server Board, des ersten NAS gebaut, mit 32GB Reg-ECC) noch nie.
Ein Desktop System spart Strom und kann i.d.R. zuverlässig S3/WoL (ein Grund warum das alte XEON board zur Workstation wurde; das AMD-ECC board im grossen NAS ist ein AM3-Desktop board und mMn die einzige Combo, wo das mit ECC geht) und das ist mir wichtiger als Murphy's law (eine Datei in 10 Jahren und das wird dann die wichtigste in meinem Leben, weil die Rente ist dann weg, oder so).
Beitrag automatisch zusammengeführt:
Also da habe ich noch einige Jahre vor mir und die wichtigsten Daten für die Rente habe ich meist noch parallel als Papier. An sich kann der Pentium G und der i3 ja auch ECC ansteuern. Naja, das Mainboard kann es nicht...aber ggf. im nächsten Server dann in 5-6 Jahren

...oder Parity bei Erstbefüllung *aus* (später die P-Disk dazu setzen/aktivieren).
Stimmt...erst Daten druff und dann Parity berechnen lassen

Noch ein Tipp: vor dem Aktivieren der Disks im Array erst einmal (1x) Preclear drüber laufen lassen: https://forums.unraid.net/topic/54648-preclear-plugin/ ...als "burn-in".
Danke für den Tipp...macht Sinn, damit er nicht unnötige Parity aufbaut, vermute ich mal. Weißt Du zufällig, wie lange er da wohl für eine 4TB HDD benötigt? Also ggf. Erfahrungswerte bereits vorhanden?
 
...aber vermutlich kommt noch ein wenig dazu...kein Bock immer in die zweite Etage zu laufen, nur weil meine Kinder wieder Licht angelassen haben :)
Ich empfehle Gizmos die mit Tasmota-Firmware geflasht werdne können, oder die von https://shelly.cloud/ - die können mqtt ohne über die Hersteller-Cloud gehen zu müssen.

Ich dachte ja an das Gigabyte B460M D3H...dies scheint identisch mit dem von Dir genannten zu sein, ausgenommen der Möglichkeit, LED's über das Mainboard zu steuern.
Nope, Deines (https://www.gigabyte.com/Motherboard/B460M-DS3H-rev-10/sp#sp) hat nur 1xM.2, einen Realtek NIC,..meines 2xM.2 und einen Intel NIC...ich hatte das günstigeste mit Intel-NIC, 6xSATA und 2xNVMe/PCIe-x4 genommen, dachte ich...Annahme war, dass dann auch weniger anderer Kram drauf ist.

Allerdings wird ein Sataanschluß nur dann abgeschaltet, wenn Du in dem einen M2 Sockel eine M2 Sata einbaust. Wenn Du 2 NVME einbaust, stehen die alle 6 Sata zur Verfügung. Zumindest Laut Handbuch soll es so sein, bei beiden Mainboards.

Bei dem von mir verlingten nicht...das stimmt nur für die 1ste NVMe....die 2te, im M2P Sockel schaltet auch bei PCIe einen SATA ab (Handbuch S.17, https://download.gigabyte.com/FileList/Manual/mb_manual_h470m-ds3h_e.pdf)
Ich denke es ist wichtig, wenn man als Cache 2xNVMe-PCIe im BRTFS-Raid1 betreiben will, dass beide identich angebunden (hier x4) sind.

1598372076494.png



Apropo: Kann man unter Unraid eigentlich automatische Backupjobs starten lassen, wenn ich eine USB Platte anschließe?
Hatte früher das ganze mal über eine UID gesteuert: Anschließen, Backup machen, automatisches Ausschmeißen, Mail mit Info, das Fertig
Out-of-the-box nicht, aber es gibt Backup-Apps und Scripting Extensions. Eine USB erkennen kann das "unassigned-Devices-Plugin" und dies auch automagisch mounten/als Share freigeben.
Mit etwas Knoff-Hoff sollte das also gehen, wenn es nicht schon jemand in der Community umgesetzt hat....ich nutze das so bisher nicht.


Danke für den Tipp...macht Sinn, damit er nicht unnötige Parity aufbaut, vermute ich mal. Weißt Du zufällig, wie lange er da wohl für eine 4TB HDD benötigt? Also ggf. Erfahrungswerte bereits vorhanden?
Nein, das ist ein Neben-Effekt, dass unraid die Disk als "bereit" erkennt und sofort aktivieren kann.
Eigentlich macht das Plugin aber einmal komplett schreiben/lesen/verify...wenn das eine Platte durchhält (man sieht dann auch, wie warm es/sie wird) ist sie mit grosser Wahrscheinlichkeit OK und tauglich für den Einsatz.
Eine 3TB braucht etwa 20h...man kann das aber für mehr als eine gleichzeitig machen/starten.
 
Ich empfehle Gizmos die mit Tasmota-Firmware geflasht werdne können, oder die von https://shelly.cloud/ - die können mqtt ohne über die Hersteller-Cloud gehen zu müssen.
Davon hatte ich schonmal gelesen, aber noch nicht mit beschäftigt, da ich bisher ausschließlich die TFA Fühler benutze. Die gehen direkt an den Jeelink und werden dann ausgelesen. Cloud ist da noch ein ziemliches Fremdwort :)

Nope, Deines (https://www.gigabyte.com/Motherboard/B460M-DS3H-rev-10/sp#sp) hat nur 1xM.2, einen Realtek NIC,..meines 2xM.2 und einen Intel NIC...ich hatte das günstigeste mit Intel-NIC, 6xSATA und 2xNVMe/PCIe-x4 genommen, dachte ich...Annahme war, dass dann auch weniger anderer Kram drauf ist.
Da hast Du etwas verwechselt. Ich meinte das D3H nicht das DS3H (https://www.gigabyte.com/de/Motherboard/B460M-D3H-rev-10/sp#sp). Dieses hat eine Intel Lan und 2 M2.

Bei dem von mir verlingten nicht...das stimmt nur für die 1ste NVMe....die 2te, im M2P Sockel schaltet auch bei PCIe einen SATA ab (Handbuch S.17, https://download.gigabyte.com/FileList/Manual/mb_manual_h470m-ds3h_e.pdf)
Ich denke es ist wichtig, wenn man als Cache 2xNVMe-PCIe im BRTFS-Raid1 betreiben will, dass beide identich angebunden (hier x4) sind.
Wie gesagt, bei dem anderen Meinboard sieht es besser aus, was NVME M2 betrifft (mittlere Zeile)
1598382089245.png


Out-of-the-box nicht, aber es gibt Backup-Apps und Scripting Extensions. Eine USB erkennen kann das "unassigned-Devices-Plugin" und dies auch automagisch mounten/als Share freigeben.
Mit etwas Knoff-Hoff sollte das also gehen, wenn es nicht schon jemand in der Community umgesetzt hat....ich nutze das so bisher nicht.
Das klingt ja schonmal nicht schlecht. Ich denke, wenn man notfalls auf die Shell kommt, wird man definitiv so etwas einrichten können und vermutlich hast Du da auch Recht: Irgendwer hat das bestimmt auch schon so eingerichtet...man muss es nur noch finden.

Nein, das ist ein Neben-Effekt, dass unraid die Disk als "bereit" erkennt und sofort aktivieren kann.
Eigentlich macht das Plugin aber einmal komplett schreiben/lesen/verify...wenn das eine Platte durchhält (man sieht dann auch, wie warm es/sie wird) ist sie mit grosser Wahrscheinlichkeit OK und tauglich für den Einsatz.
Eine 3TB braucht etwa 20h...man kann das aber für mehr als eine gleichzeitig machen/starten.
Ok, also kann ich einfach mal von 24 Stunden ausgehen und dann sind Sie wirklich getestet und man sieht ggf. defekte Sektoren. Dann weiß ich schonmal grob, wieviel Zeit ich zusätzlich einplanen muss, beim einrichten.
 
Da hast Du etwas verwechselt. Ich meinte das D3H nicht das DS3H (https://www.gigabyte.com/de/Motherboard/B460M-D3H-rev-10/sp#sp). Dieses hat eine Intel Lan und 2 M2.
[...]
Wie gesagt, bei dem anderen Meinboard sieht es besser aus, was NVME M2 betrifft (mittlere Zeile)
Oh...OK, ja...gut zu wissen, danke!
Allerdings hat das B460er einen "alten" PCI Slot (wer hat sowas noch im Einsatz?), das H470er stattdessen 2xPCIe-x1 (kann man zB noch je einen Dual-NIC einbauen, wenn der grosse Slot mit nem HBA belegt wird).
 
Oh...OK, ja...gut zu wissen, danke!
Allerdings hat das B460er einen "alten" PCI Slot (wer hat sowas noch im Einsatz?), das H470er stattdessen 2xPCIe-x1 (kann man zB noch je einen Dual-NIC einbauen, wenn der grosse Slot mit nem HBA belegt wird).
Ja gut...PCI braucht wohl wirklich keiner mehr...aber insgesamt hat man 1x X16, 1x X1 und 1x X4 im X16 Slot...das sollte eigentlich reichen...Ist wohl generell eher die Frage, was einem wichtiger ist: 6 Sata + 2x M2 oder ein X1er mehr...Dann werde ich wohl bald mal die Hardware bestellen....ich hadere noch....Pentium G6400 oder doch i3 10100....theoretisch sind da nur 7 Watt leistungsaufnahme dazwischen...i3er hält länger bevor man aufrüsten müsste, aber kostet auch erstmal mehr und keine Ahnung, wann ich die Leistung wirklich bräuchte
 
...für den I3 sprechen die bessere horizontale Skalierbarkeit, weil 4C/8T.
Der Pentium hat ein paar hundert MHz mehr im Kern, aber eben nur 2C/4T....kostet als 6400er aber nur die Hälfte vom i3....bzw den Preis einer durchaus ordentlichen NVMe-PCIE https://geizhals.de/kingston-kc2000-nvme-pcie-ssd-250gb-skc2000m8-250g-a2060196.html?hloc=at&hloc=de ;-)

Im Ernst, ich kann Dir da nicht wirklich helfen...für meinen Anwendungsfall würde ich mehr Kerne nehmen..wenn noch ne echte VM dazu käme, könnte man 1-2 Kerne (keine HT-"Kernchen") ohne Probleme abspalten und das wäre mein Kriterium für den i3
 
Genau mein Problem hast Du erkannt...reichen täte momentan der G6400...für Spielereichen, wie ein Windows Server 2012R2 als AD, wäre der i3 besser. Ich werde wohl noch 1-2 Tage drüber nachdenken und dann entscheiden.
Ich Danke Dir auf jeden Fall für die ganzen Antworten und für die 2-3 Denkanstöße am Rande :)
 
Zum Spielen brauchst ja nicht viel und eine AD brauch jetzt auch nicht viel CPU Power. Ich habe mit mein i3 im Qnap momentan 5 VM's wovon zwei Windows Maschinen sind, dazu laufen noch 4 Docker Conatiner. Also ein i3 macht das locker, ich denke auch der G6400 macht das.
 

Anhänge

  • firefox_ikRcoQZrWW.png
    firefox_ikRcoQZrWW.png
    10,3 KB · Aufrufe: 145
Ich denke auch, für meine Sachen reicht der G6400...aber ich bin ITler...und da ist immer diese Stimme, die sagt: Brauchste nicht...ABER WILL ICH ;)


So...Hardware ist bestellt...die Stimme hat gewonnen, es wird ein i3er :)
 
Zuletzt bearbeitet:
Hey bastis0,

ich hab so ziemlich die gleiche Konfiguration geplant und hab mal meinen alten, ungenutzen Luxx Account ausgegraben :P

Welche Teile sind es bei dir außer dem i3-10100 genau geworden? Hatte für mich 16GB Ballistix 3200 geplant, liegen ja gerade bei 55€. Und ein Pure Power 11 CM 400W. Verbaut im bereits vorhandenen Cooler Master Silencio 550.

Und ich bin mir jetzt nicht 100% sicher, aber es könnte sein, dass du erstmal die 6.9.0 Beta für den aktuelleren Linux Kernel nehmen musst.
(Edit: Hatte ich gelesen, als ich zum Thema iGPU passthrough recherchiert hatte, ist für deine Zwecke ja glaube nicht relevant.)

Bei mir soll das NAS im Wohnzimmer eigentlich noch gleichzeitig einen Office PC über eine Win10 VM ersetzen, die iGPU durchzuschleifen dürfte aber ziemlich schwierig werden, daher kommt wohl noch eine GT 710 dazu. Da der Office PC auch als Medienabspieler dient, wäre die neue GT 710 von Asus mit 4x HDMI für Monitor, Beamer und TV vielleicht auch nicht schlecht. Dummerweise kann mein AVR nur Surround über Toslink, also bräuchte ich noch eine externe USB Soundkarte. Naja, mache mir schon seit über einer Woche Gedanken, ob die VM Geschichte so funktioniert oder ob ich das erstmal lasse.

Bin gespannt auf deinen Bericht :)
 
Zuletzt bearbeitet:
...bei unRaid kommt es nicht notwendigerweise auf den Kernel an.
Die Jungs bei limetech schmieden i.d.R. ein stabiles Paket und die beta ist wirklich beta!
Wenn man keine bestimmten Features haben *muss*, würde ich die Finger davon lassen für das produktive System und abwarten.
Wer ein System zum spielen hat, kann natürlich mit ausprobieren.
Beitrag automatisch zusammengeführt:

Hatte für mich 16GB Ballistix 3200 geplant, liegen ja gerade bei 55€.

bei 2xDIMMs hätte ich eine 1.2V Variante gewählt um Strom zu sparen.
Da gibt es sogar noch welche unter 55EUR in der Liste: https://geizhals.de/?cat=ramddr3&xf...6_1.2~253_16384~254_2666~255_15~255_16~256_2x
 
Zuletzt bearbeitet:
HI,

Bei mir ist es jetzt ein i3 10100 geworden, Gigabyte B460M D3H und GSKILL DDR4 2666 (2x8GB) geworden. Grund für den Speicher war, das ich eigentlich den G6400 benutzen wollte und dieser kann nur 2666er Speicher.

@hominidae:
Ein Problem habe ich noch, wo ich nicht weiter komme, aber Du hast da vielleicht eine Idee: Egal welches Linux ich von USB boote, alles läuft so. Netzwerk vor allem keine Probleme. Aber wenn ich UnRaid boote, lädt er anscheinend nicht den e1000e Treiber und somit fährt die Netzwerkkarte nicht mit hoch (ist eine i219-V onboard). Weißt Du, was ich hier machen kann? Ich komme nicht so recht weiter...vielleicht hast Du noch einen Tipp, außer per eeupdater aus der -v eine -lm zu machen. Interessant finde ich, das andere anscheinend gar keine Probleme mit dieser haben
 
...puh...das ist echt doof.
Mir ist auch so, als ob ich das irgendwo hier schon mal angemerkt und auch selbst rechertiert hatte, dass es eigentlich gehen sollte.
Habe ja selbst das MSI 470er Board und auch für Win10 musste ich den Treiber beim ersten mal nachladen.
Eine weitere, vollständig neue Installation dann nicht mehr....muss irgendwas mit dem Bios zu tun haben?
Leider habe ich unRaid da garnicht drauf ausprobiert.
Edit: das kann ich aber morgen mal testweise machen.
Edit2: nein, mit dem MSI-470er MB auch das Problem...kein NIC 😭


Vielleicht sind es neuere Versionen des i219V oder anderes, neueres ROM.
Ohne zu basteln fiele mir jetzt nur ein, mit den Parametern im BIOS zu spielen, insbesondere ACPI und/oder Sleep/Wakeup.

Option2: die 6.9-beta nutzen.
Option3: Es gibt ein Kernel-Helper Plugin ... man könnte versuchen, den Treiber zu "backporten"...schliesslich läuft es in neueren Kernels, inkl. unraid 6.9beta. Der "Erfinder", User "ich777" im Forum ist sogar aus DE, vermute ich.
Option4: Eine andre NIC einsetzen und die onboard erstmal disablen
Option5: doch eine -lm draus machen. Welche Nachteile hätte das für Dich?
 
Zuletzt bearbeitet:
Servus,

also ich habe mir ein ähnliches Setup bestellt und gestern Unraid installiert.

Intel i3 10100
Gigabyte B460M DH3
G.Skill DDR4 3000

Ich habe direkt die Unraid Version 6.9 Beta 25 genommen, da ich gelesen hatte, dass da erst der neue Intel i3 samt iGPU unterstützt wird. Die Installation lief ohne Probleme nachdem ich den USB Stick als UEFI Version installiert hatte.

Cheers,
Maenshae
 
...das "Problem" dabei ist, das eine unRaid-beta wirklich "beta" ist.
Die Jungs bei limetech machen das ordentlich, bis eine stable wirklich eine ist.
Nur weil die beta existiert, bedeutet das nicht, dass die bald ready for production ist....kann gutgehen, muss aber nicht

Die 6.8.3 läuft zumindest an, aber auch ohne lokales GUI...ich muss am WE mal eine NIC einbauen.
 
Ok, also habe ich das selbst auch so richtig identifiziert. Ich dachte schon, ich wäre zu Blöde. Aber wenn ich es richtig gesehen habe, gibt es wohl eine i219-V und eine i219-V2...vielleicht ist hier auch noch der Unterschied, ob es läuft ode rnicht. Grundsätzlich kann ich das anpassen, aber ehrlich gesagt, ich finde dieses eeupdate Tool nicht, also wo ich das herunterladen kann.
Könntet ihr mir auch mal den Link für die Beta schicken? Auch hier bin ich momentan zu blöd, diesen zu finden....

Obwohl...ich bin vermutlich schlicht zu müde...haben seit 2 Tagen eine Katze und schlaf ist ein Traum....der sich nicht erfüllt momentan ;)
 
...Du nimmst den unRaid-USB-Creator und wählst die beta, nicht stable aus, bevor Du ihn auf den Stick schreiben lässt..
Achtung: Wenn die Lizenz schon aktiviert ist (auch Testlizenz) vorher den keyfile "retten", bevor Du das machst.

DL-Link habe ich gerade auch nicht, aber das Tool macht das dann.
 
Mann...warum einfach wenn es auch schwer geht...ich sollte echt nicht mehr vorm PC Schlafen ;)
Dann teste ich gleich mal. Was mich insgesamt stutzig macht ist, das alle anderen Linux Versionen ohne Probleme die i219-v akzeptieren und aktivieren...nur das Unraid nicht

Welches Tool macht was dann? Das eeupdate? Eine Anleitung dazu hatte ich in einem Thread gefunden...nur keinen DL Link. Hab ne ältere Version gefunden...mal probieren sonst
Beitrag automatisch zusammengeführt:

ok...die Beta 6.9 Beta 25 läuft sofort...vermutlich eine Sache vom Kernel....mit der Erkennung oder IPv6
 
Zuletzt bearbeitet:
Ahh....dann müsste man schauen, wie man den neuen treiber da wohl rein bekommt...
Ein eeupdate habe ich gefunden und inzwischen alles auch lauffähig bekommen....aber das von mir gefundene eeupdate ist nicht kompatibel mit der i219v....also noch weiter suchen oder hast Du eine Ahnung, wie man dort den neueren treiber rein bekommt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh