[Sammelthread] HP ProLiant G8 G1610T/G2020T/i3-3240/E3-1220Lv2 MicroServer

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
https://geizhals.de/761874222
Preislich eine etwas andere Region..

Mal sehen ob sich da noch was tut. Könnte meinen einen Server ablösen.

Ja, und nur 2 mal Disk...

@morph027
ah, jetzt sehe ich erst, dass du das warst ;)

Danke für die Antwort, leider funktioniert die Geschichte damit noch immer nicht :(
Ich weiß langsam wirklich nicht mehr wo der Hund noch begraben sein könnte.

Wenn es wirklich an dem um-gemappten Zeugs liegt, was da im HP Artikel steht, ist das ziemlich eklig. Kannst natürlich mal schauen, ob du den HP Shared Memory deaktivieren kannst...
 
Ich habe im Bios bereits geschaut und habe einen solchen Eintrag leider nicht gefunden.
Man wird wohl um die Schritte im Artikel nicht rum rum kommen.. allerdings begreife ich nicht so ganz wie und vor allem wo ich das umsetzen soll?!
Ich finde das ganz schön verwirrend erklärt.. HP tztztztz
 
Wer ist den hier Suchti??? *hustet*

Ich habe den Zugriff über Netzwerk-Ordner-Freigabe eingerichtet, RDP geht auch. vSphere Client nutze ich nur zur Wartung.
Habe das vielleicht zu unspezifisch formuliert. Ich will in der Windows-VM arbeiten, aber remote von einem "Fat-Client" (aktuell Windows-PC, später evtl. echter Thinclient). Das Datengrab hab ich mit einer Debian-VM realisiert :)

Deine 2. Frage ergibt für mich keinen Sinn, weil iLO nur die "Innereien" des Microservers überwacht. Im Gegenzug gibt`s bei VPN-Router PS110, Switch PS1810-8G und -24G eine Option, die den Health-Status des Microservers überwachen ... ähnlich wie die kleine LED-Leiste in der Front.

Verständnisfehler meinerseits, ich hatte in den letzten Wochen den ganzen Thread durchgelesen und scheinbar ein paar Dinge durcheinander gebracht.
Kann die 1820-Serie das auch? Schwanke zur Zeit zwischen dem J9980A und J9981A.

Wie konfiguriert man eigentlich die Link-Aggregation, finde ich das im BIOS?
 
So, ich habe das jetzt wirklich probiert:

http://h20564.www2.hpe.com/hpsc/doc/public/display?docId=emr_na-c04781229&sp4ts.oid=5249566

Aktualisieren Sie das System auf die aktuelle Firmware.
Installieren Sie die HP Health und HP Skripting-Tools RPMs. Die RPMs können über das HP Support Center oder das HP Software Delivery Repository bezogen werden. Zum Beispiel:
https://downloads.linux.hp.com/SDR/repo/


Je nach den Anforderungen für die Health-Überwachung, können diese Pakete nach dem Durchführen der BIOS-Konfiguration wieder entfernt werden.
Laden Sie diese Datei herunter, die die Conrep-Konfigurationsinformationen für die Verwaltung einzelner PCI-Steckplätze enthält:
ftp://ftp.hp.com/pub/softlib2/software1/pubsw-linux/p1472592088/v95853/conrep_rmrds.xml

Erstellen Sie eine Datei (exclude.dat in diesen Anweisungen genannt) mit folgender Zeile:

Ersetzen des "X" in "SlotX" mit der Nummer des PCI-Steckplatzes, der das NIC enthält. Der Linux-Befehl "lspci" kann verwendet werden, um den physikalischen PCI-Steckplatz zu identifizieren. Die Information finden Sie auch auf der Registerkarte „Gerätebestand“ auf dem Bildschirm für die iLO-Systeminformationen.
Geben Sie folgenden Befehl, um den Konflikt für den Steckplatz zu deaktivieren (Aktivieren der PCI-Geräte Passthrough-Funktion):
# conrep -l -x conrep_rmrds.xml -f exclude.dat

Je nach Servermodell, sollte ein Output wie dieser oder ein ähnlicher angezeigt werden:

conrep 4.1.2.0 - HP Scripting Toolkit Configuration
Replication Program Copyright ©) 2007-2014
Hewlett-Packard Development Company, L.P.

System Type: ProLiant BL460c Gen8 ROM Date :
02/10/2014 ROM Family :I31 Processor
Manufacturer : Intel

XML System Configuration: conrep_rmrds.xml
Hardware Configuration:exclude.dat Global
Restriction: [3.40 ] OK

Loading configuration data from exclude.dat

Conrep Return Code: 0

Schritt 5 für jeden PCI-Steckplatz wiederholt werden, um die PCI-Geräte Passthrough-Funktion zu aktivieren.
Bestätigen Sie die BIOS-Einstellungen mithilfe des Conrep-Befehls, um die aktuelle Konfiguration zu melden: # conrep -s -x conrep_rmrds.xml -f verify.dat

Es sollte ein Output wie dieser oder ein ähnlicher angezeigt werden:

conrep 4.1.2.0 - HP Scripting Toolkit Configuration
Replication Program Copyright ©) 2007-2014
Hewlett-Packard Development Company, L.P.
System Type: ProLiant BL460c Gen8 ROM Date : 02/10/2014
ROM Family : I31 Processor Manufacturer : Intel
XML System Configuration: conrep_rmrds.xml Hardware
Configuration: verify.dat Global Restriction: [3.40 ]
OK Saving configuration data to verify.dat
Conrep Return Code: 0 Bestätigen Sie, dass nur die Steckplätze, die im vorherigen Schritt konfiguriert wurden in „verify.dat“ mit „Endpoints_Excluded“ aufgeführt sind.
Wenn Sie eines der oben aufgeführten NICs von HP verwenden, sollten Sie NICHT den „Intel Active Health System Agent für HP ProLiant-Netzwerkadapter für Linux x86_64“ installieren, der im hp-Ocsbbd RPM enthalten ist. Dieses Agent erwartet, den RMRR-Bereich für die Übertragung von Sensor- und Health-Daten zu verwenden. Dieses Agent sollte NICHT ausgeführt werden, wenn Sie der RMRR-Bereich deaktiviert ist. Wenn PPM installiert ist, muss der Agent entfernt werden.
Starten Sie den Server neu.

runtergeladen habe ich die Skripting tools hier:
https://www.hpe.com/de/de/product-c...ng-toolkit-for-windows-and-linux.5219389.html

bzw:
http://downloads.hpe.com/pub/softli...6/hpe-scripting-toolkit-linux-10.50-41.tar.gz

das File habe ich entpackt, unter dem Ordner "scripts" habe ich dann die oben erwähnte conrep_rmrds.xml eingefügt.
Zudem habe im selben Ordner noch die oben erwähnte exclude.dat erstellt:

<Conrep> <Section name="RMRDS_Slot1"
helptext=".">Endpoints_Excluded</Section> </Conrep>

"Slot1" da der Raidcontroller HP P410 ja am Slot 1 hängt.

dann via


habe aus dem Ordner die Boot-Iso erstellt.

von dieser Iso habe ich den Server dann gebooted.

Ich bin dann weiter wie oben angegeben vorgegangen:

in den Ordner scripts und dann:

$ conrep -l -x conrep_rmrds.xml -f exclude.dat

die Ausgabe sah aus wie oben angegeben..

und danach noch:

$ conrep -s -x conrep_rmrds.xml -f verify.dat

Auch diese Ausgabe sah dann aus wie oben angegeben...

Danach sollte ich den Server neu starten..

Leider hat mir der Aufwand nichts gebracht, denn der passthrough der Karte funktioniert noch immer nicht :(

ich bekomme nach wie vor folgenden Fehler:

kvm: -device vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0: vfio: failed to set iommu for container: Operation not permitted
kvm: -device vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0: vfio: failed to setup container for group 1
kvm: -device vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0: vfio: failed to get group 1
kvm: -device vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0: Device initialization failed
TASK ERROR: start failed: command '/usr/bin/kvm -id 101 -chardev 'socket,id=qmp,path=/var/run/qemu-server/101.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/101.pid -daemonize -smbios 'type=1,uuid=5da287d8-6d3c-4b25-9dfd-f7f1a0b5b2ed' -name NAS -smp '4,sockets=1,cores=4,maxcpus=4' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga cirrus -vnc unix:/var/run/qemu-server/101.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 8192 -k de -readconfig /usr/share/qemu-server/pve-q35.cfg -device 'usb-tablet,id=tablet,bus=ehci.0,port=1' -device 'vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:801b4b2e85f' -drive 'if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=100' -drive 'file=/var/lib/vz/images/101/vm-101-disk-1.qcow2,if=none,id=drive-virtio0,format=qcow2,cache=none,aio=native,detect-zeroes=on' -device 'virtio-blk-pci,drive=drive-virtio0,id=virtio0,bus=pci.0,addr=0xa,bootindex=200' -netdev 'type=tap,id=net0,ifname=tap101i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=12:1F:B8:71:8E:16,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300' -machine 'type=q35'' failed: exit code 1

egal wie ich den Befehl in der vm.conf setze:

machine: q35
hostpci0: 07:00.0,pcie=1

oder

hostpci0: 07:00.0,pcie=1

oder

hostpci0: 07:00.0

Das macht mich noch wahnsinnig!!!
 
Zuletzt bearbeitet:
Habe das vielleicht zu unspezifisch formuliert. Ich will in der Windows-VM arbeiten, aber remote von einem "Fat-Client" (aktuell Windows-PC, später evtl. echter Thinclient). Das Datengrab hab ich mit einer Debian-VM realisiert :)

Verständnisfehler meinerseits, ich hatte in den letzten Wochen den ganzen Thread durchgelesen und scheinbar ein paar Dinge durcheinander gebracht.
Kann die 1820-Serie das auch? Schwanke zur Zeit zwischen dem J9980A und J9981A.

Aso, das geht eigentlich mit jedem Remote-Client, auch mit HP Remote Control Tool.

Ob diese Serie auch den Health-Status so als Option hat weiß ich nicht. Meine Meinung nach ist dies auch nicht notwenig, da man die LED an der Front hat bzw. über iLO alles direkt einsehen kann.
 
Das machst du im OS und bei Bedarf zusätzlich am Switch.
Gibt etliche Verfahren. Am sinnvollsten ist LACP, dazu brauch es aber einen Switch der das unterstützt.

OS heisst dann in meinem Fall im ESXi?
Switch ist aktuell ein Netgear Prosafe 24-Port 10/100 JFS524, bei dem bin ich nicht sicher ob der das erkennt, konfigurieren kann ich da nix, der ist unmanaged.
Der wird aber demnächst durch einen aktuellen HPE GBE-Switch ersetzt, die erkennen das automatisch.
 
OS heisst dann in meinem Fall im ESXi?
Switch ist aktuell ein Netgear Prosafe 24-Port 10/100 JFS524, bei dem bin ich nicht sicher ob der das erkennt, konfigurieren kann ich da nix, der ist unmanaged.
Der wird aber demnächst durch einen aktuellen HPE GBE-Switch ersetzt, die erkennen das automatisch.

Wenn ESXi, dann muss man die VM dementsprechend einrichten.

LACP wird nicht von unmanaged Switchs unterstützt ... man muss die Ports ja einrichten. Die Portbündelung wird nicht automatisch erkannt, die richtet man im Switch-Menü ein, was aber recht einfach geht, wenn man weiß wie das Prinzip funktioniert.
 
Wenn ESXi, dann muss man die VM dementsprechend einrichten.

LACP wird nicht von unmanaged Switchs unterstützt ... man muss die Ports ja einrichten. Die Portbündelung wird nicht automatisch erkannt, die richtet man im Switch-Menü ein, was aber recht einfach geht, wenn man weiß wie das Prinzip funktioniert.

Hab das in der Hostkonfiguration entdeckt, laut dem Schema hab ich die schon gebündelt?
vswitch-nics.jpg

Dann fehlt mir also nur noch ein geeigneter Switch? :)
 
Standardmäßig ist ja im kleineren Modell (G1610T) oft 1x 4GB ECC eingebaut. Ist es möglich einen zweiten 8GB ECC RAM Riegel einzubauen (sodass man auf 12GB RAM kommt) oder ist es fürs BIOS zwingend zwei gleich Große Riegel einzubauen (2x2GB, 2x4GB, 2x8GB) ? Danke für eure Hilfe :)
 
Zuletzt bearbeitet:
Standardmäßig ist ja im kleineren Modell (G1610T) oft 1x 4GB ECC eingebaut. Ist es möglich einen zweiten 8GB ECC RAM Riegel einzubauen (sodass man auf 12GB RAM kommt) oder ist es fürs BIOS zwingend zwei gleich Große Riegel einzubauen (2x2GB, 2x4GB, 2x8GB) ? Danke für eure Hilfe :)

Das ist möglich!
 
Ich hoffe die Fragen wurden hier nicht schon X-Mal gestellt. Beim suchen habe ich sie so schnell nicht gefunden.

Bevor ich nächste Woche loslegen meinen Würfel zu bestücken und Dinge zu installieren und mich im Nachhinein ärgere, dass ich etwas hätte besser machen können, habe ich ein paar Fragen :)

1. Warum sollte man ESXi auf eine SD Karte installieren, wenn man eine extra Platte für die VMs hat, wo ESXi ja auch Platz drauf hätte?
2. Würde es sich lohnen, für die VMs eine SSD zu besorgen? Oder reicht dort eine ganz normale 2,5 bzw. 3,5 Zoll Platte, auf der ich meine VMs ablege?
2.1 Für den Fall dass sich SSDs lohnen würden. Wäre es da sinnvoll, 2 kleinere SSD Platten in ein RAID0 Verbund zu hauen? Oder reicht dort 1 größere SSD für alle VMs?
 
Ich hoffe die Fragen wurden hier nicht schon X-Mal gestellt. Beim suchen habe ich sie so schnell nicht gefunden.

Bevor ich nächste Woche loslegen meinen Würfel zu bestücken und Dinge zu installieren und mich im Nachhinein ärgere, dass ich etwas hätte besser machen können, habe ich ein paar Fragen :)

1. Warum sollte man ESXi auf eine SD Karte installieren, wenn man eine extra Platte für die VMs hat, wo ESXi ja auch Platz drauf hätte?
2. Würde es sich lohnen, für die VMs eine SSD zu besorgen? Oder reicht dort eine ganz normale 2,5 bzw. 3,5 Zoll Platte, auf der ich meine VMs ablege?
2.1 Für den Fall dass sich SSDs lohnen würden. Wäre es da sinnvoll, 2 kleinere SSD Platten in ein RAID0 Verbund zu hauen? Oder reicht dort 1 größere SSD für alle VMs?

1. Warum sollte man seine Platte damit belasten? SD Karten kosten quasi nichts und sind perfekt für so etwas geeignet. Außerdem kannst du ohne Probleme updaten, die SD Karte sichern und austauschen.
Außerdem kannst du dann die Platte auch tauschen usw.
2. Kommt auf deine Ansprüche an. Gilt das gleiche wie beim Desktop. Brauchst du die SSD Performance dann lohnt es sich. Beim 24/7 Betrieb spart es außerdem Strom.
2.1 Raid0 lohnt sich nur bedingt. Die sequenzielle Leistung wird zwar erhöht, die Random Reads/Writes bei SSDs nicht zwangsweise. Da lohnt es sich dann eher die beiden SSDs als zwei Datastores anzulegen und die VMs gleichmäßig zu verteilen. Wenn du die Raid0 Performance nicht umbedingt für eine einzelne VM brauchst (was ich nicht glaube, sonst würdest du nicht fragen) würde ich einfach pro SSD ein Datastore benutzen.
 
Zuletzt bearbeitet:
Hat die schon jemand getestet? Ist gerade unverschämt günstig :P
Kingston SSDNow UV400 240GB, SATA 6 Gb/s
https://www.notebooksbilliger.de/kingston+ssdnow+uv400+240gb+sata+6+gbs+264948

Soll das Ablage für 5-10 VMs dienen. Da ich nicht die absolute Topspeed brauche, sondern einfach nur den Geschwindigkeitsvorteil der SSD zur HDD sollte das speedtechnisch für mich reichen. Ist die Frage ob die SSD im Gen8 erkannt wird.
 
Zuletzt bearbeitet:
Geschwindigkeitseinbruch beim kopieren großer Datenmengen. Klingt nicht so pralle.
Da die Nutzdaten aber nicht auf der SSD liegen sondern nur die VM, sollte das aber eientlich kein Problem darstellen.
DC, SQL Server etc etc schieben nicht so große Daten hin und her. Die UTM ebenfalls nicht. Sollte bei einer 30 mbit Leitung kein Problem sein.

Danke für den Link.
 
Warum sollte man ESXi auf eine SD Karte installieren, wenn man eine extra Platte für die VMs hat, wo ESXi ja auch Platz drauf hätte?

Kleine Anmerkung zu Antwort von MicroCane:

ESXi benötigt nicht wirklich viel an Speicherplatz, es reicht schon eine 8 GB microSD oder USB-Stick. Um im Falle eines Falles schnell den Microserver wieder betriebsbereit zu bekommen, sollte man nur ESXi aufspielen, alles andere auf eine SSD oder HDD.
 
1. Warum sollte man seine Platte damit belasten? SD Karten kosten quasi nichts und sind perfekt für so etwas geeignet. Außerdem kannst du ohne Probleme updaten, die SD Karte sichern und austauschen.
Außerdem kannst du dann die Platte auch tauschen usw.
2. Kommt auf deine Ansprüche an. Gilt das gleiche wie beim Desktop. Brauchst du die SSD Performance dann lohnt es sich. Beim 24/7 Betrieb spart es außerdem Strom.
2.1 Raid0 lohnt sich nur bedingt. Die sequenzielle Leistung wird zwar erhöht, die Random Reads/Writes bei SSDs nicht zwangsweise. Da lohnt es sich dann eher die beiden SSDs als zwei Datastores anzulegen und die VMs gleichmäßig zu verteilen. Wenn du die Raid0 Performance nicht umbedingt für eine einzelne VM brauchst (was ich nicht glaube, sonst würdest du nicht fragen) würde ich einfach pro SSD ein Datastore benutzen.

Vielen Dank für deine Antwort. Und auch die der anderen ;)

1. Okay. Das mit dem problemlos austauschen, reparieren und updaten hatte ich mir schon gedacht :)
2. Ich wusste nicht, ob der Geschwindigkeitsschub so viel mehr für eine VM wäre. Aber der Punkt mit dem Strom sparen, überzeugt mich dann. Ich wollte versuchen das Teil so stromsparend wie möglich hinzubekommen. Da trifft es sich gut, dass eine SSD weniger verbraucht als eine HDD.
2.1 Okay, damit fällt RAID0 dann raus. Danke dir :)
 
Du bist dir darüber bewusst, das die Büchse mal mindestens 20 Watt verbrät? Ausgeschaltet sind es immer noch ein paar Watt aufgrund der ilo und bei mir mit gestartetem ESXi kam ich noch nie über 40 Watt, die Tendenz geht eher Richtung 50 Watt.

Stecken aber auch µSD-Karte, drei zusätzliche 40 mm Lüfter, 2 Festplatten, eine SSD, 16 GB RAM und ein eher unangebrachter 95 Watt Xeon drin. Aber im Startpost stehen ja genug Werte, wirst du mit Sicherheit schon gesehen haben.

Jedoch ist der Microserver g8 nichts für Nutzer, die Strom sparen wollen, was ein Grund ist, warum ich meinen vermutlich abstoßen werde.
 
Jedoch ist der Microserver g8 nichts für Nutzer, die Strom sparen wollen, was ein Grund ist, warum ich meinen vermutlich abstoßen werde.

Absolut richtig. Allerdings kenne ich (zugegebener Maßen habe ich auch noch nicht nach gesucht) kaum Alternativen, die Plexfähig sind (für mind. ein Gerät Transcoding) und deutlich weniger verbrauchen und dazu keinen deutlich höheren Anschaffungswert haben. Kennst du/ihr hier welche?

Gruß
 
Du bist dir darüber bewusst, das die Büchse mal mindestens 20 Watt verbrät? Ausgeschaltet sind es immer noch ein paar Watt aufgrund der ilo und bei mir mit gestartetem ESXi kam ich noch nie über 40 Watt, die Tendenz geht eher Richtung 50 Watt.

Stecken aber auch µSD-Karte, drei zusätzliche 40 mm Lüfter, 2 Festplatten, eine SSD, 16 GB RAM und ein eher unangebrachter 95 Watt Xeon drin. Aber im Startpost stehen ja genug Werte, wirst du mit Sicherheit schon gesehen haben.

Jedoch ist der Microserver g8 nichts für Nutzer, die Strom sparen wollen, was ein Grund ist, warum ich meinen vermutlich abstoßen werde.

Das ist mir klar. Bzw. habe ich keine andere Serversystem gefunden, die für den Preis, diese Leistung erbringen und gleichzeitig einen Stromverbrauch in diesem Bereich haben.
Das ist unter 10 Watt komme ist natürlich vollkommen unrealistisch. Schon allein aufgrund der Festplatten. Aber ich kann ja versuchen, den Stromverbrauch so weit es geht herunter zu schrauben. Und wenn eine SSD deutlich weniger Strom verbraucht als eine 3,5 Zoll HDD (müsste den Unterschied nun aber zugegebenermaßen selber noch goggeln), dann ist das doch auch was :)
 
Ich habe mich auch schon länger damit beschäftigt und je nach Plattenaufkommen ist der Stromverbrauch auch zu vernachlässigen;

Der
- Gen8 Verbraucht im Idle laut Messungen ca. 20 W
- ein Synology auf Arm-Basis oder kleinem Celeron ca. 8 W - 10 W
- der T20 ca. 12 W (laut Messungen)

ABER gerade bei den Verwendeten HDDs ist es relevant, hier ebenfalls darauf zu achten, denn da kann der Untschied ebenfalls eine deutliche Rolle spielen:

WD Red: 3,5 / 5 W
HGST: 6,9 / 9,3 W

Jeweils IDLE / LOAD, ungefähre werte.

Wenn nun wer meint, ein dolles RAID aufzubauen aus 8 HDDs wäre es erstmal sinniger, dieses zu überdenken, statt das Geld in neue Hardware zu stecken.
hier mal Aufpreise bei 24/7 pro Jahr:
Gen8 vs T20: 25 €
pro HGST vs WD Red: 9 €
pro zusätzlicher HDD: 10 €

Ausgehend von einem Gen8 mit 4 HDDs (WD Red) kostet ein NAS ca. 100 € im Jahr an Energie, reduzierst du den Verbauch deines Servers um 10 W (idealerweise), kostet es dich noch immer 75 €. Der Aufpreis dagegen für einen T20 beträgt aber (momentan) mit allen Rabattmöglichkeiten mindestens 50 € (bei einer Neuanschaffung allein), sodass du den Gen8 zwei Jahre lang weiter betreiben könntest, ohne einen rechnerischen Aufpreis zu zahlen. Nicht eingerechnet ist die Preisdifferenz beim Wiederverkauf (Wertverlust) des Gen8, sodass du ihn vermutlich 4 Jahre weiter betreiben könntest, ohne drauf zu zahlen.

Also, ein vorhanden Gen8 aufgrund des Energiebedarfs zu verkaufen, ist nicht unbedingt´wirtschaftlich. ;)
 
Zuletzt bearbeitet:
Jetzt müsste ich glatt mal ein bare-metal installiertes NAS-System austesten. Aber unter ESXi kam ich nie unter 40 Watt, das ist dann mal eben der doppelte Energiebedarf.
 
Blöde Frage, ich seh grad dass das Ding einen SD-Kartenslot hat. Spricht etwas dagegen das Freenas auf eine SD-Karte zu schmeissen und auf eine SSD zu verzichten?
 
Soweit mir bekannt, schiebt FreeNAS beim booten seine relavanten Betriebsdaten in den RAM, somit dürfte während dem Betrieb auch kein Geschwindigkeitsdefizit zu verzeichnen sein.

Aber obacht: Es werden wohl logs auf dem Speichermedium vom OS gespeichert, eine Reihe von USB-Sticks hat das im geschäftlichen Umfeld gekillt. Welche logs das genau waren und ob die wirklich am Sterben beteiligt waren, konnte ich leider nich verifizieren. Aber solch ein log sollte relativ einfach auf ein Speichermedium verschoben werden können.
 
Blöde Frage, ich seh grad dass das Ding einen SD-Kartenslot hat. Spricht etwas dagegen das Freenas auf eine SD-Karte zu schmeissen und auf eine SSD zu verzichten?

Nutze ich mit Xpenology auch - läuft und läuft. :-)

@Mearas: vielen Dank für die Auflistung. Hat mich dazu veranlasst nächste Woche doch selbst einfach mal zu messen. Mal schauen was dabei rauskommt.
 
Zuletzt bearbeitet:
Blöde Frage, ich seh grad dass das Ding einen SD-Kartenslot hat. Spricht etwas dagegen das Freenas auf eine SD-Karte zu schmeissen und auf eine SSD zu verzichten?

Nö, aber ein (kleiner) SLC USB-Stick kostet nicht die Welt und ist wesentlich belastbarer als eine SD, wobei es dort auch sehr auf den Hersteller/Art an kommt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh