[Sammelthread] HP ProLiant G8 G1610T/G2020T/i3-3240/E3-1220Lv2 MicroServer

Oh Mann, jetzt kann ich es kaum abwarten.
Ich werde das genauso machen...
Automatische Updates gibt es ja hoffentlich nicht, da werde ich besonders vorsichtig sein....

Ich werde morgen den Server mal einschalten... sehe ich es richtig das ich über den ILO Port eine Verbindung bekomme und dann im Browser durch das Tool gehe ?
Ich hab gelesen, das erste was man machen sollte, ist das BIOS upzudaten...

Den ILO Anhänger hab ich...

LG
Guido
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zusammen,

gestern 14:30 scheint mein Server abgeraucht zu sein. Ursache scheint mein RAM zu sein:

Log
Unbenannt.PNG
Status 1
Unbenannt1.PNG
Status 2
Unbenannt2.PNG

Komischerweise ist der RAM laut System degraded aber wenn ich ins Detail gehe ist alles "Good, In use". Mein Server blinkt aber Orange wegen der Meldung :(
Was kann ich jetzt am besten machen?
 
Zuletzt bearbeitet:
Den fehlerhaften 8GB Riegel rausnehmen und testen ob er mit den serienmäßigen 4GB hochfährt?
 
XPenology = "Bastelstube" (community Hack von Synology's DSM)
FreeNAS = Profesionelles NAS-OS (Community supportete nichtkommerzielle Version von TruNAS)
NAS4Free = Community Fork einer älteren FreeNAS Version ohne Kommerziellen Background

Ob BTRFS im Vergleich zu ZFS ausgereift ist, wage ich immer noch zu bezweifeln, und die BTRFS Unterstützung unter Synology DSM ist zusätzlich unkorrekt.
Implementieren die jetzt brtfs-Raid endlich richtig? - DSM 6.1: Synology bringt Btrfs auf mehr alte NAS-Systeme - Golem.de-Forum und folgende
Zitate:
"Das letzte Mal, als ich mir das angeschaut hab, haben die RAID0 und 1 mit mdadm gemacht und obendrauf btrfs geklebt."
"Das ist wohl immer noch so, d.h. Checksummen Fehler können nicht repariert werden. Voll bekloppt."#
"btrfs raid ist immer noch ziemlich experimentell und führt immer mal wieder zu datenverlust. raid auf fs Ebene ist auch sowieso vom Ansatz eher mutig, weil man bei der sehr komplexen fssoftware ein single point of failure hat. das raid mit dem gut abgehangenen mdadm zu machen macht also absolit sinn."
Status - btrfs Wiki

"Mostly OK" würde ich meine Daten nicht anvertrauen - "unstable" ist davon noch die Steigerung.

Bei FreeNAS oder NAS4Free kommt man eigentlich nur dann mit der Shell in Berührung, wenn man irgendwas installieren will, was nicht direkt supported ist
 
Zuletzt bearbeitet:
welche CPU`s sind gebraucht aktuell eine günstige Alternative um vom g1610t zu updaten wenn einem die Xeon zu teuer sind?
 
Selbst ist der Bastelfreund: Auf Seite 1 dieses Threads gewünschte CPU aussuchen und dann Preise bei EBay nachschauen.

Danach wäre der dickste non-Xeon der i5-3470T, zurzeit für 90 Euro bei EBay.
 
Zuletzt bearbeitet:
XPenology = "Bastelstube" (community Hack von Synology's DSM)
FreeNAS = Profesionelles NAS-OS (Community supportete nichtkommerzielle Version von TruNAS)
NAS4Free = Community Fork einer älteren FreeNAS Version ohne Kommerziellen Background

FreeNAS sagt es bräuchte 8GB... ?
Stimmt das ?

LG
 
Soo, hier mein Beitrag.

Habe den Gen 8 jetzt seit einer ganzen Wile mit der def. Config im betrieb gebaht (4Gb, 1620T) mit 3x3TB WD Greens (WD30EZRX) an einem 3Ware 9650SE-4LPML , das lief auch ganz gut, jedoch gingen die Platten unter Mint nie wirklich in den Spindown, außerdem hatten die Platten jetzt schon 24000 Betriebsstunden auf dem buckel.

Daher hab ich jetzt umgebaut und habe jetzt folgende Umbauten vorgenommen :

1.Wechsel von 1620T auf einen i3-3220
2.Wechsel von 4GB auf 2x8GB (der Samsung DDR3-1600 aus der QVL Liste im 1.Post)
3.Wechsel vom 3Ware 9650SE-4LPML auf den Startech PEXSAT34SFF
4.Wechsel von 3x3TB WD Green auf 5x2TB Seagate FireCuda (2,5")
5.Wechsel von SD-Card fürs Linux auf eine Sandisk X400 512GB
6.Einbau einer Crucial 1TB MX300 (als ZFS Cache)
7.Lüftermod für Noctua NF-P12 und Akasa AK-CCE-7106HP
8. Eigenbau Halterung für 1x Seagate HDD und die Crucial SSD direkt neben dem Netzteil

Als BS setze ich auf ein aktuelles Linux Mint (18.2) und nutze für meine Platten ein ZFS RaidZ, da ich dort einfach partity habe und ein vergrößern des Arrays schon bei den 3TB Platten nie vorkam.
Perfomance ist bisher einwandfrei und ich bin als ZFS Neuling echt überzeugt.
Die FireCudas sind sicher nicht die Performancekrone, aber mit ZFS und der Crucial als Cache funktioniert das bisher tadellos.
mein Stromverbrauch ist vor allem durch den kleineren Controller deutlich gesunken und liegt aktuell bei ca. 29W (gemessen mit Fritz Dect 200 Schaltsteckdose und EnergyMeter von Conrad).
Vor allem idlen die Platten jetzt ordentlich.
 
Zuletzt bearbeitet:
Ich kann die Info leider nicht mehr finden: Ist beim Update von ESXi 6.5 auf 6.5u1 weiterhin das Treiberdowngrade notwendig? Oder sind bei 6.5u1 (HPE Image) gefixte Treiber dabei?
 
Hallo zusammen,

ich hab den Server jetzt gestartet...
Als erstes hab ich gedacht fahr mal alle Updates... aktueller Stand ist:

System ROM J06 07/16/2015
iLO Firmware Version 2.30 Aug 19 2015

Obwohl die Versionen schon über 2 Jahre alt sind, hab ich den Eindruck das ausser neuer CPUs etc nichts hinzu gekommen ist.
Ich hab gerade das SPP herunter geladen... phhhh 7 GB
Sollte man / muss man überhaupt updaten ?

Danke für jede Hilfe
Gruss
Guido
 
Eigenes Linux- oder Windows- Live-System per F10 einbinden

Vor einer Weile habe ich herausgefunden, das man den internen Flash, der von Intelligent Provisioning (HPIP) genutzt wird, auch selber nutzen kann.

Jetzt ist daraus ein Skript entstanden, wodurch man das relativ einfach selbst nutzen kann.
Man benötigt dazu lediglich ein Linux (z.B. Ubuntu 16.04 oder Debian 9) zum bauen einer eigenen recovery media ISO.
Das Linux kann auch in einer VM laufen oder auf einem anderen Rechner.
Darin lädt man die ZIP-Datei herunter und entpackt sie in einen leeren Ordner.
Danach legt man im selben Ordner eine HP Intelligent Provisioning recovery media ISO und eine live system ISO ab und führt das Skript aus.
Wenn man keine ISOs ablegt, wird vom Skript automatisch HPIP164B und gparted live heruntergeladen.

Das ganze kann man über ein Terminal (Shell) mit wenigen Befehlen durchführen.
Beispiel:
Code:
mkdir hpip-mod
cd hpip-mod
sudo apt-get install ca-certificates unzip wget
wget -N http://seafile.servator.de/nas/hp/build/hpip-mod.zip
unzip hpip-mod.zip
wget -N http://seafile.servator.de/nas/hp/images/Debian-XFCE-stretch-17.244-live-amd64+mac.iso
bash hpip-mod.sh

Als Ergebnis findet man im Unterordner HPIP164B.2017_0201.3 dann z.B. die Datei HPIP164B-live.iso
Diese lässt sich wie eine normale HP Intelligent Provisioning recovery media booten, um den Flash-Vorgang auszuführen.
Nach erfolgreichem flashen braucht man die ISO nicht mehr.
Danach hat man im F10 Menü einen neuen Eintrag mit dem Namen, im Beispiel "Debian XFCE stretch live"

Im Prinzip lässt sich jedes Linux- oder Windows-Live-System verwenden.
Mein Skript sollte mit allen Debian (live/filesystem.squashfs) und Ubuntu (casper/filesystem.squashfs) basierten ISOs und Windows ISOs (sources/boot.wim) klarkommen, die eine der genannten Dateien enthalten.
Einzige Einschränkung ist die Partitionsgröße: Es stehen 1GB zur Verfügung, da mein Skript das IP nicht löscht, bleiben davon knapp 670MB für das Live-System.
Netter Nebeneffekt: Das so gebootete Betriebssystem lässt sich auch über iLO Standard unbeschränkt fernsteuern.

Das Skript ist getestet mit:
clonezilla live
clonezilla live zesty
gparted live
parted magic
c't Notfall-Windows
Debian XFCE (eigenes image)

Man kann jederzeit wieder zurück zum Originalzustand, indem man einfach von der Original HP Intelligent Provisioning recovery media ISO bootet und damit wieder das Flash überschreibt.
 
Zuletzt bearbeitet:
Hallo ihr Lieben,

jetzt bin ich etwas enttäuscht...

Ich hab den Server jetzt mit Xpenology und DSM 6.1 zum laufen gebracht :-)
Von der erhofften Geschwindigkeit bin ich allerdings weit entfernt...

Ein RAID 1 mit 2 3 TB Platten.
Da komme ich mit AFP auf 31 MB/s und mit SMB auf 43 MB/s (Test mit 1 5GB Datei)

Kann man da noch irgendwie tunen ?

LG
Guido
 
Was für 3TB Platten?
SMB über WLAN? oder Gigabit-LAN?

Hast du die Geschwindigkeit der einzelnen Platten mal getestet?
Alternativ kannst du auch mal im Synology ein Benchmark machen. Das findest du unter "Speicher-Manager", "HDD/SSD"

Mach dir aber keine Sorgen, am Server liegt es nicht. In der gleichen Kombination hat ein Arbeitskollege über 100mb/s.
 
Zuletzt bearbeitet:
FreeNAS sagt es bräuchte 8GB... ?
Stimmt das ?

LG

Das ist vermmutlich den ganzen zusätzlichen Diensten (Plex, MiniDLNA, sickbeard, Docker etc.), die von Haus aus mitgeliefert und optional einsetzbar sind geschuldet.
AFAIK läßt sich FreeNAs auch mit 4 GB RAM installieren und nutzen.#
NAS4Free löppt sogar mit 2GB RAM - als NAS "pur".

- - - Updated - - -

Soo, hier mein Beitrag.

Habe den Gen 8 jetzt seit einer ganzen Wile mit der def. Config im betrieb gebaht (4Gb, 1620T) mit 3x3TB WD Greens (WD30EZRX) an einem 3Ware 9650SE-4LPML , das lief auch ganz gut, jedoch gingen die Platten unter Mint nie wirklich in den Spindown, außerdem hatten die Platten jetzt schon 24000 Betriebsstunden auf dem buckel.

Daher hab ich jetzt umgebaut und habe jetzt folgende Umbauten vorgenommen :

1.Wechsel von 1620T auf einen i3-3220
2.Wechsel von 4GB auf 2x8GB (der Samsung DDR3-1600 aus der QVL Liste im 1.Post)
3.Wechsel vom 3Ware 9650SE-4LPML auf den Startech PEXSAT34SFF
4.Wechsel von 3x3TB WD Green auf 5x2TB Seagate FireCuda (2,5")
5.Wechsel von SD-Card fürs Linux auf eine Sandisk X400 512GB
6.Einbau einer Crucial 1TB MX300 (als ZFS Cache)
7.Lüftermod für Noctua NF-P12 und Akasa AK-CCE-7106HP
8. Eigenbau Halterung für 1x Seagate HDD und die Crucial SSD direkt neben dem Netzteil

Als BS setze ich auf ein aktuelles Linux Mint (18.2) und nutze für meine Platten ein ZFS RaidZ, da ich dort einfach partity habe und ein vergrößern des Arrays schon bei den 3TB Platten nie vorkam.
Perfomance ist bisher einwandfrei und ich bin als ZFS Neuling echt überzeugt.
Die FireCudas sind sicher nicht die Performancekrone, aber mit ZFS und der Crucial als Cache funktioniert das bisher tadellos.
mein Stromverbrauch ist vor allem durch den kleineren Controller deutlich gesunken und liegt aktuell bei ca. 29W (gemessen mit Fritz Dect 200 Schaltsteckdose und EnergyMeter von Conrad).
Vor allem idlen die Platten jetzt ordentlich.
Anmerkung:
Der Startech Controller ist ein Marvell, die machen unter FreeBSD (FreenAS, N4F) gerne Probleme.

Mußt du ein 10GBE Netzwerk sättigen, oder wozu den SSD Cache (L2ARC)?
Die Firecudas sind in diesem Zusammenhang ebenfalls sinnfrei, es sei denn du liest immer nur die gleichen Dateien - und selbst dann vergrößert man sinnvollerweise den RAM, denn der wird bei ZFS als Cache (ARC) genutzt - was du ja gemacht hast.
Kurz gesagt, wenn dein Zugriffsverhalten nicht genau dieses Setup ausnutzt, ist das verschenktes Geld - und sei es für genau einen bestimmten regelmässigen und relativ häufigen Anwendungsfall, und selbst dann limitiert das GBIT LAN.
 
Zuletzt bearbeitet:
6 laufwerke bei 5 verfügbaren ports geht schlecht ;)

die SSD hab ich günstig einem Kumpel abluchsen können, die ist wie neu und ich brauchte sie jetzt für nichts anderes, daher die idee mit dem ssd cache, zumindest cached er jetzt die musik meiner frau und die platten idlen dafür.

mit den FireCudas habe ich nur gemacht, weil ich 2,5" Platten haben wollte und die Firecudas die günstigsten mit 5Jahren Garantie waren.
 
Zuletzt bearbeitet:
jetzt bin ich etwas enttäuscht...

Ich hab den Server jetzt mit Xpenology und DSM 6.1 zum laufen gebracht :-)
Von der erhofften Geschwindigkeit bin ich allerdings weit entfernt...

Ein RAID 1 mit 2 3 TB Platten.
Da komme ich mit AFP auf 31 MB/s und mit SMB auf 43 MB/s (Test mit 1 5GB Datei)

interessant!
habe auf meinem Dell T20 mit Xeon und 16Gb RAM und einem Raid1 mit 4TB WD Greens auch nur bis 55Mb/s.
Hast du btrfs oder ext3 genommen?
 
Zuletzt bearbeitet:
Hab mal die Geschwindigkeit bei mir getestet....

Es läuft ein Raid5 BTRFS 4x6tb WD RED und eine Crucial M4 SSD, 1610T mit 4gb RAM. 2x 1gbit Standard Ports angeschlossen.

Kopiere grosse iso von Raid5 zu SSD:
8B6CuAD.png

Kopiere grosse iso von SSD zu Raid5:
uLEMlhQ.png

Interner Benchmark zu HDD1:
3KEl8Dv.png


Interner Benchmark zu SSD:
flEXdp9.png



Übers Netzwerk vom NAS zum PC ist eigentlich die Leitung der Flaschenhals.
pSQI6X5.pngikAizsG.png

Das bestätigt auch iPerf.

Code:
Connecting to host 192.168.1.2, port 5201
[  4] local 192.168.1.45 port 53000 connected to 192.168.1.2 port 5201
[ ID] Interval           Transfer     Bandwidth
[  4]   0.00-1.00   sec   110 MBytes   924 Mbits/sec
[  4]   1.00-2.00   sec   110 MBytes   925 Mbits/sec
[  4]   2.00-3.00   sec   108 MBytes   908 Mbits/sec
[  4]   3.00-4.00   sec   107 MBytes   901 Mbits/sec
[  4]   4.00-5.00   sec   110 MBytes   921 Mbits/sec
[  4]   5.00-6.00   sec   111 MBytes   928 Mbits/sec
[  4]   6.00-7.00   sec   110 MBytes   918 Mbits/sec
[  4]   7.00-8.00   sec   110 MBytes   921 Mbits/sec
[  4]   8.00-9.00   sec   107 MBytes   900 Mbits/sec
[  4]   9.00-10.00  sec   109 MBytes   915 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth
[  4]   0.00-10.00  sec  1.07 GBytes   916 Mbits/sec                  sender
[  4]   0.00-10.00  sec  1.07 GBytes   916 Mbits/sec                  receiver
iperf Done.

Aber da lässt sich so leicht nix machen.


Das interessante an der Sache ist das wenn ich während dem iPerf test den Download der Datei starte es gar nicht so weit zusammen bricht.
YY9s6En.png
 
Zuletzt bearbeitet:
Habt ihr den Festplatten-Cache aktiviert?

ich schon.
Hier ein Bench einer meiner WD Green im Raid1.Passt soweit.
Fehler muss also woanders liegen. Ich prüfe mal die NICs/den Bond/Trunk/LA

Danke für die Hilfe!
 

Anhänge

  • WD_Leseleistung_btrfs.png
    WD_Leseleistung_btrfs.png
    16,1 KB · Aufrufe: 189
einfach mal ohne Trunk ausprobieren.

Habe verschiedene Netzwerkkabel ausprobiert, meinen Bond aufgelöst. Nichts. immer noch langsam.
Den Laptop direkt angestöpselt an den Server bringt auch nichts.


Erkenntnis:
Schreiben auf XPenology: 106MB/s
Lesen von XPenology: 50MB/s
 
Hallo zusammen,

der erste Test war über WLAN... ac mit 1000 MBit.
Ich habe jetzt mit Kabel getestet... da komme ich schreibend auf 62 MB/s.

Benutzt werden WD Red. Cache ?? Keine Ahnung ? Wo stellt man das ein bzw. aus ?

LG
Guido
 
Mein Netzteil ist vor ein paar wochen abgeraucht. Notebooksbilliger wo ich die Kiste damals gekauft hab redet um den heißen brei, wenn ich nach gewährleistung frage. Gibts das Netzteil irgendwo zu kaufen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh