MicroCane
Experte
https://geizhals.de/761874222
Preislich eine etwas andere Region..
Mal sehen ob sich da noch was tut. Könnte meinen einen Server ablösen.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
https://geizhals.de/761874222
Preislich eine etwas andere Region..
Mal sehen ob sich da noch was tut. Könnte meinen einen Server ablösen.
@morph027
ah, jetzt sehe ich erst, dass du das warst
Danke für die Antwort, leider funktioniert die Geschichte damit noch immer nicht
Ich weiß langsam wirklich nicht mehr wo der Hund noch begraben sein könnte.
Habe das vielleicht zu unspezifisch formuliert. Ich will in der Windows-VM arbeiten, aber remote von einem "Fat-Client" (aktuell Windows-PC, später evtl. echter Thinclient). Das Datengrab hab ich mit einer Debian-VM realisiertWer ist den hier Suchti??? *hustet*
Ich habe den Zugriff über Netzwerk-Ordner-Freigabe eingerichtet, RDP geht auch. vSphere Client nutze ich nur zur Wartung.
Deine 2. Frage ergibt für mich keinen Sinn, weil iLO nur die "Innereien" des Microservers überwacht. Im Gegenzug gibt`s bei VPN-Router PS110, Switch PS1810-8G und -24G eine Option, die den Health-Status des Microservers überwachen ... ähnlich wie die kleine LED-Leiste in der Front.
Wie konfiguriert man eigentlich die Link-Aggregation, finde ich das im BIOS?
Aktualisieren Sie das System auf die aktuelle Firmware.
Installieren Sie die HP Health und HP Skripting-Tools RPMs. Die RPMs können über das HP Support Center oder das HP Software Delivery Repository bezogen werden. Zum Beispiel:
https://downloads.linux.hp.com/SDR/repo/
Je nach den Anforderungen für die Health-Überwachung, können diese Pakete nach dem Durchführen der BIOS-Konfiguration wieder entfernt werden.
Laden Sie diese Datei herunter, die die Conrep-Konfigurationsinformationen für die Verwaltung einzelner PCI-Steckplätze enthält:
ftp://ftp.hp.com/pub/softlib2/software1/pubsw-linux/p1472592088/v95853/conrep_rmrds.xml
Erstellen Sie eine Datei (exclude.dat in diesen Anweisungen genannt) mit folgender Zeile:
Ersetzen des "X" in "SlotX" mit der Nummer des PCI-Steckplatzes, der das NIC enthält. Der Linux-Befehl "lspci" kann verwendet werden, um den physikalischen PCI-Steckplatz zu identifizieren. Die Information finden Sie auch auf der Registerkarte „Gerätebestand“ auf dem Bildschirm für die iLO-Systeminformationen.
Geben Sie folgenden Befehl, um den Konflikt für den Steckplatz zu deaktivieren (Aktivieren der PCI-Geräte Passthrough-Funktion):
# conrep -l -x conrep_rmrds.xml -f exclude.dat
Je nach Servermodell, sollte ein Output wie dieser oder ein ähnlicher angezeigt werden:
conrep 4.1.2.0 - HP Scripting Toolkit Configuration
Replication Program Copyright ©) 2007-2014
Hewlett-Packard Development Company, L.P.
System Type: ProLiant BL460c Gen8 ROM Date :
02/10/2014 ROM Family :I31 Processor
Manufacturer : Intel
XML System Configuration: conrep_rmrds.xml
Hardware Configuration:exclude.dat Global
Restriction: [3.40 ] OK
Loading configuration data from exclude.dat
Conrep Return Code: 0
Schritt 5 für jeden PCI-Steckplatz wiederholt werden, um die PCI-Geräte Passthrough-Funktion zu aktivieren.
Bestätigen Sie die BIOS-Einstellungen mithilfe des Conrep-Befehls, um die aktuelle Konfiguration zu melden: # conrep -s -x conrep_rmrds.xml -f verify.dat
Es sollte ein Output wie dieser oder ein ähnlicher angezeigt werden:
conrep 4.1.2.0 - HP Scripting Toolkit Configuration
Replication Program Copyright ©) 2007-2014
Hewlett-Packard Development Company, L.P.
System Type: ProLiant BL460c Gen8 ROM Date : 02/10/2014
ROM Family : I31 Processor Manufacturer : Intel
XML System Configuration: conrep_rmrds.xml Hardware
Configuration: verify.dat Global Restriction: [3.40 ]
OK Saving configuration data to verify.dat
Conrep Return Code: 0 Bestätigen Sie, dass nur die Steckplätze, die im vorherigen Schritt konfiguriert wurden in „verify.dat“ mit „Endpoints_Excluded“ aufgeführt sind.
Wenn Sie eines der oben aufgeführten NICs von HP verwenden, sollten Sie NICHT den „Intel Active Health System Agent für HP ProLiant-Netzwerkadapter für Linux x86_64“ installieren, der im hp-Ocsbbd RPM enthalten ist. Dieses Agent erwartet, den RMRR-Bereich für die Übertragung von Sensor- und Health-Daten zu verwenden. Dieses Agent sollte NICHT ausgeführt werden, wenn Sie der RMRR-Bereich deaktiviert ist. Wenn PPM installiert ist, muss der Agent entfernt werden.
Starten Sie den Server neu.
<Conrep> <Section name="RMRDS_Slot1"
helptext=".">Endpoints_Excluded</Section> </Conrep>
$ ./mkiso.sh
$ conrep -l -x conrep_rmrds.xml -f exclude.dat
$ conrep -s -x conrep_rmrds.xml -f verify.dat
kvm: -device vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0: vfio: failed to set iommu for container: Operation not permitted
kvm: -device vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0: vfio: failed to setup container for group 1
kvm: -device vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0: vfio: failed to get group 1
kvm: -device vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0: Device initialization failed
TASK ERROR: start failed: command '/usr/bin/kvm -id 101 -chardev 'socket,id=qmp,path=/var/run/qemu-server/101.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/101.pid -daemonize -smbios 'type=1,uuid=5da287d8-6d3c-4b25-9dfd-f7f1a0b5b2ed' -name NAS -smp '4,sockets=1,cores=4,maxcpus=4' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga cirrus -vnc unix:/var/run/qemu-server/101.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 8192 -k de -readconfig /usr/share/qemu-server/pve-q35.cfg -device 'usb-tablet,id=tablet,bus=ehci.0,port=1' -device 'vfio-pci,host=07:00.0,id=hostpci0,bus=ich9-pcie-port-1,addr=0x0' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:801b4b2e85f' -drive 'if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=100' -drive 'file=/var/lib/vz/images/101/vm-101-disk-1.qcow2,if=none,id=drive-virtio0,format=qcow2,cache=none,aio=native,detect-zeroes=on' -device 'virtio-blk-pci,drive=drive-virtio0,id=virtio0,bus=pci.0,addr=0xa,bootindex=200' -netdev 'type=tap,id=net0,ifname=tap101i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=12:1F:B8:71:8E:16,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300' -machine 'type=q35'' failed: exit code 1
machine: q35
hostpci0: 07:00.0,pcie=1
hostpci0: 07:00.0,pcie=1
hostpci0: 07:00.0
Habe das vielleicht zu unspezifisch formuliert. Ich will in der Windows-VM arbeiten, aber remote von einem "Fat-Client" (aktuell Windows-PC, später evtl. echter Thinclient). Das Datengrab hab ich mit einer Debian-VM realisiert
Verständnisfehler meinerseits, ich hatte in den letzten Wochen den ganzen Thread durchgelesen und scheinbar ein paar Dinge durcheinander gebracht.
Kann die 1820-Serie das auch? Schwanke zur Zeit zwischen dem J9980A und J9981A.
Das machst du im OS und bei Bedarf zusätzlich am Switch.
Gibt etliche Verfahren. Am sinnvollsten ist LACP, dazu brauch es aber einen Switch der das unterstützt.
OS heisst dann in meinem Fall im ESXi?
Switch ist aktuell ein Netgear Prosafe 24-Port 10/100 JFS524, bei dem bin ich nicht sicher ob der das erkennt, konfigurieren kann ich da nix, der ist unmanaged.
Der wird aber demnächst durch einen aktuellen HPE GBE-Switch ersetzt, die erkennen das automatisch.
Wenn ESXi, dann muss man die VM dementsprechend einrichten.
LACP wird nicht von unmanaged Switchs unterstützt ... man muss die Ports ja einrichten. Die Portbündelung wird nicht automatisch erkannt, die richtet man im Switch-Menü ein, was aber recht einfach geht, wenn man weiß wie das Prinzip funktioniert.
Standardmäßig ist ja im kleineren Modell (G1610T) oft 1x 4GB ECC eingebaut. Ist es möglich einen zweiten 8GB ECC RAM Riegel einzubauen (sodass man auf 12GB RAM kommt) oder ist es fürs BIOS zwingend zwei gleich Große Riegel einzubauen (2x2GB, 2x4GB, 2x8GB) ? Danke für eure Hilfe
Ich hoffe die Fragen wurden hier nicht schon X-Mal gestellt. Beim suchen habe ich sie so schnell nicht gefunden.
Bevor ich nächste Woche loslegen meinen Würfel zu bestücken und Dinge zu installieren und mich im Nachhinein ärgere, dass ich etwas hätte besser machen können, habe ich ein paar Fragen
1. Warum sollte man ESXi auf eine SD Karte installieren, wenn man eine extra Platte für die VMs hat, wo ESXi ja auch Platz drauf hätte?
2. Würde es sich lohnen, für die VMs eine SSD zu besorgen? Oder reicht dort eine ganz normale 2,5 bzw. 3,5 Zoll Platte, auf der ich meine VMs ablege?
2.1 Für den Fall dass sich SSDs lohnen würden. Wäre es da sinnvoll, 2 kleinere SSD Platten in ein RAID0 Verbund zu hauen? Oder reicht dort 1 größere SSD für alle VMs?
Warum sollte man ESXi auf eine SD Karte installieren, wenn man eine extra Platte für die VMs hat, wo ESXi ja auch Platz drauf hätte?
1. Warum sollte man seine Platte damit belasten? SD Karten kosten quasi nichts und sind perfekt für so etwas geeignet. Außerdem kannst du ohne Probleme updaten, die SD Karte sichern und austauschen.
Außerdem kannst du dann die Platte auch tauschen usw.
2. Kommt auf deine Ansprüche an. Gilt das gleiche wie beim Desktop. Brauchst du die SSD Performance dann lohnt es sich. Beim 24/7 Betrieb spart es außerdem Strom.
2.1 Raid0 lohnt sich nur bedingt. Die sequenzielle Leistung wird zwar erhöht, die Random Reads/Writes bei SSDs nicht zwangsweise. Da lohnt es sich dann eher die beiden SSDs als zwei Datastores anzulegen und die VMs gleichmäßig zu verteilen. Wenn du die Raid0 Performance nicht umbedingt für eine einzelne VM brauchst (was ich nicht glaube, sonst würdest du nicht fragen) würde ich einfach pro SSD ein Datastore benutzen.
Jedoch ist der Microserver g8 nichts für Nutzer, die Strom sparen wollen, was ein Grund ist, warum ich meinen vermutlich abstoßen werde.
Du bist dir darüber bewusst, das die Büchse mal mindestens 20 Watt verbrät? Ausgeschaltet sind es immer noch ein paar Watt aufgrund der ilo und bei mir mit gestartetem ESXi kam ich noch nie über 40 Watt, die Tendenz geht eher Richtung 50 Watt.
Stecken aber auch µSD-Karte, drei zusätzliche 40 mm Lüfter, 2 Festplatten, eine SSD, 16 GB RAM und ein eher unangebrachter 95 Watt Xeon drin. Aber im Startpost stehen ja genug Werte, wirst du mit Sicherheit schon gesehen haben.
Jedoch ist der Microserver g8 nichts für Nutzer, die Strom sparen wollen, was ein Grund ist, warum ich meinen vermutlich abstoßen werde.
Blöde Frage, ich seh grad dass das Ding einen SD-Kartenslot hat. Spricht etwas dagegen das Freenas auf eine SD-Karte zu schmeissen und auf eine SSD zu verzichten?
Blöde Frage, ich seh grad dass das Ding einen SD-Kartenslot hat. Spricht etwas dagegen das Freenas auf eine SD-Karte zu schmeissen und auf eine SSD zu verzichten?