[Sammelthread] Proxmox Stammtisch

Dazu hätte ich ein paar Fragen:

1. Ist es ok das Hostsystem und den VM-Pool auf die M2 zu packen? (Bestpractice?)
2. Bei der Installation wird man nach dem Dateisystem gefragt. Ext4 oder ZFS. Bringt mir ZFS hier einen Vorteil?
3. die 6Hdds möchte ich an OMV weiterreichen. Angedacht war es die Platten weiterhin mit NTFS zu betreiben (ohne Raid). (Die 6 HDDs liegen als Backup nochmal im Schrank. Die M2 würde ich Sichern.)
4. Ohne ZFS, brauche ich dann unbedingt ECC Speicher?

Hey,

mal auf die Schnelle geantwortet:

zu 1.: Best Practice ist es wahrscheinlich nicht, allerdings sollte es auch kein Problem darstellen. Solange du in regelmäßigen Abständen Backups deiner VMs/Container machst, sollte es hier keine Schwierigkeiten geben. Keine leider nicht mehr die aktuelle automatische Partitionierung vom Installer, allerdings solltest du dann zumindest drauf achten, dass die Partition für die VMs/Container (/var/lib/vz) nicht auf der Root-Partition liegt. So verhinderst du zumindest, dass diese nicht durch die Maschinen "voll" laufen kann.

Des Weiteren sollte man noch bei der Lagerung von VMs auf der SSD an die Schreibzyklen denken, also nicht gerade OMV inkl. Storage auf der SSD. Du kannst aber ohne Probleme verschiedene Storages für VMs einbinden. Also z.B. SSD und HDDs, NFS, usw....

Fast jeder setzt Proxmox anders auf, von daher denke ich gibt es keine Einzellösung. Ich habe z.B. ein Debian als Grundlage verwendet, auf dass dann Proxmox on Top drauf kam.

zu 2.: ZFS bringt meiner Meinung nach für das Rootsystem keinen Vorteil, eher als Dateisystem für Storagelösungen.

zu 3.: Wenn du OMV als VM einrichtest, kannst du die Platten nicht einzeln durchreichen, sondern nur den kompletten Controller. Unter LXC wäre es zwar möglich, aber ist nichts für den Anfänger und praktikabel sieht anders aus. Wenn du dort nicht selbst programmierst, darfst du bei jedem Neustart die Konfiguration auf der Konsole anpassen.

Von daher, bleib beim Passthrough des SATA-Controller und alles ist schick.

Zum Dateisystem: Hier würde ich von NTFS abraten, aber mach ruhig ein paar Tests mit OMV. Über die Jahre weg, habe ich unter jedem debian-artigen System festgestellt, dass bei Schreibvorgängen der Treiber CPU-lastig wird.

4.: Nein, ohne ZFS brauchst du nicht zwingend ECC. Schön ist es allerdings trotzdem :-) . Da wäre wieder die Frage zur Wahrscheinlichkeit von Fehlern im RAM.

Meine Vorgehensweise bei Systemen die kein ECC unterstützen bzw. wo ich es nicht zwingend für erforderlich halte: RAM ausgiebig (mehrere Durchgänge) mit memtest86+ testen. So gehe ich eigentlich mit jedem Clientsystem vor. Schließt zwar keine Fehler im Alter aus, allerdings hatte ich auch schon defekte Neuware erhalten. Von daher hilft es Fehler frühzeitig auszuschließen.

- - - Updated - - -

Edit: Bekomme gerade die Posts nicht getrennt oder ist das ne Erkennung vom Board ?! Egal, dann halt 2 Antworten in 1 Post

Will Ubuntu nur zum surfen und zum arbeiten nutzen. Briefe schreiben und so.
Und zum üben von Linux Systeme


Gesendet von meinem SM-N950F mit Tapatalk

Zum Üben reicht denke ich die SPICE-Variante. Für das tägliche Arbeiten Variante 1, es sei denn beide Systeme müssen zur gleichen Zeit laufen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
2.
ZFS hat Bootenvironments, das sind bootfähige ZFS Snaps um frühere Systemstände (vor Updates) wiederherzustellen

4.
auch mit ZFS braucht man nicht zwingend ECC. ZFS ist sogar ohne ECC sicherer als alte Dateisysteme - kann aber natürlich auch nicht vor Dateifehlern wegen RAM Fehlern schützen.
 
Hey,

mal auf die Schnelle geantwortet:

zu 1.: Best Practice ist es wahrscheinlich nicht, allerdings sollte es auch kein Problem darstellen. Solange du in regelmäßigen Abständen Backups deiner VMs/Container machst, sollte es hier keine Schwierigkeiten geben. Keine leider nicht mehr die aktuelle automatische Partitionierung vom Installer, allerdings solltest du dann zumindest drauf achten, dass die Partition für die VMs/Container (/var/lib/vz) nicht auf der Root-Partition liegt. So verhinderst du zumindest, dass diese nicht durch die Maschinen "voll" laufen kann.

Des Weiteren sollte man noch bei der Lagerung von VMs auf der SSD an die Schreibzyklen denken, also nicht gerade OMV inkl. Storage auf der SSD. Du kannst aber ohne Probleme verschiedene Storages für VMs einbinden. Also z.B. SSD und HDDs, NFS, usw....

Fast jeder setzt Proxmox anders auf, von daher denke ich gibt es keine Einzellösung. Ich habe z.B. ein Debian als Grundlage verwendet, auf dass dann Proxmox on Top drauf kam.

zu 2.: ZFS bringt meiner Meinung nach für das Rootsystem keinen Vorteil, eher als Dateisystem für Storagelösungen.

zu 3.: Wenn du OMV als VM einrichtest, kannst du die Platten nicht einzeln durchreichen, sondern nur den kompletten Controller. Unter LXC wäre es zwar möglich, aber ist nichts für den Anfänger und praktikabel sieht anders aus. Wenn du dort nicht selbst programmierst, darfst du bei jedem Neustart die Konfiguration auf der Konsole anpassen.

Von daher, bleib beim Passthrough des SATA-Controller und alles ist schick.

Zum Dateisystem: Hier würde ich von NTFS abraten, aber mach ruhig ein paar Tests mit OMV. Über die Jahre weg, habe ich unter jedem debian-artigen System festgestellt, dass bei Schreibvorgängen der Treiber CPU-lastig wird.

4.: Nein, ohne ZFS brauchst du nicht zwingend ECC. Schön ist es allerdings trotzdem :-) . Da wäre wieder die Frage zur Wahrscheinlichkeit von Fehlern im RAM.

Meine Vorgehensweise bei Systemen die kein ECC unterstützen bzw. wo ich es nicht zwingend für erforderlich halte: RAM ausgiebig (mehrere Durchgänge) mit memtest86+ testen. So gehe ich eigentlich mit jedem Clientsystem vor. Schließt zwar keine Fehler im Alter aus, allerdings hatte ich auch schon defekte Neuware erhalten. Von daher hilft es Fehler frühzeitig auszuschließen.

- - - Updated - - -

Edit: Bekomme gerade die Posts nicht getrennt oder ist das ne Erkennung vom Board ?! Egal, dann halt 2 Antworten in 1 Post



Zum Üben reicht denke ich die SPICE-Variante. Für das tägliche Arbeiten Variante 1, es sei denn beide Systeme müssen zur gleichen Zeit laufen.
Ja kann vorkommen das beide Systeme gleichzeitig laufen.

Dann bleibt nur noch eine zweite Grafikkarte?

Gesendet von meinem SM-N950F mit Tapatalk
 
@gea:

snapshots würde ich natürlich auch gerne machen können und Backup der M2 auf ein Netzlaufwerk.

Zur Installation:

1. Partition 15GB (reicht?) Rootsystem im Ext4 Format; 2. Partition 235GB VM Pool als ZFS für u.a. Snapshotfunktion. Vm's in dann im RAW Format ? (oder qcow2?)

Kann der neue Installer die Aufteilung?
 
Ich habe früher bei OMV nur die HD´s durchgereicht also ohne Controller und fand das performant genug.
Natürlich kann man dann keine Smart Überwachung nutzen.
 
bin gerade dabei mein BluRay LW an ein VM durchzureichen.

Laufwerk wird angezeigt habe aber kein Zugrif.

/etc/tgt/targets.conf

Code:
default-driver iscsi

<target iqn.2017-01.proxmox:bdrw>
    <backing-store /dev/sg1>                     # bd-writer
	bs-type sg
	device-type pt
	lun 1
	# initiator-address ALL
    </backing-store>
</target>

lsscsi -g
Code:
[0:0:0:0]    disk    ATA      INTEL SSDSCKKW25 010C  /dev/sda   /dev/sg0 
[1:0:0:0]    cd/dvd  HL-DT-ST BD-RE  BH16NS40  1.00  /dev/sr0   /dev/sg1 
[2:0:0:0]    disk    ATA      ST8000AS0002-1NA AR17  /dev/sdb   /dev/sg2 
[3:0:0:0]    disk    ATA      ST3000DM001-1CH1 CC24  /dev/sdc   /dev/sg3


tgtadm -o show -m target

Code:
Target 1: iqn.2017-01.proxmox:bdrw
    System information:
        Driver: iscsi
        State: ready
    I_T nexus information:
    LUN information:
        LUN: 0
            Type: controller
            SCSI ID: IET     00010000
            SCSI SN: beaf10
            Size: 0 MB, Block size: 1
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            SWP: No
            Thin-provisioning: No
            Backing store type: null
            Backing store path: None
            Backing store flags: 
        LUN: 1
            Type: passthrough
            SCSI ID: IET     00010001
            SCSI SN: beaf11
            Size: 0 MB, Block size: 1
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            SWP: No
            Thin-provisioning: No
            Backing store type: sg
            Backing store path: /dev/sg1
            Backing store flags: 
    Account information:
    ACL information:
        ALL

hat jemand eine idee für mich?
 
Hallo,

ich komme gerade nicht weiter.

Ich habe nun Proxmox installiert auf meiner NVME. lsblk zeigt mir Die SSD an mit 232,9G. Darauf sind p1,p2 und p3 mit zusammen 65 GB. Nun möchte ich "p4" als ZFS Pool erstellen. Wie gehe ich da vor?
 
Mit fdisk oder sgdisk oder einem Tool deiner Wahl p4 erstellen und dann mit zpool create und den Optionen deiner Wahl den Pool anlegen.
 
Okay, schau ich mir mal an.

Dann habe ich aktuell noch ein Problem. Ich bin mir nicht sicher obs am Asus Mainboard liegt. Die Lüftersteuerung im Bios funktioniet nicht. Die Lüfter laufen die ganze Zeit auf max. Gibt es eine Möglichkeit unter Proxmox die Lüfter zu steuern (evtl. auch mit Temp überwachung)?
 
Hab jetzt auch proxmox auf dem proliant gen8 installiert.
inkl.

Sophos UTM als Firewall
Freenas als Datengrab.
Hab die Platten direkt an Freenas durchgeschliffen durch anleitung in diesem video.
Heimserver 3 | FreeNAS KVM - Proxmox (Deutsch) - YouTube

als nächstes wird noch der PCIe Passthrough gemacht damit die Sophos auch ne Wlankarte hat und dementsprechend das Wlan absichern kann.
OPNsense oder PFsense haben mir nicht so gefallen.


€dit:

Weis jemand wie ich dediziert gewisse NIC durchreiche?
Der Proliant gen8 hat ja 2 NICS. Die Interne wird normal erkannt als VirtIO und alle Geräte landen auf der Sophos, aber den Ausgang von Sophos zur Connect box funktioniert irgendwie nicht.
 
Zuletzt bearbeitet:
... ihr habt mitbekommen, dass die Mailgateway OpenSource wurde ?
 
Hallo zusammen,

ich habe mir auf meinem ProLiant ML10 v2 Proxmox auf ZFS Raidz1 installiert. Allerdings startet bei mir keine VM und ich weiß nicht warum. Bekomme folgende Fehlermeldung:

kvm: -drive file=/rpool/prox/vms/windows/images/100/vm-100-disk-1.qcow2,if=none,id=drive-sata0,format=qcow2,cache=none,aio=native,detect-zeroes=on: file system may not support O_DIRECT
kvm: -drive file=/rpool/prox/vms/windows/images/100/vm-100-disk-1.qcow2,if=none,id=drive-sata0,format=qcow2,cache=none,aio=native,detect-zeroes=on: Could not open '/rpool/prox/vms/windows/images/100/vm-100-disk-1.qcow2': Invalid argument
TASK ERROR: start failed: command '/usr/bin/kvm -id 100 -chardev 'socket,id=qmp,path=/var/run/qemu-server/100.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/100.pid -daemonize -smbios 'type=1,uuid=c1cb5509-419a-4a88-835b-f4dcd90a4a97' -name WindowsServer2016 -smp '2,sockets=1,cores=2,maxcpus=2' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga std -vnc unix:/var/run/qemu-server/100.vnc,x509,password -no-hpet -cpu 'kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,hv_spinlocks=0x1fff,hv_vapic,hv_time,hv_reset,hv_vpindex,hv_runtime,hv_relaxed,enforce' -m 1024 -k de -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:7e87565ab3d3' -drive 'file=/rpool/prox/isos/template/iso/WindowsServer2016.ISO,if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200' -device 'ahci,id=ahci0,multifunction=on,bus=pci.0,addr=0x7' -drive 'file=/rpool/prox/vms/windows/images/100/vm-100-disk-1.qcow2,if=none,id=drive-sata0,format=qcow2,cache=none,aio=native,detect-zeroes=on' -device 'ide-drive,bus=ahci0.0,drive=drive-sata0,id=sata0,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown' -device 'e1000,mac=06:14:A2:07:87:C8,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300' -rtc 'driftfix=slew,base=localtime' -global 'kvm-pit.lost_tick_policy=discard'' failed: exit code 1

Hat jemand ein Tipp für mich?

Habe schon Stunden mit Google verbracht aber als Neuling nicht viel mit anfangen können.

MfG
 
... ihr habt mitbekommen, dass die Mailgateway OpenSource wurde ?
Ja, wurde in den einschlägigen Medien ja ausführlich diskutiert :)
Geben tut es das Ding seitdem ich proxmox ve nutze (ca 5 Jahre), aber nun habe ich mir ernsthaft vorgenommen, das Ding auf Arbeit mal genauer anzusehen und einen potentiellen Einsatz zu evaluieren. Mal sehen.
 
Hallo zusammen,

ich habe mir auf meinem ProLiant ML10 v2 Proxmox auf ZFS Raidz1 installiert. Allerdings startet bei mir keine VM und ich weiß nicht warum. Bekomme folgende Fehlermeldung:

kvm: -drive file=/rpool/prox/vms/windows/images/100/vm-100-disk-1.qcow2,if=none,id=drive-sata0,format=qcow2,cache=none,aio=native,detect-zeroes=on: file system may not support O_DIRECT
kvm: -drive file=/rpool/prox/vms/windows/images/100/vm-100-disk-1.qcow2,if=none,id=drive-sata0,format=qcow2,cache=none,aio=native,detect-zeroes=on: Could not open '/rpool/prox/vms/windows/images/100/vm-100-disk-1.qcow2': Invalid argument
TASK ERROR: start failed: command '/usr/bin/kvm -id 100 -chardev 'socket,id=qmp,path=/var/run/qemu-server/100.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/100.pid -daemonize -smbios 'type=1,uuid=c1cb5509-419a-4a88-835b-f4dcd90a4a97' -name WindowsServer2016 -smp '2,sockets=1,cores=2,maxcpus=2' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga std -vnc unix:/var/run/qemu-server/100.vnc,x509,password -no-hpet -cpu 'kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,hv_spinlocks=0x1fff,hv_vapic,hv_time,hv_reset,hv_vpindex,hv_runtime,hv_relaxed,enforce' -m 1024 -k de -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:7e87565ab3d3' -drive 'file=/rpool/prox/isos/template/iso/WindowsServer2016.ISO,if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200' -device 'ahci,id=ahci0,multifunction=on,bus=pci.0,addr=0x7' -drive 'file=/rpool/prox/vms/windows/images/100/vm-100-disk-1.qcow2,if=none,id=drive-sata0,format=qcow2,cache=none,aio=native,detect-zeroes=on' -device 'ide-drive,bus=ahci0.0,drive=drive-sata0,id=sata0,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown' -device 'e1000,mac=06:14:A2:07:87:C8,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300' -rtc 'driftfix=slew,base=localtime' -global 'kvm-pit.lost_tick_policy=discard'' failed: exit code 1

Hat jemand ein Tipp für mich?

Habe schon Stunden mit Google verbracht aber als Neuling nicht viel mit anfangen können.

MfG

Stell den Cache dieser VM auf "writeback" oder "writethrough", dann startet sie.
 
Hallo,

ich bräuchte mal wieder etwas Hilfe.

Aktuell bin ich an der Firewall dran. Leider weiß ich noch nicht ob ich auf Sophos UTM oder Opnsense setzten soll.

Im Vorfeld bin ich nun am überlegen wie ich das mit den NICs machen soll. Ich habe insgesamt 3 Nics frei. Switch ist ein Cisco SG300 mit Vlans. Hier würde ich LACP aktivieren und dort alle Vlans hinzufügen (auch ein WAN Vlan mit Fritzbox)

Meine Idee :

1. Alle drei NICs durchreichen und im Gastsystem diese Bündeln zu einem NIC und dort dann die Netze (Wan,LAN) per VLAN konfigurieren. ((wobei ich nicht weiß ob die FWs das können)

2. Unter Proxmox die drei NICs bündeln und als Bond0 in der VM als NIC eintragen.

Wie würdet ihr es machen?
 
@Marcool: Ich würde eine Firewall nicht virtualisieren. Wenn Server down dann auch das Internet weg!


@all: Ich habe eine Win 8 VM erstellt und darauf greife ich per samba oder nfs auf ein ZFS-Filesystem zu ("tank/nfs" bzw "tank/samba"). trotz des virtio treibers der Netzwerkkarte (=10Gbit) übertrage ich Daten nur zwischen 20 und 80mb/s. Während ich aber auf eine vDisk auf dem selben ZFS-Pool Daten mit 300mb/s lesen bzw 200mb/s schreibend hin und her bewege und von meiner Workstation auch Daten mit 110mb/s (=1Gbit maximum) hin und her schaufeln kann. woran liegt das? und wie kann ich die performance erhöhen innerhalb Proxmox? Ich würde gerne einen freigegebenen Ordner haben, wo mehrere VMs zugreifen können, ebenso wie meine Workstation.
 
Hallo MisterY,
es gibt ja berechtige Punkte gegen die Virtualisierung der FW, aber wenn deine dedizierte FW down ist, ist auch das Internet auch weg!
Mit dem Argument dürfte ich meine Asterisk PBC, die Hausautomatisierung oder Freenas auch nicht virtualisieren.
Für den Fall muss man halt selber vorsorgen, bei mir steht für diesen Zweck ein zweiter identischer Dell T20(Cold Spare), eine konfigurierte Fritzbox tut es aber auch.
Bei mir läuft eine virtualisiert FW (PfSense) seit 2014 ohne größere Probleme unter Proxmox.

@Marcool
Zu 1: Opnsense (PfSense) könnte dieses.
Zu 2: Ich würde in Proxmox den Bond erstellen (Für mehr Optionen evtl. mit Open VSwitch)
Den Bond unter der FW zu erstellen würde nur Sinn machen, wenn die Nics direkt durchgereicht werden.

Grüße
 
Oder du klemmst die virtuelle Firewall einfach hinter die Fritze. Ist der Server down, stöpselste die anderen Kisten halt erstmal wieder direkt in die Fritze.

Kommt aber ein bisserl drauf, wie die Infrastruktur aussieht.
 
Die Ausfallzeiten im Heimbereich finde ich jetzt nicht kritisch, zumindest bei mir. Auf der Arbeit geht sowas natürlich nicht.

@Bissl: Okay. Welche Option würdest du denn präferieren?

Durchreichen kann ich es natürlich auch aber was ist technisch besser? Das Board hat insgesamt 4 NICs wovon ich 1 NIC als Wartungsport benutzten will. Bond unter Proxmox und ich wäre flexibel. Ich könnte sogar relativ schnell FW VMs wechseln (zum testen) . Hmm aber ich habe das Gefühl das das durchreichen performanter/stabiler sein kann ( feature set?) .

Erfahrungswerte wären gut :-)


EDIT:

@besterino: Ich könnte auch einfach 2 unterschiedliche Einstellungen auf dem Switch (L3) speichern. Wechel würde dann recht schnell gehen.
 
Zuletzt bearbeitet:
Je nach Regierung kann es auch Zuhause ganz schön unangenehm werden :-P

Ein Management Port ist sinnvoll und erspart viel Ärger.
Ich hatte als letztes LACP balance-alb mit OVS im Einsatz, oder wenn es der Switch unterstützt: 802.3ad.
Ob Optimierung bis zum letzten bei drei 1Gb NICs sinnvoll ist, kann ich dir nicht sagen. Aber mehr als 1Gb bekommst du am Client eh nicht raus 😉

Ich habe bisher nur eine NIC für das DSL-Modem durchgereicht.
Will es aber bei Gelegenheit mal mit der 10Gb-NIC probieren.

Was hast du an Netzwerkkarten?
 
Mit Onboard Passthrough hab ich keine Erfahrungen.

Ich würde den Bond in Proxmox erstellen und schauen was so durchkommt.
 
Okay.

Durchreichen würde technisch aber auch gehen. Die Adressen sind alle da und alle NICs haben eine eigene Gruppe (schon geprüft). Okay

Dann werde ich es mal so probieren. Ich werde mir auch beide FWs installieren. Mal schauen welche mir besser gefällt.
 
Hi,

Ich habe ein 2-node Cluster erstellt und das läuft auch soweit. Auch habe ich meine HDD in Node1 freigegeben, wo die ISOs drauf sind; darauf kann ich auch von Node2 aus zugreifen. Was jedoch nicht funktioniert sind die Backups. Da kann ich nciht drauf zugreifen, obwohl ich es genauso freigegeben habe wie die ISOs (per NFS)?

Auch wird von Node2 keine HDD angezeigt, obwohl da neben der OS-HDD (320GB) noch eine weitere HDD (400GB) verbaut ist. Wie kriege ich die angezeigt?


VMs kann ich somit nur auf der einen einzelnen HDD in Node1 installieren, die aber noch nicht mal freigegeben ist??
Grüße
 
Zuletzt bearbeitet:
Hallo,

ich komme wieder mal nicht weiter. Ich bräuchte nen kleinen Schubs in die richtige Richtung.

Ist das in der Grafik so korrekt?

Die 3 Nics in einen OVS Bound. Muss ich hier eine Adresse vergeben mit den ganzen VLan Tags?

Bridge 1 bleibt frei. (Soweit ich gelesen habe)

Muss ich nun soviel Nics in der FW VM erstellen oder gibts da ne andere Lösung?

vNic 2 für den Ausgang zum Internen Netz. Bridge 2 ist klar und daran dann die VMs anbinden.



Zeichnung11.jpg
 
Wäre es nicht zielführender, eine NIC in der FW-VM direkt durchzureichen und dieser dann mittels vlan-tagging das ganze selber mit dem Switch zu machen, als jede VLAN-ID am vSwitch separat zu erhalten (in VMware wären das übrigens jeweils eigene vSwitche pro VLAN-ID an einem Interface und somit dann entsprechend auch X-Interfaces in der FW-VM)
 
Kann ich dir nicht sagen. Bin neu im Thema und weiß nicht was in dem Fall die "best practice" sind.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh