[Sammelthread] Proxmox Stammtisch

nein ich möchte kein audio nutzen. ich wäre eigentlich nicht auf die Idee gekommen, die Onboard Karte zu deaktivieren.
Mich hat folgendes weiter gebracht, nach dem er bei der Installation bracht "no cdrom found"
copy proxmox iso on usb stick

#fdisk -l
#mount /dev/sdb1 /mnt
#mount -o loop -t iso9660 /mnt/proxmox_1-7.iso /mnt
#cd /mnt
#chroot /mnt sbin/unconfigured.sh

Ich beziehe mich auf meine Onboard Karten, beide von Intel. Ich hätte auch nicht gedacht, dass es so Probleme geben kann Proxmox zu installieren.

Hatte den Proxmox zum testen ja auch auf einem USB Stick und da hatte ich eigentliche keine Probleme bemerkt für die paar Sachen zum Ausprobieren
bis ich mich für Proxmox entschied

Update:
Habe den Installationsstick jetzt mit einem anderen Tool erstellt, die ISO Checksumme verifiziert.
Jetzt hat er nicht nach einem cdrom gesucht und ist gleich weitergelaufen.
Jetzt hänge ich hier
IMG_20151101_150957.jpg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was haben die denn mit dem PCIe Passthrough gemacht? Mit dem aktuellen Kernel sagt es immer nur vfio unknown... Irgendeiner einen Tip?

Gesendet mit der A0001
 
Also zumindest grundsätzlich scheint dm-cache Schreibzugriffe brav zu puffern.
Ich habe unter /mnt ein Volume mit 1 GB SSD Cache und nach /mnt/backup ein normales Volume eingebunden.

Code:
root@prox10 /mnt # dd if=/dev/zero of=/mnt/backup/testfile bs=2G count=1 oflag=direct
0+1 records in
0+1 records out
2147479552 bytes (2.1 GB) copied, 16.889 s, 127 MB/s
root@prox10 /mnt # dd if=/dev/zero of=/mnt/testfile bs=2G count=1 oflag=direct
0+1 records in
0+1 records out
2147479552 bytes (2.1 GB) copied, 9.68236 s, 222 MB/s

Hat jemand Ideen für möglichst praxisnahe Tests?
Ich würde jetzt einfach jeder virtuellen Maschine immer SSD-Cache im Verhältnis 10:1 zuordnen.
 
Hallo, da es kaum deutschsprachige Foren zu diesem Thema gibt, wollte ich mal hier fragen, ob sich mal jemand das folgende anschauen kann, und vielleicht helfen kann.

Ich habe einen neuen vServer mit 8 Kernen und 24G RAM, auf dem ich Proxmox 4 istalliert habe. Ich möchte meine zahlreichen Dienste endlich ordentlich von einander trennen und besser absichern.
Deswegen habe ich folgende Netzstruktur entworfen:



Zentral auf dem Proxmox soll ein (Reverse-)Proxy (Nginx)laufen, der zum einen die SSL Zertifikate besitzt und entsprechend die Traffic weiter routet. Zudem soll er eine Firewall (UFW/IPTables) bekommen um alle anderen Dienste zu blockieren. Dieser soll zwei netzwerke besitzen, eines um mit Proxmox um über das Internet erreichbar zu sein. Das Zweite ist das interne in dem alle VMs auch untereinander kommunizieren können. Die DNS Funktionalität im internen Netz soll der FreeIPA übernehmen.
Eine Sonderrolle soll z.B. der E-Mail Server MTA/MDA sein. Dieser soll vom internen Netz erreichbar sein (für den Versand/Emfang von Mails/Webinterface über den Proxy) als auch direkte Kommunikation mit einem Dritten Netz mit dem Proxmox. Hintergrund ist das Umgehen des Proxies für gewisse Dienste (ein weitere Dienst soll z.B. Mumble werden).
Was ich noch nicht erwähnt habe: Da es ein vServer (KVM) ist, werden/muss ich für alle server lxc container verwendet.

Soviel erst einmal zur Struktur. Ich würde mich über Feedback in dieser Richtung freuen.

Der 2. Teil dieses Post beschäftigt sich mit der Netzwerkkonfiguration. Ich bin zwar, was Server-Konfiguration angeht, ganz fit, aber was Netzwerke über einen Addressbereich hinausgeht, leider nicht besonders bewandert, was die Konfiguration angeht. Daher die Frage, ob mir jemand etwas genauer erklärt, wie ich Proxmox (und die entsprechenden Server) konfigurieren muss, um die oben beschriebene Netzstruktur aufsetzen zu können, und ob noch weitere Dienste dafür nötig sind, die ich nicht aufgezählt habe. Soweit ich mich zumindest schon belesen habe muss/sollte ich die Konfiguration über ovs bridge & ovs intport machen, nur fehlt mir dabei das wissen. Proxmox bietet selber schon einige Beispiele an, und ich vermute, dass das 1. Beispiel schon ziemlich das ist, was ich dafür bräuchte.

Proxmox bietet mir auch an, ovs über die ui zu konfigurieren, bei dem ich aber nicht weiss, ob es in meinem Fall sinnvoll ist.






Vielen Dank erstmal, wenn es jemand bis hier her ließt und noch besser, wenn auch jemand antwortet ;-)
 
Ne aktuelles Installatuonsmedium, 4 beta2 ging es noch tadellos

Gesendet mit der A0001
 
Ich dachte mir ich mache mir ein paar SSD LVs für MySQL und gebe den Rest über DM-Cache dem ganzen System.
Was meinst du, welche Größe bei ca. 1 TB Daten gerechtfertigt ist?
Klingt schon besser ;) Wieso MySQL und nicht MariaDB? :p
Keine Ahnung, ich habe mit dm-cache keine Erfahrung. Aber da dm-cache keine sequenziellen Lese- / Schreibzugriffe cached wäre ein riesiger Cache Verschwendung.
 
Zuletzt bearbeitet:
Ich habe ein paar Fragen wie Proxmox so funktioniert:

Aktuell habe ich ein OMV Server mit VirtualBox drauf. Würde es Sinn machen das ganze auf ein Proxmox umzusetzen? Beim OMV wird der Server per Wol gestartet und legt sich selbst schlafen wenn es nicht gebraucht wird. Würde das mit Proxmox auch funktionieren, oder müsste ich den durchlaufen lassen?
 
Ich hab ein paar Fragen zu Linux-Containern...

Zum einen würde ich gerne einen Container "clonen" und unter anderer IP-Adresse (mit leicht geänderter Konfig) parallel laufen lassen. Wie geht das am einfachsten?

Dann frage ich mich, was der richtige Weg ist Mounts in das Container-Filesystem anzulegen, ich habe nach dieser Wiki-Seite einen Mountpunkt in meine Container-Konfig eingetragen, offenbar gibt es da zwei Varianten ("mp0: ..." und "lxc.mount.entry:"), ist beides noch aktuell oder ist eine zu bevorzugen?

Code:
mp0: /tank/share/audio,mp=/audio

# (Edit) so geht's:
lxc.mount.entry: /tank/share/audio audio none bind,create=dir,optional 0 0

Der Mount "mp0:" funktioniert zwar, aber wenn ich von dem Container ein Backup aus der Proxmox-GUI erstellen will, kommt dieser Fehler:

Code:
ERROR: Backup of VM 104 failed - unable to handle mountpoint 'mp0' - feature not implemented

Sollte ich vielleicht auf die "lxc.mount.entry:" Syntax umstellen? Im Backup will ich natürlich keine Mount-Verzeichnisse mitnehmen.

Edit: mit der "lxc.mount.entry" Syntax klappt's auch mit dem Backup. Allerdings werden in der Web-Gui die Mounts nicht mehr bei den Resourcen aufgelistet.

Ferner hab ich festgestellt, dass die LXC-Templates von Debian und Ubuntu kein systemd Init enthalten sondern das alte systvinit. Hab mich mit systemd in Containern noch nicht so auseinandergesetzt, aber kann ich bedenkenlos bei einem Debian immer "apt-get update / upgrade / dist-upgrade" machen oder besteht da die Gefahr, dass irgendwas nicht mehr passt?
 
Zuletzt bearbeitet:
Ich hab die Turnkeylinux Fileserver Appliance in einem Container in Benutzung und Samba funktioniert auch ganz gut, nur würde ich gern NFS machen. Da sind auch schon /etc/exports Einträge vorhanden, aber wenn ich den nfs-kernel-server starten will, gibt's diesen Fehler:

Code:
# /etc/init.d/nfs-kernel-server start
mount: nfsd is write-protected, mounting read-only
mount: cannot mount nfsd read-only
Exporting directories for NFS kernel daemon....
Starting NFS kernel daemon: nfsdrpc.nfsd: Unable to access /proc/fs/nfsd errno 2 (No such file or directory).
Please try, as root, 'mount -t nfsd nfsd /proc/fs/nfsd' and then restart rpc.nfsd to correct the problem
 failed!

Wenn ich das dann mache, sagt er

Code:
# mount -t nfsd nfsd /proc/fs/nfsd
mount: nfsd is write-protected, mounting read-only
mount: cannot mount nfsd read-only

Ist das jetzt ein Problem der Turnkey-Appliance im Container oder geht NFS mit dem Kernel-Server generell nicht in einem Container?

Gibt's noch einen Trick, wie ich das zum laufen bekomme? Würde es nur ungern auf der Proxmox-Ebene aktivieren...
 
Zuletzt bearbeitet:
Bei OpenVZ musste man NFS im Container explizit erlauben. Evtl kannst du das Device von außen per mount bind holen.

Alternativ einen Userspace Server, aber da würde ich das lieber auf PVE Ebene machen...
 
Zuletzt bearbeitet:
Liebe Freunde der Virtualisierung!

Unsere wertgeschätzten israelischen Freunde von TurnKey Linux haben zusammen mit der Community Version 14 der VMs online gebracht. Vorneweg alle auch als passende LXC Container speziell für Proxmox. Hier ein Verzeichnis der VMs. Für all diejenigen, welche mit TurnKey Appliances nicht vertraut sind, hier ganz grundlegende wichtige Basics.

Im Proxmox finden sich die Templates wie gehabt im Storage View > local, rechts im Karteireiter Content und dort drunter im Menüpunkt Templates. Werden die v14 Templates nicht angezeigt, dann in der shell einmal:
pveam update

und wer einen Minecraft Multi Server mit WebUI will auf Turnkey Basis wird bei Mine OS - easy minecraft hosting solution fündig :) ... ist aber für KVM gedacht

gibts aber auch für fast alle Basis OS : MineOS
 
Zuletzt bearbeitet:
Ich hab die Turnkeylinux Fileserver Appliance in einem Container in Benutzung und Samba funktioniert auch ganz gut, nur würde ich gern NFS machen. Da sind auch schon /etc/exports Einträge vorhanden, aber wenn ich den nfs-kernel-server starten will, gibt's diesen Fehler:

Code:
# /etc/init.d/nfs-kernel-server start
mount: nfsd is write-protected, mounting read-only
mount: cannot mount nfsd read-only
Exporting directories for NFS kernel daemon....
Starting NFS kernel daemon: nfsdrpc.nfsd: Unable to access /proc/fs/nfsd errno 2 (No such file or directory).
Please try, as root, 'mount -t nfsd nfsd /proc/fs/nfsd' and then restart rpc.nfsd to correct the problem
 failed!

Wenn ich das dann mache, sagt er

Code:
# mount -t nfsd nfsd /proc/fs/nfsd
mount: nfsd is write-protected, mounting read-only
mount: cannot mount nfsd read-only

Ist das jetzt ein Problem der Turnkey-Appliance im Container oder geht NFS mit dem Kernel-Server generell nicht in einem Container?

Gibt's noch einen Trick, wie ich das zum laufen bekomme? Würde es nur ungern auf der Proxmox-Ebene aktivieren...

Ich hab's gerade hingekriegt: man kann in die Container-Konfiguration (/etc/pve/lxc/*.conf) die Zeile lxc.aa_profile = unconfined einfügen, dann funktioniert der NFS Kernel Server im Container (Quelle)

Allerdings ist das wohl nicht empfohlen bzw. nicht vollumfänglich nutzbar, wie diese Quelle sagt.

Auch fraglich, ob man mit dem AppArmor Modus unconfined nicht wieder riesige Löcher in die Security reißt? Vielleicht sollte ich NFS doch auf Proxmox-Node-Ebene machen, wie es hier beschieben ist. Hat da jemand Erfahrung damit?
 
Bin jetzt mal am Proxmox testen und mein Knowhow begrenzt sich auf ESXI.

Wenn ich 2 Netzwerkkarten habe und eth0 bridged läuft, mit Static einträgen und ich auf eth1 den selben dns eintrage geht es nicht. Wie genau ist das bei Proxmox bei ESXI reichte es zu sagen nimm Eth0 oder Eth1 und die IP vergabe lief über die VM. ( eth0 und eth1 laufen auf dns 192.168.5.5 )

hab bestimmt nur noch nicht verstanden wie das hier läuft :)
 
Schreib nochmal genau, was du erreichen magst ;) ESX kenne ich nicht, aber wenn ich weiss, was du machen willst, kann ich dir beim Proxmox helfen.
 
Bin jetzt mal am Proxmox testen und mein Knowhow begrenzt sich auf ESXI.

Wenn ich 2 Netzwerkkarten habe und eth0 bridged läuft, mit Static einträgen und ich auf eth1 den selben dns eintrage geht es nicht. Wie genau ist das bei Proxmox bei ESXI reichte es zu sagen nimm Eth0 oder Eth1 und die IP vergabe lief über die VM. ( eth0 und eth1 laufen auf dns 192.168.5.5 )

hab bestimmt nur noch nicht verstanden wie das hier läuft :)

https://pve.proxmox.com/wiki/Network_Model

Anfangs ist immer nur eth0/vmbr0 eingerichtet :)
 
Ist es mit Proxmox möglich, eine Intel IGD an eine Windows 10 VM per passthrough durchzureichen und zusätzlich noch eine Linux VM headless laufen zu lassen?

Falls ja, wo gibt es Tutorials bzw. wo steht das in der Doku?
 
Ich habe da eine Frage zum Thema VLAN´s im Proxmox.
Passt jetzt nicht unbedingt hier rein, aber ich vermutet das die Basis wohl schon nicht richtig läuft.

Mir fehlt irgendwie das generelle Verständis dafür, zumindest mit dem was ich bisher gelesen und verstanden habe hat es bis jetzt nicht geklappt.

In meiner Proxmox Installation läuft eine Sophos UTM der ich beide Ethernet-Schnittstellen als Linux-Bridge zu gewiesen habe.
Läuft so weit auch alles.
Nun möchte ich jedoch die Wireless Protection der Sophos nutzen und damit ein internes und eine Gäste-WLAN aufspannen.
Dazu habe ich mir einen TP-Link C7 geholt und OpenWRT drauf geflasht und aktuell alle LAN-Ports und die beiden WLAN-Schnittstellen zu einem LAN zusammen gefasst.

Der VM habe ich dann zwei weitere Netzwerkschnittstellen zugewiesen, diese mit de VLAN´s die ich für die beiden WLAN´s vorsehe.
Die Schnittstellen in der UTM eingerichtet und den DHCP aktiviert.

Wenn ich nun versuche mit dem Handy zu connecten, bekomme ich keine IP zu gewiesen. Habe dann auch versucht die im TP-Link erstellen Interfaces über die Shell der UTM zu pingen
jedoch keine Antwort.

Gegoogelt habe ich zwar und im Wiki was gefunden, jedoch so ganz verstehen tue ich das nicht.
Habe unter der "allgemeinen" Netzwerkeinstelleungen auf der Linux-Bridge den Haken "VLAN aware" gesetzt und die ganze Kiste neu gestartet.

So langsam weiß ich nicht weiter. Hat jemand nen Tipp für mich?
 
Ich habe eine Verhaltensfrage zu Proxmox, wenn eine VM runtergefahren ist und ich habe Festplatten im Passthrough, fahren diese dann ebenfalls herunter oder laufen die weiter?
 
Die gehört nach dem runterfahren ja wieder dem Host Kernel, der wird die also behandeln, wie alle anderen auch. Die sollte weiterlaufen, wenn du nicht per hdparm oder so etwas anderes definierst.
 
Ich habe bisher nur Erfahrungen mit ESXI gemacht und da ging sowas gar nicht.
Da ich aber gerne ZFS als Filesystem für den Filer behalten möchte gingen meine Versuche bisher in die Richtung Proxmox und Napp-it als Wif zu vereinen. Wenn das wie von dir beschriebenen funktioniert, würde das aber bedeuten ich kann den Controller samt HDDs in die VM durchreichen solange sie läuft, und nach dem shutdown gehört die HW wieder Proxmox und ich kann via hdparm die Platten schlafen legen?
 
Hallo,

hab mir proxmox auf meinen server aufgesetzt um drauf 2 vms laufen zu lassen
1. OMV
2. Win 10 als spieleserver
Leider bekomm ich es nicht hin den VMs eigene IPs zuzuweisen.
Zwar hab ich OMV eine IP zuweisen können, nach jedem Neustart ist das aber wieder rückgängig gemacht.
Hab dann versucht mit CM und dessen Editor in der /etc/network/interfaces fest zuzuweisen, aber scheitere daran.
Der Editor fragt mich immer welchen Editor ich verwenden will, aber egal was ich drücke , da is nix zum editieren.
Bin ich so blind?
Kann mir da wer weiter helfen?
 
@drackrochma

die IP für die Anwendung musst Du innerhalb der Anwendung setzen.
Am Bsp. OMV setzt Du die feste IP unter Netzwerke -> Schnittstellen innerhalb von OMV.

Bei der VM Konfiguration für OMV gibst Du nur die "Netzwerkkarte" mit d.h. zum Beispiel vmbr0 oder vmbr1.

Gruß
 
Vielen Dank, manchmal ist es einfach zu einfach :)

Da mir ja so schnell geholfen wurde, hier gleich die ncäshte Frage:
Ich hab zur Installation von Proxmox meine Datenplatten abgeklemmt.
Diese würde ich ejtzt eigentlich gerne nachträglich einbinden.
Aber dazu finde ich keine Möglichkeit.

Bei Storage kann ich die Platten nicht finden.
Was für tomaten hab ich diesmal auf den Augen?
 
ja, die sollen im OMV zur Verfügung gestellt werden

120GB SSD mit Promox und darauf dann OMV und Win10
Win10 für Spieleserver/TS...
OMV und Owncloud für die Datenbereitstellung im LAN /W-lan

In OMV kann ich nur einbinden was ich in Promox für OMV freigegeben habe, oder?


Wobei mir grdae aufgefallen ist, dass von der 120er SSG nur knapp über 70 GB im Promox angezeigt werden.
Gibts da irgendwelche Beschränkungen?
Mit 70 GB dürfte für die 3 OS und die Serverdaten der Spiele etwas eng werden...
 
Dann kannst du die Platten direkt per Passthrough durchgeben

in /etc/pve/qemu/VMID.conf:

Code:
virtioX: /dev/disk/by-id/...
virtioY: /dev/disk/by-id/...
virtioZ: /dev/disk/by-id/...

X, Y, Z bitte durch Zahlen ersetzen, die den bereits vorhandenen Platten folgen ;)
 
Danke schon mal, aber jetzt mal wieder zu ner peinlichen Frage:
Wie bearbeite ich die Dateien?
habs mit CM versucht aber da kann ich bei [F4] fürs Edit nur aus 3 Editoren wählen, aber keiner tut was...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh