[Sammelthread] Proxmox Stammtisch

mittlerweilen ist proxi bis auf den Nag Screen echt wunderbar geworden :)

.... früher super für dez Klein Server (2 Platten), nun auch für Alles
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das stimmt bin bisher auch sehr zufrieden damit ! jetzt muss ich nur noch ne lösung finden ein Windows 10 laufen zu lassen das ich per remote zum videos schneiden usw nehmen kann!
 
mittlerweilen ist proxi bis auf den Nag Screen echt wunderbar geworden :)

Wenn du so begeistert von proxmox bist, frage ich mich, was dich davon abhält, dir eine community subscription zu holen. Dann siehst du auch den Nag Screen nicht mehr! ;) Ich habe es kürzlich gemacht.

Proxmox läuft für meine Zwecke absolut stabil, ich kann damit alles virtualisieren und durchreichen und im proxmox forum wird einem auch gut geholfen.

Gute Arbeit bezahle ich gerne! ;)

Viele Grüße Hoppel
 
Wenn du so begeistert von proxmox bist, frage ich mich, was dich davon abhält, dir eine community subscription zu holen. Dann siehst du auch den Nag Screen nicht mehr! ;) Ich habe es kürzlich gemacht.

Proxmox läuft für meine Zwecke absolut stabil, ich kann damit alles virtualisieren und durchreichen und im proxmox forum wird einem auch gut geholfen.

Gute Arbeit bezahle ich gerne! ;)

Viele Grüße Hoppel

der grund ist, dass ich proxi sehr oft aufsetze /auch einfach um HW zu testen ... die produktiven haben ne sub
 
Zuletzt bearbeitet:
Man munkelt,dass man den Nag-Screen abschalten könne^^


Gesendet von iPhone mit Tapatalk Pro
 
Und ist dank GPL noch nicht mal illegal ;)

Privat mach ich das auch...auf Arbeit(en) sind alle Server lizenziert.

Sitz gerade in Chemnitz in einem Vortrag über Proxmox und OpenvSwitch ;)
 
Hier schon jemand proxmox auf nem Ryzen im Einsatz?
 
Man munkelt,dass man den Nag-Screen abschalten könne^^


Gesendet von iPhone mit Tapatalk Pro
Ja. Die SED ... Kenne ich ... Ist aber keine Lösung, sondern ein workaround

... geschrieben von unterwegs (Handy)
 
Die ryzen patches waren im 4.9er kernel, der pve kernel basiert (noch) auf dem 4.4er kernel. Im Zuge des updates auf proxmox5 kommt aber ein 4.10er kernel, dazu wurde auch schon deren git aktualisiert, man kann ihn sich also selber bauen. Werd diese Woche wohl mal ein paar Tests fahren, muss aber mal schauen wie ich Zeit hab.
 
Ich möchte einen Ordner in einem LXC-Container mounten. Mountpoint angelegt, ich sehe auch die enthaltenen Ordner, aber wenn ich in die hineinwechsele, dann werden die leer angezeigt, obwohl sie das nicht sind. Erstelle ich im Container eine neue Datei, dann sehe ich die auf dem Host und umgekehrt. Die Berechtigungen sind zur Zeit auf 755 gesetzt.
Hat jemand eine Ahnung, woran das liegen könnte?
 
Hi,

jetzt wo FreeNAS Corral released wurde bin ich stark am überlegen, welche Lösung ich einsetze. Unter Proxmox habe ich eine FreeNAS VM mit durchgereichten NIC + Storage konfiguriert. Das wäre mit Corral unnötig und könnte Bare-Metal eingerichtet werden. (Btw. warte ich auf einen FreeNAS Sammelthread :d)
 
Zeig mal

Code:
pct config XXX
pct exec XXX mount
Code:
root@proxmox:~# pct config 104
arch: amd64
cores: 8
hostname: Fileserver
memory: 512
mp0: /mnt/Medien,mp=/mnt/Medien
mp1: /tank-4tb,mp=/mnt/tank-4tb
net0: name=eth0,bridge=vmbr0,gw=192.168.178.1,hwaddr=xx:xx:xx:xx:xx:xx,ip=192.168.178.7/24,ip6=dhcp,type=veth
onboot: 1
ostype: ubuntu
rootfs: zfs-containers:subvol-104-disk-1,size=2G
swap: 512
Code:
root@proxmox:~# pct exec 104 mount
rpool/subvol-104-disk-1 on / type zfs (rw,noatime,xattr,posixacl)
/dev/mapper/elements on /mnt/Medien type ext4 (rw,relatime,data=ordered)
tank-4tb on /mnt/tank-4tb type zfs (rw,xattr,noacl)
[...]
Ich bin ein bisschen verwundert darüber, dass die bestehenden Datasets in tank-4tb im Container als leer angezeigt werden, aber wenn ich ein neues erstelle und eine Datei darin anlege, dann sehe ich die. Owner und Group ist in beiden Fällen root, Berechtigungen wie gesagt 755.
 
Ah, sind die Ordner unterhalb von /tank-4tb etwa einzelne Datasets? Das geht dann nicht, musst dur für jedes Dataset ein eigenes anlegen...

- - - Updated - - -

Sieht dann bei mir beispielhaft so aus (mit lxc.mount.entry weil das mp feature nur 10 mountpoints kann)

Code:
...
hostname: fileserver
...
lxc.mount.entry: /data/files/profiles srv/samba/profiles none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/public srv/samba/public none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/windows srv/samba/windows none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/msoffice srv/samba/msoffice none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/it srv/samba/it none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/user srv/samba/user none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/office srv/samba/office none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/pm srv/samba/pm none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/marketing srv/samba/marketing none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/hr srv/samba/hr none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/business srv/samba/business none bind,create=dir,optional 0 0
lxc.mount.entry: /data/files/sales srv/samba/sales none bind,create=dir,optional 0 0
 
Die ryzen patches waren im 4.9er kernel, der pve kernel basiert (noch) auf dem 4.4er kernel. Im Zuge des updates auf proxmox5 kommt aber ein 4.10er kernel, dazu wurde auch schon deren git aktualisiert, man kann ihn sich also selber bauen. Werd diese Woche wohl mal ein paar Tests fahren, muss aber mal schauen wie ich Zeit hab.

R7-1700@3,9GHz, GA-AX370-Gaming 5, 1x 8GB 2133MHz ECC

Also hier mal meine Erfahrungen:
-passthrough des ersten PCI-E Slot funktioniert (noch) nicht, der Zweite (PCI-E3.0 8x) funktioniert aber
-funktioniert auch mit dem pve-4.44.4-1 kernel, also kann man sich die Kompilierung des 4.10er sparen
-1581CB auf 4.44 ohne CPU pinning, 1592CB auf 4.10 mit CPU pinning, 1608CB auf 4.44 mit CPU pinning

Das sieht schon mal ganz gut aus, auch überrascht mich die Leistung, wenn man bedenkt, dass der Speicher zZ nur mit Singlechannel und auf "mageren" 2133MHz läuft und ohne hugepages
 
Ah, sind die Ordner unterhalb von /tank-4tb etwa einzelne Datasets? Das geht dann nicht, musst dur für jedes Dataset ein eigenes anlegen...
Ja, genau. Okay, das wusste ich nicht. D. h., wenn ich ein Dataset tank-4tb/daten habe, dann müsste ich für das und für ein Dataset tank-4tb/daten/pictures auch noch einen Mountpoint anlegen? Dann wären die 10 Mountpoints ja ziemlich fix weg.
Mich hat ein bisschen irritiert, dass ich ein neues Dataset anlegen konnte, während tank-4tb im Container gemountet war und das dann auch normal benutzbar war, die anderen hingegen nicht.
 
Hey,

hab gerade ein Problem mit Proxmox,
mein Dateisystemsetup sieht wie folgt aus

data: zfs (für alle Daten)
vm-data: zfs (für alle vm's)
local: lvm (wird bei der installation ja erstellt)
https://www.hardwareluxx.de/community/images/smilies/graemlins/confused.gif
Jetzt ist local leider die einzige Storage Option die iso unterstützt, da es auf einem 8GB Stick liegt ist nicht mehr viel frei .....
Wollte nun das WS2016 Image hochladen, dafür reicht der Speicher allerdingsn icht mehr.
Alle versuche zfs dazu zu bekommen iso's zu akzeptieren sind leider gescheitert :(

Was hab ich denn für Möglichkeiten? :confused:
 
Bin mir jetzt nicht sicher, ob ich aufm Schlauch stehe ... aber normal sollte man den Typ/Inhalt (z.B. Container, VM Images, Directory, etc) für die Mountpoints in Proxmox recht easy einstellen können, oder nicht? Glaube unter "Storage" war das.
 
Hi,

jetzt wo FreeNAS Corral released wurde bin ich stark am überlegen, welche Lösung ich einsetze. Unter Proxmox habe ich eine FreeNAS VM mit durchgereichten NIC + Storage konfiguriert. Das wäre mit Corral unnötig und könnte Bare-Metal eingerichtet werden. (Btw. warte ich auf einen FreeNAS Sammelthread :d)

jo bin grad auch am testen, wobei ich Storage Achive und 7/24 nie im gleichen laufen lasse (da ich jedoch Consumer HDDs einsetze wäre ein 2. Corral ideal - dann kann ich das HW Raid aufgeben)
 
Zuletzt bearbeitet:
Hey,

hab gerade ein Problem mit Proxmox,
mein Dateisystemsetup sieht wie folgt aus

data: zfs (für alle Daten)
vm-data: zfs (für alle vm's)
local: lvm (wird bei der installation ja erstellt)
https://www.hardwareluxx.de/community/images/smilies/graemlins/confused.gif
Jetzt ist local leider die einzige Storage Option die iso unterstützt, da es auf einem 8GB Stick liegt ist nicht mehr viel frei .....
Wollte nun das WS2016 Image hochladen, dafür reicht der Speicher allerdingsn icht mehr.
Alle versuche zfs dazu zu bekommen iso's zu akzeptieren sind leider gescheitert :(

Was hab ich denn für Möglichkeiten? :confused:

Du musst einen deiner pools irgendwo hin mounten und dann das directory als Storage hinzufügen und für isos freischalten. Direkt aufs ZFS ablegen wird nicht unterstützt auch wenns als eigener pool zumindest möglich wär
 
Der Pool wird doch automatisch gemountet unter /<Poolname>, oder nicht?
 
Hi,
ich habe auf einer 1TB Toshiba HDD einen 600GB großen Container erstellt und in eine Debian 8 VM eingebunden. Wenn ich Von dort (über RDP) eine Datei auf einen anderen Debian 8 Server übertragen möchte (über Samba), habe ich dort nur 38mb/s Datenrate. Woran liegt das? Eigentlich sollte mein Gbit-LAN voll ausgelastet werden...auch wenn ich auf einen Win 10 Rechner was kopieren will, habe ich nur 38mb/s. Kopiere ich von Win an den Proxmox-Gast, dann sind es immerhin 52mb/s

Ich habe mal sequentielles Lesen und Schreiben mit CrystalDiskMark getestet:

VM: Debian 8
HDD1: Lesend 118mb/s; schreibend: 62mb/s
HDD2 (die 1TB): Lesend: 118mb/s; schreibend: 61mb/s
HDD3: Lesend: 118mb/s; schreibend: 59mb/s
SSD: Lesend: 116mb/s; schreibend: 59mb/s

kurioserweise sind die Benchmarkwerte besser als die Praxiswerte.... vor allem aber das Schreiben erscheint mir als sehr langsam.
Cache ist auf "non" eingestellt, bis auf bei der SSD, da steht der auf writethrough und Discard on. Bei den HDDs habe ich iothread aktiviert.


am anderen Debian 8 Server (Direktinstallation) liegt es nicht, der hat sowohl Lesend als auch schreibend 118mb/s.

edit: eine Debian 8 CT mit Nextcloud (AES und SSL verschlüsselt, alles liegt auf einem SSD-ZFS Raid1 und discard on und writethrough um Datenverlust so gut wie möglich vorzubeugen (deaktivieren hat keinen Geschwindigkeitsvorteil gebracht)) hat lediglich 9mb/s übertragungsrate...ist zwar bei meiner 50/5 Leitung nicht soooo tragisch, aber würde ich schon gerne das volle Potential meines Servers ausnutzen.
 
Zuletzt bearbeitet:
Joa, soweit war ich auch schon :fresse: hast du oder jemand anderes einen Tipp?
 
Was für einen Netzwerktreiber hast du eingestllt?
Abgesehen davon habe ich immer das Gefühl Dateiübertragung innerhalb der RDP Session ist nicht das perfromanteste, besser über eine normale Freigabe kopieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh