[Sammelthread] Proxmox Stammtisch

Top zeigt nix besonderes. Treiber nutze ich nur virtio.

Wenn ich per rdp kopiere, dann wähle ich in der rdp eine samba oder nfs freigabe und kopiere dann. Das sollte keine leistungseinbußen darstellen. Und die crystaldiskmark benchmarks habe ich von ner workstation über samba gemacht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jo bin grad auch am testen, wobei ich Storage Achive und 7/24 nie im gleichen laufen lasse (da ich jedoch Consumer HDDs einsetze wäre ein 2. Corral ideal - dann kann ich das HW Raid aufgeben)

Und wie sind deine Erfahrungen? Bisher bin ich nicht mit FreeNAS Corral nicht glücklich geworden. Die Menüs sind teilweise unlogisch. Die deutsche Übersetzung fehlt. Und Bhyve überzeugt mich bis dato gar nicht, da es die Sophos UTM nicht unterstützt bzw. andersherum. :/
 
Top zeigt nix besonderes. Treiber nutze ich nur virtio.

Wenn ich per rdp kopiere, dann wähle ich in der rdp eine samba oder nfs freigabe und kopiere dann. Das sollte keine leistungseinbußen darstellen. Und die crystaldiskmark benchmarks habe ich von ner workstation über samba gemacht.

Ich muss mich heute mal per Kabel anklemmen, dann kann ich dir mal sagen, was mein Samba in LXC so liefert...
 
Ok, habe gerade mal folgendes kopiert:

Datei von einem Samba Share (LXC) auf Festplatte kopiert nach Linux LXC mit X2Go Desktop auf SSD. Dabei sind beide Datastores ZFS auf Luks (siehe Signatur). Das ganze bei ~90MB/s.
 
Und wie sind deine Erfahrungen? Bisher bin ich nicht mit FreeNAS Corral nicht glücklich geworden. Die Menüs sind teilweise unlogisch. Die deutsche Übersetzung fehlt. Und Bhyve überzeugt mich bis dato gar nicht, da es die Sophos UTM nicht unterstützt bzw. andersherum. :/

bisher keine Zeit gehabt mehr als rein die HW Kompa zu testen
 
Zuletzt bearbeitet:
Hmm danke morph. Keine Ahnung, warum das bei mir so langsam ist...Was für Cache-Einstellungen hast du?


Nächstes Problem/Frage: Wenn ich eine Debian-CT erstellen möchte, bekomme ich über die Konsole immer nur ein leeres Fenster, wo ich zwar munter tippen kann, aber nichts passiert. SSH klappt auch nicht. Was mache ich falsch?

Und wenn ich die dann Herunterfahren will, geht das nicht. Und bei Stopp erhalte ich "can't lock file '/run/lock/lxc/pve-config-108.lock' - got timeout (500)"

Edit: Ich habe aktuell eine einzelne 1TB 2.5"HDD verbaut, wo ein paar Daten drauf liegen. Hatte mir eigentlich überlegt eine weitere 1TB HDD zu holen und dann ein RAID1 draus zu machen. Da ich aber 16GB ECC-Ram habe (sollte ja reichen), bin ich am überlegen, ob ich neben dem ZFS-RAID1 bestehend aus zwei 240GB SSDs, nicht noch ein ZFS RAIDZ-1 aus 3* 1TB HDD draus machen soll?

Was meint ihr? Linux Softwareraid oder ZFS? Die aktuelle HDD besitzt 8MB Cache, die neuen würden 128mb besitzen. Bremst die 8MB-Platte aus?

Anwendungsgebiet ist eine kleine private Cloud, die 24/7 läuft.
Große Datenmengen liegen auf einem anderen Server mit Debian und mergerfs/snapraid.
 
Zuletzt bearbeitet:
Hab' immer noch Probleme mit Spindown und smartd. Das Spindown-Intervall habe ich auf 1h festgelegt, zu oft sollen die Platten ja nicht neu anlaufen. Das Polling-Intervall von smartd ist aber kürzer als 1h und "smartd -i 4000" funktioniert irgendwie nicht so, wie erwartet - die Werte werden immer noch öfter abgerufen als eigentlich angegeben. Somit gehen die Platten nie in den Spindown. Mal gucken, ob ich das beheben kann, bis dahin bleiben die Festplatten erst einmal vom S.M.A.R.T.-Monitoring ausgenommen.

Edit: Ich hab's. In /etc/defaults/smartmontools
Code:
smartd_opts="--interval=3900"
gesetzt und nun klappt alles! :) Das Smartd-Intervall (Angabe in Sekunden, bei mir 3900 = 1h und 5 min) muss leicht höher als das Spindown-Intervall sein, dann können die Platten auch in den Spindown gehen.
 
Zuletzt bearbeitet:
Moin Leute,

nur mal so zur Info, ich habe letzte Woche ne kleine passve Qotom CHinaBüchse bekommen und nach erfolglosen veruchen VM zu installieren habe ich mich für Proxmox entschieden.
Was soll ich sagen, es läuft wir geschmiert mit einem Celeron 1900, 8 Gig Ram und 128 Gb SSD.
Installieren müsste ich das Progi über umwege aber problematisch war das echt nicht. Jessie drauf, apt-get angeschmissen und innerhalb halbe Stunde war alles fertig.
Nun versuche ich mich mit dem Einstellungen zu befassen. Was für mich am besten passt und wie es am besten funktioniert.
Ich finde Proxmox ist für den Homebedarf zu VM und anderen Systemen eine gute Alternative.

Gruß
 
Moin Leute,

ich habe gerade festgestellt, dass auf meinem Proxmox die locale ru_RU.utf8 installiert ist.
Das kann ja nicht normal sein, oder? :hmm: Wo kommt die her?

Gruß

Edit: Aaaaah... kann das am vorinstallierten Image von Hetzner liegen? Kann das jemand bestätigen?
 
Zuletzt bearbeitet:
Hi,
ich habe eine Debian 8 und eine Win 7 VM am laufen gehabt. Auf der Win 7 VM habe ich über SMB-Freigabe eine große Rar-Datei auf der Debian 8 Freigabe entpackt. Das habe ich schon öfters gemacht und lief bisher gut. Heute ist aber aufeinmal sowohl die Debian als auch Win VM abgestürzt. Die Win VM läuft nach nem Reboot des Hosts zwar wieder, aber die Debian kann nicht mehr auf die virtuellen HDDs zugreifen. Der macht immer einen fsck und bleibt dann hängen bzw hängt sich auf. In einer anderen VM kann ich die vDisks einbinden...
Was kann ich da tun?

edit: zu früh gefreut. Wenn ich auf diese vDisk zugreifen will, stürzt auch die andere VM ab... Und die WIndows VM stürzt auch irgendwann ab...

edit 2: nachdem ich die Debian VM ein Rollback eines Snapshots verpasst habe, läuft es soweit wieder...

edit 3: Problem gefunden. HDD war voll :fresse:

Ich will aber eh mein Storage-System etwas ändern. Ich will von 1x 1TB nun auf 3*1TB in ZFS RaidZ1 umändern. Wie erstelle ich dieses ZFS RaidZ1 innerhalb von Proxmox?
 
Zuletzt bearbeitet:
Hi,
ich habe eine Debian 8 und eine Win 7 VM am laufen gehabt. Auf der Win 7 VM habe ich über SMB-Freigabe eine große Rar-Datei auf der Debian 8 Freigabe entpackt. Das habe ich schon öfters gemacht und lief bisher gut. Heute ist aber aufeinmal sowohl die Debian als auch Win VM abgestürzt. Die Win VM läuft nach nem Reboot des Hosts zwar wieder, aber die Debian kann nicht mehr auf die virtuellen HDDs zugreifen. Der macht immer einen fsck und bleibt dann hängen bzw hängt sich auf. In einer anderen VM kann ich die vDisks einbinden...
Was kann ich da tun?

edit: zu früh gefreut. Wenn ich auf diese vDisk zugreifen will, stürzt auch die andere VM ab... Und die WIndows VM stürzt auch irgendwann ab...

haste evtl apt-get upgrade statt apt-get dist-upgrade genutzt ?
 
ne, HDD war voll. Hab ich gar nicht mitbekommen...

was aber kurios ist: ich habe eine 600GB große vDisk. Diese ist nur mit ca 15GB belegt. Proxmox meldet mir mit anderen vDisks zusammen eine Auslastung von 750GB, was ok ist, wenn der Platz vorher fest aloziert/reserviert wird. Lade ich nun Dateien in die 600GB große vDisk, wächst die Auslastung auf über 750GB (aber nur im Graph "Auslastung"; die Zahl bei "Status ändert sich nicht) an bis die Disk voll ist, obwohl in der 600GB großen vDisk dann maximal 200GB und insgesamt vielleicht 500GB an Daten gesamt auf dieser HDD liegen. Warum ist das so? Warum "reserviert" der die 600GB um sie dann doch "daneben" zu schreiben? Laut midnight-commander ist die HDD aber nur mit unter 200GB belegt (ohne neue Daten).
Die vDisk hat laut MC nun aber schon eine Größe von 1092GB erreicht. Erstellt der da direkt irgendwelche Backups? Ich habe aber "keine Backups" aktiviert.
 
Zuletzt bearbeitet:
du hast auch immer die seltsamsten Fehler :)
 
Das mag sein, bringt mich gerade aber nicht weiter, warum der eine 600GB vDisk anlegt, aber die 1TB HDD immer mehr füllt.

Laut ncdu ist die vDisk 420GB groß, Tendenz steigend. Belegt ist sie in der VM aber nur mit 30GB....:wut:

Ich werde diese vDisk dann einfach beim Umbau auf ZFS löschen und neu anlegen.

Wie erstelle ich in Proxmox ein ZFS-RaidZ1?
 
Zuletzt bearbeitet:
Das mag sein, bringt mich gerade aber nicht weiter, warum der eine 600GB vDisk anlegt, aber die 1TB HDD immer mehr füllt.

Laut ncdu ist die vDisk 420GB groß, Tendenz steigend. Belegt ist sie in der VM aber nur mit 30GB....:wut:

Ich werde diese vDisk dann einfach beim Umbau auf ZFS löschen und neu anlegen.

Wie erstelle ich in Proxmox ein ZFS-RaidZ1?


stand auf den letzten Seiten
 
Nun belegt die 600GB vDisk 620GB auf dem Host, während in der VM lediglich 110GB in dieser vDisk liegen. Das kann doch nicht sein???

Hier infos:

Code:
qemu-img info vm-101-disk-1.qcow2
image: vm-101-disk-1.qcow2
file format: qcow2
virtual size: 600G (644245094400 bytes)
disk size: 611G
cluster_size: 65536
 
Zuletzt bearbeitet:
Update:
Egal auf welcher HDD, egal welches Dateiformat, egal ob Discard on oder off: Wenn ich Daten aus dem Container lösche, bleibt dennoch der gesamte Speicherplatz auf der HDD belegt. Sprich wenn ich in einer 100GB vDisk 100*1GB speichern und direkt wieder löschen würde, wäre die HDD voll, obwohl die vDisk leer ist. Irgendwo scheint da doch was nicht zu stimmen?

Habe zwar das hier gefunden: Shrink Qcow2 Disk Files - Proxmox VE aber trim funktioniert bei ner HDD nicht und ich habe das Problem ja auch mit RAW und ZFS...

edit: die Lösung ist: "a sane Modern OS in the guest VM (e.g. Linux, newer Windows (successfully tested with 2012R2))
a thin-provisioned backing storage (qcow2 disk, thin-lvm, zfs, ...)
Virtio-SCSI disks with the discard option enabled"

wichtig ist hier, dass die Disk als SCSI angebunden wird. VirtIO unterstützt kein discard
dann muss man einen Cronjob mit fstrim -av (am besten täglich) erstellen.
Und schon klappt es.

siehe auch hier: Qemu trim/discard and virtio scsi - Proxmox VE
 
Zuletzt bearbeitet:
Nächste Frage: Ist es möglich von einer bestehenden vDisk von virtio auf scsi umzustellen?

und wo werden die VMs und Snapshots gespeichert, wenn man sie in einem ZFS-Verbund der Bootplatten erstellt hat? Es muss auf "zd80p5" sein - nur wo finde ich das?

edit: die erste Frage kann ich auch wieder selbst beantworten: Einfach aushängen und dann "bearbeiten" der unused disk.

Ihr seid ja nicht wirklich hilfreich :fresse:

Edit2: Ich gebe die Hoffnung aber nicht auf :fresse2:

Ich habe hier ne VM auf ZFS. Die Datenrate per dd ist 14,7mb/s, ein Test über Samba und Crystal Disk Mark sagt volle Bandbreite. Aber wenn ich per MC intern Daten von unterschiedlichen Laufwerken verschiebe oder per Samba, dann habe ich da nur zwischen 15 und 30 MB/s. Irgendwas stimmt da doch nicht?

Cache auf Writethrough erhöht die Leseperformance, schreiben dafür fällt auf wenige kb/s...
 
Zuletzt bearbeitet:
Habt ihr es geschafft Proxmox/Postfix so einzurichten, dass euch Statusmails geschickt werden?

Ich scheitere alleine daran, dass ich gar nicht weiß, wo ich angeben soll, dass per STARTTLS verbunden werden soll und welchen Port...:fresse:
 
Ihr seid ja nicht wirklich hilfreich :fresse:

Du solltest langsam Geld in die Hand nehmen und Proxmox-support einzukaufen bei all deinen Fragen. Zum einen unterstützt du das Projekt und zum anderen kriegst du auch qualitativ hochwertige Antworten und das wohl schneller als hier.
 
Soviele Statusmails kommen da auch nicht. Ich hab eine VM mit postfix als smarthost. Das Proxmox Forum ist auch etwas besser besucht, vielleicht meldest du dich dort mal noch an ;)
 
Da bin ich auch angemeldet, aber auch da hält sich die Antwortrate in Grenzen :fresse:

Immerhin verbessern sich so meine Linuxkentnisse :fresse2:
 
für den Proxmox Support gibt es eine Lizenz :)

ansonsten die Wiki und 1000ende webseiten
 
Folgende Situation:
Auf meinem PVE läuft ein XPenology aus 4x HDD´s in einem RAID6. Die HDD´s habe ich direkt in die VM durchgereicht.
PVE und alle VM-Disk liegen auf einer SSD.
XPenology stellt mir u.a. zwei NFS Shares zur Verfügung.

Eines nutzt ich für PVE als Backup Storage meiner VM´s und ist unter /mnt/backup gemouted
Das zweite nutze ich als Cloud Speicher. Dieses Share ist in der Cloud-VM gemounted.

Jetzt brummen meine HDD´s die ganze Zeit. In den Einstellungen von XPenology sollten die sich nach 60min abschalten.
Woran könnte dies liegen? Reicht hier schon das mounten der Share´s aus damit immer Zugriff generiert wird?

Das System läuft so jetzt ca 1 Jahr und ansich bin ich zufrieden. Wenn ich hier natürlich noch etwas Einsparpotenzial haben könnte wäre das natürlich auch erfreulich.
 
Zuletzt bearbeitet:
really... "Das System läuft so jetzt ca 1 Jahr und ansich bin ich zufrieden." .. was gibt es da zu überlegen (10e / jahr sparen für "nicht mehr zufrieden" ? )
 
Zuletzt bearbeitet:
@bacon
Abschalten von durchgereichten HDD´s wie auch Smart Werte auslesen geht nicht.
Um das zu können musste schon einen HBA Controller durchreichen an die VM.


Jemand schon Proxmox 5.0 beta ausprobiert ? Auf meinen Gigabyte j1900n-d3v Board kommt er gar nicht bis zum installieren. Mit ALT-F2 sieht man das er Probleme mit X-Server hat.
 
Sehr geil, FreeNAS Corral ist wohl schon wieder vom Erdboden verschwunden und als Tech-Preview gekennzeichnet. Da ist wohl einiges schiefgelaufen :fresse:

IMPORTANT NOTE: It it is not recommended to run FreeNAS Corral. Refer to the announcement for details.
Quelle: FreeNAS Corral - FreeNAS
 
Zuletzt bearbeitet:
Das war ja auch der reine Schrott. Das einzig Gute war, dass ich relativ schmerzfrei zurückwechseln konnte. Da lief ja so rein gar nichts richtig...
 
Hab ein neues Problem mit Proxmox :fresse:

Habe öfters den Server runter- und wieder hochgefahren, ohne ein Problem. Aber jetzt hat der irgendwie von einer Linux-CT und einer Windows VM die Mac-Adressen vertauscht :hmm: Ist das ein bekannter Bug?


#2: Habe versucht eine Ubuntu-CT von 16.10 auf 17.04 upzudaten. Nach einem Neustart nun: ERROR: command 'systemctl start lxc@107' failed: exit code 1
Edit zu #2: Starting impossible of container under Ubuntu 17.04 | Proxmox Support Forum
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh