[Sammelthread] Proxmox Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein. Bisher hab ich den ESXI am laufen und konnte mich noch nicht durchringen alles neuzumachen.
Im Falle der Cinse S2 erkennt der ESXI bereits nur ein Unknown Device aber das ist kein Thema für diesen Thread.
 
Besorg Dir doch ne kleine SSD und teste das mal mit Proxmox. Wenns nicht klapt, fährst Dein ESXI wieder hoch.
 
Ja so einfach ist das net. Gewisse Dienste können nicht all zu lange offline sein.
BTW USB Passthrough geht mit Proxmox?
 
Was heisst "nicht zu lange"? Installation mit Test dauert da keine Stunde.

USB: Ja geht prinzipiell, wobei ich auch da einen Fall habe, wo es nicht geht :) Musste dann den ganzen USB-Controller durchreichen.
 
Ja und hier auch ein schöner Link dazu.

Nachtrag mit Bezug auf pumuckels nächsten Beitrag: Die Durchreiche mit Hilfe von VT-D gilt natürlich für PCI Passthrough. Will man immer nur per PCI-E angebundene SATA/SAS-Controller (und die Summe der konnektierten HDDS für ZFS) durchreichen, assoziiert man irgendwann für sich selbst den Begriff Passthrough nur noch mit PCI Passtrough. :)
 
Zuletzt bearbeitet:
Was heisst "nicht zu lange"? Installation mit Test dauert da keine Stunde.

USB: Ja geht prinzipiell, wobei ich auch da einen Fall habe, wo es nicht geht :) Musste dann den ganzen USB-Controller durchreichen.

Das heisst das in der Regel nach 5 bis 10 min mein Telefon geht was denn los wäre ;)

Den ganzen Controller durchreichen wäre stand jetzt nicht undbedingt ein problem.
 
und wenn du nen snapshot erstellst und den in ne 2. vm packst oder baremetal irgendwo installierst um das zu testen?
 
Mal ein kleines Update zu meinem PCI-Passthrough-Problem.
Habs mit der Anleitung von Fischje hingekriegt, den Controller mit dem 3.10er-Kernel durchzureichen (danke für den kleinen Guide, Fischje ;) ). Aus Neugierde, hab ich dasselbe dann nochmals mit dem 2.6.32-Kernel versucht und bin auch da endlich erfolgreich gewesen.
Denke bei mir lags am fehlenden

depmod -aeF /boot/System.map-2.6.32-32-pve; update-initramfs -u -k $(uname -r)

Meine 2.6er Config für die XPenology-VM enthält nun zusätzlich:
machine: q35
hostpci0: 05:00.0,pcie=1,rombar=off

Hab soweit ein paar Files draufgehauen und hatte vollen Speed (115MB/s). Morgen werd ich mal noch ein paar Pakete installen und laufen lassen. Wenn dann alles läuft, werden endlich die 3*6TB Reds gekauft und mein 1010+ abgelöst. :)
 
Hi,

Ich plane demnächst mir dem Dell T20 zu holen.
Hauptsächlich ist dieser als NAS geplannt, eventuell schmeiße ich dann die HDD aus meinem Gaming-Rechner :)
Da ich aber auch mit ein paar anderen sachen wie Game server oder ein Mumble server rumspielen will soll ein Hypervisor auf dem Server drauf.

Da gefält mir Proxmox ganz gut, auch wegen der übersichtlichen Web-Oberfläche :)
Habe es bis jetzt in Virtualbox auf meinem Laptop angetesten und bin so weit zufrieden auch wenn es eine Quall ist da die VM's in der VM unterirdisch lahm sind.

Ich würde gerne ZFS einsetzen, sowohl wegen des guten SW Raids, der Sicherheit vor Datenkorruption und Snapshots (und ja ich weiß, dass das alles immer noch kein backup ersetzt ;) )
Nur habe ich, als ich mich mit FreeNAS beschäftig habt gelesen, dass dort vom einsatz in einer VM abgeraten wird, oder man mindestens einem Controller an die VM durchreichen soll.
Bei Proxmox kann man ja ZFS direkt auf dem Dom0 laufen lassen um dieses problem zu umgehen.

Nur wie mache ich da das am besten mit der Verwaltung der Freigaben?

Muss ich das aus der Konsole machen oder kann ich da was nachinstallieren um eine Web GUI zu kriegen wie bei OMV oder FreeNAS.

Oder erstelle ich da eine VM und erstelle dazu eine Virtuelle Festplatte auf dem ZFS?

Falls es dazu irgendwo eine gute Anleitung gibt, bitte her damit :bigok:
 
Ok, danke dann werde ich demnächst paar Befehle lernen und schauen wie aufwändig das ganze ist :)

Zum Glück bastellt man an dem Freigaben nich ständig rum.
 
so ist es. erstellst du eine vm, erstellst du der vm vorher halt ein zfs volume.

ich nutz es mittlerweile aber wieder nicht. ich will ein aio anwenderfreundliches ding bekommen. :)
 
Dann melde dich mal wenn du sowas gefunden hast ;)

Die Festplatte wo ich Proxmox installiere, kriege ich wohl nicht in ZFS formatiert oder?
 
natürlich.

proxmox läuft auf debian/linux.

zfs on linux - da gibts auch ne wunderbare anleitung für zfs nachzuinstallieren auf debian mit paketquellen.

von der reihenfolge würde ich aber debian installieren, dann zol und dann am schluss wenn dein zfs schon gut läuft, proxmox hinterher. Wenn das klappt lass es mich wissen, war mir bisher zuviel aufwand.
 
Zuletzt bearbeitet:
Hallo,

ich wollte nochmal fragen welches Storage ihr mit euren Hosts betreibt. (Hardware und Software) und wie ihr Sie angebunden habt. iSCSI?NFS?
 
Storage wird beim kleinen Cluster (3 Nodes) via Ceph gemacht. Vorher lief es via DRBD + LVM lokal auf zwei Hosts
 
Ceph will ich auch schon länger mal ausprobieren.
Momentan wird NFS und das Shared-Lun eines Intel Modular Servers benutzt.
 
Frage an diejenigen, die per NFS angebunden haben: Was für Werte habt Ihr bei "pveperf" auf den NFS-Mount?
Ich hab wie schon erwhänt ein AIO mit Nas4Free (ZFS) als Datastore, der per NFS an Proxmox geht. Trotz SSD-Mirror hab ich einen grottenschlechten Wert bei pveperf:

FSYNCS/SECOND: 307.59

Wäre nett, wenn diejenigen, die ebengfalls per NFS angebunden haben, mal Ihre pveperf-Werte posten könnten, incl. der Info was für ein Datastore dahinter hängt.
 
Ich bräuchte mal nen Rat von jemand erfahrenem... ich hab mir schon nen Ast gesucht und komm nicht wirklich weiter...

Ziel: Proxmox (v3.3) mit Channel-Bond über LACP mit zwei e1000 und darauf VLAN-Trunking
[Läuft auf nem Dell T20 mit einer onboard e1000 und einer zusätzlichen dual-port e1000 NIC]

Ich hab den Channel hinbekommen, er taucht als (OVS) bond0 auf und handelt auch eine LAG erfolgreich mit dem physischen Switch aus.
[Funktionierte auch als native Access Port]

Nun weiss ich aber nicht mehr weiter, wie ich darauf einen Trunk (802.1q) setze, über den (momentan) 3 VLANs
transportiert werden, VLAN 1,10,11. (Meinen Switch kann ich einstellen, ob VLAN1 als default VLAN tagged oder untagged kommt.

Kann ich das über die Proxmox GUI einrichten, oder, wenn nicht wie richte ich es ein, so dass ich später in der GUI für eine VM
jeweils wählen kann in welches VLAN sie connected? Die meisten VMs dürften erst mal nur Access ports haben, d.h. nur in einem
VLAN. Für virtuelle Firewalls oder ähnliche Spielereien evt. später dann nen Trunk in den Guest ('Firewall on a stick'), das ist aber
noch Zukunftsmusik.
Muss ich dafür 'Fake-bridges' einrichten, eine pro VLAN? Sind diese der übergeordneten OVS bridge (im Moment vmbr1) zugordnet?
Gibt es eine Möglichkeit das trunking zu debuggen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh