[Sammelthread] Proxmox Stammtisch

Hallo zusammen
Ich habe in meinem Proxmox PVE eine Dlock 4er Lan adapter eingebaut, dieser wird auch ohne Problem erkannt, jedoch wie kann ich die Mac Adressen der verschiedenen NIC's auslesen?
Besten Dank für die Info..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es gibt die sogenannte Bash-Completion.
Wenn Du auf der Konsole z.B. mit a beginnst und dann zweimal Tab drückst, listet er Dir alle Befehle auf, die mit a beginnen usw.
Die unter Debian/Proxmox standardmäßig verfügbaren Kommandos dürften eine mittlere vierstellige Anzahl sein.

Anleitungen gibt es dazu auch. Meist eine Man-Page, z.B. "man ip" oder zumindest einen Kurzüberblick: "ip --help".

Das waren die Antworten auf Deine Fragen - für einen Einstieg in die Linux Kommandozeile ist das aber kein zielführendes Vorgehen, wie Du Dir wahrscheinlich schon dachtest.
Wenn Du Dich mit der Kommandozeile auseinander setzen willst, würde ich Dir empfehlen, einen Debian 10 LXC zu installieren und darauf dann zu experimentieren.
Z.B. anhand solch einer Einführung: https://www.debian.org/doc/manuals/debian-reference/index.de.html
Beitrag automatisch zusammengeführt:

Nachtrag: die Debian Referenz ist jetzt auch nicht ideal, um daraus zu lernen. Leider habe ich gerade keine passenden Einsteiger Links zur Hand.
Ich hatte mein Initialwissen mal aus Büchern, aber das ist rund 20 Jahre her und wirklich den Umgang lernen wird man erst, wenn man wirklich damit etwas tut.
 
Zuletzt bearbeitet:
Guten Abend allseits,

aktuell läuft bei mir Proxmox 6.1-8 in einem ZFS Raid1 Mirror, die LXC Container liegen ebenfalls in diesem Pool.
Der reine Storage Pool besteht aus 4x Raid1 Mirrors und wurde jeweils per Mountpoint in den LCX Containern eingebunden.

Bestehender Server:
MicroServer G8, 16GB ECC RAM, E3-1265Lv2
rPool auf B120i (AHCI), Data Pool auf LSI-9217-8i (IT)

Neuer Server:
X10SRM-F, 128GB ECC RAM, E5-2699v3
rPool sowie Data Pool komplett auf C612 onboard. (wollte den LSI HBA einsparen, gute Idee?)

Es ist evtl. kompletter Schwachsinn aber ich frage mal ganz einfach ob es so möglich ist, es wäre zumindest für mich so am einfachsten.
Kann ich ganz einfach alle SSDs sowie Festplatten im neuen Server einbauen und erfolgreich in Betrieb nehmen ? (korrekte BIOS Konfiguration vorausgesetzt)
Ich habe gelesen das die NICs neu konfiguriert werden müssen wegen neuer MAC Adresse, Stichwort "/etc/udev/rules.d/70-persistent-net.rules".

Ich hätte am bestehenden Server alle LXC Container beendet und jeweils Autostart deaktiviert bevor es losgeht.
Backups der wichtigen Daten sowie der LCX Container sind vorhanden.

Ich hoffe das ich nichts relevantes vergessen habe, falls doch werde ich nachbessern.

Vielen lieben Dank !


Code:
        NAME                                          STATE     READ WRITE CKSUM
        rpool                                         ONLINE       0     0     0
          mirror-0                                    ONLINE       0     0     0
            ata-MK0800GCTZB_BTTVxxxxx1YT800JGN-part3  ONLINE       0     0     0
            ata-MK0800GCTZB_BTTVxxxxx0PQ800JGN-part3  ONLINE       0     0     0

errors: No known data errors

        NAME                                          STATE     READ WRITE CKSUM
        data                                          ONLINE       0     0     0
          mirror-0                                    ONLINE       0     0     0
            ata-WDC_WD30EFRX-68EUZN0_WD-WMC4N27xxxxx  ONLINE       0     0     0
            ata-WDC_WD30EFRX-68EUZN0_WD-WMC4N27xxxxx  ONLINE       0     0     0
          mirror-1                                    ONLINE       0     0     0
            ata-WDC_WD30EFRX-68EUZN0_WD-WMC4N27xxxxx  ONLINE       0     0     0
            ata-WDC_WD30EFRX-68EUZN0_WD-WMC4N27xxxxx  ONLINE       0     0     0
          mirror-2                                    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E16xxxxx  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E16xxxxx           ONLINE       0     0     0
          mirror-3                                    ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E16xxxxx  ONLINE       0     0     0
            ata-WDC_WD40EFRX-68WT0N0_WD-WCC4E12xxxxx  ONLINE       0     0     0

errors: No known data errors
 
Hallo,
ich habe auf meinem DELL T30 Proxmox installiert und soweit läuft auch alles. Über die Mainboard LAN hängt der Sever im Netzwerk und hat z.b. die IP 192.168.178.50 und als Gateway 192.168.178.1.
Bei der Installation wurde eine Linux Bridge vmbr0 angelegt.

Es ist auch eine weitere Netzwerkkarte vorhanden mit 4x LAN die ich für meine VM´s verwenden möchte. Diese befinden sich auch im gleichen LAN und je soll eine eigenen LAN Port zugeweisen bekommen.
Wenn ich aber an dem Ports das gleiche Gateway wie am vmbr0 einstelle kann ich die LAN Schnittstelle nicht konfigurieren.

Was mache ich falsch ?
 
du musst bei den Netzwerkkarten nichts weiter einstellen. Einfach vmbrs (ohne IP) erstellen und gut ist. Der Rest geschieht in der VM/LXC-Konfig.
 
Moin zusammen,
ich bastel aktuell mal wieder an der Thematik des GPU Passthroughs - leider mit einer NVIDIA Grafikkarte. Hat jemand von euch zufällig eine aktuelle Anleitung zur Vermeidung des Code 43 Problems? Ich habe viele Threads im Proxmox Forum gewälzt und einige Tricks und Kniffe ausprobiert - bisher leider ohne Erfolg.
 
Die peoples in diesem Thread spielen viel mit GPU Passthrough herum. Schau mal vorbei. Aber das Thema möchte ich später auch mit meinem Proxmox angehen.
 
Zuletzt bearbeitet:
Hallo zusammen

Ich bin gerade ein wenig am verzweifeln. Ich habe auf meinem NAS einen Ordner mit ISO Dateien, auch in Unterordner.
Ich habe die Freigabe als CFIS eingebunden. Der PVE Server verbindet sich auch erfolgreich zum NAS, jedoch werden die ISO Dateien nicht angezeigt auch keine Unterordner.
Auf das NAS kann ich mich verbinden den die Freigabe habe ich ja auch auch ausgewählt..
Besten Dank für die Hilfe
 
Proxmox erstellt auf den Freigaben unterordner wie "dump" "cache" und "iso" und sowas. da müssen die Dateien rein.
 
Hallo,

ich bräuchte mal ein wenig Hilfe...

Ich baue gerade meinen Backup Server auf und ich habe im Gehäuse (Define XL) genug Platz für Platten. Ich wollte ursprünglich Windows mit Drive Pool nur nutzen. Jetzt habe ich einen IBM M1015 im IT Mode verbaut und wollte Windows mit einer SSD am 1 Port des Controllers installieren. Leider unterstützt das Supermicro X8SIL-F das leider aber so nicht (Anschlüsse des M015 werden nicht im BIOS erkannt. Das das Mainboard nur SATA II unterstützt und Windows da irgendwie nicht so performant läuft, hatte ich mich dann entschieden Proxmox zu installieren. Das läuft am SATA II performant genug.

Ursrünglich wollte ich Proxmox auf zwei SSD's im Raid Z1 installieren. das macht aber am SATA II aus meiner nicht so viel Sinn, da da dann auch der Store für die VM's darauf liegen sollte.

Jetzt wäre meine Idee Proxmox auf einem Stick oder SSD zu installieren, zwei SSD an den M1015 im Raid für weitere VM's und einen weiteren Controller, oder auch nur die Platten durchreichen an eine Windows VM mit Drivepool. Ich könnte die die VM's auch auf mein Synology sichern, dann wäre das SSD Raid jetzt nicht zwingend nötig. Dabei bin ich mir nun noch nicht ganz sicher und wie ich Proxmox (OS) sichere wenn das System nicht auf einem Raid liegt. Ich würde hierzu mal eure Erfahrungen / Meinung hören.

Das ganze läuft nur auf einem Backup System und ich würde darauf dann noch zwei Windows Maschinen, eine Ubuntu Desktop, sowie eine OMV betreiben wollen (Ja, dann kommt auch noch mehr RAM dazu, habe noch zwei Bänke frei). Wenn da mal was kaputt geht und 2-3 Tage nicht funktioniert, dann ist das nicht so schlimm, würde aber ungern Systeme wieder neu aufsetzen.

Lieben Dank schon mal
 
aktuell läuft bei mir Proxmox 6.1-8 in einem ZFS Raid1 Mirror, die LXC Container liegen ebenfalls in diesem Pool.

Hi! Könntest du kurz beschreiben über welchen Weg du das einbindest? Bind Mount auf das Directory? Das geht nur direkt über die config zu editieren, richtig? :-) Danke!
 
Das ist Standard so, siehe Bilder:
 

Anhänge

  • 2020-06-03 14_17_47-seu-proxmox-a - Proxmox Virtual Environment.png
    2020-06-03 14_17_47-seu-proxmox-a - Proxmox Virtual Environment.png
    8,7 KB · Aufrufe: 192
  • 2020-06-03 14_17_29-seu-esxi-a.ad.gojowsky.de – VMware ESXi.png
    2020-06-03 14_17_29-seu-esxi-a.ad.gojowsky.de – VMware ESXi.png
    2,4 KB · Aufrufe: 197
Der reine Storage Pool besteht aus 4x Raid1 Mirrors und wurde jeweils per Mountpoint in den LCX Containern eingebunden.

sorry beim Zitieren hatte ich zuviel abgeschnitten. Mir geht es um die Mountpoints in den LXC Containern, nicht um die ZFS Nutzung für die LXC Container selbst. Ich habe es so gelesen und verstanden, das direkt Verzeichnisse als Mountpoints in die Container gelegt werden. Würde mich nur interessieren was hier der sauberste Weg ist, da ich über die GUI direkt nichts dazu finde.
 
Hallo zusammen , ich möchte Proxmox auf einer 512 GB - Samsung 950 PRO installieren (Homelab). Mit ein paar VM drauf (nix besonderes, W10, Ubuntu, pfSense) - wie ist die ideale Größe? Sollte man auf die ganze Platte installieren und die anderen VMs auch darauf, oder wäre es besser die Platte zu partitionieren? Von ZFS lasse ich mangels ECC RAM lieber die Finger, wenn es Tipps bzgl. SSDs gibt bitte gerne, (Stichwort TRIM) etc.

Besten Dank vorab für Links / Antworten (habe natürlich gesucht, in der DOku findet es sich überwiegend mit ZFS).

Viele Grüße
 
Zum einen, 10-20% OverProvisioning ist sicher von Vorteil. Sonst würde ich einfach so max 50G für Root und den Rest für VMs Partitonieren, macht dann aber der Installer Automatisch.

Aber warum kein ZFS? Das du wegen Ramfehlern deinen Pool zu tode scrubst ist eigtenlich nicht gegeben, vorher würde mitlerweile der Pool aussteigen. Da du aber ehe keine Redundanz hast, kann das garnicht wirklich passiern, weil du ja nichts zum reparieren hast, du endeckst nur die Fehler.
Zudem wenn du nichterkannte Ramfehler hast, machst du dir auf eher kurz als lang jedes Filesystem kaputt.
 
Zum einen, 10-20% OverProvisioning ist sicher von Vorteil.

Dumme Frage, wie aktiviere ich das? Finde nur Thin Provisioning :rolleyes2:

Sonst würde ich einfach so max 50G für Root und den Rest für VMs Partitonieren, macht dann aber der Installer Automatisch.

Das klingt vernünftig! Werde ich dann so machen. BTW: Ich habe noch eine 1 TB und eine 500 GB SSD. Muss man da was beachten? Habe gelesen Cron Job für TRIM.

Aber warum kein ZFS? Das du wegen Ramfehlern deinen Pool zu tode scrubst ist eigtenlich nicht gegeben, vorher würde mitlerweile der Pool aussteigen.

Ja ZFS oder nicht ist die große Frage, da lese ich seit Jahren widersrpüchlichste Sachen. Ja die Vorteile sind da, aber Scrub of Death, Performance. Back Up etc. ist ja alles nicht so ganz trivial... fürs erste will ich erstmal starten, wenn mal alles läuft, dann ggf auf ZFS umsteigen, aber die Lernkurve wird auch so schon steil :-) Apropos:

Thema Bridging, da habe ich folgende Situation / Ausgangslage:.

Router / Modem 1 ----- Router 2 ----- ProxmoxServer -----Hauptrechner

Nun möchte ich verschiedene Szenarien testen. Allen gemein ist aber, dass der ProxmoxServer und der Hauptrechner via 10G verbunden sind, und der ProxmoxServer eine Bridge an den Hauptrechner bilden muss.

Szenario 1:
Server als einfacher Server hinter Router 2. Mit Bridge zum Hauptrechner. Unter Debian hatte ich das so getestet: https://wiki.debian.org/BridgeNetworkConnections

Hat auch funktioniert. Wie würde das unter Proxmox gehen? Genauso? Hab eine zweite Bridge eingerichtet, aber leider keine Verbindung hinbekommen.


Szenario 2:
Router / Modem 1 ----- ProxmoxServer ------Router 2
\------Hauptrechner

Hier wird der ProxmoxServer zum Router (pfsense) würde Router 2 zum Switch / AP degradiert werden, aber es bliebe die Bridge zum Hauptrechner. Habe diese Anleitung gefunden, https://pfstore.com.au/blogs/guides/run-opnsense-in-proxmox aber bin mir nicht sicher, inwiefern das hinhaut.

Szenario 3:
Router / Modem 1 ----- ProxmoxServer
\-Wifi-PCIe-Adapter
\------Hauptrechner

Hier fliegt der 2. Router komplett raus, der Proxmox-Server baut via OpenWRT das Router System inkl. durchgereichtem Wifi Adapter (Asus PCE 88). Nach wie vor der Hauptrechner, muss per Bridge angeschlossen sein.

----
Ich bin mir sicher, das ist nicht so schwer, sehe aber gerade vor lauter Bäumen den Wald nicht mehr, wäre sehr nett, wenn mir jemand aufs Pferd helfen könnte.
 
Szenario 1:
Server als einfacher Server hinter Router 2. Mit Bridge zum Hauptrechner. Unter Debian hatte ich das so getestet: https://wiki.debian.org/BridgeNetworkConnections

Hat auch funktioniert. Wie würde das unter Proxmox gehen? Genauso? Hab eine zweite Bridge eingerichtet, aber leider keine Verbindung hinbekommen.

Bei mir kommen beide Leitungen über Bridge Mode über ihre eigene Router in den Server. Pfsense verwaltet hierbei beide Leitungen und gibt sie über den Netzwerk Switch weiter und verteilt diese im Haus u.a. an die APs (ehemalige Router zu APs geändert).
 
OverProvisioning: Hier z.B.: https://www.thomas-krenn.com/de/wiki/Solid-State_Drive#Spare_Area
Am Einfachsten ist von 500GB partitonierst du nur 400GB = 20% OverProvisioning
Dann hast du mit Trim usw eig auch wenig stress.

Nochmal zu ZFS.: Konvertieren später ist schwer bzw alles platt und dann aus Backup kopieren.
Ja die Vorteile sind da, aber Scrub of Death, Performance. Back Up etc
Scrub of Death: Sehe ich hier nicht als Problem; bei einer einzeln Disk kann das quasi nicht passieren und das OS hat auch Vorkehrungen dagegen.
Backups: Kannst du auch bei ZFS machen wie bei jedem anderen FileSystem.
Performance: Ist auch eig wie bei jedem andern FileSystem; außer das es eher auf Sicherheit statt Geschwindigkeit getrimmt ist.

Zwei Dinge würden wenn gegen ZFS Sprechen:
Raid-Grow: Also Erweiterung eines Raids bzw. Änderung. z.b.: Raid 1 auf 5 oder einem Raid 5 eine weiter Disk zuteilen - das geht nicht.
SSD-Writecache / Storage tiering: SSD Cache geht zwar seit neustem, aber evtl. nicht so wie man sich das vorstellt. Wobei das bei Linux (und andern FS) beides auch nicht trivial ist.

Gerade in PVE bedient sich und Verhält sich ZFS wie die andern Filesysteme, biete nur mehr bzw. andere Möglichkeiten und mehr Datensicherheit.

Zu deinen Netzwerk Fragen:
Alle Szenarien gehen, was du umsetzen willst musst du halt selbt wissen hat alles Vor und Nachteile.
Wobei ich den Sinn von 2 nicht ganz verstehe.
 
Zuletzt bearbeitet:
Hallo,

eine kurze Frage: Ich möchte in einem LXC-Container einen Samba-Server installieren. Muss es ein privilegierter Container sein oder geht auch ein unpreviligierter?

Danke
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh