[Sammelthread] Proxmox Stammtisch

Joah, ist 'ne Wohlfühlecke hier im großen weiten bösen Internetz... :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat wohl tatsächlich mit der CPU Einstellung zu tun gehabt... scheint zu laufen.
1717622885100.png

1717622969317.png

1717623036725.png


Gab dann noch ab und zu so gelben Kram von snapd ... waren einfach zu viel Zeilen...
Ist das irgen dein fuckup von einem Ubuntu Update?

Wird Zeit ein EndeavourOS zu testen.
 
Sei froh, dass du keinen EISA-Bus mehr hast. =)
Scheint ein Überbleibsel aus der Emulation zu sein (hatte der 440FX überhaupt noch EISA?)

Das snap ist der snap-Daemon, der versucht wohl Snapd-Strukturen auf den Partitionen zu finden.

Und zu guter Letzt: fehlende ATA/SCSI Kommandos habe ich auch unter Proxmox in der TrueNAS-VM, ist nicht schlimm, einfach irgendwelche Kommandos nicht emuliert, scheint ja zu laufen also wars nicht wichtig. =)
 
Ist dann doch nochmal gecrashed...
Intressanterweise crasht es wenn man im Firefox Kram macht.
Jetzt ist mir gerade gekommen, dass ich in der neuen VM vom Firefox die Hardwareunterstützung im about:config wohl noch nicht abgedreht habe, evtl. gibts damit ein Problem...?

Hab letztens stress-ng --random laufen lassen, alles easy gewesen.
 
Ist dann doch nochmal gecrashed...
Du solltest einen eigene Thread aufmachen oder im Truenas-Forum posten, da Du nicht Proxmox benutzt. Ich selbst nutze VMs in Proxmox nur für Server ohne GUI, keine Ahnung, was eine vollwertige Desktop-Nutzung darin anrichten würde. 😉
 
Ja, wusste nicht, dass das so ausarten wird. Werd ich dann mal, wenns wieder kommt.
 
Hallo,
an was kann es liegen!
Das meine Netzwerkkarte nur 2,5 GB macht?
Es ist ein Intel X710-AT2 und sollte 10 GB machen.

Code:
root@proxmox:~# ethtool en10gb1
Settings for en10gb1:
        Supported ports: [ TP ]
        Supported link modes:   100baseT/Full
                                1000baseT/Full
                                10000baseT/Full
                                2500baseT/Full
                                5000baseT/Full
        Supported pause frame use: Symmetric Receive-only
        Supports auto-negotiation: Yes
        Supported FEC modes: Not reported
        Advertised link modes:  100baseT/Full
                                1000baseT/Full
                                10000baseT/Full
                                2500baseT/Full
                                5000baseT/Full
        Advertised pause frame use: No
        Advertised auto-negotiation: Yes
        Advertised FEC modes: Not reported
        Speed: 10000Mb/s
        Duplex: Full
        Auto-negotiation: on
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        MDI-X: Unknown
        Supports Wake-on: g
        Wake-on: g
        Current message level: 0x00000007 (7)
                               drv probe link
        Link detected: yes

Mein Netzwerk Switch zeigt an, das die mit 2,5 GB verbunden sind.

Gruß Enrico
 
Zuletzt bearbeitet:
Hallo,
an was kann es liegen!
Das meine Netzwerkkarte nur 2,5 GB macht?
Es ist ein Intel X710-AT2 und sollte 10 GB machen.

Code:
root@proxmox:~# ethtool en10gb1
Settings for en10gb1:
        Supported ports: [ TP ]
        Supported link modes:   100baseT/Full
                                1000baseT/Full
                                10000baseT/Full
                                2500baseT/Full
                                5000baseT/Full
        Supported pause frame use: Symmetric Receive-only
        Supports auto-negotiation: Yes
        Supported FEC modes: Not reported
        Advertised link modes:  100baseT/Full
                                1000baseT/Full
                                10000baseT/Full
                                2500baseT/Full
                                5000baseT/Full
        Advertised pause frame use: No
        Advertised auto-negotiation: Yes
        Advertised FEC modes: Not reported
        Speed: 10000Mb/s
        Duplex: Full
        Auto-negotiation: on
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        MDI-X: Unknown
        Supports Wake-on: g
        Wake-on: g
        Current message level: 0x00000007 (7)
                               drv probe link
        Link detected: yes

Mein Netzwerk Switch zeigt an, das die mit 2,5 GB verbunden sind.

Gruß Enrico
Wie lang ist die Strecke zwischen Rechner und Switch? Was ist das für ein Switch? Was für ein Kabel wurde verwendet (Cat5, Cat6, Cat6a, Cat7)?
Ist das Kabel direkt an den Port von Switch und Netzwerkkarte gesteckt oder sind da Dosen dazwischen? Kann alles Einfluss haben, daher solltest du das mit Aufzählen.
 
Nach einem Stromausfall bootet der Proxmox Server nicht mehr.
Ist das noch zu retten?

edit: vim /etc/fstab
disk entfernt und bootet. Aber woher kommt die Disk?
 

Anhänge

  • proxt.JPG
    proxt.JPG
    34,7 KB · Aufrufe: 52
Zuletzt bearbeitet:
Hallo,
das ist ein Switch von Lancom GS-3628X mit Kupfer SFP Module Lancom SFP-CO10-MG bis 30m 10GB.
Firmware 4.30.0071Rel ist auf den Switch.
Netzwerkkabel ist ein Draka UC900 Cat7 S/FTP 2m lang.
Sind beide direkt gesteckt, nichts da zwischen.

Switch.jpg

Oder sind die Module SFP-CO10-MG kappt?

Kann man bei Proxmox auch die Geschwindigkeit fest legen?

Gruß Enrico
 
Zuletzt bearbeitet:
Also lt. Lancom kann dein GS-3628X nur ein Modul SFP-CO10-MG vertragen. Hast du zwei stecken?
 

Anhänge

  • IMG_3911.jpeg
    IMG_3911.jpeg
    185,2 KB · Aufrufe: 28
Ja ich habe da 2 drin!
Eine für den Proxmox Server mit Intel X710-AT2 Port.
Eine für Qnap Nas mit QM2-2P410G1T Karte mit ein 10 GB Port.

Gruß Enrico
 
Nimm mal eine raus. Wenn der Switch dann 10G kann hast du des Rätsel Lösung. Oder wechselst im Server auf eine SFP+ Karte, ist eh effizienter als die 10G Base-T Sachen.
 
Werde mal eine raus nehmen und den Switch neu starten!
Server auf eine SFP+ Karte wechseln, ist ein bissel schwierig! Ich habe ein Asrock RackB550D4ID-2L2T und im PCIe x 16 ist eine U2 Karte drin für die Platten.
 
Hallo,

ich habe mal das Netzwerk Kabel ein 1 GB, 2,5 GB und wieder in die 10GB gesteckt.

Advertised pause frame use: No
Advertised auto-negotiation: Yes
Advertised FEC modes: Not reported
Speed: 10000Mb/s
Duplex: Full
Auto-negotiation: on
Port: Twisted Pair
PHYAD: 0
Transceiver: internal
MDI-X: Unknown
Supports Wake-on: g
Wake-on: g
Current message level: 0x00000007 (7)
drv probe link

Bei Speed wurde immer das richtige Angezeigt, 1 GB, 2,5 GB und 10 GB.
Und wenn eine Monitor an Proxmox dran ist, kommt
vmbr0: prot 1 (en10gb1) entered disabled state
140e 0000:21:00.0 en10gb1: NIC Link is Up, 10 Gbps Full Duplex, Flow Contro: None
vmbr0: prot 1 (en10gb1) entered blocking state
vmbr0: prot 1 (en10gb1) entered forwarding state

Wenn man es bei 2,5 GB verbindet, kommt das ihr
140e 0000:21:00.0 en10gb1: NIC Link is Up, 2,5 Gbps Full Duplex, Flow Contro: RX
vmbr0: prot 1 (en10gb1) entered blocking state
vmbr0: prot 1 (en10gb1) entered forwarding state
140e 0000:21:00.0 en10gb1: DCB is not supported for X710-T*l 2.5/5G speeds

Dann sollte das doch bei Proxmox gehen, oder?
Zeigt mein Switch auf seiner Web Interface Seite das nicht richtig an.

Gruß Enrico
 
Es ist ein neues Proxmox Update verfügbar auf v8.2.4 und auch mit Kernal Update.

In meiner Übersicht der VM fehlt beim Knoten, bei den VMs, und beim Storage das Status Symbol (grünes Dreieck, rotes Kreuz etc),
stattdessen wird nur das Fragezeichen angezeigt.

Ist da bei Euch auch so ?
 

Bin nicht der einzige, aber triit wohl nur vereinzelt auf.

Temporäre Lösung nach reboot:
> systemctl restart pvestatd

Nachtrag:
Hier der Post aus dem Proxmox Forum dazu:
 
Zuletzt bearbeitet:
Lösung:

Das Problem tritt anscheinend auf, wenn man einen ESX Storage gemounted hat.
Bei mir: Singlehost - 1x m.2 SSD + 1x ESX mount

Storage "local" + "local-lvm" sind nach dem booten grau/mit Fragezeichen.
Stattusanzeige für Datacenter und laufende VMs folgen nach 5 minuten.

Shell > "systemctl restart pvestatd" löst das Problem bis zum nächsten reboot.,

Nächster Versuch:
System neu gestartet - Storage grau wie beschrieben.
Mounted ESX Storage gelöscht ---> die Storages werden sofort grün,
und bleiben auch so, auch nach reboot.

Es kann aber sein, das der Fehler noch bei anderen Konstellationen auftritt.
 
Eine Frage, vermutlich an @Supaman
Ich habe ja einen Cluster aus drei Nodes, nur zum Zwecke der "einfacheren" Administration erstellt, es wird kein HA, Ceph oder gemeinsamer Storage genutzt.
Zwei der Nodes sind VPS im Internet, einer läuft lokal bei mir zuhause.
Nun wird ein VPS bald nicht mehr existieren und ich mache mir Sorgen wegen dem "Quorum", ohne genau zu wissen, was das eigentlich ist.

Wäre es sinnvoll, direkt einen neuen VPS zu buchen, bevor der alte ausläuft?
Oder kann ich die lokale Installation irgendwie priorisieren?
Oder wäre es vielleicht besser, den Cluster aufzulösen (ggf. wie), denn wirklich brauchen tue ich ihn ja nicht.

Bin auf deinen Einschätzung & Rat gespannt.
 
Grundsätzlich ist es ein Cluster mit einer geraden Anzahl an Nodes nicht zu empfehlen, da es sonst bei internen Aushandlungen zwischen den Nodes zu einer Pattsituation kommen kann und dadurch deine VMs/Container auf Read-only gesetzt werden könnten.
Man kann die ungerade Anzahl an Stimmen auch durch ein sogenanntes QDevice erreichen. Das QDevice kann man z.B. auf einem übrigen Raspberry Pi oder notfalls auch in einer VM installieren.
https://pve.proxmox.com/wiki/Cluster_Manager#_corosync_external_vote_support
 
was ist daran kompliziert?
1. Pi fertig machen mit qdevice: apt install corosync-qnetd
dann:
2. auf allen pve: apt install corosync-qdevice
3. alle Hosts dem Quorum bekannt machen, ALLE HOSTS MÜSSEN ONLINE SEIN
auf einem pve: pvecm qdevice setup <QDEVICE-IP>

das wars.
 
@millenniumpilot In der obigen Anleitung wird davon abgeraten, das bei einer ungeraden Anzahl von Nodes zu machen, auch wenn ich nicht verstehe warum.
Letztlich brauche ich den Cluster halt auch nicht.
 
Hallo zusammen, ich bin gerade dabei mich mit proxmox vertraut zu machen. Habe eine verständliche Anleitung gefunden eine VM mit truenas scale aufzusetzen. Davor wurde für die Verwendung hdds einzeln durchgereicht.

Wenn ich nun die VM starten möchte, bekomme ich folgende Fehlermeldung:

qemu exited with code 1

Hier die Anleitung welcher ich gefolgt bin:

Über die Google Suche könnten unterschiedliche Punkte die Ursache sein. Hätte aber gerne euren Rat bevor ich wild herum probiere. Das ganze soll schließlich die Basis für mein Nas sein. Vielleicht hat jemand von euch schon eine ähnliche Situation gehabt und weiß eine Lösung?
 
@BobbyD

Quorum Devices etc braucht mnan nur bei HA Konstellationen, weil irgendeine Instanz ja bei Fehlern entscheiden muss, wer den Hut auf hat.

In Deinem Fall besteht Dein Cluster ja nur aus Member Servern, die aber ohne HA arbeiten -> also kein Quorum etc notwendig.

Wenn der Node irgendwann rausgenommen werden soll, sollte man den ganz normal lt. Anleitung entfernen, sonst steht der halt bei den verbliebenen immer noch als Offline links im Menü.
 
@Kurzschluss[A]:
Was schreibt denn das ProxMox-Log dazu?
Muss ja an irgendwas liegen.
Laut der Anleitung reichst du aber auch hier die Platten einzeln durch (oder kommt da nach dem durchreichen der Platten nochwas mit nem Controller)?

Man merkt aber, dass der Typ recht jung ist: "...Es Cee Es Ei..." :ROFLMAO:
Das heißt "SKASSY"!!!1!elf! :wall::d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh