[Sammelthread] Proxmox Stammtisch

Wahrscheinlich „usb cable broken“, aber dazu findet man auch nichts. Ein Screenshot von der genauen Fehlermeldung wäre gut. [emoji6]

@bluesys Hast du mal ein anderes USB-Kabel ausprobiert oder nur alle Ports mit demselben Kabel getestet?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@martingo @hoppel118 vielen Dank für Euer Intresse, jedoch hat sich mein USB-Problem nach einer neu Installation gelöst.
Jetzt erkennt er alle USB- Ports und -Sticks, was dass jetzt genau war, keine Ahnung.
Ja die Fehlermeldung war in etwa: 111222 usb cabel broken.
 
Ich würde bei mir gerne ein kleines Proxmox-HomeLab aufbauen, um ein aktuelles Proxmox 5.2 mit Ceph als Storage-Engine installieren und testen zu können. Habt ihr da eventuell einen Tipp, welche fertige Hardware man da für die einzelnen Nodes anschaffen sollte? Microserver Gen8 sind ja neu nicht mehr erhältlich, Gen10 noch recht teuer. Gleiches beim Dell T20. Mir geht es vor allem darum Erfahrung auf der Plattform zu sammeln, einiges auszutesten und Benchmarks auszuführen, um das ganze später auf einem Produktiv-Cluster im Rechenzentrum anwenden zu können.
 
Um "Erfahrungen mit der Plattform zu sammeln" und "Sachen auszutesten", spräche nichts dagegen, drei Nodes virtuell aufzusetzen und damit zu experimentieren.
Benchmarks machen damit natürlich wenig Sinn, aber dass Benchmarks auf kleinen SoHo Servern viel mehr Sinn machen, wenn evaluiert werden soll, wie die Performance auf (vermutlich) großen Servern im RZ sein wird, glaube ich eher nicht.
 
Ich würde in diesem Fall echte Hardware bevorzugen, da ich sonst bestimmte Dinge nur schwer abbilden kann. Sicherlich wird die Komponentenauswahl für den Produktivcluster später erneut unterschiedlich sein, mir geht es aber im Grunde vor allem um die erweiterten Optionen die der Cluster bietet (Ceph-Storage, HA, ...). Ein einzelner Proxmox-Server auf Basis eines T20 steht bereits hier, da wäre allerdings die Frage inwieweit es sinnvoll erscheint, noch 2 identische Maschinen nachzukaufen.
 
Schau dich vll mal nach Dell R210 II oder R610/710 auf eBay um. Die bekommt man recht günstig und für nen TestCluster ganz gut. Bei nem R610/710 sollte einer reichen und dann alles virtuelle, genügen CPU und RAM hat der auf jeden.

Bei nem t20 mit nur 4kernen könnte das schon zäh werden. Aber Versuch macht klug. Und das mal auf zu setzen sollte auf jeden gehen.
 
Ich würde im ersten Schritt einfach die Konfiguration aus dem Proxmox-Wiki austesten:
Ceph Server - Proxmox VE

Dafür braucht es sowieso mindestens 3 Systeme, wären also insgesamt 4x3 = 12 nutzbare Kerne (im Falle des T20 mit Xeon). Für das OS selbst hatte ich kleinere SSDs angedacht, dazu für die OSDs jeweils 2TB 7k HDDs und eine gescheite SSD für's Journal. Spannend wäre also in jedem Fall, wieviel RAM in die entsprechende Kiste dann passt und wieviele 3,5" Einschübe zur Verfügung stehen ;) Die von dir vorgeschlagenen Maschinen werde ich in jedem Fall auch mal ansehen...
 
Wie groß muss denn das Boot Laufwerk Minimum sein? Hab's auf einem 8GB SATA DOM versucht, hat aber abgebrochen. Und zu dem Bootlaufwerk finde ich keine Infos in den Requierements
 
Kann mir jemand die Frage beantworten:

Und zwar wäre meine Idee, ein USB 3.1 (A) durchzureichen und dort ein Adapter USB zu HDMI anzustecken. Funktioniert sowas bei Proxmox? Somit könnte ich ein kleineres MB nehmen uns spare mir eine zusätzliche GPU
 
Zuletzt bearbeitet:
Du kannst das Gerät was angeschlossen ist durchreichen. Ich mache das mit einem Z-Wave USB Stick. Ob dein Gastsystem dann was damit anfangen kann, musst du natürlich prüfen.
 
Du kannst das Gerät was angeschlossen ist durchreichen. Ich mache das mit einem Z-Wave USB Stick. Ob dein Gastsystem dann was damit anfangen kann, musst du natürlich prüfen.
Hab ich vor. Bestellung ist unterwegs. Werde dann berichten ob es klappt.

Edit:
Habe von der Firma i-tec ein USB to dual DP bestellt und funktioniert Prima.
Wie bin ich Vorgegangen:

Den USB Port an meine VM durchegreicht
i-tech angeschlossen und per DP am Monitor
VM gestartet
dann über Spice den Teriber von i-tec installiert, fertig. Bild wurde dann sofort am Monitor ausgegeben.
 
Zuletzt bearbeitet:
Was ist eigentlich Sinn und Zweck davon? Gaming VM?
Ich mach kein Gaming.
Ist ein kleines Projekt:
Eierlegende Wollmilchsau
HTPC
Windows
Ubuntu
OMV

4 Systeme in eine. Da der PCIe x16 belegt ist für die GPU (HTPC), nutze ich für Windows und Ubuntu den Adapter. OMV nutze ich per Spice bzw auch SSH

Gesendet von meinem SM-N960F mit Tapatalk
 
Kann man eigentlich einen Proxmox-Host, auf dem sich VMs befinden, die Geräte via PCIe-Passthrough verwendeen, in den S3-Ruhemodus (Suspend to RAM)s chicken, ohne, dass die VMs heruntergefahren werden müssen?

Dass also beim Wiederaufwecken das System inkl. aller VMs genau da weiterläuft...?

Finde ich bei der Desktop-Virtualisierung (VMware Workstation) sehr praktisch, aber leider gibt es ja dort keine Möglichkeit für PCIe-Passthrough.
 
Proxmox supportet offiziell keine Stromsparfunktionen. Teils sind die auch gar nicht nutzbar.
 
Das hört sich jetzt so an, als ob auch die Cpu nicht runtertakten würde.
 
Da ich gerade dabei bin meine PVE-Server inkl. Storage-VM umzuziehen wollte dachte ich darüber nach von NFS auf ZFS over iSCSI zu wechseln.

Wobei ich mir jetzt nicht so sicher bin: Brauche ich dann zweifach den Ram für ARC. Also einmal auf der Storage und einem auf PVE?
Oder macht es mehr "Sinn" vll LVM over iSCSI zu nutzen, bzw. bei NFS zu bleiben.

Was mich gerade irgendwie stört ist wie ich einzelne VM's Snapshot's / Backups erstellen kann und die wieder zurücksetzen. Über PVE geht das ja ganz gut, aber dann nutze ich halt die ZFS Features nicht.

Die Storage-VM ist gerade Freenas.
 
Hallo zusammen,

habe mir jetzt mit Proxmox ein Router gebaut. Eine VM für OPNsense erstellt. Meine Zwei PCIe Nic per Passthrough durchgereicht.
In Proxmox habe ich eine dummy NIC erstellt und eine Brücke erstellt und diese an die VM weitergegeben. Verbindung bist auch.
Habe mal ein iperf Test gemacht auf der PCIe NIC habe ich 1Gbit bei der durchgereichten Brücke habe ich 137 Kbits. Wie kann ich das optimieren, könnt ihr mir ein Tipp geben?

Code:
------------------------------------------------------------
Client connecting to 192.168.11.1, TCP port 25361
TCP window size: 85.0 KByte (default)
------------------------------------------------------------
[  3] local 192.168.11.2 port 48708 connected with 192.168.11.1 port 25361
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.3 sec   168 KBytes   134 Kbits/sec

Code:
Connecting to host 192.168.11.1, port 52141
[  4] local 192.168.11.101 port 53388 connected to 192.168.11.1 port 52141
[ ID] Interval           Transfer     Bandwidth
[  4]   0.00-1.00   sec   104 MBytes   869 Mbits/sec
[  4]   1.00-2.00   sec   110 MBytes   919 Mbits/sec
[  4]   2.00-3.00   sec   111 MBytes   932 Mbits/sec
[  4]   3.00-4.00   sec   112 MBytes   936 Mbits/sec
[  4]   4.00-5.00   sec   112 MBytes   935 Mbits/sec
[  4]   5.00-6.00   sec   111 MBytes   933 Mbits/sec
[  4]   6.00-7.00   sec   112 MBytes   936 Mbits/sec
[  4]   7.00-8.00   sec   110 MBytes   924 Mbits/sec
[  4]   8.00-9.00   sec   112 MBytes   935 Mbits/sec
[  4]   9.00-10.00  sec   111 MBytes   935 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth
[  4]   0.00-10.00  sec  1.08 GBytes   925 Mbits/sec                  sender
[  4]   0.00-10.00  sec  1.08 GBytes   925 Mbits/sec                  receiver

iperf Done.
Code:
bios: ovmf
boot: c
bootdisk: virtio0
cores: 2
efidisk0: local:101/vm-101-disk-1.qcow2,size=128K
hostpci0: 00:19.0,pcie=1
hostpci1: 02:00.0,pcie=1
machine: q35
memory: 2048
name: opnsense
net0: virtio=96:3A:E1:3A:03:5C,bridge=br0
numa: 0
onboot: 1
ostype: other
sata2: none,media=cdrom
scsihw: virtio-scsi-pci
smbios1: uuid=d2500a69-fb6d-4cc1-ad33-3959d40987c4
sockets: 1
startup: order=1
virtio0: local:101/vm-101-disk-0.qcow2,size=11G
vmgenid: 89d438ad-e0ce-4357-8d78-a1e81006738f


Code:
bridge name     bridge id               STP enabled     interfaces
br0             8000.2a5557afaa1f       no              dummy0
                                                                      tap101i0

Code:
br0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.11.2  netmask 255.255.255.0  broadcast 192.168.11.255
        ether 2a:55:57:af:aa:1f  txqueuelen 1000  (Ethernet)
        RX packets 4618  bytes 5377177 (5.1 MiB)
        RX errors 0  dropped 49  overruns 0  frame 0
        TX packets 2842  bytes 308024 (300.8 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

dummy0: flags=195<UP,BROADCAST,RUNNING,NOARP>  mtu 1500
        ether 62:ef:c8:6a:71:43  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 255  bytes 31513 (30.7 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        loop  txqueuelen 1000  (Lokale Schleife)
        RX packets 243  bytes 1167673 (1.1 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 243  bytes 1167673 (1.1 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

tap101i0: flags=4419<UP,BROADCAST,RUNNING,PROMISC,MULTICAST>  mtu 1500
        ether 2a:fc:45:b8:e0:f0  txqueuelen 1000  (Ethernet)
        RX packets 4618  bytes 5441829 (5.1 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 2832  bytes 307593 (300.3 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

Code:
[Match]
Name=br0

[Network]
Address=192.168.11.2/24
Gateway=192.168.11.1
DNS=192.168.11.1

habe MTU mal auf 9000 gesetzt - keine besserung
Bridge STP hab ich mal auf ON gestellt - auch keine besserung

Edit:

Code:
proxmox@proxmox ~ > ip route show
default via 192.168.11.1 dev br0 proto static
192.168.11.0/24 dev br0 proto kernel scope link src 192.168.11.2

Code:
PING 192.168.11.1 (192.168.11.1) 56(84) bytes of data.
64 bytes from 192.168.11.1: icmp_seq=1 ttl=64 time=0.199 ms
64 bytes from 192.168.11.1: icmp_seq=2 ttl=64 time=0.296 ms
64 bytes from 192.168.11.1: icmp_seq=3 ttl=64 time=0.274 ms
64 bytes from 192.168.11.1: icmp_seq=4 ttl=64 time=0.454 ms
64 bytes from 192.168.11.1: icmp_seq=5 ttl=64 time=0.346 ms
64 bytes from 192.168.11.1: icmp_seq=6 ttl=64 time=0.414 ms
64 bytes from 192.168.11.1: icmp_seq=7 ttl=64 time=0.438 ms
^C
--- 192.168.11.1 ping statistics ---
7 packets transmitted, 7 received, 0% packet loss, time 6133ms
rtt min/avg/max/mdev = 0.199/0.345/0.454/0.091 ms

Code:
traceroute to 192.168.11.1 (192.168.11.1), 30 hops max, 60 byte packets
 1  * * *
 2  * * *
 3  * * *
 4  * * *
 5  * * *
 6  * * *
 7  * * *
 8  * * *
 9  * * *
10  * * *
11  * *
 *
12  * * *
13  * * *
14  * * *
15  * * *
16  * * *
17  * * *
18  * * *
19  * * *
20  * * *
21  * * *
22  * * *
23  * * *
24  * * *
25  * * *
26  * * *
27  * * *
28  * * *
29  * * *
30  * * *
 
Zuletzt bearbeitet:
Hallo zusammen,

ich habe mir gerade meinen Proxmox Server zusammengebaut (Xeon Prozessor, ASUS WS C246 PRO Mainboard, 16GB ECC Ram und 500GB M.2 SSD) und möchte nun Proxmox darauf installieren. Bevor ich beginne habe ich noch Fragen bezüglich der "Advanced LVM Configuration" bei der Installation. Hier werden ja hdsize, swapsize, maxroot, maxvz, minfree definiert.

1) Sind folgende Werte praxistauglich? hdsize = 200 GB , swapsize = 8 GB, maxroot = 10 GB, maxvz = 166 GB, minfree = 16 GB
2) 300 GB von der 500 GB SDD wäre dann ja unpartitioniert. Kann ich diese 300 GB als weiter Datenpartition nutzen, die ich dann als zusätzlicher Speicher an die VMs bzw. LXC-Container durchreichen kann? Wenn ja wie erstelle ich die Partition in Proxmox?

Viele Grüße
Jay
 
Zuletzt bearbeitet:
Hallo zusammen,

ich habe mir gerade meinen Proxmox Server zusammengebaut (Xeon Prozessor, ASUS WS C246 PRO Mainboard, 16GB ECC Ram und 500GB M.2 SSD) und möchte nun Proxmox darauf installieren. Bevor ich beginne habe ich noch Fragen bezüglich der "Advanced LVM Configuration" bei der Installation. Hier werden ja hdsize, swapsize, maxroot, maxvz, minfree definiert.

1) Sind folgende Werte praxistauglich? hdsize = 200 GB , swapsize = 8 GB, maxroot = 10 GB, maxvz = 166 GB, minfree = 16 GB
2) 300 GB von der 500 GB SDD wäre dann ja unpartitioniert. Kann ich diese 300 GB als weiter Datenpartition nutzen, die ich dann als zusätzlicher Speicher an die VMs bzw. LXC-Container durchreichen kann? Wenn ja wie erstelle ich die Partition in Proxmox?

Viele Grüße
Jay

warum willst du eine 2. partition einrichten ? swapsize = 8 GB, maxroot = 10 GB kann man machen (minfree willste wohl als overprovisioning ?), aber warum der Rest ?

... versteh nicht ganz was du erreichen willst da du ja eh fast alles der SSD als Datenspeicher hast und dann direkt in die VMs einbinden kannst per "Laufwerken"
 
Zuletzt bearbeitet:
Ich hab ne 970 EVO verbaut und in ner qcow2 vm win 10 installiert. Sequentiell schafft die nur 1500 MB/s lesend und schreibend.
Ist das normal?
 
Wenn es SATA wäre, waren 1500mb/s utopisch :-)
Natürlich nvme mit pcie 3 4x adapter
 
Weiß jetzt nicht wie gut die Frage hier aufgehoben ist.
Habe die aktuelle Proxmox Version nochmal installiert und versuche eine USB3 HDD an eine OMV 4 VM durchzureichen. OMV sieht die aber nicht. Im Terminal auf der OMV VM seh ich per lsusb zwar ein gerät mit seagate in der Kennzeichnung aber in der OMV weboberfläche kommt nix.
Hat dann proxmox seitig alles geklappt und das Problem liegt an OMV?
 
Wenn sie im terminal angezeigt wird wuerde ich mal schwer vermuten das es mit omv zusammen haengt. denn was omv mit der hdd macht kann proxmox ja nicht beeinflussen.
Was fuer geraete zeigt omv denn ueber die weboberflaeche an? nur gemountetes? vielleicht musst du sie einfach noch wo einhaengen.
 
ich weiß generell nicht, ob sich überhaupt eine USB-Platte in OMV gescheit einbinden lässt?
 
Ich hab auch mal wieder eine Frage: Ich habe mehrere Proxmox-Server am laufen, diese sind jedoch eigentlich eher unabhängig von einander. Da ein clonen oder migrieren von VMs/CTs im Cluster bedeutend einfacher sind, habe ich damals bei version 4 versucht ein Cluster aufzubauen. Das hat soweit auch funktioniert, jedoch hatte ich dann das Problem, dass ich den "Master-Node" nicht mehr herunterfahren konnte. Nachdem ich den Cluster mühevoll wieder aufgelöst hatte, funktionierte es wieder. Nun, wie sieht es heute bei version 5.3 aus? kann ich hier mein Vorhaben umsetzen? Oder gibt es auch hier noch diese Probleme?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh