Anfängerfragen - Linux Neuling? Hier ist der richtige Platz für deine Fragen (2)

  • Ersteller Gelöschtes Mitglied 45455
  • Erstellt am
Wenn du schon Docker nutzt, wie waehrs mit traefik ?
Reverse Proxy aber funktioniert eben super mit docker. Hab ich hier auch laufen.
Musst nur vorher ein externes Netzwerk erstellen das du fuer deine container nutzen willst und in den compose dateien dann die traefik optionen reinhauen:

Code:
    labels:
      - "traefik.enable=true"
      - "traefik.frontend.rule=Host:grafana.docker.localhost"
      - "traefik.port=3000"
    ...

Bei mir laeuft das ganze direkt auf meinem Desktop, ich weiss nicht genau ob du noch was zusaetzlich konfigurieren musst da dein Docker host ja ein anderer rechner ist.

Danke, werd mich damit mal befassen.

Edit: Ich raffs nicht. Hast du mal ein gutes Howto für mich? Ich möcht nicht von aussen zugreifen, nur lokal.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein Tutorial hab ich jetzt nicht zur Hand. Poste doch am besten mal deine compose Dateien.
 
Kennt sich jemand etwas mit Linux-Server-Distros für Windows-Domains aus?
Gibt es einen der das Client-BAckup-System von Windows Server Essentials unterstützt (oder wenigstens eine Alternative bietet, um nicht mehr bootende Clients schnell und einfach über ein Backup-Image das auf dem Server liegt wiederherzustellen)?
 
Sagt mal, will Btrfs mir damit irgendwas sagen?

Code:
BTRFS error (device dm-2): bdev /dev/mapper/mikasa-root errs: wr 0, rd 5, flush 0, corrupt 0, gen 0

Es sind immer nur Read-Errors, meistens kurz nach dem Boot bis maximal 5 Minuten, dann nie wieder. Meine externe Backup-SSD wirft diese Meldungen nicht. "btrfs check" und "btrfs scrub" sagen, dass alles okay ist.
 
Musste mal Fallwrrk fragen, der könnte sowas wissen :fresse:
 
BTRFS - kann man das essen? :d

Wo zeigt es dir genau die Read-Errors? Beim Laden aller systemd-Dienste während dem Bootvorgang? Journal?
 
Zuletzt bearbeitet von einem Moderator:
Nachher im journal mit nem "journalctl -p 3 -xb". Ist, wie gesagt, maximal 5 Minuten nach dem Boot. Verreckt mir vielleicht die SSD?
 
Hat hier jemand auf Ubuntu 18 ZFS am laufen?
Ich habe 2 Disks - Eine davon hat ZFS Partitionen
Die HDD ist SDB, SDB1 hat 100GB, SDB9 hat 500 MB.

Ich möchte nun das Ding auf 200GB vergrößern - Mit Autoexpand=on usw. komme ich aber nicht weiter. der Pool "daten" bleibt bei seinen 99G angezeigt.

Kann hier jemand weiterhelfen? Muss ich erst eine Partition 2 erstellen und dann mit dem "zpool online -e..." den bisherhigen Pool "daten" vergrößern, oder wie gehts weiter?
Habe bei Linux so noch nicht mit ZFS gearbeitet :hust:
 
Was sagen die SMART-Werte? Wobei besser im SSD-Forum posten. :d
 
Mal eine Frage zu grub. Kann man dort im Bootmenü sowohl GPT als auch MBR Laufwerke starten? Linux wurde mit GPT installiert. Auf einem Windows To-Go USB-Stick habe ich mal W10 mit MBR draufgepackt. Das Problem ist, dass das UEFI meines PCs den USB-Stick im Bootvorgang nicht erkennt. Erst der Linux-Kernel erkennt den USB-Stick.

Systemd-boot scheint laut wiki nur EFI-Images zu kennen. Ja ich könnte auf dem USB-Stick auch per GPT installieren, wo Windows sein eigenes Bootmenü aufmacht, aber bei Upgrades kann das kack Windows evtl. Den Linux-Bootmanager verhunzen.
 
Zuletzt bearbeitet von einem Moderator:
Hat hier jemand auf Ubuntu 18 ZFS am laufen?
Ich habe 2 Disks - Eine davon hat ZFS Partitionen
Die HDD ist SDB, SDB1 hat 100GB, SDB9 hat 500 MB.

Ich möchte nun das Ding auf 200GB vergrößern - Mit Autoexpand=on usw. komme ich aber nicht weiter. der Pool "daten" bleibt bei seinen 99G angezeigt.

Kann hier jemand weiterhelfen? Muss ich erst eine Partition 2 erstellen und dann mit dem "zpool online -e..." den bisherhigen Pool "daten" vergrößern, oder wie gehts weiter?
Habe bei Linux so noch nicht mit ZFS gearbeitet :hust:

Niemand? Oder zu speziell hier? :d
 
Stimmt - Den Thread ganz vergessen. Ich zitiere mich ma selbst dorthin, danke :wink:
 
Ein Tutorial hab ich jetzt nicht zur Hand. Poste doch am besten mal deine compose Dateien.

Habs hinbekommen, nachdem ich etwas gebraucht habe, das Prinzip zu verstehen. Hab jetzt xxx.local als Domain eingetragen, den korrekten Port eingetragen und nun rennt es.
Am Hauptrechner hab ich in /etc/hosts die Domains eingetragen, damit sie gefunden werden. Geht das auch ohne diesen Eintrag?

Zweites Problem: Nutze im LAN einen Raspberry mit PiHole, um diversen Müll von den Kindern freizuhalten. Ist es möglich, per DHCP-Server verschiedenen Clients verschiedenen DNS
unterzuschieben, um einen zweiten oder dritten PiHole zu betreiben? Ich möchte gern die Filter für die Erwachsenen und den Kindern trennen, am besten noch für jedes Kind.
 
Habs hinbekommen, nachdem ich etwas gebraucht habe, das Prinzip zu verstehen. Hab jetzt xxx.local als Domain eingetragen, den korrekten Port eingetragen und nun rennt es.
Am Hauptrechner hab ich in /etc/hosts die Domains eingetragen, damit sie gefunden werden. Geht das auch ohne diesen Eintrag?

Zweites Problem: Nutze im LAN einen Raspberry mit PiHole, um diversen Müll von den Kindern freizuhalten. Ist es möglich, per DHCP-Server verschiedenen Clients verschiedenen DNS
unterzuschieben, um einen zweiten oder dritten PiHole zu betreiben? Ich möchte gern die Filter für die Erwachsenen und den Kindern trennen, am besten noch für jedes Kind.

1: Habe ich noch nicht getestet, sollte aber machbar sein wenn du einen DNS-Server in deinem Netzwerk hast (Pihole).
Auf PiHole läuft dnsmasq, wenn du diesen so konfigurierst das er nach DNS Einträgen auf deinem Docker host sucht sollten diese im gesammten Netzwerk auflösbar sein.
Also Client -> PiHole/dnsmasq -> docker Host

So würde ich das versuchen:
Code:
Here's how I do it; create the file: /etc/dnsmasq.d/05-custom.conf

server=/local.lan/192.168.1.1
server=/1.168.192.in-addr.arpa/192.168.1.1
This tells dnsmasq to forward all requests for *.local.lan to the router, bypassing any upstream DNS servers.
Static DNS Entries : pihole

local.lan und IP Adresse müsstest du dann entsprechend anpassen.

Alternativ kannst du auch auf deinem Pi die /etc/hosts Datei anpassen. Dann müsstest du aber wieder für jeden Dienst der hinzukommt einen neuen Eintrag anlegen.

2: Ist generell möglich. Habe jedoch noch nichts mit Pihole gemacht, kann dir deshalb nicht sagen wie man das dort realisiert.
 
Zuletzt bearbeitet:
Da ich kB habe, auf diversen PCs Ubuntu/Debian/Mint zu verwalten und trotzdem Autoupdates laufen lassen will (auf Arch), dachte ich an btrfs.

:shot:
Since backup from tape are a pain here is the thoughts of a lazy sysadm that create a home directory as a Btrfs file system for their users, lets try some fancy net attached storage ideas.

/home
Then there could be a snaphot every 6 hours via cron
/home_today_00,/home_today_06,/home_today_12,/home_today_18,
The logic would look something like this for rolling 3 day rotation that would use cron @ midnight

rename /home_today_00, /home_backday_1
create a symbolic link for /home_backDay_00 that points to real dir of /home_backday_1
rename /home_today_06, /home_backDay_06 , Need to do this for all hours (06..18)
/home_backday_1,/home_backday_2,/home_backday_3
delete the /home_backday_3
rename /home_backday_2 to /home_backday_3 day
rename /home_backday_1 to /home_backday_2 day
FAQ - btrfs Wiki

Aber hin und wieder sollten schon richtige Backups gemacht werden wegen
Note that snapshots are not backups, they give you a view into the past if your filesystem hasn't been corrupted and the disk you were using, didn't die.
Marc's Blog: btrfs - Btrfs Tips: How To Setup Netapp Style Snapshots


Welchen Vorteil hat es denn heute noch, /home auf einer anderen Partition zu packen? Nutze nur eine SSD auf einem PC. Kann also alles in / rein außer /boot, welches in die EFI-Partition kommt. Vielleicht noch eine swap-Partition.
 
Es kann nützlich sein, wenn man zusätzlich noch eine kleine SSD hat, auf die man dann / installiert.
Oder wenn man häufig neue OSses ausprobiert. Dann einfach / formatieren, neues OS installieren und /home als Mount von der anderen Partition in die fstab tippen.
 
Da ich kB habe, auf diversen PCs Ubuntu/Debian/Mint zu verwalten und trotzdem Autoupdates laufen lassen will (auf Arch), dachte ich an btrfs...
Snapshots von deinem home-Verzeichnis werden dir bei einem missglückten Update idR nicht wirklich helfen. Dass du die Daten in deinem home-Verzeichnis dabei verlierst, ist eher unwahrscheinlich (ein Backup sollte man natürlich trotzdem haben) und zur Reparatur des Systems brauchst du dein ein rollback der root-Partition und nicht deines home-Ordners, letzterer soll ja auf dem aktuellen Stand bleiben. openSUSE macht sowas standardmäßig.

Hier baut das jemand mit Arch nach: https://www.youtube.com/watch?v=E_qABG9-jlw&list=PLTeOo_Khba2PSO8OtytbbKQ9K1OYr_E6W&index=5
 
Welchen Vorteil hat es denn heute noch, /home auf einer anderen Partition zu packen?

Es hatte noch nie einen riesen Vorteil. Die Idee war ursprünglich mal, dass mal das OS neu installieren konnte und das Homeverzeichnis erhalten blieb. Wen das nicht interessiert hat, für den macht das auch keinen Sinn. Generell hab ich nie wirklich verstanden wieso manche Leute meinten sie müssten sich 10 Partitionen anlegen und jedes zweite Verzeichnis als eigene Partition laufen lassen. Das macht vielleicht auf Server ein klein wenig Sinn, aber auf Desktops oder Notebooks? Manches muss man nicht verstehen.

Ich hab das inzwischen so gelöst, dass ich zwei Partitionen hab, eine ESP und eine große LUKS2-verschlüsselte Partition. In dieser wiederrum ist eine VG mit zwei LVs, einmal "root" und einmal "swap". Das hab ich deshalb so, weil man ansonsten gleich zwei LUKS-Partitionen entschlüsseln müsste, damit Suspend-To-Disk funktioniert, und das ist einfach nur nervig.

Die root-VG hat ein Btrfs-Dateisystem mit zwei Subvolumes, "@" und "@home", die in "/" und "/home" gemountet sind. Das Toplevel-Subvolume ist wiederrum in "/.toplevel" gemountet, damit ich Snapshots von beiden Subvolumes machen kann, die wiederrum nicht in dem Subvolume sind, was ich snapshotten möchte, denn das macht einen Rollback nervig. Die Snapshots befinden sich in "/.toplevel/snapshots/<Subvolumename>/YYYY-MM-DD HH:MM:SS" und werden von einem Pacman-Hook und einem systemd-Timer angelegt. Der Timer startet einen Service, der mein Homeverzeichnis 5 Minuten nach dem Boot (1 Min randomized) und dann jeweils eine Stunde (1 Min randomized) nach der letzten Deaktivierung des Services (also nach der Fertigstellung des Snapshots). Der Pacman-Hook ist ein PreTransaction-Hook (also bevor etwas auf dem Dateisystem geändert wurde mit Ausnahme des Paketdownloads) und snapshotted mir mein "/"-Subvolume. Abgelegt werden die Snapshots auf der Backup-SSD dann in "<mountpoint>/.snapshots/<hostname>_<machine-id>/<Subvolumename/YYYY-MM-DD HH:MM:SS". Dadurch sind die Snapshots (A) versteckt, heißt man kann die SSD gut auch noch für Datenaustausch benutzen, und (B) man kann die SSD für Backups mehrerer Systeme benutzen.

Diese Snapshots funktionieren, ähnlich wie Apple Time Machine, nur dann, wenn eine externe SSD mit einer bestimmten UUID gemounted ist. Heißt es ist wirklich ein Backup und nicht nur eine Dateisystem-Historie. Ist die Backup-SSD nicht gemounted, schlagen Paketinstallationen mit Pacman fehl, was mich selbst praktisch dazu zwingt die SSD anzuklemmen, bevor ich Updates mache.

Das funktioniert jetzt so schon seit einem halben Jahr absolut ausgezeichnet. Dadurch, dass ich den letzten Snapshot nicht nur auf der Backup-SSD, sondern auch auf der Arch-SSD habe (zwecks inkrementeller Snapshots), kann ich auch ohne die Backup-SSD mit dabei zu haben auf maximal einen Stand in der Vergangenheit zurückspringen, indem ich einfach eins oder beide der Subvolumes in "/.toplevel" umbenenne und mir dann einen Snapshot aus dem Snapshot in "/.toplevel/snapshots" mache. Will ich auf einen noch älteren Stand zurückspringen, zieh ich mir einen Snapshot von der Backup-SSD. Falls das OS mal aus irgendeinem Grund nicht mehr bis zu GDM durchbootet, hab ich den "btrfs"-Hook in der initramfs. Kann dann einfach in die Emergency-Shell der systemd-initramfs booten, die Root-Partition mounten und dort dann das Gleiche mit den Subvolumes machen wie auch in dem gebooteten OS.

Wenn ich das Script für die Snapshots mal ein bisschen "dynamischer" gemacht hab und auch mal eine Möglichkeit gefunden habe Snapshots zu löschen, wenn die Backup-SSD voll ist, dann teil ich das hier.
 
Zuletzt bearbeitet:
Das wird nicht ganz leicht, sich da einzuarbeiten. :d

Wenn ich das Script für die Snapshots mal ein bisschen "dynamischer" gemacht hab und auch mal eine Möglichkeit gefunden habe Snapshots zu löschen, wenn die Backup-SSD voll ist, dann teil ich das hier.
Es reicht doch, wenn 7 Tage, 4 Wochen und 6 Monate gesichert werden und die jeweils ältesten gelöscht werden? Ähnlich wie im BorgBackup-Script. Ok man muss dann schauen, dass andere Datenhäufchen nicht zu viel Platz einnehmen.
 
Zuletzt bearbeitet von einem Moderator:
So ich bin gestern endlich mal dazu gekommen Arch mit der neusten Version von Sway auf meinem Laptop zu installieren. Und ich muss sagen, es gefällt mir echt gut. Zumindest bisher lief das ganze ohne Zwischenfälle.
 
Habe auch Sway installiert. DM ist LightDM, keymap auf de läuft, aber in der sway session nicht. Im wiki steht
export XKB_DEFAULT_LAYOUT=de; export XKB_DEFAULT_VARIANT=colemak; export XKB_DEFAULT_MODEL=pc101; sway
Einfach so im Terminal eingeben bringt nichts. Per sudo probiert: pw kann ich wegen Umlaute nicht eingeben...

Was tun?

rxvt-Terminal finde ich auch irgendwie kacke. Keine gewohnten Keybindings.
 
Zuletzt bearbeitet von einem Moderator:
Du gibst das in einer laufenden Sway-Session ein? Dann machst du eh schon was verkehrt. Du sollst die Umgebungsvariablen exportieren BEVOR du Sway startest, notfalls in der /etc/environment. Seit Sway 1.0 konfigurierst du die Tastatur aber sowieso über die Konfiguration, siehe hier: Home · swaywm/sway Wiki · GitHub
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh