Anfängerfragen - Linux Neuling? Hier ist der richtige Platz für deine Fragen (2)

  • Ersteller Gelöschtes Mitglied 45455
  • Erstellt am
@oooverclocker
danke werds versuchen.

@fax668
Das sollte sich über ein "mount -o remount,rw /" beheben lassen.
Also einfach als Befehl bei Shell eingeben und dann normal alles abarbeiten?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe einen Proxmox-Container vergrößert und würde gerne den Speicherplatz erweitern, sodass der gesamte Platz verwendet wird.

Code:
 df -h
Dateisystem                   Größe Benutzt Verf. Verw% Eingehängt auf
udev                           979M       0  979M    0% /dev
tmpfs                          200M    3,4M  197M    2% /run
/dev/mapper/ubuntuVM--vg-root   18G    4,2G   13G   26% /
tmpfs                         1000M       0 1000M    0% /dev/shm
tmpfs                          5,0M       0  5,0M    0% /run/lock
tmpfs                         1000M       0 1000M    0% /sys/fs/cgroup
/dev/vdb1                       98G     36G   58G   39% /mnt/disk2
/dev/vda1                      472M    269M  179M   61% /boot
tmpfs                          200M       0  200M    0% /run/user/1000
es geht um /dev/vdb1. Der Container ist 160GB groß (war vorher 100GB)

Code:
dmesg | grep vdb1
[    3.524607]  vdb: vdb1
[    7.587324] EXT4-fs (vdb1): mounted filesystem with ordered data mode. Opts: (null)

wie mache ich das?

edit: gparted rulez!
 
Zuletzt bearbeitet:
@oooverclocker
danke werds versuchen.

Danke für die Geduld - ich würde das extrem nervige Problem gern lösen, aber leider lässt es sich jetzt aktuell leider nur umgehen. Auch wenn die Grafikkarten älter sind, wird Ubuntu öfter auf Rechnern für sozial Bedürftige/Schulen etc. eingesetzt und es wäre sehr schade, wenn man in ein paar Jahren solche Rechnerspenden nicht mehr nutzen kann, weil der Bildschirm einfach schwarz bleibt - normal ist das überhaupt nicht der Stil von Linux - eher, dass besonders die ältere Hardware noch gut läuft. Deshalb muss man den Fehler möglichst bald im Kernel beseitigen... :shake:
 
Irgendwie kriege ich fail2ban nicht ans laufen. Alles soweit eingestellt und ich kriege nun

Code:
 /usr/bin/fail2ban-client -x start
2017-04-05 14:19:28,453 fail2ban.server         [28651]: INFO    Starting Fail2ban v0.9.5
2017-04-05 14:19:28,453 fail2ban.server         [28651]: INFO    Starting in daemon mode
ERROR  NOK: ('Failed to change log target',)
ERROR  NOK: ('unable to open database file',)
ERROR  NOK: (13, 'Permission denied')

Ich habe Fail2ban für sshd und nextcloud konfiguriert (nach dieser Anleitung: Nextcloud gegen Brute-Force-Angriffe absichern | joachim-wilke.de)

Fail2ban registriert zwar jede Fehlanmeldung auf sshd (ob der auch den Jail zu macht habe ich hier noch nicht getestet), bei Nextcloud hat er jedoch nur gezählt, aber nicht geschlossen. nun nach nem Neustart zählt er auch gar nicht mal mehr...jemand ne Ahnung, woran das liegt? Wobei in die /var/log/nextcloud.log schreibt er noch munter rein
Code:
Status for the jail: nextcloud
|- Filter
|  |- Currently failed: 0
|  |- Total failed:     0
|  `- File list:
`- Actions
   |- Currently banned: 0
   |- Total banned:     0
   `- Banned IP list:
 
Zuletzt bearbeitet:
per sudo systemctl restart fail2ban


Edit: Jail funktioniert, nur das auslesen der /var/log/nextcloud.log klappt aufeinmal nicht mehr. Rechte sollten aber stimmen
 
Zuletzt bearbeitet:
Welche Rechte/Welche Besitzer hat die Datei denn? fail2ban wechselt nach dem Start zu einem eigenen Benutzer.
 
den selben Besitzer wie nextcloud, da nextcloud da ja reinschreiben muss
 
Antwort als Bild, weil dieses FUCKING CloudFlare wieder meint ich würde irgendeine Injection versuchen...

Bildschirmfoto 2017-04-05 um 15.16.54.png
 
Code:
-rw-r----- 1 www-data www-data 29557 Apr  5 15:17 /var/log/nextcloud.log
 
Ja, dann ist es doch einleuchtend, oder? Die Datei gehört www-data:www-data. Der Owner hat Lese- und Schreibrechte, die Gruppe nur Leserechte. Der nginx/Apache/Whatever und PHP sind also die Einzigen, die in diese Datei gucken sollen. fail2ban läuft allerdings, soweit ich weiß, unter dem User "fail2ban". Da dieser User nicht in der Gruppe "www-data" ist, gehört er zu allen anderen Usern und hat damit keinerlei Rechte auf die Datei. Du musst den fail2ban-User also zur Gruppe "www-data" hinzufügen:

Debian/Ubuntu etc.:
Code:
adduser fail2ban www-data
Alle anderen Distros:
Code:
usermod -a -G www-data fail2ban
 
Ich werf mal kurz eine Frage dazwischen, kriegt man das irgendwie hin das die VPN/Wlan-Verbindung nach lid-close(nur Bildschirm abdunkeln & abmelden) nicht abreist?
 
"adduser: Der Benutzer »fail2ban« existiert nicht."

gibt es wohl doch nicht. Kurios ist ja, dass es bis zum Reboot geklappt hatte. Lesen kann er die Datei ja irgendwie schon, da er anhand dessen ja auch die IP sperrt.
 
Zuletzt bearbeitet:
Also ohne nomodeset hast du jedenfalls auch keinen Zugriff auf's Internet.


Das unterstützt xenial aber definitiv - scheint ein Problem mit Mint zu sein, aber normal basiert ja das Mint auf Ubuntu xenial...

Hier habe ich etwas vielversprechendes gefunden:


Dazu braucht man ssh(muss vorher installiert sein):
Code:
sudo apt install ssh
und müsste sich dann zum Beispiel mit Putty, wie maxpowers, oder von einem Linuxrechner per SSH einloggen, und die angegebenen Befehle ausführen. Danach sollte man den PC in Bereitschaft versetzen können und wieder aktivieren können - allerdings wird kein Herunterfahren funktionieren. Laut dem Bugreport ist Ubuntu ab Kernel 4.4 inkompatibel mit manchen Grafikkarten oder Systemkombinationen geworden. Da steht aber auch, dass es mit Debian laufen könnte. Eventuell geht die Mint Debian Edition.(LMDE)

Edit: Was der Workaround genau macht: Er unterbindet nicht das modesetting, sondern verhindert den Start von radeon. Dann wird der Rechner in Bereitschaft versetzt und wieder aufgeweckt(das scheint irgendwie der Schlüssel zu sein). Danach wird der Dektopmanager über einen anderen Rechner abgeschaltet, der Radeontreiber geladen und der Desktopmanager wieder gestartet.

Edit2: Eine andere Möglichkeit wäre, Ubuntu 14.04(Support bis 2019) oder eine darauf basierende Distribution zu benutzen und dann fglrx zu installieren. Das größte Problem ist, dass es wenige Informationen zum Problem gibt. Es existiert wohl seit irgendeinem 3.XX- Kernel, aber es hat sich anscheinend, außer ganz wenigen, nie jemand die Mühe gemacht, das Problem zu melden, sondern einfach per nomodeset gestartet und FGLRX benutzt. Erst seit Ubuntu 16.04, als das dann nicht mehr ging, haben sich ein paar Leute gemeldet... Offensichtlich wird jetzt versucht, das irgendwie aufzurollen, aber es scheint extrem kompliziert zu sein.

Hatte leider keinen anderen PC grade frei.Morgen kommt mein Rasperry Pi 3 dann werd ich das ganze demnächst nochmal in Angriff nehmen.
Ich habe jetzt erstmal die gtx 660 eingebaut. Mit der funktioniert alles ohne Probleme, auser ich nutze den nvidia treiber :stupid:
hier die Auswahl als Bild:
Bildschirmfoto vom 2017-04-06 16-53-47.png
Habe nun allerdings ein neues Problem.
Ich konnte vorher im Bootmenü Linux Mint 18.1, erweiterte einstellungen, memtest... und Windows 8.
Windows 8 ist jetzt nicht mehr aufgeführt.
Ich hatte die Bootplatte von Windows 1mal abgestöpselt udn ein Kernel update gemacht.
Gibts ne Möglichkeit wieder beides im Bootmenü zu haben?
Bräuchte momentan noch zwingend beides.
 
Ich habe jetzt erstmal die gtx 660 eingebaut. Mit der funktioniert alles ohne Probleme, auser ich nutze den nvidia treiber :stupid:
Ja, das ist eine doofe Situation - die freien Treiber funktionieren ganz gut, aber im Fall von Nvidia fehlt die korrekte Taktfindung. Die quelloffenen AMD- Treiber würden eigentlich problemlos laufen, wenn sie nur laden würden.
Ich hatte die Bootplatte von Windows 1mal abgestöpselt udn ein Kernel update gemacht.
Gibts ne Möglichkeit wieder beides im Bootmenü zu haben?
Normal sollte ein sudo update-grub Abhilfe schaffen.
 
Ja, das ist eine doofe Situation - die freien Treiber funktionieren ganz gut, aber im Fall von Nvidia fehlt die korrekte Taktfindung. Die quelloffenen AMD- Treiber würden eigentlich problemlos laufen, wenn sie nur laden würden.

Normal sollte ein sudo update-grub Abhilfe schaffen.

Hat funktioniert vielen dank :)


Mir war jetzt erstmal wichtig, dass es überhaupt läuft.
Hab dann die nächsten Tage erstmal mit Mint und dem Raspberry zutun^^

Gibts fürs Raspberry einen extra sammler oder können da fragen auch hier rein?
 
Ich werf mal kurz eine Frage dazwischen, kriegt man das irgendwie hin das die VPN/Wlan-Verbindung nach lid-close(nur Bildschirm abdunkeln & abmelden) nicht abreist?
Tut es das denn standardmäßig? Muss ich erstmal überprüfen....
 
Und noch eine kleine Frage:
Ich hab versucht die hosts etwas anzupassen.
Hatte gelesen geht nur per Terminal.
Damit hab ichs aufgerufen und die neuen Befehle eingefügt udn gespeichert.
Nach dem neustart ist wieder alles rückgängig gemacht :/
jmd ne Idee?

Edit: die hosts wurde als hosts.save im persönlichen Ordern gespeichert...
 
Zuletzt bearbeitet:
scheint funktioniert zu haben.
danke :)

Hatte es vorher hiermit versucht
sudo nano /etc/hosts
da kam am Ende allerdings auch die anfrage, ob es denn überschrieben werden soll.
Dachte wenn ich es mit sudo öffne, wären schon zugriffsrechte erteilt, da ich mein passwort ja eingeben musste.
 
Zuletzt bearbeitet:
"sudo nano" ist auch genauso effektiv. Normalerweise müsste das auch geklappt haben. Der Vorteil von "sudoedit" ist, dass die Datei nach /tmp kopiert wird und der Editor selbst ohne Root-Rechte geöffnet wird.
 
Ich hab schon wieder ein seltsames Problem: Auf der Kommando-Zeile gibt mir "pgrep yabar" die Prozess-Id von yabar zurück. Wenn yabar nicht läuft, bekomme ich auch nichts zurück. Wenn ich jetzt aber in einem Bash-Script testhalber mit "var=$(pgrep yabar); echo $var" ausführe, bekomme ich immer irgendeine Prozess-Id ausgegeben, auch wenn yabar gar nicht läuft. Ist das ein Bug von pgrep oder was mach ich da falsch? (Betrifft nicht nur yabar sondern auch alle anderen Programme)
 
Du bekommst die Prozess ID von "pgrep yabar" zurück, das läuft ja zu dem Zeitpunkt. Ich benutze das hier:
Code:
pgrep yabar | xargs ps -p 2>/dev/null

"pgrep yabar" liefert alle passenden Prozess IDs, darunter auch den pgrep Prozess selbst. Wenn danach aber "ps -p" mit xargs aufgerufen wird, gibt es den "pgrep yabar" Prozess nicht mehr. "ps -p" wird also mit einer Liste aller Prozesse aufgerufen, die yabar enthalten, und ignoriert den pgrep Prozess, weil es den zu dem Zeitpunkt nicht mehr gibt.
 
Ah, ok. Danke. :)
 
Ich hoffe mir kann einer helfen. Habe Linux Arch installiert und etwas durchgeführt, was ich nicht brauchen musste. Es geht auf der Arch Seite um das "Manueller Eingriff bei Update von ca-certificates erforderlich!". Ich habe das ausgeführt und jetzt kann ich keine Pakte ,die über AUR installiert sind, aktualisieren bzw installieren oder suchen. Benutzte als AUR Helper "pacaur". Gebe ich ein .. pacaur -Su .. ein, dann bekomme ich als Ausgabe, das die Pakete nicht im AUR gefunden werden. Liegt wohl an dem CA löschen. Wie komme ich das wieder hin?
 
Zuletzt bearbeitet:
Du solltest in so einem Falle NICHT irgendwelche Wrapper benutzen, die Befehle in der News auf der Arch-Homepage waren eindeutig. Wenn da "pacman -Su" steht, dann solltest du auch "pacman -Su" ausführen und nicht "pacaur -Su". Versuch das mal.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh