Anfängerfragen - Linux Neuling? Hier ist der richtige Platz für deine Fragen (2)

  • Ersteller Gelöschtes Mitglied 45455
  • Erstellt am
Wenn es dir sehr wichtig ist, dann bleibt dir wohl nicht viel übrig, als den Profilordner auf einem verschlüsselten Storage abzulegen, bzw. dorthin zu versymlinken. Ja, im RAM werden sie dann natürlich immernoch irgendwo unverschlüsselt bzw. unwirksam verschlüsselt rumliegen, aber dir ist ja auch nicht die NSA auf den Fersen, oder? ;)
Edit:
Da die Verschlüsselung hin zur Cloud übrigens per AES-256 vorgenommen wird, sind die Passwörter dort wohl sicherer untergebracht, als auf dem eigenen PC :fresse:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei mir ist sowieso / und /home verschlüsselt mit dmcrypt/LUKS2, also das ist nicht das Problem. Im RAM ist klar, das ist ja nicht zu verhindern. Im Prinzip muss man eh irgendwem oder irgendwas vertrauen in der heutigen IT Welt, man kann nicht mehr alles selber kompilieren und machen, das steht in keinem Verhältnis zum Aufwand und irgwendo ist man halt auch bequem. Man kann höchstens versuchen die Anzahl an Software/Herstellern denen man Dinge anvertraut möglichst gering zu halten, selbst das ist schon ein gewisser Aufwand da man sich halt informieren muss.
Nicht das ich wüsste, aber Gründe hätten sie bestimmt. ;)
 
Was haltet Ihr denn von KeePass als Extension - gibt's da ähnliche/andere Probleme?

(Ich hab meine database mit starkem Passwort auf eigenem Server liegen, auf den zugreifenden Geräten (Android, diverse dualboot PCs/Laptops) zusätzlich eine Kopie der erforderlichen Keyfile.)
 
Na dann lass ich das erstmal so ;-)
 
Heise ist schon zu sehr Boulevard und damit für professionelle Leser gestorben.
 
Du meinst die c't. Die hat natürlich leider die letzten 10 Jahre über immer mehr abgebaut, aber heise hat auch noch andere Formate.
ist aber egal, da dies hier sowieso ein Anfängerthread ist, und kein exquisiter Club der Besserwisser. Dafür musst du schon ins Serverforum, oder noch besser zur Kaufberatung :lol:
Hier darf Alles was nur irgendwie mit Linux zu tun hat diskutiert, gefragt und vorgeschlagen werden, so lange es nicht illegal ist, und das finde ich gut an diesem Thread.
 
Zuletzt bearbeitet:
Zu 90% kommt dort nix Interessantes mehr, das stimmt leider, aber ab und zu gibt es schon noch herausragende Artikel. Der genannte gehört allerdings nicht dazu sondern kratzt nur an der Oberfläche und geht nicht ins Detail leider.
 
Gitb es eine Möglichkeit dafür zu sorgen, dass Thunar (oder halt ein ähnlicher Filemanager), Operationen immer queued, anstatt sie gleichzeitig auszuführen?
Es geht darum:
Ich verschiebe von einem Netzwerkshare ein File nach lokal.
Nun gehe ich in einen anderen Pfad auf dem Share, und verschieben auch von dort ein File nach lokal.
Ergebnis ist, dass beide gleichzeitig übertragen werden, was natürlich doppelt so lange dauert.
Wenn ich da snun immer weiter so machen, und am Ende ca. 20 große Files gleichzeitig übertragen werden, dann dauert es ewig bis die fertig sind, und falls es zu einem Abbruch käme, wäre effektiv gar Nichts geschafft, weil 20 abgebrochene Files ja Nichts wert sind, und auch nicht resumed wird.

Ich fände es also nützlich, wenn man Thunar irgendwie beibringen könnte, weitere Vorgänge auf dem selben Pfad anzuängen, anstatt sofort zu starten.
Ich möchte auch nicht auf FTP ausweichen, oder ein sonstiges Protokoll, weil mir das den Bedienkomfort in Verbindung mit häufig wechselnden Transferpartnern (höhö) zu sehr einschränkt.
 
Zuletzt bearbeitet:
OK, da die doch alle drei verwandt sind, müsste sich Thunar evtl. so konfigurieren lassen.. in den recht spärlichen Einstellungen im GUI gibt's leider Nichts dazu.
 
Zuletzt bearbeitet:
ich hab eine datei, die heisst -c

ganz bloede frage: wie kann ich verhindern, dass das -c immer als parameter genommen wird? :fresse:
einfach loeschen reicht.
 
Vorab: (Warum) Muss die Datei so heißen?
 
eine Möglichkeit wäre den Pfad anzugeben, zB
Code:
$ touch ./-c
$ ls
-c
$ rm ./-c
$ ls
 
1) muss sie nicht, die ist versehentlich entstanden. ich will sie nur los werden.

2) danke. haette ich selbst drauf kommen koennen. :d
 
Oft geht auch "COMMAND [OPTIONS] -- PATHS"
 
Oder quoten.

Code:
rm '-c'

Edit: Okay, ich geh wohl lieber wieder ins Bett. :fresse:
 
Hö, Fallwrrk, hast du letztendlich doch mehr übrig für ein Notebook gehabt? :bigok:
 
Mein Privates. Bin jetzt nen Kompromiss eingegangen und hab mich für FullHD und 14 Zoll entschieden. Und das Latitude 7490 hab ich für ne ganze Ecke weniger originalverpackt geschossen.
 
Hat von euch schonmal jemand eine Thunderbold Dock ans laufen gebracht?
Konkret ne thinkpad Dock gen2.
Es läd nicht und Netzwerk geht nicht und ich hab keine Ahnung mehr.
 
Kannst mal mir schicken, dann schaue ich mir das an. USB-C dock läuft normal bei mir.
 
RedHat ist ja momentan eifrig dabei XFS zu puschen. Ich hab gerade bei Golem einen Artikel gelesen, der kein besonders gutes Licht auf die Entwickler wirft: Defekte Dateisysteme bringen Linux zum Stolpern

Vielleicht interessiert's ja jemanden.
 
Moin zusammen, ich betreibe eine Nextcloud installation auf Ubuntu Server 16.04 mit rund 50 konten virtualisiert im esx 6.7
2 virtuelle disks, 1x 20 gb für system, 1x 300gb für nextcloud data. die 300gb disk soll nun auf 1000gb vergrößert werden. Habe die vdisk im esx auf 1000gb geändert.
Kann ich im laufenden betrieb mit nextcloud die partition erweitern oder muss ich die partition unmounten. Muss nextcloud dafür in den Maintenance mode? Vom reinen verständniss her kann ich doch per sudo resize2fs /dev/sdb im laufenden betrieb die partition vergrößern.
Geht um diese:
Medium /dev/sdb: 1000 GiB, 1073741824000 Bytes, 2097152000 Sektoren
Einheiten: sectors von 1 * 512 = 512 Bytes
Sektorengröße (logisch/physisch): 512 Bytes / 512 Bytes
I/O Größe (minimal/optimal): 512 Bytes / 512 Bytes
Hier die partitionen:
df -h
Dateisystem Größe Benutzt Verf. Verw% Eingehängt auf
udev 2,0G 0 2,0G 0% /dev
tmpfs 396M 11M 386M 3% /run
/dev/mapper/cloud--vg-root 16G 4,5G 9,9G 32% /
tmpfs 2,0G 0 2,0G 0% /dev/shm
tmpfs 5,0M 0 5,0M 0% /run/lock
tmpfs 2,0G 0 2,0G 0% /sys/fs/cgroup
/dev/sdb 296G 274G 6,2G 98% /mnt/sdb
/dev/sda1 472M 109M 339M 25% /boot
tmpfs 396M 0 396M 0% /run/user/1000

Backups existieren selbstverständlich, will mir den stress wenn möglich ersparen.

Edit: hat geklappt

Dateisystem Größe Benutzt Verf. Verw% Eingehängt auf
udev 2,0G 0 2,0G 0% /dev
tmpfs 396M 11M 386M 3% /run
/dev/mapper/cloud--vg-root 16G 4,5G 9,9G 32% /
tmpfs 2,0G 0 2,0G 0% /dev/shm
tmpfs 5,0M 0 5,0M 0% /run/lock
tmpfs 2,0G 0 2,0G 0% /sys/fs/cgroup
/dev/sdb 985G 275G 668G 30% /mnt/sdb
/dev/sda1 472M 109M 339M 25% /boot
tmpfs 396M 0 396M 0% /run/user/1000
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh