Anfängerfragen - Linux Neuling? Hier ist der richtige Platz für deine Fragen (2)

  • Ersteller Gelöschtes Mitglied 45455
  • Erstellt am
Vergleich die Werte mit den aus der Wikipedia Tabelle von 802.11n - es wird durchgängig kein 40MHz benutzt und dann beim tx nur eine Antenne und beim empfang gerade mal die kleinste Datenrate.
Versuche etwas Traffic zu erzeugen per WLAN youtube usw. aufrufen und schauen ob er höhere Transferraten benutzt - die Anzeige der Übertragungsmodi ist dynamisch.

Es bleibt auch bei Vollast während eines Downloads bei 20 MHz, aber anderen MCS Modi.
Stick und Router können 5GHz, ich habe aber keinen Weg gefunden, 5 GHz zu erzwingen. Angezeigt werden mir die Kanäle mit iwlist freq allerding, das Setzen via iwconfig klappt aber nicht, d.h. es wird einfach keine Änderung übernommen.

Ich schaue nochmal nach einem anderen Stick. :)

iw dev wlxdc4ef407e598 station dump
Station [...](on wlxdc4ef407e598)
inactive time: 128 ms
rx bytes: 285761748
rx packets: 199139
tx bytes: 9236241
tx packets: 99989
tx retries: 37501
tx failed: 1154
beacon loss: 0
beacon rx: 4078
rx drop misc: 45
signal: -70 dBm
signal avg: -70 dBm
beacon signal avg: -70 dBm
tx bitrate: 78.0 MBit/s MCS 12
rx bitrate: 26.0 MBit/s MCS 3
expected throughput: 33.507Mbps
authorized: yes
authenticated: yes
associated: yes
preamble: long
WMM/WME: yes
MFP: no
TDLS peer: no
DTIM period: 1
beacon interval:100
short slot time:yes
connected time: 501 seconds
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nutzt jemand Chrome und speichert damit unwichtige Passwörter? Wenn ja, in plain Text innerhalb von Chrome-Datenbanken oder explizit im gnome-keyring? Letzteres versuche ich gerade, aber die abgespeicherten Passwörter werden nicht in den Browser-Einstellungen angezeigt.
Im Keyring sind nur die Einträge Chrome Safe Storage Control und Chromium Safe Storage sichtbar. Chromium flags? --password-store=gnome gesetzt.

Wisst ihr vielleicht, wie die Datei heißt, wo Chrome standardmäßig Passwörter speichert? Vielleicht werden die trotzdem dort gespeichert...
 
Code:
~/.config/google-chrome/Default/Login Data

Ich speichere nicht nur unwichtige Passwörter im Chrome, sondern alle.
 
Mal eine Frage zu btrfs:
Angenommen, ich baue mit btrfs ein heterogenes Raid6 auf, basierend auf einem Haufen unterschiedlicher Datenträger, z.B. 2TB + 3TB + 5TB +5TB
Dann würde btrfs die Daten ja so lange ich das Filesystem befülle von sich aus optimal verteilen. Wenn ich das gesamte Filesystem dann fast vollständig gefüllt habe, sieht es vermutlich in etwa so aus:
Kopie 1 auf einer der beiden 5TB HDDs
Kopie 2 auf der anderen der beiden 5TB HDDs
Kopie 3 auf der 2TB + der 3TB verteilt.

Soweit so gut, aber was passiert, wenn ich dann um wieder mehr Platz zu haben z.B. noch eine neue 8TB HDD dazu hänge? Die alten Datenträger sind ja alle voll, also müsste zur Wahrung der Redundanz zukünftiger Daten ja Einiges verschoben werden, denn die neue optimale Aufteilung sähe ja ungefähr so aus:
Kopie 1 auf der neuen 8TB HDD
Kopie 2 auf einer der 5TB HDD + der 3TB HDD
Kopie 3 auf der anderen 5TB HDD und der 2TB HDD

-Kümmert sich btrfs automatisch darum?
-Oder muss der Rebalance dann einmalig manuell durchgeführt werden und verschiebt dann in einer langen Operation die Daten so, dass der freie Platz optimal auf drei Mirrors verteilt ist?
-Oder beherrscht es btrfs das transparent und on-the-fly zu machen? Das würde ja vorraussetzen, dass btrfs während jedes neuen Schreibvorgangs im Hintergrund alte Daten so verschiebt, dass auch meine neuen Daten auf drei verschiedenen Datenträgern Platz finden können, obwohl ich nur eine neue HDD hinzugefügt habe.

Mir wäre ja die letzte Lösung am liebsten, da man so ja richtig faul sein könnte, und einfach wenn's voll ist neue Datenträger einbaut, added und fertig :) Die Performance, die sicher darunter leiden würde wäre mir bei einem Archiv ja egal..
 
Zuletzt bearbeitet:
Mist.. muss der Plan für das neue Archiv wohl noch etwas länger warten. Noch ist ja Platz im alten Archiv ;)

Aber trotzdem könntest du mir verraten, wie sich das verhält (wenn's dann mal reif ist) :)
Oder kennt denn jemand eine Softwarelösung mit der das oben von mir Beschriebene so funktioniert?
 
Keine Ahnung, ehrlich gesagt. :d Aber ich denke automatisch macht Btrfs da nichts. Wirst wohl n Balancing laufen lassen müssen. Immerhin ist die Leistung während einem Balancing durchaus reduziert. Besonders im Enterprise-Beriech will man das da nicht automatisieren.
 
Ja, automatisch macht btrfs da gar nichts. Man muss balance selbst starten, dazu muss das Dateisystem gemountet sein und es darf weiterhin verwendet werden - ich würde es also als transparend und on-the-fly beschreiben.
Bei btrfs würde ich von den RAID-Leveln auch ausschließlich raid1 empfehlen. Bei mehr als 2 Platten hast du dann trotzdem immer nur 2 Kopien deiner Daten auf 2 unterschiedlichen Geräten. Bei Zusammenstellungen mit mehreren unterschiedlich großen Platten ist aber möglicherweise (oder sicher?) zwischendurch immer wieder einmal ein balance angesagt, damit nicht plötzlich alle freien Blöcke/chunks oder wie auch immer btrfs das nennt auf einer einzigen Platte sind und daher nichts mehr geschrieben werden kann.
 
OK, danke euch. Und eine Alternative, die solche Flexibilität bietet kennt Niemand, bzw. gibt's nicht?
 
"3 Kopien" von einer Datei also im allgemeinen Fall "n Kopien" (n > 2) wird bei BTRFS nicht unterstützt.
Allerdings sollte das mit md Raid (mdadm) direkt gehen - ein Raid 1 device mit 3 Disks anlegen zB

Bei Flexibilität mit mehreren verschiedenen Disks - also gewachsenem Festplattenbestand - und "irgendwie" Parity wird glaube ich immer unraid empfohlen oder snapraid - basierend auf reddit forum datahoarders.

Keine Ahnung wie sich die modernen Cluster-Dateisysteme verhalten. Bei denen wird uU auf jeder Node auch eine gewisse Datenredundanz vorgehalten: Ceph/CephFS

Bei den besseren Installationen mit FreeNAS und ZFS werden oft viele gleiche Disks eingesetzt, was das Upgrade / Kosten kompliziert macht und eben etwas unflexibler ist.

Die meiste Flexibilität ist einfach durch Union-Mount-Dateisysteme gewährleistet - (aufs, overlayfs) mit denen die einzelnen Festplatten, RAID-Verbünde/JBODs, Netzwerkfilesysteme ... in ein einzelnes Verzeichnis/Verzeichnisbaum vereint werden.
Mehrere lowerdir/Mounts (nicht schreibbar) und ein schreibbares Verzeichnis/Mount können dabei kombiniert werden - wiki@Arch.
 
"3 Kopien" von einer Datei also im allgemeinen Fall "n Kopien" (n > 2) wird bei BTRFS nicht unterstützt.
Allerdings sollte das mit md Raid (mdadm) direkt gehen - ein Raid 1 device mit 3 Disks anlegen zB
Da es bei Raid in dem Sinne ja kein "Original2 und keine "Kopie" gibt, habe ich alle drei rdeundant vorliegenden Datensätze als "Kopien" bezeichnet. Ich möchte also die Redundanz von Raid 6, bzw, Raid-Z2 usw :)

Bei Flexibilität mit mehreren verschiedenen Disks - also gewachsenem Festplattenbestand - und "irgendwie" Parity wird glaube ich immer unraid empfohlen oder snapraid - basierend auf reddit forum datahoarders.
Sehr gut, dann schaue ich mir die mal an.

Keine Ahnung wie sich die modernen Cluster-Dateisysteme verhalten. Bei denen wird uU auf jeder Node auch eine gewisse Datenredundanz vorgehalten: Ceph/CephFS

Bei den besseren Installationen mit FreeNAS und ZFS werden oft viele gleiche Disks eingesetzt, was das Upgrade / Kosten kompliziert macht und eben etwas unflexibler ist.
Raid-Z2 (unter FreeNAS) ist, was ich gerade habe. Aber bald voll, und ich habe keine Lust mehr, immer komplette Umrüstaktionen zu machen, wo dann Alles kopiert werden muss usw, genau deshalb suche ich eine Alternative, die man ewig lange benutzen kann, indem man einfach hin und wieder einen neuen (und größeren) Datenträger hinzufügt, oder einen Ausgedienten entfernt, ohne viel "herummachen" zu müssen.


Die meiste Flexibilität ist einfach durch Union-Mount-Dateisysteme gewährleistet - (aufs, overlayfs) mit denen die einzelnen Festplatten, RAID-Verbünde/JBODs, Netzwerkfilesysteme ... in ein einzelnes Verzeichnis/Verzeichnisbaum vereint werden.
Mehrere lowerdir/Mounts (nicht schreibbar) und ein schreibbares Verzeichnis/Mount können dabei kombiniert werden - wiki@Arch.
Schaue ich mir auch mal an, danke! :)
Ich nutze overlayfs schon in spezieller Form (overlayroot) und auch aufs auf irgendeinem kleinen Server hier (evtl. der vom 3D-Drucker). Wie man darüber auch Redundanz gewährleistet weiß ich aber noch nicht.
 
Zuletzt bearbeitet:
Hm, diese Tabelle macht da leider nicht gerade Hoffnung. Jede Lösung, bis auf das teure ZFS und das (für Raid6) unreife btrfs, hat gravierende Mängel.

Jetzt bin ich gerade am Überlegen, ob es Sinn machen könnte, einen Ceph Cluster über VMs auf nur einem System aufzubauen, wo man dann beim Zufügen einer neuen HDD aus einer existierende Vorlage-eine neue VM klont, die dann so konfiguriert, dass sie nur die neue HDD dem Cluster zur Verfügung stellt. Wird zwar vermutlich noch mehr Gefummel, hätte aber gegen ZFS ja den Vorteil, dass man die HDDs (für doppelte Redundanz) nicht in Dreierpacks hinzukaufen müsste, und gegenüber btrfs, dass es stabil ist.
 
Zuletzt bearbeitet:
Also ich hab keine Ahnung von Ceph, aber was ich bisher gehört habe, will man sich das nicht mal eben ans Bein binden.
 
Im Moment wäre mir schon Mal damit geholfen, wenn Jemand zu sagen wüsste, ob diese Idee überhaupt machbar ist und dann auch die erhofften Vorteile bringt (also eine billige, redundante Erweiterbarkeit des Storage jederzeit, billig im Sinne von: Jederzeit einzelne HDDs beliebiger Größe hinzufügbar).
Wenn Dem so sein sollte, dann würde ich mich mit der Umsetzung abquälen :fresse:
 
Zuletzt bearbeitet:
Kleine Verständnisfrage zu LVM. In den Erklärungen ist immer die Rede von Festplatten oder Partitionen als PV, aber wo kommen diese Partitionen her ?
Ich dachte dazu ist der LVM da, oder soll mir das sagen das ich eine Festplatte in z.b. 3 LVs teilen und diese dann auf einer weiteren Ebene wieder zu einem LV Zusammenführen kann ?
 
LVM ersetzt nicht deine normale Partitionstabelle, sondern du erstellst ein PV in einer normalen Partition.
 
Code:
~/.config/google-chrome/Default/Login Data

Ich speichere nicht nur unwichtige Passwörter im Chrome, sondern alle.
Ich hoffe du nutzt dann 2FA. :fresse:

Der ganze Krempel wird tatsächlich immernoch in "~/.config/google-chrome/Default/Login Data" gespeichert, selbst wenn ich
For example, to force Chromium to use Gnome Keyring in another desktop or WM use --password-store=gnome, see #Making flags persistent for making it permanent.
Chromium/Tips and tricks - ArchWiki

als flag setze. Ja ich weiß auch nicht mehr.
 
Zuletzt bearbeitet von einem Moderator:
Ich hoffe du nutzt dann 2FA. :fresse:

Na selbstverständlich nutze ich 2FA. Ich hätte viel zu viel Angst, dass Google anfängt sich in sämtliche meiner Accounts einzuloggen und mich ausspioniert, immerhin bin ich ähnlich wichtig wie Snowden.

Google interessiert sich nicht für unser erbärmliches Leben. Und wenn die US-Regierung an deine PayPal-Transaktionen will, dann fragen die bei PayPal an und nicht bei Google, wo du vielleicht (!) deine Zugangsdaten hast. Google ist einer der wenigen IT-Riesen, von dem noch keinerlei Kundendaten im Internet aufgetaucht sind, und Google hat ein maximales Interesse da dran sämtliche Daten der User, ob für Werbezwecke oder nicht, zu schützen wie den eigenen Augapfel. Daher würde ich man behaupten, dass es für uns Peasants keinen besseren Ort für Passwörter gibt als der eigene Google-Account.

Und wenn Chrome die Kennwörter nicht im GNOME Keyring speichert, prüf mal ob der beim Start der Session überhaupt geöffnet ist. Nutzt du GDM? Wenn nein, musst du die entsprechenden PAM-Konfigurationen für deinen Display Manager anpassen.

Und so oder so, die Teams von GNOME und KDE haben schon mehrfach gesagt, dass man sich nicht auf die Keyrings verlassen soll. Die schützen nur, wenn der PC aus und die Festplatte unverschlüsselt ist. Sobald man eingeloggt ist, kann jeder Prozess da rausholen was er will.
 
Zuletzt bearbeitet:
Sollte doch eh verschlüsselt sein diese Datei oder nicht? Wo ist dann das Problem?
Rein aus Interesse, wie macht das Firefox Sync, liegen die Logins da auch auf der Platte oder lediglich bei Mozilla auf dem Server (hoffentlich verschlüsselt)
 
Die liegen auch in Files (login.json). Der Sync macht nchts Anderes als die Files dann zu synchronisieren.
 
Und die login.json benutzt er nicht nur in dem Fall, dass ich kein Firefox Sync nutze sondern auch in Verbindung mit Sync? Und woher weiß Firefox Sync welche aktuell sind, die auf der Platte oder die auf dem Server? Oder nimmt er einfach immer die mit dem jüngsten Zeitstempel?
 
Sollte doch eh verschlüsselt sein diese Datei oder nicht? Wo ist dann das Problem?

Nein, leider nicht. Im GNOME Keyring oder in KWallet sind sie verschlüsselt. Ist beides aber nicht vorhanden, fällt Chrome auf besagte Plain-Datei zurück, und die ist unverschlüsselt.

Der Firefox speichert die Passwörter ebenfalls unverschlüsselt. Nur bietet dieser von Haus aus gar keine Schlüsselbundintegration und vertraut auf Extensions, um mit GNOME Keyring oder KWallet klarzukommen.

Beim Sync wird der wahrscheinlich ein Journal über die Datei halten, weil ansonsten ja gelöschte Passwörter wieder auftauchen würden.
 
Und wenn Chrome die Kennwörter nicht im GNOME Keyring speichert, prüf mal ob der beim Start der Session überhaupt geöffnet ist. Nutzt du GDM? Wenn nein, musst du die entsprechenden PAM-Konfigurationen für deinen Display Manager anpassen.
GDM nutze ich. Als Autostart in der sway config ist
Code:
exec_always /usr/bin/gnome-keyring-daemon --start --login
und auch polkit-gnome eingerichtet. Der Keyring wird bei jeder Session zuverlässig geöffnet.

Und selbst wenn ich im keyring die voreingestellten keys wie z. B.
Chrome Safe Storage Control (das andere heißt Chromium Safe Storage)
Code:
explanation: Because of quirks in the gnome libsecret API, Chrome needs to store a dummy entry to guarantee that this keyring was properly unlocked. More details at http://crbug.com/660005.
lösche, kommen diese wieder nach einem Chrome Neustart. Vielleicht ist es hardcoded und die oben erwähnte flag nutzt nichts?
 
Zuletzt bearbeitet von einem Moderator:
Und warum speichern die das nicht einfach gesaltet oder sonst irgendwie verschlüsselt ab in der Datei, die spinnen ja, die Römer. Oder spricht da was dagegen aus technischer Sicht?
Also mit andren Worten, beide Browser speichern die Sachen unverschlüsselt ab, solange kein Gnome Keyring genutzt wird und bei Firefox habe ich dafür nichtmal die Möglichkeit, da keine Schlüsselbundintegration?

Wofür gibt es dann bei Mozilla das "Master Password" mit dem alle anderen Passwörter "geschützt" werden können, wenn im Hintergrund eh alles plain text auf der Platte liegt? Sicher dass das alles plain text ist? Das hätte ja dann garkeinen Effekt.
 
Zuletzt bearbeitet von einem Moderator:
Doch: Wenn man im Fuchs ein Masterpasswort über alle Zugangsdaten vergibt, dann werden diese in der Datei verschlüsselt gespeichert.
(OK, ich benutzte ja nur noch den Waterfox, aber der ist ja schon überall übereinstimmend, wo der Firefox nicht verschlimmbessert wurde, und ich bin mir recht sicher, dass das damals als ich noch Firefox benutzt habe auch schon so war).
 
Zuletzt bearbeitet:
Aha, ja das würde dann schon mehr Sinn machen. Dann wäre nur noch die Frage, wie ist es wenn ich Firefox Sync UND Master Passwort nutze, liegen die Dateien dann sowohl lokal als auch in der cloud verschlüsselt vor oder nicht?
 
Hm, diese Tabelle macht da leider nicht gerade Hoffnung. Jede Lösung, bis auf das teure ZFS und das (für Raid6) unreife btrfs, hat gravierende Mängel.

Jetzt bin ich gerade am Überlegen, ob es Sinn machen könnte, einen Ceph Cluster über VMs auf nur einem System aufzubauen, wo man dann beim Zufügen einer neuen HDD aus einer existierende Vorlage-eine neue VM klont, die dann so konfiguriert, dass sie nur die neue HDD dem Cluster zur Verfügung stellt. Wird zwar vermutlich noch mehr Gefummel, hätte aber gegen ZFS ja den Vorteil, dass man die HDDs (für doppelte Redundanz) nicht in Dreierpacks hinzukaufen müsste, und gegenüber btrfs, dass es stabil ist.

Welche gravierenden Mängel hast du in der Tabelle gefunden?
Und wie siehts aus mit RAID10 bei Freenas, darüber schon mal nachgedacht? Da müsstest du nur 2 Disks als VDEV hinzufügen.
 
Aha, ja das würde dann schon mehr Sinn machen. Dann wäre nur noch die Frage, wie ist es wenn ich Firefox Sync UND Master Passwort nutze, liegen die Dateien dann sowohl lokal als auch in der cloud verschlüsselt vor oder nicht?

Die Dateien werden vor dem Übertragen in die Cloud noch einmal verschlüsselt.
Ich fand allerdings gerade ein anderes Problem. Demnach ist das File auf dem LocalStorage wegen Verwendung von SHA-1 wohl unsicher; ist zwar von Anfang 2018, aber keine Ahnung, ob da schon was verbessert wurde :(

- - - Updated - - -

Welche gravierenden Mängel hast du in der Tabelle gefunden?
Und wie siehts aus mit RAID10 bei Freenas, darüber schon mal nachgedacht? Da müsstest du nur 2 Disks als VDEV hinzufügen.

Also:
-Snapraid scheidet für mich wegen des Mangels an Echtezeitredundanz prinzipiell aus. Mein Server läuft nicht ständig, so dass ein regelmäßíger Job gewärhleistet werden könnte, und ich möchte mir auch die Gedanken ersparen das manuell zu machen, also per Snapshots.

-Unraid. Flexraid und StorageSpaces bieten keine Integrity (was ich bei hochdichten, modernen HDDs für sehr wichtig halte)

-btrfs gilt für Raid 6 als instabil

-und ZFS ist ja genau das, was ich ich loswerden möchte, bzw dessen Unflexibilität im Z2, wenn es um die Erweiterbarkeit um HDDs geht. Ein Raid10 mag ich nicht, weil dort ja das Verhältnis zwischen Roh und Nutz-Kapazität ja noch schlechter aussieht als bei Raid 6.
 
Die Dateien werden vor dem Übertragen in die Cloud noch einmal verschlüsselt.
Ich fand allerdings gerade ein anderes Problem. Demnach ist das File auf dem LocalStorage wegen Verwendung von SHA-1 wohl unsicher; ist zwar von Anfang 2018, aber keine Ahnung, ob da schon was verbessert wurde :(

Stimmt, das hab ich damals sogar mitbekommen aber wieder vergessen. Da man seitdem nix mehr gehört hat davon wird das bestimmt noch nicht gefixt worden sein sonst hätten sie es ja gleich an die große Glocke gehängt ;) Falls es nicht gefixt wurde schon peinlich für Mozilla, auch wenn ich sie eigentlich mag. Selbst ich weiß doch seit Jahren dass SHA-1 unsicher ist, warum sind dann die Big Player immer in Verzug sowas umzusetzen, frägt man sich dann immer.

Grad noch das hier gefunden: Firefox Lockwise
Nutzt das jemand bzw. weiß ob das nicht nur eine neue Ansicht für den bisherigen Passwort Manager ist, sondern auch sicherheitsrelevante Änderungen mitbringt?
In der offiziellen Meldung von Mozilla steht ja leider nur Marketing blabla und keine technischen Details: Firefox macht verbesserten Tracking-Schutz zum Standard und bietet noch mehr Sicherheit mit Updates für Facebook Container, Firefox Monitor und Firefox Lockwise – Mozilla Presse-Center
 
Zuletzt bearbeitet von einem Moderator:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh