[Sammelthread] ZFS Stammtisch

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum 42HE wo doch 8 reichen würden...? ;) Gut, wahrscheinlich sind die Anschaffungskosten ein gewisser Faktor...

Supermicro | Products | SuperStorage Servers | 4U | 6048R-E1CR90L

Nun, die MSA60 sind spottbillig und außerdem habe ich das Rack für meine gesamte restliche Lebenszeit dimensioniert. Ich bin es einfach leid immer wieder was neues bauen zu müssen, weil der Speicherplatz eng wird und ich das bestehende nicht erweitern kann!
Und mit dem jetzigen Aufbau bin ich extrem glücklich! Jetzt muß nur noch das Software-ige zu Ende konzipiert und auch realisiert werden!
 
Sorry für Offtopic aber 144 Platten im Dauerbetrieb? Wieviele User sollen damit abgefrühstückt werden? Kannst du dich nicht von Daten trennen? Schonmal was von Streaming gehört? Filme/Musik brauchen am meisten Platz. Privat durch die Kamera fällt schon einiges an aber bestimmt nichts, was 144 Platten füllen würde. :hmm:

Schau dir auch mal Cloud Dienste an, da bist du wirtschaftlich 1000 mal besser dran. 144 Platten á 200€ => ~ 30k€ ... da könntest du lebenslang irgendeinen Cloud-Dienst nutzen und noch deine monatliche 1Gbit Leitung bezahlen

Genug ausgekotzt, viel Spaß mit 144 Platten und den zugehörigen Stromkosten ^^

PS: Backup nicht vergessen ;)
 
Ich gehe natürlich nicht sofort in den Vollausbau, das geschieht im Laufe meines Lebens bedarfsorientiert. ;)

Warum ich das tue?! Für mich ist nur Lossless das einzig Wahre, also FLAC und Remux-MKVs. Und so ein von Blu Ray erstellter remuxter Film hat so seine 25 GB (statistisch gesehen), meine aktuelle Sammlung hat bereits 100 TB. Streaming ist ganz nett, aber ich will die Kontrolle darüber behalten, wann ich was ansehen oder anhören will. Bei Netlfix & Co. bin ich auf deren Lizenz-Einkauf angewiesen. Und zu guter Letzt bin ich einfach ein Riesenfan von Kodi und dem Emby Server! ;)
Ne 1 Gbit-Leitung wäre ja echt toll, aber mehr als VDSL 50 werde ich auf absehbare Zeit nicht sehen ...

Naja, und vom Downloaden aus den diversen Warez-Boards halte ich mal sowas von gar nichts ...

Nun aber wieder Back to Topic!
 
hey, ich glaub hier bin ich mit meinem problem richtig ;-)

habe vor ein paar Tagen zum ersten mal FreeBSD installiert für ein Eigenbau NAS. Hab ein raidz mit 4 Platten erstellt (mittels "zfpool create raidz1 <name> <disks>", evtl. war hier schon der Fehler?)
Jedenfalls hab ich in weiser voraussicht dass etwas schiefgehen könnte das ganze dinge erstmal ein wenig getestet (also verzeichnisse erstellt, testdateien drauf, wieder gelesen etc.) und alles hat soweit funktioniert.
Am nächsten Tag war der Pool allerdings wieder leer. Ich habe nichts von Hand gelöscht o.ä., aber es war genau NULL noch drauf von dem was ich erstellt/kopiert habe.
Da ich den Rechner allerdings per shutdown -h now (und nicht -p) runtergefahren hatte und dann den Strom selber weggenommen hab, hab ich einfach nochmal daten draufgeschaufelt und das ding neu gestartet, runtergefahren, mehr rumgetestet -> alles gut.
Also angefgangen Daten draufzuschaufeln... hat soweit ganz gut funktioniert, bis dann irgendwann ein Fehler kam.
Schaut euch das mal an:

Code:
$ df
Filesystem  1K-blocks      Used    Avail Capacity  Mounted on
/dev/ada4p2 116597276 116568980 -9299484   109%    /
devfs               1         1        0   100%    /dev
$ zfs list
NAME   USED  AVAIL  REFER  MOUNTPOINT
tank  57.2G  15.3T  57.2G  /tank

System-SSD ist 128GB ;-)

Was läuft schief?
 
Ich höre und lese immer "in die Cloud". Aber Storage muss ja trotzdem wo vorhanden sein; auch wenn es bei einer anderen Firma gehostet ist.

Ob da eine Chance besteht, dass die Funktionen des Solaris ZFS-Kern (z.B. direkter SMB-Service) es dann Richtung OpenZFS schaffen oder ist das komplett illusorisch?
 
ergänzende informationen zu meinem problem von oben:

Code:
$ df
Filesystem  1K-blocks      Used    Avail Capacity  Mounted on
/dev/ada4p2 116597276 116568988 -9299492   109%    /
devfs               1         1        0   100%    /dev
$ zpool list
NAME   SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
tank  21.8T  78.8G  21.7T         -     0%     0%  1.00x  ONLINE  -
$ zpool status
  pool: tank
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        tank        ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            ada0    ONLINE       0     0     0
            ada1    ONLINE       0     0     0
            ada2    ONLINE       0     0     0
            ada3    ONLINE       0     0     0

errors: No known data errors
$ zpool get allocated
NAME  PROPERTY   VALUE  SOURCE
tank  allocated  78.8G  -
$ zfs get available
NAME  PROPERTY   VALUE  SOURCE
tank  available  15.3T  -
$ zfs list
NAME   USED  AVAIL  REFER  MOUNTPOINT
tank  57.2G  15.3T  57.2G  /tank
 
Ich höre und lese immer "in die Cloud". Aber Storage muss ja trotzdem wo vorhanden sein; auch wenn es bei einer anderen Firma gehostet ist.

Ob da eine Chance besteht, dass die Funktionen des Solaris ZFS-Kern (z.B. direkter SMB-Service) es dann Richtung OpenZFS schaffen oder ist das komplett illusorisch?

Ich glaube nicht dass es eine Option für den Solaris CIFS Server auf BSD oder den Linux Distributionen gibt. Der Aufwand wäre einfach zu groß und es gibt da ja bereits SAMBA der für alles bereitgestellt wird was 1 und 1 binär zusammenzählen kann. Außerhalb von Solaris ist ZFS eh nur eine Option unter Vielen. Da das alles dank OpenSolaris/ Illumos OpenSource ist wäre das eh unabhängig von Oracle.

Nach dem was ich gelesen habe plant Oracle wohl Sparc, Solaris und Hardware für Endkunden einzustellen und Storage oder Solaris Services/ Zones/ Cluster als Clouddienst anzubieten. Da gibt es nur eine Hardware und einen Kunden (Oracle selber). Dafür braucht man nicht mehr die tausenden Entwickler, Supporter oder Verkäufer/Manager. Abgerechnet wird in Oracle Manier per Storage und CPU Cores. Wenn man Oracle oder dem Heimatschutzministerium in den USA traut und man entsprechende Netzperformance hat kann das sogar für Kunden kostensparend sein und mit garantierter Verfügbarkeit - zulasten des eigenen Know Hows. Kann sich irgendwann rächen.
 
Ich gehe natürlich nicht sofort in den Vollausbau, das geschieht im Laufe meines Lebens bedarfsorientiert. ;)

Warum ich das tue?! Für mich ist nur Lossless das einzig Wahre, also FLAC und Remux-MKVs. Und so ein von Blu Ray erstellter remuxter Film hat so seine 25 GB (statistisch gesehen), meine aktuelle Sammlung hat bereits 100 TB. Streaming ist ganz nett, aber ich will die Kontrolle darüber behalten, wann ich was ansehen oder anhören will. Bei Netlfix & Co. bin ich auf deren Lizenz-Einkauf angewiesen. Und zu guter Letzt bin ich einfach ein Riesenfan von Kodi und dem Emby Server! ;)
Ne 1 Gbit-Leitung wäre ja echt toll, aber mehr als VDSL 50 werde ich auf absehbare Zeit nicht sehen ...

Naja, und vom Downloaden aus den diversen Warez-Boards halte ich mal sowas von gar nichts ...

Nun aber wieder Back to Topic!

Was für ein Quatsch.
144 Platten bei derzeit 100TB...
Wenn man grob 1500 Watt für die Platten zählt (Realistischerweise sollten es eher 2000-3000 sein mit den MSAs) sind das alleine 250 Euro Strom im Monat.

Warum nicht 10x 10TB im RaidZ2 pro vDEV und davon zunächst 2.

Das ergibt rund 140-150TB Nutzbare Kapazität bei gerade einmal 20 Platten. Und man kann jederzeit weitere 10x 10TB als vDEV dem Pool beifügen.
 
Er hat geschrieben, dass der Vollausbau 144 HDDs sind und er aktuell 100 TB Kapazität hat.Er hat nicht geschrieben wie viele HDDs er aktuell dafür nutzt, außer das es wohl min. 12 sind - wenn man bedenkt, das er bisher vorzugsweiße 12 er Pools/VDevs genutzt hat.
 
Zuletzt bearbeitet:
Wie kommst du denn auf den schiefen Gedanken?!

Meine aktuelle Sammlung an Video und Audio verbraucht 100 TB, liegend auf 15x 8TB als RAID5. Und ich habe auch nur die MSA60 im Betrieb, die mit Platten besetzt sind. Aktuell sind das 2.
Wobei ich sagen muss, dass ich zwecks ZFS alles umbaue und daher auch die alte Config nicht mehr da ist. Also RAID und so, die Hardware bleibt!
Wenn ich irgendwann im Leben denn den Vollausbau erreicht habe, reden wir von 920 TB Nettokapazität. Aber da muss man auch erstmal hinkommen, und so viele neue gute Filme oder Serien kommen auch nicht pro Jahr.

Und ich bin mit dem Aufbau sehr glücklich!
 
Kurzes OT: bist du der McStarfighter aus dem kodinerds Forum? Da hast du ja deinen "Plan" schon mal genau erläutert. ;>
 
@McStarfighter
Die 12-Platten Gehäuse schreien ja förmlich nach Raidz2.. 10 Platten und 2 Slots frei für Rebuild/Plattentausch. Dann macht das 80TB/Gehäuse...
Übrigens bin ich dazu übergegangen keine untouched MKV von BluRays mehr zu speichern. mMn Verschwendung von Platz.
 
@the_pi_man: Kannst du gerne so handhaben, ich habe den Tower extra wegen der untouched MKVs aufgestellt! ;) Und die MKVs sind auch viel schneller erstellt als wenn man da noch Handbrake anwirft zwecks Eindampfen.
Und RAID-mäßig wird es in Zukunft ein 8+1 RAID-Z, die dann gepoolt. Dazu noch 4 Global Hot Spares für den gesamten Tower!
So unter uns: Ich habe diese Größenordnung aufgestellt, weil mir auf Dauer auch ein Lian Li PC-D8000 zu eng wurde (damals noch mit 4TB-Platten!) und ich einfach kein Bock mehr habe mir irgendwas neues für mein privates Netflix auszudenken.

Um das jetzt mal abzuschließen: Ich weiß was ich da mache, ungewöhnliche Konstruktionen habe ich schon seit knapp 6 Jahren erdacht, aufgebaut und später zwecks Vergrößerung wieder verworfen. Und eindringliche Empfehlungen bzgl. irgendwelcher Änderungen höre ich auch nicht zum ersten Mal. Man muß sich nur mal [WIP] McStarfighters Kodi Tower - Der finale Wahnsinn - HTPC - Planung Ideen - Kodinerds.net - Deutschsprachiges Forum zum Kodi Entertainment Center durchlesen, dass ist voll davon!
Ich muß keinerlei Enterprise-Vorgaben erfüllen und vom Verlust der Daten auf dem Server hängt auch nicht meine Existenz ab. Es ist dann halt einfach nur sehr ärgerlich, weil man die ganzen MKVs neu erstellen muß (und auch die FLACs!). Und genau so gehe ich im Kopf auch an die Sache ran! PUNKT!

Und jetzt sollten wir wieder mal daran denken, dass das hier der ZFS-Stammtisch ist und keine Diskussion über das Setup meines Racks. Wer diskutieren will, kann sich ja bei den Kodinerds anmelden!
 
@McStarfighter
Die 12-Platten Gehäuse schreien ja förmlich nach Raidz2.. 10 Platten und 2 Slots frei für Rebuild/Plattentausch. Dann macht das 80TB/Gehäuse...
Übrigens bin ich dazu übergegangen keine untouched MKV von BluRays mehr zu speichern. mMn Verschwendung von Platz.
oder Raidz3 = 11+1 Spare
Den Spare Slot läßt man leer, denn ein Hot-Spare läuft ungenutzt mit (oder mit an, um dann schlafengelegt zu werden) und verschleißt dann natürlich auch.

- - - Updated - - -

habe vor ein paar Tagen zum ersten mal FreeBSD installiert für ein Eigenbau NAS.
Gibt es einen speziellen Grund für FreeBSD statt einer spezialisierten FreeBSD basierten NAS Distri? (FreeNAs, NAs4Free).
Wenn ja, solltest du dir mal TrueOS (ehemals PCBSD) anschauen, die ZFS Intergration ist hier deutlich weiter (inklusive Installation auf einem rPool >> ZFS Mirror, Raidzx)
TrueOS | FreeBSD Desktop Operating System with ZFS - TrueOS
 
Und genau so gehe ich im Kopf auch an die Sache ran! PUNKT!
Ein Punkt ist aber kein Argument. Kann man alles machen aber wirtschaftlich ist das, wie schon gesagt wurde, absolut Schwachsinnig, was Anschaffungskosten und Stromkosten betrifft.
Zumal was willst du in 10Jahren noch mit Bluray Rips? Dann bekommste alles per Streaming in FHD oder sogar 4K mit mindestens der selben qualität weil die Codecs werden auch effizienter. Einfach mal zurückdenken: Was hätte man heute von einem riesigen DVD Archiv auf HDD? Da bekomm ich bei Netflix und Co den Film in besserer Qualität.
Wenn das jemand als Hobby macht ist ja okay, aber akzeptier doch einfach dass es wirtschaftlich keinen Sinn ergibt;)
 
Gibt es einen speziellen Grund für FreeBSD statt einer spezialisierten FreeBSD basierten NAS Distri? (FreeNAs, NAs4Free).
Wenn ja, solltest du dir mal TrueOS (ehemals PCBSD) anschauen, die ZFS Intergration ist hier deutlich weiter (inklusive Installation auf einem rPool >> ZFS Mirror, Raidzx)
TrueOS | FreeBSD Desktop Operating System with ZFS - TrueOS

Ups, hatte gedacht ich hätte hier schon geschrieben... scheinbar vergessen auf abschicken zu drücken ;-)

Mein Problem ist schon gelöst... ist eher peinlich:
der Pool war einfach nicht gemountet (Zusätzlich noch das zfs_enabled="YES" in der rc.conf vergessen).
Der mountpoint hat ja trotzdem existiert und dementsprechend konnte ich da auch "reinschreiben" ohne dass er sich beschwert hat. hat dann halt auf die SSD geschrieben (sieht man ja oben an den 109% belegt).
Witziger noch: als der Pool dann gemountet war (ohne Fehlermeldung dass das Zielverzeichnis nicht leer ist!) konnte ich natürlich die auf der SSD vorhandenen Daten nicht mehr löschen/verschieben... jetzt war an der gleichen Stelle ja der Pool gemountet.

Alles etwas seltsames Verhalten...

Und das mit FreeBSD statt FreeNAS o.ä.: hauptsächlich 1.) Bastelwut (und das dazugehörige Bedürfnis zu Wissen wie genau die Sache funktioniert) und 2.) ein "gesundes" Misstrauen gegenüber Fertiglösungen (wenn ich's selber machen kann, wieso sollte ich es jemand anderem anvertrauen der es dann evtl. schlechter macht wie ich?)
 
Nas4free läuft bei mir gut und performant seit ein paar Jahren; dazu bin ich eigentlich per Zufall gekommen weil FreeNas zu dem damaligen Zeitpunkt, warum auch immer, nicht stabil lief. Bei N4F bliebs dann bis heute.
Ohne Kommandozeile gings aber trotzdem nicht, und im Zweifelsfall braucht mans eh mal um seine Daten retten, transferieren, was auch immer machen muss. Es geht halt einfach mehr damit.

Auf Original FreeBSD bin ich momentan aber auch am bissl rumprobieren, um einfach zu lernen. Oder z.B. mal Bhyve als Virtualisierer anzutesten (statt ESXI).
 
@CommanderBond: Die wenigsten Hobbys sind wirtschaftlich sinnvoll! ;) Und ja, mein Projekt kostet gut Geld. Macht mir aber auch nix aus, dafür habe ich einen Heidenspaß daran!

Und das Streaming-Argument lasse ich so nicht gelten: Zum einen bist du auf den Katalog der Anbieter angewiesen und zum anderen auf die mögliche Bandbreite bei dir vor Ort. Bei ersterem habe ich festgestellt, dass nur knapp 1/3 meiner Sammlung sich auch bei Netflix und Amazon zusammen finden lassen. Nach deiner Argumentation soll ich also auf 2/3 meiner gewünschten Filme und Serien verzichten, weil die Studios entweder keine Lizenzen dafür rausrücken oder die Anbieter die Preise nicht zahlen wollen. Ganz zu schweigen von Filmen und Serien, die entweder ne SPIO haben oder gar auf dem Index stehen.
Außerdem sind Medien, die ich mag, für mich kein Wegwerfprodukt gemäß dem Motto "Konsumieren und dann weg damit". Wenn ich das Produkt mag, dann will ich es auch haben. Und zwar in echt und nicht nur als Zugriff in der Cloud! Und ich will selbst bestimmen, wann ich was ansehen will!
Ist halt einfach eine andere Grundhaltung als deine ... ;)

- - - Updated - - -

Ach ja, ich habe dann auch mal eine ZFS-Frage ...

Wie notwendig ist ein Slog eigentlich? Braucht man das bei einem, mehr oder weniger, Cold Storage?
Bin da bisher nicht so recht durchgestiegen ...
 
Slog: nicht sinnvoll für deinen Einsatz.

Und: ich kann Deine Gedanken grds. verstehen. Ich hab aber gerade mal ~15TB an digitalen Sicherheitskopien meiner ca 1000 Original-Disks - und das als "verlustfreie" ISO-Kopien (40-50GB pro Blueray, 4-8GB pro DVD)! Wenn Du 100TB an MKVs da liegen hast, kannst Du ja ganze Wände tapezieren. :d Respekt, da will ich hin! Kaufe auch immer noch deutlich mehr DVD/BD als ich streame. Rational? Nein. Liebhaberei halt.

Aber: ich plane mein Storage definitiv nicht "for a lifetime". Meine Pools bestehen aus 4TB drives in einem 4er Pool (RaidZ) und 8er Pool (RaidZ2). Wo die Reise dann mal hingeht, keine Ahnung.
 
@McStarfighter Bei den Datenmengen ist zfs eine gute wahl..zudem hsst du noch nette features wie Checksum, Snapshots etc. Jedoch würde ich dir wie gea auch kein raidz1 empfehlen.. (egal ob kleine oder grosse vdevs). Bei vielen kleinen vdevs steigen die iops aber die sind für deine zwecke ja gar nicht nötig. Ich würde für dein vorhaben lieber größere vdevs empfehlen... bei großen Platten ist die gefahr dass eine zweite hdd in EINEM vdevs bei einem resilver, der bei raidz Multi-TB pools lange dauert, einfach sehr groß... gerade wenn es alle die gleichen platten sind, vom gleichen hersteller mit ähnlichen Produktionsdatum. Bei großen vdevs musst du halt beim erweitern des pools mehr platten besorgen als wenn du kleine vdevs nutzt, aber wie du schon geschrieben hast, sind dir die kosten eines großen storage pools bewusst. Um nachts rühig zu schlafen und du deine blurays nicht alle wieder neu einlesen musst investiere etwas mehr in raidz2 vdevs und dafür vllt 1-2 filme weniger. (Spare hier nixht am falschen ende.. vorallem weil du ja schreibst dies soll ein storage auf lebenszeir sein bzw von der grundkonfigurstion stetig anwachsen). Wie gesagt bei größeren vdevs ist der "verlust" an platz durch parität nicht ganz so groß. Evtl rentiert sich bei dir, da du keinen schnellen pool brauchst und eher wenig multiuserzugriffe hast auch ein raidz3 mit sehr großem vdev pro pool. Wie viele vdevs hast du denn geplant bei deinem raidz1 vorhaben? Bedenke dass der ganze pool weg ist wenn dort PRO vdevs zwei hdd kaputt gehen.

-PS: Soweit ich weiss kannst du dein pool auch mit unterschiedlichen Plattengroessen erweitern und hast immer die volle Kapazität als Erweiterung (nur das anfangs gewählte raidlevel wie mirror, raidz1,raidz2 sollte gleich sein)...Beispiel : du hast bereits 2x raidz2 a 12x 6TB Platten. Erweitern kannst du den pool auch mit einem weiteren raidz2 a 12x 10TB Platten oder mit nur 12x3TB wenn du diese zB billig geschossen hast.. Natürlich ist es wirtschaftlicher möglichst große Hdds zu nehmen da jede hdd Geld in form von Steckplätze an HBAs / Controllern kostet und natürlich strom.

-Ein SLog/ZIL (synchroner schreibcache) ist für dein vorhaben nutztlos.. ein l2arc (lesecache) könnte bedingt was bringen wenn du filme öfters guckst/zurückspulst.. also mehrmaliger zurgiff der daten etc.. Falls die Daten im l2arc vorliegen "schonst" du halt die platten ein wenig da hier auf den schnelleren lesecache zugeriffen wird (meist ssd).

-recordsize=1m ist bei dir empfehlenswert. Compression=lz4 schadet eigentlich nie.

-Welche Hardware liegt vor? ECC RAM ist empfehlenswert
-Bedenke auch die Anlaufspannungen am Netzteil bei vielen Platten.. (Evtl staggered spin up nutzen oder ein Netzteil mit starker single rail)
-Bei ZFS die Platten am besten an den mainboard sata controller oder HBA (Klassiker sind IBM M1015 oder dell h310 perc im IT Mode).. Keine Raidcontroller o.Ä.
 
Zuletzt bearbeitet:
-Ein SLog/ZIL (synchroner schreibcache) ist für dein vorhaben nutztlos.. ein l2arc (lesecache) könnte bedingt was bringen wenn du filme öfters guckst/zurückspulst.. also mehrmaliger zurgiff der daten etc.. Falls die Daten im l2arc vorliegen "schonst" du halt die platten ein wenig da hier auf den schnelleren lesecache zugeriffen wird (meist ssd).
Wird beides nix bringen bei dem Anwendungsfall. Habe ja auch ein Server mit nur Filmen drauf. Was soll der L2ARC Cache da genau machen? Außerdem willst du die Filme gucken oder willst du ständig hin und her springen?
Mehrere vdevs sehe ich auch kein Sinn drin. Mach doch mehrere voneinander unabhängige Pools. Durch ein Pool über mehrere vdevs erhöht man in diesem Anwendungsfall nur das Risiko eines Totalverlustes falls ein vdev mal abschmiert.

Ist halt einfach eine andere Grundhaltung als deine ...
Ich bezweifle einfach dass man heute auf sein geripptes DVD Archiv zurückgreifen würde wenn man den Film auch in HD aus der Cloud bekommen kann;)
Zumal je älter Filme und Serien werden desto unproblematischer dürfte das auch mit den Rechten usw sein;) Bei speziellen Filmen kann ich es noch nachvollziehen, bei der 0815 Kost aber nicht, die wird man in ein paar Jahren auch "an jeder Ecke" in 4K bekommen. Internetverbindungen werden ja schneller und die Codecs effizienter.
 
Zuletzt bearbeitet:
@CommanderBond: Streaming ist ja gut und schön, aber zum einen bist du dann auch immer von einer existierenden Internetleitung abhängig. Und zum anderen muss man ja immer mehr Anbietern Geld geben, um möglichst viel abzudecken. Netflix und Amazon ist klar, dann noch Sky für die HBO-Sachen, Crunchyroll für Anime und ab 2019 noch Disney mit ihrem firmeneigenen Streaming-Portal (und dann bekommt man deren Zeug auch nur noch dort!). Wenn dieser Trend in Hollywood die Runde macht, machen bald alle großen 5 sowie auch die "größeren Kleinen" auch ihren eigenen Dienst auf. Und die alle wollen dann immer brav ihre 10 Dollar / Euro im Monat. Und dann habe ich immer noch nicht alles zusammen, was ich mag und schätze. Mal davon abgesehen, dass es mir einfach zu blöd ist, dann immer zu überprüfen, welcher Dienst was hat und dann immer zu aktivieren oder deaktivieren. Ganz zu schweigen von der Anbindung via Smart TV!
Das Aussterben physikalischer Datenträger im Heimkino-Markt wurde schon mit Aufkommen der ganzen Warez-Börsen prophezeit, aber passiert ist da nix. Und warum? Weil die Studios mit den Scheiben einfach viel mehr Geld machen als mit den Streaming-Portalen!
Naja, und das Formate-Karussell dreht sich auch nicht ewig weiter. DVDs sind noch heute der Platzhirsch unter den physikalischen Datenträgern (ich glaube so 65-70%) und die Blu Rays folgen dann auf Platz 2 mit ihren um die 30%. Die UHD-BD spielt da keine Rolle und ich bezweifle dass sich das signifikant ändert. Von DVD zu BD war noch eine deutliche Verbesserung zu erkennen, mit der UHD-BD ist das weniger der Fall.
Solange die Studios alle immer ihr eigenes Ding machen wollen und nicht jeder potenzielle Kunde einen echten Breitband-Anschluß hat, solange wird es auch physikalische Datenträger geben ... Und dank Wiederverkäufern wie reBuy und Co. ist die Beschaffung auch nicht allzu teuer!
 
Wenn iostat keine Errors oder unterschiedliche Performance der Platten zeigt hätte ich oplock in Verdacht

Umschalten mittels
svccfg -s network/smb/server setprop smbd/oplock_enable=false

Kann ich das Kommando auch absetzen wenn OmniOS Member einer Windows Domaine ist, oder sind da Probleme zu erwarten?
 
Man wird wohl lediglich den SMB Service neu starten müssen.
 
Hallo Gea,

vielen Dank.
Seit Wochen wunder ich mich, warum das Schließen von Exceltabellen rund 5 Sekunden dauert, ohne das die Dateien editiert wurden.
Nach Absetzen des Kommandos oplocks_enable=false alles wieder normal.
 
Hallo Gemeinde,

mein NAS auf Debian Wheezy mit ZoL läuft und läuft.
Nun habe ich mich mal seit langem mal wieder gekümmert und endlich gemerkt, das ZFSOnLinux die Pakete nicht mehr hosted...aber Backports gibt es nur in Jessie, Wheezy hängt in der Luft. :wall:
Na Prost...soviel zu 7.01 LTS bei Deboan.

Welche Optionen habe ich nun das System wieder wartbar zu bekommen?

Die Disks sind mit LUKS verschlüsselt, da drüber ist das ZoL...ein "apt-get dist-upgrade" würde ich erstmal nicht versuchen :sick:
Was ist Eure Meinung?

Danke im Voraus!

LG,
Hominidae
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh