somit habe ich zur Zeit auch keinen ECC Speicher drin.
Dann kannst du es auch gleich lassen. DISCUSSION - ECC vs non-ECC RAM and ZFS | FreeNAS Community
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
somit habe ich zur Zeit auch keinen ECC Speicher drin.
Das halte ich für Unfug, hatten wir zuvor schon mal in diesem Jahr irgendwo im Forum besprochen.Dann kannst du es auch gleich lassen. DISCUSSION - ECC vs non-ECC RAM and ZFS | FreeNAS Community
Hat jemand von Euch schon mal mit den EONNAS Systemen auf ZFS Basis Erfahrung gesammelt? Es gibt diese Systeme ja sogar mit 10GBit Interface, nur frage ich mich, ob da die Hardware überhaupt mitspielt? Meine folgendes Model: Infortrend EonNAS Pro Series 850-2
root@ripley:~# svcadm disable mysql
Der Datei /opt/local/my.cnf 'datadir = /pool_ripley/db' hinzugefügt, sonst nichts geändert.
root@ripley:~# mkdir /pool_ripley/db
root@ripley:~# chown mysql:mysql /pool_ripley/db -Rv
root@ripley:~# cp -rp /var/mysql/* /pool_ripley/db/
root@ripley:~# svcadm enable mysql
Meine Überlegung reicht soweit, eine kleine bis mittlergroße SSD (ca 128 GB Sata600) zusätzlich als Cache reinzuhängen.
Wenn ich jetzt eine neue Datenbank anlege, speichert die mysql weiterhin in /var/mysql/ und nicht unter /pool_ripley/db/.
Verdammich nochmal - was fehlt denn noch bzw. was mach ich wieder falsch?
Verschiebe doch einfach das komplette mySQL-Verzeichnis und setzte dann in /var einen Symlink auf dieses. Dann kannst Du die my.cnf unangetastet lassen.
Im Grunde gebe ich dir ja Recht, dass MySQL hier OT ist, da aber ganz offensichtlich MySQL in Verbindung mit Solarish was ganz Spezielles ist, dachte ich, wenn jemand helfen kann - dann hier und nicht in einem anderen MySQL-Thread oder Forum.No offense, aber dein MySQL-Problem ist hier ziemlich OT.
MySQL :: MySQL Forums
Der Tipp mit dem Symlink ist eine super Idee und sollte deine Probleme beheben, auch wenn es nur ein Workaround ist und keine richtige Lösung.
Ich habe kurz versucht zu antworten, aber es dann wieder gelassen weil das wohl eher so eine Sache ist die mit in 5-10 Minuten rüberschauen via SSH wohl gelöst ist aber via Forum langes raten und viel Tipperei erfordert und ich so gut wie keine Erfahrung mit MySQL unter Solaris habe, das wollte ich mir einfach nicht antun.
Warum XBMC nicht zugreifen kann ist dann wieder ein grundsätzliches, plattformunabhängiges MySQL-Problem. Datenbank und User angelegt, Passwort gesetzt, Berechtigungen eingestellt? Ist Zugriff von anderen IPs überhaupt möglich oder nur von Localhost? Eventuell Firewall aktiv? Hast du mal versucht mit einer MySQL-Konsole von dem Rechner mit XBMC dich mit deinem MySQL-Server zu verbinden? Was kommen da für Fehlermeldungen? Kann alles mögliche sein...
Hast du mal diese Anleitung befolgt? HOW-TO:Share libraries using MySQL - XBMC
NOTICE:
Users are reporting issues with MySQL 5.6. Use MySQL 5.5 instead.
Ich hab jetzt die e1000 entfernt und danach eine neue vmxnet3 der VM zugewiesen - also jetzt wieder 2 vnics.
Nics konfiguriert alles scheint ok zu sein.
Danach hab ich vom Backup-Server ein Replicate gestartet um den aio-pool zu sichern. Backup läuft bis 73% ohne murren durch.
Dann ein Kernel Crash:
Anhang anzeigen 276126
Hier Anhang anzeigen 276127 der komplette Log vom Crash.
Der Kernel-Crash ist vom Typ Defect - ich finde aber keinen Hinweis dazu was defekt sein soll.
Spaßeshalber kopiere ich von meiner Windows Dose auf den aio_pool jetzt schon mehrere 100Gb am Stück und hier crasht er nicht, auch der Kopier-Durchsatz ist ok.
Liegt es eventl. gar nicht an ESXi oder Omnios?
Kann mir bitte jemand weiterhelfen??
Sehe ich gerade erst. Kann dazu an sich NULL finden. Ich hab Zugang zu Solution Database von Solaris (10/11 Zertifiziert usw). Hab mich mal durch die Meldungen gewühlt und gesucht und wenig bis nichts gefunden.
Leider steht ja nix von "due to". KÖNNTE was mit L2arc zu tun haben.
16804978 - > https://getupdates.oracle.com/readme/150401-10
Sowas gilt ja nicht merh so ganz -> Solaris Crash Dump Analyse für Anfänger - c0t0d0s0.org
Keine Ahnung ob sowas funzt? -> https://blogs.oracle.com/solariscat/entry/oracle_solaris_crash_analysis_tool
An sich bin ich aber auch nicht in Solaris zu Hause. Bin 99% Storageadmin/SAN.
# zpool status -x
pool: pool_ripley
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see: http://illumos.org/msg/ZFS-8000-2Q
scan: resilvered 84K in 0h0m with 0 errors on Sun Mar 23 15:09:08 2014
config:
NAME STATE READ WRITE CKSUM
pool_ripley DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
c1t5000CCA22BC16BC5d0 ONLINE 0 0 0
c1t5000CCA22BEEF6A3d0 UNAVAIL 0 0 0 cannot open
mirror-1 ONLINE 0 0 0
c1t5000CCA22BC8D31Ad0 ONLINE 0 0 0
c1t5000CCA22BF612C4d0 ONLINE 0 0 0
.
.
.
spares
c1t5000CCA22BF5B9DEd0 AVAIL
# zpool status -x
pool: pool_ripley
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Sun Apr 6 14:36:09 2014
117G scanned out of 15.4T at 1.17G/s, 3h42m to go
11.7G resilvered, 0.74% done
config:
NAME STATE READ WRITE CKSUM
pool_ripley DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
c1t5000CCA22BC16BC5d0 ONLINE 0 0 0
spare-1 DEGRADED 0 0 0
c1t5000CCA22BEEF6A3d0 UNAVAIL 0 0 0 cannot open
c1t5000CCA22BF5B9DEd0 ONLINE 0 0 0 (resilvering)
mirror-1 ONLINE 0 0 0
c1t5000CCA22BC8D31Ad0 ONLINE 0 0 0
c1t5000CCA22BF612C4d0 ONLINE 0 0 0
.
.
.
spares
c1t5000CCA22BF5B9DEd0 INUSE currently in use
# zpool status -x
pool: pool_ripley
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see: http://illumos.org/msg/ZFS-8000-2Q
scan: resilvered 1.53T in 3h12m with 0 errors on Sun Apr 6 17:48:51 2014
config:
NAME STATE READ WRITE CKSUM
pool_ripley DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
c1t5000CCA22BC16BC5d0 ONLINE 0 0 0
spare-1 DEGRADED 0 0 0
c1t5000CCA22BEEF6A3d0 UNAVAIL 0 0 0 cannot open
c1t5000CCA22BF5B9DEd0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
c1t5000CCA22BC8D31Ad0 ONLINE 0 0 0
c1t5000CCA22BF612C4d0 ONLINE 0 0 0
.
.
.
spares
c1t5000CCA22BF5B9DEd0 INUSE currently in use
Klar gibt es das. Sorry, Solaris wird IMHO mit 11 enden. Keine Ahnung, mir aber auch egal. Viele mir bekannte Kunden bzw Firmen suchen einen Ausweg aus Oracle und das ganz massiv. Auf Enterprisetorages fummelt niemand an den Grundsystemen. Das sind irgendwelche proprietären Linux oder Sontwassachen. Bei ner Hitachi VSP bekommst Du einen oder mehr Schränke mit Platten. Da fummelt keine Sau mehr mit Betriebssystemen, dazu haben wir gar keine Zeit. Ebenso im SAN. Wir haben etwa 20 davon -> HDS: Hitachi Virtual Storage Platform (VSP) | Data Center Transformation with 3D ScalingAber als Storageadmin sollte gerade Solarish dein zu Hause sein - IMHO gibts nichts besseres als Solarish für Storage.
Hab ich gesehen aber genau und auch auf dessen Basis findet man wenig.Ich hatte ja auch noch fmdump hier online gestellt, aber auch nichts weiterführendes gefunden.
Ebenso ist ZFS nicht gerade das bevorzugte Ziel unserer Admins. .
https://en.wikipedia.org/wiki/Fear schrieb:By spreading questionable information about the drawbacks of less well known products, an established company can discourage decision-makers from choosing those products over its own, regardless of the relative technical merits. This is a recognized phenomenon, epitomized by the traditional axiom of purchasing agents that "nobody ever got fired for buying IBM equipment". The result is that many companies' IT departments buy software that they know to be technically inferior because upper management is more likely to recognize the brand.
Microsoft Propaganda die hier ähnlich auch immer von einigen Leuten gebracht wird wenn es um Open-Source-Lösungen geht. Hehe.https://en.wikipedia.org/wiki/Fear schrieb:Statements that "If an open source software solution breaks, who's gonna fix it?"[24]
Wichtig hierbei ist das dist-upgrade!Add the following to the /etc/apt/sources.list.d/zfsonlinux.list file:
deb http://archive.zfsonlinux.org/debian wheezy-daily main
then run 'apt-get update && apt-get dist-upgrade'.
Mit dem richtigen Know-How kann man auch in großen Rechenzentren gegenüber Blackboxen von Netapp eine Menge Geld mit Open-ZFS sparen ohne irgendwelche Risiken oder Leistungsnachteile. Immer nur eine Frage der Einstellung der Entscheidungsträger, Größe und Kompetenz der Firma. Gib mal "nobody got fired for buying" bei Google ein und schau dir die Vorschläge an. FUD-Opfer!
.
Ich verschlüssele aber immer grundsätzlich alle Systeme vollständig und mache keine Unterschiede zwischen unwichtigen und schützenswerten Daten, ist so wesentlich einfacher zu handeln.
Das interessiert mich sehr, könntest du darauf näher eingehen.
Naja, es kommt halt immer drauf an. Für ein Datengrab? Von mir aus. Irgendein NAS? Von mir aus.Mit dem richtigen Know-How kann man auch in großen Rechenzentren gegenüber Blackboxen von Netapp eine Menge Geld mit Open-ZFS sparen ohne irgendwelche Risiken oder Leistungsnachteile. Immer nur eine Frage der Einstellung der Entscheidungsträger, Größe und Kompetenz der Firma. Gib mal "nobody got fired for buying" bei Google ein und schau dir die Vorschläge an. FUD-Opfer!
Wie ziehst Du Daten von Box 1 auf Box 2 um? Welchen Support hast Du? Wir haben hier als Beispiel Datenmengen wo z.B. eine Maschine 4 Tage im Backup hängt. Wer supportet Dir jetzt Fehlersuche, Analyse der Firmwares, des Netzwerkes usw..? Die Community unter www.xyz ??? IMHO sollte man Support nie unterschätzen.0-8-15 Storage für SMB, NFS oder iSCSI mit NetApp oder EMC oder sonstwas spezielles > 100000 Euro ist naja ziemlich seltsam - hat keine wirkliche Vorteile außer dass man deshalb nicht sofort entlassen wird. HA oder besondere Anforderungen mögen das ändern.
Hi,
Beim Rest - und das ist ganz sicher nicht von oben herab gemeint - hab ich hier Petabyte an SSD, SAS, NL-SAS in den einzelnen Boxen. Mit ZFS kenne ich mich nicht gut genug aus. Wir müssen es leider in Zukunft einsetzen, bzw die Betriebssystemer.
ZFS kann sowas AFAIK nicht. ZFS sind Datenpools. Und bis zu einem gewissen Patchlevel konnte man nichtmal die darunter liegenden Disks online erweitern. Man musste stumpf von klein auf groß umziehen. Im Privatbetrieb vermutlich völlig egal - hier lebenswichtig.
Wie ziehst Du Daten von Box 1 auf Box 2 um? Welchen Support hast Du? Wir haben hier als Beispiel Datenmengen wo z.B. eine Maschine 4 Tage im Backup hängt. Wer supportet Dir jetzt Fehlersuche, Analyse der Firmwares, des Netzwerkes usw..? Die Community unter www.xyz ??? IMHO sollte man Support nie unterschätzen.
Der Pool striped über de Vdevs? Und wer teilt die Vdevs ein? Wenn ein Vdev, aus welchen Gründen auch immer, vorne und hinten auf einer Raidgruppe landen fahre ich mir meine Performance mal eben in den Keller. Vorne schreiben? Hinten lesen? Das ganze geht auch bei den dicken Kisten in Richtung Fire&Forget. Wie lege ich denn z.B. SSD Speicherplatz in einen ZFS Pool und nutze nur dieses Bereich für schnelle Mountpunkte? Es geht ganz sicher - aber hier will sich niemand damit beschäftigen. Und, auch hier sind Namen Schall und Rauch, bei 3 mir bekannten Großbanken und einem Autohersteller tut das auch niemand. ZFS? Ja, aber möglichst nicht fpr die hochperfomanten Sytembereiche.Bei ZFS werden keine Disks erweitert. Der ZFS Datenpool besteht aus einzelnen vdevs (unabhängige Raid Arrays). Das vergrößern eines Pools geht durch Hinzufügen weiterer Vdevs. Der Pool striped die Daten dann über die vdevs mit der Konsequenz dass nicht nur mehr Platz da ist sondern die Performance steigt. Ein irgendwie erreichbares Limit der Anzahl der vdevs oder der Poolgröße gibt es dabei nicht. Auf diesem Datenpool werden dann Dateisysteme angelegt, deren Größe dynamisch bis zur Poolgröße wachsen kann. Die Verwaltung geschieht mit Reservierungen und Quotas (Speichervirtualisierung eingebaut).
Genau - im RAM. Wieviel Ram solls denn sein? Unserer 250GB Datenbanken liegen, sofern möglich auf den M9000, komplett im RAM. Jetzt braucht ZFS nochmal wieviel genau? Ich sehe Tiering nicht als überflüssig an. Ich will ja nichts fest auf SSD nageln (in aller Regel nicht) sondern, je nach Anforderung, alle 5Minuten oder alle 8 Stunden mal auswerten und umsortieren.Das sehr gute ZFS Caching von Daten im RAM oder SSD macht das Tiering aber meist überflüssig. Bei besonders zeitkritischen Sachen kommen dazu vermehrt SSD only Systeme.
Ja - übers Netzwerk. Da freut sich die DWDM Strecke .Bei ZFS macht man eine Datenmigration lokal oder übers Netz mit zfs send -> zfs receive auf Basis eines Datensnaps auch im laufenden Betrieb. Das überträgt ein komplettes Dateisystem als Datenstrom mit maximaler Performance. Anschließend noch eine inkrementelle Aktualisierung und so ein Umzug geht unabhängig von der Größe fast ohne Unterbrechung der Erreichbarkeit.
Schon wahr. Ich will auch ganz ZFS nicht schlecht reden, wirklich nicht. Es ist alles gut mit ZFS.Eine wie auch immer geartete Hochverfügbarkeitslösung ist aber klar was anderes als ein reines Standard- NAS oder SAN Storagesystem bei dem man schon abwägen kann ob man dafür etwa eine NetApp oder einen Standardserver von Dell, HP oder SuperMicro einsetzt für den Bruchteil des Preises, vor allem dann wenn wie bei Solaris im Wesentlichen eh nur das Betriebssystem darauf läuft weil es bereits alles abdeckt ohne dass man "fremde" Servermodule etwa für SMB, NFS oder iSCSI/FC installieren und warten muss. Deren Pflege macht bereits Oracle oder Illumos bei den freien Varianten.
Das Problem ist die Historie. Beispiel von HDS oder anderen. Deviceemulationen wie Open-E oder Open-sonstwas. Die Grundlagen kommen afaik aus dem Mainframebereich und sind weiterhin mehr oder weniger aktiv im Backend bzw der Hintergrundverwaltung zu finden. Ebenso die 42MB Pages mit denen die HDS arbeitet -> Dynamic Provisioning: The 42MB page unravelled | Technical Deep DiveAnsonsten wage ich mal die Prognose, dass bis in 5 Jahren fast jedes kommerzielle Storage ZFS einsetzt oder etwas anderes das vergleichbare Features aufweist wie z.B. ReFS oder btrfs (Prüfsummen auf Daten und Matadaten und CopyOnWrite). Es wird sicher große Firmen geben die Ähnliches oder Besseres selber pflegen wie z.B. NetApp. Der Vorteil von ZFS ist halt, dass es seit Jahren kommerziell eingesetzt wird und dementsprechend stabil, frei und auf allen Plattformen außer Windows verfügbar ist.
Bin jetzt seit 2001 bei SUN bzw auch im Storageumfeld - ich habe noch keinen Datenverlust erlebt den ZFS hätte verhindern können. Das heisst natürlich nicht das es die nicht gibt.Performance ist aber weniger der Grund für ZFS sondern eher Eigenschaften wie Verifizierung der Daten und die garantierte Konsistenz des Dateisystems auch bei Abstürzen bei aktiven Schreiboperationen und damit das Fehlen der Write-Hole Probleme eines Raid-5/6.
No offense taken, wir sind doch hier unter Profis.Darauf bilde ich mir nichts ein, ich bin nichts besseres oder so. Da war nur ne Beschreibung.
Das stimmt so nur noch für x86, unter Sparc verliert man quasi keine Performance mehr, genau so wie es sein soll, siehe https://blogs.oracle.com/BestPerf/entry/20130326_sparc_t5_2_zfscrypto und http://www.hardwareluxx.de/community/f101/zfs-stammtisch-570052-115.html#post22041525 .zur Verschlüsselung
ZFS-Verschlüsselung gibt es derzeit nur bei Oracle Solaris 11. Das ist aber nicht gerade bekannt für extreme Performance. Die anderen Optionen sind verschlüsselte Devices. Ich nehme mal an, dass die jetzige Verschlüsselung auch so funktioniert. Das bleibt also mit ZFS gleich schnell oder langsam wie mit anderen Dateisystemen.
IT-Nachrichten liest du nicht?So lange ZFS bei Oracle liegt wird da kaum einer ernsthaft ran gehen. Letztendlich - wozu?
Ich denke da du seit Jahren dich um Inhouse-IT kümmerst kennst du hauptsächlich die eigenen Verfahren und Lösungen, auch wenn das schon die komplexeste und teuerste Technik ist, ist es schon ein Unterschied viele verschiedene Kunden mit unterschiedlichen Produkten, Anforderungen, Fehlerquellen... erlebt zu haben. Als externe Dienstleister ist das halt etwas anderes, da kommt man rum und sieht viele Lösungen.Wir, oder besser die OSTruppe, wird ZFS nutzen müssen. Wir stellen nur den Storage zur Verfügung. Ein Pool besteht aus einem Storagedevice und ergibt einen Mount.
Zu 100%. Die Preise für eine RG 200GB SSDs darf man wirklich nicht nennenIch wage einfach mal die kühne Behauptung dass du mit einem ZFS-System SSD-only gehen könntest und auf HDDs verzichten könntest da die Anschaffungskosten für das reine System ohne Speicher viel günstiger ist. Natürlich nur eine Aussage aus meinem Bauchgefühl ohne überhaupt die konkreten Zahlen zu kennen.
Ja, das wollen die nämlich nicht.Wahrscheinlich ist dass auch einer der Gründe warum man kaum negatives über diese Firmen hört.
Nee, war mir nicht so bewusst. ZFS ist hier Oracle. Man wird auch über die Sol11 Zerti dahingehend geführt das alles mit Sol11 ZFS ist und so . Gehst Du hier hier und sagst "Ja. Ich bin von Firma XY und wir haben Storage mit ZFS". Was passiert? Nichts. Seit der Übernahme von SUN hat sich Oracle nicht wirklich mit Ruhm bekleckert. Sachen eingestellt, Preise angehoben usw usw.. Die T5-4 schlagen allerdinsg gerade ein wie eine BombeIT-Nachrichten liest du nicht?
ZFS spielt sich mittlerweile nicht mehr bei Oracle ab, das was Oracle macht interessiert das breite Publikum seit Open-ZFS schon lange nicht mehr.
Ich bin mir sicher dass du mit dem was ZFS grundsätzlich ist und was es kann mehr als zu frieden sein wirst und du dich ärgern wirst es nicht schon vor ein paar Jahren angeschaut zu haben.