[Sammelthread] ZFS Stammtisch

Wollte mich nur noch im Nachhinein für die Antworten bedanken.
Ich hatte gehofft, dass das mit der neuen ZFS Version, die ich jetz auch durch FreeNAS 8.3 in meinen Pools habe, endlich geht :(
Schade :(

Dann bleibt wohl nur der Weg über elends langes Daten hin und herschieben :(
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hatte nur den 3512 + 2 Platten kein Raidgehäuse :)

Schade, dass du meinen Beitrag nicht beantwortest, sondern mir eine nicht weiterführende Antwort gibst. :heul:

---------- Post added at 16:47 ---------- Previous post was at 16:28 ----------

Mit Raid-1 ohne ZFS und Prüfsummen gibt es gerne Probleme, falls eine Platte fehlerhafte Sektoren hat und das OS beim Lesen nicht erkennen kann, dass die gelesenen Daten fehlerhaft sind. Da sind dann alle möglichen Probleme drin.

Da ist mit lieber, ich habe nur eine Bootplatte und einen (oder mehrere/frühere Versionen) funktionierenden Spiegelsatz im Schrank. Die lassen sich mit diesen driverless Sata-Raid-1 im laufenden Betrieb einstecken (ein rebuild startet) und anschließend herausnehmen.

Ok, jetzt hab ich deinen Intention verstanden.

Bei deinem all-in-one Setup steht ja inzwischen:
Add a boot disk to Onbaord Sata (best a 40+ GB SSD)
optionally use a driverless Hardware Sata Raid-1 enclosure like a Fantec MR-25DR or Raidsonic SR2760-2S-S2
or Raid-1 modules like a Dawicontrol DC-5220
da kann man jetzt auch folgende Teile hinzufügen:
- Dawicontrol DC-5200
- Digitus DS33101 PCI-Karte (wenn man keinen SATA-Port belegen will bzw mehr frei hat.)

Sorry @gea, dass ich nachbohre. :)

Diese Satz hattest du gestern geschrieben:
Ich nehme die nur noch dazu um damit einen oder mehrere bootfähige Mirrors zu erstellen um diese dann herauszuziehen und zur Seite zu legen. Bei Änderungen schiebe ich dann eine Platte ein um einen aktuelle Mirror zu erstellen.
Versteh ich das Richtig.
Du installierst ESXi und OI auf der solo-Bootplatte, steckst dann eines der obigen Teile ein mit einer 2. Platte und erzeugst einen Mirror. Danach wieder die Mirrorplatte raus und ab in den Schrank und es bleibt nur eine HDD, für den laufenden Betrieb, drinne.
 
Zuletzt bearbeitet:
Schade, dass du meinen Beitrag nicht beantwortest, sondern mir eine nicht weiterführende Antwort gibst. :heul:



Sorry dachte das wäre klar :)

Ich hatte ESXi mit der Digitus Karte + einer Festplatte installiert und nach dem alles installiert war dann mit der zweiten Platte als Raid1 hochgefahren und nach dem er mit der Spiegelung fertig war die eine Platte in den Schrank gelegt als Sicherung.

Habe das aber im Moment nicht mehr am laufen da mein Arbeitsrechner vereckt ist und ich dann die Hardware vom ESXi brauchte :)
 
- Digitus DS33101 PCI-Karte (wenn man keinen SATA-Port belegen will bzw mehr frei hat.)

Sorry @gea, dass ich nachbohre. :)

Diese Satz hattest du gestern geschrieben:

Versteh ich das Richtig.
Du installierst ESXi und OI auf der solo-Bootplatte, steckst dann eines der obigen Teile ein mit einer 2. Platte und erzeugst einen Mirror. Danach wieder die Mirrorplatte raus und ab in den Schrank und es bleibt nur eine HDD, für den laufenden Betrieb, drinne.

Ja korrekt,
ich hatte jetzt schon mehrfach Probleme mit den Hardware Raid-1 bei dem es sich herausstellte, dass einer der beiden Platten Sektorfehler hatte. Beim weiteren Betrieb waren dann irgendwann beide Mirrors malade. Da ist es mir lieber ich habe eine Platte in Betrieb und eine zweite, funktionierende in Reserve. Der Totalausfall einer Platte (die durch das Raid-1 beherrscht wird), ist leider der seltenere Fall.
 
Hallo Ihr,

ich stehe leider mit dem Thema "Statistik" auf dem Kriegsfuss und brauche daher Euren Rat.
Bisher betreibe ich mein ZFS mit einem vdev aus 10Platten im RaidZ2, später ist daher im Idealfall eine Erweiterung um 10Platten notwendig. Leider sehr kostenintensiv.
Jetzt habe ich die Idee, den Pool neu zu bauen als 2x 5Platten im RaidZ1. Der Vorteil wäre wohl eine Performanceverbesserung, der Hauptvorteil für mich wäre aber, später in kleineren Stücken erweitern zu können, also ein 3. vdev mit 5 Platten im RaidZ1.
Der Nachteil ist jetzt aber, das nicht beliebige 2 Platten gleichzeitig ausfallen dürfen. Ist das statistisch eine relevante Größe?
Ein Backup liegt natürlich vor, auf Grund der Datenmenge aber nur von den "überlebenswichtigen" Daten.
 
Wieso kannst du später nicht mit kleineren vdevs erweitern? Ist doch völlig egal, wie groß das neue vdev ist.
 
Das kommt auf die Plattengröße an, je höher die Kapazität je höher die Wahrscheinlichkeit für einen nicht wiederherstellbaren Lesefehler. Je nach dem von was für Zahlen man ausgeht (Kapazität, Enterprise/Consumer-HDD...) kannst du mit einer Komplettausfallwahrscheinlichkeit von 3 bis 15% rechnen. Schau dir mal die Formeln an und rechne es für dich selber durch, hatte das in ZFS Stammtisch Post #2437 bereits geschrieben.
Why RAID 5 stops working in 2009
Why RAID 6 stops working in 2019
Ich werde nicht müde diese Sachen immer wieder zu verlinken. :fresse:
 
Zuletzt bearbeitet:
Hallo,

@ TCM: man soll laut ZFS-Lehre die Raidlevel bei den vdevs nicht mischen. Später mal ein Z2 aus 4..6 Platten wäre Verschwendung (für den Privateinsatz), aus 10 Platten auf einmal zu teuer.
@ Grafiktreiber: eingesetzt werden aktuell Hitachi Deskstar 7k3000 2TB, später dann wohl eher 4TB-Platten.
 
Zuletzt bearbeitet:
Hi,

wie kann ich am einfachsten die Performance des ZFS-Raids testen ? Also sowas wie ATTO oder ähnliches ?

Danke :)
 
Hallo,

@ TCM: man soll laut ZFS-Lehre die Raidlevel bei den vdevs nicht mischen. Später mal ein Z2 aus 4..6 Platten wäre Verschwendung (für den Privateinsatz), aus 10 Platten auf einmal zu teuer.

Das hat aber glaub ich nur den Hintergrund, dass die Leistung innerhalb des Pools dann schwanken kann. Technisch spricht nichts dagegen.

Und mal ehrlich, was sind die paar Euro für eine Platte mehr, wenn dafür die Daten sicherer sind? Ich gehe mal davon aus, dass du von dem Pool kein komplettes Backup hast bei Privateinsatz. Unter RAIDZ2 würde ich nicht gehen; einfach mit 4+2 erweitern.
 
Hallo TCM,

an 4+2 hatte ich bei 4TB-Platten auch schon gedacht, vorallem gerade weil ich die oben angeführten Artikel gelesen habe und hier sogar schon über 12TB pro vdev komme. Zum "technisch vs. Theorie" hast Du recht, es liefen bei mir bis vor kurzem 6+2 und 4+2. Ich hätte es aber gern ordentlich, ausserdem versucht man ja die Ports der Kontroller gut auszunutzen.
 
Hi,

wie kann ich am einfachsten die Performance des ZFS-Raids testen ? Also sowas wie ATTO oder ähnliches ?

Danke :)

Ich nehme immer NetIO ist kostenlos und ist in 1 Minute Ready-to-use :) NetIO :: network lab Oder ich lege ein iSCSI Target an und benche dann mit CrytalDiskMark, oder ATTO (aber da kann man nicht mit SMB vergleichen, iSCSI ist natürlich schneller aber so gehts auch wenn du das nutzen magst).
 
Hmm,
sowohl Atto als auch Crystal Disk Mark kann man auf ein gemaptes Netzlaufwerk loslassen, somit lassen sich auch SMB Werte vergleichen
 
Hallo Leute,

ich hatte einen HDD Ausfall im Storage, zum Glück ist alles noch ok und funktioniert - obwohl es einige Komplikationen gab, aber seitdem bekomme ich Alert-mails mit folgendem Inhalt:

Code:
Alert/ Error on sumi02 from  :

  pool: rpool
 state: ONLINE
status: The pool is formatted using an older on-disk format.  The pool can
	still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'.  Once this is done, the
	pool will no longer be accessible on older software versions.
  scan: scrub repaired 0 in 0h19m with 0 errors on Sun Dec  2 03:19:19 2012
config:

	NAME        STATE     READ WRITE CKSUM
	rpool       ONLINE       0     0     0
	  c3t0d0s0  ONLINE       0     0     0

errors: No known data errors

  pool: sm02
 state: DEGRADED
status: One or more devices could not be opened.  Sufficient replicas exist for
	the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
   see: http://illumos.org/msg/ZFS-8000-2Q
  scan: scrub in progress since Sat Dec  8 03:00:12 2012
    738G scanned out of 1.65T at 64.6M/s, 4h9m to go
    0 repaired, 43.82% done
config:

	NAME          STATE     READ WRITE CKSUM
	sm02          DEGRADED     0     0     0
	  mirror-0    ONLINE       0     0     0
	    c4t0d0    ONLINE       0     0     0
	    c4t2d0    ONLINE       0     0     0
	  mirror-1    ONLINE       0     0     0
	    c4t1d0    ONLINE       0     0     0
	    c4t4d0    ONLINE       0     0     0
	  mirror-2    DEGRADED     0     0     0
	    c4t3d0    ONLINE       0     0     0
	    spare-1   DEGRADED     0    86     0
	      c4t7d0  UNAVAIL      0     0     0  cannot open
	      c4t6d0  ONLINE       0     0     0
	spares
	  c4t5d0      AVAIL   
	  c4t6d0      INUSE     currently in use

errors: No known data errors
------------------------------
zpool list
NAME    SIZE  ALLOC   FREE  EXPANDSZ    CAP  DEDUP  HEALTH  ALTROOT
rpool  19.9G  9.55G  10.3G         -    48%  1.00x  ONLINE  -
sm02   2.72T  1.65T  1.07T         -    60%  1.00x  DEGRADED  -

Pool capacity from zfs list
NAME	USED	AVAIL	MOUNTPOINT	%
rpool	15.8G	3.77G	/rpool	19%
sm02	1.94T	1.03T	/sm02	35%


und so sieht die Ausgabe von cfgadm aus:


Code:
admin@sumi02:~$ cfgadm
Ap_Id                          Type         Receptacle   Occupant     Condition
c3                             scsi-bus     connected    configured   unknown
sata0/0::dsk/c4t0d0            disk         connected    configured   ok
sata0/1::dsk/c4t1d0            disk         connected    configured   ok
sata0/2::dsk/c4t2d0            disk         connected    configured   ok
sata0/3::dsk/c4t3d0            disk         connected    configured   ok
sata0/4::dsk/c4t4d0            disk         connected    configured   ok
sata0/5                        sata-port    disconnected unconfigured unknown
sata0/6::dsk/c4t6d0            disk         connected    configured   ok
sata0/7                        sata-port    disconnected unconfigured unknown
usb0/1                         unknown      empty        unconfigured ok
usb0/2                         unknown      empty        unconfigured ok
usb0/3                         unknown      empty        unconfigured ok
usb1/1                         unknown      empty        unconfigured ok
usb1/2                         unknown      empty        unconfigured ok
usb1/3                         unknown      empty        unconfigured ok
admin@sumi02:~$


Ich würde jetzt gerne verstehen, ob mein Pool wieder OK ist, oder ich ein ernsthaftes Probleme habe

und

wie ich die nicht mehr vorhanden Platten aus der Anzeige bekomme, weil ich an diese Ports mal wieder eine Spare hängen möchte?


Gruß & schönes Wochenende
 
Hmm,
sowohl Atto als auch Crystal Disk Mark kann man auf ein gemaptes Netzlaufwerk loslassen, somit lassen sich auch SMB Werte vergleichen

Danke für die Info, benutze keine Netzlaufwerke greife immer nur via UNC Pfad zu. So ist es ja noch einfacher zum testen :)




Btw.

Kleine Verständnisfrage:

Code:
root@ZFSSERVER:~# zpool list
NAME      SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
backup   2,72T   832G  1,91T  29%  1.00x  ONLINE  -
daten    2,72T  1,22M  2,72T   0%  1.00x  ONLINE  -
rpool    29,8G  12,7G  17,0G  42%  1.00x  ONLINE  -
safe     55,5G   708K  55,5G   0%  1.00x  ONLINE  -
storage  3,62T   830G  2,81T  22%  1.00x  ONLINE  -

Wieso hab ich bei dem Pool storage 830 GB und bei dem Pool backup 832 GB obwohl beide den gleichen Inhalt haben ?!

Kompression ist bei beiden aus, beide haben die gleichen Pool Einstellungen und mit rsync ist der komplette root bei beiden Pools gespiegelt 1 zu 1.

Wieso hab ich dann bei dem einen Pool 2 GB mehr belegt? Verstehe ich nicht :confused:
 
Zuletzt bearbeitet:
Ich würde jetzt gerne verstehen, ob mein Pool wieder OK ist, oder ich ein ernsthaftes Probleme habe

Der Pool is ok da die defekte Platte durch die Hotspare ersetzt wurde.
Dennoch bleibt der Status degraded, da die defekte Platte noch nicht ersetzt wurde und die Hotspare nicht verfügbar ist.

Die Idee dahinter: Die Hotspare springt zwar ein und ersetzt die defekte Platte, bleibt aber weiter eine Hotspare.
Wenn eine Platte ausfällt so ist diese zu ersetzen und die defekte durch die neue zu ersetzen (disk replace defekt -> neu)
Die Hotspare kehrt dann in Ihren Soll-Status Available zurück und der Pool ist wieder im normalen Online Status.

Alternativ kann die INUSE-Hotspare entfernt werden und wird dann zu einer normalen Poolplatte.
Dann ist der Pool auch wieder im grünen Bereich. https://blogs.oracle.com/eschrock/entry/zfs_hot_spares

Falls alles gerichtet wurde, und dennoch alte Fehlermeldungen da sind, können diese mit zpool clear gelöscht werden

---------- Post added at 14:18 ---------- Previous post was at 14:11 ----------

Kleine Verständnisfrage:

Wieso hab ich bei dem Pool storage 830 GB und bei dem Pool backup 832 GB obwohl beide den gleichen Inhalt haben ?!
Kompression ist bei beiden aus, beide haben die gleichen Pool Einstellungen und mit rsync ist der komplette root bei beiden Pools gespiegelt 1 zu 1.
Wieso hab ich dann bei dem einen Pool 2 GB mehr belegt? Verstehe ich nicht :confused:

Daten belegen ja nicht exakt den Platz der ihrer Byteanzahl entspricht, sondern das hängt auch von anderen Dingen wie z.B. der (bei ZFS variablen) Blocksize ab.
 
Danke gea :)

Kleine Frage noch an dich ich konnte unter napp it leider keine LU für iSCSI erstellen, ich musste das immer per CLI machen. Es gab keine Fehlermeldungen beim erstellen und als ich eine Thin Prov LU angelegt habe und wollte dann bei Add View das ganze eintragen, kam immer "keine LU gefunden". Erstelle ich die LU per CLI, kann ich ganz normal im Web GUI auf Add View alles einbinden und auswählen. Hab Solaris 11.11 als Grundsystem und napp it ist 0.8j.
 
Danke gea :)

Kleine Frage noch an dich ich konnte unter napp it leider keine LU für iSCSI erstellen, ich musste das immer per CLI machen. Es gab keine Fehlermeldungen beim erstellen und als ich eine Thin Prov LU angelegt habe und wollte dann bei Add View das ganze eintragen, kam immer "keine LU gefunden". Erstelle ich die LU per CLI, kann ich ganz normal im Web GUI auf Add View alles einbinden und auswählen. Hab Solaris 11.11 als Grundsystem und napp it ist 0.8j.

Ich habe diese Konfiguration nicht am Laufen (arbeite auch hauptsächlich mit OI und neuerdings OmniOS). Mit Solaris 11.1 und napp-it 0.9 an dem ich gerade arbeite, kann ich File und Volume-based LU's jedoch anlegen. Entweder darauf warten (Christmas edition) oder die letzte 0.8 testen.
 
Ok danke für die Info, ich warte mal auf dein Christmas Update :)
 
Der Pool is ok da die defekte Platte durch die Hotspare ersetzt wurde.
Dennoch bleibt der Status degraded, da die defekte Platte noch nicht ersetzt wurde und die Hotspare nicht verfügbar ist.

Die Idee dahinter: Die Hotspare springt zwar ein und ersetzt die defekte Platte, bleibt aber weiter eine Hotspare.
Wenn eine Platte ausfällt so ist diese zu ersetzen und die defekte durch die neue zu ersetzen (disk replace defekt -> neu)
Die Hotspare kehrt dann in Ihren Soll-Status Available zurück und der Pool ist wieder im normalen Online Status.

Alternativ kann die INUSE-Hotspare entfernt werden und wird dann zu einer normalen Poolplatte.
Dann ist der Pool auch wieder im grünen Bereich. https://blogs.oracle.com/eschrock/entry/zfs_hot_spares

Falls alles gerichtet wurde, und dennoch alte Fehlermeldungen da sind, können diese mit zpool clear gelöscht werden



Danke gea,

hat geklappt wie beschrieben, state: ONLINE - wie es sein sollte
 
Ok danke für die Info, ich warte mal auf dein Christmas Update :)

Ein erstes developer preview von napp-it 0.9 ist online
(falls es bereits jemand testen möchte)

Installiert wird per:
wget -O -www.napp-it/nappit09 | perl

anschließend reboot und root passwort neu setzen
Ein Zurückgehen auf 0.8 geht nur über die BE (Systemsnaps)

Die Version sollte keine größeren Bugs mehr haben,
es ist aber eine developer release (ich hoffe auf letzte Fehlermeldungen zum fixen)
Code:
changelog:
0.9 pre1
improved disk detection (hot plug)
improved performance for disk details and smart infos
performance improved smartdetection
smart: start short/long checks
support for disk partitions

disk detection with disks like c3d1 fixed
UNAVAIL disk replace with GUID disk not working

jobmanagement: edit timetable and parameter, code and logs optimized, all actions in separate files

monitor extension:
	topmenu edit = display cli commands, return values and hashvalues without reload
	log actions, realtime mini log, realtime page update
replication extension: code and logs optimized, speed improvements with buffered transfer
acl extension: new feature: reset ACL recursively to current folder settings, bugfix with resetting files
manual network settings: bugfix

Solaris 11.1: NFS sharing, and pam settings fixed
OmniOS: supported
NexentaCore: no longer supported
 
Zuletzt bearbeitet:
Hätte jemand noch ein Tipp wie man ein Solaris-Derivat virtualisieren kann?
Probleme sind meine Extrawünsche: Durchreichen (Vt-d) des onboard-SATA-Controllers, Durchreichen einer der beiden onboard-NICs oder schnelle virtuelle Netzwerkbrücke (virtio, xen-guest-treiber, vmware?) und optional hätte ich noch eine PCI TV-Karte für eine andere virtuelle Maschine
ein SAS-Controller (HBA) ist seit gestern da, aber es fehlen noch die Kabel und es scheitert ja nicht nur am onboard-SATA:

bereits probiert:
  • Linux KVM (länger im Einsatz, siehe Sign.) mit OpenIndiana 151a7 und 151a5 - kein virtio Netzwerktreiber und die onboard-Netwerkcontroller kann ich durchreichen, funktionieren dann aber nicht
  • Xen mit oi - paravirtualisiert hab ich schnelles Netzwerk aber glaub der xen pci Hosttreiber fehlt - also keinen durchgereichten SATA Controller und die Platten einzeln will ich nicht!
  • Xen mit oi - HVM: bleibt gleich beim Boot hängen - da hat mich zugegeben die Probierlust verlassen...
  • ESXi - wie zu erwarten nicht mit meiner Hardware kompatibel. alle Geräte tauchen in der Liste zum durchreichen auf, nach Neustart ist nur onboard-SATA übrig und beim Bootversuch gib't einen schönen rosa screen (PSOD)

Nachdem ich in Nas4free auch keine virtio-Treiber auftreiben konnte und ich nicht mit einer zusätzlichen halbwegs funktionierenden Realtek-PCIe-Karte glücklich wurde läuft jetzt normales FreeBSD mit virtio-Treibern. Wenn ich da noch ein wenig am NFS und Samba optimiere, kann ich da mit leben, aber in einem Solaris würde sich mein ZFS pool sicherlich noch heimischer fühlen ;-)
 
ESXi 5.0 probiert? 5.1 hat irgendwelche Probleme mit VT-d.
 
ESXi 5.0 probiert? 5.1 hat irgendwelche Probleme mit VT-d.
Danke, gut zu wissen. Hab die aktuellste Version genommen die ich gefunden habe, sehr wahrscheinlich 5.1. Wenn mein ZFS wieder befüllt und somit die kleinen unwichtigeren Backup-Platten wieder frei sind versuch ich's mal parallel. Am allerliebsten wäre mir ja schon ein Linux-Host, zumal aktuell auch der Stromverbrauch passt: 50W inkl. 5 Platten! Aber ESXi ist halt die einzige Lösung, die auch im Internet halbwegs verbreitet zu sein scheint um oi virtuell zu betreiben.

Frage zu ZFS:
Kann man die Komprimierung so zwischendrin aktivieren (oder deaktivieren)? Falls ja, wird die dann nur bei neuen Daten aktiv oder kann man das auch nachträglich auf bestehende Daten anwenden?
Dedup werde ich bei meinem Datenprofil zu wenig brauchen als dass es sich lohnt, aber LZJB-Komprimierung würde ich gerne mal testen.
 
Wo ist das Problem mit KVM unter Linux? Nimm als Netzwerkkarte einfach e1000 (virsh .... --network bridge=br0,model=e1000 ... ), du brauchst kein virtio. Natürlich ist virtio besser, aber e1000 ist besser als gar nichts und war bis vor kurzem auch noch das was man für die Virtualisierung von Windows und Linux standardmäßig verwendete da virtio noch nicht ausgereift war.
Schau dir mal Proxmox VE an, dann musst du nicht alles per Hand machen.

Compression/Dedup kannst du auch nachträglich aktivieren, deaktivieren bin ich mir gerade nicht sicher, ich meine aber es geht auch, nie getestet. :)
Meine Praxiserfahrung ist das LZJB für die meisten Anwendungszwecke mehr als ausreichend ist und nicht zu viel Performance kostet. Tests mit g-zip, besonders auf höheren Levels waren bei bestimmten Daten ziemliche Performance-Killer, brachten aber auch teilweise wesentlich höhere Kompression zu Stande. Ich finde LZJB ist ein guter Kompromiss aus Platzeinsparung und Performance, ist wohl auch der Grund warum es das Standardkompressionsverfahren für ZFS ist.
Du kannst Dedup und Compression auch auf Filesystems anwenden, du musst das nicht auf Pool-Ebene machen.

zfs create meinpoolname/compressiontestdateisystem
zfs set compression=on meinpoolname/compressiontestdateisystem

So könntest du z.B. ein extra Filesystem machen wo du nur Logs, die sich ja bekanntlich sehr gut komprimieren lassen, anlegen und nicht wirklich komprimierbare Dateien wie z.B. Videos in ein anderes Filesystem verfrachten.
 
Zuletzt bearbeitet:
ESXi 5.0 probiert? 5.1 hat irgendwelche Probleme mit VT-d.

Hast Du dazu irgendwelche Quellen? Passthrough meines LSI 9211 klappt wunderbar mit der 5.1, aber meine DVB-PCIe-Karte bekomme ich einfach nicht zum Laufen. Das hat zwar mit 5.0 auch nicht funktioniert, aber bevor ich da jetzt mit 5.1 weiter experimentiere und es damit gar nicht funktionieren kann...
Welche Art von Problemen sind denn da bekannt?
 
Wo ist das Problem mit KVM unter Linux? Nimm als Netzwerkkarte einfach e1000 (virsh .... --network bridge=br0,model=e1000 ... ), du brauchst kein virtio. Natürlich ist virtio besser, aber e1000 ist besser als gar nichts und war bis vor kurzem auch noch das was man für die Virtualisierung von Windows und Linux standardmäßig verwendete da virtio noch nicht ausgereift war.
Schau dir mal Proxmox VE an, dann musst du nicht alles per Hand machen.

Ich dachte der e1000 wäre im Durchsatz ein gutes Stück von gbit entfernt, aber wenn man ihn nicht gerade für vm-vm-Verbindungen braucht ist der Unterschied zum virtio ja wirklich nicht soo groß. iperf bescheinigt in beide Richtungen 600-700 Mbit. Allerdings ist mir beim Testen ein weiteres Problem von oi@KVM wieder eingefallen: mein onboad-Controller sorgt in illumos-Distris für einen freeze beim Hochfahren, sobald mindestens eine Festplatte dran hängt. Ohne Festplatten fährt er hoch, aber hot plug'n'play funktioniert nicht, d.h. bis ich meine SAS->SATA-Kabel bekomme und den HBA verwenden und testen kann, bleibt mein ZFS im FreeBSD-basierten nas4free. (Wenn ich Zeit habe teste ich noch ob's mit den WD-Platten zusammenhängt, ansonsten noch Solaris 11)
Ich habe grundsätzlich nichts gegen "per Hand machen", aber eine Dauerlösung waren meine Tests in Gentoo sicher nicht, also hab ich Proxmox getestet und es gefällt mir größtenteils sehr gut - Danke! Ähnlicher Kernel als im zuvor genutzten CentOS, aber debian und für das meiste eine GUI, herrlich :)
 
Proxmox VE nutzt einen RHEL-Kernel, der Rest ist Debian, daher die "Ähnlichkeit" zu CentOS. ;)
 
Zuletzt bearbeitet:
Angenommen ich hätte einen Storage Pool mit 3x 1,5tb Platten in RAIDZ1.
Jetzt kaufe ich 1x 3TB dazu, nehme diese mit in meinen Storage Pool / RAIDZ1 auf.

Mein RAIDZ1 wird somit von 3x1,5tb auf 4x1,5tb (je brutto) erweitert.
Auf der 3TB Platte sind noch 1,5TB Platz.

- Gibt es eine Möglichkeit die als JBOD zu nutzen?
- Angenommen ich erweitere jetzt das RAIDZ1 (keine diskussion ob RAIDZ1 dann noch gut ist, bitte) um weitere 2x 3TB Platten,
könnte ich auf den 3x1,5TB freiem Platz der neuen Disks ein neues RAIDZ1 aufmachen? D.h. 2x 1,5TB RAIDZ1 Member pro Disk?
 
Ja, weise einfach nicht die komplette Festplatte zu sondern erstelle zwei Partitionen, die eine weist du dem Z1 zu, die andere formatierst du ganz normal mit ZFS oder weist einem anderen Zpool zu.

So einfach ist das! :fresse: krautchan-1315668603001.jpg
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh