[Sammelthread] Der NAS4Free Anleitungen/Tipps/Hilfe Thread

Muss man das verstehen ?

Habe gerade nochmal getestet. Habe den Backup Benutzer in alle spezifischen Benutzergruppen eingeteilt (z.B. Benutzergruppe "Simon" für meinen persönlichen Ordner). Dann hab ich mit WinSCP die Gruppenberechtigungen dementsprechend gesetzt. Gruppe Simon +rwx. Immer noch n Fehler.
Setze ich jetzt allerdings die Rechte auf Andere +rwx, dann funktioniert alles ohne Probleme.....
Allerdings will ich das so nicht lassen. Das wäre mal ne Notlösung, aber unschön :(

Hast du vllt ne Idee was da wieder falsch sein könnte ?

Edit:

Also ich habs jetzt mal so gemacht:

Nen extra Ordner "Backup" angelegt und darin für jeden User nen eigenen Ordner.
Bei den rsync-Modulen hab ich jeweils die zugelassene IP der Hosts eingetragen. Unschöner Workaround aber funktioniert erstmal.
Find ich seltsam dass ich die Rechte für others setzen muss, damit rsync funktioniert, obwohl das ganze mit nem Benutzer durchgeführt wird, der eigentlich in den entsprechenden Gruppen ist...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wird bei euch der Server mit Nas4Free mit 100 oder 1000 Geschwindigkeit im Netzwerk angezeigt?

Muss ich auf BSD einen separaten Treiber installieren damit die Karte die Gigabit Geschwindigkeit kann?
 
Hi,

bei mir steht 1000 Mbit, so wie es sein soll. Was hast du denn für eine Netzwerkkarte (exaktes Modell)? Oder wenn es ein Onboard LAN ist, was für ein Mainboard setzt du ein? Wie hast du dein NAS4Free System angeschlossen im LAN, mit einem Switch? Router? Wenn ja welchen genau? Ohne genaue Angaben kann man nicht helfen.
 
Ich habe mal eine Frage/Problem zum RAM Verbrauch von nas4free. Ich habe einen IBM X336 mit 8GB RAM und ZFS Mirror (Raid 1) laufen.
Zugriff erfolgt von 20 Nutzern über Samba auf mehrere Freigaben. Ansich läuft der Server ohne Probleme sauber seit Monaten.
Was mir aber auffällt ist das der RAM schon zu 90% voll. Selbst nach einem Neustart geht der Verbrauch nach 1 Tag wieder hoch auf 90%.
Davon sind rund 3.5G Active und genau so viel ist Wired.
Jetzt ist die Frage ob der hohe RAM Verbauch problematisch ist oder sein kann bzw. wie kann man den Wired RAM wieder frei bekommen?
Eine Aufrüstung auf 16GB habe ich schon versucht aber scheinbar laufen nur spezielle IBM Riegel in dem Server.
 
ZFS nutzt den RAM als Lese-/Schreibcache das passt schon, die Verwaltung geht automatisch da musst du nichts machen. RAM ist doch nur hilfreich wenn er auch richtig genutzt wird, freier RAM wäre nicht optimal und sogar zu schade für ZFS, meine 16 GB RAM sind auch "normal" mit 15 GB in Nutzung ich habe damit permanent volle Geschwindkigkeit. Meine Tuning Tipps von Seite 1 zielen auch darauf den maximalen RAM Speicher auch richtig auszunutzen für beste Leistung.
 
Hallo,

ich habe das Problem, dass bei mir pyload nicht immer automatisch beim hochfahren startet. Ich habe die Anleitung wie im ersten Beitrag beschrieben durchgeführt. Lustigerweise klappt es manchmal und manchmal wieder nicht. Dann muss ich in das Webinterface von Nas4free, den Befehl: su User -c "/usr/home/start.sh start" aus dem Befehlsskript kopieren.
Wenn ich den Befehl dann unter dem Reiter Erweitert - Befehl ausführe, bekomme ich die PID und pyload läuft.
Jemand eine Idee?

Gruß

Ironcurtain
 
Hallo @AG1M,

könntest Du mir die Werte für 12GB RAM (1x4, 1x8) nennen?

Danke dafür!

variousos
 
Abend,

Code:
vm.kmem_size="11G"
vfs.zfs.arc_max="9728M"
vfs.zfs.arc_min="9728M"
vfs.zfs.txg.timeout="5"
vfs.zfs.txg.write_limit_override="1073741824"
vfs.zfs.vdev.min_pending="2"
vfs.zfs.vdev.max_pending="10"
vfs.zfs.prefetch_disable="0"

arc.max / min testweise auch mit 10240 jeweils probieren, sollte auch noch passen.
 
Hallo ich habe ein Performanceproblem mit einem von meinem NAS. Ich habe zwei fast identische NAS.
Hier die Konfiguration:
NAS 1:
MB: ASRock B75 Pro3
CPU: Intel Pentium G2130, 2x 3.20GHz
Ram: 16gb
Platten: 8x Seagate Desktop HDD.15 4TB, (ST4000DM000) mit raidz1

NAS 2:
MB: ASRock B75 Pro3
CPU: Intel Celeron G1630, 2x 2.80GHz
Ram: 16gb
Platten: 8x Seagate Barracuda 7200.14 3TB, (ST3000DM001) mit raidz1

Mein Problem ist das bei NAS 1 der Zugriff auf die Verzeichnisse teilweise ewig braucht und es während dem Kopieren auch manchmal zu hängen scheint was sich in kurze Performanceeinbrüchen der Kopierrate ausdrückt. Ich habe das mal beobachtet und während ich zum Beispiel ein sehr großes Verzeichnis öffne mit Total Commander leuchtet die Festplatten LED konstant während es ewig dauert bis so ein Verzeichnis geöffnet ist. Bei NAS 2 werden gleich große Verzeichnisse mit ähnlich vielen Dateien und Verzeichnissen viel schneller geöffnet. Es scheint hier also auf jeden Fall um irgend ein Bug zu handeln. Das ist extrem nervig weil es so praktisch unmöglich ist in Unterverzeichnisse zukommen ohne ewig drauf zu warten. Mit cifs dauert es am längsten mit FTP geht es viel schneller aber beim Kopieren hakt es auch da manchmal bei bestimmten Verzeichnissen/ Dateien. Auch das Löschen solcher großen Verzeichnisse dauert mit dem internen FILEBrowser von NAS4FREE auch ewig. Es ist also kein cifs Problem sondern hat irgendwas mit dem Zugriff auf die Dateien selbst zu tun. Ich habe mal ein scrub durchlaufen lassenund das hat bei 20 Terabyte ungefähr 8 Stunden gedauert. Die Geschwindigkeit wurde mit 600-700 MB/s angezeigt und es gab keinen Fehler. Ich hab echt keine Ahnung woran das liegen kann. Ich glaube ich hab beim Erstellen des raidz1 jeweils nicht 4k angeklickt weil die Platten ja eine Emulation 512e haben. Ich habe hier im Thread ja gelesen das man das machen soll aber theoretisch wirkt sich das nur auf die Schreibrate aus. Am Anfang als das NAS noch nicht voll war lief soweit ich mich erinnern kann alles schnell. Ich habe dann sehr viele Terabyte von meinem alten NAS und den einzelnen Platten die jetzt NAS 2 bilden rüber kopiert. Um von NAS zu NAS zu kopieren habe ich rsync benutzt und dabei ist dann das NAS komplett voll gelaufen da es ein Terabyte zu viel war. Und genau ab diesem Zeitpunkt habe ich diese Performance Probleme. Hat jemand eine Vermutung was da los ist? gibt es eine bessere Möglichkeit als rsync große Mengen von Daten von einem NAS zum anderen zu schaufeln ohne einen 3. Computer zu verwenden?
 
Abend,

die HDDs in NAS1 sind langsamer und haben eine schlechtere Zugriffszeit als die HDDs in NAS2. Das kann schon viel ausmachen und die IOPS gehen in den Keller, also in der Praxis ein sehr träges System. Ein RAIDZ ist bei 8 HDDs und AF Festplatten ist nicht unbedingt zu empfehlen (Kleine Formel, 128 K ZFS Standard Recordsize / ALLE HDDs - Redundanz HDD = 18,29 bei der Konfiguration mit 8 HDDs, da sollten gerade Werte rauskommen), eher Kombinationen ala 3, 5 oder 9 Festplatten, habe das vor langem mal im Evil Tuning Guide zu ZFS gefunden.

Ob nun native 4 K oder 512e, ist beides AF, bei z.B. Enterprise SAS HDDs, trifft man noch auf echte 512 Byte Sektoren. 4 K Alignment ist daher immer zu empfehlen.

Das ZFS Dateisystem darf nie "volllaufen" du musst immer genügend freien Speicherplatz lassen, das killt die Perfomance ernorm! Das wird sicher der Hauptgrund sein. Mindestens 10% sollte freier Speicher sein, gerade im RAIDZ mit 8 HDDs wäre das ein Perfomancekiller vom feinsten.

Rsync geht auch ohne 3. PC, einfach Rsync in NAS4Free direkt einstellen und beide NAS unter sich abgleichen lassen.
 
Danke für den Tipp dass das ZFS Dateisystem niemals voll laufen darf. Das höre ich echt zum ersten Mal. Bin mir ziemlich jetzt sicher das es daran liegt das es voll gelaufen ist. Ich habe noch zwei weitere NAS mit jeweils core 2 duo und jeweils acht Samsung zwei Terabyte F4 Platten drin. Damit geht der Verzeichniszugriff auch schnell allerdings war die Performance total am Ende als da vorher alles voll war und noch freenas 7 drauf war. Das war auch mit ZFS.
Ich glaube nicht das es an den Festplatten liegt weil so langsam können die auch wieder nicht sein oder? Schließlich ist das das aktuelle Modell. Auch hatte ich irgendwie festgestellt das rein gefühlsmäßig wenn das NAS eine Weile gelaufen ist es dann ein bisschen schneller ging.
Jetzt muss ich wieder alles rüberkopieren um alles nochmal neu zu machen (vielleicht auch mit noch einer Festplatte um dann 9 zu erreichen). Ich weiß das es mit rsync auch ohne dritten PC geht und wohl auch am schnellsten geht aber das ist total umständlich und genau dann ist es ja auch passiert das das NAS voll gelaufen ist. Gibt es nicht irgendwie eine Möglichkeit wie man das mit einem Datei Browser wie Total Commander machen kann?
 
Zuletzt bearbeitet:
Ich glaube nicht das es an den Festplatten liegt weil so langsam können die auch wieder nicht sein oder? Schließlich ist das das aktuelle Modell. Auch hatte ich irgendwie festgestellt das rein gefühlsmäßig wenn das NAS eine Weile gelaufen ist es dann ein bisschen schneller ging.

Nein aber die HDDs aus NAS1 sind von der Latenz und Geschwindigkeit von der RAW Leistung trotz allem unterlegen. Hauptgrund ist dein vollgelaufener ZFS Pool.

Jetzt muss ich wieder alles rüberkopieren um alles nochmal neu zu machen (vielleicht auch mit noch einer Festplatte um dann 9 zu erreichen). Ich weiß das es mit rsync auch ohne dritten PC geht und wohl auch am schnellsten geht aber das ist total umständlich und genau dann ist es ja auch passiert das das NAS voll gelaufen ist. Gibt es nicht irgendwie eine Möglichkeit wie man das mit einem Datei Browser wie Total Commander machen kann?

Was ist daran genau umständlich? Du konfigurierst das im WebGUI und das wars. Ja wenn du den Mightnight Commander auf NAS4Free NAS1 installierst und die Freigaben via NFS oder CIFS dann vom NAS4Free NAS2 verbindest kannst du auch ganz einfach "kopieren", aber mit Rsync kannst du viel leichter abgleichen mMn.

Das ist mein "1 zu 1 Kopie Rsync Script", sorgt halt immer dafür das auf dem Backupziel exakt der gleiche Stand wie vom Haupt NAS ist.

Code:
rsync -av --progress --protocol=29 --delete --human-readable /mnt/storage/backup/ /mnt/backup/backup
 
... die Freigaben via NFS oder CIFS dann vom NAS4Free NAS2 verbindest kannst du auch ganz einfach "kopieren" ...

Zwischenfrage:
Wie verbinde ich denn beim Midnight Commander eine CIFS Freigabe?

IP-Adresse
IP-Adresse/Freigabename

Funktioniert nämlich nicht "cannot chdir to /smb://IP-Adresse/(Freigabename)"
 
Jetzt nachdem fünf Terabyte frei sind funktioniert bei NAS1 plötzlich wieder alles. Verzeichniszugriffe sind plötzlich wieder total schnell. Das letzte was ich gemacht hatte war ein scrub. Danach ging es aber immer noch nicht. Erst nachdem ich es zwei Tage später wieder eingeschaltet habe dann ging es. Weder bei NAS1 noch NAS2 sind 4K aktiviert. Nachdem ich NAS3 und NAS4 auf 4K umgestellt habe, hatte ich bemerkt das ich je 450 GB weniger Speicher hatte. Deswegen werde ich NAS eins und NAS zwei erstmals so lassen weil da werden dann wohl gleich an die ein Terabyte weg sein und wenn ich dann nochmal 10 % überall freilassen muss ist mir das echt zu viel.
 
Habe dzt. einen Acer Easystore H341 mit Nas4free und 2x 1TB Platten

Würde jetzt gerne meinen alten Dualcore als Nas nehmen.

Wie mache ich den Umzug am Einfachsten, ohne das ich meine Daten umkopieren muss?
Ist das irgendwie möglich?
 
Zwischenfrage:
Wie verbinde ich denn beim Midnight Commander eine CIFS Freigabe?

IP-Adresse
IP-Adresse/Freigabename

Funktioniert nämlich nicht "cannot chdir to /smb://IP-Adresse/(Freigabename)"

Zunächst einmal musst du deine Freigaben mounten :)

Erstelle einen leeren Ordner im Root von deiner NAS4Free Installation und nenne den z.B. CIFS

Dann gibst du das in PuttY ein:

Code:
mount_smbfs -I 192.168.0.1 //deinBenutzer@192.168.0.1/deineFreigabe /CIFS

So wird das ganze verbunden, natürlich musst du das Passwort für den Benutzer einmal eingeben, aber dann gehts los.

Einfach im Midnight Commander auf den "Lokalen" Ordner CIFS gehen und schon siehst du alle Daten von deiner Freigabe und kannst kopieren wie du willst.

Habe dzt. einen Acer Easystore H341 mit Nas4free und 2x 1TB Platten

Würde jetzt gerne meinen alten Dualcore als Nas nehmen.

Wie mache ich den Umzug am Einfachsten, ohne das ich meine Daten umkopieren muss?
Ist das irgendwie möglich?

Die Anleitung hab ich mal fix geschrieben, wenn du das ohne kopieren einfach exportieren und importieren willst. :)

Also zuerst ZFS Pool sauber exportieren wie beschrieben, du installierst NAS4Free auf dem "neuen" System. Schaltest das Acer Teil aus, baust die Festplatten aus und hängst die Festplatten in den das "neue" System rein und lädst die Konfiguration von NAS4Free und importierst die Fesplatten anschließend in NAS4Free. Habe ich schon dutzende Male gemacht dauert keine Minute und man ist fertig. ABER trotzdem ein Backup ist immer zu empfehlen, auch wenn ich damit noch nie Probleme hatte, nicht das dann gejammert wird, bitte nicht persönlich nehmen aber ich arbeite für ein Backup & Diaster Recovery Unternehmen und habe damit jeden Tag zu tun.


Du exportierst deinen ZFS Pool, gleich in PuttY:

Namen vom Pool checken:

Code:
zpool list

Deinen ZFS Pool sauber exportieren:

Code:
zpool export DEINPOOL

Die NAS4Free Konfiguration im WebGUI sichern:

System => Sichern / Wiederherstellen => Konfiguration herunterladen

Dann auf dem neuen System, die NAS4Free Konfiguration im WebGUI wiedeherstellen:

System => Sichern / Wiederherstellen => Konfiguration wiederherstellen

Und dann in PuttY deinen ZFS Pool wieder importieren (auf dem neuen System):

Code:
zpool import DEINPOOL

Wenn es Probleme gibt damit machen:

Code:
zpool import -f DEINPOOL

Fertig.
 
Zuletzt bearbeitet:
Die Anleitung hab ich mal fix geschrieben, wenn du das ohne kopieren einfach exportieren und importieren willst. :)

Also zuerst ZFS Pool sauber exportieren wie beschrieben, du installierst NAS4Free auf dem "neuen" System. Schaltest das Acer Teil aus, baust die Festplatten aus und hängst die Festplatten in den das "neue" System rein und lädst die Konfiguration von NAS4Free und importierst die Fesplatten anschließend in NAS4Free. Habe ich schon dutzende Male gemacht dauert keine Minute und man ist fertig. ABER trotzdem ein Backup ist immer zu empfehlen, auch wenn ich damit noch nie Probleme hatte, nicht das dann gejammert wird, bitte nicht persönlich nehmen aber ich arbeite für ein Backup & Diaster Recovery Unternehmen und habe damit jeden Tag zu tun.

Sorry, hab ich nicht dazu geschrieben - ohne ZFS, normales RAID 1 -mit 1 Benutzer, sonst keine "Spielereien"
Tut mir leid, wg. der unnötigen Arbeit...

Bin nicht so bewandert in NAS4free...

Schön, das es scheinbar funktioniert...
 
Hi,

ich versuche gerade pyload zu installieren.
Nach dem Befehl:

pkg_add -vr unzip unrar

erscheint bei mir folgendes:

extract: Package name is unzip-6.0_1
extract: CWD to /usr/local
extract: /usr/local/bin/unzip
extract: /usr/local/bin/funzip
extract: /usr/local/bin/unzipsfx
extract: /usr/local/bin/zipgrep
extract: /usr/local/bin/zipinfo
extract: /usr/local/man/man1/unzip.1.gz
extract: /usr/local/man/man1/funzip.1.gz
extract: /usr/local/man/man1/unzipsfx.1.gz
extract: /usr/local/man/man1/zipgrep.1.gz
extract: /usr/local/man/man1/zipinfo.1.gz
extract: /usr/local/share/licenses/unzip-6.0_1/catalog.mk
extract: /usr/local/share/licenses/unzip-6.0_1/LICENSE
extract: /usr/local/share/licenses/unzip-6.0_1/Info-ZIP

/: write failed, filesystem is full
bin/unzip: Write failed
bin/funzip: Write to restore size failed
bin/unzipsfx: Write to restore size failed
bin/zipgrep: Write to restore size failed
bin/zipinfo: Write to restore size failed
man/man1/unzip.1.gz: Write to restore size failed
man/man1/funzip.1.gz: Write to restore size failed
man/man1/unzipsfx.1.gz: Write to restore size failed
man/man1/zipgrep.1.gz: Write to restore size failed
man/man1/zipinfo.1.gz: Write to restore size failed
share/licenses/unzip-6.0_1/catalog.mk: Write to restore size failed
share/licenses/unzip-6.0_1/LICENSE: Write to restore size failed
share/licenses/unzip-6.0_1/Info-ZIP: Write to restore size failed
tar: (Empty error message)
tar: Error exit delayed from previous errors.
pkg_add: leave_playpen: can't chdir back to ''

Ich hab die embedded version mit win32diskimager auf einen 8gb stick geschrieben. Irgendwie scheint ja das Hauptverzeichnis voll zu sein. Hat er sich nicht die kompletten 8gb genommen?
 
Sorry, hab ich nicht dazu geschrieben - ohne ZFS, normales RAID 1 -mit 1 Benutzer, sonst keine "Spielereien"
Tut mir leid, wg. der unnötigen Arbeit...

Bin nicht so bewandert in NAS4free...

Schön, das es scheinbar funktioniert...

Oh :fresse: damit kenn ich mich nicht aus wenn du ein SoftwareRAID mit UFS/UFS2 und FreeBSD nutzt, mit ZFS ist es wirklich sehr einfach, einer der Gründe warum ich es verwende. Wenn mal mein Mirco Server den Geist aufgibt kann ich mir irgendwas nehmen und komme in einer Minute wieder an meine Daten.

Hi,

ich versuche gerade pyload zu installieren.
Nach dem Befehl:

pkg_add -vr unzip unrar

erscheint bei mir folgendes:

Ich hab die embedded version mit win32diskimager auf einen 8gb stick geschrieben. Irgendwie scheint ja das Hauptverzeichnis voll zu sein. Hat er sich nicht die kompletten 8gb genommen?

Das liegt ganz sicher an der Embedded Version, es sollen ja nur "Lesezugriffe" primär stattfinden. http://www.hardwareluxx.de/communit...tipps-hilfe-thread-935734-6.html#post20790790
 
Hm irgendwie scheinen die Hauptverzeichnisse vollgelaufen zu sein. Ich bin mir sicher, dass es mit pyload auf der embedded version schon mal bei mir geklappt hat. Kann man sich irgendwie die größten Dateien anzeigen lassen?

nas4free: ~ # df -h
Filesystem Size Used Avail Capacity Mounted on
/dev/md0 223M 223M 0B 100% /
devfs 1.0k 1.0k 0B 100% /dev
/dev/da0a 117M 114M 2.4M 98% /cf
procfs 4.0k 4.0k 0B 100% /proc
Sicherung 1.8T 168k 1.8T 0% /mnt/Sicherung
/dev/md1 61M 3.3M 56M 6% /var
 
@AG1M
Danke für den Tip.

komischerweise geht es in MC über die Kommandozeile "CD smb://User@IPAddy/Freigabename" aber nicht über den entsprechenden menupunkt, wie ich jetzt herausgefunden habe.
Allerdings war mir dir Performance zu grottig, daß ich mich weiterhin via FTP zu meinem anderen NAS verbinde, das ist deutlich performanter.
 
Ich würde in der Unix/Linux Welt aber auch NFS vorziehen was die Leistung betrifft, CIFS nutze ich nur für meine Windows Clients.
 
Jetzt habe ich aber hier doch noch eine Frage: Ich möchte Nas4Free auf meinem N54L installieren. Und zwar auf einen USB-Stick. Gibt es eine Möglichkeit, dass ich direkt diesen USB-Stick unter Windows so vorbereite, dass ich die Installation nur über diesen einen Stick ausführen kann? Oder brauche ich zwingend zwei Sticks, also den einen leeren, internen, auf den Nas4Free rauf soll und dann einen zweiten als Installation-Medium?
 
Du kannst deinen USB-Stick partitionieren; eine Partition mit den Installationsdaten, eine Partition auf den NAS4Free installiert wird. Ob das klappt kann ich dir nicht sagen. Ist nur eine Idee ;)
 
Man könnte auch ein USB-Live-Medium erstellen und auf einem 2. Stick die Konfiguration speichern. Evtl. geht es auch durch Partitionierung des USB-Sticks, dass die Konfiguration auf dem gleichen Stick gespeichert wird.

Andere Möglichkeit: Virtualbox inkl. der Virtual-Extensions installieren. Darin eine neue Maschine erstellen, den USB-Stick in den Einstellungen durchreichen, von der ISO diese Maschine starten und dann auf den Stick installieren.

Ansonsten geht es nur über einen 2. USB-Stick oder CD/DVD mit dem Live-System.
 
Zuletzt bearbeitet:
Mag eine banale Ursache haben, aber ich hab ein Problem mit Jumbo-Frames auf meiner N4F-VM (läuft unter ESXI 5.5, NIC als VMXNET3). Der Host hat eine 10Gbit-NIC (X540), so dass ich nicht wirklich eine MTU 1500 haben will. Der Zpool selbst der VM läuft wunderbar und performant an einem durchgereichten LSI (4*3TB aktuelle 7200er Platten), Windows-Clients greifen via CIFS-Share zu. Auf dem ESXI ist als MTU 9000 eingestellt.

Solange ich auf dem vmx3f0-Device der N4F-VM eine MTU von 1500 hab, keine Probleme; egal was ich am Windows client auf dem gemounteten Cifs-Share mache.

Sobald ich eine höhere MTU einstelle, also z.B. 9000, kann ich vom Clientlaufwerk zum Share oder umgekehrt problemlos und performant schreiben; bei Clients mit 10Gbit-Karten seh ich lesend und schreibend durchaus 300 MB/s gegen den Pool. So weit fein.
Sobald ich im Windows-Explorer eines Client aber z.B. direkt copy-paste einer Datei durchführe, also gleichzeitiges Lesen und Schreiben eines Files auf dem gleichen Share , bricht mir unmittelbar oder in 1-2 Sekunden bricht die Datenübertragung zusammen und der Kopiervorgang dauert Ewigkeiten alleine zum Abbrechen. Egal welche MTU der Windows-Client hat.
Ein parallel zum Problem auf der N4F-Maschine durchgeführter Kopiervorgang mittels CP geht problemlos. => Es kann also nur ein TCP oder CIFS-Problem sein.
Kleinere Files gehen, aber bei grossen Files passierts. Irgendwie als ob ein Puffer wg. der schnellen Übertragung überläuft oder sich "verhaspelt".

Was mache ich da falsch? Muss ich da nochwas tweaken? Am Pool liegts nicht, denn bei MTU 1500 ists kein Problem und wenn ich Files via Shell direkt am N4F kopiere, läufts auch problemlos.

Edit: eingesetzt ist N4F 9.2.0.1 972 , der Host hat einen E3-1275v3 und stellt 8GB Ram der VM zur Verfügung.
Edit2: 18.10.14: Das Problem ist Vmxnet3 als virtuelle Nic. FreeBSD scheint damit bei Jumbopaketen Probleme zu haben. Ich habs damit nicht hinbekommen. Sobald Netzwerklast in beide Richtungen ist bricht es zusammen. Die Lösung ist, obwohl ich es nicht gedacht habe, die betagte E1000e-VNic zu nutzen und das TCP Window auf 256K zu erhöhen. Damit fluppen nun fast 400-500MB/s gegen einen Windows Client mit 10Gbit, solange der Ram fürs ZFS nicht voll ist sogar 700-800MB (lesen SSD-Raid0, schreibend auf den Zpool im ESXI).
Sooo muss das sein.:hail:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh