NAS+ - mein DIY-Storageserver | Welche NAS-Software?

KBastian

Experte
Thread Starter
Mitglied seit
09.09.2016
Beiträge
82
Hallo Freunde.

Ich habe einen Custom-Storage-Server gebaut in dem 2 SSDs und 15 HDDs werkeln sollen.
Basis ist ein Celeron G1610T, aktuell 2GB RAM, eine HP NC523SFP dualport SFP+ Karte und ein Adaptec ASR-71605 RAID-Controller mit BBU, das ganze steckt in einem 3HE Server-Gehäuse.
Für die Datenträger habe ich eine HP StorageWorks EVA 4100 14-Slot FC-Diskshelf gestripped, modifiziert und auf 15-Slot SATA umgebaut.
Das Servergehäuse wurde so gekürzt, dass es die gleiche Länge wie das Diskshelf hat und die Gehäuse wurden miteinander verschweisst. Zwischen Mainboard und Netzteil habe ich ein großzügiges Loch zur Kabeldurchführung gesetzt, da gehen die SATA-Peitschen vom RAID-Controller und die nötigen Stromleitungen für die Festplatten und Lüfter durch.
Für das Servergehäuse habe ich ein neues Frontblech entworfen für 3x 120mm Lüfter, für das Diskshelf ein Backpanel für 3x 92mm Lüfter, beide wurden aus 1mm Stahlblech per CNC-Laser geschnitten.

Nun hatte ich mich bezüglich Software umgesehen, ich muss dazu sagen, mein bisheriger Server ist ein einfaches headless Debian mit Samba und händischer Konfiguration.
Ich würde künftig gerne etwas komfortabnleres nutzen, mit ein wenig webbasierter GUI etc. um die Verwaltung der ca. 5 Nutzer zu erleichtern und ein wenig mehr Feedback vom System zu erhalten, Statusmeldungen etc.

Eigentlich war mein Plan, das OS auf den beiden SSDs im RAID1 laufen zu lassen und fürs Storage die HDDs in RAID5 oder RAID6 zu betreiben, evtl. mit einer HotSpare.

FreeNAS u.a. scheint aber mit dem RAID-Controller nicht wirklich kooperieren zu wollen, nach meinen Recherchen wird dafür ein einfacher HBA empfohlen.

Welche Software-Lösungen kämen in Frage oder was würdet Ihr mit empfehlen?

Gruß Sebastian
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die grundlegende Fragestellung ist, ob man die Vorteile neuer Dateisysteme wie ZFS haben möchte. Das bringt ein crashsicheres CopyOnWrite Dateisystem, Ransomware sichere Snaps, Autorepair mit Daten/Metadaten Prüfsummen, Verschlüssellung je Dateisystem und RAW Backup verschlüsselter Dateisysteme und dazu ein Raid ohne Write Hole Problem + eine Reihe weiterer Vorteile.

Für alle Vorteile benötigt ZFS jedoch direkten Plattenzugriff. Ein Hardwareraid mit BBU verhindert den Autorepair Mechanismus. ZFS kann dann nur noch Prüfsummenfehler feststellen, nicht aber reparieren. Die BBU bringt zwar ordentliches Crashverhalten, nicht jedoch auf dem Niveau von ZFS.

Will man dennoch ZFS mit dieser Hardware, bleibt nur Linux. Bei Unix (Free-BSD, Solaris) ist die Adaptec Unterstützung eher mau. Auch ist 2 GB generell extrem wenig für ein 64bit OS und Software Raid. Solaris und OmniOS kommen damit zurecht (bei schlechter Performance). Free-BSD braucht etwas mehr, FreeNAS noch etwas mehr. Eine RAM Aufrüstung auf wenigstens 4GB wäre immer angeraten.

Für ZFS sollte man den Adaptec verkaufen und dafür dumme Contoller nehmen (LSI mit 2008, 2307 oder 3008 Chipser und IT bzw IR Firmware). Entweder genügend Controller (ports) oder ein Expander dazu.

Ob die HP 10 GB Nic unter Unix läuft müsste man probieren.

Für ZFS würde ich erstmal bei Unix schauen. Zuerst bei Solarish, da kommt ZFS her und hat nach wir vor die beste OS Unterstützung (tut einfach) sowie den multithreaded SMB Server (schnell, Unterstützung von ntfs ACL und SMB Gruppen, Windows vorherige Version, zero config - einschalten und tut). Dann bei Free-BSD. Die haben ZFS recht früh übernommen. Mit wenig RAM da z.B. XigmaNAS.

Dann Linux mit ZoL. Beste Hardwareunterstützung, die meisten Extras neben Storage und dazu das umfassendste Adventuregame. Tut halt nicht so einfach und ZFS Updates, naja...je nach Distribution.

Dazu gibts die besseren ZFS GUIs bei Free-BSD (FreeNAS, XigmaNAS) oder Solaris oder einem Opensource Fork wie NexentaStor CE oder OmniOS mit meinem napp-it.
 
Zuletzt bearbeitet:
Danke für deine umfangreiche Antwort, das entspricht im Querschnitt dem was ich schon herausgefunden hatte.
Ich war wohl etwas blauäugig bei der Auswahl der Hardware die Softwareseite außer Acht zu lassen.

Ein bekannter hat den Adapter Controller auf LSI Firmware geflashed um ihn unter FreeNAS einzusetzen, ich muss Mal rausfinden ob das das geklappt hat.
Die NC523 laufen wohl unter Linux, zu Not könnte ich hier aber auch noch auf eine IBM Karte wechseln die ich auch noch habe.
 
Schau dir als Opensource Varainte mal Openmediavault an oder als Bezahl Variante Unraid.

Ich habe gerade Openmediavault auf meinem Selbstbau NAS und es macht das was es soll bisher.
 
Die 2GB RAM bringen doch Lösungen wie FreeNAS schnell ans Limit wenn man das mit ZFS koppelt oder?
Ich werfe auch mal unRAID in den Raum, auch wenn es bei den Hardcore Usern bestimmt nicht die Fanbase hat. Bei mir läuft es 1a.
 
Also am RAM soll das nicht scheitern, da sind ganz schnell 4 oder 8 GB zusätzlich drin wenn es nicht reicht.
Die zwei GB lagen hier Rum und hätten für Debian headles wie im alten Storageserver leicht gereicht.

Am meisten Sorge ich mich zur Zeit um den Adaptec controller, der 71605 wird ja nicht unter BSD unterstützt, ich hoffe dass er wenigstens im HBA Modus die Platten transparent dem OS präsentiert.
Bei einem kurzen Test unter Windows 10 hat das heute ohne negative Vorkommnisse funktioniert.

Wenn der nicht unter BSD läuft brauche ich einen anderen.

Das Netzteil werde ich auch noch Mal austauschen, das war bei dem 3HE ATX-Gehause dabei und entpuppt sich als echtes Server-Netzteil - der Lüfter ist digital, aus oder eben an, Vollgas, permanent. Das ist dann doch etwas laut.
 
Wenn du ZFS nutzen möchtest und Probleme mit BSD hast, dann installiere dir Openmediavault und nutze da ZFS :)
 
ich denke die frage ist was du mit dem storage machen möchtest.

Hab mit Hardware-Raid angefangen, dann alles mögliche zwischen durch ausprobiert. Inzwischen bin ich bei einzelnen Platten (ext4) angekommen die mit mergerfs verbunden sind und täglich mit snapraid (raid6) gesichert werden.

Warum?
-direkter Zugriff auf jede Platte auch wenn alles drum herum ausfallen sollte
-perfekte Skalierbarkeit (auch kleinere platten können jederzeit eingebaut werden
-reicht für mein Datengrab aus

Ist natürlich nicht geeignet wenn du eine hochverfügbarkeitslösung oder besonders schnelle übertragungsraten brauchst.

Laufen tut das ganze auf Proxmox, zusätzlich noch einen Container für SAMBA (nur über Konsole, aber wenn das ding einmal läuft braucht mans normal auch nicht mehr anfassen) und einen für Plex
 
Also im HBA-Modus läuft FreeNAS scheinbar problemlos mit dem 71605.
Nun hatte ich zunächst eine Testinstallation auf einer alten (einzelnen) SSD gemacht, alles sah gut aus.

Dann hatte ich besuch vom Paketboten, der brachte mir die zwei SSDs die ich für das OS vorgesehen habe.
Also schnell eingebaut und am onBoard Controller im AHCI-Modus angebunden, Boot-Stick rein und versucht FreeNAS auf ada0 und ada1 zu installieren, Bootloader für UEFI-Boot konfigurieren lassen...
Das klappte soweit auch tadellos .... zunächst ....

Am Ende der Installation werde ich zum neustart aufgefordert, entferne also den Bootstick und starte das System neu.
Das System fährt hoch, die Controller werden initialisiert, und dann .... kein Betriebssystem gefunden.
Ich habe schon versucht die Boot-Reihenfolge im UEFI zu ändern, klappt auch nicht.
Mir scheint der Bootloader landet irgendwo im Nirvana oder so - werde morgen noch Mal versuchen den RAID-Controller erst nach der Installation einzubauen.

#Ferengi
Schnelle Übertragungsraten sind schon sinnvoll und ich denke dass ich mit ZFS den gewünschten Grad an Datensicherheit erreichen kann den ich mir ursprünglich aus RAID5 bzw RAID6 erhoffte.
Soll hauptsächlich als Datengrab dienen, Zugriff vom LAN per SMB und extern per VPN(SMB/SFTP), sekundär werde ich wohl den Unify-Controller in ein Jail installieren.
Aber zunächst muss das laufen ;)
 
Ohne jetzt alles gelesen zu haben: z.B. vom HP P420 kann man im HBA Mode nicht booten.
An welchen Controller hast Du Deine beiden neuen Platten angeschlossen und geht die alte Platte am gleichen Controller?
 
Ohne jetzt alles gelesen zu haben: z.B. vom HP P420 kann man im HBA Mode nicht booten.
An welchen Controller hast Du Deine beiden neuen Platten angeschlossen und geht die alte Platte am gleichen Controller?
Die beiden SSDs sind direkt am Motherboard angeschlossen, AHCI-Modus, beide in in der Boot-Priority im UEFI eingetragen.
 
Ich grabe das Thema Mal wieder aus...

Ich habe jetzt eine Weile FreeNAS auf der Kiste laufen, hab schon verschiedene ZFS-Konfigurationen ausprobiert und ein paar Tests damit gemacht.
Wo richtig im aktiven Betrieb ist er leider immer noch nicht, da ich noch nicht so ganz glücklich mit manchen Sachen bin.

Zunächst Mal finde ich die Konfiguration bezüglich Benutzerrechte der einzelnen SMB-Freigaben kompliziert gelöst, das habe ich von meinem handkonfiguriertem SAMBA auf Debian nicht so kompliziert in Erinnerung.

Die Link-Aggregation der dual 10G-Netzwerkkarte war schnell und einfach gemacht und scheint soweit korrekt zu arbeiten.
Vollends testen konnte ich das nicht nicht, da ich noch keine Zeit hatte die 15m Glasfaser über den Dachboden von meiner Workstation zum Rack zu verlegen.

Ein Problem tauchte bei den Tests auf:
Ich kopiere eine ca. 7,5GB große Datei zum Server um die Performance zu testen, das geht auch zunächst recht flott in Bezug auf die Lesegeschwindigkeit meiner Festplatte.
Nach etwa 1-1,2GB bricht aber die Übertragungsrate stark ein und bleibt dann konstant niedrig oder die Verbindung bricht ab und wird erst nach einigen Minuten wieder voll verfügbar.
Im FreeNAS kann ich keine Probleme erkennen, auch nicht in den Systemlogs über die Shell. Hat jemand eine Idee?

Im Moment hab ich drei HDDs und eine SSD als ZFS Mirror mit Spare und Cache eingerichtet, aber so richtig glücklich fühle ich mich damit nicht und tendiere eigentlich mehr zu RAID10 auf Controllerebene, aber da spielt FreeNAS ja nicht mit.

Ich will nicht wieder Debian mit selbstgeschriebener Konfiguration, da ich schon gerne etwas Komfort hätte wie UI und ein paar schöne features wie die grafischen Darstellungen von Auslastung etc.
Aber mit FreeNAS werde ich irgendwie nicht warm.

Vielleicht Schaue ich mir in den kommenden Tagen Mal an wie DSM (kenne ich schon von mehreren Diskstations) mit der Kiste interagiert oder vielleicht hat einer von Euch hier den heissen Tipp, OMV und UnRAID wurden ja auch schon genannt, kenne ich aber beide auch gar nicht und müsste mich einarbeiten.
 
Im Moment hab ich drei HDDs und eine SSD als ZFS Mirror mit Spare und Cache eingerichtet, aber so richtig glücklich fühle ich mich damit nicht und tendiere eigentlich mehr zu RAID10 auf Controllerebene, aber da spielt FreeNAS ja nicht mit.

Als Sun/Oracle Solaris und ZFS entwickelte, wollten die ja gerade dies vermeiden. Raid auf Controllerebene hat das Raid Hole Problem (Korruptes Raid nach Crash beim Schreiben). Außerdem hat ZFS Prüfsummen auf Daten und Metadaten. Erkennt ZFS einen Fehler wird der auch im Raid automatisch repariert. Gerade das ist bei Hardware/Controllerraid nicht mehr möglich. Daher eigentlich keine gute Idee. Man verliert einige der tollen ZFS Features wenn man das macht. Man gewinnt im Gegenzug ja auch nichts.

btw
Der schnellste ZFS Server ist nach wie vor Solaris und Original ZFS. Die resourcenschonendste Option, dazu mit dem genialen kernel/ZFS basiertem SMB Server ist Illumos/OmniOS (freier Solaris Fork)
 
Was heißt das denn? 10mb/s oder 100mb/s.
Gerade noch Mal getestet:
Das erste Gigabyte etwa lief mit ca. 100mb/s durch, dann knickte es kurz ein richtung 75mb/s um wenige Sekunden später ganz zum Stillstand zu kommen.
Dann nach einiger Wartezeit eine Fehlermeldung:
"Beim Zugriff auf I:\Neuer Ordner ist ein Problem aufgetreten.
Stellen Sie sicher, dass eine Verbindung mit dem Netzwerk besteht und wiederholen Sie den Vorgang."
 
FreeeNas, 2GB Ram und ein 2kern Celeron ohne HT niedriger Taktfrequenz? Mit Dual 10Gbit und Link-Aggregation?
Nach meiner bisherigen Erfahrung: Nope nope nope.

Aktuelles FreeNas fängt mit 16GB Ram brauchbar an, mit Xigmanas ab 8GB. FreeNas als Basissystem ist schon relativ "fett".

Ein Raidz2 mit 6 HDD (7200er 14TB Enterprise-Laufwerke ) und 1* 10G Intel X550 (via Vmxnet3) schafft es bei mir, schonmal 2 Kerne eines E3-1240v5 (also 3,5Ghz+) auszulasten.
Die Storage-VM hat Xigmanas als Basis und 16GB Ram zugewiesen.
 
Zuletzt bearbeitet:
Die Erfahrung kann ich - nach einigen Tagen Experimenten - bei allen ZFS-Systemen teilen: die Schreibrate bricht (logischerweise!) ein, wenn der Cache voll ist. FreeNAS zeigt ja im Dashboard auf der Übersicht sehr gut an, wieviel GB Speicher der Cache gerade belegt - trifft diese Menge auf die Menge zu, nach der der Einbruch kommt?
 
FreeeNas, 2GB Ram und ein 2kern Celeron ohne HT niedriger Taktfrequenz? Mit Dual 10Gbit und Link-Aggregation?
Nach meiner bisherigen Erfahrung: Nope nope nope.
Stecken inzwischen 10GB RAM drin, da dürfte für den Cache noch Luft sein?

Die Erfahrung kann ich - nach einigen Tagen Experimenten - bei allen ZFS-Systemen teilen: die Schreibrate bricht (logischerweise!) ein, wenn der Cache voll ist. FreeNAS zeigt ja im Dashboard auf der Übersicht sehr gut an, wieviel GB Speicher der Cache gerade belegt - trifft diese Menge auf die Menge zu, nach der der Einbruch kommt?
Die Schreibrate bricht komplett ein auf null, nicht auf langsam. Nach etwa 60 Sekunden kommt in Windows die besagte Fehlermeldung.
 
Netzwerkkarte funktioniert nicht richtig / Treiberproblem.. !? les mal bisschen in den logs
 
Die Erfahrung kann ich - nach einigen Tagen Experimenten - bei allen ZFS-Systemen teilen: die Schreibrate bricht (logischerweise!) ein, wenn der Cache voll ist.

Eigentlich nein oder nur dann wenn andere Bedingungen zutreffen weil der Cache nie "voll" wird.

Wenn bei Open-ZFS der RAM Schreibcache (default 10% RAM max 4GB) zur Hälfte gefüllt ist (Original Solaris ZFS nach 5s), wird der Inhalt als großes sequentielles Write auf den Pool geschrieben. Der Rest des Ram-Cache übernimmt dann das Cachen. Idealerweise hat man damit eine konstante Schreibperformance in der Größenordung der mixed (random/sequentiell) Schreibperformance des Pools. Einen Einbruch hat man nur wenn der Cache sehr klein ist (zuwenig RAM für Schreib/Lesecache) oder wenn die Pool Performance bei mixed load niedriger ist als die Netzwerkperformance was bei einem guten ZFS System nie der Fall sein sollte. Niemand käme ja auf die Idee mit 10G auf eine einzelne Green Platte zu schreiben die bei mixed load gerade mal 50-80 MB/s nonsync liefert und dann 10G (1000 MB/s) Schreibraten zu erwarten.

Der Schreibcache ist ja nur dazu da, kleine random write zu vermeiden und stattdessen diese gebündelt als sequentielles write zu schreiben. ZFS Lese/Schreibcache ist daher nicht filebasiert sondern ZFS blockweise organisiert.
 
Zuletzt bearbeitet:
Idealerweise hat man damit eine konstante Schreibperformance in der Größenordung der mixed (random/sequentiell) Schreibperformance des Pools. Einen Einbruch hat man nur wenn der Cache sehr klein ist (zuwenig RAM für Schreib/Lesecache) oder wenn die Pool Performance bei mixed load niedriger ist als die Netzwerkperformance was bei einem guten ZFS System nie der Fall sein sollte.

Hm, da hast Du Recht und das klingt logisch. Ich bin allerdings - fälschlicherweise - von einem kleinen NAS ausgegangen. Und bei zwei HDDs im ZFS-Mirror dürfte die Netzwerkrate bei Random-Writes durchaus mal höher sein als die Pool Performance. Wie gesagt, habe gerade nachgelesen, beim TE mit dem großen Pool dürfte das anders sein.
 
10G ohne Highendhardware und Tuning liefert 300-500 MB/s. Das erreicht man mit einem SSD/ NVMe Mirror. Ein Plattenmirror aus schnellen mechanischen Platten liegt eher bei 150-180 MB/s Schreibrate.

Reine Random Write gibts bei ZFS ja nicht außer bei sehr wenig RAM (sagen wir mal Solaris/OmniOS < 4GB oder FreeBSD mit dem resourcenhungrigen FreeNAS < 8GB) oder wenn man sync aktiviert. Dann bricht die Schreibrate aber eh um 50-90% bei einem Plattenpool ein.
 
Zuletzt bearbeitet:
Netzwerkkarte funktioniert nicht richtig / Treiberproblem.. !? les mal bisschen in den logs
Ich denke nicht, das es die Karte ist, denn darüber erreiche ich ja auch das Webinterface, auch während das Problem auftritt ohne Probleme.
NIC ist eine HP NC530 Dual SFP+.
Aus den Logs konnte ich nichts hilfreiches gewinnen.

Am Pool bzw. Cache dürfte es auch nicht liegen, da der Fehler nach ca. 1-1,2GB reproduzierbar auftritt, das passt weder mit dem RAM der theoretisch als Cache zur Verfügung steht zusammen noch mit der Cache-SSD des Pools.

Mehr als ~100MB/s kann ich aktuell nicht erreichen, da mein PC "nur" mit Gigabit-Ethernet angebunden ist. Kommt später noch ein 10G Switch dazu, dann hängt der PC auch mit 10G dran.

Neuer Plan ist demnächst Mal mit DSM und RAID10 zu testen.
 
Zuletzt bearbeitet:
Prinzipiell würde ich hier per iperf die Netzwerkperformance überprüfen und mit einem Testtool (zur Not ein dd Test) die Poolperformance. Selbst mit wenig RAM und FreeNAS darf die Schreibperformance nicht auf Null gehen. Da ist was faul.

ps
Die SSD arbeitet nur als Readcache. Es gibt unter ZFS keinen SSD Schreibcache nur RAM Schreibcache.
 
RAIDZ1 pool aus Enterprise SSDs (getrimmt) bei 24GB RAM OmniOS r32 auf ESXi 6.7: Auch hier kommt es zu einem zeitweiligen Einbrechen der Schreibraten nach ein paar Sekunden schreiben, allerdings von 105-110 auf ca 95 oder so und dann wieder rauf auf normal.
 
RAIDZ1 pool aus Enterprise SSDs (getrimmt) bei 24GB RAM OmniOS r32 auf ESXi 6.7: Auch hier kommt es zu einem zeitweiligen Einbrechen der Schreibraten nach ein paar Sekunden schreiben, allerdings von 105-110 auf ca 95 oder so und dann wieder rauf auf normal.
Ja nee, das bricht komplett zusammen über SMB und dann kann ich im Windows-Explorer die Freigabe auch eine Weile nicht mehr erreichen.
Gleichzeitig bleibt das Webinterface über die gleiche Schnittstelle aber erreichbar.

Naja, bei FreeNAS gefallen mir einige Sachen nicht so gut, daher werde ich noch Mal andere Systeme ansehen, als nächstes kommt wohl DSM zum Einsatz, das Image von der DS3615sx.

Die Plattenkonfiguration werde ich auch noch Mal ändern, für einen gewissen Teil meiner Daten werde ich eine RAID10 mit 4 Platten einrichten, für einen anderen Teil vermutlich ein RAID1 oder SHR mit zwei, später vielleicht weiteren Platten.

Das Netzteil werde ich auch noch austauschen, das aktuelle macht zwar einen soliden Eindruck (Server-Class 500W), nervt aber mit dem "digitalen" Lüfter der nur an oder aus kennt.
Im Betrieb dreht der dauerhaft auf vollgas und ist sehr laut, ich schätze der macht so 7.000-10.000U/Min.

Ich berichte sobald ich DSM am laufen habe, vielleicht habe ich bis dahin meinen PC auch schon mit 10Gb angebunden, da muss noch 15m Glasfaser über die Decke gezogen werden.
 
So Neuigkeiten: FreeNAS wird es nicht. Aktuell habe ich per Controller ein RAID10 mit 4x3TB erstellt und ein aktuelles Debian drauf, damit werde ich dann SMB- und NFS-Freigaben nach Bedarf von Hand erstellen (wie früher schon).

Nun teste ich aktuell mit einem HA-Cluster aus zwei XCP-NG Nodes die auf eine NFS-Freigabe auf meinem bisherigen Debian-Server zugreifen und darüber das HA -feature bereitstellen.
Zum testen habe ich zwei gewöhnliche, identische PCs hergenommen die ich hier noch stehen habe, ältere i5 mit 16GB RAM, SSDs fürs System rein und los.
Anfangs habe ich die nur per onBoard GbE-Schnittstelle über einen GbE-Switch angebunden, das hat wunderbar geklappt, war nur relativ träge.

Nun stecken da von Anfang an in beiden je eine HPE NC523 Dual SFP+-Karte und alle Slots waren auch von Anfang an mit SFP+-Modulen (10G Dual-LC) bestückt - hat soweit alles funktioniert, waren nur noch keine Glasfasern eingesteckt.
Nun wollte ich gestern per 10G einen zweiten Ring einrichten: je ein Port zum Switch und mit dem zweiten Port jeweils auf je einen Port vom neuen Storage, der hat auch eine identische dual SFP+-Karte drin.
Passender Switch kommt demnächst, wollte das per Direktverbindung erst Mal nur zum Testen machen.

Im Debian habe ich die onboard-GbE und die beiden SFP+-Slots manuell konfiguriert, das ist auch soweit alles richtig, es kommt nur eine Fehlermeldung, weil über die Glasfasern noch keine Verbindung hergestellt werden kann, Gegenstelle noch down.

Nun zeigt sich aber folgendes:
wenn die beiden XCP-NG-Nodes mit GbE und 2x 10G komplett angebunden sind kann ich sie beide nicht mehr per XCP-Center erreichen.
pingen auf der GbE-Schnittstelle geht, ich kann vom Node aus auch andere Geräte im LAN pingen.
Im Dashboard direkt auf den Nodes zeigt er aber keinerlei NICs mehr an.
Sobald ich die Glasfasern ausstecke und den Node neustarte ist die GbE-Schnittstelle wieder sichtbar und funktioniert auch wieder ganz wie erwartet.

Hat jemand einen heißen Tipp warum sich das so verhält?

Grüße KBastian
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh