Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Synology DS1621+ im Test: Mit der Kraft des AMD Ryzen
Die Firma Synology hat mit der Vorstellung der neuen DiskStation DS1621+ erstmals ein NAS im Portfolio, welches mit einem AMD-Ryzen-Prozessor ausgestattet ist. Ob sich die AMD ZEN-Architektur auch im Embedded Segment gegen den Mitbewerber aus dem Hause Intel behaupten kann, wollen wir uns in diesem Test anschauen. ... weiterlesen
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also bei 6 Schächten wären diese Möglichkeite am Sinnvolsten.
3 für ein Raid 5 +1 für Spare und dazu ein einfaches Raid 1
Man kann auch 3 mal Raid 1 machen ,sofern der Controller das mitmacht.
Ohne Spare 2 Stück Raid 5 mit je 3 Platten wäre auch machbar.
Ein Raid 0 oder generell Funktionen/Kombinationen mit Raid 0 würde ich damit nicht machen wollen.
Ein Raid 0 mit 2 Platten ,dazu das mit Raid 1 Eingesetzt ( Insgesamt also 3 Platten verbraucht) , grauenhafte Vorstellung.
Was die Leistung angeht so sehe ich das Optimistisch das die AMD Ryzen auch hier gegen die Intel Konkurrenz Punkten wird.
Sonst wäre es ja ein würdiger Nachfolger für eine 1513+. man wird das Gefühl nicht los, Synology möchte sich in diesem Segment selbst abschießen.
Da hab ich auch das Gefühl das es so ist. mit USB 3.0 oder 3.1 ,etc. und den Netzwerkverbindungen scheinen sie irgendwie ziemlich Knauserig zu sein.
Meine alte QNap hatte vor Jahren schon G/Bit Netzwerkverbindung und USB 3.0 . Und das mit einem ARM , kein AMD und kein Intel.
Vielen Dank für das ausführliche Review!
Irgendwie stört mich der Abschnitt mit der Linkaggregation.
Es fehlt noch eine Angabe für das Testsystem, von der Hardware und dem Bild kann ich nur darauf schließen, dass ein Windows 10 verwendet wurde. Solange dieses keine Enterprise Version ist, wir kein Bonding unterstützt. Auch bei dem Screenshot des Switches waren nur drei 10g Ports belegt, was den Bond des Synology's mit zwei Anschlüssen beinhaltet.
Weiter ist der PCIe Slot elektronisch nur mit 4x angebunden, was theoretisch genug für 20gbit ist, aber ich habe das Datenblatt des Intel 710 nicht vorliegen, könnte mir aber vorstellen, dass hier nicht die volle Geschwindigkeit bereitgestellt wird.
Dann sollte für einen Test der Geschwindigkeit von Windows aus, nicht das normale kopieren von Dateien als Test genommen werden, sondern eine Aufgabe, die auch mehrere Threads und Verbindungen zulässt, wie rsync.
Vor allem anderen hätte ich per SSH auf dem Synology die theoretische Maximalgeschwindigkeit überprüft, einmal für den Cache und auch für das Array.
Hattet ihr den Qnap Switch schon mit zwei funktionierenden 10g LACP Bonds betrieben? Würde mich bei dem Preispunkt wirklich interessieren 😉
PCIe Slot steht bereit und es werden (inoffiziell) auch andere Netzwerkkarten unterstützt. Hier muss nur auf die Linux Unterstützung geachtet werden. Auf eBay werden die Single-Port 10g SFP+ Mellanox (MCX311A-Xcat) Karten für 35€ gehandelt, welche funktionieren. Auch Intel 2,5g Karten laufen ohne Probleme, andere habe ich noch nicht getestet.
Statt 4x1GBit würden mir 2x2,5 deutlich besser gefallen als Grundausstattung.
QNAP macht es ja vor, und immer mehr Consumerboards und Workstations kommen mit 2,5GBit und mehr von Haus aus.
Die sollen da direkt 10GBE drauflöten. Der SoC bringt das nämlich mit. Die müssen nur noch einen Slot drauflöten und nen Phy dazu.
Man will einfach nur die teureren Produkte abgrenzen bzw. die extra Karten für teuer Geld verkaufen.
In eine QNAP kannst du auch ne 50EUR eBay 10GBE Karte einbauen und das laut Kompatibilitäsmatrix.
Wie wurden denn die Festplatten zusammengeschaltet - JBOD oder ein RAID-Level? Es wäre schön verschiedene RAID-Konstellationen zu vergleichen, also beispielsweise Raid 1, 10, 5 und 6. Erst bei 5 und 6 bekommt die CPU etwas zu tun. Alles andere können kleinere CPU-Modelle ebenso bedienen.
Die Link Aggregation macht nicht, dass man 20GbE zur Verfügung hat! Dadurch wird lediglich der Download und Upload separiert. Das heißt es können die vollen 10GbE im Download UND die vollen 10GbE im Upload GLEICHZEITIG genutzt werden. Hier hat wohl wer falsch recherchiert. ;-)
Ansonsten Danke für den Test. ^^
Ich frage mich bei Synology auch schon seit Jahren, wann die endlich mal schnellere Ethernetports als 1Gb/s integrieren. Anundfürsich würde mir als Privatnutzer sowas wie DS420+, 920+ oder 1020+ völlig reichen, aber weil Synology sich da absolut renitent zeigt und seit Jahren an 1GbE festhält bin ich gezwungen, auf die 16er-Modelle zu schauen, wo es überhaupt mal die Möglichkeit gibt, für zusätzliches Geld 10GbE nachzurüsten. Echt bescheuert sowas! QNAP zeigt seit Jahren, dass es zu solchen Preispunkten locker möglich ist, 10GbE zu verbauen...
Ich habe versucht verständlich auszudrücken, aber sie können sich ja gerne mal einlesen und es richtig erklären, so dass es auch nicht ITler verstehen.
Ich habe versucht verständlich auszudrücken, aber sie können sich ja gerne mal einlesen und es richtig erklären, so dass es auch nicht ITler verstehen.
Du kannst nichts erklaeren, was du selbst nicht verstehst.
Du hast die Funktion einer FullDuplex Verbindung beschrieben.
Das ist seit Jahren bereits Standard. Jede gängige 1000mbit Verbidung im LAN ist FDX. Kann somit von beiden Seiten gleichzeitig mit 1gbps befeuert werden.
Eben, der gleichzeitig upload und download nennt sich full duplex.
Ist nur eines zu einer Zeit möglich, nennt man das halb duplex.
Full Duplex ist seit 20 Jahren Standard, spätestens seit man vom BNC-Netzwerk weg ist.
Ling Aggregation ist die Zusammenschaltung von 2 getrennten Netzwerkkarten/Interfaces zu einem "großen".
Wenn beide Full Duplex sind, dann hat man die doppelte Geschwindigkeit sowohl für Download als auch Upload.
Bei 10GBE heißt das also:
Halb Duplex summiert 10GB/s
Full Duplex summiert 20GB/s
Halb Duplex LACP summiert 20GB/s (wobei ich nicht wirklich weiß, ob man sowas überhaupt bauen kann, HDX macht ja niemand mehr)
Full Duplex LACP summiert 40GB/s
Sprich in dem Test mit man bei LACP bei einer kumulierten Gesamtbandbreite von 40GB/s.
Du bist da also auf dem Holzdampfer. Und daher nochmal der Hinweis, wenn man etwas erklärt, dann sollte man bitte auch im Stoff stehen, ansonsten sind das alternative Fakten, die das aktuelle Übel der Welt darstellen. Sowas kann also niemand gebrauchen.
PS: Leute, die im Stoff stehen, brauchen sich nicht einlesen. FDX und LACP sind in der IT seit Jahren Standard. Solche Leute kann man daher auch ausm volltrunkenen Tiefschlag holen und die sagen, was was ist.
Das ist so nicht richtig...
Vielleicht habe ich das falsch Erklärt...
Aber ich habe jetzt darum gebeten doch dann bitte LACP zu erklären nicht "Full/Halb Duplex", aber danke für die Auffrischung!
Ich hatte das Problem mit meiner DS, das ich keine doppelte Geschwindigkeit hatte trotz richtig eingerichteten LACP... (2x 1GbE mit LACP eingebunden, Managed Switch, 10GbE am Rechner)
Darauf eingelesen in das Thema und mich an den Synology Support gewendet, dort wurde mir Erklärt, dass LACP nicht dafür da ist um die Geschwindigkeit zu verdoppeln...
Dieses wurde mir auch von einigen ITlern bestätigt.
Ich möchte jetzt hier eigentlich keine Links von anderen Portalen Posten, aber hier ein Auszug:
"da wäre es doch eine gute Lösung einfach zwei LAN Ports zusammenzuschalten um die doppelte Geschwindigkeit zu erreichen.
Leider funktioniert dies in der Praxis so nicht ganz. Auch mit aktiven Link Aggregation könnt Ihr mit einem PC, selbst wenn dieser auch Link Aggregation aktiv hat, Daten mit nur maximal 120MB/s auf Euer NAS übertragen oder abrufen.
Link Aggregation bringt nur etwas wenn mehrere Computer gleichzeitig auf das NAS zugreifen.
Hierbei wird die Last auf die beiden LAN Ports verteilt."
Bei Wikipedia heißt es lediglich "Zwecke der Erhöhung des Datendurchsatzes"
Es steht NIRGENS das sich bei LACP die Geschwindigkeit verdoppelt, wenn man von einem Client eine Datei von A-B Kopiert!
Bei mehreren Zugriffen von verschiedenen Clients hat man eine Schnellere Verbindung in der Gesamtheit gesehen, da mehrere Clients gleichzeitig insgesamt mehr Bandbreite zur Verfügung haben, aber nicht ein einzelner Client!
Wie das jetzt aussieht wenn man die DS UND einen Client mit LACP verbindet kann ich nicht sagen. Aber vielleicht hat ja da schon wer Persönliche Erfahrungen. ^^
PS: Nur mal so nebenbei. Nur weil was in Wikipedia steht, heißt es noch lange nicht das es stimmt. Wikipedia wird auch nur von Menschen gepflegt und Menschen irren sich auch.
Ich frage mich bei Synology auch schon seit Jahren, wann die endlich mal schnellere Ethernetports als 1Gb/s integrieren. Anundfürsich würde mir als Privatnutzer sowas wie DS420+, 920+ oder 1020+ völlig reichen, aber weil Synology sich da absolut renitent zeigt und seit Jahren an 1GbE festhält bin ich gezwungen, auf die 16er-Modelle zu schauen, wo es überhaupt mal die Möglichkeit gibt, für zusätzliches Geld 10GbE nachzurüsten. Echt bescheuert sowas! QNAP zeigt seit Jahren, dass es zu solchen Preispunkten locker möglich ist, 10GbE zu verbauen...
Sehe ich genauso. Schade eigentlich. Bin sehr zufrieden mit meiner DS.
Vor kurzem das gesamtes Netzwerk auf 10GbE umgestellt und jetzt ist nur noch die DS der Flaschenhals...
...vielleicht gehe ich auch zu QNAP über. Der "Preis" ist eigentlich nicht so entscheidend, würde auch etwas mehr zahlen, aber ich möchte mir keine 6er NAS ins Arbeitszimmer stellen.
"Mindestens" 2,5GbE sollte heute eigentlich Standard sein... ...meine Persönliche Meinung.
Naja, mal schauen, wenn da Synology nichts "kleineres" mit min. 5 GbE raus bringt werde ich wohl in den Sauren Apfel beißen müssen und die Firma wechseln... -.-
@Oliver4x das ist genau das was ich schon geschreiben hatte. Die Aussage, dass Bonding das Kopieren einer einzelnen Datei nicht beschleunigen kann, hängt von der Art und Weise des Kopierens ab. Bei bestimmten Kopiervorgängen, die bspw. mit rsync startbar sind, wird die Datei für die Übertragung fragmentiert und über mehrere Verbindungen asynchron übertragen werden. Ein sehr einfaches und gut nachvollziehbares Beispiel sind Torrents, wo eine einzelne Datei in kleinen Teilen von verschiedenen Quellen übertragen wird. Aber die Technik des Splitten von Dateien ist nicht neu und nur auf Torrents beschränkt. Bei Backups, die Offsite gespeichert werden sollen, kann es häufiger vorkommen, dass eine einzelne Datei mehrere TB groß wird. Bei der Übertragung von vielen kleineren Teilen mit Integritätsprüfung können größere Mehrfachübertragungen verhindert werden.
Aber wenn eine Übertragung angehalten wird und (nach einem Neustart) wieder aufgenommen wird, ist es bedeutend einfacher, wenn die Datei fragmentiert wurde und nur das letzte Fragment und die fehlenden Teilse neu angefordert werden müssen.
Soll aber bei dem Test einer solchen Verbindung bedeuten, dass ein normaler Windows-Datei-Transfer keine gute Aussage machen kann. Daher kam meine Bitte an den Autor, auf der einen Seite einen Test auf dem System selber zu machen (bspw. mit DD-IO-Test Anleitung), was die maximale Geschwindigkeit ist, welche vom Cache/SSD-Array ausgegeben werden könnte und auf der anderen Seite entweder die Übertragung über eine interne virtuelle Maschine (auf einem USB-Stick) auf dem Bond oder mit einer passenden Anwendung, wie dem Intel SAN-Performance-Tester, vorrausgesetztt, dass die andere Seite auch die entsprechenden Transferraten erreichen kann.
@Oliver4x
Das ist aber etwas völlig anderes, was du initial ausgesagt hast und ist damit auch ein ganz anderer Diskussionspunkt.
LACP kann auch das, wenn man es richtig benutzt.
Niemand hat gesagt, dass bei einer 1:1 Verbindung die Übertragungsrate zwingend steigt. Grundsätzlich baut man Netzwerk aber gerne mit LACP auf, insbesondere in der Infrastruktur, da man damit eben relativ einfach die Übertragungsrate verdoppeln oder vervierfachen kann. Dazu muss man nicht zwingend 40GBE Interface nehmen, sondern kann eben 4x 10GBE nehmen. Mit der Technik laufen so ziemlich alle Datacenter auf dem Planeten. Zum einen wegen der Bandbreite, aber auch wegen der Redundanz und der schnellen Umschaltzeit.
Korrekt ist, dass LACP in der Regel bei einem Stream keinen Vorteil bringt. Der Trick ist, man macht dann einfach 2 Streams auf.
Und das geht auch bei einem Client. Dazu ist die Frage, wie das LACP richtig konfiguriert wurde. Man kann virtuelle L2 Inferfaces oder L3 Interfaces anlegen.
Und dann geht das.
Ich habe nicht gesagt, dass im Wiki die ultimative Wahrheit drinsteht, aber es bietet dir einen Einstieg in das Thema. Ansonsten einfach mal zur IEEE gehen und da die 802.3ad/ax ausfassen, da steht drin, wie man das implementiert. Das ist dann die Bibel zu dem Thema.
Danke für den Tip. Ich hatte schon mal etwas von "Mellis" gelesen, jetzt weiss ich was das ist.
Ist das Plug'n Play oder muss ich da irgendwas am System rumfrickeln?
@Equilibrium
Die Mellanox sind Plug&Play und die MCX312A (Dual-Port) war auch für lange Zeit in den Kompatiblitätslisten von Synology. Auch Windows-Treiber sind bei Win7/10/Serverderivate schon vorhanden.
Wenn du aber kein SFP+ Netzwerk aufbauen willst, kannst du auch einen N-BaseT (RJ45) Adapter für SFP+ für etwa 40€ bekommen. Hier empfehle ich STH, die diverse Adapter getestet haben und auch auf N-BaseT (also auch 2,5g) Beispiel von FS.com
@dbode Habt ihr vor, in Zukunft auch eine Art CPU Benchmark zum Test hinzuzufügen? LAN Benchmarks sind ja schön und gut, aber die sagen ja nichts darüber aus, wie gut die Performance der Geräte ist, wenn man VMs darauf einrichtet usw. Der iDomiX macht das ja über "Wie lange braucht die CPU für die Thumbnailgenerierung für X Bilder". Vielleicht könnt ihr sowas ja mal ergänzen.
Im selben Preisbereich mit der gleichen CPU hat Qnap ja das TS H-973ax inkl. 1x 10GBase-T + 2x 2.5GBase-T im Programm. Inkl. ZFS/QTS Hero statt BTRFS bei Synology ohne Korrektur. Pferdefuß dabei ist allerdings, dass der mitgelieferte RAM ohne ECC auskommen muß, obwohl der Support da ist...... Außerdem seit Wochen gelistet aber nicht verfügbar.
Für alle die sich die Frage stellen bzgl. 1-GBit/s-Ethernet. Synology ist das durchaus bewusst. Bei den kleineren Geräten wie der DS1621+ verzichtet man bewusst darauf 10-GBit/s-Anschlüsse zu verbauen, um nicht den Preis hochzutreiben. Daher bietet man lieber die Möglichkeit per PCIe-Karte nachträglich etwas hinzuzufügen.
Die Preispolitik bei Synology gestaltet sich ja folgendermaßen:
Das Betriebssystem ist immer voll und unlimitiert vorhanden, egal ob DS220+ oder SA3600. Der Preis wird anhand der Nutzbarkeit kalkuliert. Mit einer DS220+ kann man eine Firma mit 5 Mitarbeitern versorgen, mit einer SA3600 500 Mitarbeiter (Von mir erfundene Zahlen, um beispielhaft zu vermitteln worauf ich hinauswill).
Würde jetzt eine DS1621+ gleich mit 10-GBit/s-Ethernet auf den Markt kommen, würde das ihre Möglichkeit der Wertschöpfung stark vergrößern. Daher würde Synology dann nicht den reinen Netzwerkchip einpreisen, sondern die durch 10-GBit/s-Ethernet dazu gewonnenen Möglichkeiten.
Daher kostet die DS1621+ 900 Euro und die DS1621xs+ 1600 Euro. Auch wenn der Xeon leistungsfähiger ist als der Ryzen, ist er nicht "700-Euro-leistungsfähiger". Hier sind die dazugewonnen Möglichkeiten durch Xeon und 10-GBit/s ab Werk der Grund für den Aufpreis.
Ich hoffe, das war verständlich xD @DerMalle , ist das so korrekt?
Es muss ja nicht direkt der Sprung auf 10GbE erfolgen, denn den meisten Nutzern würde vermutlich erstmal ein 2,5GbE Anschluss ausreichen.
Diejenigen, die eine schnellere Anbindung wünschen, können bei der DS1621+ zum Glück eine PCIe Karte je nach Kompatibilität und Geldbeutel nachrüsten.
Uns ist bewusst, dass ein RAID0 keine sinnvolle Einstellung bei einem Gerät dieser Größe und Anwendungsbereich ist. Aber wenn wir für jedes NAS nun individuelle Testkriterien wählen, dann würde es keine Vergleichbarkeit mit anderen Geräten in unseren Reviews geben. Zumal es ja bei der Wahl des RAID nicht bleibt. Denn dann müssten die Geräte auch in Bezug auf den verwendeten Netzwerkanschluss unterteilt werden. Also 1GbE, 2,5GbE, 5GbE und 10GbE.
Zumindest zeigt mir die QNAP QSW Switch an, dass der Testkandidat mit 20GbE betrieben wird. Aber real war es bis jetzt nicht möglich, mehr als 1Gb/s an Daten zu übertragen. Mit mehreren Clients würde in der Gesamtsumme mit Sicherheit mehr als 1Gb/s an Durchsatz erreicht werden.
Die Tests per SSH mache ich zur Verifizierung für mich, ob die Werte plausibel sind und sofern es auch möglich ist. Zum Beispiel kann bei Synology mit und ohne Cache per HDPARM dies geprüft werden. Bei QNAP geht nur mit Cache.
Auch hier ist das Problem, das nicht alle Hersteller z.B. eine „Foto-Station“ bieten, bei denen die Bilder exakt gleich generiert werden. Selbst wenn wir zwei gleiche Prozessoren von unterschiedlichen Geräteherstellern mit dem gleichen Satz an Bildern und der gleichen Anzahl an Datenträgern füttern würde, bedeutet es ja nur, dass das eine NAS jetzt performanter als das andere bei genau dieser Aufgabe ist. Aber ob das nun wirklich am Prozessor oder Software liegt, lässt sich ja nicht genau beurteilen. Wenn man natürlich immer beim gleichen Hersteller und damit bei der gleichen Software bleibt, kann man das schon vergleichen.
Auch hier ist das Problem, das nicht alle Hersteller z.B. eine „Foto-Station“ bieten, bei denen die Bilder exakt gleich generiert werden. Selbst wenn wir zwei gleiche Prozessoren von unterschiedlichen Geräteherstellern mit dem gleichen Satz an Bildern und der gleichen Anzahl an Datenträgern füttern würde, bedeutet es ja nur, dass das eine NAS jetzt performanter als das andere bei genau dieser Aufgabe ist. Aber ob das nun wirklich am Prozessor oder Software liegt, lässt sich ja nicht genau beurteilen. Wenn man natürlich immer beim gleichen Hersteller und damit bei der gleichen Software bleibt, kann man das schon vergleichen.
Das ist wohl so. Aber dennoch wäre es schön, eine Art "interne Performance" messen zu können. Könnte ja auch sowas sein wie "VM mit Linux erstellen und darin eine Testaufgabe ausführen". Klar kann nicht jedes NAS VMs, aber alle die, die es können, sind dann vergleichbar.
Und ja, ich verstehe durchaus, dass der Vergleich durch die Optimierung der NAS-Firmware mal besser und mal schlechter ist. Aber ist es nicht auch genau sowas, was einen zukünftigen Benutzer interessieren würde? Wenn jetzt zB der Test zu Tage fördert, dass als Beispiel Synology besser bei der PhotoStation ist und QNAP besser bei den VMs abschneidet, so ist auch das schon ein Indikator für einen zukünftigen Benutzer, da er sich sein Systen nach seinem individuellen Schwerpunkt aussuchen könnte.
Vielleicht könnt ihr das mal in der Runde diskutieren. Netzwerk-Bandbreite bringt jedenfalls keinen wirklichen Informationsgehalt über die Performance der NAS. Jedenfalls meiner Meinung nach.
@DerMalle vielen Dank für die Antwort. Ich würde mal davon ausgehen, dass der Switch den richtigen Wert anzeigt.
Um nicht mit mehreren Clients gleichzeitig auf das NAS zugreifen zu müssen, könnte der Multichanel-Modus von SMB3 aktiviert werden. Damit sollte es möglich sein, dass Windows normale Dateitrasfers von einem 10g-Port auf mehrere Ports an das NAS zu übertragen. Bedarf aber auch wieder Anpassungen über die Konsole ... In der smb.conf die Zeile aktivieren server multi channel support=yes und SMB3 muss in der Oberfäche aktiviert werden.
Aber vermutlich würde ich die Netzwerggeschwindigkeit über den Switch oder das NAS ablesen, wenn mit mehreren Clients Datentransfers gestartet sind.
Statt 4x1GBit würden mir 2x2,5 deutlich besser gefallen als Grundausstattung.
QNAP macht es ja vor, und immer mehr Consumerboards und Workstations kommen mit 2,5GBit und mehr von Haus aus.
Naja, ich finde es geht mehr um die Anwendung als um Hardware Spezifikationen. Gerade bei QNAP denke ich da an die Sicherheitslücken vor zwei Tagen ... Um einiges relevanter :P