TBS-h574TX im Test: Das SSD-NAS ohne Geschwindigkeitsbegrenzung

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.535
Zuerst berichteten wir vom TBS-h574TX im letzten Jahr zur Computex. Bereits bei der Erstellung des Videos war dies unser Highlight auf dem QNAP-Stand, und gerade für unser Videoteam sah das TBS-h574TX als ideales Gerät für ein mobiles Schnittstudio aus. Hohe Performance, schnelle Zugriffe, und das gleich für mehrere Personen auch über Thunderbolt - so etwas ist ideal, wenn man im Team Zugriff auf große Datenmengen benötigt - wie beispielsweise nach einem Videodreh. Nun endlich ist das TBS-h574TX am Markt: Wir bauen SSDs ein und zeigen, was das NAS kann.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Preis ist schon heftig…
Anbindung der NVMEs auch eher suboptimal, viel mehr Lanes bietet der Prozessor nicht.
 
Warum sollten sie die Datenträger zwanghaft über mehr Speed anbinden als sie nach außen bringen können? Übler ist da schon die Schnittstelle. Mit 10Gbit über Kupfer sind so lala... 23W im idle und 44W unter Last sind, sorry, nicht "recht sparsam".

PS:
Was mich eher wundert ist, daß wir auf Luxx eine Zielgruppe für solche Preisklassen haben könnten :sneaky:
 
Warum sollten sie die Datenträger zwanghaft über mehr Speed anbinden als sie nach außen bringen können? Übler ist da schon die Schnittstelle. Mit 10Gbit über Kupfer sind so lala... 23W im idle und 44W unter Last sind, sorry, nicht "recht sparsam".

PS:
Was mich eher wundert ist, daß wir auf Luxx eine Zielgruppe für solche Preisklassen haben könnten :sneaky:
Es muss eigentlich nur mal ein Hersteller ein Mainboard bringen, dass an jedem PCIe Bifurcation anbietet (z.B. 4x 4x 4x 4x, 4x 4x 4x 4x) und 10GBe.
Und schon sind solche NMVe NAS entzaubert.
 
Es muss eigentlich nur mal ein Hersteller ein Mainboard bringen, dass an jedem PCIe Bifurcation anbietet (z.B. 4x 4x 4x 4x, 4x 4x 4x 4x) und 10GBe.
Und schon sind solche NMVe NAS entzaubert.
Dann müssten die Prozesorren das halt mal wieder unterstützen. Ältere können es ja.
 
ZFS aber kein ECC. Sorry aber in der Preisklasse gehört es imo dazu grade wenn man ZFS benutzt...
 
Aus meiner Sicht ein komisches Produkt. Für jemanden der Hot-Swapping braucht und echte E1.S-Modelle (dort ist deutlich mehr Kapazität durch die höhere erlaubte Bauhöhe möglich) einsetzten kann, sicherlich ein tolles Paket. Aber wenn ich in diesen Sphären unterwegs wäre, würde mir SFP+ bzw. ein x4 Slot für meine eigene Netzwerklösung fehlen und auch der fest verbaute Ram schreck mich doch ab.

Also ist es am Ende ein SOHO Produkt und da würde mich dann ordentlich der Preis stören, da ich ähnliche Performance und Features (passend für den SOHO Bereich) von z.B. Asus in Form des Asustor Flashstor 12 Pro für deutlich weniger Geld bekomme. Zumal Asus bereits den Nachfolger angekündigt hat, der auf die momentanen Engpässe des 12 Pro eingehen soll.
 
Pffff … 😂😂😂😂😂😂
Stolzer Preis für so ein bisschen Metall, Plastik und Board!
Für den Preis kann man dann locker DIY starten 😉.

Ich habe mir in der Tat letztes Jahr noch schnell 12x 8 TB QVOs geholt (280€ das Stück). Sechs laufen in einer DS620Slim. Zur Not könnte ich dort jederzeit einen 2.5 GBe anbringen.
 
@GameCollector @kaiser

Seit wann hat PCI-e BiFurcation was mit der CPU zu tun? So weit ich weiß ist dies nur eine Frage des Bios. (Habe selber schon Bios Dateien modifiziert und PCI-e Bifurcation Support hinzugefügt)
 
@GameCollector @kaiser

Seit wann hat PCI-e BiFurcation was mit der CPU zu tun? So weit ich weiß ist dies nur eine Frage des Bios. (Habe selber schon Bios Dateien modifiziert und PCI-e Bifurcation Support hinzugefügt)
Wenn die CPU nur 8x/8x unterstützt (z.B. die aktuellen 2/3 Generationen von Intel) kann das Mainboard nich in 4x/4x/4x/4x teilen.
Die AMD APUs haben z.B. auch nur 8x/8x, obwohl die gleiche Gewneration an CPUs 4x/4x/4x/4x unterstürtzen. Auf dem selben Mainboard.
 
Ich verstehe die Preisgestaltung solcher Produkte langsam echt nicht mehr, selbst das Asustor Full NVME kostet ca. 550 Euro.

Die Lust mal ein Full-NVME-Storage zu bauen hätte ich schon, aber nicht mit solchen Preisen, denn:
1) Für den Preis könnte man sich ein CN 3588 mit Storage kaufen
2) Für den Preis bekommt man ein kleineres SOC-Board (z.B. Biostar J4125NHU) sowie eine gebrauchte 4-Port-Karte wie Highpoint SSD7101A-1

Ich denke ich werde den Weg gehen und erst einmal auf SATA SSDS umsteigen statt direkt den Sprung zu NVME zu machen.
 
Ich denke ich werde den Weg gehen und erst einmal auf SATA SSDS umsteigen statt direkt den Sprung zu NVME zu machen.
Womit man gut 2.5Gbit LAN ausgelastet bekommt und ich finde es daheim nicht grad peinlich ein NAS zu haben was entspannt 300 MB/s schiebt. Was auch nur eine Geige beim s.g Erstbefüllen spielt. Wenns denn überhaupt stattfindet. Sonst sind das 40s je 12GB. Nicht grad beschämend oder?
 
Beim Newcomer Ugreen mit einem Slot weniger, einer etwas weniger kraftvollen CPU und nur einem 10Gbit-Netzwerkanschluss weniger als die Hälfte des Qnap zum Nominalpreis. Dafür ein noch unausgereiftes OS oder die Möglichkeit auf Freie Software wie OMV oder TrueNas zu setzten. Bei Synology in der Kombination gar nicht erhältlich, bei Asustor nur mit im Vergleich weniger performanten Celeron N mit 12 Plätzen
 
Warum um die Kühlung Gedanken machen, wenn die SSds eh nur PCIe3.0x2 angebunden sind. Mir sind keine PCIe3.0 SSds bekannt, die mit der Anbindung in irgendeiner Weise durch Wärme limitieren würden.

Es ist zumindest aktuell ein erster Schritt in die richtige Richtung beim NAS,. aber aktuell sehe ich bis auf die Größe da immer noch Eigenbaulösungen vorn.
Sei es das fehlende ECC, sei es Bifurcation und x4 Anbindung, sei es eine sparsame aber schnelle Anbindung für 24/7.

Ich freue mich dennoch auf die Zukunft mit hoffentlich großen NVME SSDs.
 
@Strikeeagle1977
Kommt drauf an, gibt leider auch diverse NVMe Laufwerke welche bereit im idle extrem warm/heiß werden. Hatte da schon welche, knappe 60-70°C im idle/min last. Je nach Umgebung und wenig Durchzug, heizen die guten sich ziemlich auf.

@kaiser
Man könnte dann dennoch auf 4/4 aufteilen oder gar geringer (2x2x2x2x). Sprich PCIe BiFurcation geht immer, zwar limitiert durch die verfügbaren Lanes, aber es geht. Und 2x PCIe 3.0 reicht meist aus, sind immerhin ca. 2 GB/s (abzüglich Overhead usw.)

@GameCollector
Die älteren Systeme... Sockel 771, 775, 1366, 2011-3 usw. Geht auch bei aktuellen Boards und Sockeln, leider gibt es da oft Probleme mit "verschlüsseltes" Bios, WriteLock (für Custom) usw. Aber da gibt es ebenfalls Modelle welche bereits gehackt wurden.
 
Warum um die Kühlung Gedanken machen, wenn die SSds eh nur PCIe3.0x2 angebunden sind. Mir sind keine PCIe3.0 SSds bekannt, die mit der Anbindung in irgendeiner Weise durch Wärme limitieren würden.
Bei Custom-SSDs dürftest du Recht haben, aber wenn du beispielsweise eine Micron 7400 PRO mit PLP verwendest, liegt die im Ruhezustand schon bei 70°C. Für die neueren Modelle kann ich nicht reden, aber vermutlich liegen die alle irgendwo so.
 
@GameCollector
Die älteren Systeme... Sockel 771, 775, 1366, 2011-3 usw. Geht auch bei aktuellen Boards und Sockeln, leider gibt es da oft Probleme mit "verschlüsseltes" Bios, WriteLock (für Custom) usw. Aber da gibt es ebenfalls Modelle welche bereits gehackt wurden.
Ja, die Möglichkeit bei 2011-0 und 2011-3 waren mir bekannt. Neuere Modelle (halt Intel 12,13,14gen) hingegegen nicht.
 
Die äähh... Komputertechnik, dreht aktuell bisschen frei. Oder eher, durch. Und ich mein Consumerware. Nennen wir es, Sackgassen...? Imho auch ganz ohne eine grüne Brille.

Plaste-NAS mit 22W/44W, 10Gbit über Kupfer mit 8W pro Strecke, SSDs mit 70°C im idle, den 12VHPWR natürlich nicht unerwähnt :sneaky: , USB3 mit welchem man sich u.U. WLAN und DECT Empfang zumüllen kann, WiFi7 Plaste-Router mit bis zu 40W, Wifi7 APs mit 20W, 2.5Gbit die je nach HW-Dev Stand der Switche mal 1,4W / mal aber 2,7W pro Strecke verbrauchen usw. usw. usw.

Ah ja. Mein akuelles Highlight: PCIe Gen6 und Gen7 mit PTCs in den Slots mit welchen das BIOS die Temps überwacht und ggf. die Leistung automatisch drosselt (!)

Jeder will weiter noch und nöcher auf die Tube drücken, egal ob die HW und die Herstellungsprozesse es grad im gleichen Maße weiter hergeben oder nicht. Fortschritt läuft aktuell weitgehend mit bereits länger vorhandenem, über mehr Amper (-> Watt -> Temperaturen -> letztendlich aber einfach mehrfachen Verbrauch). Die Kampfparole dagegen ist aktuell: die Effizienz.
O-Ton der Hersteller: Ja wir brauchen im idle 2x soviel Energie und gar 3x soviel Energie unter Last, erledigen die Aufgaben aber 5x bis 6x so schnell wie davor. Ja, wunderbar, für Business und Rechenzentren. Der Consumer bekommt die Auslastung aber in 99,8% der 24/7 Fälle nicht lange genug hin mit seinen kurzen Peaks, damit sich das für ihn rechnet. Effizienz unter Teillast und Last spielt für ihn REAL keine Geige.

Falls er sich also nicht benebeln lässt, sind die absoluten Zahlen für ihn die primären. Nicht die Effizienz. Die ist sekundär. Nicht umgekehrt. Daher sind für ihn u.a. auch AccesPoints/Repeater aus 50% Gusseisen und mit Minilüftern drin heute genauso ein Blödsinn wie sie es auch schon vor 4 Jahren waren. Oder auch vor 8 Jahren wären.

Die Effizienz ist sekundär. Daheim sind primär die absoluten Zahlen wichtig und die werden neuerdings immer schneller immer mieser. Das war davor trotz des ebenfall spürbaren Fortschritts auch mal anders. Zwar auch nicht durchgehend Wonderland, aber imho weit seltener so mies als aktuell in der Menge/Summe.
 
Zuletzt bearbeitet:
Ich denke ich werde den Weg gehen und erst einmal auf SATA SSDS umsteigen statt direkt den Sprung zu NVME zu machen.
Hab ich auch so gemacht. Selbst entkoppelt sind mir 3.5"-Platten zu laut, da der NAS im Arbeitszimmer steht. Preislich macht es keinen Unterschied, mit dem passenden Rabatt sind NVME-SSDs teilweise sogar günstiger, wenn man kein Noname verwenden will. Von Vorteil ist aber, dass man leicht 8+ SSDs an ein Consumerboard anzuschließen kann, dafür hat man auch mehr Kabelsalat.

Preislich ist man da bei 300-450€, je nachdem ob man 2.5g/10g will. Mein Board hat 2 M2-Slots, im Prinzip könnte man ein 4 TB highspeed raid1 Speicher mit langsameren Sata kombinieren. On top gibts noch ECC & eine bessere Effizienz im Idle. Wenn nicht die Kompaktheit maßgeblich ist, oder man unbedingt ein Fertigprodukt braucht, sind DIY-Lösungen um ein vielfaches günstiger und man hat viel mehr Spielraum, das Ganze auf die eigenen Bedürfnisse anzupassen.
 
Jo, für ein ZEHNTEL des lächerlichen Preises würd ich das glatt spaßeshalber mal ausprobieren :stupid:
 
Zuletzt bearbeitet:
150€ für +7.5 Gbit ist doch der absolute Schnapper :fresse:
:rolleyes:

je nachdem ob man 2.5g/10g (etc.) will.
Mag etwas missverständlich geschrieben sein, aber der Preisbereich hat sich nicht auschließlich auf das NIC bezogen. Hätte man aber auch selbst drauf kommen könnnen...

Im Prinzip könnte man einen gleich schnellen NAS bauen und hätte noch genug Kohle über um eine aktuelle RTX-Karte für Transcoding oder ML-Anwendungen einzubauen. Das Ding ist schon absurd teuer.
 


Mag etwas missverständlich geschrieben sein, aber der Preisbereich hat sich nicht auschließlich auf das NIC bezogen. Hätte man aber auch selbst drauf kommen könnnen...
Es war nicht missverständlich, bedeutet aber was es bedeutet. Wenn man 10Gbit möchte, bekommt man auch eine andere Baggage mit dazu mit der man vielleicht nichts anfangen möchte. Ist eben so.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh