Ein 1U Server-Barebone: ASRock Rack 1U2E-C252 im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.944
Bisher haben wir uns schon einige Server-Mainboards für AMDs EPYC- und Intels Xeon-Prozessoren in den verschiedensten Formfaktoren angeschaut. Heute nun folgt ein erster Server-Barebone. Der ASRock Rack 1U2E-C252 ist ein 1U-Server, der Xeon-E-2300-Series-Prozessoren aufnehmen kann. Der 1P-Low-Cost-Server kann für verschiedene Anwendungsbereiche eingesetzt werden.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also der richtige Einsatzzweck will sich mir nicht so wirklich offenbaren. Da die PCIe-Slots nicht wirklich nutzbar sind, bleibt es dank der verbauten Karte bei nem Storage-System. Soweit so gut. Dafür aber mit den beiden 1GBase-T sehr schmal angebunden. Ok, die M.2 bringen auch nur 2 Lanes. Viel reißt man hier also auch nicht. Da das Netzteil nicht viel Reserve hat, kann auch die CPU nicht wirklich mit Kernen glänzen. Somit haben wir nen recht teures Storage-System, was man bei Synology, i'X Systems oder Qnap auch hätte bekommen können und wahrscheinlich noch mit 10 GBase-T erweitern könnte, insofern in der Preisklasse nicht bereits enthalten. Wenn sie wenigstens die Lanes in den freien Bereich mit nem x8 Slot versehen hätten, aber so....nicht wirklich der Hit. Die Frage wäre, was das Teil ohne aktuelle Teuerung und Lieferprobleme gekostet hätte.
 
Also für um die 800 Euro gibt es von QNAP ein TS-473a bzw. für knapp über 1000 das 873a. Jeweils mit 2x2.5G Base-T Netzwerkanbindung. Synology bietet ähnliches.
Auch im 19 Zoll Formfaktor gibt es z.b. die Turbostation von QNAP. Die fängt bei 700 Euro an und kann je nach Konfiguration und Ausführung bis zu 1150 Euro kosten. Am unteren Ende der Preisspanne ist bereits 2x2.5G enthalten, am oberen Ende dann gar 2x10Gb SFP+.

Kann mir jemand erklären für welchen Einsatzzweck nun dieser AsRock Backbone gut sein soll? Mir fällt partout nichts ein wo ich 8 Xeon Kerne aber keine schnelle Netzwerkanbindung oder viel/schnellen Speicher gebrauchen könnte. Ich finde 1000 Euro für etwas "19 Zoll schnuppern" doch recht happig.
 
Kann mir jemand erklären für welchen Einsatzzweck nun dieser AsRock Backbone gut sein soll? Mir fällt partout nichts ein wo ich 8 Xeon Kerne aber keine schnelle Netzwerkanbindung oder viel/schnellen Speicher gebrauchen könnte. Ich finde 1000 Euro für etwas "19 Zoll schnuppern" doch recht happig.

Ich find den Apparat auch ziemlich teuer für das gebotene. Auch für kleine Unternehmen find ich das Gerät nicht wirklich interessant, dann lieber einen kleinen Tower hinstellen. Mit den zwei Plattenschächten und der M.2 kommt man auch nicht super weit.
Was ich mir irgendwie denken könnte wäre, da eine Radeon Pro W5500/W6600 oder eine RTX A4000 reinzustopfen (alles Single-Slot-Karten), vorne 2 SSDs und mit der Kiste dann zu rendern. Allerdings wäre gerade mit der letzteren Lösung das Netzteil schon mehr oder weniger an der absoluten Grenze, GB-LAN ist auch meh und irgendwie gäbe es für den Anwendungsfall dann auch wieder einige bessere Lösungen. (Und da der PCIe Slot keinen Luftstrom abbekommt wird es vermutlich auch warm.
Mit 1U ist das Ding ja für Fälle gedacht, wo man wenig Platz im Rack hat oder viele Maschinen in ein Rack bekommen will. Vielleicht für Cloud-Anbieter, die Bare-Metal-Server anbieten?
 
Wer will schon mit 1 Gbit auf ein Storage zugreifen, vor zwei oder drei Jahren noch OK, aber geht jetzt irgendwie gar nicht mehr bei einem Neukauf.
 
Also für um die 800 Euro gibt es von QNAP ein TS-473a bzw. für knapp über 1000 das 873a. Jeweils mit 2x2.5G Base-T Netzwerkanbindung. Synology bietet ähnliches.
Auch im 19 Zoll Formfaktor gibt es z.b. die Turbostation von QNAP. Die fängt bei 700 Euro an und kann je nach Konfiguration und Ausführung bis zu 1150 Euro kosten. Am unteren Ende der Preisspanne ist bereits 2x2.5G enthalten, am oberen Ende dann gar 2x10Gb SFP+.

Kann mir jemand erklären für welchen Einsatzzweck nun dieser AsRock Backbone gut sein soll? Mir fällt partout nichts ein wo ich 8 Xeon Kerne aber keine schnelle Netzwerkanbindung oder viel/schnellen Speicher gebrauchen könnte. Ich finde 1000 Euro für etwas "19 Zoll schnuppern" doch recht happig.
Wieso vergleicht man ein 4 oder 8 Bay NAS (also Storage-Anwendung) mit einem einfachen Entry-Server?
Es gibt noch was anderes auf der Welt, außer NAS und 100TB Pornos horten.

Das ist ein Entry-Server und ersetzt die großen BronzeCPUs (die es nicht mehr gibt) von Intel und ist damit low cost.
Für einige mögen 1k EUR viel Geld sein, im Serverbereich ist das eher ein normaler Preis.
Und auch mit 2,5GBE NICs will man im Serverumfeld nix zu tun haben. Realtek (wie z.B. im NAS) will man nicht haben und das Intel Pendent auch nicht, da buggy.
Also bleibt man bei Chips die sich seit Jahren bewährt haben, denn Stabilität und Verfügbarkeit größer Speed.
Weiterhin hat das MB, welche einfach nur aus dem Regal genommen hat, eben kein 10GBE onboard und damit wars das dann eben mit schnellem Netzwerk.
Das MB ist nicht speziell für das System gemacht worden.

Und damit sind wir auch beim Einsatzzweck. Das Ding richtet sich nicht an den Homeuser, der ggf. eigentlich nur ein NAS braucht.
Das ist ein Server für kleine Unternehmen, wo man sein Windows Server 2022 Essential drauf packt und dann damit seine Servicedrehscheibe im Unternehmen hat. Weiterhin ist das kompakte Maß hervorragend für 80er 19" Schränke geeignet, wo man einen "normalen" Server eben nicht unterbekommt.
Das NVMe Speichersubsystem soll einfach nur schnelle IOs machen und weniger hohe Datentransferraten. (man schaue sich das mal in den Datenblättern an)
Weiterhin setzt sich NVMe im Serverbereich so langsam auch durch. SATA ist schon lange out, wenn es überhaupt mal in war, SAS kommt so langsam an die Grenze seiner Möglichkeiten.
Der komplette Markt schwenkt dahin, das geht nicht von heute auf morgen, aber es passiert. Und mit dem System ist man quasi ganz vorne dabei.

Also der richtige Einsatzzweck will sich mir nicht so wirklich offenbaren. Da die PCIe-Slots nicht wirklich nutzbar sind, bleibt es dank der verbauten Karte bei nem Storage-System. Soweit so gut. Dafür aber mit den beiden 1GBase-T sehr schmal angebunden. Ok, die M.2 bringen auch nur 2 Lanes. Viel reißt man hier also auch nicht. Da das Netzteil nicht viel Reserve hat, kann auch die CPU nicht wirklich mit Kernen glänzen. Somit haben wir nen recht teures Storage-System, was man bei Synology, i'X Systems oder Qnap auch hätte bekommen können und wahrscheinlich noch mit 10 GBase-T erweitern könnte, insofern in der Preisklasse nicht bereits enthalten. Wenn sie wenigstens die Lanes in den freien Bereich mit nem x8 Slot versehen hätten, aber so....nicht wirklich der Hit. Die Frage wäre, was das Teil ohne aktuelle Teuerung und Lieferprobleme gekostet hätte.
Wo siehst du denn da nen Storage-System? Weil man da 2 Platten reinstecken kann? Lass dir gesagt sein, dass die Mindestaustattung für einen Server 2 Platten sind, für ein RAID1.
Und auf einer Syno, QNAP und auch TrueNAS installierst du kein Windows Server oder andere ernsthafte Dienste, wenn du ein robustes System haben willst.
Also nein, das ist kein Storage-System, sondern einfach nur ein Dienste-Server für ein KMU.
Was soll die CPU da mit Kernen glänzen? S1200 ist mit 8C/16T am Ende. Wie willste da ne 32C CPU reinbekommen? Was gibt es denn da auf dem S1200 Markt?
Der Testaufbau ist das Maximum, was da geht. Und die 130W lassen sich evtl. noch auf 150W durch passende SSDs aufbohren und dann war es damit Stromverbrauch in der Kiste. Dafür ist das NT also schon fast zu groß.

Wo soll denn eurer Meinung nach mehr Leistungsaufnahme herkommen? Durch 100 USB-Festplatten? Das System ist quasi nicht erweiterbar und damit ist die Aufnahme schon per Werk begrenzt und dafür ist das NT mehr als ausreichend dimensioniert.

Das ist kein
- Storage-Server
- Render-Server
- KI-Server
- irgendein high networking Server

Es ist einfach nur so ein Server, wo man ein paar Dienste (AD, Mail, Warenwirtschaft und was weiß ich nicht noch kleines) deployt und den ins Rack schraubt. Da werden weder groß Files abgelegt, noch Backups mit gemacht.
Und natürlich ist das System teurer als ein einfaches SATA-System. Dafür bekommt man aber auch ein extrem schnelles Storage-Subsystem.
Kann man sich das selber bauen? Klar kann man. Aber im professionellen Umfeld baut man nicht selber, gerade nicht im NVMe-Umfeld. Da fällt man mit dem Ansatz eher auf die Fresse, wenn man davon keine wirkliche Ahnung hat. Ein nicht unwesentlicher Teil geht eben in den NVMe-Aufbau und ja, das kostet eben.

Und natürlich gibt es auch 10GBE onboard. Aber ein ASUS oder SupermicroMB macht sich ein bissle schlecht in einem Asrock-System oder seht ihr das anders?
 
Zuletzt bearbeitet:
Eigentlich wollte ich den Thread ja gerade ins Server-Sub verschieben, aber ob das dazu führt dass man sich sachlicher mit dem Produkt/Artikel auseinandersetzt... :unsure:
 
Mit 1U ist das Ding ja für Fälle gedacht, wo man wenig Platz im Rack hat oder viele Maschinen in ein Rack bekommen will. Vielleicht für Cloud-Anbieter, die Bare-Metal-Server anbieten?
Für Hyperscaler absolut uninteressant und für Buden wie Hetzner auch, weil einfach zu kostensensitiv, da kostet das Gesamtsystem 1k und nicht das nackte Barebone.
 
Kann man sich das selber bauen? Klar kann man. Aber im professionellen Umfeld baut man nicht selber, gerade nicht im NVMe-Umfeld. Da fällt man mit dem Ansatz eher auf die Fresse, wenn man davon keine wirkliche Ahnung hat.

Das ist ja irgendwie das Thema, wie du sagst, baut man im professionellen Umfeld nicht selbst, da würde ich aber auch das bestücken eines Barebones drunter verstehen. Da kauft man eher von irgendeinem Hersteller eine Maschine mit Vor-Ort Service. Ich habe gerade mal bei Dell geguckt und da bekommt man schon einfach konfigurierte R240/R250 für Kosten, die kaum höher sind als das ASRock Barebone. Ähnliches Bild bei Lenovo mit dem SR250.(Wie es da mit NVMe aussieht habe ich auf die schnelle nicht in Erfahrung gebracht, bei dem SR250 gibt es auf jeden Fall zumindest die Option)

Wenn ich für einen Kunden entscheiden müsste, ob ich ein ASRock-Rack Barebone zusammenzimmere oder eine fertige Maschine von Dell oder Konsorten mit Service nehme, würde ich wohl nicht lange überlegen (und das ist nichts gegen ASRock, ich kaufe fast ausschließlich Boards von denen). Aber guter Service und Support können einem da schon eine Menge Ärger vom Hals nehmen.
 
@underclocker2k4
Mag sein. Jetzt schau nochmal bei anderen Anbietern und dann auf den Preis. Mit Warenwirtschaft würde ich tatsächlich noch mitgehen. Daran hatte ich tatsächlich nicht gedacht, aber wie mein Vorredner schon festgestellt hat, gibt's da ausreichend Alternativen, teils mit noch weniger Tiefe oder redundantem NT. Deswegen die Frage, was das wohl ohne Teuerung und Lieferprobleme kosten würde.
Interessant sind halt die 128GB RAM für ne schöne Datenbank, dafür sind mir aber eben zu wenig NVMe möglich. Aber wer weiß, was da eventuell noch nachgeschobenen wird.
Persönlich ist man schnell über die Bedarfsgrenze hinaus geschossen und will/empfiehlt gleich mehr an Hardware als wirklich gebraucht wird. Aber gerade für ne kleine Firma macht nen leiser Server mehr her als nen 1HE-Schreihals. Denn wenn schon 19"-Rack, dann hat man auch 3-4 HE frei...
 
Mit dem Selbstbau war nicht unbedingt das Gesamtsystem im Vergleich zu HP und Co gemeint, sondern der Selbstbau mit dem NVMe Subsystem.
Schaut man sich in der Welt mal um, wird man feststellen, dass man sich mit NVMe schnell in die Nesseln setzen kann.
Und das Verkaufsargument ist, für mich, das Storage-Subsystem. Und da gibt es, meines Wissens, auch bei HP und Co. nichts.
Auch ein SR250 ist "nichts", da ältere Plattform. Kann man sich jetzt streiten, ist aber erstmal so. Wird man es merken, wenn man an den Graphen 1000% ranzoomt evtl.
Und wenn die Großen nix haben, bzw. wie auch immer, etwas speziellen bauen will oder gar muss, ist das für mich eine Option.
Und auch nicht jeder Kunde ist gleich. Ja Support ist nett, aber es ist nicht immer ein Support notwendig. Sicherlich nicht bei einem one and only KMU Server, aber es gibt ja auch noch andere Konstellationen.

Das ist, wie gesagt, ein sehr spezieller Server, der auf einem StandardMB aufbaut und damit eben etwas sehr spezielles realisiert. Das ist kein "passt überall" Server.
Das ist nen R250 oder auch nen SR250 auch nicht.
Und so ist es eben, dass mal der eine Käse besser schmeckt als der andere und mal umgekehrt.
Beitrag automatisch zusammengeführt:

mehr her als nen 1HE-Schreihals.
Diese Zeiten sind schon seit rund 10 Jahren vorbei.

Bei mit am Arbeitsplatz läuft nen DL380 gen 10 (2HE), ca. 1m neben dem Ohr. Evtl. bin ich auch geschädigt, man nimmt ihn wahr, das wars dann aber auch schon

EDIT:
Für den Server wurde ja kein MB speziell auf irgendwelche Demands hin entwickelt. Einfach aus dem Regal genommen, was man so hatte, und nett zusammengestellt. Wenn man das als "Laie" versucht, scheitert man als erstes am Subsystem. Kann man sich hier ja mal anschauen, was sich die Kollegen hier auf die Fresse mit NVMe gelegt haben. Und wenn man das will, warum auch immer, dann gehen da mal schnell 5k Lehrgeld (inkl. Stundenlohn) weg. Da scheinen mir die 1k für das Barebone fast schon geschenkt.
Beim Rest wie Lüfter und NT kommt man sicherlich noch zu Rande.
 
Zuletzt bearbeitet:
Wieso vergleicht man ein 4 oder 8 Bay NAS (also Storage-Anwendung) mit einem einfachen Entry-Server?
Es gibt noch was anderes auf der Welt, außer NAS und 100TB Pornos horten.
Weil das 4 oder 8 Bay NAS gerade auch im Entry Level Bereich für Unternehmen interessanter sein dürfte? Storage + Compute in einem. Ist ja nicht so als gäbe es da keine 19 Zoll Lösungen.
Was du privat sammelst interessiert glaube ich keinen ;)

Das ist ein Entry-Server und ersetzt die großen BronzeCPUs (die es nicht mehr gibt) von Intel und ist damit low cost.
Für einige mögen 1k EUR viel Geld sein, im Serverbereich ist das eher ein normaler Preis.
Was es ist düfte bekannt sein. Die Serversysteme in meinem Keller waren teurer, von der CX4 damals ganz zu schweigen.
Der Barebone wird aber kaum eine CPU ersetzen ;)
Ich hinterfrage ja nicht den Sinn eines Low Costs Systems sondern den Einsatzzweck genau dieses Systems.


Und auch mit 2,5GBE NICs will man im Serverumfeld nix zu tun haben. Realtek (wie z.B. im NAS) will man nicht haben und das Intel Pendent auch nicht, da buggy.
Also bleibt man bei Chips die sich seit Jahren bewährt haben, denn Stabilität und Verfügbarkeit größer Speed.
Weiterhin hat das MB, welche einfach nur aus dem Regal genommen hat, eben kein 10GBE onboard und damit wars das dann eben mit schnellem Netzwerk.
Das MB ist nicht speziell für das System gemacht worden.
Also wir haben durchaus auch 2.5GBE von Realtek im Einsatz und keinerlei Probleme damit. Sind aber auch die Ausnahme, normalerweise werkeln da 10G oder schneller. Bevorzugt SFP+. Aber davon abgesehen: 2x 1G ist einfach langsam. Besonders mit Blick auf die Storage Möglichkeiten. Entweder ist man sehr limitiert (Lediglich RAID1 + SSD) oder man bindet ein LUN vom SAN oder NAS an. Mangels PCIe Slots ist dies die einzige Option. Das MB muss ja keine Sonderanfertigung sein.

Und damit sind wir auch beim Einsatzzweck. Das Ding richtet sich nicht an den Homeuser, der ggf. eigentlich nur ein NAS braucht.
Das ist ein Server für kleine Unternehmen, wo man sein Windows Server 2022 Essential drauf packt und dann damit seine Servicedrehscheibe im Unternehmen hat. Weiterhin ist das kompakte Maß hervorragend für 80er 19" Schränke geeignet, wo man einen "normalen" Server eben nicht unterbekommt.
Das NVMe Speichersubsystem soll einfach nur schnelle IOs machen und weniger hohe Datentransferraten. (man schaue sich das mal in den Datenblättern an)
Weiterhin setzt sich NVMe im Serverbereich so langsam auch durch. SATA ist schon lange out, wenn es überhaupt mal in war, SAS kommt so langsam an die Grenze seiner Möglichkeiten.
Der komplette Markt schwenkt dahin, das geht nicht von heute auf morgen, aber es passiert. Und mit dem System ist man quasi ganz vorne dabei.
Und genau in dem Punkt wiederspreche ich. Für mich ist das eben KEIN System als "Servicedrehscheibe" für kleine Unternehmen. Das kleine Unternehmen wäre mit einen NAS m.M.n deutlich besser bedient. Ein NAS ist ja nicht nur etwas für Privatpersonen. Virtualisierungsmöglichkeit, Erweiterbarkeit und deutlich mehr Storage Optionen sind für mich ein Argument Pro NAS. Moderne NAS bieten auch Platz für NVMe SSDs und haben meist noch mindestens einen PCIe Slot als Erweiterungsmöglichkeit. Mir fehlt daher nach wie vor die Nische in welche dieser Server passen soll bzw. wo er Vorteile bieten soll. Mit 2 Platten im RAID 1 und einer M.2 gewinnt man keinen Blumentopf. Warum nicht die beiden verbliebenen SAS Anschlüsse auch nutzen oder sogar die SATA Ports? Dann wäre zumindest etwas Fexibilität mit Blick auf die Speicherplatzkonfiguration möglich.
Das SSDs schon lange als "IO-Lieferanten" dienen dürfte jedem der sich mit der Mateire beschäftigt bekannt sein. SATA war schon immer nur Capacity Tier. Vor dem SSD Zeitalter wurden eben große SATA mit SAS Platten kombiniert um entsprechend Speicherplatz und IO zu bekommen. Da gab es doch im Desktop Bereich die WD Raptor Serie. ;)
Ein weiterer Punkt der gegen den Einsatz als "Servicedrehscheibe" spricht ist das Fehlen eines TPM Moduls. (zumindest ist dies nicht auf der Herstellerwebsite auffindbar)
Warum soll ich 1000 Euro + CPU + RAM für einen Server ausgeben wenn z.b. Dell den Poweredge R250 für 1200 Euro ( G6405T und 8 GB RAM, TPM + 1x 1TB HDD inklusive) anbietet? Bei Dell bekomme ich auch noch den guten Support/ Service und die Verwaltungsmöglichkeit via iDRAC. Natürlich ist die Plattform nicht 1:1 vergleichbar. Aber welcher Kunde geht schon hin und sagt: "Ich brauche unbedingt dieses Chipset / diese eine CPU?
Gerade ein KMU legt meiner Erfahrung nach Wert auf Support da eben keinerlei Kapazitäten In-House verfügbar sind um sich im Fehlerfall darum zu kümmern. Meist gibt es auch keine Redundanzen, ist der Server aus steht die Firma.
Du sprichst von AD, Mail und Warenwirtschaftssystemen. Für AD und Mail benötigt man in der Regel aber keine NVMe Performance. Und sollte man ein Warenwirtschaftssystem auf ein RAID 1 legen?
Zwei NVMe SSDs als Systempartition für einen Hypervisor halte ich auch für Overkill.

Wie gesagt: Mir fällt kein Einsatzszenario ein bei welchem ich sagen würde "juhu, gut dass es das 1U2E-C252 gibt". Alternativen gibt es m.M.n mehr als genug.
Das macht das Produkt ja nicht schlecht.
 
Die für mich spannende Frage bleibt, warum das verwendete Board alleine für 330€ zu bekommen ist, als 1U2E-C252 aber dann über 1000€ kosten soll?

cu
 
Zu Anfang, natürlich ersetzt das System nicht die BronzeCPU, aber die Plattform ersetzt die BronzePlattform, weil diese den Nachteil der teureren Plattform mit der geringeren Leistung der Entrysysteme verheiratet, eher schlechte Voraussetzungen.

Wozu brauche ich ein Storage, wenn ich gar kein Storage brauche?
Das war die Frage, nach dem Vergleich.
Es ist ja nun wohl offensichtlich, dass das Case keine Storagelösung bietet, wieso wird dann versucht dort eine Storagelösung reinzuinterpretieren. Kennt man nur Server mit (großer) Storagelösung, dann sollte man evtl. eher schauen, ob man da nicht von falschen Voraussetzungen ausgeht, anstatt zu unterstellen, dass man überall (großen) Storage braucht. Ich kaufe auch Tütenweise 2HE 24SFF Systeme und dennoch setze ich, wenn es der Demand braucht, auch wesentlich kleinere Lösungen ein.
Es soll ja mittlerweile auch Cloudstorage geben, habe ich gehört.

Das wäre in etwa so, als wenn man behaupten würde, dass der Golf schlecht ist und nen Sprinter viel besser ist, da man in einen Sprinter viel mehr reinbekommt. Aber der Golffahrer will gar nicht viel reinbekommen, sondern einen Golf haben, der genau seine Anforderungen erfüllt.
Und daher ist der Vergleich mit einen NAS in der Konstellation einfach Unsinn, meiner Meinung nach, weil der Fokus einfach ein ganz anderer ist.

Ja, man kann ein NAS in einem KMU platzieren, man kann es aber auch genauso gut sein lassen.
Die von dir angedachten NAS sind von der CPU-Performance her weit weg. (4C vs. 8C)
Ist somit von der Vergleichbarkeit eher weniger geeignet. Vergleichbare Systeme liegen bei QNAP jenseits der 3k.
Die haben natürlich deutlich mehr Speicherkapazität(smöglichkeiten) und ja, da ist auch ein passender Technologiestack für NAS dabei.

Zurück zum Thema, ja man kann vieles mit NAS, aber man kann auch so einiges mit NAS nicht machen. Weiterhin ist der Betrieb eines NAS nicht ohne. Ja, man kann Windows auf nem NAS virtualisieren, aber das kostet auch Performance. Und so richtig haben mich die Virtualisierer der NASen jetzt nicht vom Hocker gehauen, als dass ich als allererste Idee auf nen NAS als Virtualisierer komme.

Das Entscheidende an der Stelle ist, was soll das System an Problemen lösen? Brauch ich Storage? Ja, dann wirds mit einer halben Hand an Storage schwer.
Was aber, wenn ich das nicht brauche? Wozu brauche ich dann 8 oder 12 Slots (oder noch mehr)für Devices, die ich nicht reinschiebe? Dazu kann gerne mal einer eine Ausführung machen.
Wenn ich von vornherein diese Demands ausschließen kann, dann brauche ich das nicht vorsehen. So einfach kann der Entscheid für einen Grundaufbau sein. Will man maximale Flexibilität habe, dann ist etwas spezielles weniger geeignet als etwas allgemeines.
Ich habe das Gefühl, dass man hier zu sehr an "alten" Erfahrungen aufsetzt und nicht wirklich mal um die Ecke denkt.

Und gerne kann man der Meinung sein, dass ein NAS für ein KMU passend wäre. Ich behaupte aber, dass diese Aussage zu pauschal ist, viel zu pauschal. Es gibt KMUs, da passt das sehr gut, keine Frage, es gibt aber nicht wenige KMUs oder auch andere Firmen, da passt sowas überhaupt nicht.

Zurück zum Poweredge R250. Wie gedenkst du dort ein High IO zu machen? SAS kann es ggf. nicht erfüllen, dafür braucht man NVMe. (ggf. bitte nochmal die Datenblätter beider Technologien anschauen, damit der Unterschied in der Performance klar wird)
Ist nen NVMe für 2 Windowsmachinen overkill? Jain. Das kommt auf den Use case an. Idlet da nur Windows drauf, naja braucht man es nicht, schadet aber auch nicht. Aber spätestens, wenn die Anforderungen steigen und sehr speziell werden, spielt NVMe langsam aber sicher seinen Vorteil aus.

Muss man Storagekapa nach außen führen? Nein, da gibt es keinen Zwang. (andernfalls Normen gerne zitieren)
Wenn ich also den Storage eher lokal, im Gerät, nutze, warum brauche ich dann hohe Datenraten im Frontend?
Kann man sowas bauen? Ja, kann man. Wenn der Kunde aber keinen Demand hat, warum soll er dann was bezahlen, wenn er das nicht braucht? Klar, aus Verkäufersicht ist das natürlich ideal, das hat aber nichts mit Sizing zu tun, das ist verkaufen.
Wir haben also:
- 8C/16T CPU
- bis zu 128GB RAM
- highIO Storage-Subsystem (bitte nicht mit einem Datastore für SMB oder sowas gleichsetzen)
- 1GBE Netzwerk

Und damit kann man jetzt use cases bauen, bzw. prüfen, ob es einen Demand im use case gibt, die genau einer solche Konstellation bedarf.
Und da kommen die angesprochenen NAS nun mal nicht mit. Ja, es gibt NAS, die könnten das von der HW her. Aber da hat man den tollen NAS Stack noch dazwischen sitzen und ich kann sagen, oftmals will man genau das nicht. Und ja, es gibt genau die gegenteilige Meinung, die genau das mögen, auch OK.

Nochmal, ich sage nicht, dass the one and only to go ist. Es ist, und da wiederhole ich mich, eine sehr spezielle Lösung für ein mehr oder minder spezielles Problem. Das ist nicht die Eierlegendewollmilchsau, wie wir sie oft hier als Thread haben.

Ich behaupte, dass es da einen Kunden gab, der hat mit Asrock was zusammengebaut, damit es ihren Demands genügt. Und das mag mitunter sehr speziell sein. Und so ist das eben in der Welt der IT. Es gibt Standard 0815 Lösungen, die kann man überall draufwerfen, aber es gibt eben genau das Gegenteil.
Und Asrock ist scheinbar auf den Trichter gekommen, dass man das wohl an andere Kunden verkaufen kann. Entweder weil es noch andere Interessenten gab oder aber um das "Projekt" grünzurechnen.

Anwendungsbeispiele hab ich ja genannt.
Ich kenne natürlich den Kunden nicht, wenn oben stehende Behauptung stimmt, und was der damit will.
Es kann auch sein, dass das irgendnen Numberncruncher ist, der irgendwie viele (Klein)Daten mit möglich wenig Latenz und hoher Anzahl vom Subsystem lesen/schreiben muss. Und die Datenmengen, die das System verlassen müssen, sind ggf. an sich nicht sehr viel, so dass Netzwerk nicht wirklich ins Gewicht fällt.

Von welchen SAS-Anschlüssen sprichst du @RcTomcat ? Das MB hat keine.
Ein weiterer Punkt der gegen den Einsatz als "Servicedrehscheibe" spricht ist das Fehlen eines TPM Moduls. (zumindest ist dies nicht auf der Herstellerwebsite auffindbar)
Wählen, kaufen, einbauen, glücklich sein.
Die für mich spannende Frage bleibt, warum das verwendete Board alleine für 330€ zu bekommen ist, als 1U2E-C252 aber dann über 1000€ kosten soll?

cu
Ich behaupte, dass das einfach auf Grund der Stückzahl so ist.
Diese NVMe-Geraffel mit Riser, Kabel, Backplane ist nicht so ganz günstig. (Gefühl, habe ich keine konkreten Zahlen zu)
NT und Lüfter ist eher überschaubar.
Also evtl. ist das System ~200EUR über "Normal"Preis.

Wie gesagt, das ist kein 0815 Server. Der ist auf einen sehr speziellen Demand für einen sehr speziellen Markt hin gebaut.
Und daran erkennt man schon, dass der eben nicht überall passt. Und dann ist das eben für andere Lösungen eher weniger geeignet. Kennt man nur solche Lösungen und keine Speziallösungen, wird es natürlich schwer sich vorzustellen, wofür man so ein System gebrauchen kann.

Zum Thema schnelles Netzwerk. Es gibt das MB auch mit 10GBE onboard. Aber der Demand kam scheinbar gut ohne zurecht, dass es dieser Variante nicht bedarf.
Ist natürlich nicht mit drin und dürfte preislich bestimmt +200EUR sein.

Viele Wege führen nach Rom. Und es gibt nicht wenige solcher Lösungen.
Die muss man nicht grundsätzlich in Frage stellen. Was man in Frage stellen sollte ist, ob das Gerät zum use case passt und wenn nicht, dann ist es eben falsch.
Und natürlich kennen wir nicht alle Demands, die man haben könnte, dass genau solche Lösungen passend wäre.
 
Zuletzt bearbeitet:
@underclocker2k4 richtig, das Mainboard besitzt keine SAS Anschlüsse sondern hat nur auf der Riser-Karte zwei unbenutzte SlimSAS. Zumindest steht dies so in dem Test. Bleibt nach wie vor die Frage: Warum? Verbaut ist die Riser-Card doch schon, bezahlt wurde Sie also bereits. Hätte man doch auch noch mehr Platz für NVMe SSDs verbauen können zwecks High IO Anwendungsfällen. Am Mainboard gibt es laut Artikel auch noch diverse ungenutzte SATA Anschlüsse. Der Kunde bezahlt also für Dinge die er gar nicht nutzen kann. Ist das besser als für etwas zu bezahlen was man gar nicht nutzt?

Wieso vergleichst du die zusätzlich gekaufte CPU (in diesem Fall ein 8-Kerner) mit der QNAP NAS CPU? Sofern ich das richtig verstanden habe handelt es sich beim 1U2E-C252 um einen Barebone, sprich CPU und RAM sind zusätzlich zu kaufen. Ist dem nicht so? Ebensogut könnte man sagen "Das 1U2E ist Mist da ein G6600 mit 2 Kernen / 4 Threads ode rgar ein G6500T verbaut wurde ". Die CPU Power wird doch hier schlicht durch den Käufer bestimmt. AB Werk hast du genau 0 Kerne. Du legst also auf das 1000 Euro Rohsystem nochmals 700-800 Euro drauf um den 8-Kerner zu erhalten. Dann vergleichst du ein 700 Euro NAS (welches voll funktionsfähig wäre) mit einem 1700 Euro Server welcher mangels RAM noch nichtmal einschaltbar ist. Der Realpreis für das Testsystem liegt doch deutlich über den 1000 Euro.

Wie will man im R250 NVMe SSDs verwenden? Vielleicht einen der beiden PCIe Slots verwenden? NVMe gibt es auch abseits des U2 Formfaktors. Am Testsystem wird doch auch eine Zusatzkarte verwendet um später die Backplane an den Hot-Swap Einschüben zu versorgen.

Es geht mir auch gar nicht darum 8+ Speichergeräte an dem Server anzuschließen, etwas mehr als die obligatorischen zwei OS-Platten im RAID1 dürften es aber doch gerne sein. Gerade da die Hardware zusätzliche SATA Ports bzw die zwei SlimSAS Ports hergeben würde. Platz hätte es im Gehäuse doch auch gegeben.
Ja, NVMe ist extrem schnell und in Sachen IO super. Aber das ist doch nicht auf diesen Barebone beschränkt. Setzen wir schon sehr lange ein. Sowohl geschäftlich als auch in den privaten Servern / Storage Systemen. NVMe kann ich an nahezu allen Systemen nachrüsten. Wenn ich Wert auf U2 lege wird das natürlich aufwendig und man benötigt die von dir beschriebene Backplane, Kabel, den Laufwerkskäfig etc. Es gibt aber auch genug Datacenter / Enterprise NVMe SSDs in anderen Formfaktoren.

Keine Möglichkeit die Netzwerkanbindung bei Bedarf anzupassen und lediglich 2 Hot-Swap Einschübe und einen M.2 Anschluss. Die beiden Hot-Swap Einschübe werden dann direkt belegt da ja hoffentlich niemand ein Business System mit nur einer Platte betreibt. Bleibt also der M.2 Slot als Erweiterungsmöglichkeit. Zusätzlicher Cache mit nur einer M.2 SSD? Performancetechnisch wird man gegenüber zwei NVMe in den Hot-Swap wenig gewinnen. Daher stimmt für mich der Gesamteindruck schlicht nicht.
Wie du sagst: Der Anwendungsfall muss sehr speziell sein.
Ich kann mir eben schlichtg kein Szenario ausmalen wo ich dieses System einsetzen würde.
 
SlimSAS ist erstmal nur eine Steckerformat und sagt nicht aus, dass es sich dabei um SAS handelt. SlimSAS wird auch, wie eben bei den anderen Slots auch, auch für NVMe verwendet.
Und daher kann/könnte man dort nur weitere NVMe Drives anschließen.

Warum das MB soviel ungenutzte Ports hat? Ganz einfach, eine abgespeckte Platine ist teurer als die Platine. Macht es deiner Meinung nach Sinn, eine zusammengestutzte Platine für 500EUR zu verwenden, wenn man das selbe (bzw. sogar mehr) auch für weniger Geld bekommt? Wo bezahlt der Kunde also mehr, was er nicht braucht?

Durchaus bin ich beim Server vom Maximum ausgegangen, weil es, womöglich, genau der Anwendungsfall ist. Sprich also, man braucht ggf. die 8C, da kommt man mit nem 4C NAS nicht sehr weit.
Ich wollte nur aufzeigen, dass eben nicht so einfach zu sagen ist, dass nen NAS so viel günstiger wäre. Sprich also, sagen wir, man braucht die 8C wirklich, dann landen für evtl. bei 2k für das Asrock ohne SSDs haben dafür aber auf der anderen Seite ein NAS für 3k ohne SSDs. Und schon ist das NAS 50% teurer, obwohl ja der Server gegenüber dem NAS überteuert wäre.

Und auch ich weiß, dass man NVMe auch per M.2 und Karten machen kann, habe ich erst letztens Tütenweise in den neuen ESX Cluster gesteckt. Und dennoch bietet das System mit Hotswap für de Storagetier einen entsprechenden Vorteil, nämlich hotswap. Das wird bei einer M.2 schwer, hinzu kommt die Abwärme. Die bekommt man mit einer U.2 deutlich besser weg als bei einer M.2, besonders mit den hervorragenden Billigheimer M.2-Kühlern. Und wenn man sich ne Full NVMe Lösung der üblichen Verdächtigen anschaut, dann bekomme ich das Kotzen. HP hat beim DL385 nur für (glaube) 2/3 der Slots naheliegende Ports. Das andere 1/3 muss über Redriver über die StandardPCIe angebunden werden. :kotz:
Warum man das macht, weiß ich, aber geil ist auf jeden Fall anders. Kann man nur hoffen, dass das besser wird, also weniger Lanes für dennoch ausreichend Speed. Auf jeden Fall ist das mit den langen Kabel so nen Thema und das ist echt Hochtechnologie, gerade bei PCIe 4.0.

Die single M.2 kann auch als Bootdevice genutzt worden sein und die U.2 ggf. sogar als völlig abgespacte physischer Datentransport mit Henkel zum Wegwerfen. :stupid:
So nach dem Motto, hier 15TB Daten, mach da mal was mit und gib sie mir wieder, wenn du fertig bist.
Ich würde gerne Mäuschen beim PM spielen, wo sie das Ding her haben. Das Board ist auf jeden Fall ein Entry S1200 Board, wie es evtl. auch "jeder" hier für nen Server nehmen würde.
Das muss irgendeine low cost, aber dennoch viel Bums Lösung sein.

Ich kann mir sowas schon vorstellen, aber sicherlich nichts für den Malermeister, der sein KMU SAP darauf laufen lassen will.
 
Zuletzt bearbeitet:
Das ist auch legitim es nicht zu wissen, es besteht und bestand noch nie der Zwang alles zu wissen oder zu verstehen.
Die Frage ist dabei eher, wenn man nicht versteht worum es geht, wie man dann glaubt etwas bewerten zu können, bezogen auf den use case?
Dass das für den "eigenen" use case nicht passt, trifft wohl auf 90% aller Geräte zu. Mir passt nen Porsche auch nicht ins Konzept, aber der ist dann wohl eher die falsche Lösung für das falsche Problem.

Gegenfrage, was soll ein HP DL380 (oder auch jeder andere) für nen use case bedienen, den man mit einer self made Lösung nicht auch für die Hälfte schafft?
Und ja, man kann HP Server auch ohne Support kaufen...

Und ich glaube auch nicht, dass es so viel günstiger ist, sich 8 Wochen hinzusetzen und ein so geartetes Storage-System zu entwickeln. Wie gesagt, NVMe über die Strecke mit Hotswap ist nicht mal ebenso von der Stange. Dazu bitte gerne den ein oder anderen Post/Thread hier im Forum durchlesen. Und das sind bei weitem nicht die einzigen mit dem Thema. Das ist kein SATA, wo man einfach 1m Kabel nimmt und ab geht die Post. PCIe ist da eine ganz andere Nummer. Kann man auch analog bei Risern für GPUs mal nachschauen, was es da für Stress gibt. Also nein, ich glaube nicht, dass man das ohne eben diese Erfahrung und korrekten Komponentenwahl so hinbekommt. Auch mit dem Fokus, dass ein eierndes Storage-System deutlich mehr Schmerzen verursachen kann als nen hängendes Windows.
Ja, Case nehmen, MB, NT und Fans reinschrauben bekommt auch nen trainierter Affe hin, aber das ist auch nicht die Baustelle bei dem Produkt.

Von einem kann man ausgehen, die PMs haben nicht im Vollsuff dagesessen und sich gefragt, na welchen Schwachsinn denken wir uns denn heute wieder aus.
Da wir denen einfach mal zutrauen sollten, dass das keine Backer sind, werden die sich wohl dabei etwas gedacht haben. Sieht oder versteht man diese Gedanken nicht, liegt es evtl. eher an einem selbst als an den Gedanken?

Ich habe auch schon Produkte (anderer Kontext) bei Herstellern (die dann im normalen Portfolio waren) entwickeln lassen und wenn der Hersteller daraus nen Business Case rechnet, dann macht das auch Sinn sowas zu machen.
Und ich bin der festen Meinung, dass "meine" Produkte bei so einigen anderen Kunden auch die Stirn runzeln lassen, weil sie sich fragen, was soll ich denn damit. Und auch da ist die Antwort, wenn man den Zweck für sich nicht sieht, dann ist es das falsche Produkt, für eben den use case. Das heißt aber nicht, dass es für andere use cases, in dem Fall eben meine und ggf. andere, nicht dennoch genau die passende Lösung ist.
Und wenn man als Kunde mit dem Produkt dann auch noch (gutes) Geld verdient, dann relativiert sich der Mehrpreis für die Sonderlocke auch sehr schnell. Das mag dann auf andere Kunden ggf. nicht mehr zutreffen. Der eine so, der andere anders.

Und ja, für mich auf der Arbeit wüsste ich spontan aktuell auch nicht, wo ich sowas gebrauchen kann. Ich wüsste aber, wie ich das gebrauchen könnte, wenn es use cases gibt, bzw. welche Anforderungen der haben müsste. Und privat brauche ich das Ding schon 3x nicht und ja, auch preislich wäre das nicht interessant. Da stimmt Preis/Leistung für meine private Anwendung einfach nicht.
 
Zuletzt bearbeitet:
Kurzform:
Das Ding macht Sinn, versuche dahinterzukommen wie wo wann. Wenn das nicht geht, machts trotzdem Sinn, nur kommst du nicht dahinter wie wo wann.
 
Macht keinen Sinn bzw. ist zu teuer.
Nenn mir ein use case / demand wo
Das Ding (P/L technisch) wie Faust
aufs Auge passt :shot:
 
Ansätze habe ich genannt.
Hast du nicht mitbekommen? Dann fang an zu lesen und nicht nur Bildchen schauen. Das ist hier nicht das Lustige Taschenbuch.
 
Und auch mit 2,5GBE NICs will man im Serverumfeld nix zu tun haben. Realtek (wie z.B. im NAS) will man nicht haben und das Intel Pendent auch nicht, da buggy.

Das Buggy ist seit v3 doch Geschichte.
Betreue z.B. die IT von einem Büro mit 5 Mitarbeitern (Finanzdienstleistung), da steckt noch ein alter Server als DC im Rack, der ersetzt werden muss.
Bis auf eine Fibu/Banking und MS Office sind alle Anwendungen Web/Cloud basiert.
Trotzdem würde ich denen im Jahr 2022 keinen Entry-Server mit 1 Gbit NICs aufs Auge drücken, wird ja auch im Artikel zu Recht als Manko aufgeführt.
 
Zuletzt bearbeitet:
....ich Blick da nicht mehr durch, wenn die iGPU durchgereicht werden sollte dann war es doch nötig zumindest beim C-Chipsätzen auf eine **6 zu setzen demnach düfte der 252 hier nicht das Durchreichen erlaufen lediglich die AST2500 anbinden. Ethernet lässt sich ja preisgünstig durch 2,5Gbits über USB realisieren, ist auch günstiger als die PCIe Karten....
Was das Netzteil betrifft, was will man denn bitte in den 1HE verbauen bei der Kühlung?(!) ist doch völlig ausreichend.
 
Uninteressant, weil:
- 30W im Leerlauf, wo gehen die bitte hin?
- 1000 € sind Low Cost?!
- das Netzteil ist nur Gold? Kein Platinum oder Titanium? (Das kann Supermicro besser bzw reine 12V Netzteile bekommt man easy auf Platinum, daher ist das eigentlich Standard in der Branche, EDIT: Ich sehe gerade, dass das Board einen 24 Pin verwendet, warum?! Andere schaffen das doch auch mit reinen 12V in der Bauklasse)
- wofür bitte ein 315W Netzteil?! Ist das eine Workstation oder wie.
- nur 1G LAN?! Also MUSS man eine Netzwerkkarte verbauen und hat damit den PCIe Slot bereits verschwendet
- warum diese unnötige Beschränkung der Anschlussmöglichkeiten durch den C252 Chipsatz?! C256 und dafür mehr NVMe?!
- wozu hat der Server einen HDMI Ausgang, wenn er einen BMC hat?! Oh warte der Server muss neu gestartet werden, nein das mache ich nicht mit dem Browser, sondern ich baue das Case aus, schließe mal eben meinen Monitor und Maus und Tastatur an und balanciere das alles auf meinem Schoß... 🙄
- hat man erst das Board designed und dann das Case oder warum kann man die restlichen SATA Buchsen nur schwer nutzen (im Text steht man hat Platz, ja wie denn, 4 Winkelstecker in alle Himmelsrichtungen oder wie?!) und warum zur Hölle verdeckt der Winkeladapter den zweiten PCIe Slot. 😂
- Anschlüsse hinten ist bei der kurzen Bauweise in meinen Augen Nonsense. Entweder hat man ein tiefes Rack mit Zugang von hinten, wo man aber bei einem zu kurzen Case nicht an die Anschlüsse kommt (insbesondere wenn drüber und drunter was verbaut ist) oder es ist ein kurzes Rack und man will es von vorne bedienen.
- 2 Hot Bays, obwohl 4 passen würden... 🫣

Wobei der C252/C256 Chipsatz eh eine Frechheit war, weil der baugleiche W580 nur künstlich die Server CPU Preise hoch halten sollte. ASRock hätte hier Eier zeigen und AMD den Vorzug geben sollen.
Beitrag automatisch zusammengeführt:

.ich Blick da nicht mehr durch, wenn die iGPU durchgereicht werden sollte dann war es doch nötig zumindest beim C-Chipsätzen auf eine **6 zu setzen demnach düfte der 252 hier nicht das Durchreichen erlaufen lediglich die AST2500 anbinden.
Das dachte ich bis eben auch. Laut Intel Website unterstützt der C252 aber tatsächlich auch Grafik:
Screenshot_20221028-115539.png
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh