jemand schon infos zum Asus P9D-MH/SAS/10G-DUAL

pumuckel

Urgestein
Thread Starter
Mitglied seit
13.12.2002
Beiträge
8.187
Ort
Bayern
wollte eigentlich im Sommer nen Server auf dem Supermicro X10SL7-F aufbauen um mal alles an Kleinkram auf einen Server (ProxMox VE 3.0) zu schaufeln (hat leider nur 32GB unbuff ecc support)

die Woche entdeckte ich das P9D-MH/SAS/10G-DUAL - Servers & Workstations - ASUS

http://preisvergleich.hardwareluxx....sockel-1150-dual-pc3-12800e-ddr3-a960323.html

klar .... dreams would come true (dual 10GBe/dual 1GBe/IMPI).... hat alles was ich noch beim Supermicro X10SL7-F vermisste (naja außer dem 32Gb limit aber mal ehrlich, daheim reichts mir)

hat jemand mehr infos zu dem Board ?

p.s. das ding soll dann 4+ Jahre laufen
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alternative:
Ich habe mir gerade das Supermicro | Products | Motherboards | Xeon® Boards | X9SRH-7TF
geholt. Geht bis 256 GB RAM (Sockel 2011), hat 2 x 10 GBe (Intel X-540-T2) und auch einen LSI 2308 SAS Controller.

Vorteil: 10 GBe Kupfer (benötigt keine teuren SFP+ Tranceiver mehr), billige 10 Gbe Switche z.B. Netgear XS 708
Nachteil: 10 GBe Kupfer hat etwas schlechtere Latenzzeiten als SFP+ und Glasfaser

kostet ca knapp 500,-- inkl. Ich hoffe, ich habe die nächsten Tage etwas Zeit, einen All-In-One damit aufzubauen.
 
Zuletzt bearbeitet:
jo, schon gesehen, für daheim aber etwas overkill
 
Das Asus wird wg SFP+ teurer.
Auch kostet ein Intel X540-T2 10 GBe Controller allein schon 400 Euro und ein LSI SAS 9217 auch über 200 Euro.
 
Zuletzt bearbeitet:
jo, das ist leider klar, allerdings würd ich vorerst nur die 1GBE nutzen bis 10GBE Switches bezahlbar werden
 
Zuletzt bearbeitet:
Oder einfach ein x-beliebiges Mainboard kaufen und die Karten via PCI-Express anbinden. Wirklich viel günstiger wird es nicht wenn die Sachen auf dem Board verbaut sind, mehr PCIE-Lanes hat man dadurch auch nicht.

Außerdem kann man Steckkarten auch noch auf der nächsten Plattform weiter verwenden, verkaufen oder bei Defekt des Mainboards einzeln weiterverwenden, bei fest aufgelöteten Bauteilen ist das alles nicht der Fall.

Außer Platzersparnis und etwas geringerem Arbeitsaufwand bei der Assemblierung (2-3 Minuten) sehe ich keine Vorteile für fest verbaute Controller dieser Kostenklasse auf Mainboards. Wenn jemand noch weitere Vorteile für den festen Einbau solch kostenintensiver Komponenten für den Kunden, nicht für den Hersteller (mehr Umsatz), kennt möge er mich doch bitte Erleuchten. ;)
 
Zuletzt bearbeitet:
Klar kann man den Adapter auch "extern" betreiben. Dennoch stellt sich etwas sie Sinnfrage.

Die Frage ist, was kostet ein entsprechendes MB mit 1GBE und was kostet eins mit 10GBE.
Da sind wir im Moment bei 500Talern für nen 1x S2011 Board als günstigster Fall.
Ein Adapter kostet ~300EUR nach aktuellem "Listenpreis".

Ich sehe das eher so, wenn man die Server länger hält, dann arbeitet sich der Adapter nur raus, wenn die 1GBE Alternative deutlich günstiger ist.
Mangels der Auswahl, insbesondere im Entrybereich, ist das im Moment noch der Fall.
Mit fortschreitender Entwicklung wird die Auswahl und auch der Preis für 10GBE MBs fallen. Klar fällt auch der Adapterpreis, das Verhältnist ist halt entscheidend.

Interessant ist es dann, wenn man den/die Adapter irgendwo günstig schießen kann. Dann sollte die Wahl eigentlich klar sein.
Ich finde die Entwicklung aber generell nicht verkehrt. :d
 
Ja, aber dennoch, wenn das Mainboard breit ist, dann ist der 300€ Chip darauf auch für die Katz, und sobald das System aus der Garantie raus ist die Reparaturkosten somit viel höher. Sicherlich sind die Mainboards mit Onboard-Chips etwas günstiger sobald sie länger gehandelt worden sind, aber das war bisher nie sonderlich extrem sondern nur recht marginal. Ich finde Steckkarten hier einfach flexibler, man kann sich viel einfacher auf neue Anforderungen einstellen.
Das Board ist in 2 Jahren nicht mehr aktuell, die Netzwerk-Karte allerdings schon.

1Gbit- Netzwerk-Karten sind ja heutzutage auch nur überall Onboard weil die Chips nur wenige Euro kosten und nicht so wie die 10Gbit-Chips das 50- bis 100-fache.
 
Zuletzt bearbeitet:
Ich würe eher sagen, das Board ist in 2 Jahren veraltet, die Netzwerkkarte erst in 3-5 Jahren aktuell - wenn 10GBE Switches auch für Normalsterbliche bezahlbar werden. 10 GBE ist doch bislang nur in Rechenzentren für den Backbone wirtschaftlich vertretbar - weil man da diese Leistung um "jeden Preis" benötigt.
Die Preissenkung auf unter 1000 € für den Netgear ist natürlich 'ne Preisansage in die richtige Richtung.
 
Wieso nur im Rechenzentrum für den Backbone vertretbar? Bereits das Aufrüsten der Server auf 10GBE bringt schon eine Menge, da Bedarf es dann auch nur eines kleinen 10GBE-Switches für die Server, für die restlichen Clients tun es 1Gbit-Switches mit 10Gbit-Uplink. Biete so etwas schon längere Zeit an, kostet nicht viel, steigert die Performance aber ungemein.

Für die Server: Netgear ProSafe Plus XS708E, 8-Port ab €720,64
Für die Clients: Netgear ProSafe GS752TXS, 48-Port, smart managed, stackable ab €1266,--

Natürlich wäre es schöner auch an den Clients 10GBE zu haben, aber es ist schon mal eine Menge wert wenn zu mindestens der Server 10Gbit raus haut und so 10 Clients vollständig mit 1Gbit beliefern kann.

Das können sich durchaus auch kleine Firmen leisten. Gehen wir mal davon aus dass die Firma zwei Server hat die von 10GBe profitieren könnten so wie 30 Clients.

Dann wären das zusätzlich zu den oben genannten Komponenten nur noch zwei Netzwerkkarten für jeweils ca. 300€, das heißt wir wären bei ca. 2500€ Hardwarekosten. Eine hochwertige Verkablung mit mindestens Cat6 setze ich einfach mal als bereits gegeben an. Dazu kommen jetzt noch die Servicekosten für das Austauschen/Einbauen/Installieren/Einrichten der Switches und der Netzwerkkarten, sagen wir einfach mal pauschal 500€.
 
Zuletzt bearbeitet:
Und wieviele Kunden hattest du schon mit so ner Umrüstung?
Wieviel davon haben das tatsächlich am Client spüren können und was waren das für Applikationen?

cu
 
Eine Umrüstung hatte ich bisher erst einmal durchführen lassen, eine große Arztpraxis mit mehreren Standorten und einem Citrix-Terminalserver, Bandbreite war nämlich oft ein Problem wenn mehrere Ärzte gleichzeitig "Bild-Material" nutzen. Klar könnte man stärker komprimieren, aber die schlechtere Bildqualität war für diesen Anwendungszweck für die Ärzte nicht akzeptabel. Nicht der Terminalanwendung allein reizt die 1Gbit-Karte aus sondern die Kombination dazu die Daten auch noch vom Fileserver zu lesen.

Das ließ sich leicht überprüfen, die Netzwerk-Last war häufig am Anschlag. Laut Aussagen eines Arztes würden sich nun auch größere Datenbankabfragen ihrer Patientenmanagment-Software schneller ausführen lassen, ich konnte das aber nicht wirklich nachvollziehen weil Bandbreite hier eigentlich nicht das Bottleneck war und ich mich mit der Software speziell auch nicht auskenne. Lässt sich im Nachhinein auch schlecht belegen, aber er sagt es würde gefühlt schneller gehen, ob das nun ein Placebo-Effekt ist weiß ich nicht.
Netter Nebeneffekt war auch dass nun auch mehrere Mitarbeiter gleichzeitig Daten mit voller 1Gbit-Geschwindigkeit von der SMB-Freigabe lesen konnten. Da dort öfter mal Daten mit mehreren Gigabyte von mehreren Clients gleichzeitig gelesen werden müssen, spart das auch ein paar Minuten Arbeitszeit jeden Tag.

Eine weitere Umrüstung wird in den nächsten Wochen oder Monaten anstehen, zur Beschleunigung der Zugriffe auf einen Fileserver in einem großen Architekturbüro, dazu kommen kommen dann noch SSDs in den Fileserver. Eventuell sogar mit 10GBE für alle Workstations. 10GBE will er auf jeden Fall, aber ob nur für den Server oder für alle und wie schnell der Server Daten die Daten überhaupt liefern soll, das will er sich noch überlegen. Habe ihm dazu geraten über die nächsten Wochen Buch zu führen bei den Zugriffen die Bandbreitentechnisch begrenzt sind damit man ausrechnen kann wie viel Zeit sich durch die 10GBE-Investition sparen lassen würde.

Ich mache hauptsächlich Consulting. Daher denke ich auch immer nur rein im Sinne des Kunden weil ich von hohen Hardwarepreisen oder Dienstleistungs-Aufwänden selber nicht wirklich etwas habe.
Ganz im Gegensatz zu den normalen IT-Vertrieblern die hohe Margen sehr gerne haben, gibt dann ja auch mehr in der Gehaltsabrechnung am Ende des Monats. ;)

Viele Kunden wissen gar nicht von 10GBE und den Vorteilen die es eventuell für sie bringen könnte. Man muss die Leute einfach nur mal informieren und ihnen erklären dass sie dadurch eventuell Arbeitszeit einsparen können. Alle kennen den Wartebalken, und mit 10GBE soll es, theoretisch, 10x schneller gehen? Wenn man dass dann auch noch gut vorrechnen kann sagt er eigentlich niemand "will ich nicht, brauch ich nicht" sondern "toll, schneller Arbeiten und eher nach Hause" (Freiberufler ala Ärzte, Architekten...) oder "toll, weniger Personalkosten, kann ich wen entlassen oder für was anderes einsetzen" (Standard-Unternehmen). Klar sind es meist nur ein paar Minuten am Tag. Wenn man das aber auf alle Mitarbeiter und aufs gesamte Jahr hochrechnet lassen sich so ab einer gewissen Firmengröße ganz schnell mal eine Halbtags-Stelle oder mehr einsparen.

Die anderen 10GBE-Installation waren Neuinstallationen, da entscheiden sich die meisten dann schon direkt für 10GBE weil der Aufpreis für die oben beschriebene Lösung im Verhältnis zu den Gesamt-Kosten eher gering ist. Eine vollständige 10GBE-Installation hatte ich noch nicht, denke aber auch nicht dass das in den nächsten zwei Jahren kommen wird, ist einfach noch zu teuer um die Vorteile die die meisten Firmen eh nicht wirklich nutzen können zu rechtfertigen.
 
Zuletzt bearbeitet:
Hehe

ich arbeite hier für Beamte die beschweren sich schon das die PC mit 1 GB zu schnell sind :)

Also bei uns gibt es nur 10GbE zwischen den zwei Core switchen und den Server switchen.
 
Zuletzt bearbeitet:
Netzwerkperformance muss man immer in Relation zu Plattengrößen und -Geschwindigkeiten sehen. Aktuell braucht man einen Tag und mehr um eine einzige große 4TB Platte mit 1 Gb/s zu sichern. Aktuelle Platten sind fünfmal so schnell wie ein 1 Gb/s Netzwerk. Meine Fileserver und Backupsysteme sind >20 TB. Jeder der Mediadaten hat, ist schnell in der Größenordnung.

10 GbE ist also mehr als überfälllig. Jeder der große oder schnelle Platten oder Plattenarrays hat, kann das sinnvoll einsetzen. Schon vor mehreren Jahren, als 10 GbE Switche noch richtig teuer waren, habe ich begonnen ESXi und Storage oder Storage und Backupsystem mit 10 GbE direkt zu verbinden. Aktuell rüste ich meine ersten Videoschnittplätze auf 10 GbE auf. Storage, ESXi und Backupsysteme sind schon lange auf 10 GbE, Core- und Serverswitche sowieso ebenso wie ausgewählte Stockwerksverteiler

Die Frage ist also nicht, braucht man das, ich denke natürlich braucht man das schon seit geraumer Zeit. Es wird jetzt eben erst langsam erschwinglich, demnächst billig und auf jedem Mainboard zu haben. Es ist wie 1 Gb/s vor einigen Jahren als 100 Mb/s noch gang und gäbe war.
 
10GE ist schön und gut, macht sehr viel Sinn im Backbone und bei Anbindung von Storage, Blade Center etc.
Ich möchte aber an dieser Stelle mal darauf hinweisen, das eine 10GE Strecke mit nur wenigen TCP Sessions nur ausgelastet werden kann, wenn entweder die Latenzen extrem niedrig sind oder die Windows Size entprechend groß gewählt werden kann.
Beispiel: Um einen Durchsatz von 1GByte/s mit einer einzelnen TCP Session im LAN (Lantenz 0,0003) zu übertragen, bräuchte man eine Windows Size von mehr als 256KB. Insofern sollte man sich bei Anbindung einzelner Clients auf 10GE die TCP/IP Konfiguration ganz genau anschaun, es könnte sein, das die Leitung gar nicht ausgelastet werden kann. Ich bin diesbezüglich auch kein Freund von den "günstigen" 10GE Switchen, hat jemand schon probiert wie die mit gemischten 1GE/10GE Betrieb arbeiten?

cu
 
Zuletzt bearbeitet:
Man denke einfach mal 15-20 Jahre zurück, da fing man auch erst an grossflächig von 10 Mbit auf 100 Mbit umzurüseten, als die Hardware erschwinglich wurde.
Davor war 100 Mbit allenfalls für die Server / Backbone.
Die Server waren per 100 Mbit geswitched vernetzt, die Clients waren mit 10 MBit angebunden und meist sogar nur mit Hubs.
Ähnlich ist die Situation heute mit 1GBe / 10 GBe!

Gigabit hat sich eigentlich nur so "rasend schnell" durchgesetzt, weil die Mainboards immer weiter integriert wurden, und auf jedem Mainboard eine GBit Netzwerkschnittstelle vorhanden ist. Für meinen ersten GBit-Switch habe ich noch weit über 100 € bezahlt (und der kann noch nichtmal Multicast) - und war damit aber immer noch bezahlbar.
10 GBe ist preislich zur Zeit unerfüllbar.
In einem Unternehmen sind logischerweise andere Masstäbe anzusetzen - Zeit ist Geld, trotzdem muss man hier noch sehr gute Argumente liefern um 10 GBe zu verkaufen, da das Investitionsvolumen eben noch nicht Peanuts sind.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh