...Mein Problem liegt aktuell bei der Umsetzung eines "IB-Switchs", ...
wie meinst du das? wieviele Teilnehmer an diesem Netz soll es denn geben?
was die Leute bisher hier gemacht haben, ist ja quasi eine art peer-topologie (ohne switch) umzusetzen, allerdings nur mit 2 Teilnehmern, weil jeder der teilnehmer "nur" eine (IB-)netzwerkkarte hat
allgemein scheint sich die Diskussion auch ein wenig verschoben zu haben
von einem allgemeinen Datennetz mit großem querschnitt (10Gbit) zu Techniken, die für speichernetzwerke gedacht sind (zb. infiniband)
in beiden Fällen wären aber switche zentraler Bestandteil und im Grunde A und O der Sache
man sollte sich auch nochmal die Frage stellen, was für einen Zweck die hohe Bandbreite haben soll
ein solcher Zweck wäre zb. streaming von content; hd streaming verlangt bis zu ca. 30 Mbps;
das bedeutet, dass über geswitchtes Gbit lan jedenfalls einige hd streams kollisionsfrei zu übertragen sind
hat man im Netzwerk einige clients zu versorgen, können dennoch zwischen server und switch engpässe auftreten
dieses Problem lässt sich aber mit konventioneller ethernet technik durch teaming mehrerer nics erschlagen
viele boards bringen schon zwei teaming-fähige nics mit,
was aber allerhöchstens fällig wird ist eine quad gigabit karte zu etwa 300 bis 350eur
ich glaube, dass man damit noch für eine sehr lange Zeit allgemeine Datenübertragungsaufgaben sehr komfortabel gelöst hat
(wenn man sich mal ansieht, wie stiefmütterlich HD-Content hierzulande behandelt hat, bekommt man eine Ahnung darüber, was ich meine)
eine anderer, speziellerer Zweck sind Sicherungsaufgaben
einen fetten fileserver über die Gbit-Leitungen des allgemeinen home networks zu sichern, ist nicht spaßig und verstopft die Leitungen auch für andere Zwecke,
hier wäre eine wesentlich dickere Leitung sehr wünschenswert, entweder als allgemeines daten-netzwerk wie 10Gbit Ethernet oder als eigenes speichernetzwerk wie infiniband
10Gbit Ethernet switche sind unbezahlbar, infiniband switche aber eigentlich auch,
das billigste, was ich an ib switch gesehen hab, war ein gerät zu 900eur bei hamburg.net und das ist bloß ein 8-port gerät
für meine Anwendung sehe ich jedenfalls nicht den bedarf zu einem im vollen Wortsinn "Speichernetzwerk", das quasi parallel zum allgemeinen Datennetzwerk besteht
der einzige Zweck für eine so hohe Bandbreite wäre in meinem Fall die komfortable Serversicherung (die 5 clients werden übrigens inkrementell
zwischengesichert auf diesen server über das normale gigabit datennetz)
dafür braucht es aber kein ganzes speichernetzwerk in infiniband (oder gar fc), sondern nur eine dezidierte Sicherungsstrecke mit großem querschnitt von Server zum Sicherungsgerät
wenn ich richtig sehe, ist es ja auch genau das, was bisher die Leute hier umgesetzt haben mit ihren infiniband-lösungen
daher, underclocker2k4, wenn du lust hast, könntest du vielleicht mal deine Anwendung für dieses IB-switch-vorhaben skizzieren
ich kann den enthusiasmus für diese bandbreiten/datenraten gut nachvollziehen,
aber weil die switche für diese Techniken das Problem sind, bin ich selbst eigentlich von der Sache abgekommen
und die einfache Datensicherungsstrecke mit zwei (wohl älteren) ib-karten scheint ja auch nicht so ganz flawless zu sein
(stichwort cpu-last, eine eigentlich total kontraproduktive Sache, die daher Intel seinen konventionellen ethernet-nics schonmal rigoros ausgetrieben hat)
solange es keine bezahlbaren breitbandigen switche gibt, werde ich es bei der geschilderten dezidierten sicherungsstrecke belassen wollen,
ich werde dazu aber auf etwas ganz anderes und sehr simples setzen (ich mag die einfachen dinge), nämlich Intel Light Peak / Thunderbolt,
das fängt bei 10Gbit an und skaliert dem Potential nach bis hinauf zu 100Gbit
mir würde es langen, wenn hoffentlich nächstes Jahr die 10Gbit Karten erhältlich wären ... (ohne hier das Thema speichernetzwerk-technik verwässern zu wollen)