Fragen zu Windows Server 2008

low_bird

Neuling
Thread Starter
Mitglied seit
24.06.2005
Beiträge
729
Ort
Graz.at
Hi , da ich mit dem gedanken spiele mir nen kleinen Cluster zu bauen , würd mich mal intressieren wie das so läuft vom betriebssystem her ...

Also es muss windows sein da die meisten programme die genutzt werden sollen nur @ windof ihren dienst verrichten :( , also hautsächlich gehts hierbei um 3D rendering , bzw animationszeugs ...

tja da ein cluster für mich völlig neuland bedeutet , frage ich mich grad welches OS dafür in frage käme , ein bekannter nannte mir mal server 2008 deshalb trägt der thread hier mal diesen namen ^^

tjo benötige ich dann eigentlich für jedes node ne HDD mit ner eignen lizenz vom OS ?

bzw ... beim server 2008 konkret wie is das mit den CAL´s ? das sind ja Client acces lizenzen ... also benutzer welche auf den server zugreifen oder ? hmm bissl verwirrt und wissensdurstig bin :)

mfg & bestem dank im vorraus
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Willst Du nen Cluster oder ne Renderfarm (so für mein Verständnis).
Ich mach nen Unterschied ob nen Rechner hochverfügbar ist (Cluster) oder Bilder rechnen soll (Renderfarm).
 
hehe ok dann wird es sich wahrscheinlich um ne renderfarm handeln :)

p.s.: boa die M$ HP überfordert mich atm grad auf´s heftigste xD
 
Zuletzt bearbeitet:
Hihi,
wir haben hier 16 kleine Rechner mit Minimal-Config.
Hat jeder seine eigene Systemplatte mit eine kleinen XP und dem entsprechenden Renderer. Nicht besonders eingerichtet, nicht besonders verbunden.
Wir haben eine Software die Projekte auf die Rechner zum Rechnen verteilt und die Rechner schreiben die fertigen Bilder in eine Netz-Laufwerk auf einem Server.

Also ganz normales XP^^
 
ok das klingt "günstig" und wie is das von der handhabdung her ?

bzw dann haste 16 XP lizenzen ? also rein preilich wäre da doch ne server 2008 mit 5 lizenzen @ ca 500 €ier + 25 €ier für jede weitere lizenz günstiger oder ab ner gewissen anzahl von nodes oder? also bei 16 denk ich mal z.b: wär server 2008 bei knapp 700eier und XP 16x sicher teurer oder ?

und von der handhabung sollte server 08 doch vorteile bringen oder`?
 
Zuletzt bearbeitet:
ok das klingt "günstig" und wie is das von der handhabdung her ?

bzw dann haste 16 XP lizenzen ? also rein preilich wäre da doch ne server 2008 mit 5 lizenzen @ ca 500 €ier + 25 €ier für jede weitere lizenz günstiger oder ab ner gewissen anzahl von nodes oder? also bei 16 denk ich mal z.b: wär server 2008 bei knapp 700eier und XP 16x sicher teurer oder ?

und von der handhabung sollte server 08 doch vorteile bringen oder`?


Hi AleX, hi Low-Bird!

Darf ich mitmischen?
Zu den Lizenzen würd ich ganz blöd einfach mal nen M$-Licencer fragen. Such Dir ein halbwegs vernünftiges Computerhaus, die meisten wissen das.

Und zur Technik: wenn ich mich recht entsinne (HisN, korrigier mich) muss das kleine Tool nur alle Nodes kennen und den Auftrag verteilen...alles absolut einfach...

Winke
 
Guten abend MrProcter

klar darfste , gern :)

in nem Computerhaus zu fragen is prinzipiell ne gute idee , doch ob die damit erfahrung haben ... hmm ? naja nen versuch ists wert

@ HisN was haste da eigentlich pro node so drin an harter ware ?? *neugierig guck *
und welchen renderer verwendest du ?

bei mir (uns ) also ich und mein schatz ^^ kommt atm vorwiegend poser 7 / 3DSmax und maja zum einsatz

mfg low_bird


p.s.: is das tool selbstgeschrieben oder was vorgefertigtes ausm web?
 
Wir benutzen
http://www.royalrender.de/

Kannste Dir ja mal anschauen.

Wir haben Dual-Opterons^^. Ältere Farm.
Hier is viel gewurstel. XSI, Lightwave, Maya (jetzt eigentlich kaum noch).
Ich bin Lightwave-Anfänger *lach* und steckt da nur gaaaanz am Rade drinne.



Prooooooooooooooooc ...
 
Zuletzt bearbeitet:
in nem Computerhaus zu fragen is prinzipiell ne gute idee , doch ob die damit erfahrung haben ... hmm ? naja nen versuch ists wert

Es gibt Firmen, die machen das um Geld zu verdienen.

Bsp: Du bist Chef eines mittelständischen oder röschtösch großen Unternehmens und willst schriftlich, dass Du lizenzrechtlich sauber bist?
Dann kannste Dir so eine Firma holen, die durchstöbert ein paar Tage lang deine IT-Infrastruktur und sagt Dir, ob Du unter- oder überlizenziert bist (oder genau richtig)..und natürlich verkaufen die Dir eventuell fehlende Lizenzen auch gerne.. ;-)
Dein Vorteil ist, dass wenn M$ an Deiner Tür klopft und Dich prüfen will, Du denen die Urkunde aufs Auge drücken kannst und die unverrichteter Dinge wieder abziehen. (Diese Urkunden haben Laufzeit)

Google mal nach "microsoft lizenzierungsspezialist" oder ähnlich. Mit ein wenig suchen wirst Du sicher auch kleine Unternehmen finden, die Dir Deine Fragen beantworten können.

Gruß

Prooooooooooooooooc ...

Hiiiiiiiiiiiissssssssssssssn!
wir müssen mal wieder ball0rn! hab noch DAS video aufm rechner...
 
Zuletzt bearbeitet:
@ HisN danke fürn link ich guck mir das grad mal an trial version is unterwegs :)

tjo eigentlich is rendertechnisch mein schatz viel aktiver als ich , najo egal ich steh auf die technik ^^

@ MrProcter tjo eigentlich läuft das ganz eher hobbymäsig also es soll halt funktionieren , ich hab halt bedenken das es z.b: mit hausnummer 10 nodes die unterm selben key laufen ... es nicht funktionieren wird ... das M$ jetzt grad mich prüfen will kann ich mir ner vorstellen

mfg
 
bzw dann haste 16 XP lizenzen ? also rein preilich wäre da doch ne server 2008 mit 5 lizenzen @ ca 500 €ier + 25 €ier für jede weitere lizenz günstiger
das was du da meinst sind CALs. Das sind Lizenzen damit Clients auf den Server zugreifen können. Damit darfst du keinen zusätzlichen Server installieren.
 
das was du da meinst sind CALs. Das sind Lizenzen damit Clients auf den Server zugreifen können. Damit darfst du keinen zusätzlichen Server installieren.

http://www.microsoft.com/germany/serverlizenzierung/allgemein/server_cal.mspx#EHB

also habe ich Device CAL anscheinend falsch interpretiert ... oO dann doch lieber ne "billige" XP variante denn 500* x nodes ... verdammt das wird schnell teuer

wahrscheinlich ist selbst der private non pofit gebrauch von mehreren nodes mit der selben lizenz strafbar ...sowas könnte übel enden im worst case

ausserdem habe ich in erfahrung gebracht das man für ttp://www.royalrender.de/ also das verwaltungstool nen fileserver braucht und mit XP kann man "nur" 10 nutzerfreigaben machen oder so ...

sprich mehr nodes -> am fileserver anderes OS ... bin halt noob auf gebiet und will nix falschmachen deshalb so viele fragen :)

mfg

p.s.: da kommt schon die nächste frage kann ich ein node bauen ohne HDD wenn ich ne fileserver hab mit ner schön schnellen storage lösung ?

z.b: ein node besteht aus MB / CPU / RAM mit netzteil und LAN ? und ein anderes node an dem ne Storage lösung hängt z.b: 4 SSD´s oder so? kann man das OS aus nem storage booten?

denn das teil soll vorerst im wohn bereich sein zuhause finden , und demnach net pro node ne eigene HDD besitzen denn das wird schnell laut ...
 
Zuletzt bearbeitet:
Nteworkboot ist machabr, sollteste aber lieber knicken, da da erstes arschlahm ist und 2. du die HDD in dem PC sowieso als Auslagerungsadtei brauchst. Sonst stresst Windows und ne Auslagerungsadatei aufn Netzwerksystem, das wird richtig lahm ôo

Wenn du 4 SSDs in nen Server klopen wilst, klopp die lieber in die 4 PCs ^^ dann is schneller und auch lesie =) wobei dir die CPU Lüfter wohl eher ans Leder wollen ;)

Nur mal als Einwurf eines Laien:
WIe siehts denn mit rendern via CUDA aus? Wäre mit ner GTX280 günstgier und vorallem... viel schneller?
 
@ Vagabund moin , also GPGPU Redering war auch schon ne überlegung , jedoch unterstützt atm leider noch keines der genannten Programme Cuda , ausserdem wäre mir dann ein crossfire X aus ein Paar X4870 oder 4870x2 lieber da theoretisch mehr TFlops zusammen kommen würden ... jedoch ist hier die software gefordert welche diese features leider noch net unterstützt :(

tjo die CPU´s stressen mich net wirklich da ne große wakü zum einsatz kommen würde wegen geräuschentwicklung

und Netzwerkmäsig booten ginge ok , langsam kommt drauf an wie´s realisiert werden soll ...

z.B: ein raid 5 welches aus 4 SSD´s besteht wäre wohl flott , dazu z.B:über 4 GB ports an 4 kleinen switches hängt jeweils pro switch 4 nodes füttert müsste doch machbar sein --->wäre theroretisch net viel langsamer als wenn pro node ne 7200er dranhängt , is mal ne vermutung und 16 7200 er machen richtig lärm denk ich mal mir seind teils meine 4 schon zu derbe

mfg

p.s.: es werden in summe sicher mehr als 10 nodes sein , und 10 SSd´s oO dann wirds echt teuer
 
Soweit mir bekannt kannst du mit Windows ansich sowieso nur ein HA-Cluster (Hochverfügbarkeitscluster) oder einen SLB Cluster bauen (Load Balancing Cluster)

Was du brauchst ist aber ein HPC Cluster (High Performance Computing Cluster)

Ich glaube mich zu erinnern, das MS mal irgendwann eine spezielle Server Version rausbringen wollte/will oder schon rausgebracht hat, welche genau so einen HPC Cluster baut.
Das Problem ist nur, die Anwendung welche darauf läuft, in deinem Fall der Renderclient muss die Arbeit als Clusterknoten unterstützen, und genau das wird wohl nicht gegeben sein.

Wie aber hier schon gesagt wurde, gibts zu genügend Render Software, welche sowas von Haus aus mitbringt, du kannst dir also die Windows Serverlizenz(en) sparen.

Übrigens sind Windowscluster zumindest das was ich kenne aus Win2000 Advanced Server und Win2003 Enterprise/Datacenter Edition recht Anfällig auf Fehler und sowas...
Wir hatten damals auf Arbeit mal sowas und das ist quasi keine schöne Sache gewesen.
War ein Exchange Cluster mit 3 Knoten und ein Fileservercluster mit 2 Knoten.
 
GPGPU ist im Rendering Bereich noch kaum ein Thema, da die GPUs z.B. nur einen Miniarbeitsspeicher haben (zum Vergleich 8-16GB RAM sollten es auf einer ordentlichen Arbeitsmaschine schon sein!) außerdem sind GPUs zwar leistungsfähig im rastern, aber Raytracing das quasi alle renderengines machen ist nicht gerade leicht auf GPUs zu implementieren und bringt auch kaum Geschwindigkeitsvorteile.

Naja, vielleicht wenn einheitliche Lösungen wie OpenCL oder DX11 rauskommen wird sich da was tun, im Moment aber komplett uninteressant.


Mit welchen Renderern wilst du da überhaupt arbeiten? Scanline, MentalRay...? U.U. könntest du ja z.B. auch ein Linux nutzen (Maya läuft z.B. nativ unter Linux), damit würden schon mal Lizenzkosten für das BS wegfallen. Außerdem musst du für manche Renderer Extralizenzen einkaufen, wenn du am gleichen Bild mitrechenen willst, z.B. bei FinalRender von Cebas...

Verwaltungssoftware für Renderfarmen (die btw. kein "Cluster" in dem Sinne sind sondern eben ein paar Computer in einem LAN die zentral gesteuert werden) gibt's zuhauf und manchmal auch gratis, Wikipedia + Google spucken da immer mal gute Tipps aus.

SSDs auf den Clients wären imho durchaus möglich, nur eben in Form einer Compact-Flash Karte statt einer "echten" SSD. btw. gibt's billige MLC SSDs die trotzdem brauchbare Leistung bieten auch um ~100€ bei 32 GB, also auch nicht die Welt, wenn du schon in >10 Computer investieren willst.

Im Endeffekt willst du vermutlich sowas machen: http://helmer.sfe.se/ oder?
 
@ Sukrim
hehe ich dachte mir schon das es mit GPGPu rendering auf diesem gebiet fundamentale problemchen gibt sonst gäbs schon was , also freu ich mich auf die nächste graka gen mit eben genannten features

von den renderern wird atm zumaist poser pro 3dsmax genutzt beide zum vollpreis erstanden und poser läuft leider nur unter windof / OSx :(

zur hardware :

die nodes werden allervorraussicht nach aus dual opterons basieren welche dann hoiffentlich als deneb verfügar werben , dazu noch bissl RAM , denn atm 8 GB sind nicht genug , und wenn ich das richtig verstanden habe braucht jedes node mass ram ^^

tjo billig wird das wohl sicher net , najo 20k budget vorhanden :)
 
Zuletzt bearbeitet:
neja Problemchen vllt nicht, aber die GPGPU Technik gibts für NV ja noch net so brachial lange...
brauch halt alles seine Zeit bis da was geschieht.

Schließlich ist das ein Radikalumschwung in Sachen Rechenarbeit, wer (außer vllt Privatanwender) kann schon von sich behaupten, das er dicke GPUs in seinen Renderfarmen oder was weis ich Clustern stecken hat.
 
Oh, GPGPU wird schon länger eingesetzt, CUDA z.B. gibt's ja auch nicht erst seit gestern... es gibt aber eben kaum/keine Standards, das hält sicher auch noch einige davon ab da ernsthaft reinzuinvestieren.

Raytracing ist aber wirklich kein Kerngebiet für GPGPU, eher kleine paralelle Berechnungen - aber wenn man da nen Strahl quer duch ein paar Millionen Polygone verfolgen muss, dann geht bei Grafikkarten schnell mal der Speicher aus. Eher ist das z.B. für Sachen wie Passwortknacken geeignet, wo man einfach nur einen Hash berechnet, abspeichert und weitermacht.

Bei 20k Budget kann man sicher schon was machen, wobei da wohl auch der Platz eine Rolle spielt... und das Preis/Leistungsverhältnis.

Möglich wäre z.B.:

Minimalkonfig
pro Node:
AM2+ Mainboard ~60€
3 oder 4 Core CPU ~100€
16 GB RAM ~320€
sparsames Netzteil ~55€
32 GB CF-Karte ~75€
wären in Summe 610€

Mit Dual-CPU + Mainboard (z.b. 300€ CPUs und Dual-Mainboard um ~250€, interessanterweise ist ECC RAM sogar teils fast billiger in den 4GB Modulen?!) käme man auf ~1100€/Node, also fast noch günstiger als mit einer 1-CPU Lösung!
Kühler, Lüfter + Rack und man ist bei ~1200€/Node, bei 10-15 Nodes + XP-64 Lizenzen (~100€/Node aber vermutlich gibt's Rabatte... Vista Business kostet btw. ~ gleich viel) würde ich mal vorsichtig kalkuliert behaupten es dürfte sich da ordentlich was ausgehen!
Wenn man mal noch ein bisschen Luft einplant und mit max. 1500€/Node rechnet gingen sich 13-15 Nodes maximal aus (15 wenn man eben 1333€/Node ausgibt) wobei man ja auch noch damit rechnen muss, dass man z.B. Gigabit-LAN haben sollte + Switch etc.

Dass du aus Graz kommst finde ich auch lustig, da könnte ich mir das Ergebnis vielleicht ja sogar mal live ansehen! :d
 
@ Sukrim

also das thema GPGPU hacke ich mal ab da die industrie anscheionend einfach noch net weit genug ist ... egal CPU power sollte einges machbar sein dessen bin ich mir bewusst

die 32 GB CF-Karte ~75€ kann ich net nachvoll ziehn

ich will eher FC als CF :)

kleines (desktop node geht viel billiger ;)

AMD Phenom X4 9550, 4x 2.20GHz,
Gigabyte GA-MA78GM-S2H, 780G
4xAeneon DIMM 4GB PC2-6400U CL5 -----> 170 eier net 320 ;)
Seasonic S12II 330W ATX 2.2

knapp 400 eier bei zentralem storage falls eben doch ne SSd fällig werden sollte dann eher ne Patriot Warp SSD 2.5", 64GB, SATA II oder was dann eben gutes P/L hat

tendiere aber eher zu ner opteron lösung -> da eine kette nur so stark ist wie ihr schwächstes glied zumindest ram mäsig beim rendern

gestern ich mich @ egay.com nen packet aus 20 FC cheetah´s angesprungen (neu) ! fast geschenkt .. deshalb bin ich nun am FC controller suchen ... is aber recht schwer karten ab 500 eier... dafür bräucht ich dann eben nix an den nodes ..

da die "workstation" dann eben auch als fileserver fungieren würde ---> FC mit 8 Gb und dann noch 2 NT karten rein mit 4x GB lan ---> straigt to node ;)

das ganze soill in nen 19zoll schrank wandern 24 port GB lan switch z.b: wäre aber auch vorhanden
wenn dann jedes node ne SSd spendiert bekommen sollte

tjo wenn das dingens in die realität das licht der welt erblickt gibts hier eh nen ausführlichen bericht , und klar darf das teil dann live bei der arbeit betrachtet werden

mfg low_bird

p.s.: tjo kann aber noch ein wenig dauern da ich mich erstmal intensiv mit der materie befassen will ---> nix mit sprung in kaltes wasser bei der investitionssumme als privater

ausserdem will ich vielleicht ja noch den deneb abwarten
 
Zuletzt bearbeitet:
@Sukrim
Neja als die G80 GPUs gibts seit November 2006, das sind nicht mal ganz 2 Jahre, und den Treiber für Cuda, kein Plan, auf jedenfall gabs nicht nicht gleich am Anfang, heist soviel das ganze ist wenns hoch kommt gerade 1-1,5Jahre am Markt. Wie gesagt so ein Radikalumschwung brauch Zeit und es müssen sich Leute finden, die dafür auch Software erstellen ;)
Aber gut, haken wir das ab...

@low_bird
neja ich weis nicht so recht ob das ne gute Methode wäre, den Storrage zentral zu lagern, ich glaube mal da schaffst selbst mit 20 Platten nicht genügend Durchsatz für Renderclients in der Größenordnung von ca. 10 oder mehr...
Bin mir da aber nicht so ganz sicher wie viel Storragespeed bei solchen Anwendungen von nöten ist und ob da überhaupt der Plattenspeed ne Rolle spielt.
Vor allem wären beim gleichzeitigen Schreiben oder Lesen der Daten die Platten grottenlahm würde ich sagen..,

Berichtige mich bitte, wenn ich da falsch liege.
 
Bin mir da aber nicht so ganz sicher wie viel Storragespeed bei solchen Anwendungen von nöten ist und ob da überhaupt der Plattenspeed ne Rolle spielt.

tjo plattenspeed wird dann wichtig wenn der RAM ausgeht ! und das ist schneller der fall als einem lieb ist , behelfe mir atm mit ner core V2 von OCZ ( nuir auslagerungsdatei ;) )aber überzeugt hat mich die eine noch net wirklich ^^

deshalb die idee zentral storage , vom durchsatz her sollten die GBLan onboard adapter der nodes limitieren wenn ich mich grad net irre .. ich mach mich auf die suche nach benches solcherStorage array´s ;)

mfg
 
Ich kenne mich auch nicht so aus, aber ich denke mit so ner Rechenpower wird's dann schon interessant wie schnell Daten geladen werden - und das ist zumindest meim Booten vermutlich von einer lokalen CF Karte schneller als von einem lauten + heißen 15k-Serverplattenarray...

Soweit ich es verstehe ist es vermutlich auch klug, den Nodes lokalen Speicher zu geben um eben beim Start eines Rendervorgangs nicht erst warten zu müssen, bis 15 Computer über Netzwerk die gleichen Daten erhalten haben. aber klar, wenn du die ~75€/Client abziehst (und den überteuerten RAM, ich hab eig. einfach nur bei Geizhals auf 16 GB geklickt :fresse:) kannst du darum sicher auch ein gutes + schnelles Storage-Array kaufen (ich würde ja eher auf Intel SSDs setzen als auf Festplatten aber das ist ja nicht so entscheidend), nur wie weit sich Windows XP gut über Netzwerk booten lässt würde ich erst _gründlich_ abchecken und auch testen!

Bezüglich "schwächstes Glied" ist es eher deswegen sinnvoll 2 CPUs/Board zu haben, da die Computer eh alle das Gleiche machen werden und daher 1 Board + 1 PSU + 16GB (+ Storage + Strom) bei einer 1 CPU-Lösung reundant wären - und das kommt immer noch teurer als der Aufpreis für ein Dualboard, ECC-RAM und Opterons. Vielleicht gibt es sogar 3 oder 4-Sockel Lösungen? Mal schaun...

Edit:
Ja, quad-Sockellösungen gibt's auch, das wären 16 Cores (oder wenn du auf Hexa-/Octacores wartest entsprechend mehr...) die dann eben mit dem gemeinsamen Arbeitsspeicher arbeiten, nur wird's dann fürchte ich darüber hinaus schon auch Probleme mit dem Betriebssystem geben - und Server 2003/2008 kostet dann wieder auch entsprechend mehr...

Edit2:
...und die CPUs kosten auch um einiges mehr! Da ist's schon wieder günstiger Einzelsysteme oder Dualsysteme zu nehmen! :-O
 
Zuletzt bearbeitet:
jap diesen gedanken hatte ich auch schon ...

quad sockel sys und CPU´s der 8xxx Reihe kosten schon ein kleines Vermögen , leider :(


zum Thema FC hab ich grad net viel gutes erfahren .... das ist !!! Kein genormter Industrie Standart ! .. kA wie´s sowas geben kann aber ibm / HP / depp / sun kochen alle ihr eigenes Süppchen ... :(

und hier gibts viele variationsmöglichkeiten Hardwareseitig ... einzig das Übertragungsprotokoll ist einheitlich und die stecker der glasfaserkabel .. :(

najo somit wird wahrscheinlich die FC idee schon daran scheitern schade eigentlich

najo dann eben leise kühle SSd´s :)
 
Daher habe ich auch die CF-Karten vorgeschlagen, aber "echte" (MLC)SSDs kosten dann auch nicht viel mehr - 32 oder 64 GB sollten für die einzelnen Systeme eh locker reichen, soooo riesig ist Max dann auch wieder nicht.
 
tjo plattenspeed wird dann wichtig wenn der RAM ausgeht ! und das ist schneller der fall als einem lieb ist , behelfe mir atm mit ner core V2 von OCZ ( nuir auslagerungsdatei ;) )aber überzeugt hat mich die eine noch net wirklich ^^

deshalb die idee zentral storage , vom durchsatz her sollten die GBLan onboard adapter der nodes limitieren wenn ich mich grad net irre .. ich mach mich auf die suche nach benches solcherStorage array´s ;)

mfg

Zum Plattenspeed nochmal.
Kleines Rechenbeispiel, ein Server mit Quad Gigabit Anbindung bringt in etwa 480MB/sec theoretisch zu stande.
Gehen wir mal vom Client aus, der ca. 50MB/sec über die Karte schicken kann macht das bei 10 Clients schon 500MB/sec.
Soweit so gut.

Die Frage wäre nun, ob bei herkömmlichen Platten (keine SSDs oder andere Chip-Speicher) 500MB/sec theoretisch möglich wären, Controllerseitig mit nem ordentlichen Controller sicher, aber wenn 10 Lese- oder Schreibvorgänge paralell stattfinden, dann wird die Datenrate der Platten massiv einbrechen...

Und Auslagerungsfile auf ein Netzlaufwerk legen geht meines wissens nach unter Windows auch net so richtig...
Also wirst du wohl sowieso um lokale Platten nicht wirklich drum rum kommen.


Übrigens, es gibt net nur 4 Sockel Systeme, bei AMD gehts soweit mir bekannt bis 8 Sockel.
Bei Intel gehen sogar noch net, 12-16 ist mir da irgendwie so in Erinnerung...
Gepaart mit Quadcore CPUs wären das dann 64Cores in einer Maschine :fresse:
dann noch 128GB Speicher und die Kiste rennt wie geschmiert...
Preis... neja reden wir nicht drüber :hail:
 
Daher habe ich auch die CF-Karten vorgeschlagen, aber "echte" (MLC)SSDs kosten dann auch nicht viel mehr - 32 oder 64 GB sollten für die einzelnen Systeme eh locker reichen, soooo riesig ist Max dann auch wieder nicht.
das ist nur ne frage der auflösung .... wenn die mal richtig fett sein soll ( großformatige Kunstdrucke ) dann geht einem schnell mal ram aus ... und auslagerungsdatei >50 Gb is bei mir schon vorgekommen :)


schön langsam seh ich´s ein ^^
fibrechannel privat wär einfach zu geil :)

tjo eigentlich sind SSd´s in den clients eh sinvoller alleine von der wärmeentwicklung und der geräuschentwicklung ...
die idee von SAS oder fibrechannel is mir halt gekommen da die teile gebraucht zu annehmbaren preisen verfügbar sind ... und das wär richtig schön Luxx :)

Übrigens, es gibt net nur 4 Sockel Systeme, bei AMD gehts soweit mir bekannt bis 8 Sockel.
Bei Intel gehen sogar noch net, 12-16 ist mir da irgendwie so in Erinnerung...
Gepaart mit Quadcore CPUs wären das dann 64Cores in einer Maschine :fresse:
dann noch 128GB Speicher und die Kiste rennt wie geschmiert...
Preis... neja reden wir nicht drüber :hail:

das es auch 8 sockelsysteme gibt weis ich jedoch das brett braucht dann ne gewaltige fläche .... mehr kleinere nodes ob nun 1-2-4 sockel mal sehn sinnvoller da mandie einzeln starten oder ausmachen kann loadabhängig ...

mfg

/edit tjo die preise der hardware steigen leider exponentiell zur anzahl der cores / brett :(
 
Zuletzt bearbeitet:
Das stimmt, so ne 8 Sockel Kombo wirst du in ein normales Case wohl nicht rein bekommen...
Aber 10 Einzel Clients brauchen auch ihren Platz. Denke mal so vom rein logischen nimmt sich das net viel.

Alternativ wäre eventuell auch ein Bladecenter interessant.
Die gibts ja atm auch schon in haufenweise erdenklichen Formen und Ausstattungen.
Weis aber nicht ob man da mit 20k € hinkommen wird.
 
Ich würde mit der 1300€/Node und Dualsockelstrategie weitermachen und mal schaun was man sich dafür leisten kann/will.

Die Renderergebnisse und Texturen etc. liegen dann ja eh auf einem NAS (hoffe ich) - die 32 oder 64 GB lokal wären nur für Betriebssystem, temporäre Dateien und Max/Poser! Ich hab auch schon mal mit dem Fibrechannelgedanken geliebäugelt, besonders da das interessant wäre um echte Cluster zu bilden - aber derzeit noch weit außerhalb meiner Preisklasse...

bei 1300€/Node hätten wir:
500€ für 2 Prozessoren
200€ für RAM (vielleicht wird das Zeug wieder teurer)
300€ für Mainboard + Netzteil (~240 + 60)
100€ für Storage (whatever dann passend ist, sei's ne kleine 2,5" HDD, SSD oder was anderes)
100€ für BS-Lizenz (geht vermutlich auch billiger, worst case Szenario!)
100€ für sonstiges wie CPUkühler, Lüfter, Kabel, Gigabit-Switch anteilig etc.

So in etwa?
Hat zwar jetzt nicht mehr viel mit dem ursprünglichen Titel zu tun, aber mich fasziniert das Thema irgendwie! ;)

Daten wären dann mit derzeitiger Technik:
pro Node 8x2GHz, 16 GB RAM und vermutlicher Stromverbrauch von ~200 Watt (sehr grob geschätzt) über alle 15 Geräte wären dann nutzbar: 240 GHz, 16 GB RAM (verbaut: 240 GB) und ~3 KW Stromverbrauch (das könnte dann schon knapp werden wenn man die an eine Steckdose hängt) dafür hat man auch Leistung satt im Rack!

Edit: das mit dem RAM geht eh so nicht - da braucht man ja ECC-Zeug, also ~260€ nach derzeitigem Stand, wenn das BS aber "nur" 70€ kostet und du eigentlich ohnehin 1330€/Node zur Verfügung hast geht sich's wieder aus, daher nur die Anmerkung hier unten.
 
Zuletzt bearbeitet:
ein 8GB Reg ECC DDR2 667 CL5 Kit (also 2x4GB) kostet atm 140,56€ + Versand.
Also knapp 282€ für den Speicher.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh