High-End Workstation - Für extreme Rechenleistung

AMD hatte im enterprise Bereich doch schon immer die bessere pro Mhz Leistung mi den Phenoms, vorallem durcch die native Quad-Architektur und dem integrierten Controller sind sie den Xeons teils Haus hoch überlegen. Bisheriges Problem war nur immer die praktisch nicht existente Verfügbarkeit und die geringen Taktraten, dass sollte sich jetzt aber gelöst haben.

Der Vorteil einer SSD sind eben die Zugriffszeiten, SSD = 0,1ms, 15K SAS = 4ms, 15K SAS @ RAID0 = 7~12ms je nach controller. Da die files ja nicht zu groß sind und ich jede Wette eingehe das das Mathematica davon profitiert rate ich zu 4 32GB SSDs @RAID10, alternativ könnte mann auch nur 2 @RAID0 nehmen und das Sys 1 mal am Tag auf ner SATA Platte sichern. Der Nachteil an der letzten Lösung wäre das im Falle eines Systemcrashes die Wiederherstellung etwas länger dauert und auch manuell durchgeführt werden muss.

Wenn ihr VMware einsetzen wollt könnte man aucch mal über ein kleines cluster nachdenken, das wäre allemale billiger, einzig müsste man dann wirklich auf nen Linux host setzen da die die win Lizenzen sonnst alles sprengen würden.
2 kleine Optis, nen passendes board und 4~8GB RAM den sonstigen Kleinkram den man noch baucht macht 1500€. Problem sind die SSDs die mit 2000€ zu buche Schlagen, würde man die jetzt in jedes Sys stecken würde sich das ganze nicht mehr wirklich rechnen. Eine Perfekte Lösung wäre ein host welcher als einziger über HDDs verfügt, nur habe ich keine Ahnung in wie weit VMware da noch einsetzbar ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Servus,

mir stellen sich da gerade einige Fragen:

Erstmal zur "Workstation". Also so wie ich das verstanden habe willst du 15.000€ zum Händler um die Ecke tragen und das System selbst zusammenbauen?

Hast du schonmal an einen richtigen Server gedacht? Bei den Anfroderungen 4 Prozessoren/16 Cores/64 GB Ram, bist du da wunderbar aufgehoben, auch preislich.
Ich persönlich würde mich mit einem 24/7/4h Wartungsvertrag auf einen Server wesentlich sicherer fühlen. als mit den 2 Jahren Herstellergarantie...

-VM: Was willst du mit den VMs machen? Parallelisieren der Berechnungen, oder einfach nur nebenher noch ein paar kleine Services hosten?

Das ist zumindest für mich eine wichtige Frage, ob hier auch etwas parallelisiert werden soll/kann oder nicht.

Falls ja, heist deine Lösung VMWare ESX Cluster.

Falls nein, und du brauchst einfach nur eine dicke Maschine die mit W2K3 laufen soll, gibt es andere Ansätze:

Frage: Wie lange soll/kann die Maschine denn ausreichen bevor Sie wieder ersetzt wird?
Da könnte man dann mit dem Gedanken Serverleasing spielen.

Unabhängig vom Finanzierungsmodell kommt mir da spontan ein IBM x3850 M2 Server ein. Den bekommst du mit deinen Anforderungen vollgestopft, und wenn die Leistung dann irgendwann nicht mehr ausreicht, "steckst" du einfach den nächsten oben drauf und hast eine 8 Prozessor/32 Core/128GB Ram Maschine. Bei Maximalem Upgradepfad kommst du dann auf eine x3950 32 Prozessor/128 Memory Slots (512 GB RAM) Maschine. Vom Ansatz her finde ich es einfach wesentlich sinnvoller hier auf eine Skallierbare Lösung zu setzten, als jetzt wieder eine dicke Workstation zu kaufen die in einem absehbaren Zeitraum wieder zu klein ist.

Zusätzlich wäre das Thema USV und im Nachgang ein Storage sicherlich auch kein verkehrter Gedanke. Die Daten müssen ja auch irgendwoher kommen, bzw. Irgendwohin wieder zurück. Deine genannte Aufteilung würde bei mir so ausehen:

Mein bester Vorschlag:
1 HDD als System-Disk (HDD:Sehr schnell, nicht all zu gross)
4 HDD in RAID 0 als 'Storage' (HDD:schnell, gross) <--- Ein Raid 0 für dauerhafte Daten?
1 HDD als Backup-Disk (HDD:normal schnell, sehr gross)

==>

System: Raid 1 aus 2*SAS 15K
Daten: RAID 10 aus 4GB FibreChannel im SAN-Storage
 
Ich hab mittlerweile ein paar sehr interessante links gefunden:

1. Itanium's werden anschienend nur noch für die nächsten 5 Jahre unterstützt:

http://www.theregister.co.uk/2008/01/10/ibm_itanium_five_years/


2. Xeon's sind bei 1-2 Sockel Systemen besser als Opterons ABER
bei 4 Sockel Systemen sind die Opterons besser als die Xeon's !!!!

http://www.tecchannel.de/server/prozessoren/441760/index1.html
(PS der Artikel erstreckt sich über mehrere Seiten...alle anschauen...!!! ;) )


3. Das OS IST fundamental für die Perfromance (leider noch kein guten link gefunden)

http://blogs.sun.com/bmseer/entry/mathematica_v6_0_world_records


4. Falls jemand auch "Mathematica 6" benutzt, empfehle ich drinngend diesen artikel:

http://www.additive-net.de/software/mathematica/mma.personalgrided.shtml



Mir bleiben leider noch ein paar wichtige Fragen:

1. In der Einführung hab ich von RAID geredet (BITTE lesen!). Ich würde natürlich schon ein 'stripped RAID' für meine "system-disk" verwenden, WENN ich doch nur jemand hätte, der mir die Probleme mit Image-Backups erklärt!
Fällt bei 'stripped RAIDs' eine aus, ist alles futsch,... ABER kann ich nicht ein Image-Backup machen?
Acronis find ich gut - Ist das System kaputt? Image beim booten auf HDD aufsetzen UND alles läuft wieder!

2. Jemand hat von Solid-disk-state disk geredet... Wie gut sind die? sind Hybrid Disk besser? Oder doch lieber SAS mit normalen 15k rpm HDD

3. Zu VM hab ich leider noch keine aussreichende antworten gehört. Vorallem was performance angeht.

DAnke Danke Danke , für all eure hilfe
Hinzugefügter Post:
@ Genral-J - Danke,

Serverleasing oder der gleichen , ist ausgeschlossen (wurde mir klar vorgegeben!)

Ja, ich hab an einen richtigen server gedacht... wusste bisher nur noch nicht welche CPU.. Und dann wer? Dell? HP? IBM? Sun Fire?

Danke für die RAID lösung - Wie siehts aber aus mit Backup?

Die Maschien wird für die nächsten 4-5 Jahr nicht ersetzt.

Nein Die VM sollen bloss die möglichkeit bieten XP, 98, und andere weiterhin nutzten zukönnen. Keine Server funktionen! Einfach alte SW weiterhin nutzten können.


Parallelisieren der Berechnungen? - Das ist genau das, was die meiste performance bringt!

Weiss aber eben nicht was besser ist:

"Mathematica 6" direkt auf "Windows Server 2003" bzw. "64-bit SuSE Linux SLED 10 OS"
ODER eben in einer virtualisierten "mini server-farm" zu betreiben.
-> "mini server farm" : 16 kleine VM's mit je 1 CPU und 4GB RAM"

USV???

DANKE
 
Zuletzt bearbeitet:
naja... das mit linux hatten wir ja schon... wuerd ich aber fuer den anwendungsfall die finger von lassen.
ich wuerd dir zu nem solaris als basis raten, mathematica scheint das auch zu supporten. der grund liegt an der cpu-menge.

windows skalliert afaik nur einigermaszen sinnvoll bis ~4cpus, bei linux krieg man - eigene erfahrung - mit bis zu acht cpus noch nen einigermaszen gutes skalieren auf die kette,... 8x4 -> 32 sind jedoch eher etwas aehm... mehr als 8 cpus, und da wuerde ich dann doch schon eher auf solaris setzen.

wo wir gerade dabei sind: mal ueber ne dual t2 nachgedacht? 2x 64 paralele threads...

Choose your os carefully ;-)

Mfg ich
 
@ ICHdasICH:

:) "Choose your OS carefully" - DESHALB bin ich ja hier! Ich tendiere immer noch zu 4x4.

Du hast absolut recht welches OS - Blos wieso nicht Suse? Suse kenne ich ein bisschen. Solaris leider überhaupt nicht!

Kenne 'dual t2' leider nicht!!! - ?






NACHTRAG:
=================


@ General-J
Bisst du dir sicher mit quote: "deine Lösung VMWare ESX Cluster." ?

Ich hab eben diesen link gefunden(leider engll.) und der scheint mir das gegenteil zusagen

http://www.petri.co.il/vmware-esx-server-cluster-pools.htm

ABER ich wiederhole, ich weiss einfach immer noch nicht was besser ist

"Mathematica 6" direkt auf "Windows Server 2003" / "64-bit SuSE Linux SLED 10 OS" ODER eben in einer virtualisierten "mini server-farm" zu betreiben.

-> "mini server farm" : 16 kleine VM's mit je 1 CPU und 4GB RAM"

GENAU wie von GEneral-J vorgeschloagen "VMWare ESX Cluster"
 
Zuletzt bearbeitet:
ibm sagt, dass der itanium end of life ist? hast du den artikel nicht ganz verstanden? das ist, wie wenn bmw sagt, dass audi innerhalb der nächsten 5 jahren aufhört, A6 und A8 zu produzieren.
 
Naja die Dinger sollten schon letztes Jahr kommen und sind immer noch nicht verfügbar. Aber mal davon abgesehen, wo ist da bitte der Vorteil gegenüber nem SSD RAID ?

Das mit dem Itanium ist auch Schwachsinn da Intel neulich noch native 6 und 8 core Itaniums angekündigt hat.

Je nach dem was ihr an Platz habt könnte man auch über ne Lösung auf AM2 X4 Basis nachdenken, ein client würde um die 600€ kosten. Vorteile wären wohl die meiste Rechenleistung pro €, sehr flexibel einsetzbar und durch die hohe Anzahl der clients der geringste Leistungseinbruch wenn eine Einheit ausfällt. Nachtil wäre das man ein gutes Netzwerk bräuchte, Kosten lägen da so bei 1000~2000€.

Und dann noch die Frage danach wo ihr aktuell eure Daten sichert, wenn es da schon nen entsprechenden server gibt könnte man den ja einfach erweitern.
 
naja, solaris skaliert auf mehr cpus imho eindeutig besser als linux. (solaris=> sun os, suse/redhat => linux) daher bei 4x4/8x4 eindeutig nen solaris/sunos. gerne auch opensolaris. ich wuerde generell nen unix/linux nem windows vorziehen, da diese, wie gesagt, besser auf mehr als 4 kernen skalieren.

die clusteridee ist jedoch auch gut. 16x quad mit jewl. 2gb ram duerften recht guenstig machbar sein, vorallem koennte man die teile sicher auch netbooten.

Mfg ich
 
Nochmals vielen dank an alle!

Ich hab die letzten zeit, lange die benchmarks von SPEC - CPU2006 studiert.
Vorallem die "Integer -Rates" und die "Floating Point -Rates" sind für mich wichtig.(Mathematica)

Zu den "Integer -Rates":
Das System von SGI Altix 4700 (Itanium 9150M 1.66GHz/24M) mit 256 cores,128 chips erzielt die meisten punkte: 2890
Es folgen eine Reihe von Systemen- meist Sun SPARC oder IBM Power5... Bis das erste System mit Xeon kommt: IBM System x3850 M2 (Intel Xeon X7350) mit 16 cores, 4 chips und erziehlt 184 Punkte.
Ein bisschen weiter unten das erste System mit Opteron: ProLiant BL685c G5 (2.3 GHz AMD Opteron 8356) ebefalls mit 16 cores, 4 chips und erzielt 161 Punkte
-> in Prozent ist der Opteron 14% langsamer als der Xeon

Zu den "Floating Point -Rates":
Das System von SGI Altix 4700 (Itanium 2 Processor 9040 1.6GHz/18M) mit 256 cores, 128 chips erzielt die meisten punkte: 3420
Es folgen eine Reihe von Systemen- meist Sun SPARC oder IBM Power5... Bis das erste System mit Opteron kommt: ProLiant BL685c G5 (2.3 GHz AMD Opteron 8356) mit 16 cores, 4 chips und erziehlt 147 Punkte.
Ein bisschen weiter unten das erste System mit Xeon: PowerEdge R900 (Intel Xeon X7350, 2.93 GHz) ebefalls mit 16 cores, 4 chips und erzielt 108 Punkte
-> in Prozent ist der Opteron 27% schneller als der Xeon


@General-J:
Auch Hier ein: "IBM System x3850 M2"; ist sicher nicht schlecht (gemäss Benchmarks) ;)

Alle 4 Systeme benutzen Suse Linux Enterprise Server 10!


Diese Benchmarks zeigen einen eindeutigen Sprung bei mehr als 16 cores! Alle eure Hinweise und Antworten machen dann auch richtig Sinn! Wir reden dann hier von Sun Sparc Systemen, oder von IBM Power5+ Systemen, oder auch von Itanium's - ABER alles erst ab 16 cores. Dann machen auch die 'speziellen' OS Sinn; wie Solaris. Loglisch gibt es Ausnamhen, aber dies ist der Überblick! Das oben gennante 4 mal 4 System mit Opterons sind im Vergleich zu einem Sun SPARC Enterprise M8000 (schaut mal nach!!!) bloss 77% langsamer im Integer-Rate Benchmark und das gleiche Sun System ist bloss doppelt so schnell im floating point Benchmark.

Eine (absolut ohne gewähr) Angabe von den Cpu preisen (durch googeln):
Xeon x7350: ca.2000 EUR
Opteron 8356: ca.1000 EUR

Und dann kämen noch die hohen Kosten für FB-Dimm RAM Module!


Zusammenfassend:
Das Xeon System im SPEC Benchmark ist einmal 14% schneller und einmal 27% langsamer gegenüber dem Opteron System. Die CPU ist aber fast doppelt so teuer!
Ein System mit mehr als 16 cores benötigt in der Regel ein spezielles OS wie Solaris. (hat nicht nur Vorteile ... ;) ) Mit Windows Server 2003 kenne ich mich einigermassen aus, mit Solaris garnicht!

Wie General-J sagt:

"Vom Ansatz her finde ich es einfach wesentlich sinnvoller hier auf eine Skallierbare Lösung zu setzten, als jetzt wieder eine dicke Workstation zu kaufen die in einem absehbaren Zeitraum wieder zu klein ist."

Ein 16 core System bleibt noch im Bereich "dicke Workstation". Mit all den Vorteilen der Kompatibilität. Und "in einem absehbaren Zeitraum" wird diese Workstation nicht ersetzt!


Ich danke euch vielmals für eure Hilfe! Eine wichtige Entscheidung ist gefallen:
Ein 4x4 Opteron System wirds sein mit Suse Linux Enterprise Server 10 als OS.
VM's werden auch drauf sein, aber kein VMware ESX Server! Die Workstation version scheint mir geeignet zusein, bin mir aber noch nicht ganz sicher.

Was mir leider wirklich noch fehlt ist die HDD konfuguration!

Ist ein Raid 0(stripped) aus 2*SAS 15K als "System-Disk" auszuschliessen? Gibt es hier nicht die möglichkeit Image-Backups zu erstellen?

@ Unter45grad : Danke toller Artikel!

Wie stehts mit den Hybrid-Disk aus? Wie mit den SSD Disk's?
Lieber doch ein 2*SAS 15K aufbau?

DANKE
 
Zuletzt bearbeitet:
Hallo daistlin,

schön das ich helfen konnte/ das inzwischen schon einige Entscheidungen gefallen sind.

Um auf deine Fragen zu antworten:

Thema VM:
Wenn es sich nur um W98 etc. handelt dann ist die Workstation absolut richtig.

Leider kann ich keine negativ Aussage in deinem Link finden, hier wird nur sehr kurz auf die Möglichkeiten der Resource Pools eingegangen. Was in deinem Fall zB. heisen könnte, das alle Mathematica VMs 95% der Ressourcen zugeteilt bekommen sollen und die 3*W98 nur 5% der CPU Zeit. Das ist alles.

Welcher Betrieb performanter ist, müsstest du entweder mal bei dem Software Hersteller nachfragen, oder (Achtung - leichter Anflug von Werbung: Ich weis, ich bin IBM lastig) du probierst es in einer entsprehenden Umgebung mal aus. Bei der IBM gibt es recht große Testcenter in denen man solche Situationen mal durchspielen kann. Diese Möglichkeiten sollte aber eigentliche jeder ander große Serverhersteller auch bieten können.

Falls die Performance in einer ESX Umgebung sich gut schlägt, würde ich es aber ernsthaft in Betracht ziehen. Denn eine bessere Ausfallsicherheit und Skalierbarkeit für relativ kleinen Preis wirst du kaum bekommen. Einfach einen kleinen 2 Prozessor 16GB Ram Server in den Cluster mit aufnehmen und schon gehts weiter...

Ev. kannst du auch deine bereits vorhandene Maschine mit in den Cluster aufnehmen... ist zwar nicht zertifiziert, aber vielleicht läufts ja...

Nochwas, mach dir keine Gedanken um die Preise der CPUs, im normalfall bekommst du massive Rabatte auf die Listpreise, das die Einzelkomponenten kaum noch ins Gewicht fallen, da kann man sogar schonmal 4 GB RAM mehr nehmen als geplant, da sie im komplett Paket nur noch 30-50% kosten.

Jetzt zu den Festplatten:
Ein Server wird nicht mit Raid 0 betrieben PUNKT.
Wenn du den Geschwindikeitsvorteil eines Raid 0 nutzen willst, dann nimm bitte ein Raid 10, die 2 zusätzlichen Festplatten kosten weniger, als der Arbeitsausfall und deine 3 Stunden Arbeitszeit um das Backup wieder einzuspielen. Wenn das deine Vorgesetzten das beim Kauf nicht verstehen, dann spätestens beim ersten Crash mit ein paar Stunden Ausfall der halben Abteilung...

Ich kann allerdings gerade nicht Nachvollziehen wo das Problem beim Backup eines Raid 0 sein soll? Einfach in die bestehende Lösung mit integrieren. Was verwendet ihr denn aktuell für eure Server?

Zu SSD - mir ist noch keine entsprechende Serverhardware bekannt.

USV - Unterbrechungsfreie Stromverorgung. Da das gute Stück ja inzwischen als Server identifiziert wurde, steht es wohl auch im RZ im Rack und wird wohl auch entsprechend mit in die USV integriert. So als "Büroworkstation" an der Steckdose neben der Kaffeemaschine hätt ich da schon Kopfschmerzen.

PS: Bei ESX benötigst zu zwingend ein SAN Storage, vergiss das in deinen Überlegungen nicht.


Gruß Jens
 
Zuletzt bearbeitet:
hi, noch mal
hier ist noch ein interessanter link :

http://www.actg.de/Supercomputer.htm

wenn man auch was zum basteln haben will :)

kannste vielleicht mit dennen dich direkt in kontakt setzen, um wertvolle tipps zu kriegen.
würde mich auch für deine erfahrungen freuen, wenn die sache zum laufen gebracht worden ist :)
 
ethernet als interconnect zwischen 10 nodes, na alles klar.
 
wegen OS ich glaub ich würd einfach mehrere austesten welches die beste leistung bietet
 
Thema SSD:
Wenn es ein Server werden soll, der viel auf die Festplatten zugreift, dann kommt definitv nichts anderes als SAS (oder vielleicht noch das überholte SCSI) in Frage.
SSD-Festplatten (zumindest die aktuellen) basieren auf Flash-Speichern. Und jeder Flash-Speicher hat eine bestimmte Anzahl an Schreibzugriffen, bis eine Zelle den Geist aufgibt. Bei billigen SSD-Laufwerken sind es 100.000-200.000 Schreibzyklen, bei teuren können es bis zu mehrere Millionen sein. Die maximale Anzahl der Schreibzugriffe kann bei Servern schneller erreicht werden als einem Lieb ist. Wenn diese erreicht wird, dann kommt der nächste Nachteil von SSD ins Spiel. Das Fehlen von SMART. Sprich, du wirst nicht vorher irgendwie gewarnt, wie es oft bei normalen Festplatten der Fall ist, dass sich demnächst die Festplatte verabschieden könnte. SMART gibt es nur bei ganz wenigen SSD-Festplatten, so dass im schlimmsten Fall nach schon nach einem Jahr die SSD-Festplatten anfangen ohne Vorwarnung sich zu verabschieden. Besonders schön, wenn 2 oder mehr Festplatten ausfallen, während das RAID noch nicht komplett rebuilded ist.
Nächster Nachteil von SSD ist die mangelnde Unterstützung für RAID und RAID-Controller. Ich habe in der letzten Zeit mit ein paar namhaften Herstellern von RAID-Controllern gesprochen und die haben mir einstimmig versichert, dass die SSD-Festplatten trotz der standardisierten SATA-Schnittstelle Probleme mit RAID-Controllern verursachen. Alle RAID-Controller sind auf normale Festplatten optimiert und kennen die "Macken" der normalen Festplatten. Und jetzt kommen SSD-Festplatten daher und verursachen plötzlich kein Spinning-Up mehr, wie es der Controller von normalen Festplatten gewohnt ist, etc. Auf den Betrieb mit SSD scheinen entweder die heutigen Controller noch nicht gerüstet zu sein oder aber die SSDs "emulieren" eine normale Festplatte so schlecht, dass der Controller einfach die SSDs aus dem RAID schmeißt.
Ich halte SSD-Festplatten grundsätzlich für sehr sinnvoll und jetzt schon vielleicht in POS-Geräten oder kleineren "Servern" mit wenig Betriebsstunden einsetzbar. Für den allgemeinen Server-Markt stecken die SSD-Festplatten jedoch meiner Meinung nach noch sehr tief in den Kinderschuhen. Ich denke, dass wir noch locker 1-2 Jahre abwarten können, bis sich die SSDs soweit entwickelt haben, dass man die auch bedenkenlos in Servern einsetzen kann.

BTW:
Um auf den Tip von Grimmer zurückzukommen. Was hälst du davon?
http://www.happyware.de/it-systeme/amd-systeme/happyware-server-so4140hst-r.html
Bei Bedarf lassen sich in das Gehäuse zusätzliche 5 hot-swap Platten einbauen.

Schöne Grüße

hw_bk
 
beim raid muss man differenzieren: ist die latenz (zugriffsgeschwindigkeit) wichtiger oder der datendurchsatz?
aktuelle 750er / 1TB platten machen so 90 bis kanpp 100 mb/sec, der PCIe bus schafft theoretisch 300 mb/sec, mit einem guten raid controller erreicht man die sättigung entweder mit 6 platten im raid-10 oder 4-5 platten im raid-5, ja nach platte.

für reinen datendurchsatz reichen normale 7.200er platten, wenns zugriffsgeschwindigkeit wichtiger ist muss man halt 10.000er platten nehmen.
 
Sicher, daß der PCIe-Bus nur 300MB/sec schafft? (Davon kann man so nicht sprechen, da jede PCIe-Lane theoretisch 250MB/sec leistet, diese dann aber meist zu 4 oder 8 gebündelt für Raid-Controller genutzt werden. Da es sich um eine serielle Verbindung handelt, lässt sich das einfach addieren.)
 
Guten tach an alle!

Bin mittlerweile mit 4 'system integrators in Kontakt und lasse mich von ihnen beraten , bzw. kostenvoranschläge zukommen lassen.

Ich werde euch alles sagen, sobald ich mich entschieden habe!

P.S. Es ist wirklich beeindruckend, wenn man sich seit längerem (wie ich) nicht mehr über die HW-Entwicklungen informiert hat, was sich da alles getan hat!!!

Ich danke euch für all eure Tipps und wie gesagt ich werde euch alsbald alles erzählen...

lg Daniele
 
der PCIe bus schafft theoretisch 300 mb/sec

Ne du ;) Bei einer Standardfrequenz von 100Mhz des PCIe Bus kommt es allein auf den Link an. Ein PCIe x1 kann theoretisch maximal 250MB/s befördern, aber jeder größere moderne SAS Raidcon setzt mindestens auf PCIe x4 oder x8, was dann 1000 bzw 2000MB/s sind (in der Theorie).

@Threadersteller: Hätte ich auch so gemacht, ein System dieser Klasse kann man nicht einfach mal "eben so" konfigurieren, vor allem ist man ja nacher der Dumme wenns nicht tut :fresse:

Ich wollte nur noch anmerken, dass 6-Kern Xeons angekündigt sind, die dann auch in den Quad-Sockel Boards laufen. Könnte durchaus nochmal nen Unterschied machen.
 
Hab heut zufällig gesehen dass es von XGI Quad Socket Workstations speziell für Visualisierung gibt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh