[Sammelthread] offizieller Nehalem-EP Thread

Dann geh im Task Manager auf Prozesse und dann auf > Rechtsklick (des jeweiligen Prozesses) und dann Set Affinity und dann kannst du dem Programm die CPU´s beliebig zuweisen wie du gerade lustig bist oder es haben willst.

Das funktioniert leider nicht immer und 100% sauber, vor allem, weil diese Zuweisung auch nur für den Task an sich gilt, wird ein weiterer Task in Abhängigkeit vom ersten gestartet, dann erhält dieser wieder die Std. Zuordnung auf alle Cores...
Genau so kann es vorkommen, das diese Zuordnung gar nicht greift, und der Task eigentlich scheinbar macht was er will...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Möchte halt gerne sehen, welche Core ein Prozess grad in Anspruch nimmt.

zB svchost ist grad auf core x, y und z so und so stark aktiv.

Die Möglichkeiten die ich im TM (ja Task Manager) bisher gefunden haben geben das nicht preis.

EDIT:
Wenn zB ein bestimmter Core stark ausgelastet ist, kann man daran erkennen, welcher Prozess dafür verantwortlich ist, um so zB das Nutzungsverhalten diesen Prozesses zu erkennen. (also Takt basiert oder Core basiert)

Wenn du dem Prozess nicht einer bestimmten CPU zuweist, kann der Prozess jede CPU bzw. Core gerade benutzen. Das kann mal CPU2 und dann auf CPU3 wechseln usw.

Von daher kann man das nicht explizit anzeigen, welchen Prozess gerade welchen Core benutzt. Wenn du natürlich siehst, ein Prozess erzeugt 25% Load auf einem Quadcore und im Taskmanager unter Performance siehst du gerade, dass nur ein Kern voll ausgelastet ist kannste ja sehen auf welchen Core der Prozess gerade läuft.

Wenn man es individuell haben will... z.B. dass ein Spiel nur einen Kern benutzt, dann teil dem Prozess nur einen oder 2 Kerne zu. Dann kannst du dir 100% sicher sein, welche CPU/Core benutzt wird.

Das funktioniert leider nicht immer und 100% sauber, vor allem, weil diese Zuweisung auch nur für den Task an sich gilt, wird ein weiterer Task in Abhängigkeit vom ersten gestartet, dann erhält dieser wieder die Std. Zuordnung auf alle Cores...
Genau so kann es vorkommen, das diese Zuordnung gar nicht greift, und der Task eigentlich scheinbar macht was er will...

Was funktioniert daran nicht immer oder nicht 100% sauber?

Wenn ein weiterer Prozess gestartet wird, ist es korrekt, dass er vom Scheduler die default Zuordnung (ALLE CPU´s) erhält.

Aber man startet doch nicht ständig das Programm neu? Wenn du jetzt einen Datenbankserver hast der gestartet ist auf einem 8 Core System und willst, dass der DB Server nur die letzten 4 Kerne benutzt, dann stellst du CPU 4,5,6 und 7 ein und dann kannste dir sicher sein, solange der Datenbankserver läuft, dass nur die 4 Kerne benutzt werden und auf den ersten 4 Kernen kann dann theoretisch irgendetwas anderes laufen, was viel CPU Leistung braucht.

Der Scheduler ist intelligent. Wenn du einem Programm z.B. 2 Kerne zuweist und die 2 Kerne voll ausgelastet werden durch das Programm und du irgendein anderes Programm startest, kann das andere Programm by Default wieder alle Kerne benutzen. Der Scheduler erkennt das z.b. 2 Kerne voll ausgelastet und zugewiesen sind und daher nutzt das neu gestartete Programm dann die anderen Kerne die zur Verfügung stehen.

Also ich sehe da das Problem nicht. Microsoft hat das nahezu perfekt für alle Bedürfnisse eingerichtet.

Aber mal nebenbei: Ich würde euch sowieso empfehlen, nichts an der CPU Zuweisung zu ändern. Wie das by default läuft ist schon gut und normalerweise optimal auf Performance gesteuert.
 
Zuletzt bearbeitet:
Wenn du dem Prozess nicht einer bestimmten CPU zuweist, kann der Prozess jede CPU bzw. Core gerade benutzen. Das kann mal CPU2 und dann auf CPU3 wechseln usw.

Von daher kann man das nicht explizit anzeigen, welchen Prozess gerade welchen Core benutzt. Wenn du natürlich siehst, ein Prozess erzeugt 25% Load auf einem Quadcore und im Taskmanager unter Performance siehst du gerade, dass nur ein Kern voll ausgelastet ist kannste ja sehen auf welchen Core der Prozess gerade läuft.

Wenn man es individuell haben will... z.B. dass ein Spiel nur einen Kern benutzt, dann teil dem Prozess nur einen oder 2 Kerne zu. Dann kannst du dir 100% sicher sein, welche CPU/Core benutzt wird.

Das ist ja gerade mein Problem, der Graph der CPUs im TM sieht aus wie die Markoaufnahme eines Kalksandsteins. (Berg und Tal und zwar extrem)

Am Graphen ist das so gut wie garnicht auszumachen.
Ich möchte halt einfach wissen, wie sich die Software verhält, bzw ie Windows die Software aufteilt, wann was wo wie hingeschoben wird und ob überhaupt.
 
@underclocker2k4
meinst du sowas wie man im ESXi Server bei den einzellnen VMs sehen kann?
Dort zeigt zumindest eine Grafik für jede Virtuelle Maschine an, welcher Core zur Zeit x wie stark belastet wird.
Ne Gesamtübersicht, über alle VMs gibts da aber glaub ich auch nicht, also wo man in einer Übersicht sieht, wie stark jede einzellne VM welchen Core auslastet...
Aber schau dir mal den Prozess Explorer von MS an... Eventuell könnte damit sowas machbar sein.
http://technet.microsoft.com/de-de/sysinternals/bb896653.aspx

@xChrizz
vorrangig ist mir das bis jetzt bei Games aufgefallen, dort greift die Zuordnung nicht immer 100% sauber.
Sprich du willst zum Beispiel zum Test simulieren wie gut ein Spiel mit der Anzahl der Cores skaliert. Und gibst diesem Game wahlweise 1, 2, 3 oder 4 CPUs mit auf den Weg...
Die FPS werden idR komplett identisch bleiben, obwohl das Spiel eigentlich bei nur einem zugewiesenen Core deutlich an Leistung verlieren müsste, vor allem, wenns um Titel wie GTA IV oder so geht, welche mit mehreren Kernen sehr gut skalieren...
Das mein ich damit...

Für ich nenns mal "0815 Software" hingegen funkt die Methode 1A, da hast du recht ;)
 
Im Process Explorer habe ich sowas jetzt auf Anhieb nicht gefunden. In den Eigenschaften eines Prozesses kann man dessen Threads sehen, sowie die "Start Address" pro Thread die aus dem Namen der ausgeführten Datei (z. B. exe) sowie mit Pluszeichen einer angehängten HEX-Zahl besteht.
Ob das jetzt aber Aufschluss auf einen Core gibt? Könnte auch eine Speicheradresse sein.
 
Auch der Process Explorer muss sich da an den Scheduler halten und kann das was underclocker2k4 sehen will, vermutlich nicht so anzeigen wie er sich das vorstellt.

Es ist und bleibt dabei: Default bekommt ein Prozess in Windows die Zuweisung vom Scheduler, dass er alle CPU´s benutzen kann. Wenn das Programm dann CPU Leistung anfordert entscheidet der Scheduler abhängig von der Last der Kerne, auf welchen Kernen der Prozess durchgeführt bzw. ausgerechnet wird.

Das kann auf jeden sein. Ausser man bestimmt (wie ich bereits) geschrieben habe den Prozess bzw. auf welche CPU´s der Prozess zugreife/benutzen darf.

Das kann man mit dem Process Explorer auch machen, aber wie gesagt mit dem Task Manager genauso.

@fdsonne

Wenn ein Spiel Leistung verlieren müsste, wenn nur ein Kern zugewiesen ist, kann es sein, dass der Scheduler sieht, dass das Spiel mehr als eine CPU braucht und sieht, dass die anderen Kerne nichts zu tun haben und dann daher die anderen Kerne mit belastet.

Wobei vorrangig der von dir zugewiesene Kern ausgelastet wird.

Dadurch verlierst du keine FPS.
 
Unter Linux wird auch nicht nur ein Kern ausgelastet. Ich weiss nich wer sowas erzählt oder ob du das in der LKML falsch verstanden hast. Linux verhält sich bei multithreaded Server Anwendungen fast genauso wie der Windows Kernel.

Da wird genauso "Core hopping" betrieben wie bei Windows, weil das vom Scheduler ausgeht und der Scheduler sich danach richtet wie das Programm prorgammiert ist.

Man, du solltest mein Posting genau durchlesen...
Aber noch einmal: natürlich benutzt Linux mehrere Kerne, man versucht nur das
"Core Hopping" zu vermeiden und der Scheduler weiß ganz genau auf welchem
Kern ein Thread lief und beim nächsten zuteilen der Zeitscheibe wird versucht
(soweit es geht) den Thread wieder dem gleichen Kern zuzuteilen.
Und daß sich Linux genauso wie Windows verhält kann schon mal nicht
stimmen, denn unter Linux kannst du auch verschiedene Scheduler wählen,
die natürlich auch Unterschiede aufweisen...
Und trenne bitte genau die Begriffe: ein Programm (kann mehrer Threads beinhalten)
und ein Thread (kann nur einem Programm zugehören).


Noch ein riesen Unterschied - du kannst auf der LKML viel mehr
Informationen bekommen - nicht nur die Schnittstellen wie unter Windows, sondern
auch die Diskussionen und Überlegungen der Programmierer.
Unter Linux haben viele Sachen nicht unbedingt von Vorne funktioniert, man hat
mehrmals das Vorgehen geändert und die Gründe kannst du auch nachlesen...
Und ich glaub nicht, daß jemand hier im Forum bei M$ in der OS-Entwicklung
arbeitet...
 
@fdsonne

Wenn ein Spiel Leistung verlieren müsste, wenn nur ein Kern zugewiesen ist, kann es sein, dass der Scheduler sieht, dass das Spiel mehr als eine CPU braucht und sieht, dass die anderen Kerne nichts zu tun haben und dann daher die anderen Kerne mit belastet.

Wobei vorrangig der von dir zugewiesene Kern ausgelastet wird.

Dadurch verlierst du keine FPS.

Liest du eigentlich selbst was du schreibst!?
Sorry, aber hier nochmal für dich und auch schön markiert damit du nicht die hälfte beim lesen vergessen kannst...

Das funktioniert leider nicht immer und 100% sauber, vor allem, weil diese Zuweisung auch nur für den Task an sich gilt, wird ein weiterer Task in Abhängigkeit vom ersten gestartet, dann erhält dieser wieder die Std. Zuordnung auf alle Cores...
Genau so kann es vorkommen, das diese Zuordnung gar nicht greift, und der Task eigentlich scheinbar macht was er will...
Daraufhin deine Antwort:
Was funktioniert daran nicht immer oder nicht 100% sauber?

...

Aber man startet doch nicht ständig das Programm neu? Wenn du jetzt einen Datenbankserver hast der gestartet ist auf einem 8 Core System und willst, dass der DB Server nur die letzten 4 Kerne benutzt, dann stellst du CPU 4,5,6 und 7 ein und dann kannste dir sicher sein, solange der Datenbankserver läuft, dass nur die 4 Kerne benutzt werden und auf den ersten 4 Kernen kann dann theoretisch irgendetwas anderes laufen, was viel CPU Leistung braucht.
So und jetzt lies dir nochmal bitte genau das Rot Markierte oben durch... Und danach nochmal den Post #211 von mir...

Fällt dir was auf!? :wall::wall:
 
Diese CPU Zuweisung in Windows ist dafür da um die CPU´s die man zuweisen möchte zu belasten.

Das ändert nichts daran das der Scheduler flexibel ist und es erkennt, wenn ein Programm mehr als eine CPU Braucht und daher wenn z.B. Kern 3 zugewiesen ist und Kern 0,1 und 2 haben alle keine Last, dann kann der Scheduler dies änderen um maximale Leistung zu erzielen.

Wo ist dabei das Problem? Das ändert nichts an der Tatsache, dass das sauber fuktioniert und in erster Linie Kern 3 belastet wird.
 
xChrrizz

Auf der einen Seite schreibst du, dass man sich sicher sein kann, dass der DB Server nur auf CPU 4-7 arbeitet.

Auf der anderen Seite schreibst du aber, dass der Scheduler diese Aufteilung (Spiel @1Core) umgehen kann, wenn er es für richtig hält.

Also kann man sich auch NICHT sicher sein, dass der DB Server @CPU4-7 arbeitet.

Du widersprichst dir selbst.
 
Zuletzt bearbeitet:
Ich habe es jetzt mal getestet um das ganze hier abzuschließen.

Ich habe das aus dem Grund geschrieben, weil fdsonne meint, es funktioniert nicht 100%.

Ich habe hier einen Prozess gestartet der alle 8 Kerne auslastet. Dann habe ich den Prozess den letzten Kern zugewiesen und trotz der Tatsache, dass das Programme die Power von allen 8 Kernen braucht wurde nur AUSSCHLIEßLICH ein Kern belastet und zwar der, den ich zugewiesen habe.

Dementsprechend langsam war das Programm dann auch.

Also kann deine Aussage nicht stimmen @ fdsonne. Wenn man es manuell zuweist kann der Prozess nur diesen einen Kern benutzen.

Ihr bringt mich schon total durcheinander.
 
Diese CPU Zuweisung in Windows ist dafür da um die CPU´s die man zuweisen möchte zu belasten.

Das ändert nichts daran das der Scheduler flexibel ist und es erkennt, wenn ein Programm mehr als eine CPU Braucht und daher wenn z.B. Kern 3 zugewiesen ist und Kern 0,1 und 2 haben alle keine Last, dann kann der Scheduler dies änderen um maximale Leistung zu erzielen.

Wo ist dabei das Problem? Das ändert nichts an der Tatsache, dass das sauber fuktioniert und in erster Linie Kern 3 belastet wird.


Also ist an diesem Sachverhalt nix dran ?!
 
Das Thema ist etwas kompliziert. Wenn manche Prozesse im Betrieb reloaded werden oder Unterprozesse gestartet werden kann der Scheduler sich flexibel anpassen und dann wieder andere Settings einstellen.

Deswegen kann schnell der Eindruck entstehen, dass es nicht sauber geht. Es gibt da schon ein paar Sachen die der Scheduler machen kann. Aber bei einem Prozess der gestartet wird (und sich nicht ändert) und man einen oder zwei Kerne zuweist, dann werden defintiv nur die 2 benutzt solange sich am Prozess selbst nichts direkt ändert.
 
Also kann deine Aussage nicht stimmen @ fdsonne. Wenn man es manuell zuweist kann der Prozess nur diesen einen Kern benutzen.

Ihr bringt mich schon total durcheinander.

Moment, keine falschen Beschuldigungen...
Ich schrieb nicht das es definitiv nicht machbar ist, sondern, das es nicht immer und 100% sauber funktioniert.

Wie oben erwähnt, teste ein Game und du wirst sehen, trotz Zuordnung wird die FPS Rate nicht sinken, obwohl sie es eigentlich müsste...
Dementsprechend wiedersprichst du dir leider selbst mit der Aussage. Weil es eben doch nicht immer das macht, was man eigentlich will.


Und nein, da wird auch nix im Hintergrund geändert oder gedreht beim Reloaden oder was auch immer...
Du kannst jederzeit wärend des Spielens zum Taskmanager switchen und dir die Zuordnung ansehen, welche solange bestehen bleibt, wie das Game läuft.
Ob das natürlich bei allen Games so ist, weis ich nicht, mir ist es des öfteren aber schon mal aufgefallen... GTA IV wäre zum Beispiel so ein Fall.
 
Zuletzt bearbeitet:
So ich habs gestet. Grid auf nur einem Kern. Es wurde auch nur ein Kern belastet und der durchgehend mit 100%.

Grid hat ganz schön geruckelt.. selbst die Menü´s laden usw. hat länger gedauert.

Also ich sehe da nichts mit gleicher FPS.

Nach der letzten Aussage von dir @ fdsonne wenn nur ein Kern belastet wird muss es zu FPS Einbrüchen kommen. Zumindest dann, wenn das Game multithreaded ist und für mehrere Kerne ausgelegt ist.. wenn ein Game nicht von mehreren Kernen profitiert sondern nur pro MHz dann kann es evtl. sein, dass die FPS gleich sind.

Naja, wie dem auch sei, ich werde nächste Woche in der entsprechenden Abteilung für den Bereich Scheduler mal genau nachfragen.
 
Was arbeitest du denn?

(Ist denn schon was im Serverbereich unterwegs in Bezug auf GPGPU? Gerade Sachen wie DBs könnten doch relativ gut davon profitieren.)
 
Was arbeitest du denn?

(Ist denn schon was im Serverbereich unterwegs in Bezug auf GPGPU? Gerade Sachen wie DBs könnten doch relativ gut davon profitieren.)

Beim beliebtesten Softwarekonzern der Welt :-)

Bei GPGPU muss man aber auch immer vorsichtig sein.

Es gibt Bereiche wo GPGPU unheimlich stark ist und es ist auch ein Trend der immer mehr zunehmen wird.

Allerdings gibts Bereiche wo GPU´s schlichtweg viel schlechter sind als CPU´s.

Das betrifft größtenteils general purposes. Auch bei Datenbanksoftware sehe ich bei GPGPU keine Vorteile.

Die Bereiche wo GPGPU sich meiner Meinung nach durchsetzen wird sind Video & Photobearbeitung. Allein durch CUDA ist da ja mit NV schon einiges möglich.

Adobe Photoshop in den neueren Versionen bezieht ja auch immer mehr die GPU mit ein.

Aber bei Datenbanksoftware wird wohl erstmal nichts in Richtung GPGPU kommen. Das ist der klassiche Fall wo GPU´s ungeeignet sind.
 
Problem ist halt, dass GPUs (die einzelnen Einheiten) aufs Rechnen ausgelegt sind, viel weniger sind sie auf I/O ausgelegt.

In WSs werden sie sicherlich schnell Anklang finden. Mal schaun was da kommt.
 
Zuletzt bearbeitet:
Ein ganz anderes Thema bei der Geschichte ist ja auch die Realisierung, mal ganz von der Software weg...
Wenn man nen Server kauft, dann muss der schnell sein, und wenn möglich so wenig Höheneinheiten wie möglich haben.
Versucht mal in nen 1HE oder 2HE Server ne Dualslot Grafikkarte oder GPGPU Karte unterzubringen!?
Das wird nix...

Ich denke mal bis sich GPGPU Anwendungen im Serverbereich wirklich in breiter Masse durchsetzten können, vergehen noch ganz paar Jahre... Und der Nehalem Gehört dann sicher wieder zum Alteisen :fresse:
 
Versucht mal in nen 1HE oder 2HE Server ne Dualslot Grafikkarte oder GPGPU Karte unterzubringen!?
Das wird nix...

unbenannt-3282.jpg


Aber vollewurst wird das was, man muss nur wollen.
Dell Precision R5400 Rack Workstation, 2HE hoch.

Für selbstbastler wirds wohl nicht gehen, da man sich das Mainboard nicht sägen kann wie man es brauch :).
 
Zuletzt bearbeitet:
@ MAFRI


Ähmmm, alles klar bei dir? ;) Ist doch alles besser als dieser FB-DIMM Mist, der dir alles wegbrennt. Wieso sollen mit REG ECC Rams nicht mehr als 128GB möglich sein? Und wie viele Zwei-Sockelsysteme verwenden denn überhaupt soviel Ram?
arg bin von non ECC/reg speicher ausgegangen:stupid:

Wenn du Spiele spielen willst dann hol dir ein Desktop System meinetwegen x58 damit hast du dein Crossfire und SLI.

Es ist und bleibt Tatsache, dass die 5000er, 5400er und 5500/5520 in erster Linie Server Chipsätze sind.

Wegen der Memory Diskussion:

Intel sagt DDR 3 Reg ECC - für den Intel 5520 Chipsatz.
na ja in WS wäre das ja ganz interessant bezogen auf CF..
soweit ich weiß wird von supermicro eine WK angeboten wo 3x ATI FireGLs drinne sind und es wird mit deren "zusammenarbeit" geworden, was wohl in meinen augen CF heiße..

mfg
mafri
 
@DeZomB

Jop, da hast du Recht. Sowas kriegt man mit "Selbstbau" wohl in der Form nicht hin.

Ich bin kein Experte für GPGPU aber es gibt doch auch NVIDIA Tesla Systeme mit 2 HE? die bis zu 4 dicke Quadros drin haben und schon recht performant sein sollen.

Aber wie gesagt, GPGPU eignet sich momentan nur für ein paar Bereiche. Da wo es sinnvoll ist, hat es sehr viel mehr Power gegnüber normalen CPU´s.

Aber wie gesagt allein schon wegen der ganzen Standard Server Software ist ja nahezu alles general purposes, Virtualisierung, Datenbank usw. da ist mit GPGPU nichts zu machen. Schon allein wegen zu wenig Memory sind Grafikkarten da ungeeignet.

Aber wenn man Video´s konvertiert etc. ist GPGPU schon eine Super Sache. Aber bringt wohl zurzeit mehr im Multimedia Bereich.
 
also wlan hashkey knacken meine xeons 3,6ghz schaffen in 1m 60 trys meine 295gtx gute 2700 bei WPA2-PSK...
nur so als vergleich....
und man kann die karten bei noch weit mehr einsetzten
und die tesla karten haben ja schon 4GB Speicher,
jetzt betrachten wir das mal so, ein ein dual Quad system mit sagen wir mal 32GB ram da hat jede core auch nur "4gb"

mfg
mafri
 
GPGPU bringt halt wirklich nur dann was, wenn überwiegend gerechnet wird.

Teile mal die 4GB auf die ganzen Cores der einer zB 295 auf, da bleibt nicht mehr viel über.

GPGPU haben ein riesen Problem beim I/O, beim reinen Crunchen lassen sie so ziemlich alles stehen.
 
jetzt betrachten wir das mal so, ein ein dual Quad system mit sagen wir mal 32GB ram da hat jede core auch nur "4gb"

???

Den Memory hat das gesamte System und nicht irgendein Core

Wie kommst du auf sowas? Bei einem Server wo nur ein Dualcore Xeon drin is wie der E5110 und 32 GB Memory der hat auch 32 GB.

Genauso wie wenn 2x X5570 drin sind...
 
???

Den Memory hat das gesamte System und nicht irgendein Core

Wie kommst du auf sowas? Bei einem Server wo nur ein Dualcore Xeon drin is wie der E5110 und 32 GB Memory der hat auch 32 GB.

Genauso wie wenn 2x X5570 drin sind...
joa war ja nur beispielhaft aufgerechnet @.@
bin zur zeit nimmer zurechnungsfähig wenns nicht bald was zu essen gibt..
GPGPU bringt halt wirklich nur dann was, wenn überwiegend gerechnet wird.

Teile mal die 4GB auf die ganzen Cores der einer zB 295 auf, da bleibt nicht mehr viel über.

GPGPU haben ein riesen Problem beim I/O, beim reinen Crunchen lassen sie so ziemlich alles stehen.

joa aber denke nv bekommt es schon auf dauer hin..

---------- Beitrag hinzugefügt um 00:54 ---------- Vorheriger Beitrag war Gestern um 21:50 ----------

1HE 4fack Tesla..

http://preisvergleich.hardwareluxx.de/deutschland/a389199.html
 
Zuletzt bearbeitet:

Da ist aber nix weiter drin in der Kiste als 4 Quadro FX5800 Karten...
http://images.nvidia.com/products/tesla_s1070/Tesla_S1070_Front_Elevated_no_cover_med.png

Man brauch also irgendwie noch ne Maschine, wie man das Teil ansteuern kann...


Wenn ich mir das Ding so ansehe, scheint das nur ein Case mit ausgelagertem PCIe Steckplätzen zu sein, welche hinten über diese beiden Anschlüsse irgendwie an einen Server/oder ne Workstation gebracht werden
http://images.nvidia.com/products/tesla_s1070/Tesla_S1070_Rear_Elevated_med.png
 
Zuletzt bearbeitet:
Jop, ist nix anderes wie nen Grakahalter.
Evtl wird man sowas noch als einziges PCB bauen. Da kommt dann halt noch nen x86er rauf zum Verwalten und fertig ist das Teil. So kriegt man das auch noch besser in 1HE implementiert.
 
Ich hab grad auf der Supermicro HP was interssantes in Sachen SLI und Crossfire gefunden - SM wirbt dort mit einer Workstation die offensichtlich Crossfire und auch SLI tauglich ist

attachment.php


- verbaut ist laut beschreibung dieses Board

http://supermicro.com/products/motherboard/QPI/5500/X8DAH+.cfm

- morgen werd ich gleich mal eine Mail an SM schreiben ob auch die Retail Boards für SLi und Crossfire freigegeben sind oder ob das nur für die Worstation gilt

mfg
 

Anhänge

  • Supermicro_2.jpg
    Supermicro_2.jpg
    91,6 KB · Aufrufe: 96
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh