[Sammelthread] offizieller Nehalem-EP Thread

@ghostrider
Steht ja nun auch explizit bei Noctua auf der HP. Und wenn dein Händler nicht bestellen kann.....

Ist zwar ärgerlich, aber der macht das anscheinend nicht so oft.

Gut Ding will Weile haben. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da hast Du offensichtlich die Kühler für So. 771 gekriegt. Sind denn diese Halterungen für Nehalem EP einzeln bei Noctua zu bekommen?
 
@Kullberg: Habe dort angerufen und die Info bekommen, daß ich nach dem Einreichen meines Rechnung und der genauen Beschreibung, was ich denn nun benötige, die Klammern zugeschickt bekomme. "In drei bis vier Werktagen"

Der Rechner sollte vor zwei Wochen fertig sein!
Soooo lange. :-( Bin nun schon drauf und dran mir irgendetwas zu basteln. Diese Wartezeit macht mich verrückt.
 
Also mobo aufn Tisch und Kühler drauflegen funktioniert auch wunderbar :d

Im Extremfall noch mit Kabelbinder fest :fresse:

Und ja, hab ich schon ausprobiert. Alternativ kannst Du 1366er boxed Kühler (von i7 920 etc) modden, so wie ich - wenn die meine B0 halten gehn die mit allem ^^
 
Ich hätte da auch mal zwei Fragen zum Thema Gehäuse und Ram:

1. Kennt jemand ein Gehäuse, welches ein SSI EBB Board (ASUS Z8PE-D18) aufnimmt und folgende Maße nicht überschreitet?
HxTxB: 42 x 50 x 20

Die von Kullberg so oft empfohlenen Chieftec Mesh Gehäuse sind leider zu groß.


2. Würden in dem ASUS Z8PE-D18 Board sechs von diesen Ram-Kits laufen, oder kann ich es nicht voll damit bestücken? http://geizhals.at/deutschland/a400820.html

Hintergrund: Ich würde gerne wissen, wie man "am günstigsten" möglichst viel Ram verbauen kann (mehr als 24 GB pro CPU).

Wäre schön, wenn hier jemand genaueres dazu weiß :)
 
@mr.no-name:
Weil sie bei mir so problemlos laufen, würde ich zu den Hynix-Modulen raten:
HMT151R7AFP4C-H9. Auf 1066MHz rennen die Module wunderbar bei CL 7.

@Jcool:
*räusper* Ich habe mir da etwas gebastelt... Wie soll ich sagen: "Treffen der Generationen" sollte man es nennen. Eine Halteklammer eines Ur-Athlon (Slot A), Abstandhalter (so dicke silberne Schrauben) vom Zalman CNPS7700Cu und zwei zusammengeschraubte Sockel 771 Halteklammern des NH-U12DX (ohne die dicken Schrauben), ein paar lange M3 (aus dem Zalman-Satz), die Federn von den Nuctua-Schrauben und zwei Unterlegscheiben... Das ganze sieht ungefähr so aus: :kotz: :rolleyes:
Naja, also bei CPU-Tests fängt das Board an zu piepsen und die OH-LED (Overheat) springt an. Laut HW-Monitor (ich kann das Tool nicht so recht leiden, da es Dinge anzeigt, die es nicht anzeigen kann) erreichte die CPU dabei ungefähr 65°C, im Idle 45°C bis 47°C.
Der CPU-Kühler sitzt nicht gerade gut, sondern nur "irgendwie". Die Wärmeleitpaste ist extrem dünn aufgetragen, wie es auch eigentlich sein sollte, aber der Unterboden der NH-U12DX ist RAUH. Nicht nur "nicht spiegelnd", sondern mit feinen riefen. Das ist wohl mit das schlechteste Finish, was ich in den letzten 10 Jahren gesehen habe.

Aber zurück zum Thema: Ich habe die folögenden Turbo-Schritte, trotz miserabler Kühlung, sehen können:
3/3/3/x
Mit dreimal Falkultätsberechnung im Windows-Taschenrechner. Dann kam das böse Piepsen und ich mußte abbrechen.
 
Ich hätte da auch mal zwei Fragen zum Thema Gehäuse und Ram:

1. Kennt jemand ein Gehäuse, welches ein SSI EBB Board (ASUS Z8PE-D18) aufnimmt und folgende Maße nicht überschreitet?
HxTxB: 42 x 50 x 20

Die von Kullberg so oft empfohlenen Chieftec Mesh Gehäuse sind leider zu groß.


2. Würden in dem ASUS Z8PE-D18 Board sechs von diesen Ram-Kits laufen, oder kann ich es nicht voll damit bestücken? http://preisvergleich.hardwareluxx.de/deutschland/a400820.html

Hintergrund: Ich würde gerne wissen, wie man "am günstigsten" möglichst viel Ram verbauen kann (mehr als 24 GB pro CPU).

Wäre schön, wenn hier jemand genaueres dazu weiß :)

Das kleinste mir bekannte EATX Gehäuse ist dieses (Chieftec ;) )
http://geizhals.at/deutschland/a303432.html
Bei dem wird eigentlich kein Platz verschenkt - viel kleiner geht kaum. Ich hab davon 5 Stück in Betrieb.
Bei den RAMs würde ich single Rank nehmen, dann passt es garantiert.
 
Hmm, also mit den von mir genannten Maßen (also maximal HxTxB: 42 x 50 x 20) gibt's keine Gehäuse für SSI EBB?

Zum Ram: ich konnte leider keine single Rank Module mit mehr als 2 GB finden.
Da das Board mit bis zu 144 GB Ram bestückt werden kann, müsste es doch eigentlich mit mehr als 18 Ranks klar kommen, oder nicht?
 
Klar. 18x 8GB geht ja schließlich auch und bisher gibt es die 8GB-Module wohl auch nur als Quadrank.

Dual-Rank-Module sind die Module der Wahl. Laut SUN-Blog erreicht man damit wohl auch die höchste Geschwindigkeit. Desweiteren macht es auch von den erlaubten Geschwindigkeiten keinen Unterschied, ob SR oder DR Module verwendet werden. Es ist also bei den mir bekannten Boards nicht so, daß 6 SR Module so schnell betrieben werden könnten wie 3 DR. Es macht dort einfach keinen Unterschied.
Und leider kann man beim X8DAH+, auch wenn man im BIOS "Force 1333" einstellt, mit 6 Modulen kein DDR3-1333 fahren. *schnüff*

Vielleicht teste ich aber noch das neue BIOS aus. Das BIOS, was bei mir nun drauf ist, ist irgendwie merkwürdig langsam. Zum Glück ist das das einzige, was langsam ist. :)
 
@derGhostrider: Danke für die Info, dann wäre die Sorge ja schon aus der Welt geschafft :)

@Kullberg: Keine Ahnung, weshalb ich diese eben übersehen habe...evtl. gedankliche Ausblendung aufgrund des hohen Preises :d
 
aber der Unterboden der NH-U12DX ist RAUH. Nicht nur "nicht spiegelnd", sondern mit feinen riefen. Das ist wohl mit das schlechteste Finish, was ich in den letzten 10 Jahren gesehen habe.
Ja voll die Schweinerei! Der Megahalem war jetzt schon der zweite Kühler der bei mir auch diese runden Fertigungsriefen hatte.... ich habs jetzt mal so gelassen aber bei dem Letzten (das weiß ich jetzt grad nicht mehr welcher das war und wo der jetzt steckt..) hab ich den Boden mit sehr feinem Schmiergelpapier geglättet und dann mit Alkohol gereinigt. Das hat wunderbar funktioniert .. habe aber leider keine Vorher-Nachher-Tempmessungen gemacht ;)

...evtl. gedankliche Ausblendung aufgrund des hohen Preises :d
muhahaha .... is auch gesünder!!
 
@Seven-eleven:
Nunja, ich weiß nun echt nicht, ob "glatt" und "spiegelnd" ernstzunehmende Unterschiede machen würde, aber diese Riefen finde ich schon etwas heftig. Um diese auszufüllen müsste ich die WLP vermutlich etwas dicker auftragen, als ich es nun gemacht habe. Nun frage ich mich natürlich, wie ich vorgehen soll, wenn die richtigen Klammern eintreffen: Ein paar bögen Schmiergelpapier und dann bis zum 1000er runterarbeiten und dabei den Boden "verhunzen" und eventuell buckelig schleifen, oder die Riefen irgnorieren.

----

Och, Dual-Rank mit 8GB sind ja nett... abgesehen vom Preis.
Gibt's nebenbeibemerkt, auch von Hynix: http://www.hynix.com/datasheet/eng/...p?menu1=01&menu2=01&menu3=01&menuNo=1&m=1&s=1
Dort steht, wenn man genau hinschaut, auch schon unten ein 16GB Quadrank in der Tabelle. ;)

Mit etwas Glück kann man dann in ein paar Jahren auf (die irgendwann folgenden) 16GB Dualrank-Module aufrüsten können. ;) 6x 16GB sind ja auch "nett" als Upgrade für ein dual-CPU System.
 
Also ich hatte gleich mit dem Feinsten begonnen (kA welche Körnung das ist, was hier halt rumlag) und dann nur ganz vorsichtig soviel abgeschmirgelt bis die Riefen weg waren.
Also schlimmer wie mit den Riefen kanns ja nicht werden.. ;)
 
Zum Abschluß des Kühlerriefenthemas:
Es gibt dafür tatsächlich eine Begründung:
http://www.noctua.at/main.php?show=faqs&step=2&lng=de&products_id=14#7

Nunja, bevor ich nun "frei Hand" den Boden ungewollt mit einer ungewollten Rundung versehe, was verdammt schnell passieren kann, lasse ich es wohl erstmal so, wie es ist. Die neuen Halteklammern sind zu mir bereits auf dem Weg.

Nun setze ich mich gerade mit dem Problem auseinander die beiden Quadros als SLI-Gespann zum laufen zu bringen. Beide einzeln ist überhaupt kein Problem. (Die Brücke ist noch immer nicht angekommen... aber SLI müsste ja auch, wenn auch etwas langsamer, ohne Brücke funktionieren.)
 
Hmm was ne Begründung ... gefällt mir garnicht. Um der Begründung zu entsprechend, müssten die Riefen doch eigentlich auf dem direktesten Weg nach außen gehen. So wars aber zumindest bei mir nicht - sie waren halbkreisförmig und alle gleich ausgerichtet.
Ich hab jetzt bestimmt viel zu wenig Wärmeleitpaste da drauf.... -.-
 
Nun setze ich mich gerade mit dem Problem auseinander die beiden Quadros als SLI-Gespann zum laufen zu bringen. Beide einzeln ist überhaupt kein Problem. (Die Brücke ist noch immer nicht angekommen... aber SLI müsste ja auch, wenn auch etwas langsamer, ohne Brücke funktionieren.)

SLI funzt doch offiziell nur mit NV oder SLI Ready Chipsätzen... Soweit ich weis sind die i55x0 Chipsätze nicht SLI Ready... Und Boards mit NF200 Zusatzchips gibts glaub nicht, oder doch?

Also ob nun mit Brücke oder nicht, SLI wird auf deinem Board wohl nicht funken.
 
@7even:
Naja, sooo tief sind die Riefen ja auch nicht. Ich denke einfach mal, daß damit lokale Unebenheiten in der aufgetragenen Paste ausgeglichen werden sollten. Bei mir ist die Paste wohl etwas extrem dünn aufgetragen - ich konnte recht problemlos die Oberfläche vom Heatspreader sehen. Für spiegelglatte Oberflächen wäre das schön, so ist es vielleicht etwas zu wenig. Naja, mal gucken, was ich beim nächsten mal hinbekomme.
Da ist es schon etwas schade, daß man keine Möglichkeit mehr hat eine CPU-Temperatur auszulesen. Also nicht, um einen absoluten Wert zu erhalten, sondern um vergleichen zu können.
Naja, HWmonitor meint ja irgendwelche Werte erraten zu können. Da diese nur in bezug auf den CPU-spezifischen kritischen Punkt ausgegeben werden (x°C unter "zu heiß"), müsste das eigentlich für diesen Zweck sogar ausreichen.
Naja, ich schau mir an, wie die WLP unter meiner jetzigen Konstruktion strukturiert ist und entscheide dann, ob ich das nach Erhalt der richtigen Halteklammern anders mache.

---

@fdsonne:
Mein Gegenbeispiel: HP Z800. Die hat einen 5520er Chipsatz und auf dieser Workstation läuft SLI Multi-OS.
Zudem bin ich außerdem recht froh keinen NF200 auf meinem Board zu haben. NVidia-Krüppelchipsätze, die auf wundersame Weise vorhandene Bandbreite vervielfachen sollen sind doch hochgradig zweifelhaft.
 
@fdsonne:
Mein Gegenbeispiel: HP Z800. Die hat einen 5520er Chipsatz und auf dieser Workstation läuft SLI Multi-OS.
Zudem bin ich außerdem recht froh keinen NF200 auf meinem Board zu haben. NVidia-Krüppelchipsätze, die auf wundersame Weise vorhandene Bandbreite vervielfachen sollen sind doch hochgradig zweifelhaft.

Neja HP halt...
Aber es geht halt um ne selbstbau Kiste... Kann gut sein, das HP/FSC/Dell und Co. bei einigen Workstations SLI Ready bei NV eingekauft haben... heist aber lange nicht, das das dann bei allen Boards geht.

Soweit mir bekannt geschieht die Erkennung über irgend so ne Geschichte im Bios, wenn das nicht der Fall ist, dann geht defintiv kein SLI...
Vllt kannst dir da von nem X58er Desktop Board was abschauen und den Part zusätzlich ins Bios flashen... Haben ja schon einige bei Desktop Boards gemacht um so SLI lauffähig zu bekommen.
 
Nächste Woche werde ich den nVidia-Support mal wieder kontaktieren. Irgendwie kann ich nicht ganz glauben, daß das für Workstation-Karten auch so gilt. Wo gibt es denn schon richtige Workstation-Boards, die ein "SLI"-Logo tragen?
Vielleicht löst sich das Problem mit der SLI-Brücke auch gleich in Luft aus, also warte ich erstmal auf die Brücke und kontaktiere danach den Support, falls das Problem weiterhin existiert.
 
7even:
In den CPUs wird ab Werk eine "kritische Temperatur" festgelegt, diese jedoch nicht mit einem festen Wert belegt, der abgefragt werden könnte (Also: "Was ist der kritische Wert?" kann nicht abgefragt werden. Es gibt ihn nur und dieser einmal einprogrammierte Wert ist unveränderlich). Die CPUs selbst geben nur noch die Differenz zur kritischen Temperatur aus. So wird es auch lang und breit in den Datenblättern von Intel beschrieben. Die Genauigkeit, Abtastrate und sogar die Zahl der abgetasteten Werte, über die gemittelt wird, ist ebenfalls angegeben. (Ohne Gewähr.: Wenn ich mich recht erinnere wird über 256 Einzelwerte gemittelt. Die Sensoren haben eine maximale Auflösung von 1°C, auch wenn die letztliche Ausgabe mit Nachkommastelle genauer erfolgt).
Wenn man zwei CPUs hat, die sozusagen den Wert "10°" ausgeben, dann bedeutet das eben nur noch: "10°C bis zur kritischen Temperatur der CPU." Dabei könnten aber beide CPUs durchaus 5°C auseinander liegen.
Die Tools nehmen sich aber, AFAIK, einen festen bezugspunkt (in irgendwelchen Datenblättern steht ein grober Richtwert für die maximale Tcase oder sonstige Temperatur) und ziehen dann die berichtete Differenz von diesem Wert ab, der aber nichts mit der im Werk einprogrammierten Grenze der CPU zu tun hat.
In Foren schreiben sich die Leute ganz stolz, was für Temperaturen ausgelesen werden, ohne zu verstehen, daß dies eigentlich nur "Schätzwerte" sind, die davon ausgehen, daß der einprogrammierte Wert nahe an dem angenommenen Wert liegt, von dem ausgehend die Differenz berechnet wird.

Die absolute Vergleichbarkeit der Temperaturen zwischen zwei CPUs oder auch zwischen zwei PCs ist also nicht mehr gegeben. Man kann nur noch Aussagen treffen über die relativen Temperaturen. Dafür müsste man die dargestellten jedoch nicht als absolute Temperaturen ansehen, sondern als ein Maß für den verbleibenden Abstand zur kritischen Temperatur.

Also: Zwei beliebige PCs, beide mit einer CPU, beide zeigen über ein tool wie HWmonitor "40°C" an. Bedeutung: Beide sind gleich weit von der jeweiligen kritischen Temperatur entfernt.
Aber es bedeutet eben nicht, daß beide 40°C warm wären. In einem Rahmen von +-5°C wird es wohl hinkommen, die Anzeige ist prinzipiell jedoch für die Füße.
 
Zuletzt bearbeitet:
@derGhostrider
Das Ausleseverfahren der CPU Temp war doch bis jetzt noch nie anders!? Soweit ich mich erinnern kann...

Einzig die Sockel Dioden der alten AMD Sockel A Systeme hat soweit mir bekannt eine "Ist-Temperatur-Messung" durchgeführt...
 
Eben, das war schon immer so und ist einerseits das Problem der Auslesetools die dann eben jede CPU-Architektur unterstützen müssen, andererseits aber keine Begründung für Ungenauigkeiten (es sei denn das Tool rät die maximale Design-Temperatur :d )
 
Ich glaube ihr verwechselt/vermischt hier irgendwie SLI mit MultiOS SLI.

Beim MultiOS SLI gehts ja nur darum, dass eine Graka exclusiv zur Nutzung durch eine VM zur Verfügung steht. Hier erschließt sich mir auch nicht der Sinn einer SLI Brücke.

Geschweige denn dass es irgendwas mit normalem SLI (Berechnung von Bildern auf 2 Grafikkarten gleichzeitig mit dem Ziel der Leistungssteigerung) zu tun hat.

In der Fujitsu Celsius R670 hab ich übrigens gesehen kann man sich 2 Nvidia Grakas und ne SLI Brücke bestellen. Hab mich auch schon gefragt ob das dann echtes SLI gibt...oder ist das bei den Quadros evtl anders geregelt als bei den Consumerkarten?

Von ner SLI-Freigabe hab ich auch noch bei keinem 5500/5520 Board was gelesen.
 
Von ner SLI-Freigabe hab ich auch noch bei keinem 5500/5520 Board was gelesen.

Die Großen Hersteller kaufen teilweise SLI bei NV ein...
Bei den Nehalem Geschichten geht das irgendwie mit nem String im Bios der nicht fehlen darf...

Man hat so schon teilweise X58 non SLI Ready Boards SLI Ready machen können, indem man einfach den String mit ins Bios geflasht hat.
Sollte denke ich bei den 5500/5520er Boards auch funken, müsste sich nur mal jemand mit befassen ;)
 
Hab mich auch schon gefragt ob man den String im BIOS nicht auch irgendwie faken kann, z.B. über nen Bootloader wie's für Windows Vista/7 OEM-Versionen gemacht wird.
 
Das vllt nicht, aber wie gesagt, den String ins Bios flashen geht sicher... Müsste sich nur mal jemand dran setzen und das umsetzen...
Aber das wird wohl aus Mangel an Dual Board besitzern eher nicht der Fall sein
 
Je nach Umsetzung (also was der Nvidia Treiber genau abfragt) ist das nicht nur für Dualboard-Besitzer interessant.
 
Es gibt einen Thread, indem die Leute den abgefragten String in den Treiber stopfen. Also dekompilieren, für das eigene Board anpassen, kompilieren, installieren => SLI geht.

Allerdings sind diese Leute erst seit ein paar Tagen damit beschäftigt und probieren bisher nur mit XP 32bit rum. Die Erfolge sind aber eindeutig. Zumindest, wenn der Hersteller ein X58 Mainboard mit SLI-Zertifizierung im Programm hat, funktioniert deren Trick, da dann eine Kennung abgefragt wird, die aus Herstellername + Nummer besteht. Ein paar gültige Nummern kennen diese Leute bereits, die man bei unterschiedlichen Herstellern einsetzen kann, nur die Herstellerkennung muß dann noch stimmen, damit SLI hinterher funktioniert.

@H_M_Murdock:
Von Nvidia habe ich die folgende Aussage erhalten:
Regarding combining two FX 4800 cards for SLI, only the following computer systems support Quadro FX 4800 SLI: Dell T7500, HP Z800 and FTS R670/R570 and there are no beta or other drivers which will enable FX 4800 SLI on any other platform. I am working with our Marketing department to update the Quadro FX web pages with this information.
Meine Antwort ging auch schon postwendend zurück, da ich, aufgrund der Leute, die die Treiber hacken, weiß, daß es eben nur eine Codezeile (ein paar Zeilen) im Treiber ist (sind).
Naja, offizielle Antwort und Realität liegen eben manchmal recht weit auseinander.

Daß SLI Multi-OS etwas anderes ist als SLI ist mir durchaus bewußt. Hier sagt NVidia das gleiche wie parallels: SLI Multi-OS gibt es nur auf der Z800. Hoffen wir mal, daß das nicht so 100%ig stimmt.
Inzwischen versuche ich weiterhin von Supermicro ein BIOS zu bekommen, was mich die RAM-Geschwindigkeit manuell festsetzen lässt auf 1333. Immerhin kann schon mein H8DCi 4x dualrank Module mit 400MHz (DDR) betreiben, obwohl es bei 8 ranks die Opteron CPUs nicht mehr können sollen. Wenn sie beriets da über die Spezifikationen hinaus gingen, können sie das ruhig nochmal machen. Kaputtgehen kann dadurch auch nichts - im schlimmsten Fall läuft das System dann nur nicht stabil und das kann ich selbst austesten. Da es aber auch SUN so handhabt, glaube ich einfach mal, daß meine Chancen ausgesprochen gut wären, daß es stabil bleibt.


Das Thema SLI auf nicht-SLI-Boards ist natürlich gerade für die Desktop-Boards interessant, bei denen man eine "normale" Version für weniger Geld bekommen kann als die "SLI" Version, aber dann durch einen einfachen und vor allem ungefährlichen Treiber-hack doch SLI nutzen kann.
Das gefällt mir persönlich vom Ansatz schon besser als ein fremdes BIOS zu flashen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh