[Sammelthread] offizieller Nehalem-EP Thread

Es gibt aber keinen Modus für 15 Lanes.
Gültig sind: 1x, 2x, 4x, 8x und 16x.
Fällt eine von 16x aus, so geht die Geschwindigkeit zurück auf 8x, wobei es nicht wichtig ist, ob es die ersten acht Lanes oder die letzten 8 sind.

(Ist so auch im Datenblatt zum Intel 5520 Chipsatz nachzulesen)

Das ist richtig, aber hier geht es nicht um den Hardwaremodus, sondern das, was intern gehandhabt wird...
Die Karte meldet sich am NF200 mit 16x und dieser wiederum mit 16x beim Chipsatz.
Der Switch kann dynamisch die Last verteilen.
Im extremfall unter höchster Belastung wäre beispielsweise ne 8x/8x Verbindung gleichzeitig machbar. Brauch eine der beiden Geräte nun nur ne 1x Verbindung (aus welchen Gründen auch immer) kann die zweite Karte immernoch mit 16x rausreden, aber der Switch schickt nur über die vorhandene Bandbreite richtung Chipsatz...

Das läuft analog wie im LAN. Wenn du nen Mischbetrieb zwischen 10er/100er/1000er Geräten an nem 1000er Switch hast, kannst du über den Uplink Port in Summe 1GBit/sec übertagen. Ist dieser Uplink beispielsweise durch die 10MBit Verbindung eines Client PCs schon beansprucht, bleiben für den Rest eben nur noch 990MBit/sec übrig. Obwohl der Switch keinen 990MBit/sec Modus fahren kann.

Das liegt hier nicht in der Hardware, sondern kommt von Switch, der intelligenter Weise durch eine 16x Hardwareverbindung dynamisch verschiedene Daten schieben kann.

Speicherinhalt: Ja, Aufgaben und Befehle: Nein.
Das ist wie gesagt derart geringe Last, das man den Unterschied wenn überhaupt messen aber nicht spüren kann...


Sofern das allgemein gelöst und keine treiberseitige Sonderbehandlung ist, wird aber, wie bei jeden Switch, das Ziel vom Datenpaket vorgegeben.
Broadcast ist für PCIe, AFAIK, nicht vorgesehen, lasse mich aber gern korrigieren.

Wie es genau umgesetzt wird, weis ich nicht, Fakt ist, das es funktioniert...
Ählich der NF200 Chips löst das AMD mit ihren Dual GPU Karten über Chips von PLX.


Und was war da nicht richtig? SLI funktioniert(e) auch ohne Brücke, dann jedoch mit geringer Leistungseinbuße.
Es wird nicht jede Karte ihren eigenen Shadercode erhalten und auch nicht eigene Befehle ausführen, es gibt nur einen Shadercode, die Karten im Verbund führen alle den selben Code aus, greifen aber je nach Szene auf unterschiedliche Daten zurück, die bei allen GPUs im Speicher vorhanden sein müssen (diese Daten beispielsweise tragen zu der erhöhten Bandbreite im SLI/CF Betrieb bei)

Du meinst etwas ganz anderes, als das, was Du schreibst. VRAM ist ein besonderer Speichertyp, der gleichzeitig lesen und schreiben kann (naja, konnte). VRAM gab es das letzte Mal in den 90ern auf High-End Grafikkarten und ist, wegen zu hoher Kosten, vom Markt verschwunden.
Wikipedia ist da etwas fehlerhaft: Die anderen Speichertypen wurden erst später schneller als VRAM, da VRAM nicht weiterentwickelt wurde. Aber auch bei VRAM wären natürlich Technologien wie "DDR" möglich gewesen..... Aber genug vom Exkurs.
Das ist mir durchaus bewusst, dennoch steht VRam umgangssprachlich für Video RAM, oder vereinfacht gesagt, dem Speicher, der der GPU zur Seite steht und direkt auf der Karte verbaut ist.
Das hat sich über die Jahre so eingebürgert und wird auch überall so verstanden... Das es vor 20 Jahren da mal ne Sache gab, die ebenso hieß, spielt doch keine Rolle dabei.

Je mehr Grakas, desto größer ist die Speicherverschwendung. Jede Graka muß den Speicherinhalt der anderen vorhalten, weswegen einige SLI-Systeme mit Karten, die nicht über unmengen von Speicher verfügen, bei den ganz großen Auflösungen passen müssen.

Kurzum: Vier Grakas mit 1GB RAM haben prinzipiell im SLI/CF Verbund ein Speicherproblem. Mehr Grafikkarten = "mehr Speicherknappheit".
Ähm und?
Spielt doch bei uns überhaupt keine Rolle, weil das ein anderes Thema ist...

Und nein, mit der Höhe der Auflösung hat das auch recht wenig zu tun, bzw. ist die Höhe der Auflösung nur ein recht geringer Teil, der den Speicherverbrauch ausmacht.


"Praxisberichte"... Mit anderen Worten: Für Gamer gut genug.
Gamerhardware, die gerade mal für Benchmarks hinreichend ist, hatten wir von VIA früher auf den Mainboards hinreichend häufig. War hat es gebracht? Abstürze, Bluescreens, unerklärliche Ruckler hier und da, etc.

Eine Graka, da sind wir uns ja schon lange einig, funktioniert mit 16x Bandbreite und auch mit 8x wunderbar. Die letzten paar Prozent, egal ob es nun 4 oder 10 sind, merkt man in der Praxis eh nicht.

Wenn man jedoch die Wahl hat zwischen "echten" Slots und "geswitchten", dann ist die Wahl doch nicht wirklich schwierig.
Das ist vllt deine Sicht der Dinge, ich hatte damals absolut überhauptkeine Probleme mit den Boards mit VIA KT133, KT133A sowie KT333er Chipsätzen. Keine Abstürtze/Bluescreens oder weis der Teufel.

Zum letzten, das ist halt so ne Sache, soweit ich gelesen hab ist das Board schon über EATX groß, sprich breiter als EATX als Standard besagt. Klar könnte man hier einfach mehr echte PCIe Lanes zur Verfügung stellen und das würde in einigen Anwendungsbereichen auch Sinn machen, aber eben nicht wirklich in dehnen, für das das Board gebaut wurden ist...
Von der Boardgröße mal ganz zu schweigen. ;)

Sagte ich doch: Für Gamer ist das teil interessant - ENDE der Auflistung.

Jo, aber Grafikkarten werden nunmal auch immer schneller und beanspruchen somit immer mehr Bandbreite.
Kaufst Du ein dual-CPU-System, damit es "heute gerade eben" ausreicht, oder damit Du auch morgen noch ganz gut damit fährst? (Sofern man es vorhersehen kann)
Auch wenn GPUs immer schneller werden ändert das nix an der Tatsache, das im Schnitt über die Games die Bandbreite von PCIe eher zweitrangig ist. Man verliert durch weniger Bandbreite nicht wirklich viel. Das wird sich mit neueren GPUs auch nicht ändern.


GPU-Testrechner interessieren mich so überhaupt nicht. ;) Außerdem wird NIEMAND aus einem Fileserver einen Testrechner stricken. Und wenn, dann braucht er weder das eine, noch das andere. Einen Server reißt man nicht einfach ab, da man gerade eine Bastelkiste für Tests benötigt.
Ein Server ist aber nur die Software, der Unterbau spielt da gar keine Rolle. Zumahl ich nirgends was von Produktiveeinsatz gesagt hab. Du willst nicht wissen wie oft ich schon bei mir die Rechner auseinander gerissen hab um sie dann wieder neu aufzubauen...


Gerade hattest Du noch vom Fileserver gesprochen...
Ich schrieb Fileserver in Anführungsstrichen ;)
Auch war es nur ein Beispiel...

Lassen wir's gut sein. Wie schon vor drei Beiträgen, akzeptiere ich dieses Board für OCler und extreme Hardcore-Gamer durchaus. Darüber hinaus werde ich es jedoch nicht schönreden.

Es ist wohl kein stück Schrott, wie Boards von einigen anderen billigheimern, aber es ist eben doch nur für einen gewissen Einsatzzweck "optimal".

Schönreden muss man da gar nix. Aber genau so wenig kann man Gegebenheiten akzeptieren ohne hier Negatives rauszupicken.
Wie gesagt, keiner streitet ab, das es mit echten PCIe Lanes auch machbar wäre. Aber das bringt eben noch weitere Dinge mitsich, die man erstmal unter einen Hut bekommen muss.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ derGostrider & fdsonne

Eijeijei, und ich dachte ich würde immer ausholen. Thx, für die unterhaltsame Diskussion. :)

Einige Kleinigkeiten hätte ich da noch.

Für Gamer ist das teil interessant - ENDE der Auflistung.

Im Prinzip ist das Teil nicht mal für Gamer interessant.

- Die höhere CPU-Gesamtleistung kann von Spielen nicht umgesetzt werden. Das gilt zudem auch für die Rambandbreite und die Ramgröße.

Das Board ist auch für die meisten Benchmarkrekorde unbrauchbar, die meisten Anwendungen der Overclockingszene unterstützen ja oft nicht mehr als 4-6 Threads.

Ich sehe hier einzig den Anwendungsbereich in CPU-Rechenintensiven Profianwendungen. Ich wüsste also zum Beispiel nicht, was dagegen sprechen sollte auf das Board ne Quadro zu schnallen und das Teil mit zwei übertakteten Prozessoren für CAD, 3D, HD Video, etc. zu nutzen.

Jo, aber Grafikkarten werden nunmal auch immer schneller und beanspruchen somit immer mehr Bandbreite.
Schon richtig, aber sie bekommen auch immer mehr Grafikkartenspeicher zur Seite gestellt. Ich bin mir also nicht sicher, ob die Anzahl der Zugriffe auf den PCI-E Bus insgesamt gesehen so stark zugenommen haben in den letzten Jahren.

Dass das hier nicht das WS/Server Traummainboard ist, steht denke ich außer Frage. Allerdings tritt EVGA auf dem Markt auch nicht gegen dieses Ideal an, sondern nur gegen die verfügbaren Boards und die haben ja bekanntlich auch das eine oder andere Manko. ;)

Für alle die nicht übertakten wollen ist das Board selbstverständlich auch unnötig, da zu teuer im Vergleich zur Konkurrenz.

Es stellt sich mir also die Frage nach der Relevanz des diskutierten NF200/ Bandbreitenproblems, für die paar Käufer des Boards. Meines Erachtens fällt das nicht sonderlich schwer ins Gewicht. :)
 
Zuletzt bearbeitet:
Schon zusammengefallst, Agent500!

----------

Ein Server ist aber nur die Software, der Unterbau spielt da gar keine Rolle.
Das ist ja sowas von falsch.
Wer so im Unternehmen Server betreibt, fällt mit Schwung und Recht auf die Nase. Ein richtiger Server ist 24/7 verfügbar und braucht auch eine angemessene Hardwareausstattung, die eben genau dies gewährleistet.
Bei Serverchipsätzen merkt man auch im Betrieb, daß diese irgendwie "runder" laufen, als die meisten Desktop-Varianten. Gut, die letzten High-End Chipsätze (X48, etc) für Desktops sind so nah an den Servervarianten, daß das nicht großartig ins Gewicht fällt, aber vor allem bei den vergangenen Generationen der AMD, nVidia und VIA-Chipsätze war der Unterschied zu den Serverchipsätzen spürbar.
Die Desktop-Chipsätze sorgten für maximale Benchmarkwerte, die Server-Chipsätze boten die maximale Bandbreite, was sich so bemerkbar machte, daß die Rechner unter hoher Last immernoch besser bedienbar blieben und einfach eine konstantere Leistung brachten, ohne merkwürdige kleine Einbrüche.
Zudem werden teilweise auch Komponenten auf den Mainboards für ihre Verwendung hin selektiert:
Siehe auch Desktop-Festplatten. Optimiert für 6 bis 7h täglichen gebrauch.
Das erste mal öffentlich bekanntgegeben hatte es damals IBM, als die DTLA massenhaft gestorben ist. Wer etwas rechnen kann, sieht es aber auch an den MTBF und AFR Raten. Daraus kann man nämlich schön errechnen, wieviele Betriebsstunden der Hersteller annimmt. Eben dafür sind dann auch die Lager ausgelegt.

Bei Mainboards sind es im direkten Vergleich natürlich keine beweglichen Teile, sondern z.B. die Kondensatoren. Von BIOS und Chipsätzen mal ganz zu schweigen.

Wer eine Desktopkrücke Server nennt, nur da dort seine Dateien rumliegen, hat noch nie anständig mit Servern in einem Unternehmen gearbeitet.

Redundante Netzteile sind z.B. "üblich" - auch die gehören zur Hardware eines Servers hinzu.


---

Und VIA KT-Serie: Da kann man sehen, was passiert, wenn man eben nur Desktop-Hardware betreibt. Ich habe damals einen Hardware-RAID-Controller (3Ware 7850) auf solch ein Board gesteckt und mußte mit erschrecken feststellen, daß der PCI-Bus bei rund 72MB/s dicht machte. Beim Hersteller habe ich auch nachgefragt, wodran das denn liegen könne und die waren sogar erstaunt, daß ich doch so hohe Werte erreicht habe...
Darauf hin habe ich mir ein Tyan Tiger S2466MPX geholt. Direkt nach dem Boardtausch, also ohne Neuinstallation oder sonst etwas, war die Transferrate sofort auf 160MB/s angestiegen - zugegebener Maßen auf einem 64bit PCI-Slot, sonst wäre das natürlich nicht möglich gewesen.
Die wenigsten Boards haben über den PCI-Bus wirklich viel mehr transferieren können. Einige spätere Intel-Chipsätze lagen bei guten 100MB/s. Es gab auch sinnfreie Möglichkeiten die zwar die maximale Transferrate noch etwas erhöhten, aber dafür die Latenzen ebenfalls.

VIA hat es beim KT-400 (oder war's erst der Nachfolger?) ja sogar selbst zugegeben, daß ALLE vorherigen Chipsätze der KT-Baureihe ab KT-133 schwerwiegende Bugs im PCI-Bus hatten.
Es war also auch kein einfaches Problem eines schlecht installierten Systems oder ähnliches.

Das der Bus dazu (oder auch deswegen?) noch furchtbar langsam war, war halt so und ist leuten mit Desktop-Hardware so oder so nicht aufgefallen. Wie denn auch, man konnte es ja nicht überprüfen. Und das wiederholte Knacksen in der Soundausgabe, was viele User bei sich hatten, das war halt so und wurde gern auf Creative geschoben.

---

BTW: Das Supermicro X8DAH+ hat auch Übergröße. Ich habe an meinem Gehäuse genug geflext um das beurteilen zu können.
Die Größe liegt aber nicht an der Anzahl der verfügbaren Lanes, sondern an der Anzahl der Erweiterungsslots, der Anzahl der RAM-Bänke und der beiden Intel-Chipsätze.
Gut, die beiden NF200 verbrauchen auch Platz, das sollte sich grob in der Waage halten. Man könnte also, nur für den Platzfaktor, die NF200er durch einen IOH-36D ersetzen und wäre dann grob beim gleichen Platzbedarf. Das das geht zeigt Supermicro ja bei seinen Boards und ist somit keine bloße Vermutung.

---

Bezüglich CAD und Quadros:
Wer sich Grafikkarten für über 1500 Euronen das Stück leistet, eventuell dann sogar die 5800er für 3k€, der wird wohl kaum sein Anrecht auf Support durch Übertakten wegwerfen, oder?
Da wird dann eh auf "vielen Kernen" gerendert anstatt wenige durch OC hochzuprügeln. Solche Hardware sollte man zudem ehr in Produktivsystemen finden, bei denen ein eventueller Ausfall wesentlich schlimmer wäre als ein paar Prozent, die man durch's OC herausholen könnte.
Wenn es dann dermaßen auf die Leistung ankommt, dann stellt man sich lieber noch einen weiteren i7er (Desktop-Rechner) mit dem Client zum Rendern im Netzwerk und erhält so wesentlich mehr "sichere" Leistung als die Systemstabilität zu gefährden.

OC im Unternehmen ist unverantwortlich auf produktiven Systemen.

Ja, man kann damit glück haben, aber das Risiko ist unverhältnismäßig hoch und wenn der Rechner dann nach 4 oder nach 6 Monaten reibungslosem Betrieb "hier und da" rumzickt, dann weiß niemand mehr, woran es liegen könnte. Ein Totalausfall ist natürlich das schlimmste Szenario und kostet dann u.U. mehr, als ein komplettes System.
Soetwas kann zumindest ich niemals rechtfertigen, vor allem nicht durch 5% oder 10% mehr Rechengeschwindigkeit, die auch (meistens) anders erreicht werden könnten.
 
@ der Ghostrider

Zitat: Ein Server ist aber nur die Software, der Unterbau spielt da gar keine Rolle.

Das ist ja sowas von falsch.

Ich glaube fdsonne meinte das eher als grundlegende Definition, nicht als sinnvolle Umsetzung in der Realität.

Bsp. Grundsätzlich könnte man jedes Auto Rennwagen nennen, wenn man damit Rennen fährt, ob das sinnvoll ist, steht dabei nicht zur Diskussion, genauso wenig die Geschwindigkeit oder Leistung. ;)

Bei Mainboards sind es im direkten Vergleich natürlich keine beweglichen Teile, sondern z.B. die Kondensatoren. Von BIOS und Chipsätzen mal ganz zu schweigen.

Wenn du so anfängst, sehen die meisten anderen aktuellen i5520/ i5550 Boards aber eher schlechter und unsolider aus, als das EVGA.

OC im Unternehmen ist unverantwortlich auf produktiven Systemen.

Kommt aufs OC an, wenn man 10-20% unter dem Limit bleibt, wird auch 365 Tage im Jahr lang genauso wenig passieren wie sonst auch. Wieso sollte auch was passieren, ist ja einzig und allein eine Sache von Temeratur und Spannung, das hat man ja ruckzuck getestet. ;)

Wer sich Grafikkarten für über 1500 Euronen das Stück leistet, eventuell dann sogar die 5800er für 3k€, der wird wohl kaum sein Anrecht auf Support durch Übertakten wegwerfen, oder?

Ich bezog mich auch mehr auf Leute, die das Board privat nutzen und CAD, 3D, etc. als Hobby betreiben oder Arbeit mit nach Hause nehmen. Das ich nachweißlich die Garantie von irgendeinem Hersteller verlieren soll, weil ich übertaktet habe, sollte wohl schwer nachzuweisen sein. ;)

Zudem habe ich in über 10 Jahre noch nie etwas durch Übertaktung gekillt, noch ist mein System bei Belastung in Folge von Overclocking, nach finaler Einstellung, auch nur einmal abgestützt. Also es gibt überhaupt keinen Grund zur Panik dahingehend. Man muss nur wissen wann Schluß ist.


@ fdsonne
ich hatte damals absolut überhauptkeine Probleme mit den Boards mit VIA KT133, KT133A sowie KT333er Chipsätzen. Keine Abstürzte/Bluescreens oder weis der Teufel.

Das sehe ich auch so, der Ruf war weit schlechter, als die Realität. Ich hatte da ebenfalls überhaupt keine Probleme.

@ derGhostrider

Welches Via Board hast du denn für diesen Test genutzt?

Gamerhardware, die gerade mal für Benchmarks hinreichend ist, hatten wir von VIA früher auf den Mainboards hinreichend häufig. War hat es gebracht? Abstürze, Bluescreens, unerklärliche Ruckler hier und da, etc.

Naja, deine Aussage war schon im Bezug aufs ganze Mainboard zu verstehen, jetzt mit deinem Raidcontroller Spezialfall zu kommen und VIA deswegen im Nachhinein komplett zu verteufeln halte ich für recht sinn frei.

Aber im Prinzip kommen wir hier auch nicht weiter. Ich werde mir bei halbwegs akzeptablem Preis das Mainboard mal zum Spaß holen und ich weiß da bin ich nicht alleine hier im Forum. :d

Schließlich sieht es zumindest so gut aus, dass es eine Chance verdient hat. ;)
 
Ogottogott habt ihr viel geschrieben.. ;)

Also mein Beitrag war auch nicht abwertend diesen "Bastelsystemen" gg.-über gemeint. Denn damit würde ich mir ja selbst ins Bein schießen *gg* .. auch bei uns konnte ich solch ein System durchsetzen und damit verhindern dass für fast das gleiche Geld nur eine kleine NAS-Box gekauft wird.

Sicher wird in diesen Bereichen vorwiegend auf Stabilität geachtet und OC spielt keine Rolle. Aber trotzdem, das System muss ja nicht zwingend instabil sein mit dem EVGA-Board und wenn man dadurch die Möglichkeit hat seltene Peaks besser (oder kostengünstiger) abzufedern... warum nicht?
Teilweise ist die Einstellung schockierend tolerant gg.-über "den Computersystemen" ... "dann isser halt kurz mal wech .. na und?" :haha:
 
Hier nochmal zum EVGA Board...
Mir sind grad zwei Bilder inkl. Kühllösung über den Weg gelaufen:
w555_angle204nzx2.jpg

w555_top5adb.jpg



Mir scheint aber so, als würde ich das überbreite EATX Board nicht in den Mesh Midi reinbekommen...
Da ist knapp 1cm nach EATX Breite schluss... :(
 
Zuletzt bearbeitet:
Ich hab ehrlich gesagt nicht den Eindruck, dass das übergroß ist. Es scheint mir nur so, dass die die Befestigungslöcher anders platziert haben, um ATX kompatibel zu sein.
 
Es ist EATX + ca. 2-4cm mehr in der Breite :(

Im vergleich zum normalen EATX Board ist beispielsweise das Loch oben Rechts am rechten CPU Sockel genau das Loch, was beim normalen EATX Board direkt oben rechts in der Ecke sitzt. Bei normalem EATX ist direkt neben dem Loch das Board zuende, wohingegen beim EVGA Board noch gut 2-4cm Platine kommen...

Was aber auch noch auffällt, irgendwie fehlen in der Mitte des Boards jegliche Haltelöcher, sprich man sollte wohl beim Einbau von weiteren Speicherriegeln sehr vorsichtig sein, genau so wie beim tauschen der CPUs wärend das Board im Case verschraubt ist, damit man nicht Gefahr läuft, Haarrisse in den Leiterbahnen durch übermäßiges Biegen zu riskieren ;)
 
Ich hab das Foto ausgemessen - das Verhältnis von Länge zu Breite stimmt mit normalem EATX überein. Lassen wir uns überraschen, wenn es auf den Markt kommt ;)

Und vielleicht haben die ja - wie bei einigen Intel Boards - Gummipuffer drunter :)
 
Ich hab das Foto ausgemessen - das Verhältnis von Länge zu Breite stimmt mit normalem EATX überein.

Da wohl noch einer die Idee. :bigok: Zu dem Schluß kam ich auch.

Das EVGA ist höchstens minimal größer als z.B. das D12X. Man kann es gut an den Rambänken abschätzen. Aber 2-4cm halte ich für viel zu viel.

Die Löcher sehen mir irgendwie nach ATX aus? :hmm:
 
Zuletzt bearbeitet:
So ich hab das jetzt mal genauer untersucht...
Das Board ist nicht nur breiter, sondern auch höher ;)
Was wiederum erklärt, warum das Seitenverhältniss ziemlich identisch ist.

Und zwar zeigt sich das wie folgt...
Bei ner Standard ATX höhe passen genau 7 Slots PCI, PCI-X, PCIe oder AGP (also alle, wo die Karten mit dem Rücken nach oben hängen) übereinander. Mehr geht nicht.
Auf dem Board ist aber noch weitaus mehr Luft zwischen dem obersten Slot und der Unterkante der ATX Blende.
Ich hab das mal farbig gekennzeichnet:
w555_top5adbq28k.jpg


Türkis sind die beiden potentiellen Slots, die man freilässt um andere Bauteile zu verbauen. Da dennoch 7 Slots vorhanden sind, sind diese etwas nach unten gerutscht...

Grün markiert hab ich die eigentliche in etwa Standard Abmessung von nem herkömmlichen EATX Board. Man sieht, das Board ist sowohl höher, als auch breiter. ;)

Es dürfte wohl also weit aus schwieriger sein ein passendes Case zu finden als gedacht. Denn die Breite ist ja in einigen Cases noch zu holen, aber die Höhe wird schwer... Zumahl es wie sonst üblich bei Quad Sockel Boards nicht über der ATX Slotblende ansetzt sondern unüblich unten drunter. Man brauch also ein Case was in der Höhe zwischen ATX Slotblende und Gehäuseboden ca. 2-4cm mehr hat als üblich... Obs sowas gibt, keine Ahnung :fresse:

Und hier im Vergleich dazu mal ein EATX Board mit den gleichen Schraubenlöcher markierungen wie das EVGA ;)
rev-tyan5000-xboardlg52q7.jpg


Das EVGA ist höchstens minimal größer als z.B. das D12X. Man kann es gut an den Rambänken abschätzen. Aber 2-4cm halte ich für viel zu viel.

Gerade an den RAM Bänken sieht man doch hervorragend das das Board überbreit ist ;)
Schau dir doch mal die RAM Slots auf dem D12X an, dort sind die oberen Slots direkt hinter den I/O Anschlüssen angebracht. Beim EVGA ist da ein haufen Luft.
Wie beim D12X überlappen sich die RAM Slots beim EVGA minimal (also oberen und unteren Slots) aber beim D12X ist hinter den unteren Slots direkt das Board zuende, was beim EVGA auch nicht der Fall ist, da sind noch gut 2cm mindestens Platine dahinter ;)
 
Ich fürchte, Du hast Recht. Das ist dann das neue Monster-ATX Format ;)
Wir sollten schonmal frühzeitig auf die Suche nach nem passenden Gehäuse gehen.
 
Joa, sag ich doch... ;)

Nur mir ist aus dem Hut raus keins bekannt, zum Glück brauchen die S1366er Boards keine Haltelöcher für die Kühler :fresse: sonst wäre das vllt noch aussichtsloser...
Aber auch so ist das mal gegen jeden Standard... Hätten die doch lieber wie bei den Quadsockel Boards üblich oben was dran gepackt und nicht unten... Das ist mal fern von jeglichem Standard...

Aber bis das Board kommt ist ja noch bisschen Zeit. Ich denke mal ich werd mich anfangs mit einem X5650er Xeon zufrieden geben, dazu 6x2GB DDR3 Speicher, mal gucken vllt irgend so ein OC RAM, der dann bei humanen Takt auch sehr sehr niedrige Timings mitmacht ;)
Hauptsache die Kiste lässt sich anständig OC'en, angepeilte 4GHz sollten denke ich mit Luft bei den 32nm CPUs doch schon drin sein, zumindest schaffen das die ES Hexacores aufm Desktop Sockel ja auch ungefähr...
 
@ fdsonne

Mhhh du hast wirklich Recht. :bigok:

Verdammt, was muss das Board auch so groß sein, dann hoffe ich mal das Asus sich erbarmt und ein E-ATX Workstationboard mit OC-Funktion veröffentlicht. :d Dann kann mich das EVGA mal.

36758_large.jpg
 
Das wäre natürlich Super wenn Asus da was bringt, aber scheinbar ist ja bis jetzt nix in Planung, oder die Hüten ihr Geheimniss gut...

Man müsste mal in Erfahrung bringen wie gut sich das Z7S verkauft hat... Im Gegensatz zu den anderen Asus Boards mit ähnlicher Ausstattung und ähnlichem Preis.
Kann mir aber gut vorstellen Asus hat daran eher wenig bis nix verdient...

Wobei gerade Asus doch eigentlich der Ideale Partner für so ein Board wäre... Die haben doch damals auch das Dual Sockel Athlon Board gebracht mit den beiden Athlon FXen für den Desktop, der gegen die Core2Quad CPUs antreten soll. Quasi als einzigster AMD Partner...
 
Joa, sag ich doch... ;)

Nur mir ist aus dem Hut raus keins bekannt, zum Glück brauchen die S1366er Boards keine Haltelöcher für die Kühler :fresse: sonst wäre das vllt noch aussichtsloser...
Aber auch so ist das mal gegen jeden Standard... Hätten die doch lieber wie bei den Quadsockel Boards üblich oben was dran gepackt und nicht unten... Das ist mal fern von jeglichem Standard...

Aber bis das Board kommt ist ja noch bisschen Zeit. Ich denke mal ich werd mich anfangs mit einem X5650er Xeon zufrieden geben, dazu 6x2GB DDR3 Speicher, mal gucken vllt irgend so ein OC RAM, der dann bei humanen Takt auch sehr sehr niedrige Timings mitmacht ;)
Hauptsache die Kiste lässt sich anständig OC'en, angepeilte 4GHz sollten denke ich mit Luft bei den 32nm CPUs doch schon drin sein, zumindest schaffen das die ES Hexacores aufm Desktop Sockel ja auch ungefähr...

Mir ist aber glaub ein Gehäuse bekannt ;)

Lian Li PC-P80

http://lian-li.com/v2/tw/product/upload/image/P80/0P80f02.jpg

und sogar noch eines:

Lian Li PC-A77

http://lian-li.com/v2/tw/product/upload/image/A77/a77f03.jpg

das hat 10 Slots in der Höhe und in der Breite kann es mal E-ATX. Siehe Bild. Und nach Rechts hats auch noch bissel Platz.

Weil man kann jeweils das Netzteil über bzw unter dem Board einbauen ;)

Feichti
 
Zuletzt bearbeitet:
Das wäre natürlich Super wenn Asus da was bringt, aber scheinbar ist ja bis jetzt nix in Planung, oder die Hüten ihr Geheimniss gut...

Man müsste mal in Erfahrung bringen wie gut sich das Z7S verkauft hat... Im Gegensatz zu den anderen Asus Boards mit ähnlicher Ausstattung und ähnlichem Preis.
Kann mir aber gut vorstellen Asus hat daran eher wenig bis nix verdient...

Wobei gerade Asus doch eigentlich der Ideale Partner für so ein Board wäre... Die haben doch damals auch das Dual Sockel Athlon Board gebracht mit den beiden Athlon FXen für den Desktop, der gegen die Core2Quad CPUs antreten soll. Quasi als einzigster AMD Partner...

Asus wird sich hüten.. die Ausfallquote des Z7S WS war teilweise katastrophal, jedenfalls bei allen, die es 24/7 load gefahren haben (--> DC). Ich bin aktuell bei meinem 3. oder 4. Board, hab aufgehört zu zählen.. und ich bin nicht der einzige :kotz:

Nice find @ Feichti, ins A77 kriegt man auch ganz gut ne Wakü rein :xmas:
 
@ jcool

Asus wird sich hüten.. die Ausfallquote des Z7S WS war teilweise katastrophal
Naja, warten wir mal auf die Ausfallquote des EVGA. :d

Mein Z7S WS und auch das vom Kullberg lief ja nach dem ersten Biosupdate wunderbar. :)

Wenn die ganzen 24/7/365 Loaduser dann das EVGA nutzen, gibts doch gar kein Problem, also Asus worauf wartet ihr noch? Ich mag ein Z8S WS haben oder D12X WS würde auch passen. :)
 
Wunderbar? Ist das ein Witz? :fresse:
Das Bios vom Z7S WS ist heute noch katastrophal verbuggt. Versuch doch mal, die Vcore bei E0 CPUs manuell zu setzen, oder 1,4V NB Spannung zu geben.. richtig, gibt keinen Post.
Etc pp.

Na egal.. :btt:
 
Zuletzt bearbeitet:
@ jcool

Einwandfrei? Ist das ein Witz?
Da steht wunderbar nicht einwandfrei. ;)

Ob die 1,4V nun soviel gebracht hätten? E0 CPUs waren auch eher ne Ausnahmeerscheinung. Aber du hast natürlich Recht, perfekt war das Board nicht, aber kein Grund beim nächsten Mal die Sache nicht besser zu machen. :)
 
...das Du auch immer das letzte Wort haben musst Nick :xmas:

Jedenfalls, ich glaubs nicht dass sich Asus traut was dagegen zu setzen. Aber wir werden sehen, wer Recht behält ;)
 
Ich weiß nur, das das Intel Skulltrailboard sich extrem schlecht verkauft hat - obwohl ich 2 davon hatte ;) Dem Z7S dürfte es nicht viel besser ergangen sein (obwohl ich davon auch 2 gekauft habe).
 
Jedenfalls, ich glaubs nicht dass sich Asus traut was dagegen zu setzen.

Seit wann sind Managemententscheidungen rational? ;)

Also wenns nach Asus geht, denke ich, müssen sie nix "dagegen setzen" leicht drunter reicht auch. Irgendwo findet das Marketing doch immer eine Lücke. :bigok: Wie kann man sonst 69 Boards für den Sockel 775 DDR2 anbieten? :d

Ein D12X mit nem stabilen Bclk bis 210MHz und Möglichkeiten der CPU-Spannungsanhebung, mehr USB Steckplätze + 2 x USB3.0, Sound onboard, nen schwarzes PCB, 6 PCI-E Steckplätze, diagnose Anzeige, Fire-Wire und fertig ist das Teil. Ich brauch weder SLI, noch 4 x 16 PCI-E Lanes, noch Saft für 300W CPU-Verlustleistung.
 
Zuletzt bearbeitet:
Ich hab noch negative Erfahrungen mit 2 Tyan Boards zu berichten:

S7002G2NR-LE
S7002AG2NR

Beide zicken rum, wenn beim Booten Last auf nem USB Anschluss ist. Passiert ist mir das mit 2 unterschiedlichen KVM Switches.
Die Boards starten dann nicht und es leuchtet am hinteren Rand des Mobos eine blaue LED. Wenn man das USB Kabel abzieht, starten die Boards wieder, aber das CMOS ist völlig gelöscht :(
Bei einem meiner KVM Switches passiert das bei jedem Start (der liegt jetzt wieder im Regal - mit anderen Boards - Asus, Supermicro - läuft der aber einwandfrei). Beim anderen KVM Switch passiert das manchmal, wenn andere daran angeschlossene Rechner schon an sind. Dieser KVM Switch nervt aber, weil er mehrere Sekunden zum Umschalten braucht (Aten CS1784).

Mit dem S7002AG2NR gibt es noch ein Problem: der Rechner geht einige Sekunden nach dem Ausschalten von allein wieder an (liegt nicht an den BIOS Einstellungen - die sind alle korrekt). Vielleicht verträgt sich das Board nicht richtig mit dem Seasonic S12D 750W.
 
Seltsam - ich hab auch beide Boards (GENAU diese) auch an nem Aten DVI/USB KVM-Switch, keinerlei Probleme :fresse:
Allerdings hatte ich ein (defektes?) S7002G2NR-LE, das sich auch sofort von selbst eingeschaltet hat, nachdem man das Stromkabel mit dem NT verbunden hat - hat auch jedes mal das CMOS gelöscht bei Wegnahme vom Strom. Habs eingeschickt zu Tyan und ein anderes bekommen, Problem weg.
 
Es mag vielleicht daran liegen, dass die Rechner an unterschiedlichen Phasen hängen. 1 16A Stromkreis reicht nämlich hier nicht aus. Ich musste für die 2. USV ne Leitung vom Zimmer meiner Tochter legen - und die hat ne andere Phase.
Das S7002AG2NR funktioniert ansonsten - nur muss man halt, wenn es sich wieder angeschaltet hat, 4 Sekunden den Ausschalter drücken.
 
Ich hab hier auch 2 verschiedene Stromkreise :fresse:
Echt seltsam das ganze.. mein Switch ist der Aten masterview CS-1764
 
Der Aten geht ja - meistens. Mit nem Intellinet gehen die Tyans nie.
Die anderen 8 Rechner hab ich an nem Uniclass - da hat der einzige Rechner mit nem S7002 bisher nur einmal versagt, der mit nem S7025 noch nie. Der Workaround ist der, die Rechner mit Tyan Boards zuerst einzuschalten - dann startet alles. Nervt aber trotzdem :(
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh