Dual XEON 12-Core (Sockel 2011): bitte checkt mal ob die Zusammenstellung funzt. thx!

Dann rechnet man halt nach Speicheraustausch nochmal.

Genau das kann aber richtig kosten - mehr als die paar Kröten Aufpreis. Ich wiederhole mich gerne, die ganze Argumentation ist für die Tonne. Ein paar Euro sparen, um dann Rätselraten spielen zu dürfen?

Nicht jeder Speicherfehler manifestiert sich in Programmabstürzen oder (sofort) sichtbaren Fehlern. Genau das ist nämlich der Punkt, den Kollege Romsky hier so geflissentlich außer Acht lässt. "Ich sehe nix, also ist nix" kanns ja wohl nicht sein. Gerade wenn man Daten für andere verarbeitet, gebietet es die Professionalität, dass man alles tut, um Fehler zu vermeiden.

"Sorry, ich hab 10 Euro am RAM gespart, darum sind Ihre Daten jetzt fehlerhaft." Na viel Spaß.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jetzt macht mal nen Punkt...
Die überwiegende Mehrheit aller PCs dürfte wohl nach wie vor mit non ECC RAM arbeiten. Darunter fallen alle erdenklichen Kisten die simpel und einfach nur im Büro als "Arbeitsmittel" benutzt werden...
Wäre non ECC RAM so extrem fehleranfällig, wie er hier gemacht wird, wäre das ein absolutes Unding, speziell bei Geräten für die Arbeit auf non ECC zu setzen. Macht aber jeder... -> finde den Fehler!?
Es besteht ja oftmals nichtmal die Möglichkeit, auf ECC RAM zu setzen... (Notebooks beispielsweise, die im OEM Bereich immer mehr den klassischen Desktop PC verdrängen)

Auf deutsch gesagt, man kann es auch übertreiben. :wink:
Der Vorteil ist klar vorhanden durch ECC, das heist aber lange nicht, das es zwingend ein MUSS ist, so wie es hier hingestellt wird. Wer mit dem Risiko leben/arbeiten kann/will, der soll das auch tun. Daran ist absolut nichts verwerflich... Zumal man sich dem Umstand idR ja bewusst ist.


Und schlussendlich stellt sich mir hier sowieso die Frage, warum ihr euch hier die Köppe einhaut, wegen dem sche... ECC oder nicht ECC.
Da fallen mir als erstes erstmal zwei ganz andere Punkte auf, die deutlich wichtiger erscheinen als ECC oder non ECC:
- Einsatz im Businessumfeld: -> "Bastelfrucke" ohne jeglichen Support!?
- irgend so ein OSX Hack!?
 
jetzt macht mal nen Punkt...
Die überwiegende Mehrheit aller PCs dürfte wohl nach wie vor mit non ECC RAM arbeiten.
Ich halte das für einen schweren Fehler. Als Nutzer kann man keinen wesentlichen Vorteil davon auf, wenn der Hersteller auf ECC verzichtet. Der Mehrpreis ist in Relation zum Gesamtpreis des Systems gering, und der Nutzen ist groß. Wenn nur jeder Mitarbeitet im Leben eines PCs auch nur einen durch ECC vermeidbaren Absturz hat, hätte sich der ECC Mehrpreis schon mehr als ausgezahlt.
 
da gebe ich dir natürlich recht... Nur es klingt hier aktuell eher so, als wäre das Arbeiten ohne ECC so gar nicht möglich. Und hier sehe ich eher das "Problem", das so ziemlich jeder PC der irgendwo für irgendwas eingesetzt wird, ohne ECC offenbar fabelhaft auskommt.
Von den möglichen Fehlern wie sie hier angesprochen wurden, scheint also in der aktuellen Praxis wenig bis nichts so extrem aufzufallen, das man dadurch eklatanten "Schaden" erleidet. Und das ist doch der Punkt, wenn in der geplanten Einsatzzeit der Hardware die Funktion zumindest soweit gegeben ist, das kein "Schaden" ensteht, ist das Weglassen von ECC durchaus eine Option.

Man könnte ECC eher als Art Versicherung ansehen. Im Falle des Falles hat man eine Fallebene mehr... Wobei das auch nur die halbe Wahrheit ist. Denn auch ECC RAM Riegel können mal kaputt gehen. Es bleibt also weiterhin eine Risikoabwägung.

Wenn ich das mal bei den Servern bei uns auf der Arbeit betrachte, bis dato hatte ich nur defekte RAM Riegel bei FB-Dimms. Die anderen liefen bis dato (inkl. Überwachung durch ILO/IRMC Interfaces und deren Überwachungsmöglichkeiten) ohne Probleme. Nur sind die FB-Dimms bei mir alle samt so gestorben, das es die ganze Kiste dabei gerissen hat. IdR fing es damit an, das das ILO/IRMC Fehler meldete, binnen kurzer Zeit sich der Riegel aber ganz verabschiedet hat. Das könnte zwar Zufall sein, das alle Server das gleiche Verhalten zeigten, aber bestätigt mir zumindest die Annahme, das ECC nur bedingt das Heilmittel gegen RAM Fehler/defekte ist. ;)
 
Nur es klingt hier aktuell eher so, als wäre das Arbeiten ohne ECC so gar nicht möglich.

Hat nie einer gesagt. Es ging darum, ob man zu teurer Workstation-/Server-Hardware ECC nimmt oder nicht, und dass es größter Unsinn ist, das nicht zu tun.
 
Für eine Workstation oder einen Server würde ich auch ECC speicher empfehlen, aber die Kiste hier soll halt Bilder malen und Videos rechnen und so. Man weiss, wie die Ergebnisse aussehen sollen und man guckt drauf, ob das in etwa hinkommt.Wenn da Fehler auftreten, die stören kan man reagieren.
ECC speicher hilft eigentlich nur dabei zu erkennen, dass ein Problem vorhanden ist. 1Bit Fehler werden korigiert und als Ereignis gelogt, aber das bedeutet nicht, dass multibit Fehler nicht auftreten.
Ich weiss nichtmals ob OSx über ECC korrigierte Fehler irgendwo logt, oder ob man bei der Kiste gezielt im BIOS event log suchen müsste, sofern das vorhanden ist.
Solange man nicht überwacht, ob Fehler entdeckt wurden ist ECC Speicher in meinen Augen unnütz.

Der in meinem Weltbild vorhandene Adobe affine content creator wird seine Zeit eben nicht damit füllen Logs auf möglicherweise aufgetretene Fehler zu durchstöbern sondern content kreieren, bis ein Fehler auftritt den er bemerkt und sich erst dann mit technischen Problemen auseinandersetzen.
 
Hat nie einer gesagt. Es ging darum, ob man zu teurer Workstation-/Server-Hardware ECC nimmt oder nicht, und dass es größter Unsinn ist, das nicht zu tun.

Wie gesagt, es klingt vom lesen so... Zumindest habe ich den Eindruck wie ich hier die Diskusion lesend mitverfolgt habe.
Ich würde auch primär auf ECC setzen, sofern es mir nötig erscheint. Nur aus meiner Sicht ist diese "Notwendigkeitseinschätzung" sehr variabel vom Einsatzzweck abhängig...
Und bei der Diskusion hier springen mir auf den Einsatzzweck im Firmenumfeld primär andere Punkte ins Gesicht, die dem Vorhaben selbst eher als KO Kriterium entgegen stehen. Beispielsweise die Bastelfrucke ohne Wartung. Und noch viel schlimer, "OSX Hack"...

Das sind aus meiner Sicht Punkte die viel eher zur Debatte stehen sollten für eine triviale Kaufberatung anstatt die Diskusion über ECC oder nicht ECC.
Wo man zwar über das erste durchaus noch streiten kann ist das zweite definitiv kritisch ;)
 
da gebe ich dir natürlich recht... Nur es klingt hier aktuell eher so, als wäre das Arbeiten ohne ECC so gar nicht möglich. Und hier sehe ich eher das "Problem", das so ziemlich jeder PC der irgendwo für irgendwas eingesetzt wird, ohne ECC offenbar fabelhaft auskommt.
Tun sie das wirklich? Wie oft werden Speicherfehler als irgend welche Softwarefehler interpretiert?

Denn auch ECC RAM Riegel können mal kaputt gehen. Es bleibt also weiterhin eine Risikoabwägung.
Bei ECC Module bekomme ich das wenigsten mit, was bei nonECC erstmal nicht der Fall ist. Da wundert man sich erstmal lange über Instabilitäten, sucht nach vermeintlichen miesen Updates etc. Wer denkt denn bei einem sporadisch auftretendem Absturz an ein kaputtes RAM Modul?

Das könnte zwar Zufall sein, das alle Server das gleiche Verhalten zeigten, aber bestätigt mir zumindest die Annahme, das ECC nur bedingt das Heilmittel gegen RAM Fehler/defekte ist. ;)
Wir haben am laufenden Band Speicherfehler die korrigierbar sind, unter anderem motzen auch die CPUs und die Northbridges herum. Man braucht einfach nur hinreichend viele Server damit man das Problem häufiger sieht. Speichermodule müssen wir auch regelmäßig tauschen, wenn auch selten.
 
kel 2011): bitte checkt mal ob die Zusammenstellung funzt. thx!

Ist das nicht völlig offtopic und irrelevant? Du siehst es so und andere eben anders. So lange keiner mit seinen weg Probleme hat.... "Who cares"?
 
ckel 2011): bitte checkt mal ob die Zusammenstellung funzt. thx!

Ich bleibe garnichts schuldig. Nur interessant wie du deine Meinung als Referenz definierst. Ich hängte mich nur ein weil ja gemeint wurde wenn xeons dann nur ECC und das halte ich nach wie vor lächerlich. So Thats it. Meine Meinung/Erfahrung kennst du... Werde mich dazu nicht mehr äussern.
 
nur mal so als lustigen vorschlag in die runde geworfen: warum nicht einfach n ivy-e system dem TE vorschlagen?
ist leicht OT geworden wenn ich das mal so sagen darf ^^
 
Ich bleibe garnichts schuldig.
Doch das tust Du. Es gibt wissenschaftliche Untersuchungen zu diesem Thema, die ganze eindeutig belegen, daß Du Unrecht hast. Wenn Du also nicht als Spinner abgetan werden willst, wäre es sinnvoll die "Meinung" auch mit etwas untermauern zu können. Das Du dazu nicht in der Lage bist, war ja zu erwarten.

Eine Referenz in der auch die Forschungsarbeit verlinkt ist: Hauptspeicherfehler sehr viel häufiger als angenommen.
 
(Sockel 2011): bitte checkt mal ob die Zusammenstellung funzt. thx!

Bla bla.... Lass stecken. Denk was du willst. Kleiner Theoretiker mit profilneurose. :o

Das es keine Probleme gibt und seit langen gab ist für mich Untermauerung genug. Nennt sich Praxiserfahrung. ;)
 
Zuletzt bearbeitet:
Tun sie das wirklich? Wie oft werden Speicherfehler als irgend welche Softwarefehler interpretiert?
Aber genau das ist doch das Problem... Man interpretiert viel zu viel.
Wie auch Romsky oben schon bestätigte. Es gibt scheinbar Systeme die mit unter auch 24/7 laufen, wo scheinbar keinerlei Probleme dem Nutzer/Anwender bekannt sind. Sprich keine Abstürze, keine "defekten" Files, keine sonstigen Probleme usw. -> was, so behaupte ich, in der Mehrzahl der normalo Desktop PCs so sein dürfte.

Wenn ich mal auf die letzten 20 Jahre zurück blicke, muss ich ehrlich sagen, das ich erst genau ein einziges Problem mit dem RAM hatte. Und das war wirklich ein defekter Riegel.
In der kompletten Laufbahn, seit ich mit PC Technik hantiere habe ich faktisch absolut keinen Datenverlust gehabt, den man auf RAM Fehler zurückführen könnte (weil es keinen Datenverlust gab)
Es gab keinerlei Abstürze der Hardware, die direkt auf den RAM als Quelle hinweisen würden usw. usf. Sondern wenn "Probleme" dann Gründe wie defekte Hardware (Board, GPU, Prozessor) oder allgemein Instabilitäten durch OC oder Software (Treiber) bzw. irgendwelche Betageschichten.
Was sagt mir das am Ende!? Von der Warte her geht es scheinbar nach Abwägung des Risikos auch ohne ECC ;)

Bei ECC Module bekomme ich das wenigsten mit, was bei nonECC erstmal nicht der Fall ist. Da wundert man sich erstmal lange über Instabilitäten, sucht nach vermeintlichen miesen Updates etc. Wer denkt denn bei einem sporadisch auftretendem Absturz an ein kaputtes RAM Modul?

Wieso wundern? Als geeigneter Administrator von Server Hard- und Software dürfte man durchaus in der Lage sein, derartige Instabilitäten zu Troubleshooten. Und das Problem soweit einzugrenzen, um die vermeindlich Defekte Hardware (sofern sie die Ursache ist) zu finden. Da "wundert" sich niemand über irgendwelche "Updates"...

PS: und gerade bei sporadisch auftretenden Problemen ist oftmals der RAM mit im Spiel ;) Bzw. wird speziell auch im privaten Umfeld aus meiner Sicht der RAM gern mal für diverse Probleme als erste Anlaufstelle rangezogen.
Geht es beispielsweise um ein Windows OS, lässt sich auch sehr sehr viel direkt aus den BSOD Codes und Memory Dumps rauslesen (wenn man des Debugers mächtig ist)
Laut meiner Erfahrung ist es nämlich nicht immer primär ein Hardware Problem, sondern oftmals verursacht die Software Probleme...


Wir haben am laufenden Band Speicherfehler die korrigierbar sind, unter anderem motzen auch die CPUs und die Northbridges herum. Man braucht einfach nur hinreichend viele Server damit man das Problem häufiger sieht. Speichermodule müssen wir auch regelmäßig tauschen, wenn auch selten.

Und hier sehe ich ein Problem mit den Aussagen. Es geht hier um EINE! einzige Kiste. Die wenn ich das nicht überlesen habe, nichtmal 24/7 läuft, sondern bestenfalls wärend der Arbeitszeit, also irgendwo im Bereich 8-10h pro Tag, 5 Tage die Woche mal läuft.
Es geht schlicht nicht um hunderte Maschinen...
Wenn du natürlich derart viel Technik betreust, fällt dir sowas auch in Sachen absoluter Anzahl schneller auf. Aber die absolute Anzahl der auftretenden Probleme ist völlig irrelevant, was wichtig ist, ist die Rellation.

Mal als simples Beispiel.
Angebommen du siehst bei ~360 Systemen pro Tag einem sichtbaren Fehler auf ein Jahr, dann ist der Schnitt 1 Fehler pro Maschine pro Jahr.
Der TE betreibt eine Maschine. Auf ein Jahr hat er einen Fehler. -> Verhältnis ist identisch. Nur wird dir definitiv der täglich auftauchende Fehler deutlich eher zu denken geben, als dem TE bei einer einzigen Maschine!

Eine Referenz in der auch die Forschungsarbeit verlinkt ist: Hauptspeicherfehler sehr viel häufiger als angenommen.

Ich gehe davon aus, das du den Artikel auch gelesen hast ;)
Mir fällt folgendes im konkreten Zusammenhang auf: "Pro Jahr trat bei rund einem Drittel aller Server beziehungsweise bei 8 Prozent aller DIMMs mindestens ein korrigierbarer Fehler auf."
-> Das heist also, bei 8h pro Tag wäre mindestens ein korrigierbarer Fehler in 3 Jahren Nutzungszeit bei 8% der verbauten DIMMs anzutreffen. Bricht man es auf die Anzahl der Server runter -> sinds 2/6. Die anderen vier laufen scheinbar problemlos!

"Wenig überraschend stieg die Fehlerwahrscheinlichkeit auch mit dem Auslastungsgrad des Hauptspeichers, allerdings bei manchen Systemen auch mit der Speichermenge."
-> Heist also, wenn ich mehr Luft in Sachen freiem Space habe, habe ich weniger Fehler... In welchem Faktor das geschieht, ist aber wohl nicht bekannt.

"Der Einsatz von ECC gilt bei Systemen mit vergleichsweise kleinem Hauptspeicherausbau, die diesen zudem nur selten voll ausnutzen und nur wenige Stunden am Tag arbeiten, als verzichtbar – jedenfalls ist unklar, ob Speicherfehler im Vergleich zu anderen Fehlerquellen besonders häufig zu Abstürzen führen."
-> Es ist also auch anhand der Studie noch absolut ungewiss, ob die Speicherfehler überhaupt im Vergleich zu anderen Geschichten von Abstürzen/Problemen usw. merklichen Einfluss haben!


Unterm Strich?
-> um so weniger die Büchse pro Tag läuft, desto weniger effektiven Mehrnutzen habe ich von ECC, da die Warscheinlichkeit der Fehler immer weiter abnimmt.
-> Die Fehlerhäufigkeit verteilte sich sehr ungleichmäßig über die Systeme -> heist also, man kann Glück haben, oder auch Pech.
-> mit freiem Space im RAM habe ich scheinbar auch weniger häufig überhaupt potentiell Fehler.
-> es ist ungewiss, ob die Fehler im RAM überhaupt merklich aus anderen Problemquellen rausstechen.

Darauf aufbauend kann man aus meiner Sicht durchaus eine Risikoabschätzung abwägen. -> und für sich zum Ergebnis kommen, das man ECC definitiv nicht missen will, oder es eben für unnötig erachtet.
 
Es gibt scheinbar Systeme die mit unter auch 24/7 laufen, wo scheinbar keinerlei Probleme dem Nutzer/Anwender bekannt sind. Sprich keine Abstürze, keine "defekten" Files, keine sonstigen Probleme usw. -> was, so behaupte ich, in der Mehrzahl der normalo Desktop PCs so sein dürfte.
Du hast richtigerweise das Wort "scheinbar" anstatt "anscheinend" benutzt, auch wenn das wahrscheinlich nicht mal Absicht war.

In der kompletten Laufbahn, seit ich mit PC Technik hantiere habe ich faktisch absolut keinen Datenverlust gehabt, den man auf RAM Fehler zurückführen könnte (weil es keinen Datenverlust gab)
Es gab keinerlei Abstürze der Hardware, die direkt auf den RAM als Quelle hinweisen würden usw. usf. Sondern wenn "Probleme" dann Gründe wie defekte Hardware (Board, GPU, Prozessor) oder allgemein Instabilitäten durch OC oder Software (Treiber) bzw. irgendwelche Betageschichten.
Was sagt mir das am Ende!? Von der Warte her geht es scheinbar nach Abwägung des Risikos auch ohne ECC ;)
Hatten _alle_ deine Daten immer externe Checksummen?

Wieso wundern? Als geeigneter Administrator von Server Hard- und Software dürfte man durchaus in der Lage sein, derartige Instabilitäten zu Troubleshooten. Und das Problem soweit einzugrenzen, um die vermeindlich Defekte Hardware (sofern sie die Ursache ist) zu finden. Da "wundert" sich niemand über irgendwelche "Updates"...

PS: und gerade bei sporadisch auftretenden Problemen ist oftmals der RAM mit im Spiel ;) Bzw. wird speziell auch im privaten Umfeld aus meiner Sicht der RAM gern mal für diverse Probleme als erste Anlaufstelle rangezogen.
Geht es beispielsweise um ein Windows OS, lässt sich auch sehr sehr viel direkt aus den BSOD Codes und Memory Dumps rauslesen (wenn man des Debugers mächtig ist)
Laut meiner Erfahrung ist es nämlich nicht immer primär ein Hardware Problem, sondern oftmals verursacht die Software Probleme...
Ist für dich RAM entweder defekt oder nicht defekt? Wie schon gesagt, kann auch nicht defekter RAM sporadisch Fehler bringen - Stichwort: kosmische Strahlung, Sonnenaktivität.

Und hier sehe ich ein Problem mit den Aussagen. Es geht hier um EINE! einzige Kiste. Die wenn ich das nicht überlesen habe, nichtmal 24/7 läuft, sondern bestenfalls wärend der Arbeitszeit, also irgendwo im Bereich 8-10h pro Tag, 5 Tage die Woche mal läuft.
Eben, es geht um _eine_ Kiste, wo die Mehrkosten relativ und absolut völlig untergehen. Unter dem Gesichtspunkt verstehe ich die gesamte Diskussion nicht. Was habt _ihr_ denn davon, wenn der TE ein paar Euro spart und sich ein Werkzeug verwehrt, um die Fehler überhaupt festzustellen? Eure ganzen "Erfahrungen" sind doch nur gültig, wenn ihr euren gesamten Datenbestand bei der Verarbeitung noch "zu Fuß" überprüft, jedes Excel-Dokument nach jedem Öffnen komplett durchseht, etc. Andernfalls _glaubt_ ihr nur, dass ihr noch nie einen Fehler hattet.

Unterm Strich?
-> um so weniger die Büchse pro Tag läuft, desto weniger effektiven Mehrnutzen habe ich von ECC, da die Warscheinlichkeit der Fehler immer weiter abnimmt.
-> Die Fehlerhäufigkeit verteilte sich sehr ungleichmäßig über die Systeme -> heist also, man kann Glück haben, oder auch Pech.
-> mit freiem Space im RAM habe ich scheinbar auch weniger häufig überhaupt potentiell Fehler.
-> es ist ungewiss, ob die Fehler im RAM überhaupt merklich aus anderen Problemquellen rausstechen.

Darauf aufbauend kann man aus meiner Sicht durchaus eine Risikoabschätzung abwägen. -> und für sich zum Ergebnis kommen, das man ECC definitiv nicht missen will, oder es eben für unnötig erachtet.
Kein Mensch fängt an, z.B. Festplattenausfallraten gegenzurechnen und daraus eine Risikoabschätzung zu erstellen, ob er womöglich auf RAID verzichtet. Wenn ich für wenige Euro eine Sorge weniger habe im Alltag, dann fange ich garantiert nicht noch an, irgendwelche Abschätzungen zu machen, sondern nehme die zusätzliche Sicherheit im Vorbeigehen mit.

Das müssen ja die übelsten Klitschen sein, wenn man nicht nur seine Werkzeuge selber zusammenschraubt sondern auch noch auf jeden Euro dreimal draufguckt und Risikoabschätzungen macht. o_O
 
Generell zum hier heiss diskutierten Thema ECC meine Meinung: Ich finde gerade wenn sich die Möglichkeit bietet ECC zu nutzen (CPU und Mainboardbedingt was ja nicht immer möglich ist) und es sich um einen Server (<- auf jeden Fall) oder Workstation (<- wohl Geschmackssache) handelt sollte man diese nutzen. Die Mehr Kosten zu ECC sind wirklich nicht hoch (es sei denn man verwendet sehr viel Speicher, wo man dann jedoch sowieso kaum um Reg ECC kommt) und meist bei Server bzw. Workstation Hardware zu vernachlässigen.
Speicherfehler treten auf, wie oft/selten sei jetzt mal dahingestellt, aber diese zu erkennen bzw. die Chance diese im einfachsten Fall zu vermeiden ist mit ECC definitiv vorhanden.
In meinen bescheidenen mittlerweile mehr als 20 Jahren PC Erfahrung sind defekte Speicher doch immer wieder vorgekommen. Zugegeben in den weitaus häufigeren Fällen waren Probleme oder Abstürze durch andere Ursachen verschuldet wie Netzteil, Festplatte, Mainboard oder gar Software aber Speichermodule waren auch einige dabei. Einige davon gleich von Anfang an bzw. nach kurzer Zeit, andere dafür auch erst nach längerer Zeit.

Daß Probleme mit Speicher eher nicht sooo häufig auffallen liegt wohl daran daß gerade bei den hohen Speichergrössen der letzten Jahre oft defekte Bereiche gar nicht oder kaum genutzt werden oder mit unkritischen Daten belegt sind wo sich Fehler nicht sonderlich auswirken.

Im Endeffekt bleibt es natürlich jedem selbst überlassen ob man ECC nutzen will (wenn man kann) oder nicht. Für Server würde ich es defintiv empfehlen und für Workstations wohl in den meisten Fällen auch.

nur mal so als lustigen vorschlag in die runde geworfen: warum nicht einfach n ivy-e system dem TE vorschlagen?
ist leicht OT geworden wenn ich das mal so sagen darf ^^

Weil der TE viele Kerne benötigt oder zumindest haben will. Klar wäre eine Desktop Sockel 2011 Plattform mit einem i7 4930K wohl die preislich attraktivste Lösung, allerdings will der TE wie im Titel schon zu erkennen anscheinend mehr als 6 Kerne und dies ist nur mit einer (oder mehreren) Xeon CPU(s) zu realisieren. Wie schon bemerkt wurde muss man dafür jedoch schon tiefer in die Tasche greifen da Intel sich dies gut bezahlen lässt.
Nachdem Intel keine i7 mit mehr als 6 Kernen anbietet bleibt derzeit wohl nur ein Griff zu einem Xeon E5-2xxx (E5-1xxx sind wohl derzeit auch keine mit mehr als 6 Kernen in Aussicht).
 
Wenn ich mal auf die letzten 20 Jahre zurück blicke, muss ich ehrlich sagen, das ich erst genau ein einziges Problem mit dem RAM hatte. Und das war wirklich ein defekter Riegel.
Das bestätigt nur, daß Du in 20 Jahren nie darauf geachtet hast! Wie viele nicht reproduzierbaren Programmabstürze hattest Du in dieser Zeit? Wie viele Bitfehler gab es in Deinen Daten? Du kannst darauf keine seriöse Antwort geben, weil Du das nie gezielt beobachtet hast.

Und Du mußt dringend zwischen Bitfehler im RAM durch Hardwarefehler und Bitfehler durch Strahlungsereignisse unterscheiden. Hardwarefehler sind recht selten, und nur diese kann man mit Prüfprogrammen für Speicheriegel überhaupt aufspüren. Bitfehler durch Strahlungsereignisse lassen sich mit diesen Programmen faktisch nicht aufspüren, weil sie nicht dafür gemacht sind. Dazu müßte das Programm ein Bitmuster ins RAM schreiben und lange warte, und anschließend testen, ob es Veränderungen gab. Da man mittlerweile von Fehlerraten von ungefähr 1Bit/4GB Modul/Tag ausgeht, siehst Du schon, daß das ganze recht langwierig ist.

Ein Bitfehler durch Strahlungsereignis ist wie bereits beschrieben ein rein statistischen Ereignis, und anschließen ist das RAM Modul faktisch nie kaputt sondern funktioniert einwandfrei weiter. D.h. die einzige nachweisbare Auswirkung ist der Bitfehler und sonst nichts. Wie willst Du das ohne ECC überhaupt erkennen? Der Zufall muß gerade so mitspielen, daß es etwas trifft, was Dir sofort auffällt. Die Wahrscheinlichkeit dafür geht gegen Null.

Was für Strahlungsereignisse gibt es?
Da wäre als erste Quelle die natürliche Umgebungsstrahlung zu nennen, die einfach durch den Zerfall natürlich vorkommender Isotope auftritt. Ein Beispiel: Der C14 Zerfall ist ein Beta- Zerfall (154keV), bei dem aus dem zerfallenden Kohlenstoffkern ein schnelles Elektron emittiert wird(Es entsteht ein N14 Kern). Dieses kann tief genug in die Chips eindringen und dort Elektronen des Siliziumhalbleiters ins Leitungsband kicken. Der Bandlücke bei Silizium beträgt nur wenige eV, so daß ein einziger C14-Zerfall schon viele Elektronen im Halbleiter bewegen kann. C14 ist zum Beispiel normal im Kohlendioxid vorhanden, welches mit der Luft durch den Computer strömt. Da nützt es relativ wenig, daß ein Stück Blech Beta- Strahlung aufhalten kann.

Dazu kommt die Höhenstrahlung bei der schnelle solare oder sogar interstellare Teilchen die Erdatmosphäre treffen. Da wird hier über uns relativ viel Luft haben, kommen hier unten nur die wirklich energiereichen Teilchen an.
 
ckel 2011): bitte checkt mal ob die Zusammenstellung funzt. thx!

Gott bist du ein besserwisser. Lassen wir das doch hier. Ja du bist der beste und gut ist. :rolleyes:
 
Zuletzt bearbeitet:
Du kommst hier an fängst an zu trollen und reagierst darauf pikiert, wenn man deinen groben Unfug gerade rückt. Was erwartest du, daß man deinen Unfug unwidersprochen hinnimmt?
 
AWSockel 2011): bitte checkt mal ob die Zusammenstellung funzt. thx!

Merkst du eigentlich nicht das du dich mit deinem gesülze lächerlich machst? Ich habe nie Unfug erzählt. Nur aus Erfahrung berichtet. ;)

Hier den oberguru markieren aber in eigenen thread fragen warum der Computer immer ausgeht. :d

Ich steig hier aus. Macht keinen Sinn. Ich denke ich bin nicht der einzigste der dich nicht mehr ernst nimmt.

Und wir sind auch meilenweit OT. :o
 
Zuletzt bearbeitet:
@TE drnoodle:
ich hab mir mal nicht das OT zeugs angetan, aber was ist eigentlich dein Geld-Limit?
 
Hatten _alle_ deine Daten immer externe Checksummen?
Brauch ich diese denn?
Ich bin durchaus in der Lage zu sehen, wenn die von mir erstellten Dokumente und Bilder/Videos usw. Fehler beinhalten. Vor allem arbeite ich mit meinen Files, entsprechend fallen Veränderungen auch auf...
Derartige Fehler in Files sind offenbar bei mir nicht der Fall. Entsprechend kann ich für mich persönlich schon sagen, das ich keine Fehler (auf non ECC RAM zurückführend) habe/hatte...
Was ja lange nicht heist, das es faktisch unmöglich ist, sowas mal zu erleiden... Keine Frage. Nur vermisse in bei den ganzen pro ECC Argumenten die Rellation zur Wirklichkeit.

Ist für dich RAM entweder defekt oder nicht defekt? Wie schon gesagt, kann auch nicht defekter RAM sporadisch Fehler bringen - Stichwort: kosmische Strahlung, Sonnenaktivität.
wird dich vielleicht verwundern, aber ja... Entweder der RAM geht und macht das, was er soll ohne Beanstandung oder geht eben nicht.
ECC RAM, der alle Nase lang Fehler korrigiert ist für mich defekt... Das gleiche gilt somit auch für non ECC RAM. Steht übrigens auch in der verlinkten Studie, das ECC RAM, der schonmal "Fehler" gezeigt hat, auch mit sehr hoher Warscheinlichkeit erneut zu Fehlern neigt. Wenn aber offenbar keine Probleme erkennbar/sichtbar sind, gilt er als Funktionsfähig.

Was habt _ihr_ denn davon, wenn der TE ein paar Euro spart und sich ein Werkzeug verwehrt, um die Fehler überhaupt festzustellen? Eure ganzen "Erfahrungen" sind doch nur gültig, wenn ihr euren gesamten Datenbestand bei der Verarbeitung noch "zu Fuß" überprüft, jedes Excel-Dokument nach jedem Öffnen komplett durchseht, etc. Andernfalls _glaubt_ ihr nur, dass ihr noch nie einen Fehler hattet.
das ist aber auch nur die halbe Wahrheit... Ich kann mich nur wiederholen. ECC RAM kann! Fehler korrigieren, schützt aber genau so wenig bei Hardwaredefekten... Es kann dir genau so die Riegel zerlegen -> und daraus kann dir genau so Datenmüll entstehen. Entsprechend muss für so eine Argumentation auch der ECC RAM User normal seinen kompletten Datenbestand in regelmäßigen Abständen einmal komplett durch checken. -> scheint aber ebenso nahezu niemand zu machen.

PS: und es geht doch nicht darum, hier irgendeinen Vorteil von der Empfehlung zu haben. Mir gehts hier eher um das wahren der Relation zur Wirklichkeit... Wie schon angesprochen erwecken die pro ECC Beiträge eher den Eindruck, als geht es so gar nicht ohne ECC. -> und das kann ich definitiv nicht so unterschreiben. Denn es geht offenbar auch ohne. Man sollte sich des Risikos bewusst sein, aber darauf wurde nun schon X fach hingewiesen...

Kein Mensch fängt an, z.B. Festplattenausfallraten gegenzurechnen und daraus eine Risikoabschätzung zu erstellen, ob er womöglich auf RAID verzichtet. Wenn ich für wenige Euro eine Sorge weniger habe im Alltag, dann fange ich garantiert nicht noch an, irgendwelche Abschätzungen zu machen, sondern nehme die zusätzliche Sicherheit im Vorbeigehen mit.

Das müssen ja die übelsten Klitschen sein, wenn man nicht nur seine Werkzeuge selber zusammenschraubt sondern auch noch auf jeden Euro dreimal draufguckt und Risikoabschätzungen macht. o_O

Ich behaupte, du steht definitiv nicht in absolut jedem Fall zu dieser Aussage! "Wenn ich für wenige Euro eine Sorge weniger habe im Alltag, dann fange ich garantiert nicht noch an, irgendwelche Abschätzungen zu machen, sondern nehme die zusätzliche Sicherheit im Vorbeigehen mit."
wenige Euro ist äußerst variabel...
Das heist also, du baust dir natürlich nicht nur alle Systeme mit ECC, sondern setzt gleichsam natürlich noch auf volle Redundanz der Komponenten. -> zu nennen wären hier voll Redundante CPU Module im Active/Passiv Betrieb, Memory Mirroring, Raidlevel, am besten mit Parität gepaart mit Mirroring, Redundate NTs usw. usf. Und weil es ja noch nicht genug ist, das ganze am besten noch doppelt geclustert, abermals im Active/Passiv betrieb usw.

Klar erkennbar sollte doch sein, das Spiel lässt sich bequem bis fast ins unendliche treiben. Und die Kosten steigen natürlich mit jeder zusätzlichen Absicherung. Bist du nun der Meinung, das man für ein "paar Euro mehr" diese Absicherung auch braucht, scheust du somit auch die Mehrkosten nicht.
Ich frage mich aber, ab wann kommt der Punkt, andem du für dich selbst den cut ziehst!? Der Punkt kommt faktisch bei jedem irgendwann -> und das ist das Problem hier, wenn Leute meinen, kein ECC zu brauchen, dann kommt der Punkt praktisch auch eher, da man die Mehrkosten scheut. Daran ist absolut nichts verwerflich... (solange man sich dem Risiko bewusst ist) Die ganzen pro ECC Beiträge bündeln mögliche Auswirkungen. Dennoch kann jeder für sich selbst einschätzen, ob er das will, oder das Risiko eingeht. Jemandem da reinzureden ist alles andere als trivial sinnvoll.


Das bestätigt nur, daß Du in 20 Jahren nie darauf geachtet hast! Wie viele nicht reproduzierbaren Programmabstürze hattest Du in dieser Zeit? Wie viele Bitfehler gab es in Deinen Daten? Du kannst darauf keine seriöse Antwort geben, weil Du das nie gezielt beobachtet hast.

Ich stimme dir vollkommen zu ;)
Ich checke meine Daten nicht dahingehend in regelmäßigen Abständen derart vollumfänglich... Aber ich arbeite mit meinen Daten. Dazu kommt, ich bin nicht ganz so blöd, wie ich vielleicht ausse...
Als Informatiker mit Programmierkentnissen bis runter ins tiefste Assemlber bin ich durchaus in der Lage, Sachen so zu troubleshooten, das man auf die Fehlerquelle schließen kann, oder wenigstens Fehlerquellen eingrenzen kann. Und ja ich kann definitiv und vollkommen ohne Skrupel auf deine Frage(n) antworten:

- Wie viele nicht reproduzierbaren Programmabstürze hattest Du in dieser Zeit? -> keine an die ich mich stand jetzt erinnere. Das "schieben" der Schuld auf den RAM ist doch nur die einfachste Ausrede... Als Programmierer weis man, das Software äußerst Fehlerhaft sein kann. Dazu kommt, um einen Absturz von Software anhand einer "Reproduzierbarkeitsstudie" auf den RAM zurückführen zu können, benötigt man reichhaltige Kenntnisse in Sachen Debugging der Software. Das ist bei closed Source Software faktisch ausgeschlossen derart tief in die Materie Einblick zu gelangen. Denn der Grad zwischen einem Softwarefehler und dem Fehler gebohren durch ein Fehlverhalten des RAMs ist äußerst schmal. Diesen Unterschied sieht man idR als außenstehender nicht. -> falsche Rückschlüsse sind hier vorprogrammiert.
Der überwiegende Teil meiner Programmabstürze IST bzw. WAR Reproduzierbar... Das geht von simplen OS und dessen Updates, über irgendwelche Games zu Freeware Tools bis hin zu Kaufsoftware und Eigenprogrammierungen. Reproduzierbar meint dabei sogar mitunter auch auf verschiedener Hardware.

- Wie viele Bitfehler gab es in Deinen Daten? -> für mich vollkommen irrelevant, wenn sich an den Daten nicht so derart was verändert, das ich aus dem reinen Nutzerdatenanteil, (also die Informationen, die ich in diesen Dateien abgelegt habe) keine Veränderungen/Fehler habe.



Unterm Strich ist die ganze Diskusion doch aber auch vollkommen unsinnig... Denn jeder muss für sich selbst entscheiden, ob er ECC braucht/will, oder eben nicht. Beide Fälle sind "OK"... Nicht mehr und nicht weniger...
 
Euer Wissen ist echt Gold wert. Ich bin aber mehr als drucheinander was es nun werden soll. Im Oktober habe ich meine Projekte abgeschlossen und dann baue ich die Kiste. Bis dahin hab ich also Zeit zum überlegen und entscheiden, was es werden soll. Wichtiger als die Diskussion ob ECC oder nicht, wäre welche CPU mit welchem Board ich nehmen sollte. Es sollte bezahlbar sein, also der ganze Rechner maximal 2500 Euro Kosten. Pro CPU also maximal 500 Euro. Board 500 Euro max. Und dann muss es eben kompatibel mit den Hackintosh Anforderungen sein. Weil es muss OSX drauf...

Vielleicht weiss ja jemand wie gut die Adobe Produkte mit Cores/Takt skalieren? Ich arbeite wie gesagt nur mit Premiere, After Effects, Redcine X und Resolve.

- Dual Sockel - ja / nein?
- Single Sockel mit 6 Kernen und viel Takt?
- 32 GB Ram
- GTX680 mit 4GB (wegen Cuda)
- 1x SSD Platte für das OS
- 2x SSD Platten zum arbeiten
- per USB 3 eine 3TB HDD mit Timemachine als Backup
 
Zu erwähnen wäre noch, dass Xeon E5 quad-channel-CPUs sind. Bei 2 CPUs brauchst du theoretisch 8 Riegel, um keine Leistung zu verschwenden.
 
bei 2500€ wird es wohl eher schwer auf Dual Xeon ;)
Dann doch lieber die Single Version... Und wenn ECC, dann nimm halt nen Xeon mit ECC Support, entsprechendem Board und die ECC RAMs...

Dual CPU lohnt imho nur dann, wenn du durch den Mehraufwand der Kosten auch signifikant mehr Leistung zur Single Lösung erhällst
Zumal 2x500€ CPU, 500€ Board, ~400€ GPU schon 2000€ sind. Da müssen in den letzten 500€ sozusagen die drei SSDs unter kommen (je nach Größe schwer), die 3TB Platte kost auch wohl ca. nen 100er usw.
-> dat wird nix...
 
Lass es am Ende 3000 kosten... das auch ok, wenns denn dafür ordentlich mehr Leistung hat.
 
Es sollte bezahlbar sein, also der ganze Rechner maximal 2500 Euro Kosten. Pro CPU also maximal 500 Euro. Board 500 Euro max. Und dann muss es eben kompatibel mit den Hackintosh Anforderungen sein. Weil es muss OSX drauf...
Die Xeon E5-2600 für 500 Euro sind relativ langsam, Xeon E5-2630v2. Intel läßt sich schnell getaktete Dual Socket fähige CPUs teuer bezahlen.

Vielleicht weiss ja jemand wie gut die Adobe Produkte mit Cores/Takt skalieren? Ich arbeite wie gesagt nur mit Premiere, After Effects, Redcine X und Resolve.
Da mußt Du in Mac Foren Dich dazu umhören. Mein Wissenstand ist, daß sie auf den alten DualSocket PowerMacs nicht so toll skaliert haben, weil es auf diesen Systemen das NUMA Problem gibt. Das wäre dann auf einem DualSocket Xeon E5 System auch wieder der Fall. Apple hat für den neuen MacPro angekündigt weg von NUMA Lösungen zu einem Single Socket System zu gehen. Das würde dafür sprechen einen schnellen 8, 10 oder gar 12 Core Xeon E5-2600v2 zu verwenden, weil man so prinzipiell die gleiche Hardware wie Apple einsetzt. Wenn das zu teuer wird, bleibt nur einen Xeon E5-1600v2 zu verwenden, aber die haben maximal 6 Cores.
 
Wow... check mal: E5-2600v2 | Geizhals Deutschland

Das heisst die CPUs haben bis 12 cores ? Das ist ja geil. Das wäre ja auch Stromtechnisch besser oder, weil weniger Verbrauch? 10x 3,0 Ghz für 1700 Euro hört sich doch gut an. Oder kleiner anfangen und wenn die Preise fallen, dann eine größere CPU drauf. Was denkt ihr?

Und welches Board dazu?
 
Xeons werden nicht billiger - deshalb sollte gleich die richtige CPU drauf.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh