Dauerbetrieb schadet

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich benutze seit 1990 ununterbrochen SCSI-Platten. Seit 1995 auch IDE-Platten.

Meine Erfahrung sagt dass die Ausfallwahrscheinlichkeit exact gleich hoch ist. Natuerlich sind die SCSI-Platten schneller und im Normalfall habe ich SCSI-Platten mit einer RPM-Stufe hoeher als meine IDE-Platten. Aber die Ausfallrate ist gleich.

Dabei habe ich allerdings "known-bad" Serien von IDE-Platten wie die Deathstar und die Diamondmax9 ausgeklammert.

Insgesamt ist das ernste Problem mit IDE dass manchmal ganz schlechte Series rauskommen.
 
In der Praxis reicht es wohl wenn alle Bauteile CE-Konform sind. Aber z.B. Wasserkühlungen sind definitiv nicht CE-konform...

SCSI-Komponenten waren natürlich immer teurer, zum einen wegen der geringeren Stückzahl aber zum anderen auch wegen der schlicht und ergreifend besseren Qualität. Es war halt nicht der "Massenmarkt". Ich kann mich noch gut an die Plextor CD-ROMs erinnern, als Plextor noch nur für SCSI gebaut hat. Das IDE-Laufwerk kanns nicht lesen? Kein Problem, das Plex kanns. Auch lustig dass das Plextor 40x-SCSI-Laufwerk im Endeffekt schneller war als so ziemlich jedes IDE-52x. Genauso bei den Festplatten. Es wurde halt einfach hochwertiger gebaut was sich genauso auf den Preis ausgewirkt hat wie die notwendige bessere Elektronik. Wenn im SCSI-System natürlich der Wurm drin war wurde es ätzend aber dafür war SCSI im Vergleich zu IDE sehr sehr sehr variabel. Oder erlaubt es mir IDE einen einzigen Bus sowohl intern als auch extern zu führen, CD-ROMs, MO-Laufwerk, Festplatten und Scanner an einem Bus zu betreiben oder erlaubt IDE den gleichzeitigen Zugriff auf mehrere Geräte? Oder kann IDE (bei den ganzen 2 Geräten die ranpassen) von einem auf das andere Gerät kopieren ohne den Controller bzw. CPU zu belasten? Nein, das kann SCSI aber alles. Man konnte von SCSI-CD-ROM auf SCSI-Brenner kopieren und nebenbei das System zu 100% auslasten ohne auch nur Ansatzweise die Gefahr eines Buffer-Underrun auch nur zu streifen. Wenns funktioniert hat wars perfekt. Natürlich war SCSI auch irgendwann einfach am Ende der Fahnenstange angekommen aber bis in die Pentium II-Zeiten war ein High-End-System ohne SCSI nicht vorstellbar. Jetzt haben wir S-ATA, das im Grunde die ganzen IDE-Probleme dadurch überdeckt dass man einfach jedes Gerät direkt an den Controller anbindet und dadurch zwangsläufig jeglicher Transfer zwischen den Laufwerken über den Controller läuft :). Hinzugefügt hat man einige von SCSI schon seit Jahrzehnten bekannten Features wie z.B. Hot-Swap. Dazu kamen noch Nettigkeiten von USB wie Hot-Plug. Vergessen das LAufwerk anzustecken? Kein Problem, einfach rein mit dem Stecker :). Super System, JETZT ist SCSI wirklich überflüssig... Aber es hatte durchaus seine Daseinsberechtigung. Auffällig ist dabei ja auch dass es mittlerweile RAID-Controller-Karten für bis zu 16 Laufwerke auf S-ATA-Basis gibt, sogar kaskadierbar auf 4 Controller. Macht mögliche 64 Laufwerke, das reicht selbst für dickste Server. SCSI ist tot, es lebe S-ATA.

Lustigerweise haben bei mir selbst typische Kandidaten wie die IBM Deathstar-Reihe und die DiamondMax9 nie Probleme gemacht... Und beide Platten litten an mechanischen Problemen die bestimmt durch geringere Fertigungstoleranzen und damit höherem Preis vermieden hätten werden können. Aber IDE ist und war der Massenmarkt, da regelt sich der Absatz über den Preis. Im SCSI-Markt musste man sich mit Qualität behaupten, denn wer bereit war den doppelten (oder sogar noch mehr) Preis für die gleiche Leistung zu bezahlen, den musste man zumindest mit anderen Argumenten wie z.B. Zuverlässigkeit ködern. Und für den professionellen Einsatz ist das ein sehr entscheidender Faktor. Fakt ist: SCSI war immer nur richtig groß im Profi-Markt und da drängt sich SATA jetzt mehr und mehr rein und wird SCSI schlicht ablösen. Neue SCSI-Komponenten muss man mittlerweile ja schon fast mit der Lupe suchen.
 
Ich benutze seit 1990 ununterbrochen SCSI-Platten. Seit 1995 auch IDE-Platten.

Meine Erfahrung sagt dass die Ausfallwahrscheinlichkeit exact gleich hoch ist. Natuerlich sind die SCSI-Platten schneller und im Normalfall habe ich SCSI-Platten mit einer RPM-Stufe hoeher als meine IDE-Platten. Aber die Ausfallrate ist gleich.

Dabei habe ich allerdings "known-bad" Serien von IDE-Platten wie die Deathstar und die Diamondmax9 ausgeklammert.

Insgesamt ist das ernste Problem mit IDE dass manchmal ganz schlechte Series rauskommen.

Hallo,

besorg dir mal von beidem, also von SCSI und von SATA/IDE Festplatten 1000 Stück und setz die Laufwerke unter Dauerlast, d.h. fortwährend Random Zugriffe mit wenigen Unterbrechungen der Last täglich. Dann schaust du mal während dieser Zeit welche Platten früher ausfallen. Das Ergebnis kann ich dir aber jetzt schon verraten: Von den IDE Festplatten werden je nach Serie zwischen 2 und 3x soviel ausfallen (So in etwa wird auch der MTBF festgelegt). Dann schraub mal eine SCSI Festplatte und eine IDE Festplatte auf, und beurteile mal rein subjektiv was du siehst. Ich denke, das du dann anders urteilst...

gruß
wuggu
 
Dabei habe ich allerdings "known-bad" Serien von IDE-Platten wie die Deathstar und die Diamondmax9 ausgeklammert.
Aber auch von denen gibts Ausreißer nach oben. Meine DM9 aus 2002 rannte bis 2004 in meinem Gamerechner und ab 2004 bis jetzt 24/7 im LAN-Server und bisher keine Probleme.

Ausfälle hatte ich bisher auch fast nur mit IBM Deathstar und etlichen Seagate Serien. Maxtor (atm 3 Platten im Einsatz), Samsung (atm 7 Platten im Einsatz) und Fujitsu (ok, davon hatte ich nur zwei Platten) sind bisher immer problemlos.

Richtige Serverhardware habe ich im LAN-Server auch nicht im Einsatz. Da kam mein altes Abit NF7-S rev2.0 rein, 1GB Original Infineon und eine alte GF2MX. Vor kurzem habe ich noch 4 Platten und ein anderes NT reingebaut (wgn Lautstärke/Effizienz ein BQ! P5 ggn ein Seasonic SS-300FT getauscht).
 
0,0000001V*10000000A=1W glaubst du damit kann man nen brand betreiben? ;)

Ausschlag gebend ist der leistungsumsatz. Der strom ist aber nur nen teil der leistung. ;)
 
Mehrere 100 W auf der +12V-Leitung reichen auf jeden Fall für ein ordentliches Feuer. Und vielleicht 25 A auf der +5V-Leitung (=125 W) reichen auch.
 
Klar, aber wie gesagt, der strom ist net entscheidend, sondern die leistung die dahintersteht.

Man kann ja mal ne 100W glühbirne eingeschalten in ne decke(am besten kunststoff) einwickeln, mal sehn, wie lange die decke mitspielt.
 
also das das Netzteil hat ein CE siegel.... der vater meinet ich solle mir kein nues kaufen er sei ja meistens da und da wo er arbeite hatten sie ein Dell desktop pc kanp 1/2 jahr alt kurzer knall ziemlicher gestank Netzgerät im eimer.....
UND DAS BEI DELL :fresse: wierde sicher eure berichte zu herzen hemen und in absehbarer zeit ein neues kaufen... kein Raptoxx Professional :fresse:
so kan man sich teuschen!!!!
erstaunlicher weise sind die Temperaturen durch den einbau des 2.8 GHZ ht P4 gesunken cpu von 55°C auf 40° c
dies habe ich eigentlich nicht erwartet...
 
Nunja, Dell verbaut wohl Markengeräte die wirklich nur Puff -> kaputt machen.
Bei Noname Teilen kanns halt auch zu folgenden erscheinungen kommen:
Lüfter fällt aus -> Knister, kokel, schmor -> Fackel -> Puff, aus -> Bude brennt ab
 
Das eigentliche Problem bei den Netzteilen (egal welcher Hersteller) sind die Elkos. Solange die Netzteile in Betrieb sind (Netzspannung haben), gehen sie. Fehlt die Netzspannung mal und kommt dann wieder, kann es schonmal Puff machen.

Kenne da ein ziemlich drastisches Beispiel:

ATX-PC hat ca. 2 Jahre immer problemlos funktioniert und wurde immer per ATX-Off "abgeschaltt", aber das Netzteil nie von der Netzspannung getrennt. Sollte eine Netzwerkkarte eingebaut werden (wegen DSL), also PC von der Netzspannung getrennt und Netzwerkkarte eingbaut. Ist ja keine Aktion so eine Netzwerkkarte mal einzubauen. Alle Kabel wieder dran und Netzspannungsstecker rein, Puff/Knall Hauptsicherung raus. Ursache: Geplatzter Elko hinter dem Netzspannungsgleichrichter. Folgeschäden: Außer CPU, RAM und Grafikkarte war alles andere "zerschossen". Auf einer Festplatte war sogar der Motor-Regel-Schaltkreis vollkommen zerschmolzen. Wahrscheinlich starker, kurzer Überspannungs-Impuls bei den +12V.

Davor schützt nicht mal eine USV vollständig, denn die schaltet bei einem längeren Stromausfall bei leerem Akku auch ab.
 
Ein ordentliches Netzteil sollte aber auch ständig Strom aus/an verkraften. Ich glaub auch noch nicht mal, daß der Elko der Schuldige war - dann wäre wohl auch nichts anderes kaputt gegangen. Das war wohl eher der Gleichrichter oder evtl. die aktive PFC, die einfach zu schwach dimensioniert waren für den Einschaltstromstoß.

Elkos ist es egal, wie oft man Spannung drauf läßt oder nicht - die Netzteilelkos werden ja sowieso im 50 - bzw. 100 Hz-Takt ge- und entladen. Nur sie sollten nicht zu warm werden, keine zu hohe oder falsch gepolte Spannung bekommen.
 
Mein server, der hauptsächlich für internetverbindung und drucker zuständig is, is ein PIII 500mhz der nichmal nenn lüfter auf seinem slot 1 kühler hat! :fresse:
Die stromversorgung übernimmt eine 230 watt NT ausm aldi-rechner von 1998...
Dei hdd is auch schon seit ca.1997 in betrieb!
Diese kombi rennt schon seit ca. 3 jahren im 24h betrieb...
Is zwar 90% der zeit im leerlauf aber egal.....
Also kann man sagen das hardware eigentlich ewig hält ;) :fresse:
 
Aber auch von denen gibts Ausreißer nach oben. Meine DM9 aus 2002 rannte bis 2004 in meinem Gamerechner und ab 2004 bis jetzt 24/7 im LAN-Server und bisher keine Probleme.

Soweit ich das sehen kann sind die Diamondmax 9 empfindlich gegen Stromschwankungen. Ich und mehrere andere Leute haben einige von denen verloren als entweder die Stromversorgung der Stadt schnell rauf-und runterging oder in meinem Fall mit einer kaputten UPS. Bis zu dem Zeitpunkt liefen die bei mir gut.
Hinzugefügter Post:
Das eigentliche Problem bei den Netzteilen (egal welcher Hersteller) sind die Elkos. Solange die Netzteile in Betrieb sind (Netzspannung haben), gehen sie. Fehlt die Netzspannung mal und kommt dann wieder, kann es schonmal Puff machen.

Das gilt uebrigens auch fuer die Spannungsversorgung auf den mainboards, jedenfalls ist das was DFI sagt. Zu schnelles wiederanschalten (wenn Strom mit dem harten Schalter, nicht soft-off, weggenommen wurde) koennen auch Elkos auf dem Board den Geist aufgeben.
 
Zuletzt bearbeitet:
Ein ordentliches Netzteil sollte aber auch ständig Strom aus/an verkraften. Ich glaub auch noch nicht mal, daß der Elko der Schuldige war - dann wäre wohl auch nichts anderes kaputt gegangen. Das war wohl eher der Gleichrichter oder evtl. die aktive PFC, die einfach zu schwach dimensioniert waren für den Einschaltstromstoß.

Elkos ist es egal, wie oft man Spannung drauf läßt oder nicht - die Netzteilelkos werden ja sowieso im 50 - bzw. 100 Hz-Takt ge- und entladen. Nur sie sollten nicht zu warm werden, keine zu hohe oder falsch gepolte Spannung bekommen.

Ein ordentliches Netzteil sollte das schon aushalten, war aber ein NoName.

Wie auch immer, auch der Elko am Netzspannungsgleichrichter, also auf der Primärseite, wird durch "hochfrequente" (ca. 50-200kHz, je nach Auslegung der Schaltung des Netzteils) Impulsströme hoch belastet, da die PC-Netzteile sogenannte "primär-getaktete" Schaltnetzteile sind. Werden hier normale Elkos verwendet,halten diese nicht lange. Auch der ATX-Off Zustand belastet diesen Elko besonders stark, da in diesem Fall der Schalt-Regler wegen geringer Belastung in den sogenannten "lückenden Betrieb" übergeht, d.h. es wird mit sehr geringer Wiederholrate (oft nur 1-0,5Hz) kurzeitig der Schalt-Regler aktiviert, um den Spannungsabfall am Ausgang auszugleichen. Gerade der "lückende Betrieb" belastet Elkos besonders stark.

P.S.: Es war eindeutig nur der Elko (wurde interessehalber ausgewechselt und das Netzteil funktionierte wieder, wurde aber natürlich verschrottet)!
 
Hinzukommt, dass elkos gewickelte kondensatoren sind. In ihnen entsteht induktionspannung. Wenn diese zu groß ist und der elko ständig dieser ausgesetzt ist, geht er kaputt.

Wenn man dann(wie rimini sagte) billige oder falsch dimensionierte einsetzt, brauch man sich net wundern, wenn sie die hufe hoch machen.

Das beste für für schaltNT und spannungswandler kombos auf dem MB ist eine stabile last. Also permanent leistung X umsetzten. Das kann dauer IDLE oder dauervolllast sein. So lange die änderung der parameter gering ausfällt, ist es besser für die HW.
 
Zuletzt bearbeitet:
Nö. Der strom kommt garnet zum fließen. ;)

Kannst ja mal ausrechnen, welche spannung du brauchst um bei 4² 1m länge 10000000A zum fließen zu bekommen, viel spaß.

Dann hast du wieder die leistung(resultierend aus der spannung die du brauchst um den leiter zu überlasten).
Code:
Wenn du es schaffst auf einem 4² 1m langen kupferleiter 10000000A fließen zu lassen, brauchst du 44,5kV und erzeugst dabei einen leistungsumsatz(auf diesem stückchen draht) von 445 GIGAWATT. Die zahl muß man sich mal vorstellen. Da geht so ziemlich alles vor die hunde, was es gibt.

Wenn du nun diesen draht aus einem supraleiter baust und ihn auch entsprechend kühlst, kannst du theoretisch unendlich viel strom durchschicken. Begrenzt wird dieser durch die maximal zulässige stromdichte im leiter. Aber das ist dann wieder nen anderes thema.

Nicht umsonst gibt es die sicherheitsmaßnahme begrenzung der ladungsenergie.

Letztendlich zielen sämtliche schutzmaßnahmen in der elektrik(sei es für den menschen oder die technik) immer darauf ab, die energie zu begrenzen.

EDIT: Alle wissen ja, strom ist für den menschlichen körper gefährlich. Wenn ich nun aber eine spannungsquelle habe die 1V hat, mir aber millarden von A liefern kann, passiert dem menschen trotzdem nix. Weil die spannung viel zu gering ist, um den körperwiderstand zu überwinden und somit erst nen beachtlichen stromfluß hervorzurufen.
Die spannung sorgt dafür, dass nen strom fließt. Und erst wenn beide faktoren relativ groß sind, wirds gefährlich. Aber dann haben wir wieder leistung. ;)

Nächstes beispiel:
Hochspannungsleitungen. Die spannung ist riesig aber der strom der zu fließen kommt, ist relativ gering. Somit findet auf den überlandleitungen kaum leistungsumsatzstatt. Deswegen brennen die dinger auch net alle tage lang ab.
 
Zuletzt bearbeitet:
Das beste für für schaltNT und spannungswandler kombos auf dem MB ist eine stabile last. Also permanent leistung X umsetzten. Das kann dauer IDLE oder dauervolllast sein. So lange die änderung der parameter gering ausfällt, ist es besser für die HW.

Daureaus ziehe ich das fatzit, das Dauerbetrieb nicht schadet. Also ich habe ein uraltes AT netzeil mit 220V Schalter (at Standart) dieses lüft immeroch. Nja der lüfter macht seine faxen aber sonst Tip top ok. Die kiste ist auch nicht mehr im dauerbetrieb! Aber das NT ist sicher 10 Jahre alt, in dem gehäuse war mal ein 266 MHZ Amd K62 und vorher wens mich nicht teuscht ein 486 oder 368, also sehr alt das NT.... aber läuft noch...

Achja was haltet ihr von Notebooks also Desktopersatzt Notebooks im Dauerbetrieb? halten die das aus????
 
Zuletzt bearbeitet:
Thema NT:
Ein Netzteil beinhaltet mechanische Teile (Luefter) und ist daher schon mal ausfallgefaehrdet. Die meisten schalten sich einfach aus, wenn sie zu heiss bekommen. Brandgefahr sehe ich da weniger. In unserem Rechenzentrum sind die Netzteile verantwortlich fuer die meisten Ausfaelle an Hardware, ein gutes Stueck vor Gehaeuselueftern und Festplatten. Qualitaet zahlt sich hier am ehesten aus. Server benutzen aus diesem Grund auch oft redundante NT.

Thema Platten:
Die SCSI Platten haben eine hoehere MTBF. Diese wird aber bei IDE/SATA und SCSI anders ermittelt. Bei IDE/SATA geht man von einem 8 Stunden Tag an einem Single User System aus um die MTBF zu ermitteln. Bei SCSI/SAS/FC von 24/7 Betrieb im Multi User Umfeld. Gleich gemessen waeren SCSI Platten noch wesentlich ausfallsicherer. Sie vertragen hoehere Vibrationen etc. Es sind also verschiedene Dinge ausschlaggebend. Im SoHo Umfeld wird dies allerdings kaum zum tragen kommen. Darum kann man hier kleine Server auch problemlos mit SATA Platten betreiben.
Noch relativ neu sind sogenannte Nearline Storage Modelle der SATA Platten, die auf 24/7 Betrieb ausgelegt sind. Seagate und WD z.B. bieten solche Platten an.
Ausserdem kuemmern sich Disks normalerweise selbst um Fehlerkorrektur. Das fuehrt dazu, dass die Disk nicht ansprechbar ist. RAID Controller wie 3Ware/LSI/ICP etc. kuemmern sich selbst um Fehlerkorrektur und warten nicht gerne auf Disks. Wenn nun eine normale SATA Platte an einem solchen Controller (Keine Promise/Highpoint/ICH7R etc) versucht selbst einen Fehler zu beheben und nicht ansprechbar ist, markiert der Controller sie als tot und wird aus dem RAID entfernt, obwohl sie evt. noch tiptop ist. Darum sollte man an solchen Adaptern nur Nearline Modelle verwenden, deren eigene Fehlerkorrektur ausgeschaltet ist. Umgekehrt sollte man sie allein nicht verwenden, da so keine Fehlerkorrektur stattfindet.
Bei einigen Nearline Drives kann man TLER jedoch ausschalten (ergo die Fehlerkorrektur einschalten) und sie so dennoch gut als einzelnes drive oder an ner ICH8R verwenden.
Wie bereits gesagt schaffen SCSI/SAS/FC auch deutlich hoehere IO, sind also nicht direkt zu vergleichen. Wenn man fuer the HD Video Workstation ein paar Terabyte braucht wirds mit SCSI seer teuer und nicht wirklich viel besser fuer die linearen Zugriffe.

Server Boards:
Server Boards unterscheiden sich meistens durch folgende Punkte von Dektop Boards. LOM (Lights Out Management) um den Server remote administrieren zu koennen, Schnittstellen (PCI-X z.B.), oft ne kleine RAGE 128 Graka onboard, bessere Bauteile (Meist die Elkos).

Dann koennen bei Server Hardware oft noch verschiedene Dinge im Betrieb ausgetauscht werden: Platten/Luefter/Karten bis hin zu RAM, CPU Boards etc.

RAID Controller. Es ist nicht wirklich das Material, sondern die kleinen Stueckzahlen, ausgereifte Treiber fuer viele Plattformen, viel Testerei was die 3Ware/LSI/ICP Controller so teuer macht. Wenn der Preis entscheidet darf man keine Wunder erwarten.
 
Zuletzt bearbeitet:
redundante NT das sind doch einfach zwei NTs für ein pc wen eis sense macht läuftds nächste weiter oder??? und das ander kann wärenddesen getauscht werden....
 
bei redundanten nt's hat jedes einzelne genug saft um den rechner zu betreiben. im normalfall laufen beide gleichzeitig, macht eins nen abflug uebernimmt halt einfach das 2. die ganze arbeit und man kann im laufenden betrieb das kaputte tauschen - ziemlich aehnlich wie man das z.b. von einem raid kennt mit hop-swap platten...
es gibt auch einige, die man nicht heiss tauschen kann, die einfach 2 getrennte nts im gleichen gehaeuse haben. so muss man zwar das ganze schmeissen aber kann sich immerhin aussuchen, wann man der server runterfahren will.
allerdings findet man redundante nts seltenst mit normalen atx abmessungen.

@pcfreak-007
wasserkuehlungen koennen schon ce konform sein. der powermac g5 mit 2x2.5ghz hatte z.b. auch eine wakü. nur muss der hersteller halt die ganzen pruefungen machen lassen, was einiges aufwändiger und teurer ist als bei ner lk
 
Heute hatte ich den ersten crash bzw einen Blue Screen
Absturtz
stop:0x0000008e (0xc0000005,0x8056f186,0xb7e7bb8c,0x00000000)
und jetzt läuft er wieder :fresse:
 
he g5 haben eine wasserkühlung von werk aus dass ist mir aber neu...

guggsch du hier
G5cool2.jpg


redundante atx nts gibts z.b. von etasis mit bis zu 2x460w. man muss sich einfach bewusst sein, dass die kleinen 40mm luefter nicht gerade leise laufen
 
Zuletzt bearbeitet:
HM das ist doch eher ne geschlossene Heatpipe Kühlung wie sie in shuttle pcs verbaut wurde oder ist und aich in Notebooks vorkommt... oder muss da wirklich wasserstand kontroliert und nachgefüllt werden usw wie bei einer Normalen 0815 Wasserkühling???

Achja wie vertragen eigentlich Notebooks Dauerbetrieb???

MFG Und thx Toby-ch
 
das is ne Kombination aus beidem ;) links werden die Cache Bausteine und die Platine mit Heatpipes gekühlt. unten sitzen die Kühlelemente für die Prozessoren ;)
 
Sehr aufwändig das ganze.
Wäre cool wen sowas für Pcs gäbe...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh