alten Server in Betrieb nehmen - aktuelles OS unbedingt notwendig?

Windows Server 2008 R2 weiter betreiben?


  • Anzahl der Umfrageteilnehmer
    22

W2K

Enthusiast
Thread Starter
Mitglied seit
01.07.2013
Beiträge
1.722
Ort
A:\Vorarlberg\
Guten Morgen liebe Forenuser! :coffee2:

Ich habe einen privaten Server zu Hause, den ich nach einem Jahr Stillstand nun wieder in Betrieb nehmen möchte.
Dabei handelt es sich um einen Dell T20 mit 4 HDDs. Wird hauptsächlich als Fileserver genutzt, zusätzlich wird automatisch auf ein NAS gesichert.
Für andere Dinge nutze ich den nicht mehr, Dienste ins Internet etc. werden nicht benötigt.

Jetzt ist da noch Windows Server 2008 R2 installiert (bis vor einem Jahr war der ja noch supported).
Spricht da was dagegen, den Server einfach so weiterlaufen zu lassen ohne Internetverbindung?
Immerhin lief das Teil immer anstandslos und für meine Zwecke reicht das vollkommen.

Oder muss ich zwingend auf ein aktuelles OS umrüsten? Wie seht ihr das?
Immerhin ist eine neue Windows Server Version sauteuer und die Essentials-Version total beschnitten...und mit Linux kenne ich mich überhaupt nicht aus....bin eingefleischter Windows-Admin.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was heißt denn ohne Internetzugang?
Und warum sollte der Internetzugang das ausschlaggebende Argument sein oder nicht?

Du kannst bedenkenlos auf W2k8 setzen, wenn der Server komplett standalone läuft. Nur ist dann die Frage, was macht ein Server, der keine Kommunikation zu irgendwas hat? Strom verbrauchen? Heizen? Als Beleuchtung dienen?

Stell dir mal folgendes vor.
Du hast nen Rechner, mit dem du im Internet surfst. Zusätzlich hast du diesen Server, auf dem du deine Daten drauf ablegst.
Jetzt gehst du auf youporn.com (oder was auch immer, ist nur nen Beispiel, kann JEDE beliebige andere Seite sein) und lädst dir ein "Tool" runter.
Dieses "Tool" ist in der Lage SMB oder RDP Backdoors/Lücken auszunutzen. Der Rechner von deiner Frau hat Win10 mit aktuellem Patchstand und hat diese Backdoors nicht mehr. -> easy going
Dein ServerOS ist aber EOL, MS bietet dafür keine Sicherheitsupdates an. Ergo sind diese Backdoos z.B. nicht gepatcht.
Jetzt hat also das "Tool" die Chance über SMB/RDP sich auf dem Server einzunisten. Eine Aufgabe des Tools ist es, alle Dateien auf dem Server zu verschlüsseln und dem User die GUI-Nachricht mitzuteilen, dass man mittels Einwurf kleiner Münzen die Verschlüsselung wieder aufheben kann.
Kommt dir bekannt vor? (es gab auch schon Versionen, da war das nicht mehr reversibel, dann viel Spaß)

Was bringt es in dem Fall also, dass der Server keinen Internetzugang hat (wie auch immer das geregelt wurde, kein Gateway oder ACL auf dem Router, oder wie auch immer)?
Jetzt könnte man ja sage, packe ich das Ding in eine extra Securityzone und pack ne Firewallrule drauf. Wie sieht die denn aus? Allow SMB/RDP und sonst deny all?
Was bringt das, wenn das "Tool" SMB und/oder RDP nutzt? Für die Firewall ist das OK.
Ergo muss ne DPI auf der Firewall laufen. Wie dick soll den diese Firewall sein, dass sie DPI mit Linespeed (1GBE/10GBE?) machen soll? Wie stellst du da sicher, dass du immer die aktuellsten Pattern hast?

Weiter werde ich das jetzt mal nicht ausführen.
Du kannst auch Windows95 betreiben. Man sollte sicher aber der Gefahren VOLLUMFÄNGLICH bewusst sein. (das bist du dir scheinbar in dem Fall nicht)
Und dann kann/muss man auch akzeptieren, wenn etwas ist und die Konsequenzen tragen.
Ansonsten ist es sicherlich einfacher/günstiger/sicherer, sich einfach ne neue Windowslizenz zu gönnen. Ggf. reicht ja auch nen Windows10 aus, kommt drauf an.

In Unternehmen würde man sowas nicht machen und wenn man es doch machen müsste, weil es zwingend notwendig ist, treibt man an anderer Stelle ganz anderen Aufwand, der aber günstiger ist, als das OS auf Stand zu bringen. (gibt da viele Szenarien, die das erfordern)
Von daher hoffe ich, dass du "nur" eingefleischter HomeWindows-Admin bist.

Ob nun Linux oder nicht, wird die keiner FÜR DICH beantworten.
Nen Fileshare kannste auf Linux genauso machen. Ne HyperV-VM hosten wird eher schwer.
Preiswerter dürfte es alle Mal sein.

PS: Ich hab nen Kumpel, der hat nen Server mit Windows7, seit >10Jahren. Da legt der seine ganzen Sachen ab. Windows Server ist da also nicht notwendig, auch wenn das viele ggf. glauben.

EDIT: Außerdem interessiert mich sehr, was an Windows Essentials so beschnitten ist, wenn ich mir deinen Use-Case aus dem 1. Abschnitt so anschaue.
 
Zuletzt bearbeitet:
Ist Windows 10 im Dauerbetrieb denn genauso stabil wie ein Windows Server?
Wenn, dann würde ich die Kiste maximal 1x im Monat für Updates durchstarten.

Wegen Verschlüsselung mache ich mir keine Sorgen. Habe ein Online (NAS) und ein Offline (externe HDD) Backup. Wenn da irgendwas passiert dann "ja mei"...zurückspielen und erledigt.
 
Sagen wir mal so, ich mache meinen Desktop Rechner nicht aus und da läuft nen Windows 10 drauf. Zusätzlich bin ich da natürlich am arbeiten...

@Sorgen
Und du glaubst, dass du das mitbekommst?
Die Dateien sind ja noch da und zugreifbar, nur kannst du sie halt nicht mehr mit z.B. Paint öffnen. Dein Backuptool kopiert dann ggf. stumpf die Daten rüber.

Wenn du nicht gerade eine aufgewachsenes Backupkonstrukt mit Snapshots und multiplen dauerhaften Ständen hast, ist die Gefahr also sehr groß, dass du beim Backup eine ältere Datei, die noch gut ist, mit der verschlüsselten aka. nicht öffnenbaren Datei überspielst. Und du das ggf. erst Wochen später mitbekommst.

Ich will dich zu nichts zwingen, ich will auch nicht schwarzmalen, aber die Welt ist ein wenige bedrohlicher und konsequenter, als dir scheinbar bewusst ist.
 
Grundsätzlich taugt ein T20 in der Xeon-Variante noch sehr sehr gut als Fileserver. Eventuell Xigmanas in Betracht ziehen.
Btw, obacht auf die Platten. Nach 1 Jahr Stillstand könnten die ggf. "einen weg haben". Und wenn die Kiste als primärer Filer dienen soll, dann sollten die HDDs auch in ihren Specs (Alter) sein, damit die Zuverlässigkeit nicht leidet.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: W2K
Grundsätzlich taugt ein T20 in der Xeon-Variante noch sehr sehr gut als Fileserver. Eventuell Xigmanas in Betracht ziehen.
Danke, hab mir dieses Xigmanas mal angeschaut, scheint auch eine gute Dokumentation/Anleitung zu haben. Werde das mal ausprobieren, ob ich damit zurechtkomme. Wie gesagt, mein Linux know how ist null - darf ich dich kontaktieren falls ich eine Frage dazu hätte?
Und wenn die Kiste als primärer Filer dienen soll, dann sollten die HDDs auch in ihren Specs (Alter) sein, damit die Zuverlässigkeit nicht leidet.
Damit meinst du die vom Hersteller angegebene MTBF, oder?

@underclocker2k4
Danke, aber um mein Backupkonzept brauchst du dir keine Sorgen machen. Ich hab mehrere Stände bis zu einem Jahr zurück und wenn ich das bis dahin nicht gecheckt habe dann bin "ich Depp" selbst schuld. ;)
 
Stell dir mal folgendes vor.
Du hast nen Rechner, mit dem du im Internet surfst. Zusätzlich hast du diesen Server, auf dem du deine Daten drauf ablegst.
Jetzt gehst du auf youporn.com (oder was auch immer, ist nur nen Beispiel, kann JEDE beliebige andere Seite sein) und lädst dir ein "Tool" runter.
Dieses "Tool" ist in der Lage SMB oder RDP Backdoors/Lücken auszunutzen. Der Rechner von deiner Frau hat Win10 mit aktuellem Patchstand und hat diese Backdoors nicht mehr. -> easy going
Dein ServerOS ist aber EOL, MS bietet dafür keine Sicherheitsupdates an. Ergo sind diese Backdoos z.B. nicht gepatcht.
Jetzt hat also das "Tool" die Chance über SMB/RDP sich auf dem Server einzunisten. Eine Aufgabe des Tools ist es, alle Dateien auf dem Server zu verschlüsseln und dem User die GUI-Nachricht mitzuteilen, dass man mittels Einwurf kleiner Münzen die Verschlüsselung wieder aufheben kann.
Kommt dir bekannt vor? (es gab auch schon Versionen, da war das nicht mehr reversibel, dann viel Spaß)
Dein Ansatz einen Denkfehler. Das kann dir auch mit jedem aktuellen und voll gepatchten OS passieren.
Wie greift er denn auf die Daten auf dem Server zu? Wahrscheinlich über ein gemapptes Laufwerk. Dein Verschlüsselungstrojaner kann also einfach alle Dateien auf dem Laufwerk verschlüsseln und braucht gar nicht direkt auf den Server zu kommen. Kann dir passieren unabhängig davon ob Linux, EOL Windows, aktuelles Windows, QNAP, Synology, Netapp, und wie sie alle heißen.

Grüße, CommodoreX64
 
MTBF ? Nein, das ist nur eine statistische Zahl.
Das Alter der Platten z.B.. HDDs sind herstellerseitig normal auf max 5 Jahre Betriebsdauer ausgelegt. Dannach kann es sein, dass die Ausfäll ansteigen. Kann sein, muss nicht sein.
Btw, ich hoffe Du hast keine alten "Green"-Laufwerke mehr drin. Auch Laufwerke mit sog. SMR-Technik sind als Platten für Xigmanas/FreeNas (also ZFS Dateisystem) nicht geeignet.
Betriebssystem von Xigmanas ist übrigens FreeBSD, nicht Linux.
Idealerweise installiert Du es auf einer kleinen Extraplatte, SSD oder gutem USB-Stick; nicht auf den Datenplatten.

Ja, Du kannst mir ggf. ne PM schicken, das kann aber ab nächster Woche zäh in der Beantwortung werden da ich dann keinen Urlaub mehr habe und ziemlich eingespannt im Geschäft bin. Antworten können dann ggf. etwas dauern.
 
Wenn, dann würde ich die Kiste maximal 1x im Monat für Updates durchstarten.

Windows 10 und sogar der Windows Server 2016 (bei 19 weiss ich es nicht) starten meißt nach spätestens 6-7 Tagen automatisch neu um zu patchen :) ausser man versteckt die Datei dazu.
 
MTBF ? Nein, das ist nur eine statistische Zahl.
Das Alter der Platten z.B.. HDDs sind herstellerseitig normal auf max 5 Jahre Betriebsdauer ausgelegt. Dannach kann es sein, dass die Ausfäll ansteigen. Kann sein, muss nicht sein.
Gut zu wissen.
Btw, ich hoffe Du hast keine alten "Green"-Laufwerke mehr drin. Auch Laufwerke mit sog. SMR-Technik sind als Platten für Xigmanas/FreeNas (also ZFS Dateisystem) nicht geeignet.
Nein, das sind soweit ich weiß alles Seagate HDDs. Aber auch gut zu wissen SMR zu meiden bei einem Neukauf.

Unterstützt das Xigmanas auch NTFS? Ansonsten müsste ich die bestehenden Datenplatten neu formatieren und die Daten vom Backup einspielen, was etwas dauern kann.
 
Windows 10 und sogar der Windows Server 2016 (bei 19 weiss ich es nicht) starten meißt nach spätestens 6-7 Tagen automatisch neu um zu patchen :) ausser man versteckt die Datei dazu.
? - komisch, hab hier mehrere Systeme mit Laufzeiten >110 Tagen, weil das nächste Wartungsfenster noch bissl hin ist.
Aber es gibt auch Updates, die gar keine Neustarts benötigen.

ggf. kann man ja auch ne LTSB nehmen, aber das ist eher unnötig.
Patchday von M$ ist ja immer der 2. Dienstag im Monate ;) (US-Zeit abends)
Beitrag automatisch zusammengeführt:

Unterstützt das Xigmanas auch NTFS? Ansonsten müsste ich die bestehenden Datenplatten neu formatieren und die Daten vom Backup einspielen, was etwas dauern kann.

Ja, man kann die Daten übernehmen, dann verliert man aber ggf. einen Vorteil von Xigmanas, bzw. Systemen mit ZFS ;)
RAM ist sehr von Vorteil - bei mir läuft das in einer VM auch nur als Datastore für alles im Haus. Bei Xigmanas machst Du nach der Install eh alles über die GUI (Weboberfläche)
 
ggf. kann man ja auch ne LTSB nehmen
Ja hab ich mir auch überlegt aber die Enterprise Version bekomm ich als Privatperson nicht wirklich. Höchstens über dubiose Ebay-Angebote.
Ja, man kann die Daten übernehmen, dann verliert man aber ggf. einen Vorteil von Xigmanas, bzw. Systemen mit ZFS ;)
RAM ist sehr von Vorteil - bei mir läuft das in einer VM auch nur als Datastore für alles im Haus. Bei Xigmanas machst Du nach der Install eh alles über die GUI (Weboberfläche)
Ok gut, RAM sollte kein Problem sein, es sind 16GB verbaut.
 
Oder muss ich zwingend auf ein aktuelles OS umrüsten? Wie seht ihr das?
Immerhin ist eine neue Windows Server Version sauteuer und die Essentials-Version total beschnitten...und mit Linux kenne ich mich überhaupt nicht aus....bin eingefleischter Windows-Admin.

Früher oder später mußt du umrüsten und je länger du wartest, desto gefährlicher wird es. Persönlich würde ich jedem (egal ob für Server oder Desktop) empfehlen, sich eine Exit-Strategie für Windows zuzulegen und sich mit Linux anzufreunden. Ich habe das vor ein paar Jahren getan, als das Supportende für Win7 bekannt wurde und sich Win10 als Datensauger entpuppt hat. Ein erster Schritt könnte sein, sich mal ein paar Distributionen in ner VirtualBox zu installieren und ein wenig damit rumzuspielen.
 
  • Danke
Reaktionen: W2K
Dein Ansatz einen Denkfehler. Das kann dir auch mit jedem aktuellen und voll gepatchten OS passieren.

Und wo genau ist da jetzt der Denkfehler? Erörtere das mal bitte ausführlich. Sprich, welcher beschriebene Punkt kann so nicht eintreten und wurde daher von mir fehlerhaft dargestellt.

Ich habe eins von vielen vielen möglichen Szenarien beschrieben. Der Ansatz war nicht, dass das die einzige Fehlerquelle ist und mit dem Einsatz von W2k19 alle Probleme, egal welcher Art und Weise, gelöst sind.
Es sollte nur zeigen, dass ein gepatchtes Betriebssystem (oder Routerfirmware, oder Kühlschrankfirmware) immer im Fokus sein sollte.
Und vor allem auch, dass ein "das Gerät hat keinen Internetzugang" ein völlig sinnfreier Ansatz eines maßgeblichen Securitykonzeptes ist.

PS: Ich habe z.B. keine gemappten Laufwerke, tja, warum nur? ;)
 
Windows 10 und sogar der Windows Server 2016 (bei 19 weiss ich es nicht) starten meißt nach spätestens 6-7 Tagen automatisch neu um zu patchen :) ausser man versteckt die Datei dazu.

Also mein Windows10 Rechner macht das nicht. Der läuft auch mal eben 1 Monat ohne Faxen durch, wenn ich ihn nicht zu sehr penetriere.
Und nein, da ist Garnichts besonders versteckt oder sonstiges.
 
Mhh mir startet er sogar den Hyper-V Host mit laufenden VMs durch wenn er meinte das Updates notwendig sind. Hab ihm einfach die Datei umbenannt, seit dem ist ruhe und ich kann per hand neustarten.
 
NTFS auf FreeBSD? Hab ich zugegeben nie getestet oder überhaupt gemountet. Bin ja zu Xigmanas (als ehemaliges Nas4free) und damit FreeBSD gekommen, um ZFS für mein Storage zu haben. :)
Und dieser Wunsch war dann meine Eintrittskarte in die Welt des Unixoiden und auch ESXI. Zuvor kannte ich nur Windows klickibunti.
 
Dein Ansatz einen Denkfehler. Das kann dir auch mit jedem aktuellen und voll gepatchten OS passieren.
Wie greift er denn auf die Daten auf dem Server zu? Wahrscheinlich über ein gemapptes Laufwerk. Dein Verschlüsselungstrojaner kann also einfach alle Dateien auf dem Laufwerk verschlüsseln und braucht gar nicht direkt auf den Server zu kommen. Kann dir passieren unabhängig davon ob Linux, EOL Windows, aktuelles Windows, QNAP, Synology, Netapp, und wie sie alle heißen.

Grüße, CommodoreX64
Und genau dafür gibt es dann ZFS mit Read-Only Snapshots, da kann ein Trojaner gern alles verschlüsseln (so lange bis der Platz ausgeht)
Beitrag automatisch zusammengeführt:

Gut zu wissen.

Nein, das sind soweit ich weiß alles Seagate HDDs. Aber auch gut zu wissen SMR zu meiden bei einem Neukauf.

Unterstützt das Xigmanas auch NTFS? Ansonsten müsste ich die bestehenden Datenplatten neu formatieren und die Daten vom Backup einspielen, was etwas dauern kann.
Im Prinzip Ja, aber du solltest dann auch wirklich ZFS nutzen (am Besten natürlich mit Redundanz : Mirror oder Raidzx) und damit die Features von ZFS zu haben
- Schutz vor Datenrot durch Prüfsummen
- Selbstheilend (wenn Redundanz vorhanden)
- Immer Konsistentes Dateisystem durch CoW
- Read Only Snapshots, die wirklich nur von Root (= Admin) löschbar sind - natürlich auch über die WEB-GUI (Schutz vor Verschlüsselungstrojanern etc.)
Beitrag automatisch zusammengeführt:

Danke, aber um mein Backupkonzept brauchst du dir keine Sorgen machen. Ich hab mehrere Stände bis zu einem Jahr zurück und wenn ich das bis dahin nicht gecheckt habe dann bin "ich Depp" selbst schuld. ;)
Und was ist mit den älteren Dateien , die wichtig sind, aber u.U. seit Jahrfen nicht geöffnetet wurden?
Stichwort: Beschädigung von Daten durch DatenRot / Datenrost.

P.S. in der Abstimmung fehlt noch FreeBSD (FreeNAS, XigmaNAS) und evtl Solaris/Solarisch (z.B. OmniOS, OpenIndiana) mit Napp-It, denn die sind eigentlich für NAS wichtiger als Linux.
ZoL (ZFS on Linux) halte ich immer noch für eine größere Spielwiese als ernsthaft nutzbare Alternative - schon alleine wegen der unterschiedlichen Lizenzmodelle von Linux und OpenZFS und den daraus resultierenden Grabenkämpfen bei den Entwicklern. Ich erinnere mich daß da letztes oder vorletztes Jahr eine Funktion aus Linux rausgenommen wurde, die ZoL zwingend benötigte >> Knack.
 
Zuletzt bearbeitet:
Ein Dell T20 mit 16GB RAM gibt einen perfekten Storageserver mit ZFS.
Gegenüber Windows ist das in allen Punkten haushoch überlegen. ZFS geht bei einem Absturz nicht kaputt wie es mit ntfs passieren kann, es kann readonly Snaps (=Windows vorherige Version) und ist damit Ransomware sicher. Auch ein Trojaner mit Windows Admin-Rechten kann die nicht löschen im Gegensatz zu Windows Shadow Copies. Auch kann man problemlos Hunderte/Tausende Snaps als Versionierung vorhalten. ZFS ist dazu sicheres Raid (kein Write Hole Problem) und es hat Prüfsummen auf Daten und Metadaten. Mit Raid werden dadurch erkannte Fehler automatisch repariert. Als Zugabe ist das ganze sehr schnell in der Performance, schnell eingerichtet und per Webmanagement viel einfacher zu managen als jeder Windows Filer. Auch nach einem Totalcrash ist das schnell neu aufgesetzt und ein Raid importiert und ein Filer nach wenigen Minuten wieder betriebsbereit. Man muss da nicht auf spezielle Raid Controller und Treiber achten, tut einfach. Zur Datenübernahme die Daten wegsichern, z.B. auf zwei der Platten, die dann an den PC anschliessen. Dann die ZFS Appliance installieren z.B. auf eine kleine SSD ab 50GB und mit den verbleibenden HDD Platten einen Mirror anlegen. Darauf von Windows per SMB auf den ZFS Filer kopieren. Ist das fertig, die Platten in den Dell packen und an den Mirror einen weiteren anfügen. Gibt dann ein Raid 10.

All das kann man ganz einfach mit einer Unix Storage Appliance mit Management via Browser handhaben. Die besten Unix Optionen gibt es mit Free-BSD wo ZFS schon seit Jahren eingesetzt wird mit FreeNAS/ XigmaNAS oder unter Solaris wo ZFS bei Sun & Solaris 2005 entwickelt wurde und wo immer noch die beste OS Integration da ist, die geringsten Resourcen gebraucht werden und die meisten Features vorhanden sind z.B. echte ZFS Verschlüssellung, schnelle spezielle vdev, System Checkpoints oder der gnadenlos gute und einfache Solarish SMB Server der in ZFS und den Kernel integriert ist.

Unter dem kommerziellen Oracle Solaris (frei verfügbar für noncommercial demo und development) und den freien Solaris Forks wie OmniOS https://omniosce.org/, made in UK&Switzerland kann man meine Manuals nutzen https://napp-it.org/manuals/index.html

Für OmniOS gibts optional kommerziellen Support aber auch ohne den stable und long term stable Versionen und regelmäßige Sicherheitsupdates, z.B. https://github.com/omniosorg/omnios-build/blob/r151032/doc/ReleaseNotes.md
 
Zuletzt bearbeitet:
Und wo genau ist da jetzt der Denkfehler? Erörtere das mal bitte ausführlich. Sprich, welcher beschriebene Punkt kann so nicht eintreten und wurde daher von mir fehlerhaft dargestellt.
Ich habe nicht gesagt, dass der von dir beschriebene Punkt nicht auf so eintreten kann. Es können aber auch noch 150 andere Punkte eintreten, die alle nicht davon abhängig sind ob es sich nun um einen WS2008R2 oder WS2019 handelt. Sobald auf dem Client der auf den Server zugreift Credentials eingegeben werden können diese abgefangen werden und zur Verbindung zum Server genutzt werden. Gibt ja genügend Malware die das schon so praktiziert.

PS: Ich habe z.B. keine gemappten Laufwerke, tja, warum nur? ;)
Keine ahnung? Schutz bietet es dennoch nicht, ob die Laufwerke nun gemappt sind oder nicht. Wie greifst du denn dann auf Daten auf einem Server zu? Per UNC? Hast ja dann selbiges Problem.

Grüße, CommodoreX64
 
Also ich hab den Server gerade in Betrieb genommen und wie sich herausgestellt hat sollte ich sowieso zuerst die Platten tauschen, bevor ich irgendwas mache. Crystaldiskinfo zeigt mir bei beiden Seagate Platten "Vorsicht" an.
 
Ich habe nicht gesagt, dass der von dir beschriebene Punkt nicht auf so eintreten kann.
Du hast mir einen Denkfehler unterstellt. Das heißt, an meiner getätigten Aussage ist irgendetwas falsch.

Ich habe lediglich erörtert, warum es nichts bringt das Securitykonzept "kein Internetzugang" aufzubauen, weil auch noch ganz andere Angriffsvektoren bestehen.
Einen dieser vielen Angriffsvektoren habe ich beschrieben. Da es einer von vielen ist, bedeutet das, dass es da noch andere gibt, auf die ich nicht eingegangen bin.

Es sei nochmal erwähnt, dass es ja noch nicht mal Angriff/Viren/Malware, you name it sein müssen. Es reicht schon aus, wenn MS ein Feature "Dateien kaputt machen nach Zeitraum X" implementiert hat. Das sieht man ja gerade zum wiederholten Male bei HP ServerSSDs.
 
Also ich hab den Server gerade in Betrieb genommen und wie sich herausgestellt hat sollte ich sowieso zuerst die Platten tauschen, bevor ich irgendwas mache. Crystaldiskinfo zeigt mir bei beiden Seagate Platten "Vorsicht" an.
Dann Poste doch mal die Screenshots, "Vorsicht" kann bei CDI viel oder nichts heissen...
 
Anbei die Screenshots :)
 

Anhänge

  • hdd1.png
    hdd1.png
    37,1 KB · Aufrufe: 126
  • hdd2.png
    hdd2.png
    37,7 KB · Aufrufe: 130
Du hast mir einen Denkfehler unterstellt. Das heißt, an meiner getätigten Aussage ist irgendetwas falsch.
Ich habe nicht gesagt, dass an deiner Aussage etwas falsch ist. Sie gibt das Problem aber nur sehr reduziert/beschränkt wieder.

Es sei nochmal erwähnt, dass es ja noch nicht mal Angriff/Viren/Malware, you name it sein müssen. Es reicht schon aus, wenn MS ein Feature "Dateien kaputt machen nach Zeitraum X" implementiert hat. Das sieht man ja gerade zum wiederholten Male bei HP ServerSSDs.
Genau, solche Features gibt es ja ausschließlich bei MS und das quasi tagtäglich 😉

Du hast übrigens nicht auf meine Frage geantwortet, was du denn dann machst, wenn keine Drive Mappings.

Grüße, CommodoreX64
 
Ich habe nicht gesagt, dass an deiner Aussage etwas falsch ist. Sie gibt das Problem aber nur sehr reduziert/beschränkt wieder.

Wollen wir jetzt hier ne vollumfängliche 1000000 Seiten Abhandlung über Angriffsvektoren in Hardware und Softwarekonstrukten machen,`nur damit keine reduzierte Darstellung rauskommt?
Am besten liefern wir dann noch eine nicht reduzierte, sprich vollumfängliche, Gegenstrategie. Ich melde darauf dann schonmal direkt Knowhow- und Patentschutz an. Dann habe ich nämlich direkt für die nächsten 100 Generationen meiner Familien ausgesorgt inkl. einem Leben in Saus und Braus.

Genau, solche Features gibt es ja ausschließlich bei MS und das quasi tagtäglich 😉
Hast du den Post gelesen? Ich hab z.B. HP ServerSSDs erwähnt. HP ist eine andere Firma als MS, nur falls das nicht klar sein sollte.

Des Weiteren sei auch hier nochmal der Hinweis, weil du das scheinbar nicht wirklich verstehst, es geht hier nicht darum alle möglichen Szenarien, Fehlerquellen, Hersteller und was weiß ich nicht, zu beleuchten.
Wenn du das machen willst, dann fang mal an. Ich melde mich dann in 10 Jahren nochmal und frage nach, ob du denn schon fertig bist. (wohl eher nicht)


@Zugriffsfrage
1. Das interessiert die Leute hier nur tertiär.
2. Glaube ich nicht, dass dir diese Info irgendwas bringen würde, wenn du schon einfache (nicht vollumfängliche) Beispiele, derer es schon 2 von mir gibt, nicht nachvollziehen kannst.
 
Könnt ihr das bitte per PN klären? Dieses gezanke bringt hier keinem was... :shake:

@Digi-Quick
Kann man die Platten deiner Meinung nach noch verwenden oder gehören die dringend ausgetauscht?
 
Überschreib mal die Platten komplett und schau dann nochmal mit CDI.
 
zu den CDI-Screens.
Beide Platten einmal komplett formatieren , kein Quickformat. Danach sollten die Schwebenden und nicht korrigierbaren Sektoren "verschwunden sein.
Entweder du hast dann ein paar mehr "neu zugewiesenen Sektoren", weil die tatsächlich defekt waren, oder aber die Sektoren sind OK und waren z.B durch eine Systemabsturz beim Schreiben logisch beschädigt worden. Da die beiden Anzahlen identisch sind, gehe ich davon aus, daß die Sektoren eher logisch beschädigt sind.

Zu den wenigen bereits vorhandenen "neu zugewiesenen Sektoren" kann ich aus meiner Erfahrung mit Seagate sagen, daß diese bei Seagate schon fast "zum guten Ton" gehören und meist relativ schnell auftreten - zumindest bei den älteren Serien (1,5 - 2 TB Platten) die ich habe. Ich habe Seagate Platten mit 1-10 wiederzugewiesenen Sektoren seit teilweise 4-7 Jahren (und länger) immer noch in Betrieb, die immer noch Problemlos funktionieren, obwohl die "neu zugewiesenen Sektoren" nach wenigen Wochen aufgelaufen sind. Dieses habe ich in der Häufung bei keinem anderem Hersteller gehabt. (Eine bestimmte 160GB Maxtor Platte ist mir allerdings reihenweise gestorben - sehr oft innerhalb der Garantie)

Wichtig an diesem Wert ist: Fängt er - quasi regelmäßig - an zu steigen, dann wird's kritisch, denn das könnte ein relativ sicherer Hinweis auf einen Headcrash sein. Also den Wert im Auge behalten, regelmäßig prüfen.

Ergo Tendenziell weiterverwenden!
(Ich würde diese nach dem Formatieren noch mindestens einmal komplett mit h2wtest überprüfen und mir die Smartwerte danach anschauen und dann entscheiden: Normale Nutzung, Datengrab für unwichtiges/wiederbeschaffbares/"Nacktkrimi" oder Tonne)
 
  • Danke
Reaktionen: W2K
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh