potenter selfmade Server - Datenbanken / VM / Fileserver / Webserver -> AIO Hard- Software?

Soll er meinen, wen er möchte, was fürn Schwachsinn...
Ist ja nicht so, dass ich nicht auch mal Unsinn schreiben würde, aber das ist echt Next Level.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
OT: ne aber der @ludwinator hat ja recht: wenn mein Spili Server nicht mehr läuft (den TE kann er ja nicht gemeint haben, so genau wie er scheinbar von oben nach unten liest), kann ich meine Heerscharen von Mitarbeitern nicht mehr bezahlen und muss selbst auch ins Armenhaus. Da hilft auch die Ratzbatz Versicherung nichts mehr. Obwohl ich mir wahrscheinlich deutlich mehr Mühe als so manche Arztpraxis oder Sanitärbetrieb gebe die Verfügbarkeit hoch zu halten (siehe z.B. Nachbarfred). Was mir bislang sogar recht gut gelungen ist, bin ja schon länger dabei bei den Spilihostern.

Aber kann Dich beruhigen in der Hinsicht: gebe mir alle Mühe, meine Community nicht länger als nötig hängen zu lassen. Selbst wenn meine chinesischen Freunde wieder (hyper-)aktiv sind, schaue ich darauf, das Wartungsfenster klein zu halten.

cu, Dir auch.

:popcorn:
 
Zuletzt bearbeitet:
nabend :)

also ihr lieben liebenden. Nun hab ich mir richtig viele Server angeschaut und hin und her überlegt/ gerechnet.
Allerdings hab ich mich trotz des Tipps eine andere Entscheidung getroffen und möchte die hier an der Stelle euch auch mitteilen.
Aufgrund der erhöhten Investitionskosten und der Laufkosten + Aufwand habe ich mich doch für den nagelneuen AM5 CPU entschieden als single Server.
Natürlich sollte hier eine ordentlichen Backupstrategie bedacht werden.

Als Software tendiere ich immernoch zum Proxmox (Ich hoffe als ESXI User kann ich mich da gut einarbeiten und die Server aus eSXI leicht migrieren) . Mit 2 bis 3 VM's Kosten der Hardware: ~2700€ Beinhaltet: 128gb ECC Ramm und 2x4TB nvme Speicher + redunanten Netzteil mit einem alten Gehäuse was ich über hab. Ein gebrauchter Server hätte zwar etwas weniger gekostet und ich hätte mehr Multithreads, Arbeitsspeicher, Festplattenanzahl, fertiges System etc., aber das benötige ich so hoffentlich nicht. Ich würde eine nvme immer spiegeln bzw eine Schattenkopie einmal auf die 2 Nvme legen wollen, da bin ich mir auch noch nicht so sicher wie genau. Das Mainbord hat 4 SATA Anschlüsse, wo ich eventuell 4x2 TB Festplatten reinhängen könnte, die bei mir fast Nageneu noch auf Lager sind. Den Speicher benötige ich nicht, 2 tb reichen im moment. Wie gesagt soll diese als Filecloud und ERP System hautpsächlich fungieren. Ich bin gespannt wie schnell das System rennt.

Ich hoffe ich hab mich nicht fehlentschieden. Wenn der neue Server aufgesetzt ist, werde ich mein alten Server als Backup wieder zu Seite legen, sodass ich die diesen jederzeit hochfahren kann und die VM dort im Notfall hochzufahren. Vielleicht wäre es sinnvoll den sogar in dem Cluster mit einzubinden? Ich bin seit den ganzen kompetenten Vorschlägen jetzt ein wenig verunsichert und habe sehr viel Angst entwickelt vor einem Hardwareausfall ^^
 
Zuletzt bearbeitet:
Backup beim Proxmox macht man mit dem PBS (Proxmox Backup Server). Der sichert auf Datenblockbasis, und nach dem ersten initialen Backup werden nur noch die geänderten Blöcke gesichert, inkl. automatischer De-Duplizierung. Den PBS kannst Du intern laufen lassen (VM + eigene Backup Platte), oder als externen Server. Oder noch besser: beides ;)

Weiterhin kannst Du Veeam verwenden, das ist bis 10 Clients oder 3 Server als kostenlose Community Edition nutzbar.

Der Import von ESX VMs ist bei Proxmox direkt über das GUI möglich - ESX Datastore mounten, VM auswählen & go.
 
Backup beim Proxmox macht man mit dem PBS (Proxmox Backup Server). Der sichert auf Datenblockbasis, und nach dem ersten initialen Backup werden nur noch die geänderten Blöcke gesichert, inkl. automatischer De-Duplizierung. Den PBS kannst Du intern laufen lassen (VM + eigene Backup Platte), oder als externen Server. Oder noch besser: beides ;)

Weiterhin kannst Du Veeam verwenden, das ist bis 10 Clients oder 3 Server als kostenlose Community Edition nutzbar.

Der Import von ESX VMs ist bei Proxmox direkt über das GUI möglich - ESX Datastore mounten, VM auswählen & go.
Ich würde auch eine doppelte Backup Strategie empfehlen. Mit einem Tool regelmäßige Backups und mit einem anderen Sporadische.
 
Das war eher darauf bezogen, das INTERN immer geht. Ich habe das bei mir wie folgt gelöst:
Jeder Knoten sichert im 3 Stunden alles und hebt die letzten 3 Version auf, in der Zeit von 9:00 bis 18:00h, bedeutet: jede volle Stunde liegt irgendwo ein Backup.

Zusätzlich 21h Backup auf extrenen Server, der hebt dann länger auf. Weiterhin hiervon einen Mirror auf 2tes Gebäude.

Zusätzlich per Veaam oder Sync Tool Daten vom FileServer für 1 Jahr - da ändert sich ja nur wenig, aber man benötigt ev. Dateversionen die länger zurück liegen wie die Vorhaltezeit der kompletten VMs.
 
hallo @AliManali ,

oha mh ich glaub da hab ich tatsächlich die falschen nvme bestellt o_O" glücklicherweise sind die noch nicht geliefert und diese kaufe ich "Privat". Also kann diese auch zurückgeben. Gut das du es fragst !!!! o_O" So schnell gehts sonst bei DIY Projekten _ __"

Ich gehe zwar nicht von aus das dank der USV der Strom ausfällt, aber man weis ja nie und sollte auf alles vorbereitet sein.
ausgesucht hatte ich mir die "Transcend 250S 4 TB, SSD", da nach Hersteller die MTBF und TBW sehr gut erschienen für den Preis.
Welche Speicher würdest du mir empfehlen? Ich hab auf der schnellen Prüfung nur diese gefunden "Corsair MP600 PRO LPX 4 TB" <- Allerdings kann ich das nur in der SKU Nummer finden. So ein "Filter" nach PLP findet sich sehr schwer. Produkten find ich nicht :( 4TB NVMe Geräte scheinen noch nicht so verbreitet mit dieser besagten Eigenschaft. Zur Not würde auch eine 2TB Platte reichen .

@Supaman und @n3cron , jawohl ich wollte auch eine doppelte Backupstrategie machen. 1 Backupsserver und 1x in der Woche eine Fesplatte in einen Tresor packen und vorrige rausholen. Hierfür stehen mir 4x4TB HDDS zur Verfügung.
 
Zuletzt bearbeitet:
Das hat glaube ich auch noch andere Gründe mit dem PLP, als nur der Ausfall vom Strom. Mit PLP werden gewisse Aktionen fixer ausgeführt, weil da schneller die Rückmeldung kommt. Weiss auch nicht mehr genau den Hintergrund. Hatte früher 850 Evo drin für VMs, das war schnarchlangsam. Kein Vergleich zu den aktuellen DC Teilen mit PLP (SM883). Die sind mixed use, das dürfte für VMs ideal sein.

Keine Ahnung von NVME SSD, sry. Da muss jemand anderes einspringen. Hier ist alles auf SATA.
 
Super Danke nochmal.
Preis Leistung würde ich glaub ich diese hier nehmen "SSD Micron 7400 PRO 3.84TB M.2"
 
ausgesucht hatte ich mir die "Transcend 250S 4 TB, SSD", da nach Hersteller die MTBF und TBW sehr gut erschienen für den Preis.
Die sind mir auch schon mal aufgefallen, anhand ihrer Papier-Werte.
Hab aber nie gekauft, weil Transcend, das hat man irgendwie noch nie gekauft...

Preis Leistung würde ich glaub ich diese hier nehmen "SSD Micron 7400 PRO 3.84TB M.2"
1) Augen Auf beim Händler, würde eher beim 2. kaufen in der Liste, der 1.... ich weiss nicht.
2) Augen auf bei der Bauform, das sind 22110er, länger als die üblichen 2280er... müssen ja auch passen.

Ich hab eine 1tb davon, braucht halt recht viel Strom, auch im idle (so 7-8W), aber das tun die PLP fast alle (speziell auch die U.2 Modelle).
So richtig schnell sind die auch nicht, aber wohl schnell genug.

Bei allen "ABERs" ist die 7400pro wsl. immer noch das beste vom P/L her, die PLP SSD Preise sind leider momentan ziemlich schlecht... war schon mal um die Hälfte billiger...
 
Wie gesagt, selber keine Ahnung. Aber für VMs würde ich keine read intensive nehmen, eher mixed use.
 
Naja, klar hast du damit recht, aber die TBW der 7400 pro read intensive sind schon ganz okay, wirkt mir ja nicht so, als würde der Server besonders "hart arbeiten" müssen...
Was wirklich "besseres" gibts erst als U.2 > 1000€ / 4tb... ist dann schon ne Hausnummer.

Nachdem mir das ganze Setup jetzt nicht soo "dick aufgetragen" erscheint, könnte man das schon so machen, wäre meine bescheidene Amateur-Vermutung.
 
also wenn ich mir die alten stats anschauen wird der server im idle rumhängen (Das macht er ja schon mit mein alten Setup größten Teils ).
Das schont aber in mein Augen die hardware & Strombedarf und im falle einer erhöhten last schluckt das system das wenigsten alles fix weg. Demzufolge hab ich die nächsten 4-5 +++ Jahre vermutlich auch meine Ruhe.

1000€ erscheint mir doch zu kostenintesiv.
 
Naja, ist halt "gut gemeint"... die Realität ist halt irgendwo ein Kompromiss zwischen dem technischen Optimum und der budgetären Minimallösung... :d
 
Mit PLP werden gewisse Aktionen fixer ausgeführt, weil da schneller die Rückmeldung kommt. Weiss auch nicht mehr genau den Hintergrund. Hatte früher 850 Evo drin für VMs, das war schnarchlangsam. Kein Vergleich zu den aktuellen DC Teilen mit PLP (SM883).
Der Grund ist einfach: sobald die SSD die Daten erhalten hat, gibt sie SOFORT die Rückmeldung <alles ok>, auch wenn das noch nicht wirklich geschrieben ist, da kein Verlust eintzrten kann, weil mit PLP so gesehen eigener Akku (in Form von Kondesatoren) vorhanden. Eine normale SSD gibt erst dann ok, wenn Daten geschrieben, und das macht sich deutlich in den Latenzen bemerkbar, jedenfall sofern man eine Anwendung hat die Lastintensiv ist.

Bei SSDs mit PLP ist die Auswahl recht dünn... m2 hat dann oft Formfaktor 22110, die dann nicht passen, wenn das Board/die Adapterkarte nur 2280 kann.
Alternative: u2 SSD im 2,5" Format, und dann PCIe Adapterkarte verwenden.
 
Die sind mir auch schon mal aufgefallen, anhand ihrer Papier-Werte.
Hab aber nie gekauft, weil Transcend, das hat man irgendwie noch nie gekauft...
Ich habe ein paar wenige Transcend, unter anderem auch wegen der Werte.
Ist ganz OK, wenngleich DC halt was anderes ist.
Meine anekdotische Evidenz dazu.

PLP und M.2 ist tatsächlich schwer, gerade bei größeren Kapas.
Da es aber um Datenbanken geht, würde ich da ein noch viel größeres Augenmerk als sonst auf sowas legen.
RI SSDs sind im allgemeinen für sehr sehr vieles völlig ausreichend.
Wobei das ja keine geschützte Klasse ist.

DWPD von 1 würde ich da als RI definieren. 5 als MU und 10 als WI.
Ansonsten würde ich Ausschau nach gebrauchten SSDs halten. Ab und an findet man mal U.2 bei ebay für nen schmalen Taler. Die sind in der Regel nicht ganz so platt, passt also.
Einfach wird es dann, wenn man so angesprochene PCIe nach U.2 Adapter einsetzt.
Mit M.2, Kabel und Adapter muss man ein wenig aufpassen, das kann manchmal Schmerzen haben.
 
PLP und M.2 ist tatsächlich schwer, gerade bei größeren Kapas.
Vor 1 bis 1,5 Jahren waren diese Samsung PM... recht günstig, auch mit größeren Kapas, die dürften vom Verbrauch her auch weit "heimtauglicher" sein als die 7400er.
Habs leider versäumt mich damit einzudecken... hatte das zu der Zeit noch nicht so am Schirm.
Mit der DC600M hätte man sich zu dieser Zeit auch eindecken können... war echt okay in €/TB...

Ich hab das Gefühl, dass der KI-Boom auch den SSD Markt total leergesaugt hat, es ist mit PLP ja quasi nichts mehr zu bekommen.
Nur paar (Auslauf-?) Modelle bei teils recht komischen (?) Händlern zu Preisen, die im Vergleich zu den letzten 2 Jahren relativ absurd erscheinen...

... also aus der Hobby-Sicht gesehen. Mag "von innen heraus" vielleicht anders aussehen, für jemanden wie Dich.
Ansonsten würde ich Ausschau nach gebrauchten SSDs halten.
Das ist aber auch die Katze im Sack und muss vom Preis her halt echt so unschlagbar günstig sein, dass ein Fehlgriff im "Spiel-Budget" untergehen kann.
Die können NOS sein oder total totgeschrieben, wer soll das schon erraten.
Hab sowas auf Ebay gesucht und auch "gekauft" (Nytro M.2), wurde dann aber Rückerstattet da die Ware dem Verkäufer angeblich "abhanden" gekommen war, am nächsten Tag dann ums doppelte wieder drin (und das dann zu einem Preis, zu dem ich nicht mehr die Katze im Sack aus Slowenien kaufe).
Mit M.2, Kabel und Adapter muss man ein wenig aufpassen, das kann manchmal Schmerzen haben.
... tell me more, tell me more... *sing* :d


Bonusfrage für den sparsamen Bastler:

Ich für meinen Heim-Fall hab mir jetzt überlegt einen ZFS Mirror aus 2x KC3000 2tb zu machen (für Proxmox und dessen VMs und den Kram) und dem ein ZIL/SLOG in Form einer 7400pro hinzuzufügen... wie ist das dann eigentlich mit den Sync-Writes, werden die dann mit dem PLP Slog auch als "sofort geschrieben" "gemeldet", wie es beim Schreiben auf die meisten PLP SSDs ist, oder ist das genau so lahm wie ein Sync-Write auf eine non-PLP-SSD ohne SLOG fürs ZIL?

Optane M10 hat ja kein PLP, oder? Sonst wäre das statt der 7400pro vllt. sparsamer und günstiger... (1x 1tb 7400pro hab ich ja hier, wenn ich ein wenig umstrukturiere wird mir die frei...)
 
Ich hab das Gefühl, dass der KI-Boom auch den SSD Markt total leergesaugt hat, es ist mit PLP ja quasi nichts mehr zu bekommen.
Nur paar (Auslauf-?) Modelle bei teils recht komischen (?) Händlern zu Preisen, die im Vergleich zu den letzten 2 Jahren relativ absurd erscheinen...
Das liegt daran, dass sich der SSD Markt drastisch weitergedreht hat.
M.2 ist im Enterpriseumfeld kein Thema mehr. Klassisch setzt man sowas noch in Boot Devices ein.
Ansonsten ist SAS, U.2, U.3 und neuerdings auch etliche Varianten des EDSFF-Standards das, was der Enterprisemarkt fordert. Besonders EDSFF erfährt gerade eine Marktdurchdringung. Wir haben bereits EDSFF Storages im Einsatz. HP hat bei den Gen11 Server bereits EDSFF im Standardportfolio. Da wird also zur Standardstangenware und ist nicht nur irgendwelchen komischen Spezialstoragelösungen vorbehalten.
D.h. EDSFF wird sowas werden, wie es die letzten 20 Jahre mit SAS der Fall war.

Und da konzentrieren sich die Hersteller auf das, wo Stückzahl hinter steht. Da fallen die Varianten weg, wo die Stückzahl eben nicht so hoch ist.
Dieser Effekt wird sich noch weiter verstärken, wenn NVMe-oF richtig an Fahrt gewinnt. Wenn man heute 100 Drives in einem Storage verwenden will, geht quasi nur SAS oder FC, wobei letzteres am Ende auch SAS drives sind. Mit NVMe-oF werden die aktuellen Limitierungen aufgehoben.
D.h. NVMe wird sich noch weiter durchsetzen und SAS, wo es noch eine Nische abdeckt, auch ablösen können.
D.h. auch, dass der Endkundenmarkt, der EnterpriseHW retoolt, sich entsprechend anpassen muss.
Also, wenn ihr in den nächsten 10 Jahren irgendwo große passende Laufwerke im oldschool-Layout findet, solltet ihr zugreifen. Alles danach erfordert dann irgendwelche Spezialbackplane (die kosten) oder das wird noch mehr nen Adaptergefummel, als es das heute schon ist.
 
Zuletzt bearbeitet:
Ich für meinen Heim-Fall hab mir jetzt überlegt einen ZFS Mirror aus 2x KC3000 2tb zu machen (für Proxmox und dessen VMs und den Kram)

Würde halt den proxmox Host auf einen separaten Datenträger legen. Ich nutze für den Host und Filer je eigene Datenträger. Ist einfach vom Handling her gechillter. Und ich komme morgens um 05:39 auch nicht auf die Idee, da mal meinen vm Datastore zu überschreiben. Atm sowieso nicht, ich leg mich nochmals bis 8:30 aufs Ohr vor weiteren Experimenten.
 
M.2 ist im Enterpriseumfeld kein Thema mehr. Klassisch setzt man sowas noch in Boot Devices ein.
Ansonsten ist SAS, U.2,
Das mit M.2 versteh ich eh. Aber es gab ja auch ne Zeit, wo man durchaus interessante/gute U.2 relativ "günstig" bekommen hat.
Aber ja, klingt alles sehr schlüssig.

Wobei ja auch quasi keine "kaufbaren" SATA SSDs mehr gibt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh