[Kaufberatung] Homeserver build für Videoediting (und mehr)

Mit etwas Glück hat man in .de nach 15 Jahren ggf. dann die 2MBit im Upload.
😂 Wenn es nicht so traurig wäre, könnte man lachen… Mach ich auch 😁

Ich lebe in Zypern und mir fällt nicht viel ein, was sich für mich nicht verbessert hätte, aber die Internetverbindung gehört leider nicht dazu. Bei meinem Standort war ich mangels Leitung darauf angewiesen mir einen Zyxel-5G-Outdoor-Router anzuschaffen. Der funzt und bringt mir zwischen 40 - 150 Mbit DL und 20 - 100 Mbit UL.

Der Haken an der Sache: Monatlich maximal 300 GB Traffic (nicht gerade günstig), und damit muss ich alles verwursten. Das reicht meistens nicht mal für das Tagesgeschäft. 🤷
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
3 bis 12 MB Upload ist garnicht so schlecht, ich habe für über 50 TB einige Monate mit 100/40 DSL. 5 MB Upload.
Schon mal an Starlink und co gedacht ?
 
Mach es doch erstmal ohne Cloud, in der Regel sollte ja nichts passieren. Solange du dir wenigstens eine einfache Sicherung machst von deinem Träger System ist alles kein Problem. Sehr unwahrscheinlich das bei z. B 6 Datenträgern alle ausfallen (außer es ist ein Defekt einer Serie). Den Rest kann man immer wiederherstellen.
 
Mach es doch erstmal ohne Cloud, in der Regel sollte ja nichts passieren. Solange du dir wenigstens eine einfache Sicherung machst von deinem Träger System ist alles kein Problem. Sehr unwahrscheinlich das bei z. B 6 Datenträgern alle ausfallen (außer es ist ein Defekt einer Serie). Den Rest kann man immer wiederherstellen.
Danke, sehe ich genauso. Ich hatte bei meinem Qnap-4bay-NAS in über 10 Jahren zwei HDD-Ausfälle, die problemlos wiederhergestellt wurden. Das war nur RAID 5, ich würde aber der Empfehlung folgen und jetzt RAIDZ2 wählen. Dazu interne Sicherungen und die Bude nicht abfackeln oder überschwemmen, dann sollte es gehen… 😁
Beitrag automatisch zusammengeführt:

Mal ein Beispiel wie ich das meine:
Danke für die Mühe.
Ich präferiere diese Lösung und tendiere auch zu deinem Hardwarevorschlag (die Richtung).

Diese beiden Pfeile in deiner Skizze habe ich aber noch nicht ganz kapiert:
0C2808AD-A7FF-4161-B458-107C1A0B2557.jpeg

Angenommen, ich möchte ein Truenas Core und zusätzlich eine Linux- und eine Windows VM aufsetzen.
Ich “raide“ Proxmox auf zwei kleinen SSDs. Weise alle HDDs und NVMe der Truenas VM zu. Erstelle dort Speicherpools für Hot- u. Cold Storage, ggf Cache…
Müsste ich dann die beiden anderen VMs auf Truenas-Ebene aufsetzen? Dann macht Proxmox eigentlich keinen Sinn… Oder kann ich Ressourcen von Truenas (separater Speicherpool), an Proxmox „zurück routen“ (sorry für die unprofessionally Ausdrucksweise, ich hoffe es ist zu verstehen was gemeint ist).

Danke und einen schönen Tag 😉
 
Zuletzt bearbeitet:
Ja, kannst du - so wie das ein jedes NAS macht: Via shared folder. Also z.B. NFS, SMB oder ähnliches - zumindest mache ich das so. Man könnte sicherlich auch mit mountpoints oder ähnlichem arbeiten, aber da bin zumindest ich raus.
 
Klar, manchmal sieht man den Wald vor lauter Bäumen nicht… 😄 Danke!

Was spräche denn gegen sowas hier?
ASUS ProArt-X570 Creator Wifi

Wifi benötige ich natürlich nicht, und so eine „BIOS-Remotverwaltung“ hat es natürlich auch nicht, aber auch da habe ich eher keinen Bedarf, weil der Monitor steht direkt daneben und Konfigurationsarbeiten erfolgen vor Ort.

Dafür aber:
ECC mit der passenden CPU, 6 x SATA on Board, 1x 10GBe + 1x 2,5 GBe, 3x M.2, USB-C via Header für die Front, uuund 2x Thunderbolt 4 (auf deren Verwendung ich ja noch etwas spekuliere).
 
Statt ein 500€ AM4 Mainboard jetzt zu kaufen, würde ich eher eine 10GBE PCIe Karte einplanen, oder gleich auf AM5 gehen (erstmal ohne ECC)…
 
Gar nichts, denn auf einen Server der auch als NAS dienen soll gehört 10GbE. Und dieses Board hat einen komischen Marvell Chipsatz für 10G - bei 10G heißt es entweder Intel oder Nvida (aka Mellanox). Daher müsstest du dann 10G nachrüsten so du proxmox oder gar TrueNAS verwenden willst. Dazu kommt noch das dieses Board von Asus eher stiefmütterlich mit Bios und co. versorgt wird. BottomLine: Nichts mit "Creator" als Serverboard verwenden.
 
bei 10G heißt es entweder Intel oder Nvida (aka Mellanox).
Das stimmt so nicht.
Es gibt da noch Broadcom und Marvell. Marvell? Ja, Marvell!

Marvell war ja einkaufen und die haben sich mit Billigmarken, aber auch Enterprisemarken eingedeckt.
Und so kommt es, dass der QLogic-Teil von Marvell Enterprise tauglich ist und in der Liga von Intel, Mellanox aber eben auch Broadcom mitspielt. Und so sieht das auch mit dem Support aus.
Der Marvell Aquantia-Teil ist hingegen klar ne andere Nummer und der ist bei dem Asus-Board drauf.

Auf der anderen Seite, geht da sicherlich auch gut durch @home, wenn man nun keine besonderen Features und Faxen braucht.

Aber auch ich würde mich da eher an ein Enterpriseboard wenden. Mit 500EUR findet man da auf jeden Fall gut. Und 10GBE, falls notwendig, bekommt man für unter 100EUR nachgerüstet mit guter Hardware.
 
Das stimmt so nicht.
Es gibt da noch Broadcom und Marvell. Marvell? Ja, Marvell!
Die Frage ist doch wie gut die NICs von Linux unterstützt werden.
Als Homeserver landet halt häufig TrueNAS Core & Scale, Proxmox, Esxi, OMV, UNRAID auf dem Server.
 
Ok ok, ihr Spielverderbe. Ich habe verstanden! 😁 Sowas hab ich schon erwartet, deswegen bin ich ja auch hierhin gekommen… 😉

Isch gugge anders und befürcht, dass ich euch noch mal belästigen muss.

Ich bin natürlich auch für Vorschläge offen, aber bitte auch die Verfügbarkeit beachten. Bei Asrock Rack habe ich mich schon Stunden herumgetrieben, aber da gibts ja aktuell nix. Die kommunizieren nicht mal ein Lieferdatum 🙈

Schönen Abend!
 
Die Frage ist doch wie gut die NICs von Linux unterstützt werden.
Als Homeserver landet halt häufig TrueNAS Core & Scale, Proxmox, Esxi, OMV, UNRAID auf dem Server.
Das ist Enterprise-Zeug, da ist Linux mit das einfachste was du haben kannst.
Und schaut man mal in die Treiberlisten findet man auch die erwähnten Treiber.

Die Karten werden von den großen Herstellern verwendet und da ist ESX mit das aller einfachste. Aber auch hier gilt, zu alt darf das Zeug auch nicht werden, wenn man aktuelles haben OS will.
 
Ok ok, ihr Spielverderbe. Ich habe verstanden! 😁 Sowas hab ich schon erwartet, deswegen bin ich ja auch hierhin gekommen… 😉

Isch gugge anders und befürcht, dass ich euch noch mal belästigen muss.

Ich bin natürlich auch für Vorschläge offen, aber bitte auch die Verfügbarkeit beachten. Bei Asrock Rack habe ich mich schon Stunden herumgetrieben, aber da gibts ja aktuell nix. Die kommunizieren nicht mal ein Lieferdatum 🙈

Schönen Abend!
Ich empfehle wirklich mal bei gebrauchtem Enterprisekram zu schauen - da kann man wirkliche Schnapper machen!
 
Ich empfehle wirklich mal bei gebrauchtem Enterprisekram zu schauen - da kann man wirkliche Schnapper machen!
Ok, vermutlich werde ich jetzt anstrengend und sorge für Augenrollen, aber ich tue mich schon schwer, wenn ich die Specs filtern kann. Wie soll ich da bei Gebrauchtkram die Brauchbarkeit, Qualität etc. beurteilen?

Ich kann Mehrwertsteuerfrei einkaufen und den Kram steuerlich absetzen, da macht gebraucht kaufen auch nicht unbedingt Sinn.

Ich glaube ich schaue mir jetzt noch mal dem Vorschlag von @n3cron auf Seite 1 an…
 
Danke, sehe ich genauso. Ich hatte bei meinem Qnap-4bay-NAS in über 10 Jahren zwei HDD-Ausfälle, die problemlos wiederhergestellt wurden. Das war nur RAID 5, ich würde aber der Empfehlung folgen und jetzt RAIDZ2 wählen. Dazu interne Sicherungen und die Bude nicht abfackeln oder überschwemmen, dann sollte es gehen… 😁
Beitrag automatisch zusammengeführt:


Danke für die Mühe.
Ich präferiere diese Lösung und tendiere auch zu deinem Hardwarevorschlag (die Richtung).

Diese beiden Pfeile in deiner Skizze habe ich aber noch nicht ganz kapiert:
Anhang anzeigen 796716
Angenommen, ich möchte ein Truenas Core und zusätzlich eine Linux- und eine Windows VM aufsetzen.
Ich “raide“ Proxmox auf zwei kleinen SSDs. Weise alle HDDs und NVMe der Truenas VM zu. Erstelle dort Speicherpools für Hot- u. Cold Storage, ggf Cache…
Müsste ich dann die beiden anderen VMs auf Truenas-Ebene aufsetzen? Dann macht Proxmox eigentlich keinen Sinn… Oder kann ich Ressourcen von Truenas (separater Speicherpool), an Proxmox „zurück routen“ (sorry für die unprofessionally Ausdrucksweise, ich hoffe es ist zu verstehen was gemeint ist).

Danke und einen schönen Tag 😉
Gemeint ist das du dann als logical Volume (ist eh virtuell) Speicher von dem TrueNAS Pool einfach an die VM weitergeben kannst.
Du erstellst die VM über proxmox kannst aber deinen Pool verwenden um Speicher zur Verfügung zu stellen. Da kannst du dann flexibel sein
 
Ok, vermutlich werde ich jetzt anstrengend und sorge für Augenrollen, aber ich tue mich schon schwer, wenn ich die Specs filtern kann. Wie soll ich da bei Gebrauchtkram die Brauchbarkeit, Qualität etc. beurteilen?

Ich kann Mehrwertsteuerfrei einkaufen und den Kram steuerlich absetzen, da macht gebraucht kaufen auch nicht unbedingt Sinn.

Ich glaube ich schaue mir jetzt noch mal dem Vorschlag von @n3cron auf Seite 1 an…
Ich bin der allerletzte der meckert wenn jemand in Kaufberatungen anstrengend wird - solltest mich mal sehen. Ich kann das voll nachvollziehen das man bei solch einer Geschichte schon Beratung will, aber innerhalb der eigenen gesetzten Grenzen - find ich gut. Kann auch deine Begründung super verstehen. Was du machen "könntest" (ich rate dir nicht dazu, es ist nur eine Idee zu deiner Argumentation) ist folgendes: Mit deinen Specs (wie gesagt vergiss TB4 im Serverbereich - völlig einzigartige Anforderung) auf die Herstellerseiten gehen, Typenbezeichnungen herausfinden und damit erst einmal den Marktplatz hier durchsuchen. Ich hab mien Bundle damals für 1500 bekommen - weniger als die Hälfte des damaligen Marktpreises, und das ganze weniger als 1 Jahr alt. Das hauen auch 19% nicht raus. Aber wie gesagt verstehe ich deine Argumentation voll und ganz.
@n3cron's Vorschlag kann man sicherlich machen, aber ich würde niemehr einen server ohne IPMI betreiben. Und ja, auch bei mir hängt nen Monitor dran ;)
 
aber ich würde niemehr einen server ohne IPMI betreiben. Und ja, auch bei mir hängt nen Monitor dran ;)
Das Asus hat ne Art IPMI über die Netzwerk Schnittstelle. Man muss es konfigurieren, es funktioniert dann auch mit Linux.
 
Zuletzt bearbeitet:
aaaa gut zu wissen, danke fürs korrigieren!

Kein Problem, scheinbar hat das Board was das angeht durchaus seine Tücken. Aber es funktioniert.
Ich habe nur persönlich nicht gerne irgendwelche remote Schnittstellen offen, sind potentielle Einfallstore.
Viele Posts sind allerdings schon über 1 Jahr alt.
 
Vermutlich bekomme ich jetzt auf die Mappe, aber der Vollständigkeit halber will ich noch mitteilen was ich machen werde. Außerdem will ich ja ggf. noch drölfzig Fragen stellen :giggle:

Ich glaube, dass was ich mir überlegt habe geht gegen so ziemlich alles, was hier so üblich ist. Es ist teuer, neues Zeug mit fragwürdiger Kompatibilität, vermutlich an allen Stellen überdimensioniert, kein ECC (noch nicht verfügbar) usw.

Da aber der Vorschlag von n3cron, den ich ins Auge gefasst habe, sich mangels Verfügbarkeit nicht umsetzen lässt, habe ich mir eine Kiste mit Consumer-Komponenten in neu zusammengesponnen.

Ich rede mir es damit schön, dass ich die Mühle auch als knackige Workstation nutzen kann, wenn es nicht funktioniert, oder ich schraub noch ’ne Grafikkarte rein und hab ne Gamingmaschine (für die ich keine Zeit habe 😁).

Also:
  • AsRock X670E Steel Legend
  • AMD Ryzen 9 7950X
  • 4x Crucial 32GB DDR5 / CT32G48C40U
  • 2x WD Blue SSD SN570 NVMe PCIe 3.0 M.2 2280 (2x 1TB, fürs Hostsystem)
  • 2x Team SSD Cardea Zero Z440 M.2 NVMe 2280 (2x 2 TB, für schnellen Speicherpool)
  • 6x Seagate Exos X18 / ST18000NM000J
  • PCIE 4X SATA 6-Port-Karte (ASM1166 Chip)
  • 10Gtek 10GbE PCIE Netzwerkkarte (Broadcom 57810S Chip)
Bitte motzen sie jetzt! 🙈 (freue mich über Feedback 😜)

Die NVMe SSDs sind keine Enterprise-Kategorie, haben im Vergleich aber bessere TBW-Werte.

Zwei vorsichtige Fragen:
  1. Die beiden 1TB WD Blue SSDs würde ich über den MB-Raid-Controller fürs Host-System nutzen wollen. Kann ich darauf zusammen Proxmox, TrueNas und VMs laufen lassen? Wäre ein Partitionieren erforderlich und möglich?
  2. Ich will aktuelle Daten schnell zwischen MacBook und Server transferieren. Kann/sollte ich vor diesem Hintergrund die schnellen 2TB SSDs als separaten Speicherpool konfigurieren? Das würde bedeuten, dass ich manuell Cold- und Hot-Daten handhaben müsste, denn soweit ich weiß hat ZFS/Truenas kein Autotiering. Caching und Datentransferbeschleuniger ist vorrangig RAM, von dem ausreichend da sein sollte. Gibt es dazu Anmerkungen bzw. Dinge die zu beachten sind?
Danke für lesen und eventuelles Feedback.
 
Die NVMe SSDs sind keine Enterprise-Kategorie, haben im Vergleich aber bessere TBW-Werte.
Ohne PLP sind die Transcend MTE220S sehr gut dank hoher TBW: 2x500GB für die VMs + 2x2TB als schneller Pool

Immer eine separate Boot SSD für das Hostsystem (Proxmox, TrueNAS Scale, ESXI,...) -> SATA SSD

HBA Controller im IT mode für die HDDs (Broadcom SASxxxx Chipsatz)

NIC: Intel oder Mellanox zwecks Kompatibilität

Selbst ein 10GBE NIC ist auf 1250MB/s limitiert - daher sind selbst die "langsamsten" NVMEs schnel lgenug um die Bandbreite zu nutzen - ich komme continuous auf max 800MB/s
 
Wenn Consumer-SSDs, dann hol Dir für nen schnellen Speicherpool, zwei SN850 als Mirror und nicht diese Dritthersteller-SSDs.
Die SN850 ist sehr schnell für ZFS (sehr hoher Durchsatz bei kurzer Warteschlange und Blockgrößen bis 128K).
Willst Du Datacenter-SSDs mit PLP, go for Samsung PM9A3 z.B.

@wddn: Langsame SSDs , die bei Schreiblast einbrechen, helfen Dir nix wenn die Latenzen ansteigen oder wie bei QLC-SSD auch der sequentiele Durchsatz unter den von Festplatten fällt. Und wenn drauf z.B. VMs laufen, ist das Limit durch ne NIC irrelevant.

Die CT32G48C40U haben nur on-die ECC, keine echte ECC-Funktion. DDR5 mit echter ECC kommen erst.

ZFS kennt per se kein Tiering, korrekt. Aber in aktuellen ZFS-Implementationen das sog. Special Vdev. Dort landen dann Metadaten eines Pools und Nutzdatenblöcke wenn sie eine bestimmte eingestellte Größe unterschreiten. > Auf Blocklevel kann ZFS also mittlerweile Tiering.
Ich mach das allerdings bisher in der Tat mit zwei getrennten Pools (HDD und SSD).

Die NIC ist SFP+ / Glasfaser. JFYI nur für den Fall dass übersehen. Willst Du Kupfer 10G, go Intel X550.

Ansonsten: kann man so machen. Beachte aber bitte, dass der 7950X plus X670E nicht wenig Power auch im Idle ziehen wird. Die neue Plattform ist gut, aber kein Kostverächter bzgl. Leistungsaufnahme im Idle.

Können Linuxoide und ESXI mit Ryzen 7000 schon umgehen? Gerade ESXI kann da zickig sein und hat in der Ryzen-Anfangszeit da Problemchen erzeugt.
 
Zuletzt bearbeitet:
Vermutlich bekomme ich jetzt auf die Mappe, aber der Vollständigkeit halber will ich noch mitteilen was ich machen werde. Außerdem will ich ja ggf. noch drölfzig Fragen stellen :giggle:

Ich glaube, dass was ich mir überlegt habe geht gegen so ziemlich alles, was hier so üblich ist. Es ist teuer, neues Zeug mit fragwürdiger Kompatibilität, vermutlich an allen Stellen überdimensioniert, kein ECC (noch nicht verfügbar) usw.

Da aber der Vorschlag von n3cron, den ich ins Auge gefasst habe, sich mangels Verfügbarkeit nicht umsetzen lässt, habe ich mir eine Kiste mit Consumer-Komponenten in neu zusammengesponnen.

Ich rede mir es damit schön, dass ich die Mühle auch als knackige Workstation nutzen kann, wenn es nicht funktioniert, oder ich schraub noch ’ne Grafikkarte rein und hab ne Gamingmaschine (für die ich keine Zeit habe 😁).

Also:
  • AsRock X670E Steel Legend
  • AMD Ryzen 9 7950X
  • 4x Crucial 32GB DDR5 / CT32G48C40U
  • 2x WD Blue SSD SN570 NVMe PCIe 3.0 M.2 2280 (2x 1TB, fürs Hostsystem)
  • 2x Team SSD Cardea Zero Z440 M.2 NVMe 2280 (2x 2 TB, für schnellen Speicherpool)
  • 6x Seagate Exos X18 / ST18000NM000J
  • PCIE 4X SATA 6-Port-Karte (ASM1166 Chip)
  • 10Gtek 10GbE PCIE Netzwerkkarte (Broadcom 57810S Chip)
Bitte motzen sie jetzt! 🙈 (freue mich über Feedback 😜)

Die NVMe SSDs sind keine Enterprise-Kategorie, haben im Vergleich aber bessere TBW-Werte.

Zwei vorsichtige Fragen:
  1. Die beiden 1TB WD Blue SSDs würde ich über den MB-Raid-Controller fürs Host-System nutzen wollen. Kann ich darauf zusammen Proxmox, TrueNas und VMs laufen lassen? Wäre ein Partitionieren erforderlich und möglich?
  2. Ich will aktuelle Daten schnell zwischen MacBook und Server transferieren. Kann/sollte ich vor diesem Hintergrund die schnellen 2TB SSDs als separaten Speicherpool konfigurieren? Das würde bedeuten, dass ich manuell Cold- und Hot-Daten handhaben müsste, denn soweit ich weiß hat ZFS/Truenas kein Autotiering. Caching und Datentransferbeschleuniger ist vorrangig RAM, von dem ausreichend da sein sollte. Gibt es dazu Anmerkungen bzw. Dinge die zu beachten sind?
Danke für lesen und eventuelles Feedback.
Niemals mit Konsumenten Ware, auch wenn sie attraktiv erscheint ein System für semi/professionelle server Szenarien verwenden. Das zeug ist eh schon bei release "Beta" was beim Kunden reift. Dabei ist ECC nicht unbedingt relevant. Du kannst Glück haben und alles läuft oder du musst noch einpaar revisionen UEFI updates durchquelen etc. Bis alles reibungslos funktioniert.
 
Danke fürs Feedback.

Die NIC ist SFP+ / Glasfaser. JFYI nur für den Fall dass übersehen. Willst Du Kupfer 10G, go Intel X550.
Danke für den Hinweis „zur Sicherheit“, aber SFP+ ist gewollt. Intel zu nehmen macht dann ja trotzdem Sinn was ist hiermit: Intel X520 ?

Immer eine separate Boot SSD für das Hostsystem (Proxmox, TrueNAS Scale, ESXI,...) -> SATA SSD
Bedeutet VMs separat, oder können die da mit drauf?
Selbst ein 10GBE NIC ist auf 1250MB/s limitiert - daher sind selbst die "langsamsten" NVMEs schnel lgenug um die Bandbreite zu nutzen - ich komme continuous auf max 800MB/s
Schneller Transfer wird „auf dem Tisch“ benötigt. Mein MacBook steht dann in Reichweite des Servers, so dass ich hoffe USB 3.2 2x2 nutzen zu können, was mir 20Gbps ermöglichne sollte. Ich habe auch Thunderbolt (USB4 / 40Gbps) noch nicht ad acta gelegt. Das MB hat einen entsprechenden Header und es gibt eine TB-Karte. Dazu findet man Tests, die eingeschränk erfolgreich waren. Ich denke, dass volle Kompatibilität zukünftig möglich sein kann.

HBA Controller im IT mode für die HDDs (Broadcom SASxxxx Chipsatz)
Wow, die Dinger sind teuer und man bezahlt einen RAID-Controller, den man nicht braucht. Raid Controller Card Broadcom SAS 3008

Hat dazu jemand einen Tipp?

Ansonsten: kann man so machen. Beachte aber bitte, dass der 7950X plus X670E nicht wenig Power auch im Idle ziehen wird. Die neue Plattform ist gut, aber kein Kostverächter bzgl. Leistungsaufnahme im Idle.
Das interessiert mich nur peripher. Wir haben hier „normale“ Strompreise und keine Heiz- und Warmwasserkosten.

Können Linuxoide und ESXI mit Ryzen 7000 schon umgehen? Gerade ESXI kann da zickig sein und hat in der Ryzen-Anfangszeit da Problemchen erzeugt.
Was ich dazu gefunden habe sieht gut aus. Ich weiß es nicht explizit für ESXI bzw. Proxmox (geplant), aber generelle Linux-Tests haben sehr gute Ergebnisse.

ZFS kennt per se kein Tiering, korrekt. Aber in aktuellen ZFS-Implementationen das sog. Special Vdev. Dort landen dann Metadaten eines Pools und Nutzdatenblöcke wenn sie eine bestimmte eingestellte Größe unterschreiten. > Auf Blocklevel kann ZFS also mittlerweile Tiering.
Ich mach das allerdings bisher in der Tat mit zwei getrennten Pools (HDD und SSD).


Interessanter Hinweis, danke!
 
HBA Controller im IT mode für die HDDs (Broadcom SASxxxx Chipsatz)
Wow, die Dinger sind teuer und man bezahlt einen RAID-Controller, den man nicht braucht. Raid Controller Card Broadcom SAS 3008

Hat dazu jemand einen Tipp?

Wenn neu, dann einen dedizierten HBA kaufen, z.b. den Dell HBA330 (SAS3008 Chipset). Kommt dann (etwas) günstiger, mit Ausdauer beim Suchen schon ab ca. 125€. Oder gebrauchte, schon ab 85€ gefunden. Für Festplatten tut es auch immer noch ein Controller mit SAS2008 Chipset, die finden sich gebraucht schon für um die 40€.
 
HBA Controller bekommt man gebraucht quasi hinterher geworfen - gerade die SAS, welche man dann mit breakout Kabel an SATA snschliessen kann

Bedeutet VMs separat, oder können die da mit drauf?
Bei TrueNAS ja, d.h. deiziertes Boot Medium

Danke für den Hinweis „zur Sicherheit“, aber SFP+ ist gewollt. Intel zu nehmen macht dann ja trotzdem Sinn was ist hiermit: Intel X520 ?
Die Intel X520-DA hat ein PCIe2.0 interface - darauf achten dass du genug (x8) PCIe lanes auf deinem Mainboard hast
Ich würde eher eine PCIe3.0 NIC setzen, z.B. Intel X710-DA, oder Mellanox, da dann auch x4 Anbiendung reicht
 
Ich würde eher eine PCIe3.0 NIC setzen, z.B. Intel X710-DA, oder Mellanox, da dann auch x4 Anbiendung reicht
Alter Falter, das wird ja immer teurer… >300,- Mücken für 'n NIC ist ein bisschen happig.

Gebraucht ist wie gesagt schwierig und macht auch keinen Sinn. Ich brauche eine Rechnung, bezahle keine MwSt. und wenn ich den Leuten sage: „Bitte nach Zypern schicken“, kommen da 50,- € Versandkosten drauf.
Beitrag automatisch zusammengeführt:

Bedeutet VMs separat, oder können die da mit drauf?

Bei TrueNAS ja, d.h. deiziertes Boot Medium

Sorry, aber ich frage zur Sicherheit noch mal nach. Die Antwort ist für mich nicht eindeutig. Geplantes Setup ist: Proxmox und darauf TrueNas + ggf. weiter VMs. Wie bilde ich das plattenstrategisch am sinnvollsten ab?
Ich frage mich in dem Zusammenhang, ob RAID für das Hostsystem überhaupt zwingend erforderlich ist, wenn ich täglich sichere. Ist doch unkompliziert wiederhergestellt, oder? Ich brauche ja keine Hochverfügbarkeit.
 
Zuletzt bearbeitet:
Proxmox oder TrueNAS Scale - würde mir beide mal anschauen.
TrueNAS Scale finde ich moderner…
TrueNAS basiert auf ZFS und „RAID“ ist impliziert- mindestens Mirroring
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh