SSD NVMe Kaufberatung

HerrGausS

Enthusiast
Thread Starter
Mitglied seit
23.01.2008
Beiträge
1.313
Ort
Siegen
Setze aktuell ein "neues" System auf: ASRock Z97 EXTREME6. Da das Board Ultra M.2 mit Team 4TB PCIe4 x4 2280 TM8FPQ004T0C327 unterstützt dachte ich mir eine Samsung 990 Pro zu gönnen. Allerdings müsste ich dann die Graka in den PCIe5 ganz unten stecken, weil der Ultra M.2 die Geschwindigkeit mit PCIe2 und PCIe4 halbiert? Was nicht schlimm wäre, weil eh nur eine Graka verwendet würde- wahrscheinlich auch nur eine Nvidia NVS. Ansonsten käme nur eine NVMe mit PCIe3 x4 in den M2_2 Slot- richtig? Wobei ich in den M2_2 Slot dann nur einem langsame NVMe packen kann, wie eine WS SN850- richtig?

Wobei sich hier wieder die Frage aufwirft: Warum shared man den PCI von Graka und NVMe und zu was soll das gut sein? Oder anders ausgedrückt: Bei welcher Anwendung hat man einen Vorteil? Irgend was muss man sich ja dabei gedacht haben...

Was gleich die nächste Frage aufwirft: NVMe mit oder ohne Kühlkörper oder doch besser immer mit nachgerüstetem Kühler?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Soweit ich das erkenne, wird bei Verwendung des Ultra M.2 (PCIe Gen3 x4) nichts keine Lanes woanders weggenommen.

Der M.2-Sockel (M2_2) hingegen, teilt sich die Lanes mit SATA3_4, SATA3_5 und SATA Express. Wenn einer von ihnen verwendet wird, werden die anderen deaktiviert.

Die Graka würde ich normal im primären Slot lassen.

Die 990 Pro würde ich in den Ultra Slot packen und ne WD SN850 in den anderen, aber in beiden Fällen limitieren die Slots die SSDs, da die SSD PCIe 4.0 haben und dein Board nur PCIe 3.0.
Vielleicht kann man auch ein paar Euros sparen und vielleicht Samsung 970 Evo Plus in Betracht ziehen, außer es kommt in näherer Zukunft in Hardware Upgrade.
 
Zuletzt bearbeitet:
Soweit ich das erkenne, wird bei Verwendung des Ultra M.2 (PCIe Gen3 x4) nichts keine Lanes woanders weggenommen.
2 x PCI Express 3.0 x16 Slots (PCIE2/PCIE4: single at x16(PCIE2); dual at x8 (PCIE2) / x8 (PCIE4))* If M2_1 slot is occupied, PCIE2 slot will run at x8 mode,and PCIE4 slot will run at x4 mode.
1 x PCI Express 2.0 x16 slot (PCIE5: x2 mode)

Wobei der PCIE5 wohl eh nur auf x2 läuft, wenn ich das richtig verstehe.

Die SATA wollte ich später mit 18TB HDD im RAID 10 bestücken, da ich vor habe mit großen CAD- Bilddaten-Dateien zu arbeiten. Von daher dachte ich eine NVMe für das MS BS würde reichen. Was ich mich frage ist: Inwieweit Graka und Ultra M.2 bei Grafik-gestützten Rechenoperatoren zusammenarbeiten können oder ob es besser wäre diese über die South-Bridge, sprich SATA, zu leiten?

Was ich auch überlege ist, zwei Systeme Z97 und Z77 zu einer virtuellen Maschine zu bündeln. Ehe ich dann später eventuell mal und vielleicht, ob überhaupt, auf ein Server-System zu wechseln.

Von daher erstmal nur mal Gedankenspiele über die Hardware und deren richtiger Konfiguration.
 
Zuletzt bearbeitet:
Ahso, ja ok.

Je nachdem was genau verbaut wird reichen die 8 Lanes auch locker, welche Nvidia NVS denn, die ich auf die schnelle gesehen brauchen auch nicht viele Lanes.

Bei der anderen Geschichte kenne ich mich nicht aus, aber würde sagen bei großen Schreibintensiven Anwendungen hättest mit ner gutes SSD mehr Spass.
 
Die Frage ist aktuell:
A) In das System eine 990er oder SN850 in den Ultra M.2_1 einbauen und auf die Grafikanbindung verzichten.
B) Oder eine langsame 950 in den M.2_2 einsetzen und die Grafikanbindung erhalten.

Ich habe aber was interessantes im Handbuch gefunden:
The tradeoffs between number of lanes and speed of the cores is apparent in the choice between manufacturers’“Pro” products versus their “Gaming” products. For example, in the Pro product series AMD’s Threadripper andIntel’s Xeon (HEDT) products tend to have slower cores and more lanes than products in the AMD Ryzen and IntelCore Ix series, which are often thought of as Gaming products today. The Gaming products tend to have fastercores but fewer lanes. This equates to slower RAID operations.
To summarize the different factors that impact disk drive speed: the number of lanes is roughly one third of theequation, the types of lanes comprise another third, and drive speed is the remaining third.

Hieße somit: Mehr Lanes für das RAID und weniger für die Graka??? Also genau umgekehrt zu den Gamern.

Viele schreiben auch, dass eine 990er schnell sehr heiß wird und gut zu kühlen ist. ICYDock bietet da einen Kühler zu an, der mich mehr an einen Luft gekühlten Motor erinnert, als an einen Kühler.

Und leider fehlen mir auch noch die passenden Xeon- CPUs- welche definitiv rein kommen werden- aber schwer zu finden sind. Derzeit habe ich nur I7 parat.
Graka wäre wenn dann eine GTX1070 oder eine NVS300. Für den Anfang sollte das wohl reichen... und RTX werden auch bald billiger.
 
Warum shared man den PCI von Graka und NVMe und zu was soll das gut sein?
Weil es bei der Plattform nur die 16 PCIe 3.0 Lanes gibt, der Z97 Chipsatz selbst hat nur PCIe 2.0 Lanes und auch nicht besonders viele, 8 wenn ich mich richtig erinnere. Sharing war also die einige Möglichkeit so einen Ultra-M.2 Slot mit PCIe 3.0x4 Anbindung zu realisieren. Wenn man auf die Grala verzichtet und die iGPU nutzt, kann man auf dem Mainboard insgesamt 3 ()2 davon über Adapterkarten SSDs mit PCIe 3.0 x4 anbinden oder eben, wenn man die Graka in den unterste Slot steckt, aber der ist elektronisch nur mit PCIe 2.0 x2 angebunden!
 
@Holt Nicht schon wieder Du. Das verwirrt doch wieder in allem.

Habe gerade nachgeschaut: Eine Xeon E3 1285 v4 hat keine iGPU. Unterstütz dafür aber VT-x und VT-d und Raid perfekt. Wenn ich also eine NVS300 ,eine Xeon-CPU und den Ultra M.2 nehme, sollte ich an den SATA- Raid die beste Performance haben. Oder habe ich da jetzt etwas in der englischen Bedienungsanleitung falsch verstanden?

Im Gegensatz dazu verzichtet man bei "Gamern" auf die Ultra M.2 und nutzt I7/I9 mit voller Graka- Anbindung, plus langsame NVMe- bzw SATA- Raid ohne NVMe. Richtig?

Ich brauche sowas wie "Standbild" und "flitzende Datensätze".
 
Das Mainboard "ASRock Z97 EXTREME6" ist ein nicht mehr ganz so junges 1150er Sockel Mainboard welches max. 32 GB DDR3 Ram aufnehmen kann, also ~ 10+ Jahre alt.
Der Z97 war ein damaliger high end chipsatz, aus der Consumer Ecke, denke ich.
@HerrGausS: Was ist das primäre Ziel dieser Aufrüstung/Bastelei ? Geringe Kosten ? Wieviel RAM hat das System ?

Die CPU "Xeon E3 1285 v4" hat eine iGPU eingebaut, darauf deutet die Ziffer 5 in der Model-Nummer hin. Ich habe selbst noch ein altes WS-Mobo mit C206 chipsatz und E3-1245 CPU für ein NAS in Verwendung, iGPU funktioniert einwandfrei (wenn Bedarf).
CPU Spec Quellenhinweis: https://www.intel.de/content/www/de...1285-v4-6m-cache-3-50-ghz/specifications.html

Ultra M.2 ist eine ASROCK Marketingbezeichnung ... Marketing ..., sorry TLDR.
(PCIe3.0 x4)

>> Ich brauche sowas wie "Standbild" und "flitzende Datensätze".
Wie wäre es mit folgender Idee:
eingebaute iGPU von CPU verwenden (oder Graka in PCIE5 = eff. PCIe2.0 x2) und eine PCIe3.0 x4 NVME SSD in M.2_1 ,
falls 1 Stk. SSD nicht ausreicht: M2_1 leer belassen und dafür eine AsRock Hyper M.2 Card bestückt mit 2-4 Stk. M.2 SSD's in den PCIE2 Slot (die Hyper+eingebaute SSD's laufen aber höchstens mit PCIe 3.0 Konnektivität, höher geht seitens MoBo nicht.)

Da Du die "Xeon E3-1285 v4" für das Uralt-System erst noch besorgen musst ... wäre ein modernes System auf Basis Sockel AM4 (z.B. B550 chipsatz) vielleicht eine Option ?

Beitrag automatisch zusammengeführt:

Warum shared man den PCI von Graka und NVMe und zu was soll das gut sein?
Begrenztes (PCIe-Lanes) Angebot bei größerer Nachfrage 8-)
CPU+Chipsatz stellen nur eine begrenzte Anzahl von PCIe-Lanes bereit, die MoBo-Hersteller bauen aber um CPU/Chipsatz im allgemeinen mehrere Dinge drumherum, die in Summe mehr als die bereitgestellten PCIe-Lanes verbrauchen würden, deshalb die PCIe-Lanes Verringerungen bzw. Entweder-Oder Gerätefunktionalität.
Wenn Du viel mehr "Konnektivität" benötigst, ein AMD Epyc (Serverplatform) stellt 128 PCIe-Lanes bereit, das ist schon sehr .. wow .. Anschlussmöglichkeiten.
 
Zuletzt bearbeitet:
Viele Fragen- ein paar Antworten:
@HerrGausS: Was ist das primäre Ziel dieser Aufrüstung/Bastelei ? Geringe Kosten ? Wieviel RAM hat das System ?
Das Z97 extrem6 stammt von 4/2014 und ich konnte vor einigen Monaten ein komplett neues Board "schießen". Davor hat mich das Z77 EXTREME4-M fasziniert- ein Intel Vergleichsboard. Leider ist das Z77 nicht so Leistungsstark wie das Z97 und von mir inzwischen ausgereizt (32GB Dominator 2400, 6xSSD RAID 10 bei max 6TB). Und da sehe ich in Speicher und SATA die Beschränkungen. Und die geringen Kosten spielen auch aktuell eine Rolle.
Z97: 2x 16GB Dominator 2100, 2x 16GB Dominator 2400, 2400er ist verdammt schwer erhältlich
CPU: I7- 4790K, soll aber eine XEON E3-1285 v4 rein- sofern findbar
Graka: Zotac GTX 1070 (NVS300)
HDD: bis zu 10x 18TB Raid 10
Tätigkeit: Bilddaten, 3D- Scan, BIM, CAD etc pp
Programme: Autodesk, Metashape ect pp

Auszug aus einer Bedienungsanleitung:
● Custom H2O-cooled PC (keeping CPU cool is key to good performance) – e.g., ekwb cooling solutions● Intel Core i9-10900k Processor● Premium X490 Motherboard● 64GB DDR4 4000 MT/s RAM (Mega Transfers per second)● PCIe Gen3 RAID card (if not supplied with motherboard) – e.g., HighPoint NVMe RAID card● 3x NVMe SSD for RAID processing drive – e.g., Samsung EVO● 1x NVMe SSD boot drive – e.g., Samsung EVO● 2x large SATA HDD storage drives, mirrored for redundancy – e.g., Western Digital WD Gold● NVIDIA GeForce RTX 2070 Super Graphics Card● 1000w Power Supply Unit – e.g., Seasonic Electronics products

Nichts, was sich im Entry- Bereich nicht auch ansprechend mit einem Z97 realisieren ließe, oder?

Server: Ganz großes Kino. Hier steht noch einer aus der damaligen Sockel775-Genearation, bei dem ich aktuell an Reparatur/ Aufrüstung auf Sockel2011 mit 128GB RAM oder höher gar nicht zu hoffen glaube.

Cloud: Ganz schlecht, weil zu langsam im Upload. Und zu dem völlig unsicher (#GDPRx, #GAIA-x).

VMware: Hotter Sch****. Leider aktuell preislich, mit Hardware, unattraktiv. Wäre aber für mich mit Server: die Lösung und das Ziel.

Anmerkung: Von Kollegen weis ich, das aktuelle PC-Systeme wenig Fehler redundant arbeiten. Und das führt zu unnötigen Problemen in Ergebnissen von Arbeiten.
Wie wäre es mit folgender Idee:
eingebaute iGPU von CPU verwenden (oder Graka in PCIE5 = eff. PCIe2.0 x2) und eine PCIe3.0 x4 NVME SSD in M.2_1 ,
falls 1 Stk. SSD nicht ausreicht: M2_1 leer belassen und dafür eine AsRock Hyper M.2 Card bestückt mit 2-4 Stk. M.2 SSD's in den PCIE2 Slot (die Hyper+eingebaute SSD's laufen aber höchstens mit PCIe 3.0 Konnektivität, höher geht seitens MoBo nicht.)
Genau dahin geht ja meine Überlegung!
Wenn ich nicht die vollen Lanes einer Graka benötige (#Xeon), dann bräuchte ich gar nicht in den Slot PCIe_5 x2 zu gehen. Und ich wäre auch gar nicht an die iGPU gebunden. Sondern würde die Ultra M.2 NVMe mit zwei PCIe SSDs in Slots PCIe4 und PCIe5-im RAID?-unterstützen. Und hätte zudem noch die vollen 10 SATA- RAID10 für HDD zu Verfügung. Sehe ich das so richtig?
 
Bei Broadwell auf Haswell-Board passen u.U. die Anzeigewerte der Package-Power etc. nicht, weil quasi die ME-Firmware nicht die richtige ist. Power-Limits funktionieren so natürlich auch nicht.

Intel ARK behauptet übrigens, der E3-1285 v4 könne nur PCIe x16, also keine Bifurcation. Also vielleicht doch besser bei Haswell Refresh bleiben, delidden und TIM gegen irgendwas vernünftiges tauschen (zugeschnittenes Flüssigmetall-Pad oder wasweißich).

RAID10 über 2 verschiedene SATA-Controller? OK, grundsätzlich funktionieren sollte es (als Software-RAID) wohl... Wobei man 10 Pestflatten auch erstmal irgendwie unterbringen und entkoppeln muß. Schon wegen des Radaufaktors werden viele ein externes NAS bzw. SAN bevorzugen. Mit iSCSI über 10GbE geht da schon ein bißchen was.

Du könntest glatt sogar mit dem Board dein NAS aufbauen... auch wenn es in Sachen Stromsparfeatures glaub ein bißchen unterbelichtet ist und irgendwas mit Support für ECC-RAM auch besser wäre. Naja, viele noch beliebte 10GbE-Karten (z.B. Mellanox) haben eh nichts mit ASPM am Hut. Rechne mal mit 6 W pro Karte... Bandbreite über größere Strecken Kupfer kostet halt Strom. Das ist der Hauptgrund, warum man später noch 2,5 und 5 GBit eingeführt hat... das ist oft immer noch schnell genug und pflegeleichter, und ansonsten macht man halt 10 Gbit optisch mit SFP+-Modulen.

Warum eigentlich unbedingt eine 990 Pro, wenn ohnehin maximal PCIe 3.0 zur Verfügung steht? Die "alte" 980 Pro ist nun wahrlich auch keine lahme Krücke.
 
Von Kollegen weis ich, das aktuelle PC-Systeme wenig Fehler redundant arbeiten.
Der hat dich auf den Arm genommen, so wurde z.B. mit DDR4 bei der Übertragung zwischen dem RAM und RAM Controller eine CRC eingeführt um Übertragungsfehler erkennen und durch Wiederholung der Übertragung beheben zu können. Mit DDR5 ist dann noch eine On-Die-ECC dazu gekommen.
 
@hardwear NAS mit dem Board wäre schon denkbar- immer in Anbindung zum Z77. Bei dem müsste ich ne HDD- Brüll&Heul-Schachtel daneben stellen und mich über langsamen 2x Sata 6GB ärgern. Notfalls ließen sich beide Systeme auch optisch verbinden. Immerhin unterstützt Z97 WoL und dieses Gimmik von HDD- Saver für 2 Platten. Vom Energie- Bedarf habe ich es schon durchgerechnet, da reicht überraschender Weise das Corsair AX750 mit 45- 65% Auslastung. Flüssigmetall und AiO liegen auch schon.
Warum eigentlich unbedingt eine 990 Pro, wenn ohnehin maximal PCIe 3.0 zur Verfügung steht? Die "alte" 980 Pro ist nun wahrlich auch keine lahme Krücke.
Genau das war meine Frage: Wie am Besten konfigurieren?
Dis ASRock Hyper Quad M.2 Card wird es definitiv nicht bringen- zu neu. PCIE- NVMe-Adapter wäre eine Möglichkeit, allerdings ohne Raid zum Ultra M.2. Vielleicht für die Temp- Dateien und Cache- zum Entlasten der BS- NVMe... Was vielleicht noch interessant wäre, ist ein Highpoint PCIe- RAID SSD7180 oder SSD7204. Microsemi Adaptec liefert ja nichts brauchbares mehr. Da habe ich auch noch einen Controller von liegen...

ASRock ist immer "speziell" in den internen & extremen SATA- Anschlüssen gewesen und hat oft mind. 2 unterschiedliche Controller verbaut. Manche Hersteller legen sich ungern auf einen Anbieter fest.

Natürlich wäre mir ein LGA2011 oder neuer Serverboard mit 256GB RAM lieber. Aber das sprengt aktuell den Rahmen.

@Holt Im Bereich technischer CAD sieht das etwas anders aus. Ich habe über einen langen Zeitraum neue LGA775 CPU oder älter ausgelesen und nur technisch einwandfreie Komponenten benutzt. Intel Strawberry war damals ein "richtig" rechnendes System, oder das Z77 Exterme-M. Während das DH77KC ein perfektes Board für Kassensysteme ist, aber, technisch gesehen, nicht fehlerfrei rechnen kann. Es gibt eben High- End-PC und Workstation. Letztere beginnen ab $5000 bis No Limit. Haltbarkeit idR max 19 Monate. Nur für echte Workstation will niemand zahlen- aktuell völlig unrealistisch. Und dank Breitbandausbau ist an Cloud nicht zu denken.
 
Während das DH77KC ein perfektes Board für Kassensysteme ist, aber, technisch gesehen, nicht fehlerfrei rechnen kann.
Das halte ich für ein Gerücht, denn nicht das Board rechnet, sondern die CPU. Wenn falsche Ergebnisse rausgekommen sind, dann lag es nicht am Mainboard, sondern fast sicher an RAM Fehlern und da die B, H und Z Chipsätze alle keine ECC RAM Funktion unterstützen, kann dies bei jedem Z77 Board passieren. Das eine kommt vielleicht mit RAM OC besser klar als ein anderes, aber es hat schon einen Grund warum eine richtige Workstation ECC RAM zu haben hat. Also neben dem ECC RAM selbst auch eine CPU und ein Mainboard dies auch unterstützen, denn sonst hängen die zusätzlichen Datenbits nur nutzlos in der Luft. Das wäre damals ein Xeon 1200er und das passende C200 irgendwas Mainboard oder eben aktuell ein W680 Mainboard mit einer Core-i CPU.

Dafür wird man auch keine 5000€ los, W680 Mainboards gehen bei knapp unter 500€ los, nimmt man das GIGABYTE MW34-SP0 (9MW34SP0MR-00) ab 475€ kommt man mit dem billigeren DDR4 ECC UDIMM ab knapp 40€ für einen 16GB Riegel aus und sonste muss man für DDR5 ECC UDIMM etwa doppelt so viel ausgeben, was für 32GB dann knapp über 150€ wären. Bei den passenden CPUs ist die Auswahl groß, schon eine 150€ i3-13100 schlägt den alten 4790K, wenn man sowieso eine Graka hat, kann man auch den 13100F nehmen und knapp über 40€ sparen. Für so 660€ hättest Du also eine aktuelles System mit 4 M.2 Slots mit PCIe 4.0 x4 Anbindung und mehr CPU Performance und wenn man noch mehr CPU Performance will, greift man z.B. zum i5 13500 für 257€ der 6+8 Kerne hat und Kreise um einen 4790K dreht. Selbst mit dem 13900K kommt man dann mit CPU Kühler nur etwas über 1200€ und der wischt mit dem 4790K den Fußboden, ich bin selbst Ende letzten Jahres vom 4790K auf dem Z97 Extreme 6 auf den 13900K auf ASRock Steel Legend WiFi umgestiegen und würde mir den 4790K jetzt nicht mehr antun wollen.
 
@Holt Nun, wenn Du mir wenigstens ein Intel S2600STBR vorgeschlagen hättest.... Aber Du hast meine Aufgabenstellung nicht im Ansatz begriffen. Nicht schlimm, aber hier geht es weder um Gaming noch um Spiele- PCs.
 
Nun, wenn Du mir wenigstens ein Intel S2600STBR vorgeschlagen hättest....
Wieso sollte ich ein 4 Jahre altes Dual Socket Server Mainboard vorschlagen und wenn du ews schon selbst kennt, braucht es ja auch keiner vorschlagen.
Aber Du hast meine Aufgabenstellung nicht im Ansatz begriffen.
Wenn du meinst, ich hatte eine Workstation vorgeschlagen, der W680 ist nämlich genau dafür vorgesehen:
hier geht es weder um Gaming noch um Spiele- PCs.
Wo ist der Unterschied zwisvhen "Gaming und Spiele- PC."? Aber egal, ein Gamer wird kaum ein W680 System kaufen und Intel sieht ihn auch nicht dafür vor. Lebe von jetzt an ein besseres Leben auf meiner Ingornelist!
 
Gerade Rezi gelesen,
1.0
bezfdsaam 15.03.2023, 16:41

Stay away from this motherboard
Problems with:

- No proper raptorlake cpu support.
- No ASPM support.
- No overclocking support.
- BMC/IPMI becomes unresponsive and the systems becomes unbootable.
Autsch. Da hat das BIOS wohl der Heißnadelstrickverein zu verantworten, oder wie? Sowas kann einem bei so Nischenboards leider passieren.

Aha, es gibt das Board in zwei Versionen, für Raptor Lake will man rev 1.1 haben. Und das BIOS F10, das Raptor Lake auch auf rev 1.0 unterstützt, kam erst Ende März raus - aktuell ist F11. Wer also vorher im Handel noch ein altes erwischt hat, dürfte geflucht haben, s.o. - ich denke, das mit dem nicht funktionierenden ASPM hängt mglw. auch daran. Übertakten ist bei W680 abgesehen vom RAM gar nicht vorgesehen, da hat der Rezensent gepennt.

Da wäre mir ein Modell ohne potentiell störanfälligen BMC lieber (den braucht man in einer Workstation eh nicht) - das wären anscheinend das Supermicro X13SAE bulk (MBD-X13SAE-B) oder das ASUS Pro WS W680-Ace (90MB1DZ0-M0EAY0) (wobei man bei dem noch einen Adapter von SFF-8654 auf 4x SATA bräuchte, um an alle 8 Ports zu kommen). Reichen die SATA-Ports noch nicht, würde ich wohl eine ASM1061-Karte einbauen, die scheinen klaglos zu laufen.

Bei der Auswahl der CPU ist Vorsicht angesagt, wenn man Support für ECC-Speicher haben will (der als DDR5 UDIMM recht rar, aber in Gestalt einiger 4800er JEDEC-Module verfügbar ist). Den gibt es zwar ab dem i5-1x500, aber 13600KF, 13700F und 13700KF müssen darauf verzichten, bei Alder Lake sogar noch mehr Modelle: 12600KF, 12700F, 12700KF, 12900F und 12900KF.
 
Zuletzt bearbeitet:
Also ich kann nun nicht jeder Mainboard kennen, aber auch wenn man ein anderes und dann eben DDR5 ECC RAM nimmt, kommt man man mit weit unter 5000€ aus
Übertakten ist bei W680 abgesehen vom RAM gar nicht vorgesehen
Sicher?
Wobei OC heutzutage vor allem Allcore-OC ist und weniger die Erhöhung des maximalen Boosttakes dank offenem Multiund dies geht geht im Prinzip mit jedem Chipsatz und jeder CPU, siehe auch:

 
Zuletzt bearbeitet:
Lieber @Holt. Die Mehrheit der von Dir vorgeschlagenen PcBs habe ich in der Vergangenheit schon ausprobiert. Es gibt einen Grund, warum ich bei High-End- Boards der jeweiligen Chipsätze hängen geblieben bin: Sei es, dass mir die Rechner einfach abgebrannt oder brennend und ohne Strom(!) bis zu 25min weiter gelaufen sind. Oder, dass sie mir im Betrieb einfach ausgefallen sind und mir Daten zerstört haben. Daher erkläre mir bitte nichts von Übertakten oder System- Ausreizungen, danke. Einfache PCBs neigen bei meiner Tätigkeit dazu frühzeitig dem Recycling überführt werden zu müssen. Und da tut der Hersteller nichts zur Sache. Sicherlich, es gibt auch Server-PCBs in höher wertiger Ausführung- aber wer kann sich das aktuell leisten?
Für meine Tätigkeit wäre ein 4 Jahre altes Server-Board vom RAM mit XEON alle mal besser als das Z77 ERTREM4-M- 10 Jahre alt und für Speicher- Anwendungen begrenzt, aber ein sehr robustes PCB. Ich brauche daher nicht das Neueste, sondern das für mich Geeignetste. Nicht mal mein Intel S5000Vsa hat es überlebt- war aber damals für meine Anwendungen ideal. Und ein voll bestücktes Supermicro X13SWA sprengt aktuell meine Grenzen. Aber du kannst mir gerne erklären, wie man da weit unter $5000 bleibt. Zumal das X13SWA eindeutig den von mir genannten Voraussetzungen aus den Handbüchern entsprechen würde. Aktuell suche ich daher den Übergang- eine Entry-Lösung.
Was ich brauche ist eine Workstation für sowas:
Point%20Cloud%206.jpeg


Und dann habe ich immer noch nicht erwähnt, dass die Lösung mobil sein sollte- also für Mobilität geeignet sein müsste.
 
Zuletzt bearbeitet:
Ich hole das hier noch mal vor.
Wie sieht es in meiner Konfiguration mit einer Intel Optane- oder M.2 NVMe auf U2. SATA- Lösungen aus? Oder ist das mehr was für das Supermicro X13SWA?
Also nur rein informell im Sinne auf ein zukünftiges Aufrüsten.
 
oder M.2 NVMe auf U2. SATA- Lösungen aus?
Ich versuche zu erraten, was Du da fragen willst... Eine NVMe-SSD im 2,5"-Formfaktor (sprich: U.2 oder U.3) kannst Du natürlich mittels Adapter auf Dein M.2- oder auch den PCIex8-Slot anschließen. (was das Wort "SATA" in Deiner Frage verloren hat -> :unsure:). Was Du bei so einem älteren Brett und PCIe3.0 mit einer 990Pro erreichen willst, habe ich mich auch schon gefragt.
Nun, welche Datenträger-Last Deine oben erwähnte Applikation verursacht entzieht sich leider meiner Kenntnis. Evtl. wäre es doch sinnvoller eine stabile Gen3-Server-SSD als eine Gen4-Consumer-SSD einzusetzen.
 
Ok, Das es Alternativen gibt, die besser sind, weis ich. Ich versuche mal die Frage anders zu stellen:
Intel hat ja zwischenzeitlich Optane eingestellt. Ist eine Lösung, zB wie eine Intel Optane 905P oder auf Basis dieser, mal abgesehen vom Preis, eine "Alternative" zu einer reinen M.2 NVMe SSD bei hoher Schreib-/Lese- Anforderungen? Lohnt sich eine Investition langfristig, wenn man Datensicherheit braucht? Oder ist eine Intel Optane 900 PCIe, oder vergleichbar, die "bessere" Lösung?

Mir erschließt sich noch nicht, warum Intel den Weg mit einer Optane 905P angeboten hat. Und welche "Vorteile" diese Lösung bietet. Irgend eine Überlegung muss ja zur Entwicklung und zum Bau dieser Lösung geführt haben. Zumal man die Intel 905P ja sowohl bei Desktop-, wie Server- Brettern, einsetzen kann?
Nun, welche Datenträger-Last Deine oben erwähnte Applikation verursacht entzieht sich leider meiner Kenntnis. Evtl. wäre es doch sinnvoller eine stabile Gen3-Server-SSD als eine Gen4-Consumer-SSD einzusetzen.
Natürlich, spielt aktuell der Spagat zwischen Können/ Brauchen- Nutzen die maßgebliche Rolle. Das Board sollte nur die Eingangs-Option sein. Und später durch ein Server-Board ersetzt werden. Nur die Komponenten könnte man samt der Daten mit in den Server implementieren.
Was die Anforderungen an geht stelle es Dir, einfach gesagt, so vor: Man erstellt ein Script, startet es, und es brauch 8h und länger in der Verarbeitung der Daten. Fällt Hardware aus, dann beginnt man von vorne. Es gibt keine Wiederaufnahme produktiver Prozesse. Daher sind sowohl Raid, als auch Langlebigkeit, Pflicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh