[Sammelthread] Gigabyte Mainboard MC12-LE0 AM4, IPMI, Dual Intel GB Lan ECC fähig

------------- Vorwort, Credits und Angebote

Vorwort:


Wer mir ein vergleichbares NEUWARE Mainboard zu dem Preis mit den Features nennen kann, der darf dies gern tun.... bisher fand ich keines unter 200-400€
hingewiesen darauf hat @sch4kal zuerst im Marktplatz Link Thread

Vergleichbare MBs (ab 390€ mit PCIe 4.0):





Unterstützte CPUs: AMD 3000er und 5000er (und mit F15 wohl auch APUs mit intern - aka für VMs nutzbarer aber nicht extern - nutzbarer IGP)

Bestpreise lagen um die 35€ für das Board (ultra low war mal 27€ bei 4 Stück inkl kühler)


mit low profile Kühler:


ohne low profile Kühler

(hier die Gutscheine beachten!)



im Webshop von Pio (Ergänzung auf Userwunsch):

(hier die Widerrufsbelehrung beachten!)





------------- Zur Hardware

Gigabyte Mainboard MC12-LE0​


880.png


MC12-LE0_BlockDiagram-1027390689.png



mAtx B550 Am4 Board für 3000-5000er AMD CPUs
bis zu 128GB unbuffered ECC oder non ECC (DDR4 2133-3200) (ACHTUNG: KEIN REGISTERED ECC sondern unbuffered ECC)

2 x 1GbE LAN ports (Intel® I210-AT)
1 x 10/100/1000 management LAN

Integrated in Aspeed® AST2500
2D Video Graphic Adapter with PCIe bus interface
1920x1200@60Hz 32bpp


Expansion Slots

1 x PCIe x16 (Gen4 x16 bus) slot from CPU (Bifurcation 4/4/4/4 fähig mit NON -APUs)

Kommentar: setzt hier also normale CPUs ein . der 5600 (non x) ist imho hier ein sweetspot oder auch ein gebrauchter 3600x/3700x/3900x ...
generell würde ich bei 65W CPUs bleiben oder entsprechend die CPU limitieren (cTPU)

APUs können keine 4/4/4/4 bifurcation

1 x PCIe x4 (Gen4 x4 bus) slot from CPU (im Gegensatz zu anderen Boards direkt von der CPU = weniger Latenz und Probleme)
... die meisten Boards nutzen die Anbindung für die NVMe


1 x M.2 slot (über Chipsatz angebunden): (imho gut für ne kleine 128/256GB M2 SSD fürs OS - sowas bekommt ja nachgeworfen aus EDU stores und viele davon haben oft eh nur 2x PCIe 3.0)
- M-key
- PCIe Gen3 x1 (max brutto 0,97 GByte/s)
- Supports NGFF-2242/2280 cards




Board Management

Aspeed® AST2500 management controller
GIGABYTE Management Console (AMI MegaRAC SP-X) web interface


  • Dashboard
  • HTML5 KVM
  • Sensor Monitor (Voltage, RPM, Temperature, CPU Status …etc.)
  • Sensor Reading History Data
  • FRU Information
  • SEL Log in Linear Storage / Circular Storage Policy
  • Hardware Inventory
  • Fan Profile
  • System Firewall
  • Power Consumption
  • Power Control
  • LDAP / AD / RADIUS Support
  • Backup & Restore Configuration
  • Remote BIOS/BMC/CPLD Update
  • Event Log Filter
  • User Management
  • Media Redirection Settings
  • PAM Order Settings
  • SSL Settings
  • SMTP Settings

------------- Kühlerempfehlung

Top Blow der die Spawas links unter dem CPU Sockel abdeckt (Thermalright baut nette)
.. damit ist der silberne Kühlkörper links unter dem CPU Sockel gemeint

------------- Bios, BMC Firmware, Treiber

offizielle:

BMC: 12.61.21
Bios: F15


hier: https://www.gigabyte.com/de/Enterprise/Server-Motherboard/MC12-LE0-rev-1x#Support



die einfachste Weise das Board auf den aktuellen Stand zu bringen:

eine CPU die auf der QVL ist einsetzen (aber die meisten 3er und 5er non -APUs klappen)
einen Ramstick in Slot A1 (hier sind 2133er wohl problemfreier als 3200er)
Tast/Maus/mon anschließen
System starten und abwarten (erster Start dauert etwas)

Achtung: der Browser sollte keinen Popup/script Schutz haben (notfalls einfach kurz ausmachen)

dann entweder per BMC oder per UEFI den BMC updaten (kann locker > 15 Min dauern, achtet auf die grüne "Heartbeat LED") - Full Flash
dann (wenn nötig) kurz restarten
dann das Bios entweder per BMC oder per UEFI updaten
dann runterfahren
Power trennen vom Board für 1-2 Minuten (aka das Netzteil abziehen)
nach 1-2 Minuten wieder anstecken und Spass haben



es geht auch komplett per BMC aber für viele ist das schwieriger als es rein mit CPU und Ram gleich zu machen
ich z.B. hab grad 2 Boards von F06 (Auslieferungszustand) direkt auf aktuelle BMC und BIOS F15 per BMC (mit CPU/Ram eingesetzt) ohne Probleme geupdated (21-9-2024)


------------- Reset des BMC Passwort



... hier das PDF beachten


------------- Q&A


Passmark Scores ausgewählter CPUs zum Vergleich :

i5-8500: 9581 (6 Core S1151)
3600: 17776 (Zen2)
3600x: 18227 (Zen2)
i5-12400: 19557
E5-2690v4 : 19619 (S2011-3)
5600: 21592 <------ P/L

5600x: 21926
3700x: 22598 (Zen2)
5700x: 26738
i5-13500: 32250
3900x: 32678 (Zen2)
5950x: 45633 (hier muss aber wohl manuell die Spannung begrenzt werden (glaube unter 1,4V)) - aber gute Performance/W/€


------------- Links zu anderen Forendiskussionen


STH: https://forums.servethehome.com/ind...oard-mc12-le0-re1-0-amd-b550-am4-ryzen.42579/
L1T: https://forum.level1techs.com/t/gigabyte-mc12-le0/183692/21



------------- User Anmerkungen (selbst nicht geprüft)

@BobbyD:
  • Das BMC Passwort steht auf dem (Anmerkung: brauner Außenkarton an der Seite) Karton
  • Fürs BMC-Update über das BMC ist folgende Datei auszuwählen: "rom.ima_enc" Mode:BMC
  • Fürs BIOS-Update über das BMC ist folgende Datei auszuwählen: "image.RBU" Mode:Bios
 
Zuletzt bearbeitet von einem Moderator:
Welcher Ram Riegel ist A1?
Das weiß ich leider nicht aus dem Kopf. Allerdings steht es relativ klein auf dem Mainboard dicht an den Slots. Ich erinnere mich noch, dass es schwer zu erkennen war und ich erstmal überlegen musste welche Beschriftung zu welchem Slot gehört.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Handbuch ist es relativ gut leserlich
Das weiß ich leider nicht aus dem Kopf. Allerdings steht es relativ klein auf dem Mainboard dicht an den Slots. Ich erinnere mich noch, dass es schwer zu erkennen war und ich erstmal überlegen musste welche Beschriftung zu welchem Slot gehört.
 
Im Handbuch ist es relativ gut leserlich
Tatsächlich.
Ich hatte gestern extra nochmal rein geschaut aber auf den Grafiken dort die Beschriftung immer neben den Slots gesucht statt auf und darum übersehen. ^^
 
Hat zufällig jemand einen heißen Tipp für ein NIC für dieses Board? Möglichst sparsam, ab 2.5 Gbits bis 10 Gbits. Ich wäre auch offen für AliExpress Experimente.
 
@JVN danke für den Tipp, bisher hatte ich nur normale full size PCIe x4 Karten und keine M2 im Blick. Wenn ich es richtig sehe wäre der vorhandenen M2 Slot mit PCIe 3.0 x1 eigentlich sogar ausreichend um einen einzelnen 10 Gbit Port ohne deutliche Drosselung zu bedienen?

Wenn das ein echter Intel Chip ist, dann go for it!
Will man unbedingt Intel?
Ich muss mich wohl nochmal belesen, aber das aktuelle 1 Gbit scheint irgndwie doch schon zu limitieren, weshalb ich über eine zweite Verbindung als Direktverbindung vermutlich per 2.5 Gbit (da ich im Desktop eigentlich keine Lanes mehr opfern möchte und nur zwei 2.5 Gbit NICs onboard sind) nachdenke.
Edit:
Ich habe doch noch ein paar PCIe 3.0 Lanes vom Chipsatz über :unsure:
 
Zuletzt bearbeitet:
Will man unbedingt Intel?
Meistens. Kompatibel, Stromsparend, bestes Featureset (in der Regel). Es gibt Ausnahmen, aber normalerweise will man Intel.
Man könnte jetzt meinen: Featureset? Bei einer NIC? Ja, tatsächlich, es geht da im Wesentichen um das Durchreichen bei Virtualisierung, wo man Features will, die man oft vorher noch nicht kennt. Intel hat die meistens.

Leider wird Intel auch am häufigsten gefälscht. Und ne gefälschte Intel will man meistens eher nicht.
 
Meistens. Kompatibel, Stromsparend, bestes Featureset (in der Regel). Es gibt Ausnahmen, aber normalerweise will man Intel.
Man könnte jetzt meinen: Featureset? Bei einer NIC? Ja, tatsächlich, es geht da im Wesentichen um das Durchreichen bei Virtualisierung, wo man Features will, die man oft vorher noch nicht kennt. Intel hat die meistens.

Leider wird Intel auch am häufigsten gefälscht. Und ne gefälschte Intel will man meistens eher nicht.
Ja, leider will man Intel. Definitv. Am wenigsten Probleme, gute Dokumentation, nach Jahren noch Security Patches für Firmwares und im Regelfall zu allem kompatibel.
Was unter PVE noch gut funktioniert wäre Broadcom.

Ich bin von 10Gbit wieder weg gegangen, weil der Kostennutzenfaktor einfach nicht passte. Ich muss selten große Datenmenge von einem Client auf den Server verschieben bzw. anders herum.
Da hat sich der erhöhte Stromverbrauch einfach nicht gerechtifertigt. Mein Server sind nur noch mit 2x 1Gbit per LACP Port Channel angebunden.
 

Wow, das sieht ja wirklich wirklich gut aus - auf afrotechmods kannt den so nicht mehr posten, und mancher SuperMicro Ingenieur koennte wohl auch noch bisschen davon lernen.

BTW:
bei dem Stock Kuehler kann man den aeusseren Plastikring mit dem AMD Logo wegreissen - er hat dann immernoch eine Luftfuehrung.
Wozu? Bei 2/2 Kuehlern, die ich hatte, hat das Ding eine Vibration verursacht.
 
Wer noch ein Gehäuse für unser Board sucht, bei Ali sind neue Möglichkeiten aufgeploppt, die mir bislang noch nicht aufgefallen sind:
@Mods, wenn das hier zu viel OT ist dann gern verschieben oder löschen.
 
Zuletzt bearbeitet:
Ich hab noch riesige Probleme mit der GPU vom 5650G bei so Machine Learning Gefuzzel.

Er zeigt mir hier 2GB VRAM an, und die "Rechenarbeit" ist mir auch tatsaechlich bei 2GB VRAM Nutzung abgebrochen.
Theoretisch sollte er ja auch noch ein bisschen vom Hauptspeicher abbekommen - so wie diese 2GB ja auch dort liegen.
Ich weiss nicht ganz, ob man da ein Treiberflag oder sowas zusaetzlich braucht.
Als Fussnote, ich hab aktuell "nur" 16GB RAM da drin, manchmal hab ich mehr Zeit als Geld.

Weiss einer von Euch wie diese Sachen mit dem GPU Memory bei den APUs funktionieren?

Bildschirmfoto 2024-06-16 um 21.36.45.png



Code:
~ # lsmod | grep amdgpu
amdgpu              11726848  4
drm_exec               16384  1 amdgpu
amdxcp                 12288  1 amdgpu
drm_buddy              20480  1 amdgpu
gpu_sched              61440  1 amdgpu
hwmon                  40960  3 igb,k10temp,amdgpu
i2c_algo_bit           12288  3 igb,ast,amdgpu
drm_suballoc_helper    12288  1 amdgpu
drm_ttm_helper         12288  1 amdgpu
ttm                   110592  2 amdgpu,drm_ttm_helper
drm_display_helper    237568  1 amdgpu
video                  77824  1 amdgpu
drm_kms_helper        270336  6 ast,drm_display_helper,amdgpu,simpledrm
drm                   802816  16 gpu_sched,drm_kms_helper,drm_exec,drm_suballoc_helper,ast,drm_shmem_helper,drm_display_helper,drm_buddy,amdgpu,drm_ttm_helper,simpledrm,ttm,amdxcp
~ # uname -a
Linux tschike 6.6.32-0-lts #1-Alpine SMP PREEMPT_DYNAMIC Fri, 24 May 2024 10:11:26 +0000 x86_64 GNU/Linux

Das VRAM ist vom normalen Speicher abgezwackt:

Code:
MemTotal:       14161088 kB
MemFree:         1610844 kB
MemAvailable:    7189988 kB


Edit: Vermutlich ist das Thema folgendes: https://forum.archlinux.de/d/34752-physikalischen-ram-fuer-ryzen-5600g-definieren/9

Edit: Vermutlich ist es ein ROCm bug "PyTorch with ROCm does not take GTT into account when calculating usable VRAM on APU platforms")
Hier Beschreibung und ein Dutzend verschiedene Workarounds https://github.com/ROCm/ROCm/issues/2014#issuecomment-2030906177

Die Leute bei AMD haben offenbar keine Sorgen...

Edit: in Linux 6.10 soll es dann einen Fix geben. Also so ein paar Wochen ist das Thema vielleicht ganz von gestern.
 
Zuletzt bearbeitet:
So der Ryzen 9 5900X ist nun Installiert, das Bios Resetiert und der ECO Modus wieder deaktiviert.

Auch ein Luftleitblech Konstriert und 3D gedruckt, bin gespannt ober mit dem 12Kerner nun stabil läuft.

Anhang anzeigen 1005720
Anhang anzeigen 1005721
Anhang anzeigen 1005722
Es wäre verdammt cool wenn du das design hier sharen könntest - entweder als .stl oder besser die .FCStd Datei (schaut so nach FreeCAD aus).

Naja... ob man jetzt den einzigen M2 Port auf dem Mainboard für ne Netzwerk Karte opfern will?
Aber ja sowas gibts auch mit 10gbit SFP. https://de.aliexpress.com/item/1005006925277754.html Wenns denn kein Fake intel ist...
Der m.2 slot auf dem board ist mit 3.0 x1 angebunden, das reicht für ne single-port 2.5G NIC vollkommen - für ne SSD is es etwas wenig. Außerdem kosten PCIe auf m.2 Adapter für PCIe 4.0 x4 auf aliexpress ~5-10€, dann hat die SSD auch ne flotte Anbindung.
Beitrag automatisch zusammengeführt:

Wer noch ein Gehäuse für unser Board sucht, bei Ali sind neue Möglichkeiten aufgeploppt, die mir bislang noch nicht aufgefallen sind:
nice, ein nur 295mm tiefes 12-bay 6HE Gehäuse, schade nur dass es wohl keine rails dafür gibt, und der Versand schweineteuer ist. Ein Bild von oben wäre auch nicht schlecht, und es schaut fast so aus als hätte es keine Ausnehmung für ne I/O-Blende, sondern nur vorgestanzte Ausnehmungen für ein spezifisches Mainboard.

Sowas ähnliches hab ich mal aus einem Supermicro SC826 gebastelt (mit der Flex halbiert, die Mainboard-Seite mit den Slots nach vorne über die HDDs montiert, und die Lüfter der NTs umgedreht)
 
Zuletzt bearbeitet:
Will man unbedingt Intel?
Wenn man FreeBSD verwendet, eher schon. Sonst eher egal.
Im Übrigen ist es schon ein großter Unterschied ob 2.5 GbE oder 10 GbE, sowohl im Verbrauch, als auch bei der Herstellerempfehlung etc...

Das M.2 Ding mit 2.5 GbE erscheint mir vernünftig zu sein für das Board....

Naja... ob man jetzt den einzigen M2 Port auf dem Mainboard für ne Netzwerk Karte opfern will?
Eher schon, weil dieser einzige M.2 Port ja ein PCIe 3.0 x1 ist... und man dem M12LE0 in den meisten Fällen wohl eine 4x M.2 Bifuricaton Karte spendiert für den x16 Slot, für einen "häuslich großen" HBA tuts wohl auch der untere PCIe 4.0x4 Slot (ein paar SATA sind ja auch am Board selbst).

Insofern ist das nicht so blöd, den PCIe 4.0x4 für ne NIC (unter 25 Gbit) zu opfern wäre eigentlich schlechter.
 
In der Tat.

Günstiges Board für 35€ und für 65€ Adapter Karten dazu damit man es vernünftig nutzen kann xD immer noch günstiger als der Rest.

Oder so was hier mit 5 Gb/s. Keine Ahnung, ob das kompatibel ist.
Jetzt benötigt man da nur noch nen Switch der 5Gbits kann...
Die meisten günstigen 10gbit können das nicht.
Da wäre 5Gbit SFP+ fast mit höheren Erfolgschancen gekrönt.
 
Nur dass der Adapter nur 10 EUR gekostet hat.
Ich glaub er meint die 4x M.2 Karte... zumindest in PCIe 4.0 Version ist die nicht geschenkt.
U.2 wird dann erst recht teuer :d...

Die meisten können das.
Mach mal.
5 GbE soll ja bei den neuen AMD 8er Chipsätzen vorkommen, was ich so lese.

Ich finde das zwar wieder kacke und meine, auf einem >250€ Mainbaord darf ruhig ein 10 GbE Chip sein (so ein Aquantia kostet jetzt ja echt ned die Welt), aber gut...
Ich hab ja auch 2.5 GbE (welches die echten TrueNAS BSD Nerds auch scheiße und nicht Fleisch nicht Fisch finden :d...).

Wenn Switdch und Client das auch können, why not?

PS:
Aber wenn ich schon einen 10 GbE Switch (Switches) "füttern" muss... dann wäre ich auch motiviert 10 GbE zu verwenden.
Hab aber selbst das "Problem", dass ich beim Mainboardkauf nicht weit genug voraus gedacht habe... wusste ja nicht... was da noch kommt. Hab eigentlich keinen Platz im X570 Taichi, außer, ich lass die Graka mit x8 laufen... aber für ne popelige 10 GbE NIC? Meh.
 
Der m.2 slot auf dem board ist mit 3.0 x1 angebunden, das reicht für ne single-port 2.5G NIC vollkommen - für ne SSD is es etwas wenig. Außerdem kosten PCIe auf m.2 Adapter für PCIe 4.0 x4 auf aliexpress ~5-10€, dann hat die SSD auch ne flotte Anbindung.
Oder so was hier mit 5 Gb/s. Keine Ahnung, ob das kompatibel ist.

Danke.
Ich habe mich jetzt für den hier (Intel 226-V) mit 2.5GbE für den normal Size PCIe entschieden. Ich habe auch immer noch x8 Lanes aus dem x16 Slot über den Riser ungenutzt als Reserve. Als Choice/Bundle Artikel 8,99 € aufgefüllt zusammen mit zwei ESP32-S3 für je 3,09€ inkl. Versand (also eine 15€ Bestellung) konnte ich einfach nicht widerstehen. Man muss schon arg standhaft bleiben nicht alle möglichen "günstigen Kram" in den Warenkorb zu packen, um am Ende nicht viel ungenutztes Zeug bestellt zu haben. Das ist erst meine zweite Bestellung bei AliExpress und die Preise sind schon extrem niedrig. Naja, ich bin gespannt ob da tatsächlich etwas brauchbares geliefert wird.

Wenn das System jetzt neu wäre würde ich aber wohl auch doch den M2 Opfern, so bin ich zu faul die Boot NVME zu wechseln. Außerdem bräuchte ich dann wohl auch noch eine Erweiterungskarte mit mehr Sata Anschlüssen. Ich will gerne mindestens 2 im Normalbetrieb frei haben, für spontane Experimente oder wenn eine Festplatte mal getauscht werden muss.

Gegen 10GbE habe ich mich wegen der Kosten und dem hohen Stromverbrauch entschieden. Außerdem sind die meisten großen Zugriffe nur auf meinen HDD-Datenpool (einfaches Raid1 mit MG07), dort bringt mehr als 2.5 GbE dann auch nichts mehr. Und 2.5GbE hat der Desktop auch eh schon auf dem Mainboard.

Die Switch spaare ich mir damit auch erstmal und richte eine P2P Verbindung ein. Optional dann irgendwann eine schnellere Switch und wenn es doch mal auf 10GbE gehen sollte tendiere ich nach aktuellem Recherchestand eher zu SFT+ Karten, entweder wieder P2P oder mit entsprechender Switch (Geringerer Verbrauch, Preise jedoch ähnlich zu 10GbE auf RJ45).
 
Zuletzt bearbeitet:
Gegen 10GbE habe ich mich wegen der Kosten und dem hohen Stromverbrauch entschieden. Außerdem sind die meisten großen Zugriffe nur auf meinen HDD-Datenpool (einfaches Raid1 mit MG07), dort bringt mehr als 2.5 GbE dann auch nichts mehr. Und 2.5GbE hat der Desktop auch eh schon auf dem Mainboard.
ARC :devilish: hab auch schon überlegt 1 tb M.2 als L2ARC ins NAS zu stopfen. Nicht weil ichs brauch, sondern weil ichs kann. :banana:


Nüchtern betrachtet sind 2.5 GbE aber schon ganz gut, die 280 mb/s und die Zugriffszeiten sind brauchbar, da gibts nix zu meckern.
=> damit kann man am NAS arbeiten, als wären es interne Laufwerke (zumindest die HDDs bzw. SATA SSDs).


Klar, ein Z1 Pool oder ein SATA SSD Pool könnten das doppelte (unter guten Bedingungen), ARC Cache noch mehr.
Für kleinere Pools und alltägliche Anwendungen passt das schon.
Bei mir ist die Performance am NAS eher gestiegen (über 2.5 GbE) gegenüber HDDs intern (da der Filer "ordentlich" damit umgehen kann im Gegensatz zur Windooze-Kiste).

5 GbE ist sicher auch nice, wenn sichs anbietet. Muss halt verfügbar sein in der ganzen Infrastruktur, inwiefern 5 GbE Komponenten einen ernsthaften Verbrauchs- und Preisvorteil zu 10 GbE haben, kein Plan.
 
Ich hab das Teil mal bestellt und werde berichten.
Besonders Stromverbrauch bitte :)

Das ist erst meine zweite Bestellung bei AliExpress
Zu spät.
Das ist wie ein Zombie Biss.
Sobald es dich da mal hat ist's vorbei.

auf 10GbE gehen sollte tendiere ich nach aktuellem Recherchestand eher zu SFT+ Karten, entweder wieder P2P oder mit entsprechender Switch (Geringerer Verbrauch, Preise jedoch ähnlich zu 10GbE auf RJ45).
Für so nen kleinen Switch mit 2xSFP und 4x 2.5gbit zahlt man 26$ (STH Forum)
10gbit SFP+ Mellanox ConnectX3 gibt's auf eBay für 20-40$ aber die haben halt Scheiss Power save modes...
Die DaC dazwischen kosten auch nur 5-10€ für so 1-2m

Stromverbrauch mässig ist 5GBE definitiv die interessantere Variante... Vermutlich.

Nicht weil ichs brauch, sondern weil ichs kann. :banana:
Cool wärs schon....
Ich hab's jetzt ganz primitiv gelöst indem die 2tb NVME SSD einfach ein separater pool ist.
Darauf sind Apps/VMs und alle Daten die oft/schnell gelesen werden. Das HDD RaidZ1 ist dann halt eher so das Datengrab.
Vorteil ist eben das Apps und VMs darauf sind und so immer volle Performance haben. Was ja bei dem L2ARC der Fall seins sollte aber nicht garantiert werden kann.
 
Darauf sind Apps/VMs und alle Daten die oft/schnell gelesen werden. Das HDD RaidZ1 ist dann halt eher so das Datengrab.
Hab ich auch, aber mich stört das mit den Metadaten. Wenn die mal im ARC sind, fluppt das alles richitg. Wenn sies nicht sind, dauerts teilweise ziemlich lange einen Ordnerinhalt zu zeigen.
Ich meide aber die special-vdev Sache wie der Teufel das Weihwasser.
Hab das eh im ZFS Thread schon angerissen, ohne aber wirklich zu einer Lösung gekommen zu sein.

Ich tendier ja dazu einfach aus Neugier eine SN700 1tb zu kaufen (die hat 2 PBW, reizt PCIe 3.0x4 gut aus [hab einen 5750G]), kostet mich mit Icy-Box PCIe Adapter knappe 100€ (drum gibts grad mal noch 10 Döner mit Cola).

Apps/VM hab ich auf einer Micron 7400 pro, welche ich aber so nicht mehr empfehlen würde. Braucht im idle (viel) zu viel Strom und wirklich schnell ist sie auch nicht (könnte aber auch an den sync-writes von kvm ohne slog-zil liegen).
 
Die ASRock Rack RB4M2 wird derzeit vermehrt auf eBay für unter 20 € angeboten. Dafür spricht, es ist ein Markenprodukt, dagegen es ist gebraucht, nur PCIe 3.x und es scheint die Slot Blende zu fehlen.

Die PCIe (10GBit ~ 1,1 GB/s) sollte keine Rolle spielen weil die NIC Performance beschränkt, oder? PCI 3.x bei 2x NVE SSD maximal ~8 GB/s.

Der Adapter 8x4x4 ist für LSI + 2x NVE im PCIe 16x sehr interessant :-)
 
Zuletzt bearbeitet:
@bbott Ist das denn eine aktive Karte oder sind greifen die typischen Bifurcation Einschränkungen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh