Gigabyte Mainboard MC12-LE0 AM4, IPMI, Dual Intel GB Lan ECC fähig

Welcher Ram Riegel ist A1?
Das weiß ich leider nicht aus dem Kopf. Allerdings steht es relativ klein auf dem Mainboard dicht an den Slots. Ich erinnere mich noch, dass es schwer zu erkennen war und ich erstmal überlegen musste welche Beschriftung zu welchem Slot gehört.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Handbuch ist es relativ gut leserlich
Das weiß ich leider nicht aus dem Kopf. Allerdings steht es relativ klein auf dem Mainboard dicht an den Slots. Ich erinnere mich noch, dass es schwer zu erkennen war und ich erstmal überlegen musste welche Beschriftung zu welchem Slot gehört.
 
Im Handbuch ist es relativ gut leserlich
Tatsächlich.
Ich hatte gestern extra nochmal rein geschaut aber auf den Grafiken dort die Beschriftung immer neben den Slots gesucht statt auf und darum übersehen. ^^
 
Hat zufällig jemand einen heißen Tipp für ein NIC für dieses Board? Möglichst sparsam, ab 2.5 Gbits bis 10 Gbits. Ich wäre auch offen für AliExpress Experimente.
 
@JVN danke für den Tipp, bisher hatte ich nur normale full size PCIe x4 Karten und keine M2 im Blick. Wenn ich es richtig sehe wäre der vorhandenen M2 Slot mit PCIe 3.0 x1 eigentlich sogar ausreichend um einen einzelnen 10 Gbit Port ohne deutliche Drosselung zu bedienen?

Wenn das ein echter Intel Chip ist, dann go for it!
Will man unbedingt Intel?
Ich muss mich wohl nochmal belesen, aber das aktuelle 1 Gbit scheint irgndwie doch schon zu limitieren, weshalb ich über eine zweite Verbindung als Direktverbindung vermutlich per 2.5 Gbit (da ich im Desktop eigentlich keine Lanes mehr opfern möchte und nur zwei 2.5 Gbit NICs onboard sind) nachdenke.
Edit:
Ich habe doch noch ein paar PCIe 3.0 Lanes vom Chipsatz über :unsure:
 
Zuletzt bearbeitet:
Will man unbedingt Intel?
Meistens. Kompatibel, Stromsparend, bestes Featureset (in der Regel). Es gibt Ausnahmen, aber normalerweise will man Intel.
Man könnte jetzt meinen: Featureset? Bei einer NIC? Ja, tatsächlich, es geht da im Wesentichen um das Durchreichen bei Virtualisierung, wo man Features will, die man oft vorher noch nicht kennt. Intel hat die meistens.

Leider wird Intel auch am häufigsten gefälscht. Und ne gefälschte Intel will man meistens eher nicht.
 
So der Ryzen 9 5900X ist nun Installiert, das Bios Resetiert und der ECO Modus wieder deaktiviert.

Auch ein Luftleitblech Konstriert und 3D gedruckt, bin gespannt ober mit dem 12Kerner nun stabil läuft.

1718524174838.png

1718524195608.png

1718524328057.png
 
Meistens. Kompatibel, Stromsparend, bestes Featureset (in der Regel). Es gibt Ausnahmen, aber normalerweise will man Intel.
Man könnte jetzt meinen: Featureset? Bei einer NIC? Ja, tatsächlich, es geht da im Wesentichen um das Durchreichen bei Virtualisierung, wo man Features will, die man oft vorher noch nicht kennt. Intel hat die meistens.

Leider wird Intel auch am häufigsten gefälscht. Und ne gefälschte Intel will man meistens eher nicht.
Ja, leider will man Intel. Definitv. Am wenigsten Probleme, gute Dokumentation, nach Jahren noch Security Patches für Firmwares und im Regelfall zu allem kompatibel.
Was unter PVE noch gut funktioniert wäre Broadcom.

Ich bin von 10Gbit wieder weg gegangen, weil der Kostennutzenfaktor einfach nicht passte. Ich muss selten große Datenmenge von einem Client auf den Server verschieben bzw. anders herum.
Da hat sich der erhöhte Stromverbrauch einfach nicht gerechtifertigt. Mein Server sind nur noch mit 2x 1Gbit per LACP Port Channel angebunden.
 

Wow, das sieht ja wirklich wirklich gut aus - auf afrotechmods kannt den so nicht mehr posten, und mancher SuperMicro Ingenieur koennte wohl auch noch bisschen davon lernen.

BTW:
bei dem Stock Kuehler kann man den aeusseren Plastikring mit dem AMD Logo wegreissen - er hat dann immernoch eine Luftfuehrung.
Wozu? Bei 2/2 Kuehlern, die ich hatte, hat das Ding eine Vibration verursacht.
 
Wer noch ein Gehäuse für unser Board sucht, bei Ali sind neue Möglichkeiten aufgeploppt, die mir bislang noch nicht aufgefallen sind:
@Mods, wenn das hier zu viel OT ist dann gern verschieben oder löschen.
 
Zuletzt bearbeitet:
Ich hab noch riesige Probleme mit der GPU vom 5650G bei so Machine Learning Gefuzzel.

Er zeigt mir hier 2GB VRAM an, und die "Rechenarbeit" ist mir auch tatsaechlich bei 2GB VRAM Nutzung abgebrochen.
Theoretisch sollte er ja auch noch ein bisschen vom Hauptspeicher abbekommen - so wie diese 2GB ja auch dort liegen.
Ich weiss nicht ganz, ob man da ein Treiberflag oder sowas zusaetzlich braucht.
Als Fussnote, ich hab aktuell "nur" 16GB RAM da drin, manchmal hab ich mehr Zeit als Geld.

Weiss einer von Euch wie diese Sachen mit dem GPU Memory bei den APUs funktionieren?

Bildschirmfoto 2024-06-16 um 21.36.45.png



Code:
~ # lsmod | grep amdgpu
amdgpu              11726848  4
drm_exec               16384  1 amdgpu
amdxcp                 12288  1 amdgpu
drm_buddy              20480  1 amdgpu
gpu_sched              61440  1 amdgpu
hwmon                  40960  3 igb,k10temp,amdgpu
i2c_algo_bit           12288  3 igb,ast,amdgpu
drm_suballoc_helper    12288  1 amdgpu
drm_ttm_helper         12288  1 amdgpu
ttm                   110592  2 amdgpu,drm_ttm_helper
drm_display_helper    237568  1 amdgpu
video                  77824  1 amdgpu
drm_kms_helper        270336  6 ast,drm_display_helper,amdgpu,simpledrm
drm                   802816  16 gpu_sched,drm_kms_helper,drm_exec,drm_suballoc_helper,ast,drm_shmem_helper,drm_display_helper,drm_buddy,amdgpu,drm_ttm_helper,simpledrm,ttm,amdxcp
~ # uname -a
Linux tschike 6.6.32-0-lts #1-Alpine SMP PREEMPT_DYNAMIC Fri, 24 May 2024 10:11:26 +0000 x86_64 GNU/Linux

Das VRAM ist vom normalen Speicher abgezwackt:

Code:
MemTotal:       14161088 kB
MemFree:         1610844 kB
MemAvailable:    7189988 kB


Edit: Vermutlich ist das Thema folgendes: https://forum.archlinux.de/d/34752-physikalischen-ram-fuer-ryzen-5600g-definieren/9

Edit: Vermutlich ist es ein ROCm bug "PyTorch with ROCm does not take GTT into account when calculating usable VRAM on APU platforms")
Hier Beschreibung und ein Dutzend verschiedene Workarounds https://github.com/ROCm/ROCm/issues/2014#issuecomment-2030906177

Die Leute bei AMD haben offenbar keine Sorgen...

Edit: in Linux 6.10 soll es dann einen Fix geben. Also so ein paar Wochen ist das Thema vielleicht ganz von gestern.
 
Zuletzt bearbeitet:
So der Ryzen 9 5900X ist nun Installiert, das Bios Resetiert und der ECO Modus wieder deaktiviert.

Auch ein Luftleitblech Konstriert und 3D gedruckt, bin gespannt ober mit dem 12Kerner nun stabil läuft.

Anhang anzeigen 1005720
Anhang anzeigen 1005721
Anhang anzeigen 1005722
Es wäre verdammt cool wenn du das design hier sharen könntest - entweder als .stl oder besser die .FCStd Datei (schaut so nach FreeCAD aus).

Naja... ob man jetzt den einzigen M2 Port auf dem Mainboard für ne Netzwerk Karte opfern will?
Aber ja sowas gibts auch mit 10gbit SFP. https://de.aliexpress.com/item/1005006925277754.html Wenns denn kein Fake intel ist...
Der m.2 slot auf dem board ist mit 3.0 x1 angebunden, das reicht für ne single-port 2.5G NIC vollkommen - für ne SSD is es etwas wenig. Außerdem kosten PCIe auf m.2 Adapter für PCIe 4.0 x4 auf aliexpress ~5-10€, dann hat die SSD auch ne flotte Anbindung.
Beitrag automatisch zusammengeführt:

Wer noch ein Gehäuse für unser Board sucht, bei Ali sind neue Möglichkeiten aufgeploppt, die mir bislang noch nicht aufgefallen sind:
nice, ein nur 295mm tiefes 12-bay 6HE Gehäuse, schade nur dass es wohl keine rails dafür gibt, und der Versand schweineteuer ist. Ein Bild von oben wäre auch nicht schlecht, und es schaut fast so aus als hätte es keine Ausnehmung für ne I/O-Blende, sondern nur vorgestanzte Ausnehmungen für ein spezifisches Mainboard.

Sowas ähnliches hab ich mal aus einem Supermicro SC826 gebastelt (mit der Flex halbiert, die Mainboard-Seite mit den Slots nach vorne über die HDDs montiert, und die Lüfter der NTs umgedreht)
 
Zuletzt bearbeitet:
Will man unbedingt Intel?
Wenn man FreeBSD verwendet, eher schon. Sonst eher egal.
Im Übrigen ist es schon ein großter Unterschied ob 2.5 GbE oder 10 GbE, sowohl im Verbrauch, als auch bei der Herstellerempfehlung etc...

Das M.2 Ding mit 2.5 GbE erscheint mir vernünftig zu sein für das Board....

Naja... ob man jetzt den einzigen M2 Port auf dem Mainboard für ne Netzwerk Karte opfern will?
Eher schon, weil dieser einzige M.2 Port ja ein PCIe 3.0 x1 ist... und man dem M12LE0 in den meisten Fällen wohl eine 4x M.2 Bifuricaton Karte spendiert für den x16 Slot, für einen "häuslich großen" HBA tuts wohl auch der untere PCIe 4.0x4 Slot (ein paar SATA sind ja auch am Board selbst).

Insofern ist das nicht so blöd, den PCIe 4.0x4 für ne NIC (unter 25 Gbit) zu opfern wäre eigentlich schlechter.
 
In der Tat.

Günstiges Board für 35€ und für 65€ Adapter Karten dazu damit man es vernünftig nutzen kann xD immer noch günstiger als der Rest.

Oder so was hier mit 5 Gb/s. Keine Ahnung, ob das kompatibel ist.
Jetzt benötigt man da nur noch nen Switch der 5Gbits kann...
Die meisten günstigen 10gbit können das nicht.
Da wäre 5Gbit SFP+ fast mit höheren Erfolgschancen gekrönt.
 
Nur dass der Adapter nur 10 EUR gekostet hat.
Ich glaub er meint die 4x M.2 Karte... zumindest in PCIe 4.0 Version ist die nicht geschenkt.
U.2 wird dann erst recht teuer :d...

Die meisten können das.
Mach mal.
5 GbE soll ja bei den neuen AMD 8er Chipsätzen vorkommen, was ich so lese.

Ich finde das zwar wieder kacke und meine, auf einem >250€ Mainbaord darf ruhig ein 10 GbE Chip sein (so ein Aquantia kostet jetzt ja echt ned die Welt), aber gut...
Ich hab ja auch 2.5 GbE (welches die echten TrueNAS BSD Nerds auch scheiße und nicht Fleisch nicht Fisch finden :d...).

Wenn Switdch und Client das auch können, why not?

PS:
Aber wenn ich schon einen 10 GbE Switch (Switches) "füttern" muss... dann wäre ich auch motiviert 10 GbE zu verwenden.
Hab aber selbst das "Problem", dass ich beim Mainboardkauf nicht weit genug voraus gedacht habe... wusste ja nicht... was da noch kommt. Hab eigentlich keinen Platz im X570 Taichi, außer, ich lass die Graka mit x8 laufen... aber für ne popelige 10 GbE NIC? Meh.
 
Der m.2 slot auf dem board ist mit 3.0 x1 angebunden, das reicht für ne single-port 2.5G NIC vollkommen - für ne SSD is es etwas wenig. Außerdem kosten PCIe auf m.2 Adapter für PCIe 4.0 x4 auf aliexpress ~5-10€, dann hat die SSD auch ne flotte Anbindung.
Oder so was hier mit 5 Gb/s. Keine Ahnung, ob das kompatibel ist.

Danke.
Ich habe mich jetzt für den hier (Intel 226-V) mit 2.5GbE für den normal Size PCIe entschieden. Ich habe auch immer noch x8 Lanes aus dem x16 Slot über den Riser ungenutzt als Reserve. Als Choice/Bundle Artikel 8,99 € aufgefüllt zusammen mit zwei ESP32-S3 für je 3,09€ inkl. Versand (also eine 15€ Bestellung) konnte ich einfach nicht widerstehen. Man muss schon arg standhaft bleiben nicht alle möglichen "günstigen Kram" in den Warenkorb zu packen, um am Ende nicht viel ungenutztes Zeug bestellt zu haben. Das ist erst meine zweite Bestellung bei AliExpress und die Preise sind schon extrem niedrig. Naja, ich bin gespannt ob da tatsächlich etwas brauchbares geliefert wird.

Wenn das System jetzt neu wäre würde ich aber wohl auch doch den M2 Opfern, so bin ich zu faul die Boot NVME zu wechseln. Außerdem bräuchte ich dann wohl auch noch eine Erweiterungskarte mit mehr Sata Anschlüssen. Ich will gerne mindestens 2 im Normalbetrieb frei haben, für spontane Experimente oder wenn eine Festplatte mal getauscht werden muss.

Gegen 10GbE habe ich mich wegen der Kosten und dem hohen Stromverbrauch entschieden. Außerdem sind die meisten großen Zugriffe nur auf meinen HDD-Datenpool (einfaches Raid1 mit MG07), dort bringt mehr als 2.5 GbE dann auch nichts mehr. Und 2.5GbE hat der Desktop auch eh schon auf dem Mainboard.

Die Switch spaare ich mir damit auch erstmal und richte eine P2P Verbindung ein. Optional dann irgendwann eine schnellere Switch und wenn es doch mal auf 10GbE gehen sollte tendiere ich nach aktuellem Recherchestand eher zu SFT+ Karten, entweder wieder P2P oder mit entsprechender Switch (Geringerer Verbrauch, Preise jedoch ähnlich zu 10GbE auf RJ45).
 
Zuletzt bearbeitet:
Gegen 10GbE habe ich mich wegen der Kosten und dem hohen Stromverbrauch entschieden. Außerdem sind die meisten großen Zugriffe nur auf meinen HDD-Datenpool (einfaches Raid1 mit MG07), dort bringt mehr als 2.5 GbE dann auch nichts mehr. Und 2.5GbE hat der Desktop auch eh schon auf dem Mainboard.
ARC :devilish: hab auch schon überlegt 1 tb M.2 als L2ARC ins NAS zu stopfen. Nicht weil ichs brauch, sondern weil ichs kann. :banana:


Nüchtern betrachtet sind 2.5 GbE aber schon ganz gut, die 280 mb/s und die Zugriffszeiten sind brauchbar, da gibts nix zu meckern.
=> damit kann man am NAS arbeiten, als wären es interne Laufwerke (zumindest die HDDs bzw. SATA SSDs).


Klar, ein Z1 Pool oder ein SATA SSD Pool könnten das doppelte (unter guten Bedingungen), ARC Cache noch mehr.
Für kleinere Pools und alltägliche Anwendungen passt das schon.
Bei mir ist die Performance am NAS eher gestiegen (über 2.5 GbE) gegenüber HDDs intern (da der Filer "ordentlich" damit umgehen kann im Gegensatz zur Windooze-Kiste).

5 GbE ist sicher auch nice, wenn sichs anbietet. Muss halt verfügbar sein in der ganzen Infrastruktur, inwiefern 5 GbE Komponenten einen ernsthaften Verbrauchs- und Preisvorteil zu 10 GbE haben, kein Plan.
 
Ich hab das Teil mal bestellt und werde berichten.
Besonders Stromverbrauch bitte :)

Das ist erst meine zweite Bestellung bei AliExpress
Zu spät.
Das ist wie ein Zombie Biss.
Sobald es dich da mal hat ist's vorbei.

auf 10GbE gehen sollte tendiere ich nach aktuellem Recherchestand eher zu SFT+ Karten, entweder wieder P2P oder mit entsprechender Switch (Geringerer Verbrauch, Preise jedoch ähnlich zu 10GbE auf RJ45).
Für so nen kleinen Switch mit 2xSFP und 4x 2.5gbit zahlt man 26$ (STH Forum)
10gbit SFP+ Mellanox ConnectX3 gibt's auf eBay für 20-40$ aber die haben halt Scheiss Power save modes...
Die DaC dazwischen kosten auch nur 5-10€ für so 1-2m

Stromverbrauch mässig ist 5GBE definitiv die interessantere Variante... Vermutlich.

Nicht weil ichs brauch, sondern weil ichs kann. :banana:
Cool wärs schon....
Ich hab's jetzt ganz primitiv gelöst indem die 2tb NVME SSD einfach ein separater pool ist.
Darauf sind Apps/VMs und alle Daten die oft/schnell gelesen werden. Das HDD RaidZ1 ist dann halt eher so das Datengrab.
Vorteil ist eben das Apps und VMs darauf sind und so immer volle Performance haben. Was ja bei dem L2ARC der Fall seins sollte aber nicht garantiert werden kann.
 
Darauf sind Apps/VMs und alle Daten die oft/schnell gelesen werden. Das HDD RaidZ1 ist dann halt eher so das Datengrab.
Hab ich auch, aber mich stört das mit den Metadaten. Wenn die mal im ARC sind, fluppt das alles richitg. Wenn sies nicht sind, dauerts teilweise ziemlich lange einen Ordnerinhalt zu zeigen.
Ich meide aber die special-vdev Sache wie der Teufel das Weihwasser.
Hab das eh im ZFS Thread schon angerissen, ohne aber wirklich zu einer Lösung gekommen zu sein.

Ich tendier ja dazu einfach aus Neugier eine SN700 1tb zu kaufen (die hat 2 PBW, reizt PCIe 3.0x4 gut aus [hab einen 5750G]), kostet mich mit Icy-Box PCIe Adapter knappe 100€ (drum gibts grad mal noch 10 Döner mit Cola).

Apps/VM hab ich auf einer Micron 7400 pro, welche ich aber so nicht mehr empfehlen würde. Braucht im idle (viel) zu viel Strom und wirklich schnell ist sie auch nicht (könnte aber auch an den sync-writes von kvm ohne slog-zil liegen).
 
Die ASRock Rack RB4M2 wird derzeit vermehrt auf eBay für unter 20 € angeboten. Dafür spricht, es ist ein Markenprodukt, dagegen es ist gebraucht, nur PCIe 3.x und es scheint die Slot Blende zu fehlen.

Die PCIe (10GBit ~ 1,1 GB/s) sollte keine Rolle spielen weil die NIC Performance beschränkt, oder? PCI 3.x bei 2x NVE SSD maximal ~8 GB/s.

Der Adapter 8x4x4 ist für LSI + 2x NVE im PCIe 16x sehr interessant :-)
 
Zuletzt bearbeitet:
@bbott Ist das denn eine aktive Karte oder sind greifen die typischen Bifurcation Einschränkungen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh