Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ist das auch ohne Grafikkarte ein Problem? Könnte ich also bspw. eine LAN Karte, eine SATA-Erweiterung und, was weiß ich, eine USB Erweiterung anschließen? Ich denke nur die wenigstens Karten brauchen wirklich x16, oder? Sorry falls du das bereits beantwortet hast, irgendwie blick ich grad nicht mehr ganz durch 😅Zwei x16 elektrisch kannst schon knicken. Wenn ein zweiter mechanischer x16 Slot wo auf einem B550 ist, dann ist da normal per x4 am Chipsatz angebunden.
Irgend eine alte Grafikkarte hab ich hier auch noch rumliegen. So hab ich das auch vor.Ich hatte zum installieren mal eine GT710 drin, aber wieder raus genommen.
Logisch, aber in den insgesamt drei vorhanden Slots 3 Karten zu verwenden funktioniert dann problemlos? "Zwei x16 elektrisch kannst schon knicken" klang für mich danach, dass der zweite nicht mehr funktioniert sobald der erste in Verwendung istD.h. wenn Du eine x1 Karte in einen 16er Slot steckst, sind ohne Tricks (PCIe-Bifurcation) die restlichen 15 Lanes verpufft....
Wie man das aufsplittet, da gibt es leider keine pauschale Antwort und denke da gibt es auch kein richtig und falsch. Für ML - gerade wenn du vorhast mit Bildern / Videos zu arbeiten - brauchst du irgendwann eine GPU, falls du etwas mehr als nur "Proof-of-Concept" machen willst. Das wiederrum ist aber genau das Gegenteil zu "leise" und "stromsparend". Es ist sehr schwierig, alles in einer Kiste unterzukriegen. Du hast mehr Möglichkeiten und bist flexibler unterwegs, wenn du das in mehrere Kisten (z.B. Server & Workstation) unterteilst."Meine Workstation" ist gut Wäre schön wenn ich da was brauchbares hätte. Wäre es denn vielleicht tatsächlich eine Überlegung wert, das ganze aufzusplitten? In einen 24/7 laufenden Server mit deutlich reduzierter Handware als urpsrünglich geplant und eine "Workstation" (also einfach ein Desktop-PC mit Ausrichtung auf die genannten Anforderungen, richtig?)?
Da musst du aufpassen. Die kleineren externen HDDs von WD nutzen intern WD Blues, die absolut grottig sind. WD Blue ist maximal in 6TB erhältlich - also wirst du bei externen HDDs ab 8TB etwas mehr Glück haben. Aber auch da musst du aufpassen. Es gibt qualitativ sehr hochwertige, heliumgefüllte HDDs, die im Grunde umgelabelte Enterprise / Datacenter HDDs sind. Die gibt es "garantiert" ab einer bestimmten Kapazität, aktuell wären es 12TB. Gab es in den letzten Wochen immer wieder für ca. ~170€ als MyBook mit 3 Jahren Garantie. 2x 12TB hat gegenüber 2x 6TB + 2x 4TB den Vorteil, dass du mehr SATA Slots frei hast, weniger Stromverbrauch und es ist vermutlich (?) leiser. Kosten dürften vergleichbar sein. Aber auch die luftgefüllten 8TB / 10TB sind kein Müll - die sind halt etwas wärmer und lauter als die heliumgefüllten Pendants, aber keinesfalls schlecht an sich.Absolut so war das geplant. Die Schwierigkeiten sehe ich hierbei nur bei der Ungewissheit was die verbauten Platten angeht, so hätte ich gestern fast hier zugeschlagen, dann aber noch gelesen, dass der Lesekopf wohl sehr schnell Probleme macht, wenn nicht im Original-Gehäuse. Hast du da Erfahrungen?
Da hast du Recht, diese Themen werde ich dann verschieben, Waren nur Überlegungen, da mich KI/ML etc. eigentlich schon stark interessieren, aber da dürft ihr mir dann in ein paar Monaten bis Jahren in meinem Workstation-Kaufberatungs-Thread helfenFür ML - gerade wenn du vorhast mit Bildern / Videos zu arbeiten - brauchst du irgendwann eine GPU, falls du etwas mehr als nur "Proof-of-Concept" machen willst.
Nichts spannendes, Ryzen 5 2400G (keine zusätzliche Graka), Gigabyte GA-AB350M-DS3H, 16GB RAM, 1TB SSD, 1TB HDDWas hast du denn aktuell als Desktop?
Ja, habs auch gesehen, bis gestern für knapp 165€. Hab aber (leider?) nicht zugeschlagen, da ich ja noch am Überlegen war, 2 Platten an eine NAS VM durchzureichen und zwei direkt als Proxmox Storage zu verwenden. Hab mich jetzt ja aber vorerst dazu entschieden, auf HDDs ganz zu verzichten (und auf die DS918+ zurückzugreifen).12TB. Gab es in den letzten Wochen immer wieder für ca. ~170€ als MyBook
Aber doch nicht wenn man sie "shucked"? Bei einem Defekt einfach wieder ins Gehäuse schieben oder was?mit 3 Jahren Garantie
Auch, weil @tcg bestätigen konnte, dass es headless bootet.
Es gibt Videos im Internet, wie du die Festplatte rausbekommst, ohne Clips abzubrechen. Im Nachhinein kann dir das niemand nachweisen, dass es ausgebaut war.Aber doch nicht wenn man sie "shucked"? Bei einem Defekt einfach wieder ins Gehäuse schieben oder was?
Auch wenn ich den Thread hier jetzt etwas kapere, aber da das Thema ja eh gerade behandelt wird: kann ich selber irgendwie nachvollziehen welche Festplatte in welchem Gehäuse war? Steht z.B. die gleiche Seriennummer auf Festplatte und Gehäuse/PCB?Was natürlich zurecht abgelehnt wird, ist eine externe HDD mit kaputten Clips einzusenden. Bzw. mit falscher Seriennummer / falschem PCB.
Nur bedingt korrekt. Was dir helfen könnte, ist bei Intel CPUs folgendes:
- Integrierte Grafik:
- Nur bei wenigen Modellen überhaupt dabei, die mir alle schon fast zu schwach für meine Anforderungen erscheinen.
- Frage 3: Lässt sich stand heute wohl nicht an VMs durchreichen, korrekt?
Gehäuse + Festplatte ja. Erkennst du direkt auf dem Aufkleber. PCB hat jedoch eine abweichende Seriennummer. Die Seriennummer der HDD ist jedoch auch im EEPROM des PCBs hinterlegt - die kriegst du über einen Hardware Programmer (3.3V) raus oder alternativ über ein Programm am PC (weiß nicht mehr welches). Am einfachsten ist es, wenn man sich das beim Shucking direkt aufschreibt bzw. schön getrennt aufbewahrt.Auch wenn ich den Thread hier jetzt etwas kapere, aber da das Thema ja eh gerade behandelt wird: kann ich selber irgendwie nachvollziehen welche Festplatte in welchem Gehäuse war? Steht z.B. die gleiche Seriennummer auf Festplatte und Gehäuse/PCB?
Naja, wenn ein Slot belegt ist, dann ist er belegt.
D.h. wenn Du eine x1 Karte in einen elektrisch 16er Slot steckst, sind ohne Tricks (PCIe-Bifurcation) die restlichen 15 Lanes verpufft....
Was aber nichts daran ändert, dass man den Slot denn mechanisch belegt hat und die übrigen Lanes dann mit einer speziellen Riserkarte mechanisch rausführen müsste um sie überhaupt nutzen zu können und ich habe keine Ahnung ob es solche Riserkarten gibt mit denen man die hinteren Lanes rausführen könnte. PCIe Lane Bifurkation, also die Möglichkeit mehrere Geräte in einem Slot nutzen zu können, ist eigentlich nur für Karten mit mehreren M.2 PCIe Slots aber ohne einen teuren PCIe Lane Switch (aka PLX Chip) wie z.B. die ASUS Hyper Card relevant.Das Asrock B550M Pro4 unterstützt laut Support am PCIEx16 die bifurcation übrigens mit x8x8 oder x8x4x4.
AM4 ist eben keine Serverplattform, während es bei Intel von keder S.115x Generation auch die Xeon-E als Entry-Level Server und Workstation Plattform gab und diese nutzen die gleichen Dies wie die Consumer CPUs, gleiches gilt für die Chipsätze. Daher können die ganzen Intel Consumer Boards auch diese ganzen Enterprise Features und untersützten problemlos Serverhardware und -betriebssysteme / Virutalisierungshosts und deren Features wie das Durchreichen von PCIe Geräten an eine VM. Das ist bei AMD anderes, da sind offiziell nur die großen 7000er EYPC die Serverplattform, die kleinen EYPC 3000 werden von AMD als Embedded bezeichnet und beworben, was andere Anforderungen an die Unterstützung von Hard- und Software sowie die Validierung bedeutet. ASRack versucht mit den AM4 Server Boards also etwas auf eigene Faust, was von AMD so nicht vorgesehen ist, denn AMD hat eben keine Entry Level Serverplattform auf AM4 Basis, AM4 ist eine reine Desktopplattfom, auch wenn sie genug Leistung für andere Anwendungen für vergleichsweise wenig Geld bietet:AMD ist zwar leistungstechnisch besser aber richtiges Server Feeling kommt nicht auf.
Die ASRock Rack Produkte haben mir zu viele Bugs.
Anhand des Bugs des Zufallszahlengenerators der RYZEN 3000 CPUs der dazu geführt hat, dass beim Release viele aktuelle Distributionen mit systemd nicht liefen, kann man erahnen wie wenig umfangreich die Tests mit Linux gewesen sein dürften. Nur spielt Linux auf dem Desktop eben kaum eine Rolle, da ist Windows wichtig und danach lange nichts.
Die CPUs sind zwar fast identich, die Plattform aber nicht, denn während die EYPC reine SoCs sind, haben die TR immer einen externen Chipsatz und ja, bis auf die neuen TR Pro (die offiziell Workstation CPUs sind), werden die anderen TR alle als Desktop (wenn auch HEDT) vermarktet, also kann man ahnen welches Team diese intern betreut und was für Tests diese wohl vorranging gemacht haben.
Glaubt also jemand wirklich, dass ESXi und das Durchreichen von PCIe Geräten getestet und ggf. gefixt wurde? Intel macht sowas wegen der Xeon-E und die Desktopversionen können es dann auch, aber wofür sollte AMD dies bei seinen Desktopplattformen machen, von denen es keine Serverversionen gibt? Sowas kostet viel Geld weil es viel Aufwand ist und ist für Desktopplattformen nicht nötig. Man wird sehen wie es bei Intel in Zukunft aussehen wird, nachdem die Xeon-E nun Xeon-W sind und nur noch als Workstation und nicht mehr als Server beworben werden, was mehr als nur Marketung ist, es bestimmt eben auch welche Unterstützung implementiert wird und welche Validierungen gemacht werden.
Also ich vermute, dass dies eher an der engen Verwandschaft mit den EYPC liegt, die CPUs sind ja identisch und die meisten PCIe Lanes kommen bei TR von der CPU und nicht dem Chipsatz. Vom Chipsatz abgesehen sind TR und EYPC ja gleich, daher wundert es eben nicht und ist auch kein Hinweis darauf welches Team die Plattform betreut, wenn Serveranwendungen die auf EYPC unterstützt und validiert sind, dann auch auf TR laufen, solange diese eben nichts mit dem Chipsatz zu tun haben, also etwa der Versuch PCIe Geräte durchzureichen die am externen Chipsatz hängen. Sowas wird das Serverteam natürlich nicht testen, da die EYPC den externen Chipsatz ja nicht haben.Habe da sowohl mit den 1000ern (auch zwei unterschiedlichen Mainboards) und einem 3000er rumgespielt und war positiv überrascht, wie unproblematisch da z.B. ESXi drauf läuft.
Was aber nichts daran ändert, dass man den Slot denn mechanisch belegt hat und die übrigen Lanes dann mit einer speziellen Riserkarte mechanisch rausführen müsste um sie überhaupt nutzen zu können und ich habe keine Ahnung ob es solche Riserkarten gibt mit denen man die hinteren Lanes rausführen könnte. PCIe Lane Bifurkation, also die Möglichkeit mehrere Geräte in einem Slot nutzen zu können, ist eigentlich nur für Karten mit mehreren M.2 PCIe Slots aber ohne einen teuren PCIe Lane Switch (aka PLX Chip) wie z.B. die ASUS Hyper Card relevant.