[Sammelthread] F@H Quatschthre(a)d

Ist die Zbox ein Pi Equivalent oder eher was Richtung Barebone?
Wobei Barebone wohl nicht ganz zutrifft.

Falls ihr eine Katze und ein Buttertoast habt, gibt es da eine Lösung.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, sowas habe ich schon vor. Komme gerade nur zu nix. Lieferung hatte ja auch schon >2 Wochen gedauert.
Habe erst letzte Woche endlich nen passenden Adapter & Verlängerungskabel gekauft. War leider nur Kabel für ein Panel dabei & 2-3m Kabel, ich hab aber zwei Panel und brauch ne längere Strecke, wenn ich das Teil trocken stehen haben will & gleichzeitig die Panels optimal platziert.

Dazu kommt, dass die Panel in ner festen Stoffhülle eingenäht sind (da sind auch die Ständer ausklappbar), ss dass man alles sehr easy klein & super transportabel zusammen packen kann. Hat nur nen Nachteil - wenn es einmal nass wird und nicht wirklich sonnig/warm ist, dann bleibt das ewig nass. Will natürlich nicht, dass mir das dann indoor direkt im ersten Winter wegschimmelt.
Ist eher nicht für (Winterhalbjahr-)Dauerbetrieb vorgesehen, sondern für den mobilen temporären Sommer-Einsatz oder eben Notfälle.
 
Habe erst letzte Woche endlich nen passenden Adapter & Verlängerungskabel gekauft. War leider nur Kabel für ein Panel dabei & 2-3m Kabel, ich hab aber zwei Panel und brauch ne längere Strecke, wenn ich das Teil trocken stehen haben will & gleichzeitig die Panels optimal platziert.
Entweder:
+
und die Stecker selbst anklemmen.

Oder:

AWG14/2,5mm Kabel sollten reichen, sind mit 24A spezifiziert. Das reicht (inkl. Reserve) für 500W@24V (pro Verbindung)... hab die Spec nicht nochmal nachgeguckt, hatten deine Panels nicht sogar 36V? Dann reichts eh locker.

Das Kabel vom Panel zur Box sollte möglichst kurz sein, weil das Kabel selbst ein Widerstand ist und mit zunehmender Länge somit die Spannung sinkt. Aber so 10m sollten kein Problem sein.

;)
 
leider hab ich ja nicht solche interessante Neuigkeiten zu vermelden, aber irgendwie läuft es aktuell ganz nett mit der Kolonne :hail: :bigok:
1668266965463.png

@lmarkusl: faltest Du nur mit der 4090? 17 Mio sind ja ein super Ergebnis :bigok:
 
@Neo52 ja hab die 4090 aktuell im 24/7 laufen abzüglich gaming.
Hatte noch kurz über laptop versucht aber das bringt nix.

Habe mir heut das MSI MEG X570S Ace Max bebraucht gekauft da es 3 * 8x 4.0 pci lanes hat.
Da würd ich Richtung Weihnachten noch die 3090 anschließen.
 
Schönes Plänchen :bigok:
 
Habe mir heut das MSI MEG X570S Ace Max bebraucht gekauft da es 3 * 8x 4.0 pci lanes hat.
Dein Aorus Master kann doch aber auch 2 GPUs nutzen, auch @Ickewars und ich nutzen die AM4 Plattform für mehr als 1 GPU

Auszug Specs X570 AORUS MASTER (rev. 1.0):
1668365562510.png


Bei meinem Dark-Hero sieht es da sogar schlechter aus:
1668365761303.png


Oder hast Du noch eine weitere Karte im System?

Hatte noch kurz über laptop versucht aber das bringt nix.
hab ich monatelang gemacht (RTX3080), ist natürlich ganz schön hardwarelastig.
Ich vermute aktuell stark dass ich wie WLP und Pads dadurch tauschen darf :hust:


Wie hast Du das Thema mit der neuen Stromversorgung der 4090 gelöst? Ist ja aktuell nicht ganz unproblematisch
 
Bei meinem Dark-Hero sieht es da sogar schlechter aus:
Dürfte für FAH ziemlich egal sein, ob die GPU PCIe x16, x8 oder gar nur x4 hat. Mit 4090ern erst recht, in die 24GB dürften 20WUs reinpassen. Und mit PCIe4 erst recht. Dann dauert das Laden der WUs in den VRAM halt 0,3s statt 0,15 Sekunden.
Somit passen in das Dark-Hero 3 Karten, in dein Aorus Master aber nur 2 (ohne irgendwelche Riser). ;)
 
worin soll der Unterschied liegen:

GIGABYTE X570 AORUS Master​

ASUS ROG Crosshair VIII Dark Hero​

1668371635767.png
1668371683952.png
 
Aorus Master:
PCIe4 x16
PCIe4 x8
PCIe4 x4

ROG Crosshair VIII Dark Hero (?):
PCIe4 x8
PCIe4 x8
PCIe4 x4

Minimal schlechter.

Das genannte
Habe mir heut das MSI MEG X570S Ace Max bebraucht gekauft da es 3 * 8x 4.0 pci lanes hat.
PCIe4 x16
PCIe4 x8
PCIe4 x8

Letzteres ist definitiv besser. Auch wenn ich denke, das es für FAH eh keinen Unterschied macht.

In keinem der Fälle habe ich jetzt nachgeguckt, ob mindestens einer der M.2 Slots sich die Lanes mit dem dritten PCIe-Anschluss teilt, was meistens der Fall ist, weil die CPUs und Chipsets haben halt nur so und so viele Lanes, die kann man zwar anderes verteilen, mehr werden es aber trotzdem nicht.
 
2 mal x8 sind halt 4-7 % weniger Leistung in Benchmarks, denke dass das auch fürs Falten gilt.
Sollte also mit 2-3 GPUs völlig egal sein, zumal die Nvidia Teile ja nochmal mit allen vier Blöcken falten bzw. 3 davon.
 
Leider find ich nirgends etwas wie die Aufteilung dann ist.
Sprich ob dann nicht eben beide mit 8x laufen. Auch habe ich 3 m2 drin. Ob da überhaupt der pci Slot noch geht.

Wie hast Du das Thema mit der neuen Stromversorgung der 4090 gelöst? Ist ja aktuell nicht ganz unproblematisch

BeQuiet Kabel.
Meiner Meinung wird das Thema zu sehr hochgepuscht. Am Ende wird’s ein Zulieferer gewesen sein der Adapter. Aber der 12vhpwr Stecker ist im Vergleich zu den alten halt echt misst. User experience ist sowas von unterirdisch.
 
mir war auch nicht bekannt dass ein AM4 Board so eine Konfig hat

PCIe4 x16
PCIe4 x8
PCIe4 x8

@lmarkusl : Respekt, das kenn ich nicht. Ist auf jeden Fall ein Upgrade, aber für 2 Karten hätte Dein Board auch ausgereicht.
Aber wir sind hier im Luxx, da ist der Bastelwahn oder der Haben-Wollen-Effekt eine durchaus legitime Entscheidungsgrundlage.

Ich hatte aus diesen Gründen die Freddi-Plattform gewählt, aber die hat leider nur PCIe 3.0
 
Ja hab ich gesehen und kurz auch drüber nachgedacht. Hätt ich fast auch zugeschlagen. Hab hier recht viel am4 verbaut im näheren Umfeld. Wenn mal was zum Testen brauch wärs halt dann gleich da. Daher die am4. Aber was ich nicht gewusst habe das man 16x plus 8x betreiben kann.
 
Leider find ich nirgends etwas wie die Aufteilung dann ist.
Auf welchem Board jetzt?

Sprich ob dann nicht eben beide mit 8x laufen. Auch habe ich 3 m2 drin. Ob da überhaupt der pci Slot noch geht.
Alle 3 M.2 mit PCIe oder ein oder 2 davon nur mit SATA?
M.2 ist nur der Stecker. Entscheidend ist, ob die als NVMe (PCIe) laufen oder halt nicht (SATA) oder beides können und dann automatisch SATA nehmen. Wobei wenn SATA, dann werden häufig 2 konventionelle SATA-Ports deaktiviert, weil diverse SATA-Ports idR auch an PCIe x1 hängen, also auch eine PCIe-Lane belegen.
 
das sind die einzigen Angaben die ich finden konnte

1668373233357.png


1668373367594.png
 
@Liesel Weppen das Master

* The PCIEX8 slot shares bandwidth with the PCIEX16 slot. When using the 3rd Generation AMD Ryzen™ processors/2nd Generation AMD Ryzen™ processors and PCIEX8 slot is populated, the PCIEX16 slot operates at up to x8 mode.

Ja leider wird aus 16 dan zwei mal 8 wie ich es in Erinnerung hatte. Für eine reine folding Kiste kein Thema. Beim hauptsystem wollt ich das nicht.
 
Auf welchem Board jetzt?


Alle 3 M.2 mit PCIe oder ein oder 2 davon nur mit SATA?
M.2 ist nur der Stecker. Entscheidend ist, ob die als NVMe (PCIe) laufen oder halt nicht (SATA) oder beides können und dann automatisch SATA nehmen. Wobei wenn SATA, dann werden häufig 2 konventionelle SATA-Ports deaktiviert, weil diverse SATA-Ports idR auch an PCIe x1 hängen, also auch eine PCIe-Lane belegen.
hier noch die M.2 Möglichkeiten:
1668373752922.png



ich denke wir reden noch vom X570 Aorus Master
Beitrag automatisch zusammengeführt:

bei dem MSI sieht es so aus:
1668374350437.png


also 1x PCIe X16 vom X570 und 1x X16/2x X8 von der CPU, wenn ich das richtig verstehe
 
Zuletzt bearbeitet:
Anhang anzeigen 816231

also 1x PCIe X16 vom X570 und 1x X16/2x X8 von der CPU, wenn ich das richtig verstehe
Also auch nur 8x/8x von der CPU. Und der PCIe vom Chipsatz gibt auch nur x16, wenn M2_3 und M2_4 und SATA5-8 nicht benutzt wird.
Mit 3x NVMe in den M.2 Steckplätzen wird das also wohl auch nichts.

Hatte mich schon gewundert, wo die die ganzen PCIe-Lanes herzaubern wollen. :d

Ausm Kopf hat die CPU (Ryzen 3000/5000) 20 (von denen nur 16 genutzt werden können, weil x4 die Verbindung zum Chipsatz sind) Lanes und der Chipsatz 10. Mehr als 30 in Summe (bzw. eigentlich nur 24) geht also nicht. Und alles was am Chipsatz hängt, muss durch den x4 "Flaschenhals" der eben zwischen CPU und Chipsatz ist.
Was dann auch schon wieder komisch ist, weil damit der Chipsatz einen x16-Port gar nicht können kann.

Heisst also, mit x16 hängt die GPU direkt an der GPU, mit 2x GPU hängen beide GPUs mit jeweils x8 an der CPU.
Und der Rest am Chipsatz, wobei man bedenken muss, dass 1x M.2 NVMe auch schon 4 Lanes belegt. Sind also bei 2x NVMe Slots nur noch 2 Lanes frei. An denen hängt dann meisten noch SATA und USB mit jeweils 1x. Bei 8 SATA-Ports müssen deswegen teils schon SATA-Ports deaktiviert werden um überhaupt noch die 4 Lanes für die zweite NVMe frei zu haben.

Es gibt aber in der Tat PCIe-Lane-"Switches". Damit kann man mehr Lanes machen, aber der Uplink ist halt trotzdem schmaler, sprich, damit kann mehr anschließen, aber sie können nicht alle gleichzeitig die maximale Bandbreite im Uplink abrufen, untereinander aber druchaus. Genau wie bei einem Netzwerkswitch.

Wenn du wirklich mehr Lanes willst/brauchst, musst du nen Epyc kaufen, da hat iirc alleine die CPU 64 oder sogar mehr. :d

Dazu kommt aber noch, das PCIe4 die doppelte Bandbreite von PCIe3 hat und bis heute gibts nur wenig, das durch PCIe3 überhaupt limitiert wurde. Also PCIe4x8 hat immernoch die gleiche Bandbreite wie PCIe3x16. Ich würde mir da also nicht soviele Gedanken machen. Mit einer PCIe4 Karte wirst du nix merken, selbst wenn die "nur" mit x8 läuft.
 
Zuletzt bearbeitet:
also an Statistiken fehlt es schonmal nicht :p:
Webaufnahme_14-11-2022_8430_stats.foldingathome.org - markiert.jpeg
 
Wow, mit den bisherigen November-Points sind wir aber schon in einem sehr illustren Umfeld gelandet ... Position 33:d

Nachdem ich zuletzt ne knappe Woche keine Probleme mehr mit der Karmakiste hatte, wollte ich sie mal wieder ne Nacht durchfalten lassen. Dreimal darfste raten, was mich heute früh erwartet hat. Schwarzer Monitor und die Noctuas auf den zwei Mo-Ra drehten auf Vollgas. Also offensichtlich fährt gar nicht die ganze Kiste runter, sondern es steigt nur kurzzeitig was aus. Hab nur noch keinen Plan, wie ich das thematisch nun einkreisen könnte :confused:
 
Ich glaube du brauchst langsam einfach jemanden, der sich mit IT auskennt @Ickewars :geek:
 
Ich hatte mal sowas ähnliches mit einem Straight Power 11 850W und dem 3090 OC.
Die berühmte Lastspitzen führten bei dem Netzteil dazu, dass es nicht aus ging sondern in so nem halben Zustand weiterlief.

Aber Nacht dürfte bis auf Virusscanner ggf. nichts groß mehr laufen wie unter Tag.

Ggf. mal eine GPU abschalten und mal laufen lassen?
Aber ja solche Probleme sind immer schwierig.

:(
 
@weizenleiche
Oller Terrorist :hwluxx:
Aber ganz im Ernst: dieses professionelle IT-Schwurbelwissen wird bei so Themen völlig überschätzt. Da raten doch naturgemäß alle nur fröhlich in der Gegend rum, bzw. konnte mir auch hier niemand wirklich bei den bisherigen Problemchen der letzten 2 Jahre helfen. Hab letztlich immer alles selbst geklärt ... selbst ist der Baschtelwaschtel :d

@lmarkusl
Hab da zwar nen 1200 Watt Corsair drin (für 1x 3080TI & 2x 3070 mit max. UV) - das lief aber nun ja schon erfreulich lange so durch. Hatte nur einmal bisher Problemchen, nachdem ich an den Energieeinstellungen rumgespielt hatte, weil ich bei der CPU ein paar Watt sparen wollte. Aber das könnte natürlich dann schon auch in die Richtung weisen.

Ja, eine 3070 abhängen wäre nen Versuch wert. Wobei es zuletzt ja auch wieder ne Woche problemlos durch lief und dann die Frage ist, wann überhaupt was passieren würde.
Naja, solange es so wie bisher läuft, ist ja erst mal alles "erträglich" - spätestens mit ner 4090 will ich da sowieso die zwei 3070er raus und ne 3080 TI dazu stecken, damit der PSU nicht langweilig wird :d

Ich glaub, ich probiere es jetzt erst mal statt wie bisher mit UV-Kurven so wie Du: PL möglichst weit runter & dazu etwas OC. Eventuell ändert das ja schon was?

Nachtrag: nachdem mich @weizenleiche gerade in Richtung Windoof Fehleranzeige gestupst hatte, ist dort in den letzten 24 Stunden tatsächlich mal wieder als "kritischer Fehler" nur "Kernel Power 41" aufgetaucht. Meist ein Stromversorgungsthema - hatte ich schon bei meinen Problemchen mit den optimierten Energieeinstellungen Anfang Sommer auch drin.
Hab nun mal in den Energieeinstellungen von AMD Balanced auf AMD High Power umgestellt und alles was damit zusammen hängen könnte auf "nie" gestellt. Vielleicht hilft es ja schon ...
 
Zuletzt bearbeitet:
Hab da zwar nen 1200 Watt Corsair drin (für 1x 3080TI & 2x 3070 mit max. UV) - das lief aber nun ja schon erfreulich lange so durch.
Netzteile altern. Gerade wenn viel Leistung durchgeht und sie lange Zeit laufen (und auch je nach Kühlung).
Das das Netzteil ja schon x Jahre funktioniert hat und jetzt auf einmal nichtmehr, muss also nix heissen, sondern kann sogar der Grund sein.
 
Nach nun etwa 18 Monaten Gesamt-Betrieb (bei 12-18h täglich & zweimal 3-4-monatiger Sommerpause mit nur max. 4-6h oder gar nicht) bin ich zumindest noch optimistisch, dass das noch keine Alterserscheinungen sein sollten.
Der interne Fan der PSU läuft immer nur gemäßigt mit, da es nie wärmer als 48 Grad (laut den PSU-Sensoren) wird. Die zweite angezeigte Temp des Corsair liegt immer unter 35 Grad. Weiß allerdings nicht, welcher wo genau misst. Die Werte kommen über die USB-Schnittstelle ins HwInfo ...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh