Hallo Zusammen,
ja, ich habe gesehen, dass es einen ähnlichen Thread hier schon gibt. Bei mir ist die Anforderung aber eine komplett andere. Deshalb hier der neue Thread. Worum geht es mir:
Ich benötige für ein Projekt einen neuen Rechner, speziell für LLM oder allgemein GAI. Das Ziel ist es, möglichst günstig an möglichst viel Rechenpower für AI Anwendungen zu gelangen, allerdings dass alles lokal ist. Also kein Cloud bzw. dedicated Server.
Ich werde wohl um die 96GB NVRAM benötigen. Also ist die Idee, dass ich mit 4 gebrauchten 3090/3090Ti mit je 24GB NVRAM starte und diese Karten dann mit nvlink verbinde.
Die Frage ist nun, was man als Plattform für die Karten nimmt. Brauche ich für AI Anwendungen alle PCI-Lanes? Also 16x4 => 64 + ein paar für den Rest?
Das würde bedeuten, ich bräuchte einen Threadripper bzw. ein paar wenige Xeon CPUs, die die PCI-Lanes zur Verfügung stellen. Richtig?
Weitere Frage wäre zum Thema RAM. Macht es Sinn auf DDR5 zu gehen für (G)AI Anwendungen oder kann man bei DDR4 bleiben um Kosten zu sparen? Wenn ich es richtig verstanden habe, werde ich wohl um die 128-256GB an RAM in der Kiste benötigen. Und da macht der Preisunterschied sich schon bemerktbar.
ja, ich habe gesehen, dass es einen ähnlichen Thread hier schon gibt. Bei mir ist die Anforderung aber eine komplett andere. Deshalb hier der neue Thread. Worum geht es mir:
Ich benötige für ein Projekt einen neuen Rechner, speziell für LLM oder allgemein GAI. Das Ziel ist es, möglichst günstig an möglichst viel Rechenpower für AI Anwendungen zu gelangen, allerdings dass alles lokal ist. Also kein Cloud bzw. dedicated Server.
Ich werde wohl um die 96GB NVRAM benötigen. Also ist die Idee, dass ich mit 4 gebrauchten 3090/3090Ti mit je 24GB NVRAM starte und diese Karten dann mit nvlink verbinde.
Die Frage ist nun, was man als Plattform für die Karten nimmt. Brauche ich für AI Anwendungen alle PCI-Lanes? Also 16x4 => 64 + ein paar für den Rest?
Das würde bedeuten, ich bräuchte einen Threadripper bzw. ein paar wenige Xeon CPUs, die die PCI-Lanes zur Verfügung stellen. Richtig?
Weitere Frage wäre zum Thema RAM. Macht es Sinn auf DDR5 zu gehen für (G)AI Anwendungen oder kann man bei DDR4 bleiben um Kosten zu sparen? Wenn ich es richtig verstanden habe, werde ich wohl um die 128-256GB an RAM in der Kiste benötigen. Und da macht der Preisunterschied sich schon bemerktbar.