Suchergebnisse

  1. tcg

    Neuer AI-Server

    Mal kurz ein ganz anderes Thema: Wollen wir mal einen KI-Laberthread aufmachen ? Finden neue evtl. einfacher. Ich hab aber auch kein Problem das hier laufen zu lassen...
  2. tcg

    Neuer AI-Server

    Gemma3:27b hat wohl ein Leak... Wie auch immer das bei LLMs geht...
  3. tcg

    Neuer AI-Server

    hab den context erhöht, ja, aber das braucht vram, nicht gpu power... alles soweit original...
  4. tcg

    Neuer AI-Server

    da ist die 4090 mit ~37 tps bei mir nicht so viel schneller ;-)
  5. tcg

    Neuer AI-Server

    Wie schnell rennt das denn bei dir ? Das ist bei mir brutal langsam ! Auch das 1b ist seeehr langsam. geht hier nur das 27b... Seltsamerweise geht das recht gut ?!?
  6. tcg

    [Sammelthread] Gigabyte MC12-LE0 (AM4, B550, servertauglich: IPMI, Dual Lan, ECC)

    seh ich das richtig, kann man die stacken ??? also z.b. 2 davon für 4x4x4x4 ?
  7. tcg

    Neuer AI-Server

    mit 24GB kommst du schonmal recht weit ...
  8. tcg

    Neuer AI-Server

    schöne karte, wahrscheinlich auch angenehm schnell. wenn man es schaffen würde auch die performance aufzuaddieren... dann wären 3 * 4060/16gb genau so teuer aber deutlich besser. wenn halt ... es gibt wohl lösungen und möglichkeiten, aber das ist mir zu viel gebastel gerade. obwohl es sich bei...
  9. tcg

    Neuer AI-Server

    mit einer 5070ti/16gb kommst du schon recht weit. damit gehen übliche 14b modelle schon mal. allerdings: wenn du context willst brauchst du wesentlich mehr ram hab ich gelernt :-( 2*16gb sollte, stand momentan, recht gut sein... mir gehen die 24gb aus wenn ich qwq:32b mit >15000 context laufen...
  10. tcg

    Neuer AI-Server

    also chatgpt lokal benutzen und einfach mal spielen ;-) wie ich auch... ja, der gedanke passt soweit. ich hatte mir mal die 4060/16gb rausgesucht, und dann gleich ein paar davon. hab den plan nach vortest mit 10 gpus jetzt erstmal wieder verworfen. ich kann dir nen günstigen server anbieten...
  11. tcg

    Neuer AI-Server

    Im Prinzip ja. Du kannst GPUs "stacken" (ich hab hier 10 im Server) und dann größere Modelle laufen lassen. Was genau hast du vor ? edit: so ein llama3.2:3b läuft eigentlich schon überall lokal... wie groß solls denn sein ? wobei ich llama erstmal durch qwq ersetzt habe, das ist deutlich...
  12. tcg

    Neuer AI-Server

    hab mal gefragt, aber meine frau hat gesagt 50k sind gerade nicht drin :-(
  13. tcg

    Neuer AI-Server

    ich tippe eher auf 30-50k
  14. tcg

    Neuer AI-Server

    Ja, hab schon mehrere Versuche durch... Bis auf ollama selbst compilieren. Ich hoffe ja noch dass es irgendwann läuft.
  15. tcg

    Neuer AI-Server

    Die sind gar nicht mal so langsam... "Wormhole™ n300 performs at up to 466TFLOPS (FP8)." (Zum Vergleich: 4090 = 661 FP8-TFLOPS) Die Teile sind (fast) bezahlbar: n300d = <$1500 ;-) Und die kann man wohl stacken ;-)
  16. tcg

    Neuer AI-Server

    Hmm, mein Laptop hat so eine "NPU" eingebaut, seh ich im Taskmanager. Kann man das Teil evtl. für LLMs benutzen ? Die GPU is eine 780m, die wäre ja super, wird aber von ollama nicht unterstützt ("wegen rocm" oder so)...
  17. tcg

    Neuer AI-Server

    ne GPU mit so-dimm slots, will ich auch ;-)
  18. tcg

    Neuer AI-Server

    ollama run qwq ;-) 1741778578 ah, oh, das meinst du... nein: Kann ich LLMs auf dem HAILO-8 ausführen, bpsw. LLAMA? LLMs = Large Language Modelle (so etwas wie ChatGPT / GPT4-o, bzw. LLAMA, Falcon, usw.) Nein, dafür ist der HAILO-8 nicht ausgelegt. Grafikkarten auf denen diese LLMs...
  19. tcg

    Neuer AI-Server

    oder einfach kurz warten, schon gibts ne neue LLM die viel besser ist und weniger RAM braucht... ich hab mal qwq (32b) probiert, ist schon imposant !
  20. tcg

    Neuer AI-Server

    Da bin ich ja echt mal gespannt. Vor allem wie sich das Teil gegen Nvidia Digits schlägt...
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh