tcg
Punkte für Reaktionen
44

Letzte Aktivität Beiträge Informationen

    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      llama3.2 ist etwas komisch. das 3b modell ist wesentlich schneller als 1b. leider ist 70b nicht schneller als 3b ;-)
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      etwas besser vergleichbar wird es wenn du die "temperatur" auf 0 setzt und am besten den "seed" auch. Dann sollte immer das gleiche raus...
      • 1738747421251.png
      • 1738747480469.png
      • 1738747580654.png
      • 1738747871751.png
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      benchen ist mit ollama recht einfach. ollama run <model> "<prompt>" --verbose verbose zeigt am ende eine zusammenfassung 1738663230 Da...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Du kannst mal "https://ollama.com/library/llama3.2-vision" statt llava versuchen, das erkennt/beschreibt Bilder etwas besser...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      ollama
      • 1738327948059.png
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Haha, 4090-performance ist weit weg. 1*4090 @ desktop: > ollama run llama3.3:70b "why is the sky blue ?" --verbose -> 1.67...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      ein paar esp32 hab ich hier noch liegen... hmmm... schon mal ganz grob, aber noch nicht im detail. kann der m4 seinen ganzen ram als...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Ist reine Spielerei (bisher). Ich will einfach mal mehr VRAM haben um auch größere Modelle laufen zu lassen. Scheint aber nicht so zu...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Ich muss mir langsam mal HA anschauen !
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Hab ich mit auch schon überlegt, ne eigene Alexa... Eigentlich ganz einfach ;-) Ein Mikrofon zum streamen (udp ?) an Whisper.cpp...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Was genau hast du vor ?!
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Ja klar, die M10 wären jetzt erstmal zum testen wie sich das verhält, dazu hab ich ja auch fast alles hier jetzt. Juhu Weihnachtsurlaub...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Ich habe gerade gewaltige Probleme mit 24GB VRAM, nichtmal llama3.1:8b läuft noch vernünftig mit großem Context... Je mehr ich gerade...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Hupsa, mea culpa, Ich blöd nicht AI blöd. Das war mein alter Thread ! Dieser wäre dann: Ich werde die wichtigsten Punkte aus dem...
    • tcg
      tcg antwortete auf das Thema Neuer AI-Server.
      Wie oben geschrieben, ich hätte gerne: llama3.3:70b-instruct-q6_K mit 64k context -> 89 GB. Das passt in 6*16 rein. Inclusive einem...
  • Laden...
  • Laden...
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh