Bonjour,
Je viens d’installer Ollama en docker sur mon nas Qnap TS-653D, j’ai installé le modèle « llama3.2:1b »
J’ai fait un test directement dans la console du docker avec juste un « Bonjour » (il a mis 5 secondes à commencer à répondre et 5 supplémentaires pour écrire ça réponse)
J’ai ajouté l’intégration sur HA
et paramétré pour l’assistant
Sauf que si je test avec Assist il ne répond pas, par exemple ci dessous si je demande « tu es qui » normalement il devrait me donner le nom du modèle que j’utilise







