Ollama ne réponds pas sur HA

Bonjour,

Je viens d’installer Ollama en docker sur mon nas Qnap TS-653D, j’ai installé le modèle « llama3.2:1b »

J’ai fait un test directement dans la console du docker avec juste un « Bonjour » (il a mis 5 secondes à commencer à répondre et 5 supplémentaires pour écrire ça réponse)

J’ai ajouté l’intégration sur HA

et paramétré pour l’assistant

Sauf que si je test avec Assist il ne répond pas, par exemple ci dessous si je demande « tu es qui » normalement il devrait me donner le nom du modèle que j’utilise

Que raconte les logs de ton instance Home Assistant ? Au pire tu devrais avoir un timeout et sinon un autre message d’erreur.

Dans Paramètre > Journaux (je sais pas si c’est ces logs dont tu parles) je n’ai pas de message d’erreur lié à Assist ou Ollama.

J’ai un message d’erreur sur Assist si j’attends environ 5 minutes

{
"name": "HassTurnOn",
"parameters": {
"device_class": "array",
"items": [
"tv",
"speaker",
"receiver",
"identify",
"restart",
"update",
"awning",
"blind",
"certain",
"door",
"garage",
"gate",
"shade",
"shutter",
"window",
"water",
"gas",
"outlet",
"switch"
],
"type": "string"
}

{
"name": "HassTurnOff",
"parameters": {
"device_class": "array",
"items": [
"tv",
"speaker",
"receiver",
"identify",
"restart",
"update",
"awning",
"blind",
"certain",
"door",
"garage",
"gate",
"shade",
"shutter",
"window",
"water",
"gas",
"outlet",
"switch"
],
"type": "string"
}

{
"name": "HassCancelAllTimers",
"parameters": {
"area": "string"
},
"type": "array"
}

{
"name": "GetDateTime",
"parameters": {
}
,"type": "object"
}

Il faudrait voir ce que donne l’utilisation de l’api dans le container ollama, et dans le conainer HA via la commande :

curl http://localhost:11434/api/generate -d '{
  "model": "gemma3",
  "prompt": "Why is the sky blue?"
}'

en remplaçant localhost par l’ip où se trouve ollama.

Je suis pas sur de l’avoir testé au bon endroit j’ai essayé dans la console du docker c’est bien ce que je devais faire ?

Si oui voici le résultat :
image

Et si je lance d’abord mon modèle :

Mon Nas est équipé d’un Intel Celeron J4125 2700MHz (4 cœur) peut-être n’est-il de toute manière pas assez puissant ?

Tu as une réponse, donc pas de problème de ressources sinon il ne serait pas en mesure de te donner une réponse.

Sans doute un problème de réseau, il faut jouer la commande depuis la console HA.

Bref, il faut vérifier que tu puisses accéder à Ollama via l’api avant de chercher pourquoi cela ne fonctionne pas dans HA.

Je viens de tester dans « Outils de développement » > « Action »

Quand je clique sur Perform Action cela charge, mais il ne se passe rien.

Tester via cette outil ou dans le chat, c’est la même chose. Ca appelle les mêmes actions.

Il faut vérifier en dehors de HA si ton instance Ollama est disponible à distance (= en dehors de ton container).

Donc je dois tester en dehors de HA et sans passer par la console de mon conteneur, je vois pas comment je peux faire. Aurais-tu une idée ?

J’ai trouvé Onyx, mais faut que je regarde comment cela fonctionne.

J’ai installé WebUI en docker sur mon nas et j’arrive à communiquer avec Llama