Quel ai utilisé pour HA

Boujour,

Je suis un utilisateur de ollama je voudrais savoir les meilleurs IA pour Home Assistant et les suggestions de titres

quelle est la meilleure AI ?

Comment utiliser une ai sans de voir la charger au premier msg?

Bonjour,
un bonjour en début de sujet , ne fais pas de mal. Surtout que c’est déjà écris quand vous créez un nouveau sujet d’entraide. Merci d’y faire attention.

3 « J'aime »

Bonjour,

Bon début de réponse de @WarC0zes .
Si je peux compléter, voici ce que dit ChatGPT:
Très bonne journée à tous.

4 « J'aime »

La meilleure IA c’est celle que tu as l’habitude d’utiliser, je dirais. Elles sont au fur et à mesure de leurs utilisations adaptées à répondre selon ce que tu veux. Si ça peut-être problématique sur de nombreux points (c’est cool d’entendre ce que tu veux qu’on te dise sans jamais te contredire, ce n’est pas super bon pour l’ouverture d’esprit), c’est top pour l’apprentissage de ton environnement perso.

Pour de la domotique, où, finalement, le but c’est d’avoir la réponse qui répond à ton contexte personnalisé, l’IA que tu apprécieras le plus c’est celle qui comprendra ton milieu, donc celle du quotidien. J’utilise Gemini au quotidien. J’ai essayé de branché Chat GPT aussi, mais le ton et la tournure des réponses de Gemini me correspondait plus de par l’apprentissage fait auparavant.

1 « J'aime »

Bonjour,

je voulais dire la plus efficace pour les suggestion

Les suggestions par rapport a quel sujet ?

Par expérience, l’une des choses la plus importante (quelque soit l’AI)
C’est ton prompt
Plus ton Prompt sera bien fait et bien structuré, meilleur seront tes chances d’avoir une réponse qui t’iras bien.
Si tu demande a une AI comment cuire un œuf, quelque soit ton Prompte, tu aura une bonne réponse même sur une AI de bas de gamme.
Par compte, plus ta question a d’éléments déterminant, plus ton Prompt doit avoir une structure parfaite, sans quoi tu va dans le mur, même avec les TOP AI du marché.

2 « J'aime »

Bonjour

Je parlais des suggestions des automatisation, mais je ne vois pas où je peux mettre le prompt pour ça ?

Tu veux que HA te donne le yaml pour les automatisations ?
Si oui c’est a prendre avec des pincettes. Ca peut te donner un squelette, une base mais ça mérite des adaptation et des tests a chaque fois.

en phase avec Idaho947
L’AI peut t’aider a faire du YAML de base
Ne jamais oublier
l’AI ne reste qu’un assistant, cela ne doit jamais rester ta seule source.
Mais pour avoir testé
Si tu donne bien ton environnement, ton besoin tes contraintes le nom de tes entités et leurs fonctions Les plus connu de CHAT génératif te donnerons un code exploitable mais dans beaucoup de cas a adapter
Mais ces CHAT génératif savent te donner du code propre pour des automatisations simple ou medium.

Non !

Je veux juste que HA suggère les titres


J’ai déjà mis mon IA ollama

Il se passe quoi si tu clique sur le bouton (messages, actions… ) ? Tu vois rien dans les logs HA ?

Je veux savoir quel est la meilleure pour ça et aussi comment fait pour que ollama ai toujours le model « précharger ».

Pour la meilleure sur ce genre de chose faudrait un comparatif. Je l’ai fait avec gemini et chat gpt et il s’est jamais planté. Sur des choses simple comme ça je pense qu’ils se valent tous plus ou moins.

Pour le model pré charge je vois pas de quoi tu parles mais c’est peut-être spécifique a ollama.

Salut.

J’utilise Ollama sur Ubuntu donc mes réponses seront basées sur ce système.

Pour ce qui est du LLM tu peux utiliser mistral ou gemma3 (choisi en fonction de la vram de ton GPU). Evite les modèles qui utilisent le mode “think” comme qwen3 par exemple. Ils mettent beaucoup trop de temps à répondre. Perso j’utilise gemma3:12b.

Voici mon fichier “ollama.service” avec les options pour charger le LLM de ton choix au boot et le garder en mémoire:

[Unit]
Description=Ollama Service
After=network-online.target
Wants=network-online.target

[Service]
Type=simple
User=ollama
Group=ollama

Environment=« OLLAMA_MODELS=/var/lib/ollama » --> pas obligatoire. C'est pour indiquer où télécharger les modèles
Environment=« OLLAMA_HOST=0.0.0.0:11434 »
Environment=« OLLAMA_KEEP_ALIVE=-1 » --> pour garder le modèle en mémoire en permanence
ExecStart=/usr/local/bin/ollama serve
ExecStartPost=/bin/sleep 20
ExecStartPost=/usr/bin/curl -s -X POST ``http://localhost:11434/api/generate`` -d ‹ {« model »:« gemma3:12b »,« prompt »:« hello »,« stream »:false} › --> pour charger le modèle au boot
Restart=always
RestartSec=5
TimeoutStartSec=300
LimitNOFILE=65535

[Install]
WantedBy=multi-user.target

Si tu veux plus de détails ou de l’aide à la configuration demande à chatgpt ou Claude ils sauront te conseiller.

@+