Bonjour à tous et bonne année !
Ça fait un moment que je n’ai pas posté ici
, et je vous demande de m’en excuser, mais j’ai été fort occupé et ma santé était fragile (mais ca va mieux maintenant, merci ![]()
Je travaille en ce moment sur un projet perso autour de Home Assistant et d’une IA locale (Ollama), avec une approche un peu différente de l’assistant vocal classique.
L’idée n’est pas de faire parler l’IA, mais de l’utiliser comme moteur de décision :
- HA capte l’intention (event conversation, texte, plus tard micro)
- l’IA renvoie uniquement un JSON strict (intention + actions autorisées)
- Home Assistant reste seul maître de l’exécution
Pas de conversation, pas d’hallucination côté actions, beaucoup de garde-fous.
Avant d’écrire un article détaillé, je voulais savoir si ce type de retour d’expérience vous intéresserait :
- architecture
- intégration HA
- pièges rencontrés
- tests bout-en-bout sans micro
-pour plus tard, avec la prise de relais de quelqu’un ou son aide utiliser whisper pour parler a l’ia
Si oui, je partagerai volontiers un write-up plus complet ![]()