Je voudrais faire mon propre assistant vocal local

Hello @titoumimi

Nécessitera un serveur Ollama

Ollama - Home Assistant (home-assistant.io)

@+

et mince :frowning: la doc n’était pas encore là au moment de mon message :expressionless:

1 « J'aime »

En même temps c’est plutôt logique.
Un LLM nécessite de la ressource ( GPU) pour traiter rapidement les inférences.

Après je me demande quel est vraiment l’intérêt pour de la domotique :wink: Ce qui compte c’est que ton système exécute les ordres donnés

Je rêve de rendre mon système moins débile…
Qu’il comprenne que éteint et éteins c’est la même chose.
Pour l’instant, la voix c’est un joli POC, mais pas du tout mettable en prod avec une femme pas. Geek et des enfants…

Faut utiliser éteindre , au moins pas de problème :wink:

Oui, ça je l’avais, mais c’est, pour moi, ce qui contribue à renforcer cet effet « jolie bêta, mais bon… »

Oui, mais faut laisser le temps que ca s’améliore. Ca débuter début 2023 le vocal.

1 « J'aime »

Là par contre, 100% d’accord !
Y’a un ou deux dépôts gît que je suit avec attention

Ou " Peux-tu éteindre…" Il apprécie aussi :wink:

1 « J'aime »

Pour les verbes d’action, j’ai essayé d’être le plus exhaustif possible. Le but étant qu’en parlant naturellement je tombe à peu près tout le temps juste.
Par exemple, pour éteindre la musique, ma commande ressemble à ça :

"[Est-ce que|Est ce que] [peux-tu|tu peux] [me|nous|m']([é|e]tein[dre][s|r]|arr[ê|e]te[s|r]| coupe[s|r]| stop[pe][s|r]) [le|la|les] (son|volume|musique|morceau)[s|x] [s'il te plaît|s'il-te-plaît]"

Pour rappel:

  • Entre crochet : optionel
  • Le pipe : OU
  • Entre parasynthèse ou sans rien : obligatoire

Pour exemple : arr[ê|e]te[s|r]
Le système comprendra : arrête, arrêtes, arrêter, arrete, arretes, arreter
Ce qui limite beaucoup plus les incompréhensions du système.
Par contre c’est très long à écrire, source d’erreur, etc…
Par contre une fois fait, ça dépote sévère !

2 « J'aime »

Je vais te répondre dans ce post plutôt @WarC0zes , ça sera plus simple :wink:

Si vous avez envie de jouer, j’ai trouvé ça qui permet d’intégrer son propre modèle directement depuis HA :

Soit via son intégration à lui directement, soit via oobabooga/text-generation-webui pour laquelle il propose également une intégration : home-llm/addon at develop · acon96/home-llm · GitHub

Malheureusement chez moi, quelle que soit la solution, dès que je lance le modèle ça plante l’intégration et la fait redémarrer sans plus d’infos dans les logs…

Mais ça a l’air prometteur :slight_smile:

Et à propos de promesse, il y a aussi les processeurs LPU qui détrône haut la main les GPU, bien que l’on s’éloigne un peu de la domotique. Sans compter qu’il faut une unité central.

Mais j’imagine qu’il y aura un développement pour le marché du DIY.
Je recommande cette vidéo pour ceux qui veulent découvrir la technologie. Il y a la page du concepteur : GROQ mais c’est en anglais.