Vosk non disponible dans les intégration

Bonjour à tous,
Je viens de me lancer dans l’utilisation de la voix sur HA , aprés des résultats assez décevant en utilisant WHISPER comme STT, je tente l’utilisation de VOSK qui fait l’objet de bons résultats.
Cependant, aprés installation de l’add-on, config, démarrage… je ne trouve pas VOSK comme intégation et ne peux donc l’utiliser.

Toute aide bienvenue.

Logs VOSK

s6-rc: info: service s6rc-oneshot-runner: starting
s6-rc: info: service s6rc-oneshot-runner successfully started
s6-rc: info: service fix-attrs: starting
s6-rc: info: service fix-attrs successfully started
s6-rc: info: service legacy-cont-init: starting
s6-rc: info: service legacy-cont-init successfully started
s6-rc: info: service vosk: starting
s6-rc: info: service vosk successfully started
s6-rc: info: service discovery: starting
LOG (VoskAPI:ReadDataFiles():model.cc:213) Decoding params beam=13 max-active=7000 lattice-beam=4
LOG (VoskAPI:ReadDataFiles():model.cc:216) Silence phones 1:2:3:4:5:6:7:8:9:10
LOG (VoskAPI:RemoveOrphanNodes():nnet-nnet.cc:948) Removed 0 orphan nodes.
LOG (VoskAPI:RemoveOrphanComponents():nnet-nnet.cc:847) Removing 0 orphan components.
LOG (VoskAPI:ReadDataFiles():model.cc:248) Loading i-vector extractor from /data/vosk-model-small-fr-0.22/ivector/final.ie
LOG (VoskAPI:ComputeDerivedVars():ivector-extractor.cc:183) Computing derived variables for iVector extractor
LOG (VoskAPI:ComputeDerivedVars():ivector-extractor.cc:204) Done.
LOG (VoskAPI:ReadDataFiles():model.cc:282) Loading HCL and G from /data/vosk-model-small-fr-0.22/graph/HCLr.fst /data/vosk-model-small-fr-0.22/graph/Gr.fst
LOG (VoskAPI:ReadDataFiles():model.cc:308) Loading winfo /data/vosk-model-small-fr-0.22/graph/phones/word_boundary.int
INFO:root:Ready
[18:58:07] INFO: Successfully sent discovery information to Home Assistant.
s6-rc: info: service discovery successfully started
s6-rc: info: service legacy-services: starting
s6-rc: info: service legacy-services successfully started

Intégration


Config Wyoming

Ma configuration


System Information

version core-2024.2.1
installation_type Home Assistant OS
dev false
hassio true
docker true
user root
virtualenv false
python_version 3.12.1
os_name Linux
os_version 6.1.74-haos
arch x86_64
timezone Europe/Paris
config_dir /config
Home Assistant Community Store
GitHub API ok
GitHub Content ok
GitHub Web ok
GitHub API Calls Remaining 4848
Installed Version 1.34.0
Stage running
Available Repositories 1458
Downloaded Repositories 13
Home Assistant Cloud
logged_in false
can_reach_cert_server ok
can_reach_cloud_auth ok
can_reach_cloud ok
Home Assistant Supervisor
host_os Home Assistant OS 11.5
update_channel stable
supervisor_version supervisor-2024.01.1
agent_version 1.6.0
docker_version 24.0.7
disk_total 30.8 GB
disk_used 15.2 GB
healthy true
supported true
board ova
supervisor_api ok
version_api ok
installed_addons Advanced SSH & Web Terminal (17.1.0), Studio Code Server (5.15.0), ESPHome (2023.12.9), Z-Wave JS (0.4.3), Grafana (9.1.3), Zigbee2MQTT (1.35.2-1), Mosquitto broker (6.4.0), Samba share (12.3.0), Whisper (1.0.2), Piper (1.4.0), openWakeWord (1.8.2), vosk (1.5.1), porcupine1 (1.1.0)
Dashboards
dashboards 4
resources 5
views 19
mode storage
Recorder
oldest_recorder_run 10 février 2024 à 17:11
current_recorder_run 17 février 2024 à 18:56
estimated_db_size 289.49 MiB
database_engine sqlite
database_version 3.44.2
` ___

Hello

Il faut déjà un peu de temps pour que Vosk télécharge le modèle.
Après 30 minutes, redémarre HA si l’intégration n’est pas découverte pour Wyoming.

@+

1 « J'aime »

Salut,
Effectivement aprés un peu d’attente et un redémarrage, tout est OK.
Ce modéle est vraiment, vraiment, vraiment beaucoup plus rapide est performant que Whisper :slight_smile:
Merci

2 « J'aime »

Et tu peux tester différents modèles : VOSK Models

À dé-zipper dans share/vosk/models/fr

Même le gros modèle FR tourne bien avec les 6Go aloués à ma VM

C’est bien pour ça qu’après en avoir été le premier Frenchy user/testeur dès que Mike a mis à dispo ce nouvel Addon je l’ai recommandé dans presque tous les sujets abordant Assist dans ce Forum.

Amuse toi bien :grin:

PS: et ne t’embête pas avec des modèles plus larges… histoire de garder de la ressource pour un futur LLM bien intégré et local. :wink:

2 « J'aime »

jai copié les fichiers dans share / vosk/ models fr et depuis j’ai les logs suivants et echec de la configuration dans wyoming. Un truc à faire en plus?



Hello

As tu déjà essayé sans installer de fichier vosk personnalisé ( pas de dossier vosk dans share) ?
Si tu indiques fr dans la conf de vosk, il chargera automatiquement un modèle fr de base.

Le dossier share/vosk permet d’utiliser des modèles plus larges

je viens de tester: j’ai arrété vosk, supprimé le dossier complet dans share puis j’ai démarré vosk, il démarre rapidement et est fonctionnel. J’ai régardé il est bien configuré en fr dans configuration.
Le modele que j’avais mis dans share est vosk-model-fr-0.6-linto-2.2.0, peut être trop gros?
Je suis sur une HA yellow 2GB RAM, 32GB

2 GB de RAM c’est insuffisant pour des modèles larges

1 « J'aime »

ah ok, c’est bête ça, je pensais que ça passait. Tant que j’y suis autre question, sur microphone assist, dans configuration mon micro est bien sélectionné mais ça ne pas l’air de fonctionner, il y a il un moyen de le tester?

Tu as une fonction debug dans ton pipeline.
Ça te permet de voir si le wakeword est reconnu et comment te STT retranscrit la commande entendue

Salut,
ta pas fais attention a ce message sur la page de download

Citation
Le petit modèle mesure généralement environ 50 Mo et nécessite environ 300 Mo de mémoire lors de l’exécution. Les grands modèles sont destinés à la transcription de haute précision sur le serveur. Les gros modèles nécessitent jusqu’à 16 Go de mémoire car ils appliquent des algorithmes d’IA avancés. Idéalement, vous les exécutez sur des serveurs haut de gamme comme i7 ou le dernier AMD Ryzen. Sur AWS, vous pouvez jeter un œil aux machines c5a et aux machines similaires dans d’autres cloud.

2 « J'aime »

effectivement je ne l’ai même pas vu le message :smiley:

La fonction debug dans le pipeline ne calcule plus rien je ne sais pas pourquoi :S