Bonjour la communauté,
J’ai une camera Ezviz que je voudrais caster sur le lecteur de ma Freebox, quand un mouvement est détecté. Sur Ezviz, il y a une entité suivi de mouvement : « binary_sensor .c6n_mouvement » et une entité camera: « camera.c6n » Le lecteur Freebox a l’entité: « media_player.freebox_player_mini_v2 ».
J’ai donc fait le script yaml suivant:
automation:
- alias: Stream Blink Camera on Chromecast
trigger:
- platform: state
entity_id: binary_sensor.c6n_f34174681_mouvement #camera_entree_mouvement Remplacez par le bon ID de votre détecteur
to: 'on'
sequence:
- service: media_player.turn_on
target:
entity_id: media_player.freebox_player_mini_v2_2
- service: camera.play_stream
data:
entity_id: camera.c6n_f34174681 # Assurez-vous que l'ID de l'entité est correct
media_player: media_player.freebox_player_mini_v2_2
mais il ne se passe rien. Dans le journal des évènements, j’ai bien « mouvement détecté » par la caméra, mais rien concernant le lecteur Freebox.
Dans les logs, j’ai ceci: 2023-10-17 18:12:42.774 ERROR (Thread-4) [pychromecast.socket_client] [Freebox Player Mini v2(192.168.1.14):8009] Error reading from socket.
« Error reading from socket. » : Cela indique que l’erreur s’est produite lors de la lecture à partir de la socket, ce qui peut être dû à divers problèmes de communication ou de connectivité entre l’appareil qui exécute le code et l’appareil Chromecast.
Alors est ce que ton player est toujours allumé ?
Ensuite il me semble qui faut lance la fonction Chromecast sur ta box pour pourvoir envoyé l’image.
Par exemple si tu regarde la 1 , ta fonction Chromecast est pas actif donc ne peux fonctionné comme tu souhaite le faire.
J’ai mes Alexa qui me permet de faire du Chromecast , mais si je lance pas ce même Chromecast , j’ai beau envoyé une photo , film etc… rien de s’affiche.
@Krull56 Merci pour les info,
Après quelques rectifications au niveau des paramètres de la Freebox, Home Assistant active le lecteur Freebox et lui envoie l’image de la camera…avec un délai de 30 secondes et du larsen.
il y a donc des erreurs dans mon code yaml (qui a été généré par ChatGPT), mais également ce délai de 30 secondes qui m’empêche toute possibilité de dialoguer en temps réel avec l’intégration future d’une IA, c’est le but de la manip, dans Home Assistant.
Je vais donc en premier lieu me pencher sur le débogage du code, si quelqu’un a déjà fait ce type de script, je suis preneur, mais pour les 30 secondes de délai, je suppose que c’est du au fait qu’Ezviz est dépendante du cloud, et que là, il n’y a pas d’autres solutions, que d’acheter une autre caméra qui fonctionne en local ?
Il me semble que tu débute sur home assistant (on a tous démarré un jour) , alors pourquoi faire du code yaml plutôt que d’utiliser directement l’interface utilisateur.
L’avantage, c’est que ça te construit correctement ton code et que tu peux après le visualiser en yaml pour le comprendre.
Il me semble que les cameras EZVIZ proposent un mode avancé dans leurs paramètres , permettant d’activer le RTSP. Ainsi, tu aura ton flux video en direct.
Tu peux tester la réception de ce flux dans VLC puis exploiter le rstp dans HA ( avec le hacs webrtc ou frigate par exemple)
Une fois que tu auras ton flux en direct, depuis frigate ou webrtc, tu peux caster vers une tv ou une box android.
Oui, je débute sur HA et je pensais qu’une automatisation mettant en relation une caméra qui doit allumer, puis diffuser un flux vidéo en streaming sur un chromecast à partir du détecteur de la caméra ne pouvait pas se faire autrement qu’en passant par un script yaml, mais si tu me dis que cela peur se faire plus simplement à partir d’automation, je vais essayer.
Je voudrais utiliser cette caméra et son micro incorporé comme interface, pour avoir une conversation en temps réel avec une IA, en y ajoutant à celle-ci un module speech to text à l’entrée de l’IA et un module (le même si possible) en text to speech à la sortie de l’IA.
Je le fais en NodeRed et je fais du TTS aussi juste avant d’envoyer sur la chromecast le flux de la camera et c’est tout simple, un play steam de la CAM sur la CAST voulue
@LeLapinFou, j’ai installé Node-Red, qui me paraît très intéressant pour la suite de mes aventures avec HA, puis j’ai redémarré HA, mais je n’arrive pas à ouvrir Node-Red, avec le message: « Le module complémentaire n’est pas en cours d’exécution. Voulez-vous le démarrer maintenant ? » je clique sur oui, mais, après un temps de recherche, le message précédent revient inlassablement. Y a t-il un délai entre l’installation de Node-Red et son utilisation?
J’ai plusieurs erreurs dans le journal de Node-Red, dont une en particulier qui concerne un certificat SSL qui est requis. Et une autre qui dit ceci:"The credential secret is an encryption token, much like
[18:09:38] FATAL: a password, that is used by Node-RED for encrypting
[18:09:38] FATAL: credentials you put into Node-RED.
@LeLapinFou Je l’ai appelé par le service, ça marche, je suppose que n’ai donc plus qu’à copier le yaml généré. @Krull56 , je vais maintenant essayer d’activer le RTSP pour faire du streaming en temps réel
Merci à vous deux.
@LeLapinFou
Je pense que tu l’as perdu en lui parlant de node red
Autant qu’il débute simplement avec les auto/scripts et qu’il apprenne à utiliser les outils de dev pour tester les services.
Pas besoin de node red pour son besoin actuel.
peut etre… perso, je suis passé sous NodeRed directement, car les automatisations de HA, je n’ai jamais rien compris et je n’en fais toujours pas…et je trouvais NodeRed largement plus simple dans la conception de flow. un node, un trait, un autre node… c’est assez simple sur le fond.
après, je pense qu’il faut débuter simplement et se faire son avis d’un coté comme de l’autre.
Au debut de HA , c’est sur que c’était un peu limité, mais à ce jour avec toutes les évolutions, l’IU est très simple et suffisante pour la plupart des besoins.
Après, comme tu le dis, autant démarrer avec l’outil qu’on maîtrise le plus
Effectivement, je suis un peu perdu avec Node-Red, j’ai regardé le Github, pour essayer de comprendre les erreurs d’authentification du credential secret et l’accès SSL et comment y remédier, mais je pense que je verrai cela plus tard.
@LeLapinFou, je n’ai donc pas utilisé le Node-Red, mais l’appel au service, c’est ce qui m’a donné un code yaml similaire à celui que tu m’as donné comme exemple et ça marche (quand j’appuie sur « Appeler le service »), mais il faudra à l’avenir que j’ajoute un déclencheur du même type que « OK Google » pour amorcer une conversation avec l’IA sans avoir à appuyer sur un bouton.
Concernant le délai de 25 sec, j’ai vérifié dans les paramètres d’Ezviz si le RTSP était actif, et il l’était. Y a t-il quelque chose d’autre à faire dans HA pour rendre le RTSP actif, je n’ai pas compris ce qu’était webrtc et frigate .