Bonsoir à tous,
L’addon MED version 0.8.13-11 récemment installé sur mon Home Assistant semble fonctionner, sauf pour la création des sensors et la publication MQTT.
Si l’un de vous a une idée du problème.
Merci d’avance.
J’ai ce message d’erreur dans les logs :
2023-02-28 03:31:53.319 - INFO : [2XXXXXXXXXXXX] EXPORTATION DES DONNÉES DANS HOME ASSISTANT (VIA MQTT)
2023-02-28 03:31:53.319 - INFO : ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ ◦ ❖ ◦ ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Traceback (most recent call last):
File "/app/models/jobs.py", line 176, in job_import_data
HomeAssistant(self.usage_point_id).export()
File "/app/models/export_home_assistant.py", line 87, in export
self.myelectricaldata_usage_point_id("consumption")
File "/app/models/export_home_assistant.py", line 202, in myelectricaldata_usage_point_id
app.MQTT.publish_multiple(config, topic)
File "/app/models/mqtt.py", line 82, in publish_multiple
publish.multiple(payload, hostname=self.hostname, port=self.port, client_id=self.client_id, auth=auth)
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/publish.py", line 168, in multiple
client.loop_forever()
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 1779, in loop_forever
rc = self.loop(timeout, max_packets)
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 1181, in loop
rc = self.loop_read(max_packets)
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 1572, in loop_read
rc = self._packet_read()
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 2310, in _packet_read
rc = self._packet_handle()
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 2942, in _packet_handle
return self._handle_connack()
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 3029, in _handle_connack
self.on_connect(
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/publish.py", line 51, in _on_connect
_do_publish(client)
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/publish.py", line 38, in _do_publish
client.publish(**message)
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 1273, in publish
rc = self._send_publish(
File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 2506, in _send_publish
command = PUBLISH | ((dup & 0x1) << 3) | (qos << 1) | retain
TypeError: unsupported operand type(s) for |: 'int' and 'str'
2023-02-28 03:31:53.330 - ERROR : ═══════════════════════════════════════════════•°• :ERREUR: •°•════════════════════════════════════════════════
2023-02-28 03:31:53.330 - ERROR :
2023-02-28 03:31:53.330 - ERROR : Erreur lors de l'exportation des données dans Home Assistant
2023-02-28 03:31:53.330 - ERROR : unsupported operand type(s) for |: 'int' and 'str'
2023-02-28 03:31:53.330 - ERROR :
2023-02-28 03:31:53.330 - ERROR : ═══════════════════════════════════════════════════════════════════════════════════════════════════════════════
Mouarf, ils sont trop fort, enedis !
J’envoie un message via leur site pour demander mes données horaires et voici le message.
Même pas capable de mettre une messagerie en place !
Hello tout le monde j’ai lu que certains sont en train de mettre en place MED avec de la production électrique. Vous avez déjà un dashboard en tête ? qque chose que vous pourriez partager ? si oui et pour éventuellement éviter un HS ici, pourriez vous poster votre code et snaps sur ce fil : Les cartes et MyelectricalData - #62 par FROlCi ?
Merci par avance!
A force de chercher je finit par ne plus rien voire… Je viens d’installer une nouvelle machine
MQTT / Influxdb & MyElectricaldata
Je vois bien remonter ds MQTT viewer toutes les infos
mon config.yaml est celui qui fonctionne sur l’autre machine, j’ai juste changé le pdl et activé la production
@Thierry.P ==> j’ai bien le sensors.yaml que j’ai créé mais il s’appuie sur le sensor principal qui est créé par l’addon dans MQTT (si j’ai bien tout compris^^)
En partant de cette idée, j’ai creusé un peu et pour confirmer avec les sachants :
Il y a dans MQTT ==> homeassistant/sensor/MyelectricalData_consumption/PDL/config = « …, ‹ uniq_id: › »
on trouve uniq_id qui est mandatory pour que le sensor soit créé en revanche, y aurait il une typo ? car dans la doc et releases notes c’est unique_id qui est attendu. Et bien entendu je ne sais pas expliquer pourquoi cela fonctionne normalement sur une machine déjà installée…
Et j’ai peut être mal compris mais pour moi: l’addon myelectricaldata publie ds mqtt des infos qui sont ensuite consommées par homeassistant ce qui permet de créer les sensors de départ (celui qui contient toutes les informations) c’est ce qui nous permet ensuite de créer nos propres sensors pour afficher plus facilement certaines infos et/ou calculer des couts / variations.
Yup j’ai appliqué pour la 10000² fois la reco de @ClassicRed : dans le doute reboot et… MIRACLE ^^ le sensor remonte ! yapuqa jouer à tout paramètrer ^^
J’ai de nouveaux le soucis aujourd’hui.
J’ai ça dans les logs:
2023-03-01 14:52:41.970 - INFO : Génération des messages du contrat
2023-03-01 14:52:41.979 - INFO : => Finish
2023-03-01 14:52:41.995 - INFO : [XXX] Génération des messages d'addresse
2023-03-01 14:52:42.003 - INFO : => Finish
2023-03-01 14:52:42.020 - INFO : Génération des données annuelles
2023-03-01 14:52:44.017 - INFO : => Finish
2023-03-01 14:52:44.035 - INFO : Génération des données linéaires journalières.
2023-03-01 18:51:16.447 - WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-01 18:51:16 CET)" skipped: maximum number of running instances reached (1)
2023-03-01 22:51:16.424 - WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-01 22:51:16 CET)" skipped: maximum number of running instances reached (1)
2023-03-02 02:51:16.374 - WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-02 02:51:16 CET)" skipped: maximum number of running instances reached (1)
2023-03-02 06:51:16.374 - WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-02 06:51:16 CET)" skipped: maximum number of running instances reached (1)
2023-03-02 10:51:16.374 - WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-02 10:51:16 CET)" skipped: maximum number of running instances reached (1)
Bien sur que j’ai lu mais, je ne comprends pas pourquoi j’ai cette erreur et pour quoi cela implique (ou pas d’ailleurs) que les données ne sont pas bonnes.
Ma conso d’hier est une copie de ma conso d’avant-hier.
Hier, quand j’ai posté mon message j’avais 5 jours identiques et la même erreur dans les logs du docker alors c’est peut-être pas lié mais il y a quand même un bug quelque part. Et quand j’ai rebooté le docker tout c’est bien mis a jour.