MyElectricalData - Vos données Linky chez vous :)

Bonsoir à tous,
L’addon MED version 0.8.13-11 récemment installé sur mon Home Assistant semble fonctionner, sauf pour la création des sensors et la publication MQTT.
Si l’un de vous a une idée du problème.
Merci d’avance.
J’ai ce message d’erreur dans les logs :

2023-02-28 03:31:53.319 -     INFO :  [2XXXXXXXXXXXX] EXPORTATION DES DONNÉES DANS HOME ASSISTANT (VIA MQTT)
2023-02-28 03:31:53.319 -     INFO : ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ ◦ ❖ ◦ ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Traceback (most recent call last):
  File "/app/models/jobs.py", line 176, in job_import_data
    HomeAssistant(self.usage_point_id).export()
  File "/app/models/export_home_assistant.py", line 87, in export
    self.myelectricaldata_usage_point_id("consumption")
  File "/app/models/export_home_assistant.py", line 202, in myelectricaldata_usage_point_id
    app.MQTT.publish_multiple(config, topic)
  File "/app/models/mqtt.py", line 82, in publish_multiple
    publish.multiple(payload, hostname=self.hostname, port=self.port, client_id=self.client_id, auth=auth)
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/publish.py", line 168, in multiple
    client.loop_forever()
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 1779, in loop_forever
    rc = self.loop(timeout, max_packets)
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 1181, in loop
    rc = self.loop_read(max_packets)
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 1572, in loop_read
    rc = self._packet_read()
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 2310, in _packet_read
    rc = self._packet_handle()
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 2942, in _packet_handle
    return self._handle_connack()
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 3029, in _handle_connack
    self.on_connect(
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/publish.py", line 51, in _on_connect
    _do_publish(client)
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/publish.py", line 38, in _do_publish
    client.publish(**message)
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 1273, in publish
    rc = self._send_publish(
  File "/usr/local/lib/python3.9/site-packages/paho/mqtt/client.py", line 2506, in _send_publish
    command = PUBLISH | ((dup & 0x1) << 3) | (qos << 1) | retain
TypeError: unsupported operand type(s) for |: 'int' and 'str'
2023-02-28 03:31:53.330 -    ERROR : ═══════════════════════════════════════════════•°• :ERREUR: •°•════════════════════════════════════════════════
2023-02-28 03:31:53.330 -    ERROR : 
2023-02-28 03:31:53.330 -    ERROR :  Erreur lors de l'exportation des données dans Home Assistant
2023-02-28 03:31:53.330 -    ERROR :  unsupported operand type(s) for |: 'int' and 'str'
2023-02-28 03:31:53.330 -    ERROR : 
2023-02-28 03:31:53.330 -    ERROR : ═══════════════════════════════════════════════════════════════════════════════════════════════════════════════

Apparemment, il y a une correction dans la 8.14

Mouarf, ils sont trop fort, enedis !
J’envoie un message via leur site pour demander mes données horaires et voici le message.
image
Même pas capable de mettre une messagerie en place !

Hello tout le monde j’ai lu que certains sont en train de mettre en place MED avec de la production électrique. Vous avez déjà un dashboard en tête ? qque chose que vous pourriez partager ? si oui et pour éventuellement éviter un HS ici, pourriez vous poster votre code et snaps sur ce fil : Les cartes et MyelectricalData - #62 par FROlCi ?
Merci par avance!

1 « J'aime »

Hello,

Il y encore un bug chez Enedis?
image
VS
image

P.S: J’ai rien dit, le docker devait être planté, j’ai redémarré et j’ai les bonnes données de remontées.

1 « J'aime »

Salut, je viens de passer sur MyElectricalData. Avant je récupérais mes infos directement en Api. Je vais maintenant les récupérer en MQTT

Je voudrais retrouver ce que j’avais avant notamment un graphe de comparaison de l’année en cours et de l’année n-1.

M4dm4rtig4n m’a indiqué que l’on pouvait les avoir en MQTT

Mais l’année indiqué est dans le topic et donc je cherche un faire le sensor avec l’année en cours dans le topic du style:

mqtt:
  sensor:
  - name: myelectricaldata_year_2023
    icon: mdi:flash
    unit_of_measurement: 'kWh'
    state_topic: state_topic: "myelectricaldata/1***********/consumption/annual/{{as_timestamp(states('sensor.date_time_iso')) | timestamp_custom('%Y')}}/thisYear/base/kWh"

Mais ça ne retourne rien et du coup je sais pas si on peut mettre un topic « paramètrable »

A force de chercher je finit par ne plus rien voire… Je viens d’installer une nouvelle machine
MQTT / Influxdb & MyElectricaldata
Je vois bien remonter ds MQTT viewer toutes les infos
image
mon config.yaml est celui qui fonctionne sur l’autre machine, j’ai juste changé le pdl et activé la production

cycle: 14400
debug: false
tempo:
  enable: true
  price_blue_hc: 0.097
  price_blue_hp: 0.1249
  price_red_hc: 0.1216
  price_red_hp: 0.6712
  price_white_hc: 0.114
  price_white_hp: 0.1508
home_assistant:
  card_myenedis: true
  discovery_prefix: homeassistant
  enable: true
influxdb:
  bucket: "myelectricaldata/autogen"
  enable: true
  hostname: a0d7b954-influxdb
  method: synchronous
  org: "-"
  port: 8086
  token: xxxx:xxxxx
  batching_options:
    batch_size: 1000
    flush_interval: 1000
    jitter_interval: 0
    retry_interval: 5000
    max_retry_time: 180_000
    max_retries: 5
    max_retry_delay: 125_000
    exponential_base: 2
mqtt:
  client_id: myelectricaldata
  enable: true
  hostname: core-mosquitto
  port: 1883
  username: "mqtt"
  password: "xxxx"
  prefix: myelectricaldata
  retain: true
  qos: 0

myelectricaldata:
  xxxxxxxxxxx:
    activation_date_daily: ""
    activation_date_detail: ""
    cache: true
    consumption: true
    consumption_detail: true
    consumption_detail_max_date: "2022-01-01"
    consumption_max_date: "2022-01-01"
    consumption_price_base: "0.1415"
    consumption_price_hc: "0.1080"
    consumption_price_hp: "0.1576"
    enable: true
    name: "St Med"
    offpeak_hours_0: "22H24-06H24"
    offpeak_hours_1: "22H24-06H24"
    offpeak_hours_2: "22H24-06H24"
    offpeak_hours_3: "22H24-06H24"
    offpeak_hours_4: "22H24-06H24"
    offpeak_hours_5: "22H24-06H24"
    offpeak_hours_6: "22H24-06H24"
    plan: base
    production: true
    production_detail: true
    production_detail_max_date: "2022-01-01"
    production_max_date: "2022-01-01"
    production_price: 0.64
    refresh_addresse: true
    refresh_contract: true
    token: xxxxxxxxxxxxxxxxxxxx


Tout semble bien se passer mais pas de sensor créé… J’ai loupé quoi ?

il te manque le sensors.yaml, il me semble

@Thierry.P ==> j’ai bien le sensors.yaml que j’ai créé mais il s’appuie sur le sensor principal qui est créé par l’addon dans MQTT (si j’ai bien tout compris^^)

En partant de cette idée, j’ai creusé un peu et pour confirmer avec les sachants :
Il y a dans MQTT ==> homeassistant/sensor/MyelectricalData_consumption/PDL/config = « …, ‹ uniq_id: › »
on trouve uniq_id qui est mandatory pour que le sensor soit créé en revanche, y aurait il une typo ? car dans la doc et releases notes c’est unique_id qui est attendu. Et bien entendu je ne sais pas expliquer pourquoi cela fonctionne normalement sur une machine déjà installée…

@M4dm4rtig4n tu en penses quoi ?

Dans le config.yaml, j’ai une ligne que tu n’as pas dans mqtt:
client_id: myelectricaldata

si ?
image

Et j’ai peut être mal compris mais pour moi: l’addon myelectricaldata publie ds mqtt des infos qui sont ensuite consommées par homeassistant ce qui permet de créer les sensors de départ (celui qui contient toutes les informations) c’est ce qui nous permet ensuite de créer nos propres sensors pour afficher plus facilement certaines infos et/ou calculer des couts / variations.

Avis?

Consommée par l’intégration MQTT dans HA… t’as installé mqtt dans devices / services?

Hey!

Yup j’ai appliqué pour la 10000² fois la reco de @ClassicRed : dans le doute reboot et… MIRACLE ^^ le sensor remonte ! yapuqa jouer à tout paramètrer ^^

Hello,

J’ai de nouveaux le soucis aujourd’hui.
J’ai ça dans les logs:

2023-03-01 14:52:41.970 -     INFO :  Génération des messages du contrat
2023-03-01 14:52:41.979 -     INFO :   => Finish
2023-03-01 14:52:41.995 -     INFO :  [XXX] Génération des messages d'addresse
2023-03-01 14:52:42.003 -     INFO :   => Finish
2023-03-01 14:52:42.020 -     INFO :  Génération des données annuelles
2023-03-01 14:52:44.017 -     INFO :   => Finish
2023-03-01 14:52:44.035 -     INFO :  Génération des données linéaires journalières.
2023-03-01 18:51:16.447 -  WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-01 18:51:16 CET)" skipped: maximum number of running instances reached (1)
2023-03-01 22:51:16.424 -  WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-01 22:51:16 CET)" skipped: maximum number of running instances reached (1)
2023-03-02 02:51:16.374 -  WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-02 02:51:16 CET)" skipped: maximum number of running instances reached (1)
2023-03-02 06:51:16.374 -  WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-02 06:51:16 CET)" skipped: maximum number of running instances reached (1)
2023-03-02 10:51:16.374 -  WARNING : Execution of job "fetch_data (trigger: interval[4:00:00], next run at: 2023-03-02 10:51:16 CET)" skipped: maximum number of running instances reached (1)

@FROlCi , j’ai fait quoi encore ?? :woozy_face: :joy:

1 « J'aime »

Re,

est ce qur tu cherche a comprendre tes/les erreurs que tu écris ???

pour faire simple la traduction:

ignorée : maximum nombre d'instances en cours d'exécution atteint 

Bien sur que j’ai lu mais, je ne comprends pas pourquoi j’ai cette erreur et pour quoi cela implique (ou pas d’ailleurs) que les données ne sont pas bonnes.
Ma conso d’hier est une copie de ma conso d’avant-hier.

Hier, quand j’ai posté mon message j’avais 5 jours identiques et la même erreur dans les logs du docker alors c’est peut-être pas lié mais il y a quand même un bug quelque part. Et quand j’ai rebooté le docker tout c’est bien mis a jour.

Bonjour,
j’ai une petite question, est ce que le fichier cache.db peut causer ce genre de souci ?

en allant sur => IP serveur HA:5000, j’ai ça qui tourne depuis 3 jours:

Ca peut arrivé , tu as fais un reboot electrique de ton HA , cela m’as permis de corrige le meme souci que tu as

je me répond à moi même :wink:
comme par hasard cela vient de fonctionner donc j’ai attendu 3 jours 1/2.
Bonne journée.