Plusieurs bases données / bucket influxdb dans ha

Mon problème

Bonjour, savez-vous comment avoir 2 bucket influxdb (v2) différents dans ha? ( L’idée est d’en avoir une avec une rétention d’un mois, l’autre ilimite avec donc bcp moins de donnée) J’ai essayé en créant 2 paragraphes différents dans le configuration.yaml et en changeant le nom du bucket mais ha semble se mélanger les pinceaux dans les entités que j’exclus (ha exclut les entités d’un bucket alors que je les exclus dans l’autre bucket).
Merci.
Nota : j’ai tenté aussi un autre méthode en écrivant dans l’un des bucket influxdb via Node red mais sans succès pour l’instant…

Salut,

Que manque-t-il dans la réponse de @Neuvidor ?

Il me manque que ça ne marche pas… Je cherche toujours. J’ai suivi Exactement ses screen shot
Mais concernant ma question sur le fait d’avoir 2 base de donnée influxdb dans le même ha : une idée ? ( A part créer 2 CT promox influxdb avec donc 2 adresse ip…).

Même avec 2 CT, ça ne doit pas pouvoir marcher :
La config YAML ne permet pas définir 2 blocs de config séparés : du genre

influxdb:
  config1:
    api_version: 2
    ssl: false
    host: localhost
    port: 9999
    token: GENERATED_AUTH_TOKEN
    organization: RANDOM_16_DIGIT_HEX_ID
    bucket: BUCKET_NAME
    tags:
      source: HA
    tags_attributes:
      - friendly_name
    default_measurement: units
    exclude:
      entities:
        - zone.home
      domains:
        - persistent_notification
        - person
    include:
      domains:
        - sensor
        - binary_sensor
        - sun
      entities:
        - weather.home
  config2:
    api_version: 2
    ssl: false
    host: localhost
    port: 9999
    token: GENERATED_AUTH_TOKEN
    organization: RANDOM_16_DIGIT_HEX_ID
    bucket: BUCKET_NAME
    tags:
      source: HA
    tags_attributes:
      - friendly_name
    default_measurement: units
    exclude:
      entities:
        - zone.home
      domains:
        - persistent_notification
        - person
    include:
      domains:
        - sensor
        - binary_sensor
        - sun
      entities:
        - weather.home

merci, voici ce que j’ai essayé.

influxdb:
  api_version: 2
  ssl: false
  host: 192.168.1.50
  port: 8086
  token: xxxxxxxxxxxxxxxxxxxxxxxxxx
  organization: xxxxxxxxxxxxxxxxx
  bucket: db_homeassistant
  include: ## début de la nouveauté pour inclure
    entities:
      - sensor.esp8266_ds18b20_temperature
      - sensor.esp8266_dht_temperature
      - sensor.conso_pac_indexday
      - sensor.arrivee_generale_indexday
      - sensor.clim_enfants_indexday
      - sensor.clim_parent_et_salon_indexday
      - sensor.disj_1_indexday
      - sensor.disj_2_indexday
      - sensor.disj_3_indexday
      - sensor.panneaux_3kwc_indexday
      - sensor.reinjection_vers_edf_indexday
      - sensor.arrivee_linky_indexday

influxdb:
  api_version: 2
  ssl: false
  host: 192.168.1.50
  port: 8086
  token: xxxxxxxxxxxxxxxx
  organization: xxxxxxxxxxxx
  bucket: db_ha_heure
  include: ## début de la nouveauté pour inclure
    entities:
      - input_number.conso_pac_heure_sauve
      - input_number.conso_arrivee_generale_heure_sauve
      - input_number.conso_arrivee_linky_heure_sauve
      - input_number.conso_panneaux_3kwc_heure_sauve

Le souci quand j’écris ça c’est que le bucket: db_homeassistant ne reçoit plus rien :frowning:

je recreuse du coté de Nodered, je posterai ici les soucis que j’ai pour le pas poluer l’autre fil.

je (re)change donc mon fusil d’épaule : un bucket dans le configuration.yaml pour les enregistrement "court terme " (30j) ave tous mes sensors (conso instantané, température…) et via node red, j’essaye de remplir une autre base se donnée long terme avec des input_number (valeur de ma conso par heure).
Je suis le poste
[Externaliser son historique - Stockage long terme - #70 par Neuvidor]
mais j’ai un soucis, voici mon flux :


voici ce que me donne les débug :
Capture2

et bien sur rien ne remonte dans influxdb.

ma conf : Notered en local sous HA, Influxdb dans un CT proxmox.

Je regarderai pour te répondre plus précisément car je suis au boulot avec mon téléphone cependant si tu veux faire comme moi avec juste un raspberry et HAOS, je procéderai comme ci-dessous sans déclarer influx_db dans ta config.yaml.

Ma proposition :

  • installer le module complémentaire influx_DB
  • déclarer tes bases dans influx_db via la Web interface d’influx_db
  • installer le module complémentaire nodered
  • installer les nodes nécessaires aux differents dans nodered
  • créer les flux nécessaire dans nodered pour remplir le base dans influx_db
  • créer les tâches dans influx_db afin de remplir la base long terme

Quand tu fais ce genre de truc, la 1ére version est écrasée par la 2ème

merci de tes conseils, l’idée d’avoir influxdb dans un CT à part me séduisait car sauvegarde facile (je suis sur un mini PC et proxmox)
creer des taches dans influxdb est pour moi incompréhensible même avec la doc officiel. J’ai tout juste réussi a reprendre tes tasks. avec ca j’arrive a sauvegarder ma conso par jour ainsi que les temps min max et moyenne par jour).
Ce que je cherche à faire c’est sauvegarder dans la base long terme ma consommation par heure. Pour ca j’utilise une automatisation qui s’exécute toutes les heures et qui copie un sensor de type utility_meter de hourly dans un input_number. C’est cet input_number que je cherche à sauvegarder.
faudra en suivant que je trouve comment faire ca par mois et année.

je ne sais pas pourquoi, j’ai supprimé tout le flux, et je l’ai recréé, et ca fonctionne (le message d’erreur laissait penser à un pb au niveau de la date - timestamp au lieu d’une valeur numérique), ca rempli bien la base long terme ! mille excuse du dérangement, soit y a eu un bug, soit j’ai mal recopié une info.
maintenant il faut que je trouve comment me passé de mon automatisation et que la sauvegarde toutes les heure à 59min59s se fasse directement depuis nodered. des idées?
idem pour tous les fin de mois et fin d’année.

Ne t’excuses pas, le forum est la pour ça.

En tous cas cool pour toi que ça marche !

mais j’aurai encore besoin de vous car j’ai les enregistrements par semaine, mois et année à faire…
j’ai pas (encore) trouvé dans Nodered comment faire un trigger sur ces périodes (ni via une automatisation d’ailleurs)

Hum… Je suis pas un expert influxdb, mais l’idée c’est pas de balancer les infos en vrac et de ressortir les valeurs par jour/semaine/mois/année via le requêtage plutôt que via l’injection ??

quand tu parles requêtage, tu parles des tasks sous influxdb ?
si c’est ca c’est en effet l’idéal, mais je ne comprend rien au langage… mais j’essaye aussi via cette piste.

il y a un editeur graphique qui gere le code dans la v2

Oui, il dégrossi bien la requête mais ne fait pas tout
Il m’a aider à comprendre la syntaxe au départ.

Je ne l’ai pas trouvé ! Faut que je fouille.
Sinon avec nodered j’avance bien grâce à un Node cron.

Data explorer

1 « J'aime »

ha oui ca je connais, ca permet de lire une valeur mais ca ne fait pas de task ?

Ça te donne le code à exécuter dans la task. Il y a un sujet sur le forum, voir nos échanges de l’année dernière avec @Neuvidor