Apparemment il faut passer par l’API pour faire ça.
influxdb, c’est plutôt bien. Mais, je trouve ça très tordu comme approche. Là et en général…
Donc, tu gardes ta query du côté HA ou NR et avec les paramètre tu t’en sors.
Ca, c’est la théorie. Tu nous diras pour la pratique
Je suis toujours en influxdb 1.x avec le vieux langage de requête. Je les construis (péniblement) dans grafana… Avec flux c’est du sans filet. Comme j’ai peur du vide, je reste au bord.
Bon visiblement c’est beaucoup plus simple que prévu, il suffit de réduire le filtre de sélection pour prendre toute les tables et cela fait le calcul table par table, exactement ce que je voulais.
Par exemple si je sélectionne toute mes données, cela me donne 5 tables (entourés en rouge) qui chacune contient une série de donnée (flèche rouge).
@Pulpy-Luke , @Neuvidor , il y aurait moyen de nous faire un petit tuto de A à Z pour mettre cela en place SVP?
Je suis perdu du coup avec tous les échanges ^^
Je pense que je vais devoir ouvrir un poste pour éviter de polluer celui-ci à l’avenir mais il faut me comprendre, j’aime partager mes avancées sur ce forum chaleureux
bonjour
avec votre aide j’ai réussi à me faire des task qui me permettent de générer histogrammes par heure, jour pour mes consommations. La logique est tjs la même, je récupère le min, le max et on fait la différence des 2.
mais j’ai un soucis, car je me base de l’index de mon ecodevice RT2, et parfois, il me renvoie des valeurs « fausse » (soit il les envoies, soit c’est HA qui les range mal car sous domoticz je n’avais pas ce souci) je me retrouve avec des consommations en MWh… Je n’arrive pas à savoir d’où ca vient (je vais ouvrir un topic à ce sujet) donc en palliatif au lieu de faire le min et max d’une période, je souhaite plutôt récupérer la valeur à une heure précises puis 1h plus tard et faire la différence des 2 : toutes les heures faire la différence entre la valeur de l’heure H et H-1. (et pour les conso journalière, récupérer la valeur à 00h00 et à 23h59 et faire la différence).
L’un de vous saurait comment faire un telle task sous Influxdb v2 ?
merci
Juste une question je vois du chronograph, du télégraf mais est-ce nécessaire ?
Du moment que l’on a les données qui arrivent directement dans InfluxDB
J’ai mes proxmox qui arrivent directement sur influx dans 2 bucket différents, HA pareil et mon Jeedom (plus ancien) aussi
Est-ce que cela joue sur la durée de rétention des données peut être ? Ou autre que je ne vois pas pour le moment
D’accord avec ton point de vue sur le fait d’utiliser les bon outil pour les bon besoins … après avoir archi simple avec tout dans ha peut aussi se defendre
Concernant la remontée dans ha des données influxdb … tu as utilisé quel composant ha ?
Sujet un peu ancien mais j’ai une question en lisant ton post: comment se réalise la liaison entre HA et influxdb dans un docker CT à part ? T’es-tu basé sur un tuto ?
Je soulève de nouveau le sujet que je regarde en ce moment
J’arrive à bien pousser les données dans influxDB via Node Red ou via HA (bon je pense que je vais passser en direct depuis Node Red car je peux formater comme je veux mes données et surtout indépendant de HA en cas de plantage)
Si j’ai bien compris les tasks exposés vous faite @Pulpy-Luke et @Neuvidor un calcul de moyenne, min et max de l’ensemble des données de la veille le plus proche de minuit.
Bon déjà il faut que je regarde dans influxDB (malgré un TZ=Europe/Paris) il me semble que j’ai un décallage d’une heure.
Ma question avez vous expérimenté de faire un task pour du stockage moyenne terme ( genre les 6 mois ou 12 mois à venir) en prenant les 3 calculs mais sur 1 heure ?
en gros chaque heure on prend le min, max et la moyenne ce qui donne un affichage plus précis sur 1 an par exemple ?
Après je ne sais pas si cela vaut le coup ou non
Formater les données, je ne sais pas si c’est pertinent, le format de base est assez simple justement pour que ça fonctionne assez bien avec toutes les sources différentes…
Quant au plantage de HA, si NR n’a pas de donnée à pousser…
C’est plus ou moins ce que fait HA dans sa mécanique native.
La question qu’il faut se poser, c’est : est-ce pertinent d’avoir 24 fois plus de données (1x/H ou 1x/J) ?
Une partie de la réponse est probablement donnée par ce que tu sctockes:
la pluviométrie : 1x/J c’est largement suffisant
la température du jardin, 1x/J c’est largement suffisant
mais
la température de la salle de bain, si tu veux essayer de voir les pertes par rapport à l’extérieurs, 1x/h avec la température du jardin à fréquence équivalente, c’est plus intéressant à mon sens
Du point de vue mécanique des tasks, c’est pareil par contre
Alors depuis Node Red je récupère directement du brocker sans passer par HA.
Mais oui peut être que je me prends un peu la tête mais j’aime bien ça je crois .
C’est surtout que venant de HA il y a trop de données que je veux pas. Cela veut juste dire que je ne filtre pas assez bien.
Ensuite je partage l’analyse sur le nombre de données par heure ou par jour tout dépend du contexte et de la donnée.
C’est la mécanique et le filtrage dans le task que je ne capte pas bien.
Le pluviomètre lui je prend le max de la veille (c’est un Netatmo) en fin de journée
Par contre les températures chaque fin d’heure de la journée en cours il faut faire le min max moyenne de l’heure précédente en gros. En terme de range il faut faire un truc du genre now() to now()-1h ?
Pour le filtrage ha, c’est quasi comme le recorder de la bdd principale : include avec ou sans regex.
A mon sens les exclude ne servent à rien, on envoie rarement beaucoup de données.
Pour le range attention au sens : h-1-> h sinon ça marche pas bien je pense.