Hello,
J’ai un CT sous proxmox qui héberge influxDB.
J’ai lié cette instance InfluxDB (ça sera pareil avec un CT docker) via l’intégration prévue :
InfluxDB - Home Assistant (home-assistant.io)
Bonne utilisation
Hello,
J’ai un CT sous proxmox qui héberge influxDB.
J’ai lié cette instance InfluxDB (ça sera pareil avec un CT docker) via l’intégration prévue :
InfluxDB - Home Assistant (home-assistant.io)
Bonne utilisation
Bonjour
Je soulève de nouveau le sujet que je regarde en ce moment
J’arrive à bien pousser les données dans influxDB via Node Red ou via HA (bon je pense que je vais passser en direct depuis Node Red car je peux formater comme je veux mes données et surtout indépendant de HA en cas de plantage)
Si j’ai bien compris les tasks exposés vous faite @Pulpy-Luke et @Neuvidor un calcul de moyenne, min et max de l’ensemble des données de la veille le plus proche de minuit.
Bon déjà il faut que je regarde dans influxDB (malgré un TZ=Europe/Paris) il me semble que j’ai un décallage d’une heure.
Ma question avez vous expérimenté de faire un task pour du stockage moyenne terme ( genre les 6 mois ou 12 mois à venir) en prenant les 3 calculs mais sur 1 heure ?
en gros chaque heure on prend le min, max et la moyenne ce qui donne un affichage plus précis sur 1 an par exemple ?
Après je ne sais pas si cela vaut le coup ou non
Salut,
Formater les données, je ne sais pas si c’est pertinent, le format de base est assez simple justement pour que ça fonctionne assez bien avec toutes les sources différentes…
Quant au plantage de HA, si NR n’a pas de donnée à pousser…
C’est plus ou moins ce que fait HA dans sa mécanique native.
La question qu’il faut se poser, c’est : est-ce pertinent d’avoir 24 fois plus de données (1x/H ou 1x/J) ?
Une partie de la réponse est probablement donnée par ce que tu sctockes:
mais
Du point de vue mécanique des tasks, c’est pareil par contre
Salut @Pulpy-Luke
Alors depuis Node Red je récupère directement du brocker sans passer par HA.
Mais oui peut être que je me prends un peu la tête mais j’aime bien ça je crois .
C’est surtout que venant de HA il y a trop de données que je veux pas. Cela veut juste dire que je ne filtre pas assez bien.
Ensuite je partage l’analyse sur le nombre de données par heure ou par jour tout dépend du contexte et de la donnée.
C’est la mécanique et le filtrage dans le task que je ne capte pas bien.
Le pluviomètre lui je prend le max de la veille (c’est un Netatmo) en fin de journée
Par contre les températures chaque fin d’heure de la journée en cours il faut faire le min max moyenne de l’heure précédente en gros. En terme de range il faut faire un truc du genre now() to now()-1h ?
Pour le filtrage ha, c’est quasi comme le recorder de la bdd principale : include avec ou sans regex.
A mon sens les exclude ne servent à rien, on envoie rarement beaucoup de données.
Pour le range attention au sens : h-1-> h sinon ça marche pas bien je pense.
Bonjour,
Je reviens sur le sujet des RP et CQ afin de réduire la taille de ma base influx.
J’ai donc créé une nouvelle RP et une CQ.
Les données arrivent dans la nouvelle RP sauf que les données anciennes (plus de 2 ans) ne sont pas dispo.
J’ai l’impression que la CQ ne fonctionne que sur le moment de sa création et les nouvelles données crées depuis.
Bref, comment forcer la CQ a taper dans toute la base historique afin que je puisse enfin modifier la RP autogen ?
Merci.