Salut,
c’est pas nécessaire, c’est activer par défaut
auto_purge boolean (optional, default: true) > tout les jours a 4h12
auto_repack boolean (optional, default: true) > tous les deuxième dimanche du mois
Sinon ca va c’est pas violent ton filtrage, regarde le mien
Ok donc les deux auto sont pas nécessaire mais ne dérange pas au fonctionnement cela me permet de me souvenir dans un mois ou deux que ces deux paramètres sont bien actif
Compliqué de bien savoir si on exclue les bonne chose ou pas
Je trouve tellement plus évident de dire par défaut rien n’est en base historique etc et inclue les un à un ou par domaine. Ainsi ça limite le risque d’obésité de la BDD.
Du coup à force de regarder les Go
Ce matin la base est à 1Go encore malgré tout (200 device Zigbee 30 zwave et 20 BT) plus les autres intégration monitoring etc.
Mais ce qui m’a surpris aussi c’est la place sur mon disque proxmox de 32Go quasi 70% d’espace utilisé sans sauvegarde locale elle ms sont toutes externe
Une séance de spéléologie va être encore à l’ordre du jour à la fois dans la BDD mais sur le reste aussi
C’est vrai que venant de jeedom cette histoire de recorder n’est pas vraiment simple ^^
Pour faire je me suis servi de ce tuto de Byfeel qui précise un peux les modalités de configuration.
De ce que j’ai compris si on ne met que des include alors il n’enregistrera que les entity voulu dans cette liste. Par contre si on met des exclude alors il faudra tous préciser.
Perso j’avais une BDD (J’ai installer Maria DB et PhpMyAdmin) de 2 GB (les uptime sont très bavard…) et maintenant je n’ai plus que 300 Mo ( à suivre car je n’ai pas atteint les 30j encore).
Je met mon recorder si ca intéresse mais je suis loin d’être expert ^^
Par contre effectivement comment fait t’on quand on veux garder des données d’une année sur l’autre???
J’ai pas besoin d’avoir tous mais par exemple pour une température juste une moyenne, min et max de la journée.
En fait il ne surtout pas faire la comparaison entre Jeedom et HA… C’est pas du tout la même philosophie et on monte des usines à gaz pour rien. C’est évidement pas facile au début mais c’est indispensable. Je le sais bien j’ai fait pareil au début
L’important c’est de bien chercher dans la doc (qui est super bien faite), il y a des alternatives (parfois très malines) pour obtenir le même résultat :
Base à durée de rétention courte : on filtre avec les trucs utiles (donc exit les uptime, date et autres machins bavards)… 30J c’est une fausse bonne idée. Et quand le filtrage est assez bien fait, l’ajout de nouveaux matériels n’a pas de véritable impact sur la prise de poids de la base
Dashboard energy, statistiques et utility meter pour le stockage longue durée
et si besoin d’encore un peu plus souple : influxdb
Oui pas de comparatif entre les deux outils Jeedom et HA c’est pas la même approche nous sommes d’accord mais il est normal d’avoir dans nos débuts une référence à Jeedom. Mais allons de l’avant et approprions nous la chose.
je dirais qu’il faut être raisonnable et le besoin est :
Avoir des graphes sur le Dashboard sympa de quelques métriques donc du court terme quelques jours (c’est porté par la BDD de HA si j’ai bien compris)
Avoir un historique plus important afin de faire des comparaisons d’année en année et là soit on stock tout sur une solution externe soit on utilise les outils types utility meter, energy et statistiques (ce dernier pas encore bien compris le truc)
et pour moi c’est ces éléments là que tu envoies sur du influx par exemple (pas de sens vraiment d’envoyer la température toutes les minutes à vie en tout cas dans mon cas)
la doc est dense et très bien faite je confirme
parfois cela manque de visuel en plus des exemple de code mais bon le must to have
En tout cas l’échange est fort intéressant sur l’approche de la BDD et je t’en remercie
Cela me montre le chemin encore à parcourir top
En fait, c’est pas forcement impossible ni mauvais d’envoyer les températures dans influxdb (sur un bucket à faible durée de rétention) et de créer des mécanismes pour en extraire des stats (min/max/moy). Il y a tout un loooong sujet ici
Il va falloir poser les pierres une à une c’est cool
je viens de faire un début d’analyse de la BDD, je viens de trouver 2 ou 3 prises connectées qui sont un peu verbeuse ! Cela date d’une phase de test où je ne suis visiblement jamais revenu en arrière !
Du coup une donnée toutes les minutes.
Ensuite j’ai vu aussi que le BT sur mes nouvelles antennes ESP32 sont très verbeuse pour voir comme il faut les tag nut. A voir si je peux me dispenser d’historique ou pas dans cette phase de mise en production.
Bien sur cela changera aussi au fur et à mesure que l’on met en place le sujet transmis
Question //, sur ma VM où j’ai influxDB déjà je n’ai pas telegraf (mais est-ce vraiment utile ?) mais surtout il me semble que les données sont présentes que 30 jours pas plus ensuite il faut une licence non ou j’ai pas compris ?
Ce cas là se gère assez bien. L’historique des tags tu n’en a pas besoin, par contre tu peux garder l’historique de la personne (sur laquelle un ou plusieurs tags sont associés)
telegraph c’est le buffer avant influxdb… Quant à la durée, c’est pas lié à la licence mais à la config du bucket de stockage
Bon je viens de faire un test à l’instant
Création d’une nouvelle VM et mise de ma sauvegarde de cette nuit et là une belle surprise !
Contre
avec tout le ménage que j’avais pu faire des modules complémentaires que je n’utilisais pas !!
cela fait une sacré cure quand même
Bon je ne sais pas trop ce qui est parti mais bon cela fait le clair
@Pulpy-Luke je t’embête un peu encore désolé
Si j’envoie vers InfluxDB des infos aucun intérêt de les avoir aussi dans HA en plus sauf si je veux faire un Dashboard avec le sensor.
J’ai des prises Shelly Plug S (Wifi par MQTT car j’ai besoin d’un accès externe dessus) et il semble qu’elle parle beaucoup ! mais pas trouvé le moyen de les rendre moins bavarde.
Je fais des exclude en pagaille du coup en ce moment
Hello.
Oui une méthodologie qui me semble pertinente :
Coté influxdb, on n’envoie QUE ce qui est nécessaire pour un stockage à long terme, et qui n’est pas déjà dispo avec les stats & co de HA. Soit des donnés directement exploitables, soit celles qui sont nécessaires à des calculs (min/max etc)
Coté base HA, il faut se poser la question de quelles données sont utiles pour les graphs et pour quelle durée. La température des WC il y a 3 semaines, je suis pas certains que ça serve souvent par exemple.
Et donc quand les données ne servent pas, on les vire
Parfait, je suis en phase avec ça où à une nuance quand même c’est que dans l’immédiat je pousse un peu brutalement sur InfluxDB
je range déjà ma chambre coté HA dans l’immédiat, je tente de pas mettre trop le bazar sur influxDB quand même
Ensuite, je vais m’attacher une fois les deux chambre HA et influxDB au clair à voir comment je peux ajouter des données anciennes sur un bucket A d’influx à mon bucket HA fraichement mis en route, de cette manière je retrouve mon historique.
Mais nous sommes en phase aucun intérêt de stocker ni sur HA ni sur influxDB des sensor type *_power_outage_memory etc… enfin pour mon usage
Oui je me doute, je ne veux pas le bordel non plus dessus mais je voulais dire que je mettais plus la donnée brut que travaillée pour le moment mais pareil en tentant de pas mettre des données du type *_power_outage_memory etc…
Entre l’organisation en include, package et la BDD de données il y a des fondamentaux important à voir et à mettre en place pour les débutants sur HA à mon sens pour ne pas vivre ce que je fais à date
Tout ça (et le reste que je n’ai pas) en tête, c’est quand même très lié à tes besoin/profil/config
Et puis au début avec une petite installation, on peut se satisfaire d’un truc ‹ pas optimal ›, quand ça commence à être plus gros, c’est moins évident.
Du coup, ça me parait vachement compliqué de répondre, mais je ne vois pas d’autres astuces pour l’instant
Regarde si les includes/excludes ne s’annulent pas mutuellement
Ce que j’ai est assez similaire (include sur des domains et excludes sur des entity ou entity_globs. Ce qu’il fat voir c’est quels « type » passent quand même les filtres et adapter avec un exclude par exemple.
De plus il ne faut pas oublier de faire une purge (et repack, voire restart) pour voir le résultat