Bonjour,
Il me reste moins de 1Go sur ma partition HAOS et je n 'arrive pas résuire la taille de ma base de données aui est à environ 19Go.
J’ai essayée d’utiliser recorder:purge dans outil de d&vellopement en vain. J’ai configuré le recorder dans configuration.yaml en vain.
En ssh, je n’arrive pas à lancer de commande sqlite ou docker (commande not found)
Du coup je sais pas top quoi faire…
Autre question, haos est sur une disque M2 de 256Go. Hors il n’en utilise que 32Go semble-t-il… Comment étendre les partition pour utiliser tout le disque du coup? Sachant que je suis en vm proxmox…
quand tu lance une purge , il me semble que celle ci ce fait progressive.
J’ai du lire un truc sur le forum , je me suis souviens plus de son pseudo, que sa purge étais effective après un reboot électrique de HA …
vais voir pour retrouvé le post en question
Pour agrandir ta partition , tu devrais passé par gparted , tu devrais pouvoir l’agrandir.
Avec les infos que tu donne c’est difficile de donner autre chose que des suppositions.
Si ta base a 19Go et qu’elle ne baisse pas c’est peut-être que tu as une base qui doit faire 19Go
Dans la configuration de recorder, combien as tu de jours de retention?
Combien as tu exclu d’entités du recorder?
Combien as tu d’entités en tout?
Sinon au moment de la purge as tu des messages d’erreur?
Il faudrait peut-être regarder avec l’add-on « SQLite Web » qui permet de faire des requêtes pour voir d’où viennent les plus gros volumes.
Concernant la taille de la partition, de base pas certain que tu puisse faire ça, vu qu’avec HA OS tu n’as pas un accès complet à HA. Mais c’est tout de même bizarre que la partition soit de 32Go.
De mémoire je l’avais sur un SSD 120Go et la partition HAOS prenait tout la place dispo.
Avant d’avoir le crash et pour te laisser le temps de faire tes recherches il faudrait peut être que tu passe le paramètre : purge_keep_days: 5 par exemple
je suis actuellement à 7jours. je vais baisser à 5 jours. Mais j’ai pas l’impression que ça baisse pour autant…
J’ai installer SQLite Web. Que faut-il vérifier ensuite? quelle requête?
j’ai executé la requete suivante dans la zone query de la table « States »
`SELECT entity_id, COUNT(*) as count FROM states GROUP BY entity_id ORDER BY count DESC LIMIT 20`
A titre de comparaison, j’ai ~1000 entités dans HA (pas mal sont desactivées) mais ma table states a 385.000 entrées pour 7 jours de données.
Faudrait refaire la requête mais en faisant le GROUP BY sur « metadata_id » au lieue de « entity_id », la base à changé. Pour savoir quelles entités produisent le plus d’entrée.
Ensuite avec les metadata_id tu peux charger dans la table states_meta pour le nom des entités.
SELECT states.metadata_id, states_meta.entity_id, COUNT(*) as count FROM states
JOIN states_meta ON states.metadata_id = states_meta.metadata_id
GROUP BY metadata_id ORDER BY count DESC LIMIT 20
Désolé je n’ai pas la base SQLite, j’ai pas pu tester.
Ca doit être dans le group by, il n’aime pas ne pas avoir le table des champs
SELECT states.metadata_id, states_meta.entity_id, COUNT(*) as count FROM states
JOIN states_meta ON states.metadata_id = states_meta.metadata_id
GROUP BY states.metadata_id ORDER BY count DESC LIMIT 20
il semble que le lixee remplisse bien la base…
Peut-on interroger le lixee que toutes les 5 ou 10 seconde par exemple?
Et ne pas enregistrer par exemple le numero de serie du linky toutes les 5 secondes?
Ben là c’est déjà toutes les 8 secondes si tu fait le calcul.
Un début pour voir le résultat serait d’exclure toutes les entités lixee que tu n’as pas besoin… sur les 20 premières doit y en avoir un floppée qui sont inutiles à garder sur 7jours.