Mon HA est très lent voir a des comportements parfois erratiques. Je cherche donc l’origine de ce défaut.
Suite à un échange sur un autre sujet, @Pulpy-Luke me recommande de regarder les points suivants :
Les logs pour y trouver les erreurs
Les charges CPU pour y trouver les consommateurs de ressources
Les automatisations pour y trouver les trucs qui tourne 10 fois pour faire la même chose
Les dashboards pour simplifier les structures, et optimiser le code
Le recorder pour éviter de mettre 1000 trucs inutiles dans la BDD
Il est clair que j’ai pas mal d’erreurs dans mes logs mais je n’ai rien vu de bien grave.
Je m’attaque donc au point 2 et je constate que la RAM utilisée par la VM sur Proxmox est énorme :
L’indication de la RAM utilisée dans Proxmox n’est pas anormale, ça indique que linux utlise la mémoire inutilisée pour la mise en cache du disque. On a l’impression qu’on manque de mémoire mais ce n’est pas le cas.
Oui là ça indique le consommation de mémoire de Home assistant
@Idaho947 : J’ai lu la page et je comprends. Je m’interroge sur le fait que je suis en HA OS sur une VM dédiée. Qu’est qui peut consommer à part HA et les modules complémentaires ? l’OS consommerait l’autre moitié de la RAM pour quoi ?
Bonjour,
Pour info, chez moi les modules complémentaires qui consomment le plus sont:
Studio Code Server et Music Assistant, donc je les démarre que quand c’est utile.
Node Red consomme aussi mais il doit rester On.
Je suis sur un PI4B 4Go, la RAM dispo se situe entre 1.8 et 2Go mais peut vite baisser lors de compilation de certains projets sur ESPHome.
Bon je viens de regarder mon fichier home-assistant_v2.db …
Il fait à peine 25 Gb !!!
Visiblement, mon paramétrage de recorder n’est pas suffisant.
Je précise que j’ai 58 équipements Zigbee et 40 zwave sans parler des équipements IP.
J’ai pas mal durci mon recorder et je mettrai en include ce qui me manque dans les jours à venir.
De ce que je comprends dans la doc sur le recorder, l’action de purge ne va pas diminuer de suite la taille de la db.
Est-ce qu’avec le paramètre repack, je vais voir la différence rapidement ou il vaut mieux attendre quelques jours pour voir l’évolution ?
ça n’arrive pas d’un coup, mais tu va voir une diminution progressive de la taille.
Par contre, tu peux retrouver les nombre d’éléments dans les tables (plusieurs sujets sur le forum) ça donne une bonne indication. Y compris des elements que tu as exclu que tu ne doit plus voir
Pour faire un test pour voir si cela vient de là, est-ce que je pourrais renommer le fichier ?
Je suppose que le système va le récréer, vide donc. Je verrai si ça tourne correctement du coup.
Ou c’est trop risqué et vaut mieux patienter quelques jours.
Bonjour
Tu vas perdre les historiques pendant la période, ça c’est sur, et le renommer je n’ai jamais essayé, avec une telle taille de base de données je ne suis même pas sur qu’un backup / restore fonctionnerait correctement.
Moi je travaillerai sur les include / exclude dans le fichier recorder et je patienterai
Je te confirme que je n’arrive pas à restorer !
J’ai fait quelques manips depuis ce matin et je ne sais pas trop laquelle mais elle a eû des actions :
Je suis passé 2G de RAM dans HA :
Edit: sachant que je vais encore me répéter, mais le mieux pour le recorder c’est de n’avoir que des include.
Je parle d’expérience, en février 2024 ma base est montée à plus de 20Gb et j’ai suivi les conseils d’un certain @Pulpy-Luke, que des include, pas d’exclude et ajouter ce dont on a besoin au fur et à mesure, c’est un peu contraignant quand on ajoute des équipements, il ne faut pas oublier mais aujourd’hui un an après je suis à une BDD de 346 Mb
Méthode éprouvée et validée.
Et c’est contraignant le jour ou on ajoute un élément, mais comparé aux soucis que ça génère quand la base est trop grande, c’est pas comparable
de mémoire c’est redescendu vers les 500mb en quelques jours et depuis c’est stable
En fait ce qui est important pour la BDD ce n’est pas tant la taille () c’est plutôt une question de stabilité elle peut être de 1Gb, mais si elle est stable dans le temps ce n’est pas un problème. (Evidemment 20Gb la c’est un problème)