Conso de RAM anormale

Bonjour,

Mon HA est très lent voir a des comportements parfois erratiques. Je cherche donc l’origine de ce défaut.
Suite à un échange sur un autre sujet, @Pulpy-Luke me recommande de regarder les points suivants :

  1. Les logs pour y trouver les erreurs
  2. Les charges CPU pour y trouver les consommateurs de ressources
  3. Les automatisations pour y trouver les trucs qui tourne 10 fois pour faire la même chose
  4. Les dashboards pour simplifier les structures, et optimiser le code
  5. Le recorder pour éviter de mettre 1000 trucs inutiles dans la BDD

Il est clair que j’ai pas mal d’erreurs dans mes logs mais je n’ai rien vu de bien grave.
Je m’attaque donc au point 2 et je constate que la RAM utilisée par la VM sur Proxmox est énorme :

Et quand je regarde sur HA, la conso de HA est censée être nettement plus faible :

J’ai regardé dans les modules complémentaires pour voir ce qui pourrait consommer en plus mais aucun ne consomme plus de 1% de RAM

J’ai seulement laissé activé le terminal, ESPHome, studio code, zwavejsui et Z2M Proxy. Le reste est désactivé.

Qu’est ce qui pourrait consommer de la RAM ? Ou du moins, que dois-je regarder pour avancer ?

Merci d’avance.

C’est une situation normale pour la ram.

Un peu de lecture : KB N°2759 : LA MÉMOIRE SOUS LINUX - Olfeo

L’indication de la RAM utilisée dans Proxmox n’est pas anormale, ça indique que linux utlise la mémoire inutilisée pour la mise en cache du disque. On a l’impression qu’on manque de mémoire mais ce n’est pas le cas.

Oui là ça indique le consommation de mémoire de Home assistant

J’ai fait le test d’arrêter tous mes modules complémentaires je baisse la conso de quelques % :

@Idaho947 : J’ai lu la page et je comprends. Je m’interroge sur le fait que je suis en HA OS sur une VM dédiée. Qu’est qui peut consommer à part HA et les modules complémentaires ? l’OS consommerait l’autre moitié de la RAM pour quoi ?

@pctetra : Ok, donc fausse piste. Je continue à chercher alors.

Comme dis dans l’article que je t’ai partager c’est le comportement de linux. Il remplit la ram au max pour optimiser le cache et le buffer.

Bonjour,
Pour info, chez moi les modules complémentaires qui consomment le plus sont:
Studio Code Server et Music Assistant, donc je les démarre que quand c’est utile.
Node Red consomme aussi mais il doit rester On.
Je suis sur un PI4B 4Go, la RAM dispo se situe entre 1.8 et 2Go mais peut vite baisser lors de compilation de certains projets sur ESPHome.

Bob

PAsse au point 5 …
8Go de ram utilisé c’est beaucoup, je tourne avec 3Go

Bon je viens de regarder mon fichier home-assistant_v2.db …
Il fait à peine 25 Gb !!! :rofl:
Visiblement, mon paramétrage de recorder n’est pas suffisant.
Je précise que j’ai 58 équipements Zigbee et 40 zwave sans parler des équipements IP.
J’ai pas mal durci mon recorder et je mettrai en include ce qui me manque dans les jours à venir.
De ce que je comprends dans la doc sur le recorder, l’action de purge ne va pas diminuer de suite la taille de la db.
Est-ce qu’avec le paramètre repack, je vais voir la différence rapidement ou il vaut mieux attendre quelques jours pour voir l’évolution ?

1 « J'aime »

:champagne:

ça n’arrive pas d’un coup, mais tu va voir une diminution progressive de la taille.
Par contre, tu peux retrouver les nombre d’éléments dans les tables (plusieurs sujets sur le forum) ça donne une bonne indication. Y compris des elements que tu as exclu que tu ne doit plus voir

:scream:image

1 « J'aime »

Pour faire un test pour voir si cela vient de là, est-ce que je pourrais renommer le fichier ?
Je suppose que le système va le récréer, vide donc. Je verrai si ça tourne correctement du coup.
Ou c’est trop risqué et vaut mieux patienter quelques jours.

Bonjour
Tu vas perdre les historiques pendant la période, ça c’est sur, et le renommer je n’ai jamais essayé, avec une telle taille de base de données je ne suis même pas sur qu’un backup / restore fonctionnerait correctement.
Moi je travaillerai sur les include / exclude dans le fichier recorder et je patienterai

Je te confirme que je n’arrive pas à restorer !
J’ai fait quelques manips depuis ce matin et je ne sais pas trop laquelle mais elle a eû des actions :
Je suis passé 2G de RAM dans HA :

et sur la VM :

j’espère que tu as noté les action :grinning:

c’est mieux en tout cas

Edit: sachant que je vais encore me répéter, mais le mieux pour le recorder c’est de n’avoir que des include.
Je parle d’expérience, en février 2024 ma base est montée à plus de 20Gb et j’ai suivi les conseils d’un certain @Pulpy-Luke, que des include, pas d’exclude et ajouter ce dont on a besoin au fur et à mesure, c’est un peu contraignant quand on ajoute des équipements, il ne faut pas oublier mais aujourd’hui un an après je suis à une BDD de 346 Mb

1 « J'aime »

Ok je vais suivre ce conseil !
Merci @pctetra , je me sens moins seul avec mes 25 Gb. :grinning:
Ca mis combien de temps à arriver à cette taille de 346 Mb ?

Méthode éprouvée et validée.
Et c’est contraignant le jour ou on ajoute un élément, mais comparé aux soucis que ça génère quand la base est trop grande, c’est pas comparable

2 « J'aime »

:frowning: de mémoire c’est redescendu vers les 500mb en quelques jours et depuis c’est stable

En fait ce qui est important pour la BDD ce n’est pas tant la taille ():frowning: c’est plutôt une question de stabilité elle peut être de 1Gb, mais si elle est stable dans le temps ce n’est pas un problème. (Evidemment 20Gb la c’est un problème)

Comment peux t-on en arriver là :rofl:
Encore un effort et tu passes sous MariaDB, attention limité à 64TB :joy:
Bob

1 « J'aime »

En ayant un recorder mal paramétré et un gros HA qui tourne depuis 2 ans.
Objectif : dans une semaine, tomber en dessous du giga ! :muscle:

2 « J'aime »