Utilisation de l'espace disque

2j = 1Go???
Ok ça dépends ce que qu’on a dans HA mais ça semble beaucoup quand même.
Perso c’est de l’ordre de grandeur de @AlexHass : 7j / 500Mo. @FillR2 qui stocke beaucoup est dans cet ordre de grandeur de 100mo par jour. Là tu as un facteur 5

Je confirme que c’est bien ce que j’ai:


Remarque: J’ai vérifié sous phpmyadmin la bdd « hadb », c’est la table « states » la plus grosse (logique :slight_smile: )

Les entrées de table sont bien sur les 2 derniers jours.
Après j’ai quand même plus de 2 millions d’états sauvegardés en 2 jours, je vais m’attacher à faire du ménage je pense. C’est ça quand on commence la domotique, au fur et à mesure on fais de plus en plus de choses, mais il y a des détritus qui restent dans le système :).

Ps: Pour la petite info, j’ai poussé l’analyse à vérifier les entités les plus représentées dans ces 2 millions, il se trouve qu’il y a un sensor bluetooth (avec un nom/numéro a rallonge que je ne connais pas, qui occupe déjà 1,35 millions d’entrées …

Va falloir commencer à jouer avec l’intégration « recorder » pour filter les entités enregistrées.

2 jours c’est tout de même super court :slight_smile: c’est bien si tu ne gardes pas plus. 1 semaine c’est généralement une bonne moyenne.

Mais alors 2j pour 2millions d’entrée! C’est violent.

Quand je parlais de « recorder », si tu n’as que faire de l’historique des appareils bluetooth, enlève les!
Ca changera tout.

J’étais passé d’une base avec 2 millions d’entrées à une base avec 100.000 entrées, à l’époque sur Raspberry ça avait radicalement changé l’expérience.
Moi c’était entre autres les mises à jour des device_trackers de la freebox toutes les quelques secondes qui représentaient un gros morceau.

Bien le bonjour!

Petit update:

Sauvegardes
Depuis que j’ai viré influxdb, la taille des sauvegardes ont diminué à ~400 Mo, ce qui est plus raisonnable

Base de données
J’ai joué un peu avec le recorder (notamment pour virer des sensors que je ne regarde jamais), réduit le délais des ping des objets réseaux que je monitor (passage de 10 secs à 5 minutes) qui était responsable de pas mal d’enregistrements dans « states », et fait un peu le ménage dans des entités « mortes » (il y a certainement encore plus a faire de ce côté).
Au total de la bdd (toujours pour 2 jours), je suis passé de 3,5 millions d’entrées (1,1Go), à 1,5 millions (400Mo):


Je vais maintenant m’attarder un peu plus sur la table des attributs et celle des statistiques (qui représentent tout de même 1,2 millions d’entrées…)

1 « J'aime »

Petite question bête (je cherche depuis un moment mais je ne trouve pas la réponse), vu que je « repart de 0 » en termes d’historiques, pour faire du propre je supprimerais bien tout.
Je sais qu’en standard, avec SQLite, on peux supprimer le fichier puis HA se débrouille pour le recréer au redémarrage.
Mais avec MariaDB, est ce que je peux juste supprimer les base (sous phpmyadmin par exemple), puis redémarrer simplement HA ?

Puisqu’au départ mariadb n’existe pas, supprime l’addon, les fichiers reliquats, et réinstalle
Après quitte à faire propre, moi je resterai sur la base standard (tu conserves juste les filtres)

C’est une solution à laquelle j’ai pensé, mais le problème c’est que mariadb est utilisé pour d’autres choses aussi (je vois par exemple que j’ai une bdd nginxproxymanager).

J’ai quand même l’impression qu’il y a quelque chose de louche avec ma table « state_attributes », à priori elle a ~520.000 enregistrements:

image

Mais quand je regarde plus finement, je n’en trouve que ~80.000:
image

J’ai même fait un export excel, je n’ai bien que 80.000 lignes:

Je passe à côté de quelque chose?

Il y a 3 fois rien dedans comme info, juste le comment est faite la redirection et le ndd

Bonjour bonjour,

Quelques nouvelles après plusieurs jours d’utilisation de mes derniers tests/paramètres:
Ma base mariadb fait maintenant ~200mégas, et mes sauvegardes ~300mégas!
Ca me semble beaucoup plus acceptable :slight_smile: .

Ce que j’ai fait depuis l’autre jour:

  • J’ai fini par désinstaller et réinstaller mariadb (avant de désinstaller j’ai fait un export de la bdd nginxmanager, puis je l’ai réimporté après).
  • J’ai peaufiné les entités à sauvegarder (je dois encore faire mieux, notamment pour les sensors Bluetooth, et ce que j’utilise pour mon monitoring, mais c’est déjà bien pour l’instant)
  • J’ai récemment installé enedisgatewaymanager, ça prend pas mal de place dans les sauvegardes (~100mégas), faudra que je vois ça en détail si je veux réduire.
  • Je me suis fait une petite frayeur en termes d’espace après avoir installé frigate (en tant que module dans HA). Forcément ça a pris pas mal de place, non seulement pour le faire tourner, mais également pour les enregistrements (en 24h ma sauvegarde est repassée à 3gigas :stuck_out_tongue: ). J’ai finalement, créé une VM (enfin plutôt un CT, la nuance reste un peu floue encore pour moi) pour y installer Docker, puis j’ai installé frigate dedans, avec sauvegarde des médias sur mon NAS (je précise que mon Ha est sur une VM dédiée sous HAOS).

Hello
Comment as tu fait pour réduire le monitoring des objets réseaux de 10s à 5min?

Hello,

En modifiant la déclaration de mes entités de ping à 300 sec. Par exemple:

- platform: ping
  host: 192.168.1.105
  name: Ping Imprimante
  count: 7

Par contre je n’ai pas encore trouvé comme faire pour mes entités Bluetooth (par exemple mon LYWSDCGQ me remonte énormément de valeurs, sinon j’ai lu que pour le LYWSD03MMC il faut le flasher…).

Faute de mieux, j’ai renommé les entités sensor concernées (en ajoutant « _brut »), puis j’ai recréé les entités souhaitées via l’intégration « filter », en ne faisant qu’un enregistrement pas minute.
Exemple:

  - platform: filter
    name: "Therm. Cuisine Temperature"
    unique_id: temperature_cuisine
    entity_id: sensor.temp_cuisine_brut
    filters:
      - filter: time_throttle
        window_size: "00:01"

Puis j’ai ajouté les entités en question (les « _brut ») dans les entités exclues du recorder. A voir si cela réduis encore ma bdd :).

Bonjour,

Ce matin en faisant quelques vérifications, je m’aperçoit que mes sauvegardes ont à nouveau grossi (1,4g).
En y regardant de plus près, je constate que c’est la sauvegarde de la partie mariadb qui prends beaucoup de place (1,1g):

Alors que la base est bien plus petite (250mo):
image

Une idée de ce qui pourrais justifier cet écart?

Bonjour à tous,

J’ai installé HA sur un PI4 avec un SSD de 240Go, hors il s’avère que celui-ci commence à être rempli, raison pour laquelle j’essaye de comprendre comme l’espace disque est utilisé.

Si je fais un du -hs , je vois qu’environ 90Go sont utilisés, ce qui est normal, notamment parce que je conserve des sauvegardes et des médias sur le SSD. Je sais donc exactement à quoi correspondent ces 90Go.

Par contre, la commande df -h m’indique que 164Go sont utilisés, avec un taux de remplissage de mon disque de 78%, ce qui mapparaît déjà moins compréhensible.

Ma question est simple, où sont passés les 164 - 90, soit 74Go manquants ?

Hello,

Je ne sais pas te répondre comme cela (j’ai pour ma part également eu du mal a identifier les sources de problèmes de stockage), mais as tu regardé la taille de ta bdd? 74Go serais énorme mais je ne connais pas ton instal. Si tu est sous sqlite (le standard), tu as directement le fichier dans le répertoire config. Si tu est sous mariadb comme moi, perso je suis passé par phpmyadmin (j’ai aussi mis un sensor sous HA pour le suivre).

Merci pour ton aide, mais tout ce qui est BDD, sauvegardes, est visible dans les répertoires et se retrouve dans les 90Go utilisés. C’est beaucoup mais je le maîtrise.

Par contre, il y a 74Go qui ont disparus entre ce que me donne la commande la commande du et ce que me donne la commande df.

Je ne suis pas un spécialiste, mais je ne comprends pas où sont passés ces 74Go, même Docker n’utilise pas tout cet espace, peut-être qu’un spécialiste Linux pourrait m’aider ?

Je ne suis pas spécialiste donc je laisse aux experts voir ce point

Je pensai la même chose pour ma part, mais en ce qui me concerne le problème venais bien de la BDD (et je ne le voyais pas via les répertoire ou via les commandes linux)

Salut.

Tu n’as pas (re)indiqué le type d’installation de ta config mais on dirait que tu passes par un add-on .
Donc c’est un container pour lancer tes commandes df.
Par défaut un container ça ne voit pas tout (c’est d’ailleurs pas fait pour en principe) et c’est pas l’OS.
Il semble exister une option à tester :


Pour moi si tu veux un vrai accès à l’os c’est via le clavier/écran physiques que ça doit passer

Merci pour l’idée.
Je suis bien en mode non protégé au niveau du container SSH.
J’ai également essayé de connecer un écran et un clavier directement au PI4, mais je n’ai pas trouvé les commandes Linux pour inspecter le disque.
A ce jour, je me demande toujours où son passé mes 70Go manquants…

Bonjour,

Tu peux ajouter ce sensor pour connaitre la taille de InfluxDB

Remplacer / Verifier host, port, username, password et database=« homeassistant »

sensor:
  # InfluxDB Database Sensor
  - platform: influxdb
    host: 192.168.107.148
    port: 8086
    username: !secret influxdb_user
    password: !secret influxdb_secret
    scan_interval: 3600
    queries:
      - name: InfluxDB Size
        unit_of_measurement: MB
        value_template: "{{ (value | float(0) / 1024 /1024) | round(1) }}"
        group_function: sum
        measurement: '"monitor"."shard"'
        database: _internal
        where: '"database"=''homeassistant'' AND time > now() - 5m'
        field: diskBytes

Cordialement,

Abel