Je trouve que mon PI4 commence à manquer un peu de puissance, notamment lorsqu’il s’agit de faire les sauvegardes (> 3 heures dû au temps de compression) ou d’utiliser Grafana pour des graphiques sur 2 ans.
Je me dis q’un mini-PC, ça devrait être largement plus performant, du coup je regarde vers les mini-PC, mais je n’ai jamais vraiment étudié le sujet.
Mon idée serait la suivante:
HA sous Proxmox
Mes critères:
Le système doit être 100% fiable et pouvoir redémarrer après une coupure de courant
le boîtier doit être plat et petit
la consommation devrait être sous les 10W
J’ai déjà un SSD M2 SATA B+M que je pourrais réutiliser s’il le boitier n’en contient pas
Pas de ventilo
Il faut au minimum 4 USB
Je ne suis pas prêt à attendre 4 jours pour le recevoir
De mémoire je crois me souvenir que ta base est gigantesque : 6/7Go … ça explique aussi pourquoi c’est si long, peut importe la puissance de la plateforme.
C’est exact, mais j’ai l’impression que c’est la CPU qui bloque, notamment lors des sauvegardes, la compression en fichier tar ne tourne que sur un core, et ça commence à devenir compliqué en termes d’exploitabilité, raison pour laquelle je regarde les possibilités avec une autre plate-forme.
Le G3 est plus moderne… pour 10 € de plus pourquoi hesiter
de très bonne machines
conso aux alentours de 10/15 en fonction de la charge et un ventilo mais pour ma part inaudible
Comme dit @Pulpy-Luke réglé d’abord le problème de l’énormité de ta base de données .
Ensuite n’importe quel NUC sera toujours meilleur que ton PI.
Et …proxmox … pourquoi pas mais si ton NUC ne servira qu’à HA et à ses périphériques, pose toi bien la question de l’intérêt vis à vis de dockers
Il faut voir le sujet de manière Macro.
HA et simplement HA sur la future machine, problème de ressources liés à la BDD donc traité la base de données en premier lieu c’est bénéfique sur toutes les machines
Proxmox ou Docker tout dépend de comment tu es à l’aise avec les deux outils et les lignes de commandes …
Sinon quand à faire de prendre une machine et y mettre des services dans tous les sens autant prendre une machine longue durée.
Il faut un maximum de thread et un maximum de RAM qui te permettra d’avoir plus de VM et / ou Docker.
A titre d’exemple, je dispose d’une machine avec un intel i5 8ème génération mini 4 coeurs et 8 thread.
Mais il y a aussi AMD qui permet d’avoir des machines robustes.
32Go de Ram est pour moi le minimum à mon sens.
Pour l’instant, c’est ma BDD mariaDB d’un 1,2 Go, ça n’est quand même pas la mer à boire, que j’ai du mal à restaurer sur un SSD connecté au PI4, et je n’ai pas encore essayé la BDD InfluxDB qui fait 5Go.
De fait, s’il est difficile de restaurer 1,2 Go, c’est que la config PI4 arrive aux limites de ce que je veux faire, d’où l’idée de passer sur une machine plus puissante.
Concernant l’installation, je me dis que c’est pratique d’avoir un système de virtualisation d’où l’idée de Proxmox, mais j’avoue que s’il faut passer par des commandes Docker à chaque fois qu’il faut installer un truc, je préfèrerais éviter.
Donc, je suis en pleine phase de réflexion et j’appécie vos commentaires.
De nouveau ça ne répond pas à ta question mais si tu as déjà influx c’est que tu as choisi de garder sur le long terme les infos des sensors de HA.
Donc raison de plus pour ne laisser qu’une petite durée de rétention pour la base (mariadb) de HA ( perso j’ai une semaine )
Et si tu as déjà autant dans influx, c’est que tu ne filtres rien. La aussi il ne faut envoyer que le strict minimum (par exemple ne pas envoyer les infos de temps !)
Et pour le NUC, laissé un filtre de recherche sur LBC. Ça a bien augmenté mais il y a parfois de bonnes occasions.
Phil