Actuellement je suis sur un optiplex 5050 avec un processeur pentium. Mon instance HA tourne sur une vm proxmox.
J’ai bidouillé avec ollama et mon Mac mini m4 et c’est dingue d’avoir une ia locale!! J’ai même pu l’intégrer à ha pour me faire les descriptions de scénario. Bon c’est sympas mais pas dingo non plus. Je vois émerger de plus en plus d’usage de notification intelligente ou analyse d’image qui vont plus loin que la simple notification classique.
J’aimerai faire tourner frigate ou une IA ollama pour la brancher à HA sur un serveur dédié.
Je ne sais pas si l’on mon serveur domotique peut géré mais je peux changer le proc pour un I7 par exemple si ça peut aider. Bref je me pose donc la question du hardware.
Question : un optiplex core I7 7 eme gen peut il faire tourner quelque chose d’intéressant ?
Est ce que je doit basculer mon instance home assistant sur un box dédiée ( home assistant Green par exemple) pour alloué toute la puissance du dell à frigate et ou l’IA?..
j’espère ne pas tout confondre. Merci à vous pour vos conseils
A mon avis, puisque tu as VM et proxmox, tu dois pourvoir créer ce que tu veux pour tester tes IA/frigate dans une VM/LXC. Et voir si la matos est suffisant … Il sera toujours temps d’investir après
Je comptais tester effectivement ce week end avec une vm de test, mais je ne sais pas quel puissance il faut pour quel usage. Si le model rame sur mon matos actuel, quelle est la marge de manœuvre?
Je pensais l’avoir fait en indiquant que je souhaite faire de l’analyse d’image pour en extraire les contextes et rendre les notifications plus intelligentes.
J’avoue que pour l’instant je suis en phase d’investigation je serais curieux d’avoir des retours d’expérience sur ce genre d’intégration et surtout sur :
•la pertinence de frigate ou d’une ia en locale branchée à HA
•le matos nécessaire pour avoir quelque chose d’exploitable : exemple ..une ia qui ne met pas 10 minutes à générer du texte ou analyser l’image.
je prends peut être aussi la réflexion par le mauvais bout ..
Oui mais pas assez précis. Tu n’as déjà pas limité ton choix Frigate ou une IA pour analyser une image. ça laisse la possibilité de beaucoup de choses.
Et évidement en plus le contexte est important : combien de caméra ainsi que la résolution par exemple
Et aussi ce que tu cherches dans les images : des humains, des animaux, des pizzas, des plantes vertes… tout ça à la fois.
Bref, il n’y a pas de vraies règles de calcul, c’est empirique. Commence par jeter un oeil sur frigate, la détection est de quelques secondes et encore plus efficace quand tu utilises un TPU
Autant dire qu’avec ton matos actuel avec frigate ça vas râmer du cul alors pour un llm tu peux oublier
Il faut au moins des cpu (et des gpu) capables d’accélérer le traitement de l’IA , on commence à voir ces cpu arriver doucement
Quand tu vois ce qu’est capable de faire un cpu N100 (ou son évolution N150) pour un cpu d’entrée de gamme tu as des performances suffisantes pour frigate pour au moins 4 caméras
Pour un LLM c’est encore un autre délire pour des performances utilisables sans y laisser un organe
Par curiosité, pourquoi pas faire tourner HA et le reste sur le Mac mini via Docker ? Le Mac mini avec sa consommation minimal en idle me semble parfaitement adapté (c’est ce que j’envisage de faire en 2026 probablement quand le M5 va sortir).
Bonne question j’ai pris l’habitude d’éteindre le macmini quand je ne l’utilise pas. Effectivement il consomme très peu en idle.
J’avais fait quelque test de LLM Ollama et ça répondait bien. Par contre ça fait un peu usine a gaz avec un serveur domotique d’un coté et le mac mini de l’autre a laisser allumé.