Box home assistant ou serveur pour IA

Salut tout le monde.

Actuellement je suis sur un optiplex 5050 avec un processeur pentium. Mon instance HA tourne sur une vm proxmox.

J’ai bidouillé avec ollama et mon Mac mini m4 et c’est dingue d’avoir une ia locale!! J’ai même pu l’intégrer à ha pour me faire les descriptions de scénario. Bon c’est sympas mais pas dingo non plus. Je vois émerger de plus en plus d’usage de notification intelligente ou analyse d’image qui vont plus loin que la simple notification classique.

J’aimerai faire tourner frigate ou une IA ollama pour la brancher à HA sur un serveur dédié.

Je ne sais pas si l’on mon serveur domotique peut géré mais je peux changer le proc pour un I7 par exemple si ça peut aider. Bref je me pose donc la question du hardware.

Question : un optiplex core I7 7 eme gen peut il faire tourner quelque chose d’intéressant ?

Est ce que je doit basculer mon instance home assistant sur un box dédiée ( home assistant Green par exemple) pour alloué toute la puissance du dell à frigate et ou l’IA?..

j’espère ne pas tout confondre. Merci à vous pour vos conseils

Salut,

A mon avis, puisque tu as VM et proxmox, tu dois pourvoir créer ce que tu veux pour tester tes IA/frigate dans une VM/LXC. Et voir si la matos est suffisant … Il sera toujours temps d’investir après

Salut. Merci pour ton retour

Je comptais tester effectivement ce week end avec une vm de test, mais je ne sais pas quel puissance il faut pour quel usage. Si le model rame sur mon matos actuel, quelle est la marge de manœuvre?

Comme tu n’as pas non plus décrit les usages… De toutes façons tu verra bien en direct.

Je pensais l’avoir fait en indiquant que je souhaite faire de l’analyse d’image pour en extraire les contextes et rendre les notifications plus intelligentes.

:face_with_monocle: J’avoue que pour l’instant je suis en phase d’investigation je serais curieux d’avoir des retours d’expérience sur ce genre d’intégration et surtout sur :

•la pertinence de frigate ou d’une ia en locale branchée à HA

•le matos nécessaire pour avoir quelque chose d’exploitable : exemple ..une ia qui ne met pas 10 minutes à générer du texte ou analyser l’image.

je prends peut être aussi la réflexion par le mauvais bout ..:rofl:

Oui mais pas assez précis. Tu n’as déjà pas limité ton choix Frigate ou une IA pour analyser une image. ça laisse la possibilité de beaucoup de choses.
Et évidement en plus le contexte est important : combien de caméra ainsi que la résolution par exemple
Et aussi ce que tu cherches dans les images : des humains, des animaux, des pizzas, des plantes vertes… tout ça à la fois.

Bref, il n’y a pas de vraies règles de calcul, c’est empirique. Commence par jeter un oeil sur frigate, la détection est de quelques secondes et encore plus efficace quand tu utilises un TPU

Ok effectivement je pense que mon besoin n’est pas encore super clair.

Je vais tester frigate déjà et voir ce que ça donne.

Tpu typiquement cest la clé Google coral ? Il y a vraiment un plus a l’utiliser?

Merci à toi

Autant dire qu’avec ton matos actuel avec frigate ça vas râmer du cul alors pour un llm tu peux oublier

Il faut au moins des cpu (et des gpu) capables d’accélérer le traitement de l’IA , on commence à voir ces cpu arriver doucement
Quand tu vois ce qu’est capable de faire un cpu N100 (ou son évolution N150) pour un cpu d’entrée de gamme tu as des performances suffisantes pour frigate pour au moins 4 caméras

Pour un LLM c’est encore un autre délire pour des performances utilisables sans y laisser un organe

Outch. Ok.. je m’en doutais. Merci pour ton retour. Est ce qu’une clé coral va aider ou c’est mort mort ?

Une clé coral pour frigate oui pour la partie reconnaissance oui mais pour la partie traitement graphique ne servira a rien

1 « J'aime »

Bon je vais faire le point sur les usages et pourquoi choper un tpu pour faire quelque truc sympas.

Merci pour les infos !!

Comme l’a dit @Pulpy-Luke fait des tests avec ton matos actuel au moins pour frigate

(Pour le llm tu peux oublier par contre )

1 « J'aime »

Hello !

Par curiosité, pourquoi pas faire tourner HA et le reste sur le Mac mini via Docker ? Le Mac mini avec sa consommation minimal en idle me semble parfaitement adapté (c’est ce que j’envisage de faire en 2026 probablement quand le M5 va sortir).

Bonne question j’ai pris l’habitude d’éteindre le macmini quand je ne l’utilise pas. Effectivement il consomme très peu en idle.
J’avais fait quelque test de LLM Ollama et ça répondait bien. Par contre ça fait un peu usine a gaz avec un serveur domotique d’un coté et le mac mini de l’autre a laisser allumé.

C’est clair qu’un processeur M de chez Apple fonctionne très bien pour un LLM

De tout façon faire tourner un LLM en local c’est une usine à gaz fait pas se leurrer

La dessus tu peux t’aider de la série de 3 vidéos de Howmation sur le sujet, la partie 2 devrait celle qui te concerne le plus pour le moment