Bonjour à tous,
Utilisateur de google assistant, je teste actuellement Assist. Grace à extended_openai_conversation j’ai installé ChatGPT comme agent.
C’est très simple et on trouve plein de tutos pour cela.
C’est intéressant de parler à chatGPT plutot qu’à google assistant car on peut dépasser les simples ordres et questions sur les capteurs.
A terme, j’envisage d’installer une IA locale étant donné que c’est maintenant très accessible en francais.
Mais j’ai encore du mal à imaginer tout le potentiel et l’intérêt qu’on peut en tirer en domotique.
Je serais donc très intéressé par un retour d’expérience de ceux qui ont testé cela.
Qu’est ce qu’un agent IA peut apporter à la domotique au quotidien ?
En fait ma question portait sur l’usage, pas la technologie.
Imagine que tous les retours d’expérience disent que cela n’apporte rien, il n’y aura pas de question de technologie. A l’inverse selon les usages qui pourraient être mis en valeur, on pourrait être amené à choisir une technologie, dimensionner un hardware et définir un budget…
Hello ! Alors je n’ai pas testé, mais suite à la dernière mise à jour de juin, j’ai très envie d’essayer A terme le but serait de rendre la maison vraiment plus intelligente, avec une IA capable de faire des propositions d’amélioration pour optimiser la consommation d’énergie par exemple, par rapport à nos habitudes, etc. Aqara travaille d’ailleurs là dessus pour son Hub M3.
Avec une IA locale ce serait en effet pas mal. Ollama comprend il le francais par contre ? Sinon une intégration avec Mistral serait intéressante aussi !
J’ai l’impression que la dernière mise à jour apporte des fonctionnalités équivalentes à ce que j’ai pu voir en utilisant l’intégratino extended open ai.
Donc je te rejoins tout à fait.
Effectivement une seconde étape pourrait être une installation locale avec Mistral.
Merci pour ce lien hyper pertinent !
Je viens d’implémenter cette idée pour l’aération de la maison. j’avais déjà un système qui comparait l’humidité absolue intérieure et extérieure pour me conseiller d’ouvrir / fermer les fenêtres afin de réduire l’humidité mais les messages étaient un peu barbants. Voilà une touche « d’humanité »
Bonjour, je fais un petit hors sujet mais j’ai tenté de mettre en place openai conversation en suivant cette vidéo mais j’ai cette erreur en permanence :
Sorry, I had a problem talking to OpenAI: Error code: 400 - {'error': {'message': "This model's maximum context length is 16385 tokens. However, your messages resulted in 16858 tokens (15970 in the messages, 888 in the functions). Please reduce the length of the messages or functions.", 'type': 'invalid_request_error', 'param': 'messages', 'code': 'context_length_exceeded'}}