Ce que tu dis sur les gens qui ne peuvent plus allumer une lumière sans leur scénario, c’est un bon rappel : si l’automatisation devient une dépendance rigide, on a raté l’objectif.
Sur l’IA, oui, les hallucinations existent encore et les limites sont bien réelles. Mais est-ce que ce n’est pas justement le rôle de l’utilisateur « averti » (comme on l’est souvent ici sur Jeedom) d’intégrer ces outils avec des garde-fous intelligents ? Par exemple, filtrer les réponses de l’IA, ou limiter son usage à des suggestions, jamais à des actions critiques sans validation.
Pour l’empreinte carbone des LLM, c’est un vrai sujet aussi, mais là encore : est-ce que ce n’est pas à nous de choisir où et comment on les utilise ? Un serveur local avec un petit modèle bien entraîné, ça peut faire beaucoup, sans forcément passer par des géants du cloud.
Bref, comme toute techno, ça dépend surtout de comment on l’intègre, pas juste ce qu’elle est.
Attention quand même aux raccourcis,
une grosse partie de l’emprunte carbone d’un LLM, c’est son entrainement, et comme souvent (voiture, ordinateurs, LLM), c’est la production qui a la plus grosse empreinte carbone, pas l’usage. Un petit serveur (qui a une empreinte carbone importante pour sa production - avec nécessité d’un GPU quoi qu’il arrive) + un LLM en local qui a couté pour être entrainé ne sera pas forcement plus efficace en terme d’empreinte carbone qu’une requête ponctuelle sur un LLM en mode SAS (type chatGPT, gemini ou mistral).
Je ne dis pas que ce n’est pas une solution (notamment en terme de souveraineté numérique), mais tout doit rentrer en ligne de compte.
En comme toujours, ce qui consomme le moins, c’est ce qu’on achète pas