Bonjour à tous,
Je suis maintenant sur VM Proxmox, debian 10. Jeedom en dernière version.
L’installation est fraiche (avec restauration) venant de migrer d’un NUC Intel vers Proxmox.
Le problème que j’évoque ci dessous existant sur le NUC Intel et c’est à cause de cela que j’ai accélerer le passage sur VM.
J’ai plus de 80 plugins sur cette VM et j’ai zigbeelinker, teleinfo et blea en protocole. Zwave est sur une jeedom smart en déportée.
J’ai un problème avec le plugin plugin-homeassistantconnect
J’ai pu le configurer avec succès, je vois bien les commandes et informations sans problème.
Par contre, au bout de quelques heures, je remarque que l’espace disque qui fond de plus d’1 Go toutes les heures. Au bout d’un moment, plus d’espaces et c’est parti pour les erreurs à la chaine et l’interface qui rame jusqu’au reboot.
Dans la recherche de la raison, j’ai désactivé un maximum de plugin jusqu’à ce que le problème disparaisse puis j’activais les plugins 1 par 1 en attendant pour voir quand le problème allait apparaitre.
Ce m’a permis d’identifier que c’est le plugin homeassistantconnect qui consomme jusqu’a saturation.
Aussitot que je desactive le plugin, l’espace est rendu.
J’ai regardé avec diffférentes commandes pour trouver où est ce fichier ou repertoire qui grossit sans succès (commande du -aBm / 2>/dev/null | sort -nr | head -n 10).
Voici par exemple 2 df -h pour illustration, le premier après 2 heures de plugin actif, le second juste après avoir désactivé le plugin :
Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur
udev 2,9G 0 2,9G 0% /dev
tmpfs 597M 61M 536M 11% /run
/dev/sda1 62G 19G 41G 32% /
tmpfs 3,0G 0 3,0G 0% /dev/shm
tmpfs 5,0M 0 5,0M 0% /run/lock
tmpfs 3,0G 0 3,0G 0% /sys/fs/cgroup
tmpfs 256M 28M 229M 11% /tmp/jeedom
overlay 62G 19G 41G 32% /var/lib/docker/overlay2/a3e4a3ff33d20df58e698c3aa07a243ccb4de30dd1447ecf7ae46602065eb1a5/merged
tmpfs 597M 0 597M 0% /run/user/1000
Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur
udev 2,9G 0 2,9G 0% /dev
tmpfs 597M 61M 536M 11% /run
/dev/sda1 62G 7,9G 51G 14% /
tmpfs 3,0G 0 3,0G 0% /dev/shm
tmpfs 5,0M 0 5,0M 0% /run/lock
tmpfs 3,0G 0 3,0G 0% /sys/fs/cgroup
tmpfs 256M 28M 229M 11% /tmp/jeedom
overlay 62G 7,9G 51G 14% /var/lib/docker/overlay2/a3e4a3ff33d20df58e698c3aa07a243ccb4de30dd1447ecf7ae46602065eb1a5/merged
tmpfs 597M 0 597M 0% /run/user/1000
Sur cet exemple, plus de 11 Go avaient été consommés
J’ai mis les log sur error car en défaut j’avais vite un fichier de 400 Mo dans le répertoire log mais cela n’allait pas au Go d’espace consommé que j’ai remarqué.
Est ce que quelqu’un à des pistes ?
Merci d’avance.