4.1 Mémoire suffisante

Bonjour

Je viens de passer sur 4.1.17 sous Buster (image VM Jeedom) et depuis la page santé j’ai maintenant un message en rouge « Mémoire suffisante » que je n’avais pas avant sous Strech.

Pour information je tourne sur une VM avec suffisamment de ressources :

J’ai un benchmark à 1.6, j’ai modifié le php.ini à 512Mo (au lieu de 256 par defaut) rien y fait. mon dmesg affiche :

[28107.719934] mysqld invoked oom-killer: gfp_mask=0x6200ca(GFP_HIGHUSER_MOVABLE), nodemask=(null), order=0, oom_score_adj=0
[28107.719935] mysqld cpuset=/ mems_allowed=0
[28107.719947] CPU: 0 PID: 803 Comm: mysqld Tainted: G           OE     4.19.0-13-amd64 #1 Debian 4.19.160-2
[28107.719948] Hardware name: VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform, BIOS 6.00 04/05/2016
[28107.719948] Call Trace:
[28107.719992]  dump_stack+0x66/0x90
[28107.720007]  dump_header+0x6b/0x283
[28107.720013]  oom_kill_process.cold.30+0xb/0x1cf
[28107.720016]  ? oom_badness+0x23/0x140
[28107.720020]  out_of_memory+0x1a5/0x450
[28107.720022]  __alloc_pages_slowpath+0xbd8/0xcb0
[28107.720026]  __alloc_pages_nodemask+0x28b/0x2b0
[28107.720029]  filemap_fault+0x333/0x780
[28107.720037]  ? alloc_set_pte+0xf2/0x560
[28107.720039]  ? filemap_map_pages+0x1ed/0x3a0
[28107.720104]  ext4_filemap_fault+0x2c/0x40 [ext4]
[28107.720113]  __do_fault+0x36/0x130
[28107.720120]  __handle_mm_fault+0xdf9/0x11f0
[28107.720124]  handle_mm_fault+0xd6/0x200
[28107.720134]  __do_page_fault+0x249/0x4f0
[28107.720146]  ? page_fault+0x8/0x30
[28107.720148]  page_fault+0x1e/0x30
[28107.720157] RIP: 0033:0x7f28488bffd0
[28107.720161] Code: Bad RIP value.
[28107.720162] RSP: 002b:00007f281effcc18 EFLAGS: 00010202
[28107.720163] RAX: 0000000000000001 RBX: 0000560dce152e80 RCX: 0000000000000000
[28107.720164] RDX: 0000000000000001 RSI: 00007f281effcc20 RDI: 0000000000000000
[28107.720164] RBP: 00007f281effcc30 R08: 0000000000000000 R09: 00007f281effd700
[28107.720165] R10: 00007f281effcc40 R11: 0000000000000206 R12: 0000000000000001
[28107.720166] R13: 00000000000f4240 R14: 0000560dce152e90 R15: 00007f281effcca8
[28107.720178] Mem-Info:
[28107.720184] active_anon:240905 inactive_anon:85640 isolated_anon:0
                active_file:194 inactive_file:224 isolated_file:26
                unevictable:0 dirty:0 writeback:0 unstable:0
                slab_reclaimable:5030 slab_unreclaimable:11935
                mapped:693 shmem:1263 pagetables:4415 bounce:0
                free:12673 free_pcp:708 free_cma:0
[28107.720187] Node 0 active_anon:963620kB inactive_anon:342560kB active_file:776kB inactive_file:896kB unevictable:0kB isolated(anon):0kB isolated(file):104kB mapped:2772kB dirty:0kB writeback:0kB shmem:5052kB shmem_thp: 0kB shmem_pmdmapped: 0kB anon_thp: 4096kB writeback_tmp:0kB unstable:0kB all_unreclaimable? no
[28107.720188] Node 0 DMA free:6196kB min:480kB low:600kB high:720kB active_anon:8604kB inactive_anon:820kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:15992kB managed:15908kB mlocked:0kB kernel_stack:0kB pagetables:32kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB
[28107.720191] lowmem_reserve[]: 0 1433 1433 1433 1433
[28107.720193] Node 0 DMA32 free:44496kB min:44572kB low:55712kB high:66852kB active_anon:954932kB inactive_anon:341740kB active_file:1356kB inactive_file:1320kB unevictable:0kB writepending:0kB present:1556416kB managed:1510100kB mlocked:0kB kernel_stack:6208kB pagetables:17628kB bounce:0kB free_pcp:2832kB local_pcp:1468kB free_cma:0kB
[28107.720195] lowmem_reserve[]: 0 0 0 0 0
[28107.720196] Node 0 DMA: 27*4kB (UM) 5*8kB (UME) 4*16kB (ME) 1*32kB (E) 1*64kB (E) 4*128kB (UME) 3*256kB (UE) 3*512kB (UME) 1*1024kB (E) 1*2048kB (M) 0*4096kB = 6196kB
[28107.720202] Node 0 DMA32: 931*4kB (UMEH) 1215*8kB (UMEH) 738*16kB (UMEH) 159*32kB (UMEH) 114*64kB (UMEH) 39*128kB (UMEH) 1*256kB (M) 2*512kB (MH) 1*1024kB (M) 0*2048kB 0*4096kB = 44932kB
[28107.720208] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=1048576kB
[28107.720209] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB
[28107.720209] 1936 total pagecache pages
[28107.720212] 191 pages in swap cache
[28107.720213] Swap cache stats: add 481432, delete 481241, find 60229/86696
[28107.720213] Free swap  = 0kB
[28107.720214] Total swap = 1570812kB
[28107.720215] 393102 pages RAM
[28107.720215] 0 pages HighMem/MovableOnly
[28107.720215] 11600 pages reserved
[28107.720216] 0 pages hwpoisoned
[28107.720216] Tasks state (memory values in pages):
[28107.720217] [  pid  ]   uid  tgid total_vm      rss pgtables_bytes swapents oom_score_adj name
[28107.720232] [    347]     0   347    10570       96   118784      524             0 systemd-journal
[28107.720234] [    362]     0   362     5641        0    69632      332         -1000 systemd-udevd
[28107.720236] [    441]     0   441    12057        1    81920      383             0 VGAuthService
[28107.720238] [    448]     0   448    12206      104    90112      270             0 vmtoolsd
[28107.720239] [    449]     0   449    80534        0   135168      509             0 ModemManager
[28107.720241] [    450]     0   450    56456        0    86016      439             0 rsyslogd
[28107.720242] [    452]   104   452     2241        3    53248      178          -900 dbus-daemon
[28107.720244] [    453]   108   453     2034       68    57344       56             0 avahi-daemon
[28107.720245] [    454]     0   454     4942        9    81920      154             0 wpa_supplicant
[28107.720247] [    455]     0   455     4872       14    81920      237             0 systemd-logind
[28107.720249] [    457]     0   457     2126       25    53248       42             0 cron
[28107.720250] [    461]   108   461     1968        3    57344       70             0 avahi-daemon
[28107.720252] [    492]     0   492     2372        3    53248      321             0 dhclient
[28107.720253] [    494]     0   494     1372        0    53248       44             0 atd
[28107.720255] [    503]     0   503    59818        0    98304      247             0 polkitd
[28107.720256] [    527]     0   527    27586        0   110592     1954             0 unattended-upgr
[28107.720258] [    548]     0   548    62693      411   126976     2317             0 fail2ban-server
[28107.720259] [    555]     0   555     3963        0    73728      215         -1000 sshd
[28107.720261] [    563]   107   563    19633       14    69632      133             0 ntpd
[28107.720264] [    566]     0   566     1403        0    49152       32             0 agetty
[28107.720266] [    581]     0   581   143432       50   155648     1089             0 usbsrvd
[28107.720267] [    640]     0   640    58705      181   212992     1899             0 apache2
[28107.720269] [    728]   111   728   401970     3800   532480    26364             0 mysqld
[28107.720270] [    775]    33   775    60655     1758   258048     1783             0 apache2
[28107.720272] [    777]    33   777    79597      631   270336     2728             0 apache2
[28107.720273] [    778]    33   778    78815      943   262144     2472             0 apache2
[28107.720275] [   1238]   110  1238     5453        3    81920      205             0 exim4
[28107.720278] [   1582]     0  1582    42766        0    94208      196             0 qmi-proxy
[28107.720280] [   1587]    33  1587    79561      917   274432     2432             0 apache2
[28107.720281] [   1879]     0  1879     2495        0    61440      104             0 sudo
[28107.720283] [   1880]     0  1880    66859     2097   135168     2764             0 python3
[28107.720284] [   1976]    33  1976   286170     3821   368640     5665             0 python3
[28107.720286] [   1981]   105  1981     1925        0    53248       47             0 uuidd
[28107.720287] [   2019]     0  2019     2495        0    61440      104             0 sudo
[28107.720289] [   2020]     0  2020   147184        0   630784     3280             0 nodejs
[28107.720291] [   2191]    33  2191      597        0    49152       21             0 sh
[28107.720292] [   2197]    33  2197   224648     1285  2301952    11936             0 node
[28107.720294] [   2450]    33  2450   118889      957   159744     2823             0 python3
[28107.720295] [   2588]    33  2588    81996     2957   135168     1178             0 python
[28107.720297] [   2628]    33  2628   102184     3874   159744     2245             0 python
[28107.720298] [   2707]    33  2707   170157     4921   237568     4660             0 python
[28107.720301] [  14733]    33 14733    79602      786   270336     2622             0 apache2
[28107.720303] [  17836]    33 17836    58582     1002   200704     1437             0 php
[28107.720305] [   7016]     0  7016     1736        0    53248      102             0 sudo
[28107.720306] [   7017]     0  7017    58582       13   217088     2408             0 php
[28107.720308] [   1409]    33  1409    78810     1858   262144     1488             0 apache2
[28107.720309] [   4695]    33  4695    78829      896   262144     2478             0 apache2
[28107.720311] [  28109]    33 28109    78836      819   262144     2596             0 apache2
[28107.720312] [  10534]     0 10534     4159        1    69632      273             0 sshd
[28107.720314] [  10595]     0 10595     5320        1    86016      365             0 systemd
[28107.720318] [  10596]     0 10596    42685        0    90112      682             0 (sd-pam)
[28107.720321] [  10615]     0 10615     1727        1    45056       71             0 bash
[28107.720323] [   3532]    33  3532    59854      781   241664     2567             0 apache2
[28107.720324] [  12864]    33 12864   229910     4189  2830336    14616             0 node
[28107.720326] [  13014]    33 13014   196459     3020  2195456    13477             0 node
[28107.720327] [  29684]    33 29684    59835     1620   241664     1712             0 apache2
[28107.720329] [  19711]    33 19711    59331      281   225280     2173             0 php
[28107.720331] [  14573]    33 14573   600732   282337  4562944   260319             0 php
[28107.720333] [  16072]     0 16072     2354       80    57344       21             0 cron
[28107.720335] [  16102]    33 16102      597       17    45056        0             0 sh
[28107.720336] [  16103]    33 16103    12595      106    77824        1             0 php
[28107.720337] [  16146]     0 16146     2354       82    57344       19             0 cron
[28107.720338] [  16166]     0 16166      597       23    40960        0             0 sh
[28107.720340] [  16170]     0 16170    12593       72    77824        0             0 php
[28107.720341] [  16171]     0 16171     2354       90    57344       11             0 cron
[28107.720343] [  16205]     0 16205     2259       66    57344       17             0 cron
[28107.720344] [  16222]    33 16222    58717      230   196608     1854             0 apache2
[28107.720346] [  16238]    33 16238    58711      205   196608     1879             0 apache2
[28107.720347] [  16240]     0 16240     2354       92    57344        9             0 cron
[28107.720349] [  16242]     0 16242    58709      229   192512     1849             0 apache2
[28107.720350] [  16243]     0 16243    58709      229   192512     1849             0 apache2
[28107.720351] [  16244]     0 16244    58709      229   192512     1849             0 apache2
[28107.720353] [  16245]     0 16245    58709      224   192512     1854             0 apache2
[28107.720354] [  16246]     0 16246    58709      224   192512     1854             0 apache2
[28107.720356] [  16247]     0 16247    58709      224   192512     1854             0 apache2
[28107.720357] [  16248]     0 16248    58709      224   192512     1854             0 apache2
[28107.720358] [  16249]     0 16249    58709      222   192512     1855             0 apache2
[28107.720360] [  16250]     0 16250    58705      219   192512     1856             0 apache2
[28107.720361] [  16251]     0 16251    58705      219   192512     1856             0 apache2
[28107.720363] [  16252]     0 16252    58705      216   192512     1859             0 apache2
[28107.720364] [  16253]     0 16253    58705      219   192512     1856             0 apache2
[28107.720365] [  16254]     0 16254    58705      219   192512     1856             0 apache2
[28107.720367] [  16255]     0 16255    58705      192   192512     1883             0 apache2
[28107.720368] [  16256]     0 16256    58705      219   192512     1856             0 apache2
[28107.720369] [  16257]     0 16257    58705      212   192512     1863             0 apache2
[28107.720371] Out of memory: Kill process 14573 (php) score 702 or sacrifice child
[28107.720446] Killed process 14573 (php) total-vm:2402928kB, anon-rss:1129072kB, file-rss:0kB, shmem-rss:276kB
[28107.841531] oom_reaper: reaped process 14573 (php), now anon-rss:0kB, file-rss:0kB, shmem-rss:268kB

Je comprends pas ce que je peux faire de plus ?

Hello

De mémoire c’est un compteur des processus tués (par jeedom ?)…
Je sais plus trop comment j’avais fait, mais j’avais purgé le compteur… je vais essayer de retrouver dans mes notes

C’est récupéré comme ça

sudo dmesg | grep oom | grep -v deprecated | wc -l

On purge (brutalement) comme ça

sudo dmesg -c

Et à voir si ça reviens

2 « J'aime »

Yes ce compteur est réinitialisé à chaque reboot, et çà revient au bout d’un ou deux jours. çà me gêne pas ce compteur ce qui me gêne c’est les process killés, çà peut faire de l’instabilité.

Si c’es récurrent, faut essayer de trouver ce qui est tué … pas le choix
=> cron, cron_execution, http + journal linux et dmseg

Bonjour,

1,5go si j’ai bien vu sur la capture (sur téléphone) c’est pas énorme non plus…

Même l’install de debian rale si la machine à moins de 2go d’après mon souvenir

Bonjour
Je suis monté à 2Go rapidement après l’écriture de mon message, sans changement. En regardant le graphe de consommation d’ESXi j’ai constaté un pic à 100% de la cpu guest au moment du message.
Cette nuit j’ai réinstallé mon jeedom sur une base Debian Buster par moi même plutot que l’image faite par jeedom, et restauré mon backup Jeedom. Je vais surveiller le comportement dans les prochains jours.
En attendant j’ai un script qui log toutes les minutes la commande ps -eo pmem,pcpu,pid,args | tail -n +2 | sort -rnk 1 | head
pour l’instant en run normal j’ai :

10.3  0.4   755 /usr/sbin/mysqld
5.5  0.0 30359 homebridge
4.8  0.0 30501 homebridge-config-ui-x
4.2  0.0  1776 node /var/www/html/plugins/pronotlink/resources/bin/server.js
3.1  0.4  2302 /usr/bin/python /var/www/html/plugins/openzwave/core/class/../../resources/openzwaved/openzwaved.py --device auto --loglevel error --port 8083 --config_folder /var/www/html/plugins/openzwave/core/class/../../resources/openzwaved/config --data_folder /var/www/html/plugins/openzwave/core/class/../../data --callback http://127.0.0.1:80/plugins/openzwave/core/php/jeeZwave.php --apikey DfwblablablaCgjCxO6 --suppressRefresh 0 --cycle 0.3 --pid /tmp/jeedom/openzwave/deamon.pid
2.0  0.1  1562 /usr/bin/python3 /var/www/html/plugins/googlecast/resources/googlecast.py --loglevel error --socketport 55012 --sockethost 127.0.0.1 --callback http://127.0.0.1:80/plugins/googlecast/core/php/googlecast.api.php --apikey bOGk4jxqblablablajdO0B --ttsweb http://192.168.0.4 --ttslang fr-FR --ttsengine gttsapi --ttsspeed 1.2 --ttscache 0 --ttsgapikey AIzaSyBH4SblablablassWDRIj_VYGQ2I --gcttsvoice fr-FR-Wavenet-E --ttsdefaultrestoretime 1300 --ttsdefaultsilenceduration 300 --daemonname local --cyclefactor 1 --defaultstatus  
2.0  0.0   795 /usr/sbin/apache2 -k start
2.0  0.0   793 /usr/sbin/apache2 -k start
2.0  0.0   792 /usr/sbin/apache2 -k start
2.0  0.0  2477 /usr/sbin/apache2 -k start

a suivre si la réinstalle change quelque chose. Ensuite, faudra dichotomiser les scenarios et plugins…

Alors la réinstalle avec un vrai buster n’a rien changé.

Par contre j’ai constaté que le pb est vraiment un pb de conso de ressources cpu/ram/disk à 100%, et que c’est toujours à la même heure, 20h30.

J’ai donc regardé mon scenario qui tourne à 20h30 et en le relançant moi même après reboot, il me refait monter les consos à 100%.

Ce scénario ne fait pas grand chose, il éteint 3 prises broadlink je vais ajuster les delais pour voir si j’ai toujours le pb.

A suivre ce soir :slight_smile:

1 « J'aime »

Hello. J’ai le même problème que Loic mais la différence c’est que je suis sur Rpi3 + SSD.
Est-ce que j’ouvre un nouveau post ou je continue ici avec Loic ?

2021-01-24T23:00:00Z
Plantage de mon Rpi3. Est-ce lié ?

C’est bon pour moi. Le pb venait bien de mon scenario d’extinction de prises à 20h30.
J’avais du faire une boucle qui ne gênait pas sur 4.0 et qui posait ce pb en 4.1 (ou strechet → buster ?).

Dans l’action poweroff d’une prise, j’avais mis en post execution de l’action le powersoff de la même prise donc boucle infirnie.

Ce sujet a été automatiquement fermé après 24 heures suivant le dernier commentaire. Aucune réponse n’est permise dorénavant.