随着项目越来越依赖Erlang,碰到的问题也随之增加。前段时间线上系统碰到内存高消耗问题,记录一下troubleshooting的分析过程。线上系统用的是Erlang R16B02版本。
问题描述
有几台线上系统,运行一段时间,内存飙升。系统模型很简单,有网络连接,pool中找新的process进行处理。top命令观察,发现内存都被Erlang进程给吃完了,netstat命令查看网络连接数,才区区几K。问题应该是Erlang内存泄漏了。
分析方法
Erlang系统有个好处,可以直接进入线上系统,在生产现场分析问题。我们系统是通过Rebar管理的,可以用不同方法进入线上系统。
本机登录
可以直接登录到线上机器,然后通过以下命令attach到Erlang系统里面
$ cd /path/to/project $ rel/xxx/bin/xxx attach (node@host)>
获取Erlang系统的cookie
$ ps -ef |grep beam %%找到参数 --setcookie
$ erl --setcookie cookiename -name test@127.0.0.1
Erlang R16B02 (erts-5.10.3) [source] [64-bit] [smp:2:2] [async-threads:10] [hipe] [kernel-poll:false]Eshell V5.10.3 (abort with ^G) (test1@127.0.0.1)1> net_adm:ping('node@127.0.0.1'). pong (test1@127.0.0.1)2> nodes(). ['node@127.0.0.1'] (test1@127.0.0.1)3> User switch command --> h c [nn] - connect to job i [nn] - interrupt job k [nn] - kill job j - list all jobs s [shell] - start local shell r [node [shell]] - start remote shell q - quit erlang ? | h - this message --> r 'node@127.0.0.1' --> j 1 {shell,start,[init]} 2* {'node@127.0.0.1',shell,start,[]} --> c 2
分析流程
Erlang有很多工具,可以分析系统信息,比如appmon,webtool。但是系统内存严重不足,已经没有办法启动这些工具了,幸好还有Erlang shell。
Erlang shell自带了很多有用的命令,可以用help()方法查看
> help().
Erlang系统内存消耗情况
top结果显示,是内存问题,所以第一步可以先看看Erlang的系统内存消耗情况
> erlang:memory().
Erlang process创建数量
线上系统发现主要内存消耗都在process上面,接下来要分析,是process内存泄漏了,还是process创建数量太多导致。
> erlang:system_info(process_limit). %%查看系统最多能创建多少process > erlang:system_info(process_count). %%当前系统创建了多少process
查看单个process的信息
既然是因为process因为某种原因堆积了,只能从process里找原因了
先要获取堆积process的pid
> i(). %%返回system信息 > i(0,61,886). %% (0,61,886)是pid
> erlang:process_info(pid(0,61,886), current_stacktrace). > rp(erlang:process_info(pid(0,61,886), backtrace)).
0x00007fbd6f18dbf8 Return addr 0x00007fbff201aa00 (gen_event:rpc/2 + 96) y(0) #Ref<0.0.2014.142287> y(1) infinity y(2) {sync_notify,{log,{lager_msg,[], ..........}} y(3) <0.61.886> y(4) <0.89.0> y(5) []
问题原因
查看lager的文档,发现以下信息
Prior to lager 2.0, the gen_event at the core of lager operated purely in synchronous mode. Asynchronous mode is faster, but has no protection against message queue overload. In lager 2.0, the gen_event takes a hybrid approach. it polls its own mailbox size and toggles the messaging between synchronous and asynchronous depending on mailbox size.{async_threshold, 20}, {async_threshold_window, 5}
This will use async messaging until the mailbox exceeds 20 messages, at which point synchronous messaging will be used, and switch back to asynchronous, when size reduces to 20 - 5 = 15.
If you wish to disable this behaviour, simply set it to 'undefined'. It defaults to a low number to prevent the mailbox growing rapidly beyond the limit and causing problems. In general, lager should process messages as fast as they come in, so getting 20 behind should be relatively exceptional anyway.
当前系统打开了debug log,洪水般的log把系统给冲垮了。
老外也碰到类似问题,这个thread给我们的分析带来很多帮助,感谢一下。
总结
Erlang提供了丰富的工具,可以在线进入系统,现场分析问题,这个非常有助于高效、快速的定位问题。同时,强大的Erlang OTP让系统有更稳定的保证。我们还会继续挖掘Erlang,期待有更多的实践分享。