宋宝华:用eBPF/bcc分析系统性能的一个简单案例

原创 宋宝华 Linux阅码场 2019-12-25


bcc是eBPF的一种前端,当然这个前端特别地简单好用。可以直接在python里面嵌入通过C语言写的BPF程序,并帮忙产生BPF bytecode和load进入kernel挂载kprobe、tracepoints等上面执行。之后,还可以从python取出来C函数里面导出的maps数据以及per-event数据并进行打印。
宋宝华:用eBPF/bcc分析系统性能的一个简单案例
详细的原理参见:
http://www.brendangregg.com/ebpf.html
一个非常简单的教程来自:
https://github.com/iovisor/bcc/blob/master/docs/tutorial_bcc_python_developer.md

我们特别看一下其中的bitehist.py例子:
宋宝华:用eBPF/bcc分析系统性能的一个简单案例
上述程序通过kprobe截获了内核的blk_account_io_completion()函数,并将每个request的data_len转换为单位KBytes后,进行取对数,加入一个HISTOGRAM(属于maps中的一种),之后python会调用

b["dist"].print_log2_hist("kbytes")

打印出这个hist图,从而可以给用户呈现出request磁盘请求的size分布情况:
宋宝华:用eBPF/bcc分析系统性能的一个简单案例

另外一个经典的例子是通过kprobe截获函数的入口和返回点,得到函数的调用延迟:
宋宝华:用eBPF/bcc分析系统性能的一个简单案例
上面的这个BPF C程序把在函数进入(kprobe)的时候,把当前时间加入一个start HASH(key是进程的pid,value是函数的开始时间),在函数出口的地方(kretprobe)通过start.loopup(&pid)取得函数入口时间,然后在函数出口的时候,把出口时间减去入口时间的结果求对数后放入一个HISTOGRAM。之后python可以获取这个HIST并打印:
宋宝华:用eBPF/bcc分析系统性能的一个简单案例
这样可以呈现出延迟的热点分布。

anyway,了解了BPF c和python的语法后,这样的程序并不难写。但是,很多时候,其实我们并没有必要自己写代码,因为牛人们已经给我们写了很多现成的工具了。
比如,分析bio的延迟:
宋宝华:用eBPF/bcc分析系统性能的一个简单案例
大量的延迟集中在512-1023和1024-2047之间。另外4096-8191也是这个multimodal延迟的另外一个热点。
这个东西就要比iostat命令更加细致靠谱一些,因为iostat命令只是简单地显示平均延迟啥的,并不显示延迟的分布情况,比如man iostat可以获知:

await - The average time (in milliseconds) for I/O requests issued to the device to be served. This includes the time spent by the requests in queue and the time spent servicing them.

但是,很多时候延迟呈现为一个multimodal的特点,会有多个峰值区域:
宋宝华:用eBPF/bcc分析系统性能的一个简单案例
平均值,看起来,有时候没有那么accurate。比如一个班上的学生,平均分70分,但是无法呈现这个班的童鞋的如下特点:

  1. 有一堆差生都是30分左右
  2. 有一堆中等生都是60分左右
  3. 有一堆优等生都是90分左右
    如果是HIST图的话,它的分布会类似:
    宋宝华:用eBPF/bcc分析系统性能的一个简单案例
    看起来更加精确一些。
    下面我们尝试用funclatency这个现成的工具来分析代码里面的usleep(100)究竟真正延迟多少,写一个最简单的应用程序,编译为a.out:
    宋宝华:用eBPF/bcc分析系统性能的一个简单案例
    运行后,我们来得到usleep(100)调用内核do_nanosleep的真实延迟:
    宋宝华:用eBPF/bcc分析系统性能的一个简单案例
    其实usleep(100)大面积集中在256-511us。所以,这个usleep(100)究竟有多准,天知道。

十里平湖霜满天,寸寸青丝愁华年。
对月形单望相护,只羡鸳鸯不羡仙。


(完)

猜你喜欢

转载自blog.51cto.com/15015138/2555492