Oracle中的Trace文件

如果一个系统的执行效率比较低,一个比较好的方法是通过跟踪用户的会话并且使用tkprof工具使用排序功能格式化输出,从而找出有问题的SQL语句。
例如首先从os上利用top命令找到当前占用cpu资源最高的一个进程的PID号9999;
然后在数据库中根据PID号找到相应的sid和serial#
select s.sid,s.serial# from v$session s,v$process p where s.paddr=p.addr and p.spid='9999';
然后通过exec dbms_monitor.session_trace_enable(sid,serial#)开启trace;
最后利用tkprof察看trace输出。

开启Trace文件输出
可以通过以下方法开启Trace文件输出(需要ALTER SESSION系统权限):
1) alter session/system set sql_trace=true
2) exec dbms_monitor.session_trace_enable/dbms_monitor.database_trace_enable
3) alter session set events '10046 trace name context forever, level 12'

Trace文件的位置
· 如果使用专用服务器连接,会在USER_DUMP_DEST参数指定的目录中生成跟踪文件。
· 如果使用共享服务器连接,则在BACKGROUND_DUMP_DEST参数指定的目录中生成跟踪文件。
Oracle11g之前,可以通过如下语句获得Trace文件路径:
select c.value || '/' || d.instance_name || '_ora_' || a.spid || '.trc' trace
  from v$process a, v$session b, v$parameter c, v$instance d
 where a.addr = b.paddr
   and b.audsid = userenv('sessionid')
   and c.name = 'user_dump_dest';
Oracle11g之后,可以访问v$diag_info来获得Trace文件存放路径:
select * from v$diag_info where name='Default Trace File';

可以使用参数TRACEFILE_IDENTIFIER,为跟踪文件名增加一个可以惟一标识的串。例如:
alter session set tracefile_identifier='my_trace_file';
这样,生成的Trace文件名就会以my_trace_file.trc结尾。

利用tkprof工具分析Trace文件
可以利用tkprof工具分析Trace文件,产生一个更加清晰合理的输出结果。tkprof可以在$ORACLE_HOME/bin下面找到。

1)命令格式
命令格式为:
tkprof tracefile outputfile [explain= ] [table= ] [print= ] [insert= ] [sys= ] [sort= ]
参数说明:
tracefile:要分析的trace文件 
outputfile:格式化后的文件
explain=user/password@connectstring 
table=schema.tablename 
    上述两个参数是一起使用的,explain指示tkprof要为在跟踪文件中找到的每个SQL语句提供一个执行计划。
    这是通过执行SQL语句EXPLAIN PLAN通过连接数据库对在trace文件中出现的每条sql语句查看执行计划,并将之输出到outputfile中。
    指定的table名将提供给EXPLAIN PLAN语句。
print=n:只列出最初N个sql执行语句,默认是无限制的,只有在和参数sort一起使用的时候才有意义
insert=filename:会产生一个sql文件,运行此文件可将收集到的数据insert到数据库表中
sys=no:sys用户运行的SQL语句(例如,解析操作阶段对数据字典的递归查询)不输出到输出文件中。
record=filename:可将非嵌套执行的sql语句过滤到指定的文件中去 
waits=yes|no:是否统计任何等待事件,默认是yes 
aggregate=yes|no:是否将相同sql语句的执行信息合计起来,默认为yes 
sort= option:设置排序选项,可以用逗号分隔多个选项。默认是跟踪文件中发现的SQL顺序。具体选项可以查看tkprof的命令帮助输出得到。

例如:
tkprof <tracefile> <outputfile> sys=no sort=prsela,exeela,fchela
    prsela  elapsed time parsing
    exeela  elapsed time executing
    fchela  elapsed time fetching

2)输出结果格式
输出结果中,首先是头部内容。
之后针对每个SQL语句提供如下信息:SQL 语句文本、执行统计、关于解析的信息、执行计划以及等待事件。
执行计划以及等待事件是可选的,只有存储在跟踪文件中才会出现。
例如下面的输出:
********************************************************************************

SQL ID: 0c07h414zr55p
Plan Hash: 1968341081
update emp set sal=2451 
where
 empno=7782


call     count       cpu    elapsed       disk      query    current        rows
------- ------  -------- ---------- ---------- ---------- ----------  ----------
Parse        2      0.01       0.00          0          0          0           0
Execute      2      0.00       3.71          0          3          7           2
Fetch        0      0.00       0.00          0          0          0           0
------- ------  -------- ---------- ---------- ---------- ----------  ----------
total        4      0.01       3.72          0          3          7           2

Misses in library cache during parse: 1
Optimizer mode: ALL_ROWS
Parsing user id: 86  (TONY)

扫描二维码关注公众号,回复: 1420296 查看本文章

Rows     Row Source Operation
-------  ---------------------------------------------------
      0  UPDATE  EMP (cr=1 pr=0 pw=0 time=0 us)
      1   INDEX UNIQUE SCAN EMP_PK (cr=1 pr=0 pw=0 time=0 us cost=0 size=26 card=1)(object id 73464)


Rows     Execution Plan
-------  ---------------------------------------------------
      0  UPDATE STATEMENT   MODE: ALL_ROWS
      0   UPDATE OF 'EMP'
      1    INDEX   MODE: ANALYZED (UNIQUE SCAN) OF 'EMP_PK' (INDEX 
               (UNIQUE))

********************************************************************************

执行统计有如下的几列:
count:表示执行的数据库调用数量。
cpu:表示处理数据调用花去的CPU时间,以秒为单位。
elapsed:是处理数据库调用花费的总的时间,以秒为单位,如果这个值比CPU时间高,下一节关于执行统计中的等待事件会提供在等待的资源或同步点。
disk:表示物理读的数据块数量。要当心,这不是物理I/O操作的数量,物理I/O操作数在关于等待事件一节给出。如果这个值大于逻辑读的数量(disk > query +current),这意味着数据块填充进了临时表空间。
query:是在一致性模式(consistent mode)下从高速缓存逻辑读取的块数量。通常,这类型的逻辑读用作查询。 
current:代表在当前模式下从高速缓存逻辑读取的块数量。通常,这类逻辑读被INSERT、DELETE、MERGE以及UPDATE等语句所使用。
rows:代表处理的数据行数量。对于查询来说,这就是获取的行数量。对于INSERT、DELETE、MERGE以及UPDATE 等语句来说,这是所影响的行数量。

关于解析的信息开始两行Misses in library cache during parse和Misses in library cache during execute提供了发生在解析和执行调用阶段的硬解析数量。
如果在执行调用时没有硬解析发生,Misses in library cache during execute这一行将不存在。
接下来是优化器模式以及用于解析SQL语句的用户。

执行计划分为两部分,第一部分称为行源操作(Row Source Operation ),是游标关闭且开启跟踪情况下写到跟踪文件中的执行计划。这意味着如果应用程序不关闭游标而重用它们的话,不会有新的针对重用游标的执行计划写入到跟踪文件中。第二部分,叫做执行计划 (Execution Plan),是由指定了explain参数的TKPROF生成的。既然这是随后生成的,所以和第一部分不一定完全匹配。万一你看到不一致,前者是正确的。
两个执行计划都通过Rows列提供执行计划中每个操作返回的行数(不是处理的--要注意)。 
对于每个行源操作来说,可能还会提供如下的运行时统计: 
cr是一致性模式下逻辑读出的数据块数。
pr是从磁盘物理读出的数据块数。
pw是物理写入磁盘的数据块数。
time是以微秒表示的总的消逝时间。要注意根据统计得到的值不总是精确的。实际上,为了减少开销,可能用了采样。
cost是操作的评估开销。这个值只有在Oracle 11g才提供。
size是操作返回的预估数据量(字节数)。这个值只有在Oracle 11g才提供。 
card是操作返回的预估行数。这个值只有在Oracle 11g才提供。

输出文件的结尾给出了所有关于跟踪文件的信息。首先可以看到跟踪文件名称、版本号、用于这个分析所使用的参数sort的值。然后,给出了所有会话数量与SQL语句数量。

 

参考至:http://blog.csdn.net/fw0124/article/details/6899162

如有错误,欢迎指正

邮箱:[email protected]

猜你喜欢

转载自czmmiao.iteye.com/blog/1330048