Oracle数据库的备份、迁库

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zl570932980/article/details/78251191

Oracle数据库有三种常用的备份方法,分别是导出/导入(EXP/IMP)或者使用数据泵方法(impdp/expdp)、热备份和冷备份。导出/导入备份是一种逻辑备份,相对于导出/导入来说,热备份、冷备份是一种物理备份 。
一、exp
我们知道采用direct path可以提高导出速度。所以,在使用exp时,就可以采用直接路径模式。
这种模式有2个相关的参数:DIRECT和RECORDLENGTH参数。
DIRECT参数定义了导出是使用直接路径方式(DIRECT=Y),还是常规路径方式(DIRECT=N)。常规路径导出使用SQL SELECT语句从表中抽取数据,直接路径导出则是将数据直接从磁盘读到PGA再原样写入导出文件,从而避免了SQL命令处理层的数据转换过程,大大提高了导出效率。在数据量大的情况下,直接路径导出的效率优势更为明显,可比常规方法速度提高三倍之多。
和DIRECT=Y配合使用的是RECORDLENGTH参数,它定义了Export I/O缓冲的大小,作用类似于常规路径导出使用的BUFFER参数。建议设置RECORDLENGTH参数为最大I/O缓冲,即65535(64kb)。其用法如下:
如:exp userid=system/manager full=y direct=y recordlength=65535 file=exp_full.dmp log=exp_full.log
一些限制如下:
· 直接路径不能使用在tablespace-mode
· 直接路径不支持query参数。query只能在conventional path模式下使用。
· 如果exp版本小于8.1.5,不能使用exp导入有lob字段的表。 不过现在很少有有8版本的数据库了。这点可以忽略掉了。
· buffer选项只对conventional path exp(传统路径)有效。对于直接路径没有影响。对于直接路径,应该设置RECORDLENGTH参数。
· 对于直接路径下, RECORDLENGTH参数建议设成64k(65535)。这个值对性能提高比较大。

1.导出整个库:
Exp 用户名/密码@SID file=E:\xxx.dmp owner=用户名,回车就可以了
2.导出指定表
Exp userid=用户名/密码@SID tables=(tableName1,tableName2,…,tableNameN) file=存储路径\备份文件名.dmp
3.将数据库中的表table1中字段name以“张”打头的数据导出
Exp system/密码@数据库名 file=存放路径\文件名.dmp tables=(table1) query=\”where filed1 like ‘张%’\”

例子:

Microsoft Windows [版本 6.3.9600]
(c) 2013 Microsoft Corporation。保留所有权利。

C:\Users\Administrator>exp userid=***/***@orcl tables=MSG_DETAI
\备份\MSG_DETAILS.dmp

Export: Release 11.2.0.3.0 - Production on 星期一 109 09:10:13 2017

Copyright (c) 1982, 2011, Oracle and/or its affiliates.  All rights re


连接到: Oracle Database 11g Enterprise Edition Release 11.2.0.3.0 - 64
tion
With the Partitioning, OLAP, Data Mining and Real Application Testing
已导出 ZHS16GBK 字符集和 AL16UTF16 NCHAR 字符集
服务器使用 AL32UTF8 字符集 (可能的字符集转换)

即将导出指定的表通过常规路径...
. . 正在导出表                     MSG_DETAILS
. . 正在导出分区                        M1707_01导出了           0 行
. . 正在导出分区                        M1707_02导出了           0 行
. . 正在导出分区                        M1707_03导出了           0 行
. . 正在导出分区                        M1707_04导出了           0 行
. . 正在导出分区                        M1707_05导出了           0 行
. . 正在导出分区                        M1707_06导出了           0 行
. . 正在导出分区                        M1707_07导出了           0 行
. . 正在导出分区                        M1707_08导出了           0 行
. . 正在导出分区                        M1707_09导出了           0 行
. . 正在导出分区                        M1707_10导出了           0 行
. . 正在导出分区                        M1707_11导出了           0 行
. . 正在导出分区                        M1707_12导出了           0 行
. . 正在导出分区                        M1707_13导出了          72 行
. . 正在导出分区                        M1707_14导出了     1140191 行
. . 正在导出分区                        M1707_15

2、IMP
Oracle Import进程需要花比Export进程数倍的时间将数据导入数据库。某些关键时刻,导入是为了应对数据库的紧急故障恢复。为了减少宕机时间,加快导入速度显得至关重要。没有特效办法加速一个大数据量的导入,但我们可以做一些适当的设定以减少整个导入时间。
· IMP作了大量的跟普通方式一样的insert
· IMP时候创建索引通常是logging的,产生了大量的undo和redo

使用命令行的方式进行导入dmp文件
例子:imp my/123@orcl file=d.dmp fromuser=my touser=my ignore=y statistics=none buffer=100000000
解释: imp 新建库的用户名/新建库的密码@SID file=dmp文件路径 fromuser=从哪个用户执行导入(dmp文件中的用户) touser = 导入到哪个用户

提高IMP速度:
(1、不建议使用commit参数,因为当imp失败的时候,会导致很多后续的麻烦事儿
(2、增大buffer参数值,以便于一次读进更大的array
Imp 参数BUFFER定义了每一次读取导出文件的数据量,设的越大,就越减少Import进程读取数据的次数,从而提高导入效率。BUFFER的大小取决于系统应用、数据库规模,通常来说,设为百兆就足够了。其用法如下:
imp user/pwd fromuser=user1 touser=user2 file=/tmp/imp_db_pipe1 commit=y feedback=10000 buffer=10240000

(3、设置较大的初始化参数sort_area_size,以加快创建索引时候的排序速度,大内存启用ASMM/AMM之后感觉没有什么作用。
(4、使用INDEXES=N选项,导入数据之后再手工创建索引。
前面谈到增加排序区时,说明Imp进程会先导入数据再创建索引。导入过程中建立用户定义的索引,特别是表上有多个索引或者数据表特别庞大时,需要耗费大量时间。某些情况下,需要以最快的时间导入数据,而索引允许后建,我们就可以使用INDEXES=N只导入数据不创建索引,从而加快导入速度。
我们可以用INDEXFILE选项生成创建索引的DLL脚本,再手工创建索引。我们也可以用如下的方法导入两次,第一次导入数据,第二次导入索引。其用法
如下:

imp user/pwd fromuser=user1 touser=user2 file=/tmp/imp_db_pipe1 commit=y feedback=10000 buffer=10240000 ignore=y rows=y indexes=n

imp user/pwd fromuser=user1 touser=user2 file=/tmp/imp_index_pipe1 commit=y feedback=10000 buffer=10240000 ignore=y rows=n indexes=y

(5、增加 LARGE_POOL_SIZE
如果在init.ora中配置了MTS_SERVICE,MTS_DISPATCHERS等参数,tnsnames.ora中又没有(SERVER=DEDICATED)的配置,那么数据库就使用了共享服务器模式。在MTS模式下,Exp/Imp操作会用到LARGE_POOL,建议调整LARGE_POOL_SIZE到150M。
检查数据库是否在MTS模式下:
SQL>select distinct server from v$session; —-如果返回值出现none或shared,说明启用了MTS。
(6、增大重作日志的大小
以减少log switch的次数,也就是减少checkpoint次数,减少写磁盘的次数
(7、如果要往已经存在的表中追加数据
那么有些情况下,比如表中存在位图索引,那么最好先删除索引,再导入。否则更新索引时会产生大量等待
注意:相关的几个参数
1、db_writer_processes imp导入时,如果吧上面的几点都做好了,还有一个影响最大的参数需要确认,那就是db_writer_processes,进程的个数,可以根据服务器的CPU酌情增加。速度可以大大提高。
2、 fast_start_mttr_target平均恢复时间,需要设置一个合理的数字,比如300秒。加快系统做检查点
其他需要注意的:
1. 目标数据库设置为非归档模式,当然停掉资料库同使用Nologging更好。
2. 导入的时候可以将索引和约束全部去掉( index , constraint , trigger等, drop或者disable掉所有的index以及相关的pk)
3. 在回滚段够大的情况下,不用加commit=y参数,频繁提交会影响效率;
4. 可以考虑使用DBLINK迁移,同样使用非归档模式,insert /+ append/ into select /+ parallel(t,4)/ * from t@dblink; ;
5. 迁移的过程中时刻注意各种空间是否够用(包括redolog,archivelog,undo segment,temp tbs);
6. 其他的因素干扰(Job, Trigger, Profile等等)。
7.Imp的时候buffer给的大一些。
8.imp没有parallel,想要用parallel那么就把原表输出成多个csv然后用sqlldr
9. 可以试试物化视图(Material View),如果是单独表空间的话,也可以考虑transport tablespace 。
10.可以考虑使用EXPDP和IMPDP。
11 为 table/index设置Nologging。
12. 同平台的话,按表空间传输,更快 .
13. 用的query子查询导出导入 (exp imp) .
14.ignore=y buffer=40960000,一秒至少应该是10w记录。
15.先创建表,删除索引信息。表设置并行度。如果可以分区的话。建议并行导入。即写多个脚本。每个脚本导入不同的分区内容。加上commit=y,导入完毕后并行创建索引,创建完毕后取消并行度。

猜你喜欢

转载自blog.csdn.net/zl570932980/article/details/78251191