Oracle数据的导入与导出

本文针对window操作系统与oracle12c的版本。

1.sqlplus执行单个sql文件

1.执行sqlplus登陆命令:sqlplus username/password@host:port/service_name as sysdba (其中普通用户可以不加后面的 as sysdba)

2.在sqlplus下执行sql文件命令:@file_path

 

2.sqlplus执行多个sql文件

1.新建一个sql文件,在其添加需执行的sql文件路径:

@file_path1

@file_path2

。。。。。

2.在sqlplus下执行新建的sql文件即可

 

3.oracle导出与导入工具expdp,impdp

使用expdp和impdp时应该注意的事项:

exp和imp是客户端工具程序,它们既可以在客户端使用,也可以在服务端使用。
expdp和impdp是服务端的工具程序,他们只能在oracle服务端使用,不能在客户端使用。
imp只适用于exp导出的文件,不适用于expdp导出文件;impdp只适用于expdp导出的文件,而不适用于exp导出文件。

1.导出

1.以sysdba身份登陆sqlplus,如命令:sqlplus / as sysdba

2.创建逻辑目录,该命令不会在操作系统创建真正的目录,create or replace directory 目录别名 as ‘操作系统上目录的绝对路径’;

如:create directory xyy as ‘d:\cowry\cj’;

3.查看管理理员目录(同时查看操作系统是否存在,因为oracle并不关心该目录是否存在,如果不存在,后面会出错)

select * from dba_directories;

4.赋予需要导出的用户在指定目录的操作权限。命令:grant read,write on directory 目录别名 to user_name;

5.退出sqlplus,在cmd窗口执行以下命令:

1)导出用户

 expdp user_name/pwd@host:port/service_name dumpfile=xxx.dmp [logfile=xxx.log] directory=xxx [schemas=xxx] [compression=xxx] [parallel=xxx]

 

2)导出指定表

 expdp user_name/pwd@host:port/service_name dumpfile=xxx.dmp directory=xxx tables=xxx,xxx1,…

 

还有其他导出表空间,整个数据库等等模式,具体可查相关资料。

dumpfile:导出的数据文件的名称。

logfile:日志文件

directory:导出的逻辑目录,一定要在oracle中创建完成的,并授权用户读写权限

schemas:使用dblink导出的用户不是本地的用户,需要加上schema来确定导出的用户,类似于exp中的owner,但还有一定的区别。

compression:压缩转储文件。有效的关键字值为: all, data_only, [metadata_only] 和 none。

parallel:并行数量。

tables:指定导出的表。

network_link:源系统的远程数据库链接的名称。使用的dblink来远程导出,需要指定dblink的名称。

 

2.导入

1)导入用户

  impdp user_name/pwd@host:port/service_name dumpfile=xxx.dmp [logfile=xxx.log] directory=xxx [remap_schema=xxx] [parallel=xxx]

 

2)导入表

  impdp user_name/pwd@host:port/service_name dumpfile=xxx.dmp directory=xxx [remap_schema=xxx:xxx1] [parallel=xxx] tables=xxx,xxx1,…

 

remap_schema:将一个用户的的数据迁移到另外一个用户

 

4.oracle使用sqlloader导入批量数据

 

sql * loader功能

sql * loader将外部文件中的数据加载到oracle数据库的表中。

它具有强大的数据解析引擎,对数据文件中的数据格式几乎没有限制。您可以使用sql * loader执行以下操作:

  • 如果数据文件位于与数据库不同的系统上,则通过网络加载数据。

  • 在同一个加载会话期间从多个数据文件加载数据。

  • 在同一个加载会话期间将数据加载到多个表中。

  • 指定数据的字符集。

  • 有选择地加载数据(您可以根据记录的值加载记录)。

  • 使用sql函数在加载数据之前处理数据。

  • 在指定列中生成唯一的顺序键值。

  • 使用操作系统的文件系统访问数据文件。

  • 从磁盘,磁带或命名管道加载数据。

  • 生成复杂的错误报告,极大地帮助排除故障。

  • 加载任意复杂的对象关系数据。

  • 使用辅助数据文件来加载lob和集合。

  • 使用传统的,直接的路径或外部表负载。

 

您可以通过两种方式使用sql * loader:带或不带控制文件。控制文件控制sql * loader的行为以及加载中使用的一个或多个数据文件。使用控制文件可以更好地控制加载操作,这对于更复杂的加载情况可能是理想的。但是对于简单加载,您可以在不指定控制文件的情况下使用sql * loader; 这被称为sql * loader express模式。

sqlloader参数说明,具体可在cmd输入sqlldr查看

 1 有效的关键字:
 2 
 3     userid -- oracle 用户名/口令
 4    control -- 控制文件名
 5        log -- 日志文件名
 6        bad -- 错误文件名
 7       data -- 数据文件名
 8    discard -- 废弃文件名
 9 discardmax -- 允许废弃的文件的数目         (全部默认)
10       skip -- 要跳过的逻辑记录的数目  (默认 0)
11       load -- 要加载的逻辑记录的数目  (全部默认)
12     errors -- 允许的错误的数目         (默认 50)
13       rows -- 常规路径绑定数组中或直接路径保存数据间的行数
14                (默认: 常规路径 64, 所有直接路径)
15   bindsize -- 常规路径绑定数组的大小 (以字节计)  (默认 256000)
16     silent -- 运行过程中隐藏消息 (标题,反馈,错误,废弃,分区)
17     direct -- 使用直接路径                     (默认 false)
18    parfile -- 参数文件: 包含参数说明的文件的名称
19   parallel -- 执行并行加载                    (默认 false)
20       file -- 要从以下对象中分配区的文件
21 skip_unusable_indexes -- 不允许/允许使用无用的索引或索引分区  (默认 false)
22 skip_index_maintenance -- 没有维护索引, 将受到影响的索引标记为无用  (默认 false)
23 commit_discontinued -- 提交加载中断时已加载的行  (默认 false)
24   readsize -- 读取缓冲区的大小               (默认 1048576)
25 external_table -- 使用外部表进行加载; not_used, generate_only, execute
26 columnarrayrows -- 直接路径列数组的行数  (默认 5000)
27 streamsize -- 直接路径流缓冲区的大小 (以字节计)  (默认 256000)
28 multithreading -- 在直接路径中使用多线程
29  resumable -- 对当前会话启用或禁用可恢复  (默认 false)
30 resumable_name -- 有助于标识可恢复语句的文本字符串
31 resumable_timeout -- resumable 的等待时间 (以秒计)  (默认 7200)
32 date_cache -- 日期转换高速缓存的大小 (以条目计)  (默认 1000)
33 no_index_errors -- 出现任何索引错误时中止加载  (默认 false)
34 partition_memory -- 开始溢出的直接路径分区内存限制 (kb)  (默认 0)
35      table -- 用于快速模式加载的表
36 date_format -- 用于快速模式加载的日期格式
37 timestamp_format -- 用于快速模式加载的时间戳格式
38 terminated_by -- 由用于快速模式加载的字符终止
39 enclosed_by -- 由用于快速模式加载的字符封闭
40 optionally_enclosed_by -- (可选) 由用于快速模式加载的字符封闭
41 characterset -- 用于快速模式加载的字符集
42 degree_of_parallelism -- 用于快速模式加载和外部表加载的并行度
43       trim -- 用于快速模式加载和外部表加载的截取类型
44        csv -- 用于快速模式加载的 csv 格式数据文件
45     nullif -- 用于快速模式加载的表级 nullif 子句
46 field_names -- 用于快速模式加载的数据文件第一条记录字段名设置
47 dnfs_enable -- 启用或禁用输入数据文件 direct nfs (dnfs) 的选项  (默认 false)
48 dnfs_readbuffers -- direct nfs (dnfs) 读缓冲区数  (默认 4)
49 sdf_prefix -- 要附加到每个 lob 文件和辅助数据文件的开头的前缀
50       help -- 显示帮助消息  (默认 false)
51 empty_lobs_are_null -- 将空白 lob 设置为空值  (默认 false)
52   defaults -- 直接路径默认值加载; evaluate_once, evaluate_every_row, ignore, ignore_unsupported_evaluate_once, ignore_unsupported_evaluate_every_row
53 direct_path_lock_wait -- 当前已锁定时, 等待表访问权限  (默认 false)
54 
55 please note: 命令行参数可以由位置或关键字指定
56 。前者的例子是 'sqlldr
57 scott/tiger foo'; 后一种情况的一个示例是 'sqlldr control=foo
58 userid=scott/tiger'。位置指定参数的时间必须早于
59 但不可迟于由关键字指定的参数。例如,
60 允许 'sqlldr scott/tiger control=foo logfile=log', 但是
61 不允许 'sqlldr scott/tiger control=foo log', 即使
62 参数 'log' 的位置正确。

 

1.建立控制文件,后缀名为.ctl,在控制文件加入以下内容:

options (skip=num,rows=num,direct=true,bindsize=num)

load data

characterset 字符集

infile “数据文件路径” badfile “错误文件路径,其文件后缀为.bad” discardfile “废弃文件路径,其文件后缀为.dis”

如有多个数据文件继续添加
infile “xxx” badfile “xxx” discardfile “xxx”

……

[操作类型] into table table_name
fields terminated by “xxx”

optionally enclosed by “xxx”
trailing nullcols
(col,col1,col2,…)

参数说明:

skip:跳过开始的行数,即不读取的行数。

 

rows:对于传统常规路径导入的情况,代表一次提交的行数。

 

bindsize:每次提交记录的缓冲区的最大值(仅适用于传统常规路径加载),默认256000 bytes。通过bindsize的设定,要比默认值和通过参数rows计算的缓冲区大小更优先。

即bindsize能够制约rows,如果rows提交的数据需要的缓冲区大于bindsize的设定,会以bindsize的设定为准。

 

direct:使用直接路径(默认false)。

 

characterset:通常会出现中文乱码问题。即数据文件的字符集编码与oracle字符集编码不一致导致中文乱码问题。其值有:zhs16gbk。。。

 

操作类型:

  insert     –为缺省方式,在数据装载开始时要求表为空
  append  –在表中追加新记录
  replace  –删除旧记录(用 delete from table 语句),替换成新装载的记录
  truncate –删除旧记录(用 truncate table 语句),替换成新装载的记录

 

fields terminated by:每行字段与字段之间的分隔符。

 

optionally enclosed by:数据中每个字段用 “” 框起,比如字段中有 “,” 分隔符时。对于包裹的字段为中文,可能会出现导不进数据库,那么可尝试把源数据文件编码格式修改为ascii

 

trailing nullcols:如要导入源文件此列内容为空,在导入到数据库表中,此列内容就是null。

 

2.在cmd窗口执行命令:

  sqlldr user_name/pwd@service_name control=控制文件路径 log=日志文件路径

 

5.oracle使用utl_file包导出批量数据

文件i/o对于数据库的开发来说显得很重要,比如数据库中的一部分数据来自于磁盘文件,那么就需要使用i/o接口把数据导入到数据库中来。在pl/sql中没有直接的i/o接口,  

一般在调试程序时可以使用oracle自带的dbms_output包的put_line函数(即向屏幕进行i/o操作)即可,但是对于磁盘文件的i/o操作它就无能为力了。

其实oracle同样也提供了可以进行文件i/o的实用包—–utl_file包,利用这个实用包提供的函数来实现对磁盘的i/o操作。

 

1.以sysdba身份创建目录:create or replace directory 目录别称 as ‘目录路径’;

 

2.把路径的读写权限赋予用户:grant read,write on directory 目录别称 to 用户名;

 

3.在用户中创建以下存储过程:

 1 create or replace procedure sql_to_file(p_query in varchar2,p_dir in varchar2,p_filename in varchar2)
 2 is
 3   l_output utl_file.file_type; 
 4   l_thecursor integer default dbms_sql.open_cursor;
 5   l_columnvalue varchar2(4000);
 6   l_status integer;
 7   l_colcnt number := 0;
 8   l_separator varchar2(1);
 9   l_desctbl dbms_sql.desc_tab;
10   p_max_linesize number := 32000;
11 begin
12   l_output := utl_file.fopen(p_dir, p_filename, 'w', p_max_linesize);
13   execute immediate 'alter session set nls_date_format=''yyyy-mm-dd hh24:mi:ss''';
14   dbms_sql.parse(l_thecursor, p_query, dbms_sql.native);
15   dbms_sql.describe_columns(l_thecursor, l_colcnt, l_desctbl);
16   for i in 1 .. l_colcnt loop
17     utl_file.put(l_output,l_separator || '"' || l_desctbl(i).col_name || '"');
18     dbms_sql.define_column(l_thecursor, i, l_columnvalue, 4000);
19     l_separator := ',';
20   end loop;
21   utl_file.new_line(l_output);
22   l_status := dbms_sql.execute(l_thecursor);
23   while (dbms_sql.fetch_rows(l_thecursor) > 0) loop
24     l_separator := '';
25     for i in 1 .. l_colcnt loop
26       dbms_sql.column_value(l_thecursor, i, l_columnvalue);
27       utl_file.put(l_output,
28                   l_separator || '"' ||
29                   trim(both ' ' from replace(l_columnvalue, '"', '""')) || '"');
30       l_separator := ',';
31       end loop;
32     utl_file.new_line(l_output);
33   end loop;
34   dbms_sql.close_cursor(l_thecursor);
35   utl_file.fclose(l_output);
36 exception
37   when others then
38     raise;
39 end;

 

4.执行上述过程

exec sql_to_file(‘para‘,’para1‘,’para2‘);

其中第一个参数为:查询数据的sql,第二个为:目录别称,第三个为:导出的文件名。

 

(0)
上一篇 2022年3月22日
下一篇 2022年3月22日

相关推荐