添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

以下是本人从oralce抽取数据到Mongol的方法,也没来得及整理,基本使用方法都是复制其他博主的,希望对大家有用。

step1 利用sqluldr2快速导出CSV格式数据

Oracle使用sqluldr2
原创乘风晓栈 最后发布于2018-11-01 15:55:01 阅读数 9260 收藏
展开
分三部分:

1 . sqluldr2简介与使用

2 . sqlldr的使用,常见异常

3 . 测试使用

1 . sqluldr2简介与使用

sqluldr2是一款Oracle数据快速导出工具,包含32、64位程序,sqluldr2在大数据量导出方面速度超快,能导出亿级数据为excel文件,另外它的导入速度也是非常快速,功能是将数据以TXT/CSV等格式导出。

sqluldr2下载地址:http://www.pc6.com/softview/SoftView_516318.html

sqluldr2百度文库参考:https://wenku.baidu.com/view/ffd7e60400f69e3143323968011ca300a7c3f614

下载完sqluldr解压后,文件夹内容如下:
sqluldr2.exe  用于32位windows平台;
sqluldr2_linux32_10204.bin  适用于linux32位操作系统;
sqluldr2_linux64_10204.bin  适用于linux64位操作系统;
sqluldr264.exe   用于64位windows平台。

1、首先将sqluldr2.exe复制到执行目录下,即可开始使用
2、查看help 帮助

3、执行数据导出命令
3.1、常规导出

sqluldr2 hr/[email protected]:1521/XE query="select * from bb_user_t" head=yes file=D:\sqluldr2\File\tmp001.csv

说明:head=yes   表示输出表头

3.2、使用sql参数

sqluldr2 hr/[email protected]:1521/XE sql=query.sql head=yes file=D:\sqluldr2\File\tmp002.csv

sqluldr2 hr/[email protected]:1521/XE sql=D:\sqluldr2\query.sql head=yes file=D:\sqluldr2\File\tmp002.csv

query.sql的内容为:

select * from bb_user_t


3.3、使用log参数
当集成sqluldr2在脚本中时,就希望屏蔽上不输出这些信息,但又希望这些信息能保留,这时可以用“LOG”选项来指定日志文件名。

sqluldr2 hr/[email protected]:1521/XE sql=D:\sqluldr2\query.sql head=yes file=D:\sqluldr2\File\tmp003.csv log=+D:\sqluldr2\File\tmp003.log


3.4、使用 table 参数

(“TABLE”选项用于指定将文件导入的目标表的名字,例如我们将EMP 表的数据导入到EMP_HIS 表中,假设这两个表的表结构一致,先用如下命令导出数据:

Sqluldr2 … query=”select * from emp” file=emp.txt table=emp_his ……)
当使用 table 参数时,在目录下会生成对应的ctl控制文件,如下语句会生成temp_004_sqlldr.ctl文件。

sqluldr2 hr/[email protected]:1521/XE query="select * from bb_user_t" table=temp_004 head=yes file=D:\sqluldr2\File\tmp004.csv
可以指定文件地址(不建议,指定文件地址情况重新导入数据库时需要手动修改生成的D:\sqluldr2\File\temp_004_sqlldr.ctl文件中“INTO TABLE D:\sqluldr2\File\temp_004”为表名“INTO TABLE temp_004”):

sqluldr2 hr/[email protected]:1521/XE query="select * from bb_user_t" table=D:\sqluldr2\File\temp_004 head=yes file=D:\sqluldr2\File\tmp004.csv(不建议使用)

生成的控制文件temp_004_sqlldr.ctl的内容如下:

3.4、大数据量操作

对于大表可以输出到多个文件中,指定行数分割或者按照文件大小分割,例如:

sqluldr2 hr/[email protected]:1521/XE query="select * from bb_user_t" table=temp_001 mode=APPEND head=yes file=D:\sqluldr2\temp_001_%B.csv batch=yes rows=500000

当文件名(“FILE”选项)的后缀以小写的“.gz”结尾时,会将记录直接写入到GZIP格式的压缩文件中,如果要归档大量数据,这个功能可以节约很多的存贮空间,降低运营成本。

sqluldr2 hr/[email protected]:1521/XE query="select * from bb_user_t" table=temp_001 mode=APPEND head=yes file=D:\sqluldr2\temp_001.txt.gz

1 兆大小的文件,以GZIP 压缩方式生成时,大小才90KB,如果用于归档历史数据,的确可以节约不少空间,GZIP 目前是性价比非常好的压缩方式之一。

参数说明:

user = username/password@tnsname

sql = SQL file name

query = select statement (选择语句;query参数如果整表导出,可以直接写表名,如果需要查询运算和where条件,query=“sql文本”,也可以把复杂sql写入到文本中由query调用)

field = separator string between fields (

设置导出文件里的分隔符;

默认是逗号分隔符,通过 field参数指定分隔符;

例如现在要改变默认的字段分隔符,用“#”来分隔记录,导出的命令如下所示:
sqluldr2  test/test sql=tmp.sql field=#
在指定分隔符时,可以用字符的ASCII代码(0xXX,大写的XX为16进制的ASCII码值)来指定一个字符,常用的字符的ASCII代码如下:
回车=0x0d,换行=0x0a,TAB键=0x09,|=0x7c,&=0x26,双引号=0x22,单引号=0x27
在选择分隔符时,一定不能选择会在字段值中出现的字符)

record = separator string between records (记录之间的分隔字符串;分隔符  指定记录分隔符,默认为回车换行,Windows下的换行)

rows = print progress for every given rows (default, 1000000)

file = output file name(default: uldrdata.txt) (输出文件名(默认:uldrdata.txt))

log = log file name, prefix with + to append mode (日志文件名,前缀加+模式)

fast = auto tuning the session level parameters(YES)

text = output type (MYSQL, CSV, MYSQLINS, ORACLEINS, FORM, SEARCH).

charset = character set name of the target database. (目标数据库的字符集名称;导出文件里有中文显示乱码,需要设置参数charset=UTF8)

ncharset= national character set name of the target database.

parfile = read command option from parameter file (从参数文件读取命令选项;可以把参数放到parfile文件里,这个参数对于复杂sql很有用)

read = set DB_FILE_MULTIBLOCK_READ_COUNT at session level

sort = set SORT_AREA_SIZE at session level (UNIT:MB)

hash = set HASH_AREA_SIZE at session level (UNIT:MB)

array = array fetch size

head = print row header(Yes|No)

batch = save to new file for every rows batch (Yes/No) (为每行批处理保存新文件)

size = maximum output file piece size (UNIB:MB)

serial = set _serial_direct_read to TRUE at session level

trace = set event 10046 to given level at session level

table = table name in the sqlldr control file (“TABLE”选项用于指定将文件导入的目标表的名字,例如我们将EMP 表的数据导入到EMP_HIS 表中,假设这两个表的表结构一致,先用如下命令导出数据:

Sqluldr2 … query=”select * from emp” file=emp.txt table=emp_his ……)

control = sqlldr control file and path.

mode = sqlldr option, INSERT or APPEND or REPLACE or TRUNCATE

buffer = sqlldr READSIZE and BINDSIZE, default 16 (MB)

long = maximum long field size

width = customized max column width (w1:w2:...)

quote = optional quote string (可选引用字符串;引号符  指定非数字字段前后的引号符)

data = disable real data unload (NO, OFF)

alter = alter session SQLs to be execute before unload

safe = use large buffer to avoid ORA-24345 error (Yes|No) (使用大缓冲器避免ORA-24345错误;ORA-24345: A Truncation or null fetch error occurred,设置参数safe=yes)

crypt = encrypted user information only (Yes|No)

sedf/t = enable character translation function

null = replace null with given value

escape = escape character for special characters

escf/t = escape from/to characters list

format = MYSQL: MySQL Insert SQLs, SQL: Insert SQLs.

exec = the command to execute the SQLs.

prehead = column name prefix for head line.

rowpre = row prefix string for each line.

rowsuf = row sufix string for each line.

colsep = separator string between column name and value.

presql = SQL or scripts to be executed before data unload.

postsql = SQL or scripts to be executed after data unload.

lob = extract lob values to single file (FILE).

lobdir = subdirectory count to store lob files .

split = table name for automatically parallelization.

degree = parallelize data copy degree (2-128).

for field and record, you can use '0x' to specify hex character code,

\r=0x0d \n=0x0a |=0x7c ,=0x2c, \t=0x09, :=0x3a, #=0x23, "=0x22 '=0x27</span>

--附赠一个小例子:每个数值以#间隔,每行数据以0x0d0x0a间隔
sqluldr2 hr/[email protected]:1521/XE query="select vip_card from bb_user_t" table=temp_001 mode=APPEND record=0x0d0x0a field=# head=yes file=D:\sqluldr2\temp_001.txt
2 . sqlldr的使用,常见异常
安装ORACLE客户端中有SQLLDR命令
我的sqlldr位置:C:\oraclexe\app\oracle\product\10.2.0\server\BIN\sqlldr.exe

注:导入数据字段,表中必须包含(>=)导入数据中字段;

导入数据时我遇到的问题:

异常1:SQL*Loader-522:  文件(temp_004_sqlldr.log)的lfiopn失败

异常2:SQL*Loader-350:  语法错误位于第 15 行。

异常3:SQL*Loader-601:  对于 INSERT 选项, 表必须为空。表 BB_USER_T 上出错

异常4:SQL*Loader-941:  在描述表 BB_USER_T_1 时出错

SQL*Loader-522:  文件(temp_004_sqlldr.log)的lfiopn失败

原因可能两种
1.路径和文件名 不正确或不存在
2.权限不足

我是因为权限不足,

解决:将C:\oraclexe\app\oracle\product\10.2.0\server\BIN\sqlldr.exe的sqlldr.exe粘贴到temp_004_sqlldr.ctl文件的目录下,继续执行;

SQL*Loader-350:  语法错误位于第 15 行。

预期值是 "(", 而实际值是 ":"。

INSERT INTO TABLE D:\sqluldr2\File\temp_004

原因:导出时的table参数的设置(table=D:\sqluldr2\File\temp_004)不正确,应设置为导入数据的表名

解决:重新导出table设为要导入数据的表名

SQL*Loader-601:  对于 INSERT 选项, 表必须为空。表 BB_USER_T 上出错

原因:导出数据库数据时若不设定sqlldr 装载数据时的装载方式,则默认为INSERT

解决:若需要在其它表中新增数据用如下类似语句:

sqluldr2 hr/[email protected]:1521/XE query="select * from bb_user_t" table=BB_USER_T mode=APPEND head=yes file=D:\sqluldr2\temp_001.csv
异常4:

SQL*Loader-941:  在描述表 BB_USER_T_1 时出错

ORA-04043: 对象 BB_USER_T_1 不存在

原因:提示出错,因为数据库没有对应的表。

解决:修改“sqlldr hr/[email protected]:1521/XE control=temp_001_sqlldr.ctl”语句文件“temp_001_sqlldr.ctl”中BB_USER_T_1为正确表名

3 . 测试使用

测试操作:

操作一》导出数据

进行导出数据操作:95951433条数据导出时间不到4分钟

操作二》导入数据

sqlldr hr/[email protected]:1521/XE control=bb_user_t_sqlldr.ctl log=bb_user_t_sqlloader.log
bb_user_t_sqlloader.log内容如下:

操作三》优化导入数据

提高 SQL*Loader 的性能
1) 一个简单而容易忽略的问题是,没有对导入的表使用任何索引和/或约束(主键)。如果这样做,甚至在使用ROWS=参数时,会很明显降低数据库导入性能。
2) 可以添加 DIRECT=TRUE来提高导入数据的性能。当然,在很多情况下,不能使用此参数。 常规导入可以通过使用 INSERT语句来导入数据。Direct导入可以跳过数据库的相关逻辑(DIRECT=TRUE),而直接将数据导入到数据文件中,可以提高导入数据的 性能。当然,在很多情况下,不能使用此参数(如果主键重复的话会使索引的状态变成UNUSABLE!)。
3) 通过指定 UNRECOVERABLE选项,可以关闭数据库的日志。这个选项只能和 direct 一起使用。
4) 可以同时运行多个导入任务。

sqlldr   userid=/   control=result1.ctl   direct=true   parallel=true

当加载大量数据时(大约超过10GB),最好抑制日志的产生:

SQL>ALTER   TABLE   bb_user_t nologging;

(SQL> ALTER   TABLE   bb_user_t   logging;)

这样不产生REDO LOG,可以提高效率。然后在 CONTROL 文件中 load data 上面加一行:unrecoverable,  此选项必须要与DIRECT共同应用。

在导入数据时,我的是简化版,一直报错误

ORA-12952: 请求超出了允许的最大数据库大小 4 GB

我重新导出了一次约90000000万条数据;

生成的bb_user_t_sqlldr.ctl文件

对bb_user_t_sqlldr.ctl文件修改

执行导入数据库

sqlldr hr/[email protected]:1521/XE control=bb_user_t_sqlldr.ctl log=bb_user_t_sqlloader.log DIRECT=TRUE parallel=true

bb_user_t_sqlloader.log内容:

导入数据时的其它问题:

发现无法导入数据,从查询日志如下:

记录 1: 被拒绝 - 表 BB_USER_T 出现错误。

ORA-12952: 请求超出了允许的最大数据库大小 4 GB

解决方法:因为ORACLE 10g Express是简化版,它具有一定的局限性,它的所有数据文件大小不能超过4G,内存使用不能超过1G,CPU只能使用1个。所以应该把它卸了,重新安装完整版的oracle软件。
————————————————
版权声明:本文为CSDN博主「乘风晓栈」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/cheng_feng_xiao_zhan/article/details/83620593

step2 利用Mongoimport导入CSV格式数据

Mongo导出mongoexport和导入mongoimport介绍

最近爬取mobike和ofo单车数据,需要存储在csv文件中,因为设计的程序没有写存储csv文件的方法,为了偷懒所以就继续存储到了MongoDB中。恰好MongoDB支持导出的数据可以是csv文件和json文件,所以下面介绍下MongoDB mongoexport和mongoimport方法;

一、导出工具mongoexport 简介,通过帮助先了解下mongoexport的功能参数

[root@iZ2ze4b308vd83fulq9n7iZ ~]# mongoexport --help
Usage:
  mongoexport <options>
Export data from MongoDB in CSV or JSON format.
See http://docs.mongodb.org/manual/reference/program/mongoexport/ for more information.
general options:
      --help                     print usage
      --version                  print the tool version and exit
verbosity options:
  -v, --verbose                  more detailed log output (include multiple times for more verbosity, e.g. -vvvvv)
      --quiet                    hide all log output
connection options:
  -h, --host=                    mongodb host to connect to (setname/host1,host2 for replica sets)
      --port=                    server port (can also use --host hostname:port)
authentication options:
  -u, --username=                username for authentication
  -p, --password=                password for authentication
      --authenticationDatabase=  database that holds the user's credentials
      --authenticationMechanism= authentication mechanism to use
namespace options:
  -d, --db=                      database to use
  -c, --collection=              collection to use
output options:
  -f, --fields=                  comma separated list of field names (required for exporting CSV) e.g. -f "name,age"
      --fieldFile=               file with field names - 1 per line
      --type=                    the output format, either json or csv (defaults to 'json')
  -o, --out=                     output file; if not specified, stdout is used
      --jsonArray                output to a JSON array rather than one object per line
      --pretty                   output JSON formatted to be human-readable
querying options:
  -q, --query=                   query filter, as a JSON string, e.g., '{x:{$gt:1}}'
  -k, --slaveOk                  allow secondary reads if available (default true)
      --forceTableScan           force a table scan (do not use $snapshot)
      --skip=                    number of documents to skip
      --limit=                   limit the number of documents to export
      --sort=                    sort order, as a JSON string, e.g. '{x:1}'

关键参数说明:

  • -h,--host :代表远程连接的数据库地址,默认连接本地Mongo数据库;
  • --port:代表远程连接的数据库的端口,默认连接的远程端口27017;
  • -u,--username:代表连接远程数据库的账号,如果设置数据库的认证,需要指定用户账号;
  • -p,--password:代表连接数据库的账号对应的密码;
  • -d,--db:代表连接的数据库;
  • -c,--collection:代表连接数据库中的集合;
  • -f, --fields:代表集合中的字段,可以根据设置选择导出的字段;
  • --type:代表导出输出的文件类型,包括csv和json文件;
  • -o, --out:代表导出的文件名;
  • -q, --query:代表查询条件;
  • --skip:跳过指定数量的数据;
  • --limit:读取指定数量的数据记录;
  • --sort:对数据进行排序,可以通过参数指定排序的字段,并使用 1 和 -1 来指定排序的方式,其中 1 为升序排列,而-1是用于降序排列 ,如 sort ({ KEY : 1 })。
  • 当查询时同时使用sort,skip,limit,无论位置先后,最先执行顺序 sort再skip再limit。

    首先查看下数据库中的数据一共多少条,通过的命令的方式查看下我们要导出的数据信息

    > db.bike.find().count()
    16878865
    > db.bike.find({"source":"ofo"}).limit(1)
    { "_id" : ObjectId("59e8c27804390e04a063159d"), "lat" : 39.9571954199, "bikeId" : "pgdAVg", "current_time" : "2017-10-19 23:19:19", "source" : "ofo", "lng" : 116.3926501736 }
    

    如何通过mongoexport导出"bikeId" : "pgdAVg"的数据,我导出了json和csv两种类型的数据;

    #导出类型为json,数据库:mapdb,集合:bike 字段:bikeId,lat,lng,current_time,source ,条件为source字段为ofo第一条数据
    mongoexport --port 27030 -u sa -p Expressin@0618 -d mapdb -c bike -f bikeId,lat,lng,current_time,source --type=json -o bike.csv --query='{"source":"ofo"}' --limit=1
    #导出类型为csv,数据库:mapdb,集合:bike 字段:bikeId,lat,lng,current_time,source ,条件为source字段为ofo第一条数据
    mongoexport --port 27030 -u sa -p Expressin@0618 -d mapdb -c bike -f bikeId,lat,lng,current_time,source --type=csv -o bike.csv --query='{"source":"ofo"}' --limit=1

    查看下结果是否是我们两种不同的结果集;

    1.导出csv类型;

    2.导出json类型;

    二、导入工具mongoimport 简介,通过帮助先了解下mongoimport的功能参数

    [root@iZ2ze4b308vd83fulq9n7iZ ~]# mongoimport --help
    Usage:
      mongoimport <options> <file>
    Import CSV, TSV or JSON data into MongoDB. If no file is provided, mongoimport reads from stdin.
    See http://docs.mongodb.org/manual/reference/program/mongoimport/ for more information.
    general options:
          --help                     print usage
          --version                  print the tool version and exit
    verbosity options:
      -v, --verbose                  more detailed log output (include multiple times for more verbosity, e.g. -vvvvv)
          --quiet                    hide all log output
    connection options:
      -h, --host=                    mongodb host to connect to (setname/host1,host2 for replica sets)
          --port=                    server port (can also use --host hostname:port)
    authentication options:
      -u, --username=                username for authentication
      -p, --password=                password for authentication
          --authenticationDatabase=  database that holds the user's credentials
          --authenticationMechanism= authentication mechanism to use
    namespace options:
      -d, --db=                      database to use
      -c, --collection=              collection to use
    input options:
      -f, --fields=                  comma separated list of field names, e.g. -f name,age
          --fieldFile=               file with field names - 1 per line
          --file=                    file to import from; if not specified, stdin is used
          --headerline               use first line in input source as the field list (CSV and TSV only)
          --jsonArray                treat input source as a JSON array
          --type=                    input format to import: json, csv, or tsv (defaults to 'json')
    ingest options:
          --drop                     drop collection before inserting documents
          --ignoreBlanks             ignore fields with empty values in CSV and TSV
          --maintainInsertionOrder   insert documents in the order of their appearance in the input source
      -j, --numInsertionWorkers=     number of insert operations to run concurrently (defaults to 1)
          --stopOnError              stop importing at first insert/upsert error
          --upsert                   insert or update objects that already exist
          --upsertFields=            comma-separated fields for the query part of the upsert
          --writeConcern=            write concern options e.g. --writeConcern majority, --writeConcern '{w: 3, wtimeout: 500, fsync: true, j: true}' (defaults to 'majority')

    关键参数说明:

  • h,--host :代表远程连接的数据库地址,默认连接本地Mongo数据库;
  • --port:代表远程连接的数据库的端口,默认连接的远程端口27017;
  • -u,--username:代表连接远程数据库的账号,如果设置数据库的认证,需要指定用户账号;
  • -p,--password:代表连接数据库的账号对应的密码;
  • -d,--db:代表连接的数据库;
  • -c,--collection:代表连接数据库中的集合;
  • -f, --fields:代表导入集合中的字段;
  • --type:代表导入的文件类型,包括csv和json,tsv文件,默认json格式;
  • --file:导入的文件名称
  • --headerline:导入csv文件时,指明第一行是列名,不需要导入;
  • 实例演示:

    #首先查看集合中的数据
    > db.bike_bak.find()
    { "_id" : ObjectId("59e8c27804390e04a063159d"), "lat" : 39.9571954199, "bikeId" : "pgdAVg", "current_time" : "2017-10-19 23:19:19", "source" : "ofo", "lng" : 116.3926501736 }
    #删除集合中的数据
    > db.bike_bak.remove({"bikeId" : "pgdAVg"})
    WriteResult({ "nRemoved" : 1 })
    #查看集合是否包含数据
    > db.bike_bak.find()
    #导入数据
    [root@iZ2ze4b308vd83fulq9n7iZ ~]# mongoimport --port 27030 -u sa -p Expressin@0618 -d mapdb -c bike_bak  --type=json --file bike.csv
    2017-10-25T11:59:51.020+0800    connected to: localhost:27030
    2017-10-25T11:59:51.030+0800    imported 1 document
    #检查数据是否导入成功
    > db.bike_bak.find()
    { "_id" : ObjectId("59e8c27804390e04a063159d"), "bikeId" : "pgdAVg", "current_time" : "2017-10-19 23:19:19", "lat" : 39.9571954199, "lng" : 116.3926501736, "source" : "ofo" }