1
flynnX 2014 年 12 月 2 日
处理成批量插入的sql语句,然后执行试试,我试过一次批量插入20+W条数据,几秒搞定。建议开启事务再插入,以防数据有误,可能还有需要设置mysql packet大小,如果你的文本太大的话
|
2
jianghu52 2014 年 12 月 2 日
我数据量没你那么大,大概1千万条,navicat就已经卡的不行了。后来实在没办法,他们写的python脚本,把记录分成10个文件,然后一个个导入数据库。有时间,就是这么任性~
|
3
linkiosk 2014 年 12 月 2 日
写好shell别忘了共享一下
|
4
kofj OP |
5
billwang 2014 年 12 月 2 日
数据量不大,可以等负载低的时候分时分阶段搞定。随时监控服务器负载及空间情况。oracle的话还得监控归档空间使用,mysql应该不用。
|
6
mhycy 2014 年 12 月 2 日
处理成SQL语句以后直接在服务器上用mysql管理器用source命令导入
|
7
jianghu52 2014 年 12 月 2 日
你是直接copy到query下执行啊。还是用的dump sql 的形式执行的?
dump sql 也会报错么? |
8
mahone3297 2014 年 12 月 2 日
bulk insert
|
9
xiaogui 2014 年 12 月 2 日
使用 dump
|
10
pi1ot 2014 年 12 月 2 日
load file?
|
11
a591826944 2014 年 12 月 2 日 弄成 sql 用命令行 轻松导入啊 命令行最快了
|
12
markmx 2014 年 12 月 2 日
不管是什么导入 如果表类型是iNNODB的话。记得先google一下。。会快很多的!
|
13
Battle 2014 年 12 月 2 日
求助,我也遇到了你这个问题;
我的是Access文件,每一个文件都是上百万条的数据,估计navicat会卡死,不知道怎么用shell导入到mysql中 |
14
hanwujibaby 2014 年 12 月 2 日
切分文件入库。
|