从MySQL导出到PostgreSQL


异构
数据库的导入、导出是一个大难题。从MySQL到PG目前没有特别完善的工具,还需要人工的参与。本文将简单介绍下如何利用一些工具,手工将MySQL导出数据到PostgreSQL。

导出、转换、导入



数据导出、导入的思路是:

  1. 导出结构
  2. 导出数据
  3. 对结构进行转换
  4. 对数据进行转换
  5. 导入结构
  6. 导入数据

这里的想法是将结构和数据分开处理,这样有很多好处。首先DDL的语句的差别相比DML要大一些,比如各种类型的转换、符号的变化等,分开之后可以针对性的处理;其次,DDL和DML分开更好做批量的处理;其他好处……

当前的开源转换工具,尚没有一个完善的。不同的工具分别做了些不同的转换,因此本文将会利用多个工具互相配合使用,可以达到较好的效果。主要用到的工具有:

  1. mysql-postgresql-converter

    单个python脚本,依赖较少。对文件內容、格式的转换,比较好的是enum类型改写等。

  2. my2pg.pl

    单个perl脚本,依赖较少,会对数据类型做不错的转换。

  3. SED、VIM, 文本编辑神器,你懂得~

导出



导出主要采用的是mysql自带的mysqldump,导出成sql文件的形式。这里只给出直接的例子,更多的参数请参考文档(mysqldump --help)。

导出结构

/usr/local/mysql/bin/mysqldump --skip-opt --compatible=postgresql --compact --no-data --default-character-set=utf8 --skip-dump-date -u cvusr -p -h mysqlhostaddress cvdb > schm.sql

  • --no-data,故名思议,就是不带数据
  • --compatible=postgresql, 尽量兼容PostgreSQL的语法的方式,至少能减少后面一部分工作量
  • --default-character-set=utf8,编码尽量与目标库保持一致
  • 这里有更多的说明

导出数据

/usr/local/mysql/bin/mysqldump --skip-opt --compatible=postgresql --compact --no-create-info --default-character-set=utf8 --skip-comments --skip-dump-date -u cvusr -p -h mysqlhost cvdb > data.sql

转换



数据的导出是比较容易的,麻烦的地方在于将数据文件转换成另一种数据库可以采用的方式。在这个过程中,至少需要处理以下几个问题,这里有详细的MySQL与PG的对比

在结构上

  1. 类型

    如mediumint、char等,其实PG是可以自定义类型,这个应该是细节的处理,现有工具已经能做的不错。my2pg.pl工具可以完成得较好

  2. 语义转换

    典型的,在MySQL中可以create table的时候对字段采用enum类型,在PG中就需要抽出来先建个enum数据类型。另外如UK、default value等。 这方面,mysql-postgresql-converter可以满足部分需求。

  3. 其他地方

在数据上:

  1. 格式
  2. '与"
  3. 默认值
  4. 其他地方

可以在PG上做如下设置:

backslash_quote = on

escape_string_warning = off

standard_conforming_strings = off

在mysqldump的时候,在建表语句中会有注释,但发现几个工具都去不掉,mysqldump的"--skip-comments"选项也没起作用,百思不得姐之后决定手动处理:

sed -i "s/ COMMENT '.*',/ ,/g" schm.dump

sed -i "s/ COMMENT '.*',/ ,/g" data.dump

自动转换

经过多次尝试,发现没有一个工具能够将导出的结构处理的比较完善,使得可以直接在PG中导入。开了脑洞后尝试工具的合作,主要是因为懒,不想手动改:

// 一些数据类型的修改,读者可以自行作个对比。目前my2pg.pl做得比其他工具要好一些。 (但其将blob类型转换成了text,需要注意,可以将脚本my2pg.pl中的“s/\w*blob$chareg/text/i; ”改为“s/\w*blob$chareg/bytea/i; ”

perl my2pg.pl  schm.dump  > my2pg-schm.dump

// enum类型改写等,这个是上面的工具没有处理的,还有一些其他的

python mysql-postgresql-converter/db_converter.py schm.dump > db_cvtr-my2pg-schm.dump

这里需要注意的是,这两个工具的顺序不能变,变了之后结果就不认识了。如果有兴趣,可以尝试下与其他工具的配合。

这还不是结束!这个时候,并不一定所有的类型都修改完全,可能还有一些需要手工处理,如:

特殊字符的处理:

SHELL$ vim mysql2pgsql-data.dump

:%s /\E'/E\'/g

——这里是去除一些地方转换出的问题,在插入语句中,"insert into tbl values(0, E\'0\')"会被处理成了"insert into tbl values(0, \E'0\')"。幸好只是少数!

日期默认值:

'0000-00-00' 改为CURRENT_DATE,或者某固定日期等

——在MySQL中,日期'0000-00-00'值为空、或者无效,但这个日期不是正确日期,因此在PG中不支持。CURRENT_DATE是指当前时间。

其他的修改,也只能见招拆招了。

数据导入

在转换处理完成了之后,剩下的也就简单了。依次导入结构和数据就好,如果有问题,只能具体问题具体分析了。

结构导入

~/Workspace/pg94/bin/psql -h pghost -p 3432 -U cvusr -d cvdb -f schm.dump

数据导入

~/Workspace/pg94/bin/psql -h pghost -p 3432 -U cvusr -d cvdb -f data.dump

检查、验证



数据导进来了,不代表就结束了。因为不确定中间是否出了什么幺蛾子。需要做一些验证:

  1. 表结构、类型
  2. 记录数
  3. 抽样记录
  4. 存储过程就算了
  5. 编码、乱码的问题
  6. 其他差异地方的对比,如blob、clob等

针对这些做过检查无误之后,需要应用做相应的全面的测试。

参考


  1. mysql-to-postgresql-migration-tips
  2. Converting_from_other_Databases_to_PostgreSQL
  3. Converting_MySQL_to_PostgreSQL
  4. mysql-postgresql-converter
  5. py-mysql2pgsql
  6. py-mysql2pgsql源码
  7. mysqldump参数解释
  8. Migrating from MySQL to PostgreSQL
时间: 2024-10-21 14:35:45

从MySQL导出到PostgreSQL的相关文章

将你的网站从MySQL改为PostgreSQL

  <?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" /> 这个教程分为两部分,第一部分讲述了我进行这种转换的动机,并一步步地解释了如何将已存在有MySQL的数据转换到Postgres中.第二部分将会解释如何根据新的数据库系统对PHP进行相应的调整. 转换的动机 我第一次了解Postgres是在PHPBuilder网站的一篇文章中.这篇文章将Postgres和MySQL进行了比

mysql导出数据库几种方法

  mysql教程导出数据库教程几种方法 方法一 cmd 到mysql bin目录下用 如下命令 mysqldump --opt -h192.168.0.156 -uusername -ppassword --skip-lock-tables databasename>database.sql 把ip改成localhost就可以的 如果装了navicate那就更简单了 先连接上数据库,选中数据库 再选择转储sql 就好了 方法二 进入cmd (注意在os cmd中 而不是在mysql中) ===

create mysql table in PostgreSQL with mysql_fdw

以前写过一些在PostgreSQL中创建file, CouchDB, Redis, PostgreSQL, Oracle等外部表的BLOG. 一直没有写MySQL的,刚好最近有一个项目要从MySQL迁移到PostgreSQL.今天补上如下 :  下载 http://pgxn.org/dist/mysql_fdw/ 1.  修改PATH和LD_LIBRARY_PATH包含mysql和postgresql的相关目录, 例如 su - root export MYSQLHOME=/usr/local/

sqoop2:从mysql导出数据到hdfs

sqoop2:从mysql导出数据到hdfs中 sqoop-shell 启动sqoopp-shell jjzhu:bin didi$ sqoop2-shell Setting conf dir: /opt/sqoop-1.99.7/bin/../conf Sqoop home directory: /opt/sqoop-1.99.7 Sqoop Shell: Type 'help' or '\h' for help. sqoop:000> set server --host localhost

crond-centos6.5 定时备份mysql 导出mysql数据大小为0

问题描述 centos6.5 定时备份mysql 导出mysql数据大小为0 centos定时任务 执行mysql数据备份 在/home/www/shell/ 写了个shell脚本 加入执行权限 定时执行的时候 到处的sql文件大小为0 且没有错误log输出 如果单独执行./xxx.sh 导出的sql正常 问题蛮怪 不知道有没有碰到的

MySQL导出所有Index和约束的方法_Mysql

本文汇总了MySQL导出所有Index 和 约束的方法,提供给大家以方便大家查询使用.具体如下: 1. 导出创建自增字段语句: SELECT CONCAT( 'ALTER TABLE `', TABLE_NAME, '` ', 'MODIFY COLUMN `', COLUMN_NAME, '` ', IF(UPPER(DATA_TYPE) = 'INT', REPLACE( SUBSTRING_INDEX( UPPER(COLUMN_TYPE), ')', 1 ), 'INT', 'INTEG

mysql导出导入中文表解决方法_Mysql

在开发过程中会经常用到mysql导出导入中文表,本文将详细介绍其如何使用,需要的朋友可以参考下一.先针对utf8导出: (1)导出源数据库的所有表: 复制代码 代码如下: mysqldump -u root -p密码 --socket=mysql.sock --default-character-set=utf8 --set-charset=utf8 --hex-blob --databases 数据库名 > utf8.sql (2)修改sql文件,删除文件头中包含的创建数据库的命令 (3)登录

mysql 导出 xls 与csv 数据实现与乱码解决方法

mysql教程 导出 xls 与csv 数据实现与乱码解决方法 下面关于 先来看mysql 导出导入 xls 与csv数据实例方法,同时在碰到导入乱码时的有效解决方法, 在mysql命令行下执行以下sql语句: mysql>select * from xi_table into outfile 'd:www.111cn.nettest.xls'; 有时候有excel打开的时候会出现乱码, 因为office默认的是gb2312编码,服务器端生成的很有可能是utf-8编码,可以在服务器端使用icon

100高分 在线等 MySql导出二进制流数据 全是乱码 大家帮帮我吧 急啊!!!!!!!!!!!!!!!!!!!

问题描述 MySql导出数据其他的数据都能正常显示就是存为二进制流形式的图片不正常全是乱码恳请大家帮帮我解决一下我数据库存的格式都是utf8检查一下数据库,也都是utf8mysql>showvariableslike'character%';+--------------------------+----------------------------+|Variable_name|Value|+--------------------------+-----------------------