4t 数据(最多也就 8t 吧),作为迁移测试环境使用,原本数据库是老版本 db2 ( linux )的,现在想迁移到 pgsql,可行不,稳定不?多用户访问的时候查询效率能提升不?求教大佬们几个小问题。 1.个别表比较大,按照时间进行了分区,有没有工具可以把 db2 的建库脚本转换到 pgsql 的? 2.性能来说,pgsql 会不会能高于 db2 ?( db2 是商用的产品,主要也就是联合查询操作,优化能力欠缺,效率一直不太高。两三个表 join 一下就要小半小时了;对 pgsql 的性能不是很了解,不知道能 handle 多大的量;是不是都要靠优化?) 3.数据迁移的损失会有多少?比如 del 导入的时候的各种乱码字符兼容问题?现在 db2 设置了 utf8 但是就是遇到导入后有些行字符乱码(操作系统级别字符集为英文;实例级别字符英文;数据库级别为 utf8 ),不过打开文件( uft8 编码)的时候,没有乱码。一直找不到什么原因。,在此一并求教。 4.如果 pgsql,后面拓展数据分析模块的时候,有什么组件可以套来分析呢?