0
点赞
收藏
分享

微信扫一扫

dataX 迁移 mysql2clickhouse 报Too many parts错误

云卷云舒xj 2022-04-01 阅读 39
数据库

目录

1.引言

2.配置环境

3.网上的其他方法

3.1减少插入频次(加大批次读取的数量,降低读取的次数)

3.2升级硬盘

4.最终解决的方法


1.引言

昨天用DataX做数据迁移的时候,遇到了一个频繁插入的问题,五分钟一次,一次才几十条数据(60多个字段)。结果就报插入频繁的错误。

寻思也没有超过官方文档里的一秒一次的频次,怎么会报错呢?然后时间间隔扩大到十分钟,也是不行。

2.配置环境

3.网上的其他方法

网上的很多方法都是大数据采用的,用的大部分是spark等工具,所以能调整批次大小和批次频率,公司规模较小不需要用到大数据工具,只是简单的数据集市。

3.1减少插入频次

加大批次读取的数量,降低读取的次数:也不误导了,有需要的可以进行谷歌

3.2升级硬盘

 4.最终解决的方法

最后发现必须在json文件里指定splitPk("splitPk"=''),否则默认是一条一条插入,导致频率超出限制.

当然这个推论还没有到addX代码里去复现,等之后有时间就去探索一下


未完待续......


如果有问题也可以在下方留言讨论

陈棋烂柯,一甲子矣

印象笔记_个人首页


转载须获得本人许可

举报

相关推荐

0 条评论