Oracle数据同步的思考与优化-CloudCanal核心技术_canal oracle-程序员宅基地

技术标签: CloudCanal  数据迁移  数据同步  canal  

为什么我们要重构 Oracle 源端数据同步?

CloudCanal 早期版本即支持了 Oracle 数据库,围绕结构迁移全量迁移增量同步三个核心步骤,构建了以 Oracle 数据库为源端的实时数据体系。

但之前的版本,也存在着不少问题,功能、性能、对数据库权限的挑战等方面都有所涉及,成了 CloudCanal 产品的一个痛点,看着 MySQL 源端在线数据体系不断狂奔,不免有点落寞。

再者,市场的需求层出不穷

  • “CloudCanal 能否把 Oracle 数据同步到 Kafka?”
  • “CloudCanal 能否把 Oracle 数据同步到 ElasticSearch ?”
  • “我们在做业务重构,你们能做 Oracle 到 Oracle 的数据同步么?”

为此,我们下定决心,决定在春夏之交,给 CloudCanal Oracle 源端动一场大手术。

如何优化?

两种实现方式的选择

最有力的改变往往来自于某一个特定方向的深入挖掘。

对于老版本 Oracle 源端增量实现的物化视图方式(类trigger)和 LogMiner (Redo日志解析) , 我们选择深度优化 LogMiner,理由有三

  • LogMiner 为 Oracle 官方提供 Redo 日志解析,方式相对可靠
  • CloudCanal 实现的 MySQL / PostgreSQL / MongoDB 源端增量都偏向于操作日志解析,风格一致,组件可共用性概率高
  • 从业界的调研来看,LogMiner 在落地 Oracle 严格 CDC 场景下,表现可圈可点

确定我们核心追求的效果

可持续稳定运行”成为我们优化的主要目标,这句话的含义可能并非字面所理解,实际包含以下几个问题的解决

  • 能否在突发压力下(5000 条数据/秒)稳定运行?
  • 能否在超级大事务下( >1000万条数据数据订正)稳定运行?
  • 能否不中断任务平滑新增表、减少表
  • 能否自动处理源端常用 DDL 同步(加列/改列/减列)?
  • 能否重复消费一段时间的增量数据(回拉位点)?

我们做了哪些事情?

确定了优化方向和目标,接下来事情就相对好办,我们从 内核核心逻辑优化产品层面优化两个方面进行改进。

内核核心逻辑优化

ADD_FILE 模式和 CONTINUOUS_MINE 模式支持

Oracle LogMiner 本身并不是专门为实时 CDC 所设计,商业方向由其商业产品 GoldenGate 扛旗,免费工具层面又有 Oracle CDC 专用组件,但是 LogMiner 主要胜在其被许多前辈所验证,古老且稳定,所以被选择演化为 Oracle 主要的实时同步组件也并不奇怪。

LogMiner 最原始的使用方式包含以下几个步骤

  • DBMS_LOGMNR_D.BUILD (构建解析的字典,可选)
  • DBMS_LOGMNR.ADD_LOGFILE (添加需要解析的 redo 日志)
  • DBMS_LOGMNR.START_LOGMNR (开始解析增量日志)
  • V$LOGMNR_CONTENTS (从此视图中查询解析的增量日志)
  • DBMS_LOGMNR.END_LOGMNR (结束解析)

事实上,这几个命令通过改变使用组合,增删具体的参数,即可达成增量日志效果,通用的模式即 ADD_FILE 模式,CloudCanal 对这种模式做了大量优化与验证,构成其 Oracle 源端增量同步的基本盘

但是上述步骤中,DBMS_LOGMNR.ADD_LOGFILE (添加需要解析的 redo 日志) 因为 Oracle 的日志结构构成,对于细节处理要求较高,如果没处理好,在某些场景下,容易丢失数据

Oracle Redo日志如下结构

  • online redo log (在线日志)
    • redo04
    • redo05
    • redo06
  • archieved redo log (归档日志)
    • redo log with dictionary start
    • redo log with dictionary end
    • redo log with both dictionary start and end
    • redo log without dirctionary

其中在线日志有2+个组(完全镜像),每一个组里面 2/3 个文件进行轮换,在线文件会归档到归档日志,所有文件通过递增 sequence 维持顺序。

请问怎么样往 LogMiner 添加文件不会丢数据也不会重复解析日志?为了简化这个问题,Oracle 为 LogMiner 推出了 CONTINUOUS_MINE ,也就是不需要指定日志文件,自动帮你添加,不断吐出新的变更。

不过遗憾的是, Oracle 12.2 deprecated 此项特性,19c 直接去掉了这项能力。

但我们还是支持了这个能力,在 11 / 12 部分版本能够选择使用该项能力。

更加实时

两种模式的支持过程中,我们大大缩小老版本解析 redo 日志的范围,通过位点管理的重构,杜绝可能的重复添加已解析过日志文件,另外为了方便运维,DBA 同学可选择 CloudCanal 定时或相隔时间段构建字典的能力。

Read Commited 级别可见性

关系型数据库 Redo 文件包含几乎所有的操作,所以也隐含了数据库对外可见性在日志中,LogMiner 支持只吐出已提交(commited)的日志,但是我们并没有选择这种方式,原因有四

  • V$LOGMNR_CONTENTS 是一个视图,会话级别,一个大型数据变更,选择 commited 数据消费将会影响 Oracle 稳定性
  • 一个大型的数据变更,Oracle 等待 commit 再消费会导致大的数据延迟
  • CloudCanal 对于超级大事务有刷盘机制,LogMiner 边吐日志边处理,安全且高效
  • 此种机制不阻塞在超级大事务之间并发执行的小事务提交

当日志不断从 LogMiner 结果视图查询出来时,CloudCanal 的内存结构完美重现了一遍 Oracle Read Commit 级别的操作。

大事务支持

CloudCanal 新版本对于源端大事务做了充分的支持,当单个事务变更数小于固定值(默认 512 个),则全内存操作,一旦超过此数值,即开始刷盘,直到 commit 或 rollback 操作发生,进行后续的消费或者丢弃。

持久化变更操作到硬盘时,我们采用了kyro 序列化工具提升压缩比和 cpu 编解码效率,为了让数据序列化/反序列化可控,我们采用了最可靠的自定义序列化器方式,防止 kryo 通过反射制造各种惨案,将序列化类型限定在 java 最基础的几种类型上,让这块代码坚若磐石。

可选择的字典(ONLINE or IN_REDO)

LogMiner 分析的 Redo 时,必须包含日志的字典信息,否则解析出来的数据相当于乱码,无法识别,导致丢数据。可选择的两种字典类型,存在以下区别。

  • ONLINE : 即当前字典,无法配置 DDL 参数 DDL_DICT_TRACKING进行历史日志分析(比如做了 DDL 在表中间加了一个列,DDL 之后的变更可以解析,但是之前的变更可能解析失败)
  • IN_REDO :即以归档日志中存在的字典作为基准,配合 DDL_DICT_TRACKING构建演进的字典,即可做历史日志的解析(无论发生多少个 DDL,每一个事件都能获取到精确的元信息)

CloudCanal 新版本默认采用 IN_REDO 模式的元数据(依赖字典数据构建),但是也提供了 ONLINE 形式的字典,让增量任务启动更加顺畅(无前置构建字典必要)

更好的 redo 解析器

LogMiner 解析日志生成的核心数据 redo / undo SQL ,如果需要得到结构化数据,必须使用 SQL 解析,方案一般有三种

  • Antlr 解析(自定义文法)
  • 纯字符串解析
  • 其他成熟工具解析(如阿里 Druid)

是的,因为老版本代码这部分有参考某著名开源产品 , 所以我们使用的是纯字符串解析,爽快没多久,惨案便发生,对于 redo sql 中,业务数据值的千变万化,手工解析无疑是一个定时炸弹,所以我们决定使用 Druid 的 SQL 解析器,原因有三

  • 我们其他功能有使用 Druid 和她的 SQL 解析器,摸透了她的特点
  • 能找到作者,而且作者人很 nice
  • 即使最后我们需要自己维护,难度层面完全可以接受

常见 DDL 同步支持

对于 DDL 同步,特别是 Oracle 数据库源端增量同步 DDL,国内有一个著名通信公司同事和我们说,如果你们支持,我们就买,因为太烦太痛。
数据同步工具对于 DDL 事件的处理,实际上分为两个部分

  • 更新表元数据,以解析新事件
  • 同步到对端,让源和对端结构保持一致

对于第一项,是一定要做的事情,否则同步可能中断以及解析增量数据可能出错。对于第二项,我们的建议是通过统一的平台来做(比如我们的 CloudDM ),而这个并不是我们不想或不能,而是因为历史/技术的局限性,对端数据库无法做到快速的 DDL 变更,导致同步延迟或加大同步链路稳定性问题(长时间延迟可能出现各种不确定事件)。

不过应最终客户的需求,我们在 CloudCanal 新版本中做到了这两项。其中对端同步到 MySQL 我们支持

  • ALTER TABLE xxx ADD xxx ;
  • ALTER TABLE xxx DROP COLUMN xxx;
  • ALTER TABLE xxx MODIFY xxx;

搭好了舞台,开了一个好头,后续不断完善。

多版本 schema 以支持位点回拉

对于关系型数据库同步工具而言,增量数据本身往往和元数据分离,也就是消费到的增量数据和即时从数据库里面获取的元数据不一定匹配(两个时间点之间有DDL)。故维持一个多版本的元数据以应对增量数据解析是刚需。

CloudCanal 以每天的 schema dump 为基准,辅以到当前位点的 DDL 语句列表,可构建出任何时间点的元数据(实际上是更加精确的 scn 位点)。单个 DDL 前后的数据变更事件,能够精确匹配到相对应的元数据,进行解析。所以 CloudCanal 才有可能在此版本产品上提供了回拉位点重复消费一段时间增量数据的能力。

更加高效的数据结构

CloudCanal 新版本参考 MySQL 源端增量,将多个已提交事务批量交付给写入端进行写入,而针对大事务,提交后按照参数进行拆分,一边从硬盘上流式读取数据,一边写入对端,安全又高效。

更加合理的存取结构,将数据同步性能由原来的 几百 rps 提升到 5000+ rps ,满足业务突发流量的实时同步需求。

产品层面优化

支持全量数据校验

同步工具如果没有数据校验能力,往往会存在丢失数据的风险。显性层面表现为是否有数据校验功能,而隐性层面表现为是否做过多样化数据场景构建和数据校验

  • 测试的时候有多少张表?
  • 单表并发多少?
  • 单事务操作数多少?
  • 操作种类和比例多少?
  • 跑了多长时间?
  • 有没有暴力 kill ?
  • 极限硬件测试(资源有限,压力大)?

CloudCanal 新版本对于 Oracle 源端链路补足了此项能力,几百万、上千万条数据中,一条遗漏、一个字段不一致都逃不过数据校验。在交付用户/客户使用前,我们已经做了这些事情。

支持 Oracle 源端的任务编辑

业务方a 给 DBA 提了一个需求,希望把数据库 A 中表 1、2、3 配置同步到 Kafka 中,DBA 同学顺利完成任务。过了一些天,业务方b 又给 DBA 提了另外一个需求,将数据库 A 中表 4、5、6 配置同步到 Kafka 中。这个时候,DBA 有两种选择

  • 编辑下业务方 a 的任务,加4、5、6表进去,历史数据怎么办?
  • 新开一个任务,占新机器资源、占新数据连接、不断增加的运维成本?

CloudCanal 提供了平滑编辑订阅的能力,如新增表,则生成子任务,可选择做全量迁移,待增量追上自动合并到主任务一起同步。

支持 Oracle 源端心跳任务

当 Oracle 一段时间完全没有变更,如何确定是任务真的延迟还是没有流量?CloudCanal 新版本参考 MySQL 源端,通过参数配置,打开心跳开关,配置好变更语句和执行间隔,即可自动进行定时变更。准确识别延迟是因为下游不行还是 Oracle 没量。

更加明晰的监控指标

新版本的 CloudCanal 对于 Oracle 源端新增了两个监控指标,V$LOGMNR_CONTENTS 查询速率能准确观察 LogMiner 解析效率,内存中未提交事务数能简明判断后端消费和解析的压力,某些情况下还能精确判定 LogMiner 否吐完数据。

缩小的数据库权限要求

CloudCanal 对 Oracle 数据库的高权限要求,主要来自两个面向 DBA 的操作,自动构建字典自动切换归档日志 , 这两个操作初心比较简单,让用户使用更加自动化和便利,但是问题也比较明显,对数据库运维标准严苛的客户来说,这些操作在某些情况下是不可接受的。
所以新版本 CloudCanal ,通过参数配置,支持了关闭自动字典构建能力(默认打开)关闭自动切换归档日志能力(默认关闭)。用户在关闭这些功能时,能够知道必须辅以哪些运维操作,才能让 CloudCanal 正常运行。

其他的功能和修复

通用能力方面,我们此次打开了创建 Oracle 源端任务 支持数据过滤条件 的功能,但是语法依然仅限于 SQL92 的有限语法范围内,和 MySQL 等其他源端数据源共用一套数据过滤系统。

自定义代码能力 对于业务重构、新老系统替换是神器,新版本 CloudCanal 将这个能力打开,它依然和 MySQL 作为源端、PostgreSQL 作为源端,保持能力的一致性,数据过滤、打宽表、字段值变换、操作变化一样不少。
BUG 修复层面,新版本修复了 Oracle 远端全量迁移进度不准问题结构迁移类型映射不准确问题

“术后” 效果如何?

“术后”效果,我们需要回答文章开始之时提出的一些问题。

  • 对于能否在突发压力下(5000 条数据/秒)稳定运行?我们通过 高效的数据结构可调整内存参数阈值优化,基本达到目标(还有提升空间)。
  • 对于能否在超级大事务下( >1000万条数据数据订正)稳定运行?我们通过 非commit数据接收模式大事务支持边获取边写入 三个方法解决问题。
  • 对于能否不中断任务平滑新增表、减少表?我们通过支持 编辑订阅达到目标。
  • 对于能否自动处理源端常用 DDL 同步(加列/改列/减列)?我们通过 多版本schema管理 ,DDL转换与同步两个方法结合解决。
  • 对于能否重复消费一段时间的增量数据(回拉位点)?我们通过支持 多版本 schema 管理页面位点重溯功能解决。

我们还将会围绕 Oracle 做些什么?

更多的对端数据源

目前 CloudCanal 源端为 Oracle , 则对端支持 PostgreSQLGreenplumMySQLTiDBOracleKuduStarRocksOceanBaseKafka 数据源,我们在期待解决这些链路可能存在的问题同时,也希望支持更多对 Oracle 在线数据生态有益的对端数据源,比如 ElasticSearchClickHouseMongoDB

探索和其他数据源(如 MySQL)的双向同步可能性

Oracle 是否存在双向同步的可能性,对于很多业务来说,具有很强的实用性,我们希望能够探索出一条成熟类似 MySQL<->MySQL 之间双向同步的方案。Oracle <-> MySQL(Oracle) 双向同步,我们相信对很多用户来说很香。

物化视图(trigger方式)优化

CloudCanal 目前另外一种 Oracle 增量方案-物化视图,是一种权限要求低版本覆盖度好的解决方案,在此次优化中,我们并没有把它列入优化能力点,在后续的一些项目中,我们希望能够将此方案也能够优化好,具有不错的场景适用性。

问题修复

问题修复是我们一直要做的工作,也仰仗各位用户/客户广泛传播使用反馈。沉淀到我们的社区论坛/issue中,我们将会一轮一轮优化,将产品推向极致。

总结

Oracle 迁移同步,用 CloudCanal 就够了。如果你希望更加深入了解 CloudCanal 也可以通过官网联系我们,加入我们的社区群,共同构建强大的在线数据生态网络。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/wankaimingzj/article/details/126142647

智能推荐

hive使用适用场景_大数据入门:Hive应用场景-程序员宅基地

文章浏览阅读5.8k次。在大数据的发展当中,大数据技术生态的组件,也在不断地拓展开来,而其中的Hive组件,作为Hadoop的数据仓库工具,可以实现对Hadoop集群当中的大规模数据进行相应的数据处理。今天我们的大数据入门分享,就主要来讲讲,Hive应用场景。关于Hive,首先需要明确的一点就是,Hive并非数据库,Hive所提供的数据存储、查询和分析功能,本质上来说,并非传统数据库所提供的存储、查询、分析功能。Hive..._hive应用场景

zblog采集-织梦全自动采集插件-织梦免费采集插件_zblog 网页采集插件-程序员宅基地

文章浏览阅读496次。Zblog是由Zblog开发团队开发的一款小巧而强大的基于Asp和PHP平台的开源程序,但是插件市场上的Zblog采集插件,没有一款能打的,要么就是没有SEO文章内容处理,要么就是功能单一。很少有适合SEO站长的Zblog采集。人们都知道Zblog采集接口都是对Zblog采集不熟悉的人做的,很多人采取模拟登陆的方法进行发布文章,也有很多人直接操作数据库发布文章,然而这些都或多或少的产生各种问题,发布速度慢、文章内容未经严格过滤,导致安全性问题、不能发Tag、不能自动创建分类等。但是使用Zblog采._zblog 网页采集插件

Flink学习四:提交Flink运行job_flink定时运行job-程序员宅基地

文章浏览阅读2.4k次,点赞2次,收藏2次。restUI页面提交1.1 添加上传jar包1.2 提交任务job1.3 查看提交的任务2. 命令行提交./flink-1.9.3/bin/flink run -c com.qu.wc.StreamWordCount -p 2 FlinkTutorial-1.0-SNAPSHOT.jar3. 命令行查看正在运行的job./flink-1.9.3/bin/flink list4. 命令行查看所有job./flink-1.9.3/bin/flink list --all._flink定时运行job

STM32-LED闪烁项目总结_嵌入式stm32闪烁led实验总结-程序员宅基地

文章浏览阅读1k次,点赞2次,收藏6次。这个项目是基于STM32的LED闪烁项目,主要目的是让学习者熟悉STM32的基本操作和编程方法。在这个项目中,我们将使用STM32作为控制器,通过对GPIO口的控制实现LED灯的闪烁。这个STM32 LED闪烁的项目是一个非常简单的入门项目,但它可以帮助学习者熟悉STM32的编程方法和GPIO口的使用。在这个项目中,我们通过对GPIO口的控制实现了LED灯的闪烁。LED闪烁是STM32入门课程的基础操作之一,它旨在教学生如何使用STM32开发板控制LED灯的闪烁。_嵌入式stm32闪烁led实验总结

Debezium安装部署和将服务托管到systemctl-程序员宅基地

文章浏览阅读63次。本文介绍了安装和部署Debezium的详细步骤,并演示了如何将Debezium服务托管到systemctl以进行方便的管理。本文将详细介绍如何安装和部署Debezium,并将其服务托管到systemctl。解压缩后,将得到一个名为"debezium"的目录,其中包含Debezium的二进制文件和其他必要的资源。注意替换"ExecStart"中的"/path/to/debezium"为实际的Debezium目录路径。接下来,需要下载Debezium的压缩包,并将其解压到所需的目录。

Android 控制屏幕唤醒常亮或熄灭_android实现拿起手机亮屏-程序员宅基地

文章浏览阅读4.4k次。需求:在诗词曲文项目中,诗词整篇朗读的时候,文章没有读完会因为屏幕熄灭停止朗读。要求:在文章没有朗读完毕之前屏幕常亮,读完以后屏幕常亮关闭;1.权限配置:设置电源管理的权限。

随便推点

目标检测简介-程序员宅基地

文章浏览阅读2.3k次。目标检测简介、评估标准、经典算法_目标检测

记SQL server安装后无法连接127.0.0.1解决方法_sqlserver 127 0 01 无法连接-程序员宅基地

文章浏览阅读6.3k次,点赞4次,收藏9次。实训时需要安装SQL server2008 R所以我上网上找了一个.exe 的安装包链接:https://pan.baidu.com/s/1_FkhB8XJy3Js_rFADhdtmA提取码:ztki注:解压后1.04G安装时Microsoft需下载.NET,更新安装后会自动安装如下:点击第一个傻瓜式安装,唯一注意的是在修改路径的时候如下不可修改:到安装实例的时候就可以修改啦数据..._sqlserver 127 0 01 无法连接

js 获取对象的所有key值,用来遍历_js 遍历对象的key-程序员宅基地

文章浏览阅读7.4k次。1. Object.keys(item); 获取到了key之后就可以遍历的时候直接使用这个进行遍历所有的key跟valuevar infoItem={ name:'xiaowu', age:'18',}//的出来的keys就是[name,age]var keys=Object.keys(infoItem);2. 通常用于以下实力中 <div *ngFor="let item of keys"> <div>{{item}}.._js 遍历对象的key

粒子群算法(PSO)求解路径规划_粒子群算法路径规划-程序员宅基地

文章浏览阅读2.2w次,点赞51次,收藏310次。粒子群算法求解路径规划路径规划问题描述    给定环境信息,如果该环境内有障碍物,寻求起始点到目标点的最短路径, 并且路径不能与障碍物相交,如图 1.1.1 所示。1.2 粒子群算法求解1.2.1 求解思路    粒子群优化算法(PSO),粒子群中的每一个粒子都代表一个问题的可能解, 通过粒子个体的简单行为,群体内的信息交互实现问题求解的智能性。    在路径规划中,我们将每一条路径规划为一个粒子,每个粒子群群有 n 个粒 子,即有 n 条路径,同时,每个粒子又有 m 个染色体,即中间过渡点的_粒子群算法路径规划

量化评价:稳健的业绩评价指标_rar 海龟-程序员宅基地

文章浏览阅读353次。所谓稳健的评估指标,是指在评估的过程中数据的轻微变化并不会显著的影响一个统计指标。而不稳健的评估指标则相反,在对交易系统进行回测时,参数值的轻微变化会带来不稳健指标的大幅变化。对于不稳健的评估指标,任何对数据有影响的因素都会对测试结果产生过大的影响,这很容易导致数据过拟合。_rar 海龟

IAP在ARM Cortex-M3微控制器实现原理_value line devices connectivity line devices-程序员宅基地

文章浏览阅读607次,点赞2次,收藏7次。–基于STM32F103ZET6的UART通讯实现一、什么是IAP,为什么要IAPIAP即为In Application Programming(在应用中编程),一般情况下,以STM32F10x系列芯片为主控制器的设备在出厂时就已经使用J-Link仿真器将应用代码烧录了,如果在设备使用过程中需要进行应用代码的更换、升级等操作的话,则可能需要将设备返回原厂并拆解出来再使用J-Link重新烧录代码,这就增加了很多不必要的麻烦。站在用户的角度来说,就是能让用户自己来更换设备里边的代码程序而厂家这边只需要提供给_value line devices connectivity line devices