innodb源码分析之redo log恢复

最后更新于:2022-04-01 20:05:36

在上一篇《[innodb源码分析之重做日志结构](http://blog.csdn.net/yuanrxdu/article/details/42430187)》中我们知道redo log的基本结构和日志写入步骤,那么redo log是怎么进行数据恢复的呢?在什么时候进行redo log的日志推演呢?redo log的推演只有在数据库异常或者关闭后,数据库重新启动时会进行日志推演,将数据库状态恢复到关闭前的状态。那么这个过程是怎么进行的呢?以下我们逐步来解析。 ## 1.recv_sys_t结构 innodb在MySQL启动的时候,会对重做日志文件进行日志重做,重做日志是通过一个recv_sys_t的结构来进行数据恢 复和控制的。它的结构如下: ~~~ struct recv_sys_struct { mutex_t mutex; /*保护锁*/ ibool apply_log_recs; /*正在应用log record到page中*/ ibool apply_batch_on; /*批量应用log record标志*/ dulint lsn; ulint last_log_buf_size; byte* last_block; /*恢复时最后的块内存缓冲区*/ byte* last_block_buf_start; /*最后块内存缓冲区的起始位置,因为last_block是512地址对齐的,需要这个变量记录free的地址位置*/ byte* buf; /*从日志块中读取的重做日志信息数据*/ ulint len; /*buf有效的日志数据长度*/ dulint parse_start_lsn; /*开始parse的lsn*/ dulint scanned_lsn; /*已经扫描过的lsn序号*/ ulint scanned_checkpoint_no; /*恢复日志的checkpoint 序号*/ ulint recovered_offset; /*恢复位置的偏移量*/ dulint recovered_lsn; /*恢复的lsn位置*/ dulint limit_lsn; /*日志恢复最大的lsn,暂时在日志重做的过程没有使用*/ ibool found_corrupt_log; /*是否开启日志恢复诊断*/ log_group_t* archive_group; mem_heap_t* heap; /*recv sys的内存分配堆,用来管理恢复过程的内存占用*/ hash_table_t* addr_hash; /*recv_addr的hash表,以space id和page no为KEY*/ ulint n_addrs; /*addr_hash中包含recv_addr的个数*/ }; ~~~ 在这个结构中,比较复杂的是addr_hash这个哈希表,这个哈希表是用sapce_id和page_no作为hash key,里面存储有恢复时对应的记录内容。恢复日志在从日志文件中读出后,进行解析成若干个recv_t并存储在哈希表当中。在一个读取解析周期过后,日志恢复会对hash表中的recv_t中的数据写入到ibuf和page中。这里为什么要使用hash表呢?个人觉得是为了同一个page的数据批量进行恢复的缘故,这样可以page减少随机插入和修改。 以下是和这个过程相关的几个数据结构: ~~~ /*对应页的数据恢复操作集合*/ struct recv_addr_struct { ulint state; /*状态,RECV_NOT_PROCESSED、RECV_BEING_PROCESSED、RECV_PROCESSED*/ ulint space; /*space的ID*/ ulint page_no; /*页序号*/ UT_LIST_BASE_NODE_T(recv_t) rec_list; hash_node_t addr_hash; }; /*当前的记录操作*/ struct recv_struct { byte type; /*log类型*/ ulint len; /*当前记录数据长度*/ recv_data_t* data; /*当前的记录数据list*/ dulint start_lsn; /*mtr起始lsn*/ dulint end_lsn; /*mtr结尾lns*/ UT_LIST_NODE_T(recv_t) rec_list; }; /*具体的数据体*/ struct recv_data_struct { recv_data_t* next; /*下一个recv_data_t,next的地址后面接了一大块内存,用于存储rec body*/ }; ~~~ 他们的内存关系结构图如下: ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-08-17_57b42163b8f66.jpg) ## 2.重做日志推演过程的LSN关系 除了这个恢复的哈希表以外,recv_sys_t中的各种LSN也是和日志恢复有非常紧密的关系。以下是各种lsn的解释:   parse_start_lsn    本次日志重做恢复起始的lsn,如果是从checkpoint处开始恢复,等于checkpoint_lsn。   scanned_lsn        在恢复过程,将恢复日志从log_sys->buf解析块后存入recv_sys->buf的日志lsn.   recovered_lsn      已经将数据恢复到page中或者已经将日志操作存储addr_hash当中的日志lsn;   在日志开始恢复时:    parse_start_lsn = scanned_lsn = recovered_lsn = 检查点的lsn。  在日志完成恢复时:      parse_start_lsn =  检查点的lsn      scanned_lsn = recovered_lsn = log_sys->lsn。 在日志推演过程中lsn大小关系如下: ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-08-17_57b42163d98c0.jpg) ## 3.日志恢复的主要接口和流程 恢复日志主要的接口函数:  recv_recovery_from_checkpoint_start    从重做日志组内的最近的checkpoint开始恢复数据   recv_recovery_from_checkpoint_finish  结束从重做日志组内的checkpoint的数据恢复操作   recv_recovery_from_archive_start           从归档日志文件中进行数据恢复   recv_recovery_from_archive_finish         结束从归档日志中的数据恢复操作   recv_reset_logs                                          截取重做日志最后一段作为新的重做日志的起始位置,可能会丢失数据。 **重做日志恢复数据的流程(checkpoint方式)**  1.当MySQL启动的时候,先会从数据库文件中读取出上次保存最大的LSN。   2.然后调用recv_recovery_from_checkpoint_start,并将最大的LSN作为参数传入函数当中。   3.函数会先最近建立checkpoint的日志组,并读取出对应的checkpoint信息   4.通过checkpoint lsn和传入的最大LSN进行比较,如果相等,不进行日志恢复数据,如果不相等,进行日志恢复。   5.在启动恢复之前,先会同步各个日志组的archive归档状态   6.在开始恢复时,先会从日志文件中读取2M的日志数据到log_sys->buf,然后对这2M的数据进行scan,校验其合法性,而后将去掉block header的日志放入recv_sys->buf当中,这个过程称为scan,会改变scanned lsn.   7.在对2M的日志数据scan后,innodb会对日志进行mtr操作解析,并执行相关的mtr函数。如果mtr合法,会将对应的记录数据按space page_no作为KEY存入recv_sys->addr_hash当中。   8.当对scan的日志数据进行mtr解析后,innodb对会调用recv_apply_hashed_log_recs对整个recv_sys->addr_hash进行扫描,并按照日志相对应的操作进行对应page的数据恢复。这个过程会改变recovered_lsn。   9.如果完成第8步后,会再次从日志组文件中读取2M数据,跳到步骤6继续相对应的处理,直到日志文件没有需要恢复的日志数据。   10.innodb在恢复完成日志文件中的数据后,会调用recv_recovery_from_checkpoint_finish结束日志恢复操作,主要是释放一些开辟的内存。并进行事务和binlog的处理。 上面过程的示意图如下: ![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-08-17_57b42163f0f54.jpg)
';