[MySQL 学习] Innodb Optimistic Insert流程

通常情况下,插入一条数据的接口函数为btr_cur_optimistic_insert,这时候不需要进行索引树分裂,先来看看这里怎么处理压缩表数据吧

btr_cur_optimistic_insert

a. 计算该Page上还能写入的最大空闲空间大小

max_size = page_get_max_insert_size_after_reorganize(page, 1);

以及这条逻辑记录(dtuple_struct)转换成物理记录的大小

rec_size = rec_get_converted_size(index, entry, n_ext)

b.判断该记录是否需要外部存储

if (page_zip_rec_needs_ext(rec_size, page_is_comp(page),

1320                    dtuple_get_n_fields(entry), zip_size))

如果需要外部存储的话,返回DB_TOO_BIG_RECORD,由上层继续处理

当为压缩表时,在每个压缩Page上的dense page directory中为每条记录记录预留两个byte。但没有record header。在一个空的leaf page上,至少要有一条记录。另外还要减去一个Byte来存储heap number. 同样的该记录也不能大于非压缩page最大可用空间的一半

所以判断条件为:

        (rec_size – (REC_N_NEW_EXTRA_BYTES – 2)

               >= (page_zip_empty_size(n_fields, zip_size) – 1)

               || rec_size >= page_get_free_space_of_empty(TRUE) / 2);

c.当该表为压缩表时,即zip_size>0,需要检查记录的大小,确保非叶子节点上能存储两条记录。否则返回DB_TOO_BIG_RECORD

一个压缩page的最大可用空闲空间,通过函数page_zip_empty_size计算

zip_size-

   (PAGE_DATA   // (PAGE_HEADER + 36 + 2 * FSEG_HEADER_SIZE),表示一个page上数据开始的偏移量

  +PAGE_ZIP_DIR_SLOT_SIZE     //一个压缩页内directory entry的大小,2个字节

  +DATA_TRX_ID_LEN + DATA_ROLL_PTR_LEN 一个记录的事务ID和回滚段指针长度,6+7个字节

  +1   /* encoded heap_no==2 in page_zip_write_rec() */

  +1  /* end of modification log */

   )

   -compressBound(2 * (n_fields + 1))   //减去为page_zip_fields_encode()留的空间,用于存储索引信息

d.检查是否需要分裂叶子page以为未来的记录更新预留足够的空闲空间(预留空间为1k,也就是UNIV_PAGE_SIZE / 16)。当满足如下条件时:

1.聚集索引

2.该page上的记录数大于2个

3.叶子节点

4.UNIV_PAGE_SIZE/16+rec_size > max_size

5.是否分裂并将记录迁移到左节点或右节点(btr_page_get_split_rec_to_right || btr_page_get_split_rec_to_left)

判断新插入记录是在上次插入的记录之后,还是之前,据此判断将新记录插入分裂的左节点还是右节点

       btr_page_get_split_rec_to_right

               当前插入记录的下一个记录指针等于上次插入的记录指针时,返回TRUE,否则返回false

       btr_page_get_split_rec_to_right

               当前插入的记录在该page上上次插入记录的右边,则认为这是一次序列插入,返回TRUE,否则返回False

若满足上述条件,返回 DB_FAIL

e.满足如下条件,返回DB_FAIL

1.max_size < BTR_CUR_PAGE_REORGANIZE_LIMIT || max_size < rec_size

BTR_CUR_PAGE_REORGANIZE_LIMIT为(UNIV_PAGE_SIZE / 32),表示如果一条插入记录空间不够,但重新组织page后可以获得这么多的空闲空间,就去重组织page。

2.page上的记录数大于1

3.插入记录的空间不够,即page_get_max_insert_size(page, 1) < rec_size

f. 调用函数btr_cur_ins_lock_and_undo检查锁并做undo

1.检查是否需要等待锁,如果被阻塞的话则加入一个显式锁

    err = lock_rec_insert_check_and_lock(flags, rec, 

                         btr_cur_get_block(cursor),

                         index, thr, mtr, inherit);

2.如果是聚集索引,且索引不是insert buffer tree,则记录undo,二级索引不记undo

        err = trx_undo_report_row_operation(flags, TRX_UNDO_INSERT_OP,

                            thr, index, entry,

                            NULL, 0, NULL,

                            &roll_ptr);

(1)事务的rollback segment已经指定(trx_assign_rseg,循环从trx_sys->rseg_list上获取,回滚段的数目由参数innodb_rollback_segments来控制)

(2)如果没有分配trx_undo_t(即trx->insert_undo == NULL),则为当前事务分配一个trx_undo_assign_undo

<1>首先调用trx_undo_reuse_cached从rseg->insert_undo_cached上获取undo log对象,初始化undo和对应的undo page(trx_undo_insert_header_reuse)

<2>如果<1>没有cache的undo,则创建一个新的trx_undo_t对象(trx_undo_create)

 –>调用函数trx_undo_seg_create,首先从回滚段头部读取slot信息,尝试找到空闲的undo log slot,如果没有的话,则报warning DB_TOO_MANY_CONCURRENT_TRXS;并为undo log分配回滚page,

–>为undo page 初始化undo page header(trx_undo_header_create),分配undo log的内存结构trx_undo_t(trx_undo_mem_create)

<3>加入到rseg->insert_undo_list链表头部,并设置trx->insert_undo = undo

(3). 将undo page读入内存,并向其中写入记录信息(insert操作为trx_undo_page_report_insert,update操作为trx_undo_page_report_modify),并创建回滚指针(trx_undo_build_roll_ptr),回滚指针由操作类型、回滚段id、undo page no以及page内偏移量决定。

      3.更新记录的回滚指针

            row_upd_index_entry_sys_field(entry, index,

                              DATA_ROLL_PTR, roll_ptr);

g.调用page_cur_tuple_insert尝试插入记录,

对于压缩表,调用函数page_cur_insert_rec_zip,会向解压page插入记录,向压缩page写入mlog,流程如下:

1.获取在该物理记录的大小。

rec_size = rec_offs_size(offsets);

2.检查压缩Page的modification log中是否有足够的空间,调用函数page_zip_available

先来看看一个压缩page包含哪些内容吧,在include/page0zip.ic文件的头部注释有详细的描述

(1)uncompressed page header (大小为PAGE_DATA字节)

(2)Compressed index information  //未明
(3)Compressed page data
(4)Page modification log (page_zip->m_start..page_zip->m_end)  //写入记录时包含记录数据,删除记录时,直接在mlog中标记删除
(5)Empty zero-filled space
(6)BLOB pointers (on leaf pages)– BTR_EXTERN_FIELD_REF_SIZE for each externally stored column- in descending collation orde
(7)Uncompressed columns of user records, n_dense * uncompressed_size bytes, indexed by heap_no  //包括node_ptr(non-leaf B-tree nodes; level>0),trx_id和roll_ptr(leaf B-tree nodes; level=0)  ps:facebook正在对这部分优化,进行压缩– DATA_TRX_ID_LEN + DATA_ROLL_PTR_LEN for leaf pages of clustered indexes- REC_NODE_PTR_SIZE for non-leaf pages

– 0 otherwise

(8)dense page directory, stored backwards    //dense page directory指向每一个page上的用户记录,包括标记删除的记录,不包括infimum/supremum记录,每个entry的两个最高有效位为delete-mark和n_owned标记预留,其中n_onwned标记表示非压缩page上记录的spare index一个slot对应记录链表的最后一个记录。– n_dense = n_heap – 2- existing records in ascending collation order

– deleted records (free list) in link order

3.如果压缩page中不够容纳新的mlog记录,则

(1)调用page_cur_insert_rec_low向非压缩页中插入数据,包括实际插入数据,以及page内记录的spare index更新

<1>计算物理记录大小及获得page内的空闲空间,先从free list上找,如果没有或空间太小,再从堆上分配

<2>将记录插入到page中的记录链上,设置n_owned和heap_no

<3>更新Page头部PAGE_LAST_INSERT/PAGE_DIRECTION/信息

<4>更新spare index的slot记录信息,n_owned+1,如果n_owned超过PAGE_DIR_SLOT_MAX_N_OWNED,还需要对slot进行分裂(page_dir_split_slot)

<5>写入日志信息(page_cur_insert_rec_write_log)

(2)如果(1)插入成功,则对压缩页进行重新压缩(page_cur_insert_rec_zip_reorg)

<1>调用page_zip_compress对page进行压缩,如果压缩成功,则返回

<2>如果压缩失败,则调用函数page_zip_reorganize对page进行重新组织压缩page。

<<1>>将page内容拷贝到一个临时block中,重建page(page_create),再从临时空间拷贝记录(page_copy_rec_list_end_no_locks)

<<2>>最后再做一次压缩page_zip_compress,如果失败则返回FALSE。如果成功,则调用lock_move_reorganize_page更新lock table,然后返回TRUE

<3>如果重组织page后压缩依然失败,则page_zip_decompress,并返回NULL

最后返回插入的记录或NULL

4.如果压缩page能容纳新的mlog记录,则继续往下走

(1)从非压缩page中找到空闲空间,以用于放置记录,跟函数 page_cur_insert_rec_low 的流程差不多

(2)向压缩页的dense page directory中增加一个slot,调用函数page_zip_dir_add_slot

(3)设置插入记录的前后记录指针,设置插入记录的n_owned为0,并设置heap_no

(4)向dense page directory中写入记录信息(page_zip_dir_insert)

(5)同时更新压缩和非压缩Page头部信息

(6)更新压缩页和非压页该记录的owner记录的n_owned字段加1,如果n_owned超过PAGE_DIR_SLOT_MAX_N_OWNED,还需要分裂slot.

(7)向压缩page中插入记录page_zip_write_rec(page_zip, insert_rec, index, offsets, 1);

        <1>找到记录在dense page directory中的slot = page_zip_dir_find(page_zip, page_offset(rec));

<2>设置slot上的删除标记

<3>获取记录heap no  heap_no = rec_get_heap_no_new(rec);

<4>从page_zip->data + page_zip->m_end开始写入mlog,包括heap_no-1,从(rec – REC_N_NEW_EXTRA_BYTES)~rec – rec_offs_extra_size(offsets)间的字节(物理记录之外额外信息)。

<5>

对于leaf page

–>如果是聚集索引,需要存储trx_id及roll_ptr以及blob列的BTR_EXTERN_FIELD_REF信息,如果存在外部存储的列,则调用函数page_zip_write_rec_ext来向压缩page中写入记录。trx_id和roll_ptr属于非压缩的部分,也会被单独写(存储位置为page_zip_dir_start(page_zip)),但都会写入到mlog中,包括记录本身

–>如果是非聚集索引,只需要在mlog中记录完整的记录

对于non-leaf page

–>拷贝除node_ptr之外的数据到mlog中

–>拷贝node_ptr到非压缩区域

<6>最后更新page_zip->m_end

5.最后记录日志信息page_cur_insert_rec_write_log

h.如果插入记录失败,则调用btr_page_reorganize->btr_page_reorganize_low重组织page,并再次调用page_cur_tuple_insert重新插入一次记录。对于非压缩表,第二次插入不应该失败。

注:对于压缩表,在某些情况下似乎进行了两次重组织page,page_zip_reorganize的流程和btr_page_reorganize_low基本差不多,后面要证实这里是否有额外的开销

i.更新adaptive hash index (btr_search_update_hash_on_insert/btr_search_update_hash_node_on_insert)

j. if (!(flags & BTR_NO_LOCKING_FLAG) && inherit)   ==>lock_update_insert(block, *rec)

不太清楚锁这部分机制,inherit在函数lock_rec_insert_check_and_lock中被设置,如果插入记录的next_rec上在lock table中没有记录,则设为false,否则设为true.

k.对于非聚集索引,调用ibuf_update_free_bits_zip更新压缩page在insert buffer中的free bits

 

时间: 2024-10-25 22:09:14

[MySQL 学习] Innodb Optimistic Insert流程的相关文章

[MySQL 学习] Innodb Optimistic Update流程

更新一条聚集索引记录,接口函数是btr_cur_optimistic_update,这里的更新不涉及到标记删除/插入(二级索引更新或更新主键值,row_upd->row_upd_clust_rec_by_insert->btr_cur_del_mark_set_clust_rec->btr_rec_set_deleted_flag) a.首先判断记录更新是否改变了大小或者需要外部存储,调用函数row_upd_changes_field_size_or_external b.如果a返回的是

[MySQL 学习] Innodb Optimistic Delete 简述

接口函数是btr_cur_optimistic_delete Innodb的Optimistic Delete操作主要是由purge线程来进行的,用户线程仅仅做了删除标记(包括删除记录,更新二级索引以及更新主键), 另外如果插入/更新操作回滚了,用户也会调用到函数btr_cur_optimistic_delete 例如回滚insert操作的调用栈为 trx_general_rollback_for_mysql–>-..->row_undo->row_undo_ins->row_un

[MySQL学习] Innodb崩溃恢复流程

简要记录跟踪代码,很多代码流程没有细细的跟进去,只是了解了个大概,杂七杂八,还有太多不了解的地方. 不过,一知半解总比一无所知要好点-sign- //////////////////////////////////////////// 一.innobase_init 1.初始化存储引擎接口函数.检查指定的page大小(innodb_page_size,Percona版本支持16k以下的page size定义).innodb_log_block_size. 2.检查是否通过记录在innodb层的r

[MySQL学习] Innodb锁系统(4) Insert/Delete 锁处理及死锁示例分析

A.INSERT 插入操作在函数btr_cur_optimistic_insert->btr_cur_ins_lock_and_undo->lock_rec_insert_check_and_lock这里进行锁的判断,我们简单的看看这个函数的流程: 1.首先先看看欲插入记录之后的数据上有没有锁,    next_rec = page_rec_get_next_const(rec);    next_rec_heap_no = page_rec_get_heap_no(next_rec);  

[MySQL学习] Innodb change buffer(2) 相关函数及流程

简单的代码跟踪,顺便弄清了之前一直困惑的bp->watch的用途.... //////////////////////////////// A.相关结构体 在介绍ibuf在Innodb中的使用前,我们先介绍下相关的结构体及全局变量. 我们知道通过Ibuf可以缓冲多种操作类型,每种操作类型,在内部都有一个宏与之对应: IBUF_OP_INSERT IBUF_OP_DELETE_MARK IBUF_OP_DELETE 至于对update操作的缓冲,由于二级索引记录的更新是先delete-mark,再

[MySQL 源码] Innodb Pessimistic Insert流程

简单跟了下插入导致索引分裂的流程 ////////////////////////////////// 入口函数:row_ins_index_entry 实际上悲观插入和乐观插入是根据row_ins_index_entry_low的第一个参数来判断的 调用两次row_ins_index_entry_low 第一次参数为BTR_MODIFY_LEAF,表示只修改叶子节点,如果失败了 第二次参数为BTR_MODIFY_TREE,表示需要修改B-TREE,这时候会选择调用函数: btr_cur_pes

[MySQL 学习] Innodb锁系统(2)关键函数路径

前提: 以下分析基于标准的配置选项: tx_isolation = REPEATABLE-READ innodb_locks_unsafe_for_binlog = OFF lock->type_mode用来表示锁的类型,实际上lock->type_mode包含了几乎所有锁的模式信息,例如锁类型判断是X锁还是S锁 lock->type_mode &LOCK_TYPE_MASK LOCK_MODE_MASK 0xFUL 用于表示锁模式掩码 LOCK_TYPE_MASK 0xF0UL

[MySQL 学习] Innodb锁系统(1)之如何阅读死锁日志

前言: 最近经常碰到死锁问题,由于对这块代码不是很熟悉,而常持有对文档怀疑的观点.决定从几个死锁问题着手,好好把Innodb锁系统的代码过一遍. 以下的内容不敢保证完全正确.只是我系统学习的过程. /////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// 最近有同学发现,走二级索引删除数据时,两条delete

[MySQL学习] Innodb change buffer(1)之初识篇

从MySQL5.5版本开始,Insert buffer更名为change buffer,除了缓冲对二级索引的insert操作,还包括update/delete/后台purge操作,由参数innodb_change_buffering来控制.因此这里统一称为change buffer. ////////////////////////////////////////////////////////// 当更新/插入的非聚集索引的数据所对应的页不在内存中时(对非聚集索引的更新操作通常会带来随机IO)