「尺有所短,寸有所长;不忘初心,方得始终。」
在应用系统中,我们为加速数据访问,会把高频的数据放在「缓存」(Redis、MongoDB)里,减轻数据库的压力。 在操作系统中,为了减少磁盘IO,引入了「缓冲池」(buffer pool)机制。 MySQL作为一个存储系统,为提高性能,减少磁盘IO,同样具有「缓冲池」(buffer pool)机制。
在之前的文章《InnoDB的存储结构》中介绍了InnoDB的存储结构的组成,结构图如下:

「上述结构图中展示了Buffer Pool作为InnoDB内存结构的四大组件之一,不属于MySQL的Server层,是InnoDB存储引擎层的缓冲池」。因此这个跟MySQL8.0删掉的【查询缓存】功能是不一样的。
一、什么是Buffer Pool
「Buffer Pool即【缓冲池,简称BP】,BP以Page页为单位,缓存最热的数据页(data page)与索引页(index page),Page页默认大小16K,BP的底层采用链表数据结构管理Page」。

上图描述了Buffer Pool在innoDB中的位置,通过它所在的位置我们可以大概知道它的工作流程:
所有数据页的读写操作都需要通过buffer pool进行,
innodb 读操作,先从buffer_pool中查看数据的数据页是否存在,如果不存在,则将page从磁盘读取到buffer pool中。
innodb 写操作,先把数据和日志写入 buffer pool 和 log buffer,再由后台线程以一定频率将 buffer 中的内容刷到磁盘,「这个刷盘机制叫做Checkpoint」。
写操作的事务持久性由redo log 落盘保证,buffer pool只是为了提高读写效率。

「Buffer Pool缓存表数据与索引数据,把磁盘上的数据加载到缓冲池,避免每次访问都进行磁盘IO,起到加速访问的作用」。
Buffer Pool是一块内存区域,是一种「降低磁盘访问的机制」。
数据库的读写都是在buffer pool上进行,和undo log/redo log/redo log buffer/binlog一起使用,后续会把数据刷到硬盘上。
Buffer Pool默认大小 128M,用于缓存数据页(16KB)。
show variables like 'innodb_buffer%';
复制
Buffer Pool 是 innodb的数据缓存, 除了缓存「索引页」和「数据页」,还包括了 undo 页,插入缓存、自适应哈希索引、锁信息等。
「buffer pool绝大多数page都是 data page(包括index page)」。
「innodb 还有日志缓存 log buffer,保存redo log」。

二、Buffer Pool的控制块
Buffer Pool中缓存的是数据页,数据页大小跟磁盘默认数据页大小一样(16K),为了更好管理的缓存页,Buffer Pool有一个「描述数据的区域」 :
「InnoDB 为每一个缓存的数据页都创建了一个单独的区域,记录的数据页的元数据信息,包括数据页所属表空间、数据页编号、缓存页在Buffer Pool中的地址,链表节点信息、一些锁信息以及 LSN 信息等,这个区域被称之为控制块」。
「控制块和缓存页是一一对应的,它们都被存放到 Buffer Pool 中,其中控制块被存放到 Buffer Pool 的前边,缓存页被存放到 Buffer Pool 后边」,
控制块大概占缓存页大小的5%,16 * 1024 * 0.05 = 819个字节左右。

上图展示了控制块与数据页的对应关系,可以看到在控制块和数据页之间有一个碎片空间。
这里可能会有疑问,为什么会有碎片空间呢?
上面说到,数据页大小为16KB,控制块大概为800字节,当我们划分好所有的控制块与数据页后,可能会有剩余的空间不够一对控制块和缓存页的大小,这部分就是多余的碎片空间。如果把 Buffer Pool 的大小设置的刚刚好的话,也可能不会产生碎片。
三、Buffer Pool的管理
「Buffer Pool里有三个链表,LRU链表,free链表,flush链表,InnoDB正是通过这三个链表的使用来控制数据页的更新与淘汰的」。
3.1 Buffer Pool的初始化
「当启动 Mysql 服务器的时候,需要完成对 Buffer Pool 的初始化过程,即分配 Buffer Pool 的内存空间,把它划分为若干对控制块和缓存页」。
「申请空间」
Mysql 服务器启动,就会根据设置的Buffer Pool大小(innodb_buffer_pool_size)超出一些,去操作系统「申请一块连续内存区域」作为Buffer Pool的内存区域。
这里之所以申请的内存空间会比innodb_buffer_pool_size大一些,主要是因为里面还要存放每个缓存页的控制块。
「划分空间」
当内存区域申请完毕之后,数据库就会按照默认的缓存页的16KB的大小以及对应的800个字节左右的控制块的大小,在Buffer Pool中划分「成若干个【控制块&缓冲页】对」。
划分空间后Buffer Pool的缓存页是都是空的,里面什么都没有,当要对数据执行增删改查的操作的时候,才会把数据对应的页从磁盘文件里读取出来,放入Buffer Pool中的缓存页中。

3.2 Free链表
「在Buffer pool刚被初始化出来的时候,里面的数据页以及控制块都是空的」,当执行读写的时候磁盘的数据页会加载到Buffer pool的数据页中,当BufferPool中间有的页数据持久化到硬盘后,这些数据页又会被空闲出来。
以上的过程中会有一个问题,如何知道那些数据页是空的,那些是有数据的,只有找到空的数据页,才能吧数据写进去,一种方式是遍历所有的数据页,根据经验,一般只要是全部遍历,对于一个有追求的码农肯定是不能忍的,innoDB的开发者无疑更加不能忍,所以就有了free链表。
3.2.1 Free链表是个啥
「Free链表即空闲链表,是一个双向链表,由一个基础节点和若干个子节点组成,记录空闲的数据页对应的控制块信息」。如下

Free链表作用:帮助找到空闲的缓存页
「基节点」
「是一块单独申请的内存空间(约占40字节)。并不在Buffer Pool的连续内存空间里」。
包含链表中子节点中头节点地址,尾节点地址,以及当前链表中节点的数量等信息。
「子节点」
「每个节点就是个空闲缓存页的控制块,即只要一个缓存页空闲,那它的控制块就会被放入free链表」 每个控制块块里都有两个指针free_pre(指向上一个节点),free_next(指向下一个节点)
Free链表存在的意义就是描述Buffer Pool中的数据页,所以Free链表跟数据页的是一一对应的关系,如下图所示:

上图就是Free链表记录空闲数据页的对应关系,这里可能会有一个误区,以为这个控制块,在Buffer Pool里有一份,在free链表里也有一份,似乎在内存里有两个一模一样的控制块,「如果这么想就大错特错了」。
「误区说明」
「free链表本身其实就是由Buffer Pool里的控制块组成的,前文中说到每个控制块里都有free_pre/free_next两个指针,分别指向自己的上一个free链表的节点,以及下一个free链表的节点。」
「Buffer Pool中的控制块通过两个指针,就可以把所有的控制块串成一个free链表。上面为了画图看起来更加清晰,所以把free链表单独画了一份出来,表示他们之间的指针引用关系。」
「基于此,真正的关系图应该下图」:

这里之所以会把两个图都画画出来,是因为网上很多博客画的图都是类似上面哪一种,「会给人产生在Buffer Pool和free链表各有一个控制块的误区」,我在开始的时候也产生了这样的疑问,所以在这里说明记录一下。
3.2.2 磁盘页加载到BufferPool的缓存也流程
通过free链表只需要三步就可以将磁盘页加载到BufferPool的缓存中:
「步骤一」
「从free链表中取出一个空闲的控制块以及对应缓冲页」。
「步骤二」
「把磁盘上的数据页读取到对应的缓存页,同时把相关的一些描述数据写入缓存页的控制块(例如:页所在的表空间、页号之类的信息)」。
「步骤三」
「把该控制块对应的free链表节点从链表中移除,表示该缓冲页已经被使用了」。
下面用一个伪代码来描述一下控制块是如何在free链表节点中移除的,假设控制块的结构如下
/**
* 控制块
*/
public class CommandBlock {
/**
* 控制块id,也就是自己,可以理解为当前控制块的地址,
*/
private String blockId;
/**
* Free链表中当前控制块的上一个节点地址
*/
private String freePre;
/**
* Free链表中当前控制块的下一个节点地址
*/
private String freeNext;
}复制假设有一个控制块n-1,他的上一个节点是描述数据块n-2,下一个节点是描述数据块n,则它的数据结构如下:
/**
* 控制块 n-1
*/
public class CommandBlock {
/**
* 控制块id,也就是自己,可以理解为当前控制块的地址 block_n-1,
*/
blockId = block_n-1;
/**
* Free链表中当前控制块的上一个节点地址 block_n-2
*/
freePre = block_n-2;
/**
* Free链表中当前控制块的下一个节点地址 block_n
*/
freeNext = block_n;
}复制上图我们使用了控制块N,要从free链表中移除,则只需要把block_n-1中的freeNext设置为null即可, block_n就失去了链表的引用了。
/**
* 控制块 n-1
*/
public class CommandBlock {
/**
* 控制块id,也就是自己,可以理解为当前控制块的地址 block_n-1,
*/
blockId = block_n-1;
/**
* Free链表中当前控制块的上一个节点地址 block_n-2
*/
freePre = block_n-2;
/**
* Free链表中当前控制块的下一个节点地址 block_n
*/
freeNext = null;
}复制
3.2.3 如何确定数据页是否被缓存
了解了磁盘页是通过Free加载到Buffer Pool 的缓存页的过程,不能所有的数据都去磁盘读取然后通过Free链表写入缓存页中,有可能在缓存页中已经有了这个数据页了,那么怎么确定应不应该去缓存数据页呢?
「数据库提供了一个数据页缓存哈希表,以表空间号+数据页号作为key,缓存页控制块的地址作为value」。
#注意:value是控制块的地址,不是缓存页地址
{表空间号+数据页号:控制块的地址}复制
当使用数据页时,会先在数据页缓存哈希表中查找,如果找到了,则直接根据value定位控制块,然后根据控制块找到缓存页,如果没有找到,则读取磁盘数据页写入缓存,最后写入数据页缓存哈希表。
「在这个过程中一条语句要执行,大致会经历以下几个过程」:
通过sql语句中的数据库名和表名可以知道要加载的数据页处于哪个表空间。 「根据表空间号,表名称本身通过一致性算法得到索引根节点数据页号」。 进而根据根节点数据页号,找到下一层的数据页,可以从数据页缓存哈希表得到对应缓存页地址。 通过缓存页地址就可以在Buffer Pool池中定位到缓存页。
重点误区!!!重点误区!!!重点误区!!!
重要的事情说三遍:
上面说的一致性哈希算法「指在数据字典中【根节点的页号,不是当前查找的数据的数据页号】」,当我们得到根节点页号后,通过B+tree一层一层往下找,在找下一层之前会通过数据缓存哈希表去buffer pool里面看看这个层的数据页存不存在,不存在则去磁盘加载。
「下文所有的图解都是查找buffer pool的过程,不包含索引的树状结构的查找」
「下文所有的图解都是查找buffer pool的过程,不包含索引的树状结构的查找」
「下文所有的图解都是查找buffer pool的过程,不包含索引的树状结构的查找」
流程图如下:

3.3 LRU链表
了解LRU链表之前,我们先来考虑两个问题:
第一个问题:前面说到当从磁盘中读取数据页到Buffer Pool的时候,会将对应的控制块从Free链表中移除,那这个控制块移除之后被放到哪里去了呢? 第二个问题:Buffer Pool的大小是128MB,当Buffer Pool中空闲数据页全部别加载数据之后,新的数据要怎么处理呢?
以上两个问题都需要LRU链表来解决,下面带着这两个问题来看看LRU链表。
3.3.1 LRU链表是个啥
Buffer pool 作为一个innodb自带的一个缓存池,数据的读写都是buffer pool中进行的,操作的都是Buffer pool中的数据页,但是Buffer Pool 的大小是有限的(默认128MB),所以对于一些频繁访问的数据是希望能够一直留在 Buffer Pool 中,而一些访问比较少的数据,我们希望能将它够释放掉,空出数据页缓存其他数据。
「基于此,InnoBD采用了LRU(Least recently used)算法,将频繁访问的数据放在链表头部,而不怎么访问的数据链表末尾,空间不够的时候就从尾部开始淘汰,从而腾出空间」。

「LRU链表本质上也是有控制块组成的」。
3.3.2 LRU链表的写入过程
「当数据库从磁盘加载一个数据页到Buffer Pool中的时候,会将一些变动信息也写到控制块
中,并且将控制块从Free链表中脱离加入到LRU链表中」。过程如下:

梳理一下整个过程:
「步骤一:根据表空间号,表名称本身通过一致性算法得到数据页号(这里省略了树状查找过程)」 「步骤二:通过数据页缓存哈希表判断数据页是否被加载」 「步骤三:从Free链表中获取一个控制块」 「步骤四:读取磁盘数据」 「步骤六:将数据写到空闲的缓存页中」 「步骤七:将缓存页的信息写回控制块」 「步骤八:将回控制块从Free链表中移除」 「步骤九:将从Free中移除的控制块节点加入到LRU链表中」
3.3.3 LRU链表的淘汰机制
「LRU算法的设计思路就是:链表头部的节点是最近使用的,链表末尾的节点是最久没被使用的,当空间不够的时候就淘汰末尾最久没被使用的节点,从而腾出空间」。
「LRU算法的目的就是为让被访问的缓存页能够尽量排到靠前的位置」。
「LRU 算法的设计思路」
当访问的页在 Buffer Pool 里,就将该页对应的控制块移动到 LRU 链表的头部节点。 当访问的页不在 Buffer Pool 里,除了要把控制块放入到 LRU 链表的头部,还要淘汰 LRU 链表末尾的节点。 「LRU 的实现过程」
有一次数据访问,访问了数据页23,数据页23不在Buffer Pool 里,因此在磁盘加载之后会将末尾的22号页淘汰,然后将23加载到链表的头部。 此时,数据页7被访问了,因为数据页7就在链表中,也就是页在 Buffer Pool 里,所以直接将数据页7移动到链表的头部即可。 如下图, LRU 链表长度为 22,节点分别为1到22的数据页控制块,初始状态如下
以上就是LUR链表的实现过程,但是这种方式对于MySQL来说会有问题,所以MySQL并没有直接使用LRU链表的简单实现,而是对其做了一些改进,具体做了哪些改进,我们在下文中继续解释。
3.4 Flush链表
前面解释了我们「对数据的读写都是先对Buffer Pool中的缓存页进行操作,然后在通过后台线程将脏页写入到磁盘,持久化到磁盘中,即刷脏」。
「脏页:当执行写入操作时,先更新的是缓存页,此时缓存页跟磁盘页的数据就会不一致,这就是常说的脏页」。
既然产生了脏页,那就是需要更新磁盘,也就是常说的刷脏,那如何确定那些缓存页需要刷脏呢?也不能吧所有的缓存页都重新刷新一百年磁盘,或者挨个遍历比对,这种方式肯定是不可取的,此时就需要Flush链表了。
3.4.1 Flush链表是个啥
「Flush链表与Free链表的结构很类似,也由基节点与子节点组成」。
Flush链表是一个双向链表,链表结点是被修改过的缓存页对应的控制块(更新过的缓存页) Flush链表作用:帮助定位脏页,需要刷盘的缓存页 「基节点」:和free链表一样,链接首尾结点,并存储了有多少个描述信息块
「子节点」
「每个节点是脏页对应的控制块,即只要一个缓存页被修改,那它的控制块就会被放入Flush链表」 每个控制块块里都有两个指针pre(指向上一个节点),next(指向下一个节点)

「前面说了控制块其实是在Buffer Pool中的,控制块是通过上下节点的引用,组成一个链表,所以只需要通过基节点挨个遍历子节点,找到需要刷脏的数据页即可」。
3.4.2 Flush链表写入过程
当我们在写入数据的时候,我们知道磁盘IO的效率很慢,所以MySQL不会直接更新直接更新磁盘,而是经过以下两个步骤:
第一步:更新Buffer Pool中的数据页,一次内存操作; 第二步:将更新操作顺序写Redo log,一次磁盘顺序写操作;
这样的效率是最高的。顺序写Redo log,每秒几万次,问题不大。

上图中描述了在更新数据页的时候,Flush链表的写入过程,其实这只是在被更新的数据已经别加载到Buffer Pool的前提下,如果我们要更新的数据没有别预先加载,那这个过程是不是会先去读取磁盘呢?实际上并不会,MySQL为了提高性能,减少磁盘IO,做了很多的优化,当数据页不存在Buffer Pool中的时候,会使用写缓冲(change buffer)来做更新操作,具体的实现原理下一篇文章再展开解释。
「当控制块被加入到Flush 链表后,后台线程就可以遍历 Flush 链表,将脏页写入到磁盘」。
3.5 Buffer Pool 的数据页
上述了解了三种链表以及它们的使用方式,我们可以总结一下,「其实Buffer Pool 里有三种数据页页和链表来管理数据」。

Free Page(空闲页)
表示此数据页未被使用,是空的,其控制块位于 Free 链表;
「Clean Page(干净页)」
表示此数据页已被使用,缓存了数据, 其控制块位于LRU 链表。
「Dirty Page(脏页)」
表示此数据页【已被使用】且【已经被修改】,数据页中数据和磁盘上的数据已经不一致。
当脏页上的数据写入磁盘后,内存数据和磁盘数据一致,那么该页就变成了干净页。
「脏页的控制块同时存在于 LRU 链表和 Flush 链表」。
四、MySQL对LRU算法的改进
在前文中我们说到了简单的LRU算法会对于MySQL来说会有问题,因此MySQL对LRU算法进行了改进,接下来就来看看LRU算法存在什么问题,MySQL又是怎么改进的。
先来说说LRU 算法存在的问题:
「预读失效」 「Buffer Pool 污染」
4.1 什么是预读
既然LRU 算法存在预读失效的问题,先来看看什么是预读。
前面说到,为了减少磁盘IO,innoDB会把数据从磁盘读取到内存中使用,一般而言,数据的读取会遵循【集中读写】的原则,也就是当我们使用一些数据的时候,很大概率也会使用附件的数据,即【局部性原理】,它表明提前加载是有效的,能够减少磁盘IO。因此:
「磁盘数据读取到内存,并不是按需读取,而是按页读取,一次至少读一页数据(16K),如果未来要读取的数据就在页中,直接读取内存即可,不需要磁盘IO,提高效率」。这也就是常说的「预读」。
通过预读我们就可以事先先把数据读取放在内存中,下面来看一下「buffer pool的工作流程图」:

buffer pool的工作流程图中以查询id为1的用户数据为例,大致可以分为三步:
第一步:先查询buffer pool是否存在对应的数据页,有的话则直接返回
第二步:buffer pool不存在对应的数据页,则去磁盘中查找,并把结果copy一份到buffer pool中,然后返回给客户端
第三步:下次有同样的查询,就可以直接查找buffer pool返回数据
例如:当id=1与id=2都在这个数据页中,那么下次查询Id=2的时候,就可以直接通过buffer pool返回。
这个过程看起来,感觉buffer pool跟缓存很类似,实际上它的缓存淘汰机制也跟Redis很类似。
4.2 什么是预读失效
解释了什么是预读,那预读失效就很好理解了,「那些被提前加载进来的数据页并一直没有被访问,相当于预读是白费功夫,即预读失效」。
「通过简单的LRU链表的实现过程我们知道,预读的数据会被放到 LRU 链表头部,而当 Buffer Pool空间不够的时候,需要把末尾的页淘汰掉。如果这些预读的数据一直没有被使用,而把被使用的数据挤到了链表的尾部,进而被淘汰,那缓存的命中率就会大大降低」。这样的话,预读就适得其反了。
4.3 如何提高缓存的命中率
预读的数据被使用到的时候,会减少磁盘IO,但是预读失效的时候,也会降低缓存的命中率,不能因为预读失效,而将预读机制去掉,所以我们要在保留预读这个机制的前提下提高缓存的命中率。
前面将在LRU链表的时候就解释了我们在读到数据之后,把对应的数据页放到LRU链表头部,因此想要提高缓存的命中率,只需要「让真正被访问的页才移动到 LRU 链表的头部,使其在 Buffer Pool 里停留的时间尽可能长,尽可能缩短预读的页停留在 Buffer Pool 里的时间」。
「提高缓存的命中率」
MySQL基于这种设计思路对LRU 算法进行了改进,将 LRU 划分了 2 个区域:
「划分old和young两个区域后,预读的页会被加入到 old 区域的头部,当页被真正访问的时候,才将页插入 young 区域的头部」。
如果预读的页一直没有被访问,会一直存在old 区域,直到被移除,不会影响 young 区域中的热点数据。
「old 区域」:在LRU 链表的后半部分
「young 区域」:在 LRU 链表的前半部分
「old 区域占整个 LRU 链表长度的比例可以通过
innodb_old_blocks_pc
参数来设置,默认是 37,代表整个 LRU 链表中 young 区域与 old 区域比例是 63:37」。show variables like '%innodb_old_blocks_pc%';
复制「提高缓存的命中率案例说明」
紧接着23号页被读取了,那么此时23号页就会被加入到young 区域的头部,而18号页则会被移动到Old区域的头部,这个过程不会有数据页被淘汰。
如果数据页23一直没有被读取,它就会一直存在于Old区,直到其他预读数据加载,慢慢将它淘汰。
假设现在有一个数据页23被预读到Buffer Pool中了,那23号页会被加载到old 区域头部,而old区域末尾的22号页会被淘汰掉 还是以刚才LRU链表长度为 22,节点分别为1到22的数据页控制块为案例,划分区域后初始状态如下:
由此可见,通过对LRU区域的划分,可以很多好的解决了预读失效的问题,提高了提高缓存的命中率。
4.4 什么是Buffer Pool 污染
预读失效的问题解决了,接下来看看什么是Buffer Pool 污染。
我们知道当Sql执行的时候,「会数据加载到Buffer Pool ,而Buffer Pool的大小是有限的,如果加载大量数据,就会将Buffer Pool 里的所有页都替换出去,导致原本的热数据被淘汰」。下次访问的时候,又要重新去磁盘读取,导致数据库性能下降,这个过程就是「Buffer Pool 污染」。
「什么时候会加载大量数据呢」
SQL 语句扫描了大量的数据,并返回。
对大表进行全表扫描,比如:
select * from user where name like "%星河";
select * from user where id+1 = 6复制这两个sql 会导致索引失效而走全表扫描,导致全量加载数据到Buffer Pool中
「Buffer Pool加载大量数据」
从磁盘读取数据页加入到 LRU 链表的 old 区域头部 从数据页中读取行记录进行where进行匹配,这个过程会访问数据页,也就会将数据页加入到 young 区域头部。 由于是全表扫描,「因此所有数据都会被按照逐个加入young 区域头部,从而替换淘汰原有的 young 区域数据」。
4.5 如何解决Buffer Pool污染
「Buffer Pool污染跟预读失效都是一样的会导致LRU的热点数据被替换和淘汰」,接下来看看如何解决Buffer Pool 污染而导致缓存命中率下降的问题?
「问题分析」
其实我们可以针对以上全表扫描的情况进行分析,
全表扫描之所以会替换淘汰原有的LRU链表young 区域数据,主要是因为我们将原本只会访问一次的数据页加载到young 区。
这些数据实际上刚刚从磁盘被加载到Buffer Pool,然后就被访问,之后就不会用,基于此,我们是不是可以将数据放young 区的门槛提高有点,从而吧这种访问一次就不会用的数据过滤掉,把它挡在Old区,这样就不会污染young 区的热点数据了。
「解决Buffer Pool污染方案」
MySQL 解决方式就是提高了数据从Old区域进入到 young 区域门槛:
「先设定一个间隔时间innodb_old_blocks_time,然后将Old区域数据页的第一次访问时间在其对应的控制块中记录下来」。
这样看,其实「这个间隔时间innodb_old_blocks_time就是数据页必须在 old 区域停留的时间」。
如果后续的访问时间与第一次访问的时间「小于innodb_old_blocks_time」,则「不将该缓存页从 old 区域移动到 young 区域」。 如果后续的访问时间与第一次访问的时间「大于innodb_old_blocks_time」,才「会将该缓存页移动到 young 区域的头部」。
show variables like '%innodb_old_blocks_time%';
复制

如上,innodb_old_blocks_time默认是 1s。
即:「当同时满足「数据页被访问」与「数据页在 old 区域停留时间超过 1 秒」两个条件,才会被插入到 young 区域头部」。
通过这种方式,就过滤了上述那种全表扫描导致的将只会访问一次的数据页加载到young 区造成的Buffer Pool 污染的问题 。
「young 区域优化」
MySQL为了防止 young 区域节点频繁移动到头部,对 young 区域也做了一个优化:
「young 区域前面 1/4 被访问不会移动到链表头部,只有后面的 3/4被访问了才会」。
当访问前面4个数据页时(比如3号数据页),并不会将数据页移动到young 区的头部 当访问8号数据页,由于8数据页在后 3/4的young 区,所以8号会被移动到头部 比如访问如下LRU链表,young 区域一共有18个数据页,当我们访问young 区的数据页时:
五、脏页的刷盘时机
通过对上述三种链表的描述,我们知道「当我们对数据进行修改时,其实修改的是Buffer Pool 中数据所在缓存页,修改后将其设置为脏页,并将脏页的控制块同时存在于 LRU 链表和 Flush 链表」。然后通过刷脏将修改同步至磁盘。
刷脏不是每次修改都进行的,那样性能会很差,因此刷脏是通过一定的时机触发进行批量刷盘的。
脏页的刷盘时机总的来说就分为以下种:
redo log 日志满了的情况下,会主动触发脏页刷新到磁盘; MySQL 正常关闭之前,会把所有的脏页刷入到磁盘; Buffer Pool 空间不足时,会淘汰一部分数据页,如果淘汰的是脏页,需要先将其同步到磁盘。 MySQL 空闲时,后台线程会定期脏页刷盘
下面主要来看一下Buffer Pool 空间不足和后台线程的脏页刷盘过程
5.1 Buffer Pool内存不足触发刷脏
「刷脏的目的是将修改的数据同步磁盘,释放Buffer Pool内存空间」。因此我们肯定是需要将访问的最少的数据页刷会磁盘,释放其数据页内存。
「基于这样的原则,我们只需要根据LRU链表,将其Old区域尾部节点输盘即可」。
我们在前面的描述中已经说了「对于修改的数据页的控制块同时存在于 LRU 链表和 Flush 链表,对于只有读取访问的数据页的控制块存在于 LRU 链表」。

如上图,Buffer Pool内存不足脏页刷盘分为两种情况:
「若缓存页同时在flush链表和lru链表中,说明数据被修改过,则需要刷脏,释放掉缓存页的内存,将控制块重新添加到 free链表中
」。「若缓存页只是存在于LRU链表中,说明数据没有被修改过,则不需要刷脏,直接释放掉缓存页的内存,将控制块重新添加到 free链表中
」。
5.2 后台线程会定期脏页刷盘
为了避免缓冲池内存不够,MySQL在后台有一个定时任务,通过单独的后台线程,不断从LRU链表Old区尾部的缓存页刷回至磁盘中并同时释放缓存页。

六、多实例Buffer Pool
通过上述的描述我们知道:「Buffer Pool本质是InnoDB向操作系统申请的一块连续的内存空间
」。
既然是内存空间,那么在多线程环境下,为保证数据的安全性,访问Buffer Pool中的数据都需要加锁
处理。
6.1 什么是多实例Buffer Pool
「当多线程并发访问量特别高时,单一的Buffer Pool可能会影响请求的处理速度。因此当Buffer Pool的内存空间很大的时候,可以将单一的Buffer Pool拆分成若干个小的Buffer Pool
,每个Buffer Pool都称为一个独立的实例,各自去申请内存空间以及管理各种链表」。以此保证在多线程并发访问时不会相互影响,从而提高并发处理能力。
「innodb_buffer_pool_instances」
通过设置「innodb_buffer_pool_instances的值来修改Buffer Pool实例的个数,默认为1,最大可以设置为64」。
show variables like '%innodb_buffer_pool_instances%';
复制[server]
innodb_buffer_pool_instances = 2复制如上配置表示创建2个buffer pool实例(缓冲池总量大小不变,即每个buffer pool的大小为原来的一半)
「每个Buffer Pool的内存空间」
「单个缓冲池实际占用内存空间 = 缓冲池大小 ÷ 缓冲池实例的个数,即」 :
「单个缓冲池实际占用内存空间 = innodb_buffer_pool_size ÷ innodb_buffer_pool_instances」
[server]
innodb_buffer_pool_instances = 2复制如上配置表示创建2个buffer pool实例(缓冲池总量大小不变,即每个buffer pool的大小为原来的一半)
由于管理Buffer Pool需要性能开销,因此「并不是实例越多越好」。 在IInnoDB中,「当innodb_buffer_pool_size小于1GB时,innodb_buffer_pool_instances无效」。
当innodb_buffer_pool_size小于1GB,即使设置的innodb_buffer_pool_instances不为1,InnoDB默认也会把它改为1,这也是考虑到多实例管理的性能开销。
6.2 Buffer Pool的配置
我们先来理解一下一个配置项:innodb_buffer_pool_chunk_size
「innodb_buffer_pool_chunk_size」
默认值 128MB
。可以按照1MB
的单位进行增加或减小。可以简单的理解成是Buffer Pool的总大小增加或缩小最小单位。 「innodb_buffer_pool_size的调整」
「Buffer Pool的总大小,必须是innodb_buffer_pool_chunk_size * innodb_buffer_pool_instances的倍数」。
当innodb_buffer_pool_size不等于innodb_buffer_pool_chunk_size * innodb_buffer_pool_instances的倍数时,服务器会自动把innodb_buffer_pool_size的值调整为【innodb_buffer_pool_chunk_size * innodb_buffer_pool_instances】结果的整数倍
如果配置
# buffer_pool最小单位为128MB
innodb_buffer_pool_chunk_size=128MB
# Buffer Pool实例的个数为16
innodb_buffer_pool_instances=16
# buffer_pool总大小为3GB
innodb_buffer_pool_size=3GB复制由于
innodb_buffer_pool_chunk_size * innodb_buffer_pool_instances =128MB * 16 = 2GB
而2GB 不等于 innodb_buffer_pool_size=3GB复制则InnoDB会调整
# InnoDB会调整buffer_pool总大小为4GB
innodb_buffer_pool_size = 4GB复制「innodb_buffer_pool_chunk_size的调整」
在服务启动的时候,会进行如下计算,并判断结果调整innodb_buffer_pool_chunk_size的大小:
如果不等式成立:
「innodb_buffer_pool_chunk_size * innodb_buffer_pool_instances > innodb_buffer_pool_size」
则修改:
「innodb_buffer_pool_chunk_size = innodb_buffer_pool_size /innodb_buffer_pool_instances」
例如:如果配置
# buffer_pool最小单位为128MB
innodb_buffer_pool_chunk_size=256MB
# Buffer Pool实例的个数为16
innodb_buffer_pool_instances=16
# buffer_pool总大小为3GB
innodb_buffer_pool_size=3GB复制由于
innodb_buffer_pool_chunk_size * innodb_buffer_pool_instances =256MB * 16 = 4GB
而4GB 大于 innodb_buffer_pool_size=3GB复制则InnoDB会调整
# InnoDB会调整innodb_buffer_pool_chunk_size的大小为192MB
innodb_buffer_pool_chunk_size = innodb_buffer_pool_size / innodb_buffer_pool_instances = 3GB / 16 = 192MB复制