MySQL · 源码分析 · 网络通信模块浅析
最后更新于:2022-04-01 10:34:16
MySQL 网络通信浅析
MySQL的网络通信协议主要包含以下几个层次,从最上层的MySQL数据包协议层到最底层的socket传输:
~~~
| THD
| Protocol
| NET
| VIO
| SOCKET
~~~
本文主要扫一下相关的代码,以下分析基于MySQL5.7。
## 创建会话
在MySQL5.7中对会话协议层的代码进行了大量的重构以优化性能,并使得代码更加可读。以下这幅图大概展示了几个相关的类关系(未包含诸如windows平台的相关类)
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-07-22_5791a6c6e36b4.jpg)
创建用户线程堆栈是从主线程开始的,监听客户端请求并创建处理线程
~~~
mysqld_main
|-->connection_event_loop
|-->listen_for_connection_event
//根据不同的监听模式,去监听新请求, 当获取到一个新的监听请求时,会创建一个Channel_info类,用 来存储用户的socket信息
|-->Connection_handler_manager::process_new_connection
|-->Per_thread_connection_handler::add_connection
//我们通常用的one thread one connection对应的类为Per_thread_connection_handler
|-->创建用户线程,线程函数为handle_connection
~~~
在MySQL5.7里一个重大的优化,如上所述,就是关于用户会话的thd, net, vio等信息的初始化都不是在主线程进行的,而是创建用户线程后,由用户线程自己来完成。通过这种方式,主线程可以更高效的接受新的连接请求,从而优化了在短连接场景下的性能。见[官方博客](http://mysqlserverteam.com/improving-connectdisconnect-performance/) 及相应的[worklog](http://dev.mysql.com/worklog/task/?id=6606)
下面这幅图摘自官方博客,大家感受下5.7相比之前版本的短连接性能优化:
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-07-22_5791a6c740a8d.jpg)
创建用户会话的主要函数栈包括:
~~~
handle_connection //线程入口函数
|-->init_new_thd
|-->Channel_info_local_socket::create_thd
|-->Channel_info::create_thd
|-->create_and_init_vio
|-->Protocol_classic::init_net
|-->my_net_init
|-->vio_fastsend //设置socket选项
* 设置IP_TOS为IPTOS_THROUGHPUT
* 设置TCP_NODELAY
|-->Global_THD_manager::add_thd
// 加入到thd链表上
|-->thd_prepare_connection
|-->login_connection
|--> check_connection
//检查链接,设置thd的链接信息,
|--> vio_keepalive // 设置SO_KEEPALIVE选项
|--> acl_authenticate // 权限认证
|-->prepare_new_connection_state
//如果连接打开了CLIENT_COMPRESS,设置NET::compress为true。
//如果设置了init_connect,则在这里执行对应的SQL语句
/* 循环接受请求并处理(do_command) */
|-->Protocol_classic::get_command
|-->Protocol_classic::read_packet
|-->my_net_read // 读取command包,这里的读超时时间由wait_timeout决定
|-->close_connection
|-->THD::disconnect
|-->THD::shutdown_active_vio
|-->vio_shutdown /* 关闭socket */
~~~
## NET/VIO
my_net_write
该函数用于将数据拷贝到NET缓冲区,当长度大于`MAX_PACKET_LENGTH`(即4MB-1字节)会对Packet进行拆分成多个packet。每个Packet的头部都会留4个字节,其中:1~3字节,存储该packet的长度,第4个字节存储当前的packet的序号,每存储一次后递增`net->pkt_nr`。
每个Net对象有一个Buff(`net->buff`),即将发送的数据被拷贝到这个buffer中,当Buffer满时需要立刻发出到客户端。如果Buffer足够大,则只做memcpy操作。`net->write_pos`被更新到写入结束的位置偏移量 (`net_write_buff`)
如果一次写入的数据被拆分成多个Packet,那么net->pkt_nr也对应的递增多次. pkt_nr的作用是在客户端解析时,防止包发送乱序。
net_flush
实际上在`my_net_write`函数中,如果`net->buff`不够用,已经会做网络写了,`net_flush`最终保证所有在buff中的数据被写到网络
当客户端启用压缩协议时,这里会有些不同的,会给packet头部再加3个字节(`COMP_HEADER_SIZE`),被压缩的数据不包含头部的7个字节:
~~~
[3bytes:Packet的长度]
[1bytes: pkt_nr]
[3bytes:压缩后的长度]
[1bytes: compress_pkt_nr]
~~~
同样的,每个压缩包都会递增`net->compress_pkt_nr`
net_write_raw_loop
当packet准备好发送后,调用函数`net_write_raw_loop`开始进行数据发送
* 发送模式受`vio->write_timeout`影响(通过参数`net_write_timeout`控制);当该参数被设置成大于等于0时,使用非阻塞模式send数据包(`MSG_DONTWAIT`)
* 若网络发送被中断(EINTR),会去尝试重传
* 使用非阻塞模式send,每次并不保证数据全部发送完毕,因此需要循环的调用直到所有的数据都发送完毕
* 当输出缓冲区满时,获得错误码EWOULDBLOCK/EAGAIN,则阻塞等待(`vio_socket_io_wait`),最大等待时间为`net_write_timeout`,超时则返回错误
my_net_read
根据NET接口先读取数据包(`net_read_packet`):
* 先读取packet header,一个普通的packet header包含4个字节,压缩协议下则另外再加3个字节,如上述(`net_read_packet_header`)。其中的pkt_nr会提取出来和本地的值相比较。在读写两段维持的pkt_nr自增值保证了服务器和客户端的通信以一种有序的方式进行,并用于校验包的有序性。如果不一致,则说明网络包发生了乱序。直接报错。如果一致,本地net->pkt_nr++
* 从packet header中提取剩下的packet长度,继续从socket读取
Vio
Vio在NET的更下一层,封装了所有对socket的操作。根据不同的连接类型(TCP/IP, Socket, Name Pipe, SSL, SHARED MEMORY),相关函数指针在vio_init函数中定义,这里不展开描述
相关参数
* connect_timeout: 在连接认证阶段的网络交互超时时间(ref `login_connection`);
* wait_timeout: 等待来自客户端的新的command请求;
* net_read_timeout: 一般情况下的SQL通常直接从command发过来,但拿到command后,在一条语句内可能还需要和客户端交互,这里会用到该timeout值,例如`load data local infile`语句;
* net_write_timeout: 就是通过网络发送数据的最大超时时间;
* interactive_timeout: 当客户端打开选项CLIENT_INTERACTIVE时,将当前会话的NET的wait_timeout设置为该值;
## 结果集
MySQL有两种常用的数据协议,一种是用于Prepared Statement,对应类为`Protocol_binary`,另外一种是普通的协议,对应类为`Protocol_classic`
我们以一个简单的表为例:
~~~
mysql> create table t1 (a int, b int);
Query OK, 0 rows affected (0.00 sec)
mysql> insert into t1 values (1,1),(2,2);
Query OK, 2 rows affected (0.00 sec)
~~~
当执行最后一条select操作时,这里使用的类为Protocol_classic
发送metadata
* ref: `Protocol_classic::start_result_metadata`
将列的个数写入Net缓冲区
* ref: `Protocol_classic::send_field_metadata`
逐列的准备元数据信息,包含:
~~~
| 3bytes 标识符:def
| db_name
| table_name
| org_table_name
| col_name
| org_col_name
| 字符集编码
| 列长度
| 列类型
| flags
| decimals(这里为0)
| 预留
| 预留
~~~
可以看到每个列的元数据都包含了非常多的信息,使用字符串存储,这也意味着对于一条简单的SQL,你的网络传输的内容可能大多数都是元数据,即时你的客户端可能并不需要引用到。
有多个列就写多个packet到Net buffer (Protocol_classic::end_row)
* ref: `Protocol_classic::end_result_metadata`
write_eof_packet函数会被调用,用于标识元数据信息到此结束。此处共写5个字节(不含packet header)
发送数据
ref: `end_send --> Protocol_classic::end_row`
如上例,发送两行数据的packet包括
| 1 | ‘1’ | 1 | ‘1’ |
| 1 | ‘2’ | 1 | ‘2’ |
结束发送
ref: `THD::send_statement_status -->net_send_eof --> write_eof_packet`
发送结果结束标记,其中包含了sql执行过程中产生的warning个数
元数据开销
从上述可以看到,结果集中有很大一部分的开销是给元数据的,这意味着类似普通的pk查询,元数据的开销可能会非常昂贵。
以下贴下我之前测试过的一个例子,增加了几个选项来控制发送的元数据量:
~~~
0/METADATA_FULL: return all metadata, default value.
1/METADATA_REAL_COLUMN: only column name;
2/METADATA_FAKE_COLUMN: fake column name ,use 1,2...N instead of real column name
3/METADATA_NULL_COLUMN: use NULL to express the metadata information
4/METADATA_IGNORE: ignore metadata information, just for test..
~~~
测试表:
~~~
CREATE TABLE `test_meta_impact` (
`abcdefg1` int(11) NOT NULL AUTO_INCREMENT,
`abcdefg2` int(11) DEFAULT NULL,
`abcdefg3` int(11) DEFAULT NULL,
`abcdefg4` int(11) DEFAULT NULL,
……
……
`abcdefg40` int(11) DEFAULT NULL,
PRIMARY KEY (`abcdefg1`)
) ENGINE=InnoDB AUTO_INCREMENT=229361 DEFAULT CHARSET=utf8
~~~
使用mysqlslap测试并发pk查询
~~~
mysqlslap --no-defaults -uxx --create-schema=test -h$host -P $port --number-of-queries=1000000000 --concurrency=100 --query='SELECT * FROM test.test_meta_impact where abcdefg1 = 2'
~~~
测试结果
~~~
METADATA_FULL : 3.48w TPS, Net send 113M
METADATA_REAL_COLUMN: 7.2W TPS, Net send 111M
METADATA_FAKE_COLUMN: 9.2W TPS , Net send 116M
METADATA_NULL_COLUMN: 9.6w TPS , Net send 115M
METADATA_IGNORE: 13.8w TPS, Net send 30M
~~~
很显然无论网络流量还是TPS吞吐量,在这个人为构造的极端场景下,元数据的开销都非常的显著。