进阶篇(9) 性能分析工具的使用
1. 数据库服务器的优化步骤
当我们遇到数据库调优问题的时候,该如何思考呢?这里把思考的流程整理成下面这张图。
整个流程划分成了 观察(Show status)
和 行动(Action)
两个部分。字母 S 的部分代表观察(会使用相应的分析工具), A 代表行动(对应分析可以采取的行动)。
对越底层调整成本越低,但效果却更好
2. 查看系统性能参数
SHOW [GLOBAL|SESSION] STATUS LIKE '参数';
一些常用的性能参数如下:
-
Connections
:连接MySQL服务器的次数。 -
Uptime
:MySQL服务器的上线时间。 -
Slow_queries
:慢查询的次数。 -
Innodb_rows_read
:Select查询返回的行数 -
Innodb_rows_inserted
:执行INSERT操作插入的行数 -
Innodb_rows_updated
:执行UPDATE操作更新的行数 -
Innodb_rows_deleted
:执行DELETE操作删除的行数 -
Com_select
:查询操作的次数。 -
Com_insert
:插入操作的次数。对于批量插入的 INSERT 操作,只累加一次。 -
Com_update
:更新操作的次数。 -
Com_delete
:删除操作的次数。
3. 统计SQL的查询成本:last_query_cost
使用第8章的 student_info 表为例:
如果我们想要查询 id=900001 的记录,然后看下查询成本,我们可以直接在聚簇索引上进行查找:
SELECT student_id, class_id, NAME, create_time FROM student_info WHERE id = 900001;
SHOW STATUS LIKE 'last_query_cost';
我们只需要检索一个页即可:
如果我们想要查询 id 在 900001 到 9000100 之间的学生记录呢?
SELECT student_id, class_id, NAME, create_time FROM student_info WHERE id BETWEEN 900001 AND 900100;
SHOW STATUS LIKE 'last_query_cost';
大概需要进行 20 个页的查询:
页的数量是刚才的20倍,但是查询的效率并没有明显的变化,因为采用了顺序读取的方式将页面一次性加载到缓冲池中,然后再进行查找。虽然页数量(last_query_cost)
增加了不少 ,但是通过缓冲池的机制,并 没有增加多少查询时间 。
使用场景:它对于比较开销是非常有用的,特别是我们有好几种查询方式可选的时候。
SQL 查询是一个动态的过程,从页加载的角度可以得到以下结论:
位置决定效率
。如果页就在缓冲池
中则效率最高,否则还需从内存或磁盘中读取批量决定效率
。从磁盘中对一页进行随机读,效率极低。而顺序对页进行批量读取,平均一页的效率就提升很多,甚至要快过单页面在内存中的随机读取常用的数据尽量放到
缓冲池
,充分利用磁盘吞吐能力,批量读取数据
4. 定位执行慢的 SQL:慢查询日志
慢查询日志用来记录MySQL中响应时间超过阈值
的语句, long_query_time
的默认值为 10
,即运行时间超过10s的语句会被记录到慢查询日志中。
主要作用是帮助我们发现那些执行时间特别长的SQL查询,并进行针对性优化,从而提高系统整体效率。
默认情况没有开启,不是调优需要,不建议启动该参数,会造成性能影响。
4.1 开启慢查询日志参数
- 开启slow_query_log
set global slow_query_log='ON';
然后我们再来查看下慢查询日志是否开启,以及慢查询日志文件的位置:
SHOW VARIABLES LIKE '%slow_query_log%';
2. 修改long_query_time阈值
查看慢查询的时间阈值设置:
show variables like '%long_query_time%'; # 10
这里如果我们想把时间缩短,比如设置为 1 秒,可以这样设置:
#测试发现:设置global的方式只对新连接的客户端有效。所以可以一并执行下述语句
set global long_query_time = 1;
show global variables like '%long_query_time%';
set long_query_time=1;
show variables like '%long_query_time%';
或者直接在配置文件中永久设置 my.cnf
,记得重启服务器
[mysqld]
slow_query_log=ON # 开启慢查询日志
slow_query_log_file=/var/mysql/slow_query.log # 慢查询日志存储位置
long_query_time=1 # 设置阈值
log_output=FILE
不指定路径,则会默认存储到MySQL数据文件夹下的hostname-slow.log
中
4.2 查看慢查询数目
SHOW GLOBAL STATUS LIKE '%Slow_queries%';
补充说明:
除上述变量外,控制慢查询日志的另一个系统变量
min_examined_row_limit
,即查询扫描过的最少记录数
。默认为0。
都按默认情况的话,一条查询称为慢条件:查询时间>10s 并且 查询记录数 >= 0
4.3 案例演示
建表:
CREATE TABLE `student` (
`id` INT(11) NOT NULL AUTO_INCREMENT,
`stuno` INT NOT NULL ,
`name` VARCHAR(20) DEFAULT NULL,
`age` INT(3) DEFAULT NULL,
`classId` INT(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
设置参数 log_bin_trust_function_creators
允许创建函数:
set global log_bin_trust_function_creators=1;
创建函数:随机产生字符串和随机生成数值,与上一节相同,不多赘述。
创建存储过程
DELIMITER //
CREATE PROCEDURE insert_stu1( START INT , max_num INT )
BEGIN
DECLARE i INT DEFAULT 0;
SET autocommit = 0; #设置手动提交事务
REPEAT #循环
SET i = i + 1; #赋值
INSERT INTO student (stuno, NAME ,age ,classId ) VALUES
((START+i),rand_string(6),rand_num(10,100),rand_num(10,1000));
UNTIL i = max_num
END REPEAT;
COMMIT; #提交事务
END //
DELIMITER ;
调用存储过程
#调用刚刚写好的函数, 4000000条记录,从100001号开始
CALL insert_stu1(100001,4000000);
4.4 测试及分析
测试:都超过1s了
SELECT * FROM student WHERE stuno = 3455655;
SELECT * FROM student WHERE name = 'IMJmfO';
分析
show status like 'slow_queries';
4.5 慢查询日志分析工具:mysqldumpslow
mysqldumpslow --help
mysqldumpslow 命令的具体参数如下:
- -a: 不将数字抽象成N,字符串抽象成S
- -s: 是表示按照何种方式排序:
- c: 访问次数
- l: 锁定时间
- r: 返回记录
- t: 查询时间
- al:平均锁定时间
- ar:平均返回记录数
- at:平均查询时间 (默认方式)
- ac:平均查询次数
- -t: 即为返回前面多少条的数据;
- -g: 后边搭配一个正则匹配模式,大小写不敏感的;
举例:我们想要按照查询时间排序,查看前五条 SQL 语句,这样写即可:
mysqldumpslow -s t -t 5 /var/lib/mysql/slow_query.log
工作常用参考:
#得到返回记录集最多的10个SQL
mysqldumpslow -s r -t 10 /var/lib/mysql/atguigu-slow.log
#得到访问次数最多的10个SQL
mysqldumpslow -s c -t 10 /var/lib/mysql/atguigu-slow.log
#得到按照时间排序的前10条里面含有左连接的查询语句
mysqldumpslow -s t -t 10 -g "left join" /var/lib/mysql/atguigu-slow.log
#另外建议在使用这些命令时结合 | 和more 使用 ,否则有可能出现爆屏情况
mysqldumpslow -s r -t 10 /var/lib/mysql/atguigu-slow.log | more
4.6 关闭慢查询日志
如果没有调优的话,就关了吧。
4.7 删除慢查询日志
查询日志存在哪了,到该目录下手动删除即可
SHOW VARIABLES LIKE 'slow_query_log%';
重新生成查询日志文件
mysqladmin -uroot -p flush-logs slow
慢查询日志使用该命令删除重建,如果需要旧的日志一定要记得备份!!!
5. 查看 SQL 执行成本:SHOW PROFILE
show variables like 'profiling';
set profiling = 'ON';
show profile的常用查询参数:
-
ALL
:显示所有的开销信息。 -
BLOCK IO
:显示块IO开销。 -
CONTEXT SWITCHES
:上下文切换开销。 -
CPU
:显示CPU开销信息。 -
IPC
:显示发送和接收开销信息。 -
MEMORY
:显示内存开销信息。 -
PAGE FAULTS
:显示页面错误开销信息。 -
SOURCE
:显示和Source_function,Source_file, Source_line相关的开销信息。 -
SWAPS
:显示交换次数开销信息。
日常开发需要注意的结论:
-
converting HEAP to MyISAM
:查询结果太大,内存不够,搬到磁盘了 -
Creating tmp table
:创建临时表,先拷贝数据到临时表,用完再删除临时表 -
Copying to tmp table on disk
:把内存中的临时表复制到磁盘,警惕! locked
show profile
诊断中出现任意一条,SQL语句该优化了。
该命令即将弃用,可以从 information_schema
中的profiling
表进行查看
看下当前会话都有哪些 profiles,使用下面这条命令:
show profiles;
查看最近一次查询的开销
show profile;
看看自己刚刚那贼慢的查询语句是什么耗时特别多:
show profile cpu,block io for query 2; # 填自己的query数,从profiles里看
原来是执行的慢啊。那我们去看看到底为什么吧!
6. 分析查询语句:EXPLAIN
6.1 基本语法
EXPLAIN SELECT select_options
# 或
DESCRIBE SELECT select_options
EXPLAIN 语句输出的各个列的作用如下:
列名 | 描述 |
---|---|
id | 在一个大的查询语句中每个SELECT关键字都对应一个唯一的id
|
select_type | SELECT关键字对应的那个查询的类型 |
table | 表名 |
partitions | 匹配的分区信息 |
type | 针对单表的访问方法 |
possible_keys | 可能用到的索引 |
key | 实际上使用的索引 |
key_len | 实际使用到的索引长度 |
ref | 当使用索引列等值查询时,与索引列进行等值匹配的对象信息 |
rows | 预估的需要读取的记录条数 |
filtered | 某个表经过搜索条件过滤后剩余记录条数的百分比 |
Extra | 一些额外的信息 |
6.2 数据准备
# 建两张表,用来联合索引
CREATE TABLE s1 (
id INT AUTO_INCREMENT,
key1 VARCHAR(100),
key2 INT,
key3 VARCHAR(100),
key_part1 VARCHAR(100),
key_part2 VARCHAR(100),
key_part3 VARCHAR(100),
common_field VARCHAR(100),
PRIMARY KEY (id),
INDEX idx_key1 (key1),
UNIQUE INDEX idx_key2 (key2),
INDEX idx_key3 (key3),
INDEX idx_key_part(key_part1, key_part2, key_part3)
) ENGINE=INNODB CHARSET=utf8;
CREATE TABLE s2 (
id INT AUTO_INCREMENT,
key1 VARCHAR(100),
key2 INT,
key3 VARCHAR(100),
key_part1 VARCHAR(100),
key_part2 VARCHAR(100),
key_part3 VARCHAR(100),
common_field VARCHAR(100),
PRIMARY KEY (id),
INDEX idx_key1 (key1),
UNIQUE INDEX idx_key2 (key2),
INDEX idx_key3 (key3),
INDEX idx_key_part(key_part1, key_part2, key_part3)
) ENGINE=INNODB CHARSET=utf8;
set global log_bin_trust_function_creators=1; # 不加global只是当前窗口有效。
# 创建函数
DELIMITER //
CREATE FUNCTION rand_string1(n INT)
RETURNS VARCHAR(255) #该函数会返回一个字符串
BEGIN
DECLARE chars_str VARCHAR(100) DEFAULT 'abcdefghijklmnopqrstuvwxyzABCDEFJHIJKLMNOPQRSTUVWXYZ';
DECLARE return_str VARCHAR(255) DEFAULT '';
DECLARE i INT DEFAULT 0;
WHILE i < n DO
SET return_str =CONCAT(return_str,SUBSTRING(chars_str,FLOOR(1+RAND()*52),1));
SET i = i + 1;
END WHILE;
RETURN return_str;
END //
DELIMITER ;
# 创建存储过程 向s1 s2插入数据
DELIMITER //
CREATE PROCEDURE insert_s1 (IN min_num INT (10),IN max_num INT (10))
BEGIN
DECLARE i INT DEFAULT 0;
SET autocommit = 0;
REPEAT
SET i = i + 1;
INSERT INTO s1 VALUES(
(min_num + i),
rand_string1(6),
(min_num + 30 * i + 5),
rand_string1(6),
rand_string1(10),
rand_string1(5),
rand_string1(10),
rand_string1(10));
UNTIL i = max_num
END REPEAT;
COMMIT;
END //
DELIMITER ;
DELIMITER //
CREATE PROCEDURE insert_s2 (IN min_num INT (10),IN max_num INT (10))
BEGIN
DECLARE i INT DEFAULT 0;
SET autocommit = 0;
REPEAT
SET i = i + 1;
INSERT INTO s2 VALUES(
(min_num + i),
rand_string1(6),
(min_num + 30 * i + 5),
rand_string1(6),
rand_string1(10),
rand_string1(5),
rand_string1(10),
rand_string1(10));
UNTIL i = max_num
END REPEAT;
COMMIT;
END //
DELIMITER ;
CALL insert_s1(10001,10000);
CALL insert_s2(10001,10000);
6.3 EXPLAIN各列作用
1. table:查询每一条记录对应一个单表
不论我们的查询语句有多复杂,包含了多少个表 ,到最后也是需要对每个表进行单表访问
的,所以MySQL规定EXPLAIN语句输出的每条记录都对应着某个单表的访问方法,该条记录的table列代表着该表的表名(有时不是真实的表名字,可能是简称)。
# s1:驱动表 s2:被驱动表
EXPLAIN SELECT * FROM s1 INNER JOIN s2;
2. id:对应一个SELECT关键字
- id如果相同,可以认为是一组,从上往下顺序执行
- 在所有组中,id值越大,优先级越高,越先执行
- 关注点:id号每个号码,表示一趟独立的查询,一个sql的查询趟数越少越好
EXPLAIN SELECT * FROM s1 WHERE key1 IN (SELECT key1 FROM s2);
查询优化器可能对涉及子查询的语句进行重写,将其转变成了多表查询的操作:
EXPLAIN SELECT * FROM s1 WHERE key1 IN (SELECT key2 FROM s2 WHERE common_field = 'a');
Union去重:在临时表中进行
EXPLAIN SELECT * FROM s1 UNION SELECT * FROM s2;
3. select_type
SIMPLE
:不包含 UNION 或子查询
包含UNION或子查询的查询是由几个小查询组成的,其中最左边的小查询类型为PRIMARY
若用了UNION,则除最左边的小查询外,其余小查询类型都为UNION
MySQL使用临时表进行UNION的去重,该表的类型为UNION RESULT
若包含子查询的语句不能转为多表查询的形式,并且该子查询是不相关/相关子查询
该子查询的第一个SELECT 代表的查询的类型为SUBQUERY
/DEPENDENT SUBQUERY
EXPLAIN SELECT * FROM s1 WHERE key1 IN (SELECT key1 FROM s2) OR key3 = 'a';
EXPLAIN SELECT * FROM s1 WHERE key1 IN (SELECT key1 FROM s2 WHERE s1.key2 = s2.key2) OR key3 = 'a';
包含UNION类的大查询中,若每个小查询都依赖外层查询的话,除了最左边的小查询外,其余小查询类型为DEPENDENT UNION
EXPLAIN SELECT * FROM s1 WHERE key1 IN (SELECT key1 FROM s2 WHERE key1 = 'a' UNION SELECT key1 FROM s1 WHERE key1 = 'b');
查询优化器执行包含子查询的语句时,选择将子查询物化后与外层查询进行连接,该子查询对应的类型为MATERIALIZED
EXPLAIN SELECT * FROM s1 WHERE key1 IN (SELECT key1 FROM s2);
-- 子查询的结果转换成了物化表,相当于只包含key1的记录构成的表
-- subquery2:子查询是根据 id=2 的表查询出来的
对于包含派生表的查询,该派生表对应的子查询类型为DERIVED
EXPLAIN SELECT * FROM (SELECT key1, count(*) as c FROM s1 GROUP BY key1) AS derived_s1 where c > 1;
-- 外部查询用的表是内部查询派生出来的(AS derived_s1)
4. partitions(略)
5. type(重点)
结果值从最好到最坏依次是: system
> const
> eq_ref
> ref
> fulltext
> ref_or_null
> index_merge
> unique_subquery
> index_subquery
> range
> index
> ALL
当表中只有一条记录
,并且该表使用的存储引擎的统计数据是精确的,比如MyISAM,MEMORY,那么对该表的访问方式为system
CREATE TABLE t(i int) Engine=MyISAM;
INSERT INTO t VALUES(1);
EXPLAIN SELECT * FROM t;
再次插入一条记录,type就变为ALL
。可以自己试试InnoDB
当我们根据主键或唯一索引列与常数进行等值匹配时,对单表的访问方法为const
EXPLAIN SELECT * FROM s1 WHERE id = 10005;
在连接查询中,如果被驱动表通过主键或唯一索引列等值匹配的方式进行访问的(若主键或唯一索引是联合索引,所有索引列都必须等值比较),则对该驱动表的访问方式为eq_ref
EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s1.id = s2.id;
普通的索引和常量进行匹配,对该表的访问方式为ref
EXPLAIN SELECT * FROM s1 WHERE key1 = 'a';
普通的索引和常量进行匹配,该索引列的值可以为NULL
,对该表的访问方式为ref_or_null
EXPLAIN SELECT * FROM s1 WHERE key1 = 'a' OR key1 IS NULL;
单表访问情况下使用Intersection
、Union
、Sort-Union
三种索引合并的方式来执行查询,则访问方式为index_merge
EXPLAIN SELECT * FROM s1 WHERE key1 = 'a' OR key3 = 'a';
两个索引都用上了
unique_subquery
针对一些包含IN子查询的语句,如果查询优化器决定将IN子查询转换为EXISTS子查询,而且子查询可以使用主键进行等值匹配。
EXPLAIN SELECT * FROM s1 WHERE key2 IN (SELECT id FROM s2 where s1.key1 = s2.key1) OR key3 = 'a';
如果使用索引获取某些范围区间
的记录,则为range
访问方法
EXPLAIN SELECT * FROM s1 WHERE key1 IN ('a', 'b', 'c');
EXPLAIN SELECT * FROM s1 WHERE key1 > 'a' AND key1 < 'b';
当我们可以使用索引覆盖,但需要扫描所有索引记录时,访问方式为index
即我们发现 key_part3
有一个联合索引,但他在最后边,而我们要找的所有列(这里只有key_part2
)正好也是联合索引的一部分,寻思了一下,不然直接用该索引得了。索引覆盖
:不用回表了,联合索引虽然是非聚簇索引,但要查找的也在联合索引里
EXPLAIN SELECT key_part2 FROM s1 WHERE key_part3 = 'a';
全表扫描:ALL
EXPLAIN SELECT * FROM s1;
SQL性能优化的目标:至少要达到 range级别,要求是ref级别,最好是const级别。(阿里巴巴开发手册要求)
6. possible_keys和key:可能用到的索引和实际用到的索引
7. key_len(重点)
实际使用到的索引长度(字节)
帮你检查是否充分利用上索引,值越大越好
,主要针对联合索引,有一定参考意义
id为主键:索引长度为4字节(INT的长度)
EXPLAIN SELECT * FROM s1 WHERE id = 10005;
key2为唯一索引,索引长度为5字节(INT的长度+可能为NULL 空占一字节)
EXPLAIN SELECT * FROM s1 WHERE key2 = 10126;
key1是普通索引,VARCHAR(100)
。索引长度为303字节(utf8一个字符占3字节。3*100 + NULL可能 1字节+ 变长类型需要2字节记录具体长度)
EXPLAIN SELECT * FROM s1 WHERE key1 = 'a';
联合索引,索引长度为303字节,只用了一列
EXPLAIN SELECT * FROM s1 WHERE key_part1 = 'a';
联合索引,索引长度为606字节,用了两列,比上面的好
EXPLAIN SELECT * FROM s1 WHERE key_part1 = 'a' AND key_part2 = 'b';
key_len的长度计算公式:
varchar(10)变长字段且允许NULL = 10 * ( character set: utf8=3,gbk=2,latin1=1)+1(NULL)+2(变长字段)
varchar(10)变长字段且不允许NULL = 10 * ( character set:utf8=3,gbk=2,latin1=1)+2(变长字段)
char(10)固定字段且允许NULL = 10 * ( character set:utf8=3,gbk=2,latin1=1)+1(NULL)
char(10)固定字段且不允许NULL = 10 * ( character set:utf8=3,gbk=2,latin1=1)
8. ref
使用索引列等值查询时,与索引列进行等值匹配的对象信息。比如只是一个常数或者是某个列
与常量比较:
EXPLAIN SELECT * FROM s1 WHERE key1 = 'a';
与某表的某一列比较:
EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s1.id = s2.id;
与函数比较:
EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s2.key1 = UPPER(s1.key1);
9. rows(重点)
预估的需要读取的记录条数,越小越好
10. filtered
通过查询条件获取的最终记录行数占通过type字段指明的搜索方式搜索出来的记录行数的百分比。
预估记录条数经过搜索条件过滤后真正还能剩多少的百分比, 百分百最好
例:查询出来是40条记录,预估的也是40条, filtered为100%,而预估若是400条则filtered为10%
举例:查询key1 > 'z' 并且 common_field = 'a'的记录:
EXPLAIN SELECT * FROM s1 WHERE key1 > 'z' AND common_field = 'a';
首先使用索引(这里的type是range),即用idx_key1 扫描表a,估计出413条记录,接下来使用额外的查询条件(common_field = 'a')进行二次过滤,最后只剩 41条左右了(10%)
因此一个比较低filtered值表示需要有一个更好的索引
,假如type=all,表示以全表扫描的方式得到1000条记录,且filtered=0.1%,表示只有1条记录是符合搜索条件的。此时如果加一个索引可以直接搜出来1条数据,那么filtered就可以提升到100%。
11. Extra
用来说明一些额外信息。可以通过它们更精确的理解MySQL到底如何执行给定的查询语句
no tables used
:没用到FROM
EXPLAIN SELECT 1;
Impossible WHERE
:WHERE子句永远为FALSE
EXPLAIN SELECT * FROM s1 WHERE 1 != 1;
Using where
:(1)使用全表扫描(没有任何索引),并且该语句WHERE子句有针对该表的搜索条件
EXPLAIN SELECT * FROM s1 WHERE common_field = 'a';
(2)当使用索引访问来执行查询,并且该语句的WHERE子句中有除了该索引包含的列外的其他条件
EXPLAIN SELECT MIN(key1) FROM s1 WHERE key1 = 'abcdefg';
No matching min/max row
:当查询列表处有MIN/MAX聚合函数,但没有符合WHERE子句中搜索条件的记录
EXPLAIN SELECT MIN(key1) FROM s1 WHERE key1 = 'abcdefg';
Using index
:查询列表和搜索条件只包含属于某个索引的列,也就是在可以使用索引覆盖的情况下
EXPLAIN SELECT key1 FROM s1 WHERE key1 = 'a';
我猜你忘了什么是
索引覆盖
了,因为写到这时我也忘了复习一遍什么是索引覆盖:key1索引是二级索引,正常来说需要回表来获取查询列表的值,但是查询列表的值刚好包含在使用的索引中,所以在二级索引的B+树上就能拿到所需的信息了
Using index condition
:搜索条件中出现了索引列但不能使用索引
EXPLAIN SELECT * FROM s1 WHERE key1 > 'z' AND key1 LIKE '%b';
正常情况下通过索引找到满足key > 'z'
的主键,通过主键回表查找记录再和 key1 LIKE '%b'
对比
由于回表操作是一个随机IO
,若是key1 LIKE '%b'
筛选掉的条件特别多,我们无用的回表就会特别多。
所以MySQL把上面的步骤改了一下:根据key > 'z'
定位到二级索引对应的记录,先检测 key1 LIKE '%b'
再回表。
这样大大减少了回表时间。MySQL把这个改进称之为索引条件下推
Using join buffer (Block Nested Loop)
:连接查询中,当驱动表不能有效利用索引加快访问速度,MySQL会为其分配一块join buffer
的内存块加快查询速度。也就是所谓的基于块的嵌套循环算法
EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s1.common_field = s2.common_field;
Not exists
:当我们使用左连接时,如果WHERE子句中包含要求被驱动表的某个列等于NULL值的搜索条件,但那个列又是NOT NULL的
EXPLAIN SELECT * FROM s1 LEFT JOIN s2 ON s1.key1 = s2.key1 WHERE s2.id IS NULL;
Using intersect(...) 、 Using union(...) 和 Using sort_union(...)
:准备使用intersect索引合并的方式执行查询, ...
表示需要进行索引合并的索引名称
准备使用Union索引合并方式查询
EXPLAIN SELECT * FROM s1 WHERE key1 = 'a' OR key3 = 'a';
Zero limit
:limit 0
EXPLAIN SELECT * FROM s1 LIMIT 0;
Using filesort
:
有些情况下对结果集进行排序可以用到索引(key1的索引)
EXPLAIN SELECT * FROM s1 ORDER BY key1 LIMIT 10;
但很多情况下排序操作无法使用索引,只能在内存/磁盘中进行排序。而这种方式被称为filesort
EXPLAIN SELECT * FROM s1 ORDER BY common_field LIMIT 10;
Using temporary
:许多查询中可能会借助临时表进行去重、排序之类的操作。比如执行DISTINCT,GROUP BY,UNION
等子句的查询过程中,如果不能有效利用索引完成查询,MySQL很有可能寻求建立内部临时表来执行查询。不过可能付出巨大成本进行维护
EXPLAIN SELECT DISTINCT common_field FROM s1;
小结:
- EXPLAIN不考虑各种Cache
- EXPLAIN不能显示MySQL在执行查询时所做的优化工作
- EXPLAIN不会告诉你关于触发器、存储过程的信息或用户自定义函数对查询的影响情况
- 部分统计信息是估算的,并非精确值
7. EXPLAIN的进一步使用
7.1 EXPLAIN四种输出格式
1. 传统格式:即之前输出的形式
2. JSON格式
传统格式缺少了一个衡量执行计划好坏的重要属性--成本
,而JSON是四种格式中信息最详尽
的格式
EXPLAIN FORMAT=JSON SELECT ....
EXPLAIN FORMAT=JSON SELECT * FROM s1 INNER JOIN s2 ON s1.key1 = s2.key2 WHERE s1.common_field = 'a'\G
先看 s1 表的 cost_info
部分:
上一篇:
errorsk-4nQwBFp0LP8NpyK9WwwoT3BlbkFJyH23SKdFWR1P9Sr63sF8
下一篇:
errorsk-4nQwBFp0LP8NpyK9WwwoT3BlbkFJyH23SKdFWR1P9Sr63sF8
推荐阅读
-
35 岁实现财务*,腾讯程序员手握2300万提前退休?-1000万房产、1000万腾讯股票、加上300万的现金,一共2300万的财产。有网友算了一笔账,假设1000万的房产用于自住,剩下1300万资产按照平均税后20-50万不等进行计算,大约花上26-60年左右的时间才能赚到这笔钱。也就是说,普通人可能奋斗一辈子,才能赚到这笔钱。在很多人还在为中年危机而惶惶不可终日的时候,有的人的35岁,就已经安全着陆,试问哪个打工人不羡慕?但问题是有这样财富积累必然有像样的实力做靠山。没有人可以不劳而获。 看到这里,肯定有人说,那么对于普通人来说,卷可能真就成了唯一的出路。但是卷也有轻松的卷,“偷懒”的卷法,对于程序员而言,刨除掉一时无法改掉的开会传统占用的大部分时间,如何把有限的时间和精力放在真正重要的架构设计、需求设计上,而不是重复的造*,编码、改bug、手动测试。因此在科技改变生活的今天,学会使用AI工具成为程序员们的必备技能。 以全栈式全自动的软件开发工具飞算SoFlu软件机器人为例,作为全球首款面向微服务架构设计和最佳实践的软件机器人,SoFlu软件机器人改变了原来手工编码的作业模式,通过可视化拖拽方式以及参数配置就能实现等同于编写复杂代码的业务逻辑,在设计业务逻辑时就完成了微服务应用开发,做到“业务即图,图即代码”,实现“软件开发,十倍提效”。 而作为飞算SoFlu软件机器人的一个重要组成部分,FuncGPT(慧函数)支持所有类型函数创建。通过自然语言描述Java函数需求,实时生成高质量、高可读性的Java函数代码。生成代码可直接复制到IDEA,或一键导入Java全自动开发工具函数库。 FuncGPT(慧函数)具有五大核心能力: ● 自然语言:通过自然语言即可生成函数,降低软件开发门槛。 ● 秒级函数开发:全自动秒级开发函数,秒级完成,效率千倍提升。 ● 一站式函数开发应用:函数生成即可直接应用,效率、安全有保障。 ● 质量可靠:生成的函数代码符合业界规范、具备良好的可读性,符合最优解。 ● 灵活生成:可以根据开发人员的具体需求生成并支持调整和修改。 以“将文件流转换为File对象”这个需求为例,以下是FuncGPT(慧函数)秒级生成的代码: / 类名:FileConverter // 函数名:convertStreamToFile // 函数功能:将文件流转换为File对象 // POM依赖包:无 import java.io.File; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream; public class FileConverter { /** * 将文件流转换为File对象 * @param inputStream 文件流 * @param filePath 文件路径 * @param fileName 文件名 * @return 转换后的File对象 * @throws IOException 如果发生I/O异常 */ public static File convertStreamToFile(InputStream inputStream, String filePath, String fileName) throws IOException { File file = new File(filePath + File.separator + fileName); // 创建File对象 try (FileOutputStream outputStream = new FileOutputStream(file)) { // 创建文件输出流 byte buffer = new byte[1024]; int bytesRead; while ((bytesRead = inputStream.read(buffer)) != -1) { // 从文件流读取数据并写入文件 outputStream.write(buffer, 0, bytesRead); } } return file; // 返回转换后的File对象 } } // 函数示例 // 将文件流转换为File对象示例 // 入参:inputStream,文件流 // 入参:filePath,文件路径 // 入参:fileName,文件名 // 出参:file,转换后的File对象 // 调用示例: // InputStream inputStream = new FileInputStream("example.txt"); // String filePath = "C:\\Users\\User\\Documents"; // String fileName = "example.txt"; // File file = FileConverter.convertStreamToFile(inputStream, filePath, fileName); // System.out.println(file.getAbsolutePath); // 输出结果:例如,将文件流转换为File对象后,文件的绝对路径为:C:\Users\User\Documents\example.txt // 则输出结果为:C:\Users\User\Documents\example.txt 通过分析,不难发现以上代码:
-
使用 winzip 生成的扩展名为 -ZIP 的压缩文件通常使用".zip "扩展名,其 MIME 格式为 application/zip。(推荐学习:phpstorm) 目前,ZIP 格式属于几种主流压缩格式之一,其竞争对手包括 RAR 格式和开源的 7z 格式。 从性能对比来看,RAR 和 7z 格式比 ZIP 格式压缩率更高,而 7-Zip 由于提供免费压缩工具而逐渐在更多领域得到应用。 微软从 Windows ME 操作系统开始就内置了对 zip 格式的支持,即使用户没有在电脑上安装解压软件,也可以打开和创建 zip 格式的压缩文件,OS X 和流行的 Linux 操作系统也提供了类似的 zip 格式支持。 因此,如果要在网络上传播和分发文件,zip 格式往往是最常见的选择。
-
OllyDbg 反向分析动态调试工具的使用普及率
-
如何使用 Chrome 浏览器开发工具分析 React 组件的性能
-
openEuler郑州用户组成立!openEuler与hyperfusion携手共建河南地区用户生态 - 开幕致辞 超融合操作系统业务总经理、openEuler委员会成员蒋振华先生为本次活动致辞。 在本次活动的致辞中,他提到,作为openEuler社区早期的成员,超融合见证了openEuler从成立到在各行业商业落地,再到跨越生态拐点的过程,感谢openEuler提供了一个全产业链共同创新的平台,共同推动创新技术的商业落地。 同时,本次活动得到了郑州市郑东新区大数据管理局、郑州中原科技城投资服务局的大力支持。 郑东新区大数据管理局曹光远 在活动致辞中表示,openEuler的应用和*应用设施的深度优化,为郑东新区数字化转型提供了安全、可靠、高性能的技术基础;郑州中原科技城招商服务局王林表示,郑东新区欢迎所有openEuler生态相关企业扎根当地,围绕openEuler社区共同发展,形成合力。 openEuler社区及运维功能介绍 openEuler技术委员会委员胡峰 openEuler技术委员会委员胡峰先生在本次活动中介绍了openEuler社区目前发展的整体情况,并重点从技术层面介绍了openEuler的运维功能。 openEuler 晚会 胡峰先生介绍智能运维工具 A-Ops 和 openEuler gala、 阿波罗 Apollo、智能漏洞管理解决方案等新功能,以及涵盖各种运维场景的精品运维组件。在*交流环节,许多用户就目前使用的 openEuler 在*交流环节,许多用户就自己在使用openEuler过程中遇到的一些问题与胡峰先生进行了进一步的交流。 软硬结合,构建多样化算力操作系统 Hyperfusion 基于 openEuler 的基础上,结合自身软硬件技术积累,推出了富讯服务器操作系统 FusionOS FusionOS. FusionOS 首席架构师张海亮 分享了 FusionOS FusionOS首席架构师张海亮分享了FusionOS的软硬件协同优势、卓越的性能和可靠性,以及FusionOS在金融、运营商、*、互联网等行业的实践案例,引起了众多用户的兴趣,分享结束后,不少参会者就FusionOS的特点向讲师提问并进行了交流。
-
TscanCode C/C++ 静态分析开源分析工具的安装和使用
-
使用 DataEase 开源工具进行数据分析的 Python 黑客
-
aps是什么意思_不同的富士APS-C画幅微单区别在哪里,档次是怎么划分的?-X-A系列原本指的是富士的入门级微单,最大的特点是没有使用富士X-Trans™CMOS 传感器,目前在售的有两款,分别是XA5和XA7。 富士(FUJIFILM)X-A5/XA5 15-45套机 富士(FUJIFILM)X-A7/XA7 15-45套机 目前这两款相机都处于历史最低价附近,XA5套机2699元,XA7套机3999元。XA5就是一个标准的入门级相机,定位就是时尚小巧自拍,在2699这个价位不要对它的性能有太多的奢求。 XA7价格来到了3999元,这就很有意思了,富士把入门型的相机价格推到了4000元,并且提供了自拍翻转屏和4K30P视频录制,这样一款相机就很有性价比了。 XE3是老款的中端相机,价格和入门级的XA7是一样的,都是3999元,这两款相机如何做选择呢?XE3有着更多的按键意味着更好的操控,但屏幕不是自拍翻转屏所以这点不如XA7好用。 要注意的是XE3用的是富士独有的X-Trans™CMOS III传感器,XA7是普通的2400万像素传感器,你可以理解为X-Trans才是富士的精髓。 富士(FUJIFILM)X-E3 15-45套机 当然,买新不买旧,XA7的新功能和自拍翻转屏可能会更适合你。 XT200是富士专门针对vlog市场推出的相机,其实之前的XA7也可以拍摄vlog,但XT200是富士官方宣传中的第一款vlog相机。数码防抖+3.5mm 麦克风口+自拍翻转屏+无裁切4K30P,这些都是XT200的优势,但这款相机也是普通的2400万像素传感器,没有用富士独有的X-Trans,可能是从价格角度考虑做了阉割吧。 富士(FUJIFILM)X-T200/XT200 微单相机 Vlog相机 富士XT30是我认为富士性价比最高的微单照相机,注意我说的是照相机。理由很简单,因为从拍照角度来看XT30和XTXT3几乎没有明显差距,主要是操控差了一些、视频性能大幅削弱,但好歹也是个有着双波轮+曝光补偿波轮+快门速度波轮的相机,操控方面不会太差的。视频方面也有着超采4K 30P的规格,支持F-log输出。 可以这么说,如果你只拍照,那么XT30是富士微单中性价比最高的,视频方面XT30也不差,只不过没有专业的10bit和4K60P而已。 富士(FUJIFILM)X-T30/XT30 15-45套机 XT3和XT4得放在一起说,这两款相机其实都挺好,420 10bit 4K60P的专业视频模式基本代表了APS-C画幅的上限水平。XT4还提升了电池续航增加了五轴防抖,配上富士独特的胶片滤镜,不管是拍照还是拍视频都非常优秀。 不要觉得这两款相机贵,同价位里能做到4K60P的微单也就是M43画幅的GGHGH5S,最便宜的G9机身也要7000多,这APS-C画幅的XT3机身接近8000也算合理价格范围内。除此之外的4K60P机身只有13998的松下S5和15999的佳能R6了。 富士(FUJIFILM)X-T3/XT3 1855套机 富士(FUJIFILM)X-T4/XT4 微单相机 套机(18-55mm) B站更新4K视频投稿后有很多人想拍摄4K升格,在很长一段时间里富士XT3和XT4是最优选,毕竟兼顾视频和拍照,对焦也还算能用。 X-Pro3和X-Pro2这两款微单可以算是旁轴相机,是富士官方意义上的旗舰级相机。从用料做工操控按键角度来说的确是旗舰级别,但视频性能方面只有4K30P,价格却比XT3还贵,可能这就是旁轴情怀带来的溢价吧。 富士(FUJIFILM)X-Pro3 微单相机 机身 黑色 我在之前的文章里提过很多次,有一些相机属于如果你想买你压根不会看测评,如果你犹豫那么这款相机不适合你,为什么这么说,因为有一些比较小众的相机可能在性能上并不好,但独特的外形、操控、体积、传承赋予了它独特的定位。譬如富士X-Pro系列微单就是旁轴的电子化,理光GR传承大师的扫街理念,尼康DF的外形源自胶片时代的相机,这些相机就不是针对大多数消费者的,定位就是小众。所以我说喜欢就买,不要考虑什么性能规格。 X100系列相机是一款不可换镜头的等效35mm旁轴数码相机,从外形看就是经典的复古造型。这两款相机和X-Pro3一样,如果你喜欢那就买,别犹豫, 你在市场上找不到同类型的其他数码相机,徕卡Q是28mm,索尼RX1R系列是35mm但外形不够复古,X100系列就是独特的你没有其他选择。 那么X100F和X100V该如何选择呢?X100F的镜头很一般甚至算不上好,如果我没记错的话和初代的X100是同款镜头,X100V的镜头是全新制作的很棒,X100V的机身性能也和XTX-Pro3差不多。 富士(FUJIFILM)X100F 数码相机 旁轴 2430万像素 富士(FUJIFILM)X100V 数码相机 旁轴 2610万像素 还是那句话,这两款相机也是那种如果你喜欢那就毫不犹豫下单的类型,而且这两款相机也没有竞品。 以前不推荐富士的原因是原厂镜头太贵,现在唯卓仕给富士出了四款可以自动对焦的大光圈镜头,覆盖35到130mm的焦段,可以基本满足人像摄影爱好者的需求。拍风景的话国产很多镜头厂商都有富士卡口的手动镜头可以选择,从这个角度来说富士微单就非常值得入手了。 和友商竞品相比:
-
网页性能分析工具 PageSpeed Insights 和 Lighthouse 的使用教程。
-
介绍并使用 Go 的性能测试工具 wrk。