MySQL慢查询优化:从20秒到200毫秒的调优之旅
引子:一次生产事故引发的思考
凌晨3点,手机疯狂震动。监控告警显示:核心业务接口响应时间超过20秒,用户投诉如潮水般涌来。这是每个运维工程师的噩梦时刻。
快速定位后发现,罪魁祸首是一条看似简单的SQL查询。经过一番优化,最终将查询时间从20秒降到了200毫秒——性能提升100倍。
今天,我想和大家分享这次优化的完整过程,以及背后的思考方法论。
一、问题现场:让人崩溃的慢查询
1.1 业务背景
我们的电商平台有一个订单统计功能,需要实时统计每个商户的订单情况。涉及的核心表结构如下:
-- 订单表(500万条记录) CREATE TABLE orders ( id BIGINTPRIMARY KEY AUTO_INCREMENT, order_no VARCHAR(32), merchant_id INT, user_id INT, amount DECIMAL(10,2), status TINYINT, created_at DATETIME, updated_at DATETIME ) ENGINE=InnoDB; -- 订单明细表(2000万条记录) CREATE TABLE order_items ( id BIGINTPRIMARY KEY AUTO_INCREMENT, order_id BIGINT, product_id INT, quantity INT, price DECIMAL(10,2), created_at DATETIME ) ENGINE=InnoDB; -- 商户表(10万条记录) CREATE TABLE merchants ( id INTPRIMARY KEY AUTO_INCREMENT, name VARCHAR(100), category VARCHAR(50), city VARCHAR(50), level TINYINT ) ENGINE=InnoDB;
1.2 问题SQL
运营同学需要查询:过去30天内,北京地区VIP商户(level=3)的订单统计数据,包括订单总数、总金额、平均客单价等。
原始SQL是这样的:
SELECT m.id, m.name, COUNT(DISTINCT o.id) as order_count, COUNT(DISTINCT o.user_id) as user_count, SUM(o.amount) as total_amount, AVG(o.amount) as avg_amount, SUM(oi.quantity) as total_items FROM merchants m LEFTJOIN orders o ON m.id = o.merchant_id LEFTJOIN order_items oi ON o.id = oi.order_id WHERE m.city ='北京' AND m.level =3 AND o.status =1 AND o.created_at >= DATE_SUB(NOW(), INTERVAL30DAY) GROUPBY m.id, m.name ORDERBY total_amount DESC LIMIT 100;
执行这条SQL,足足等了20.34秒!
二、问题分析:庖丁解牛式的诊断
2.1 第一步:看执行计划
EXPLAIN SELECT ...
执行计划显示了几个严重问题:
+----+-------------+-------+------+---------------+------+---------+------+---------+----------------------------------------------+ | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra | +----+-------------+-------+------+---------------+------+---------+------+---------+----------------------------------------------+ | 1 | SIMPLE | m | ALL | NULL | NULL | NULL | NULL | 100000 | Using where; Using temporary; Using filesort | | 1 | SIMPLE | o | ALL | NULL | NULL | NULL | NULL | 5000000 | Using where; Using join buffer | | 1 | SIMPLE | oi | ALL | NULL | NULL | NULL | NULL | 20000000| Using where; Using join buffer | +----+-------------+-------+------+---------------+------+---------+------+---------+----------------------------------------------+
发现的问题:
• 三个表都是全表扫描(type=ALL)
• 没有使用任何索引(key=NULL)
• 产生了临时表和文件排序
• 笛卡尔积效应:100000 × 5000000 × 20000000 的恐怖计算量
2.2 第二步:分析慢查询日志
开启慢查询日志后,发现了更多细节:
# Time: 2024-03-15T0341.123456Z # Query_time: 20.342387 Lock_time: 0.000123 Rows_sent: 100 Rows_examined: 25438921 # Rows_affected: 0 Bytes_sent: 15234
关键信息:
• 检查了2500万行数据,只返回100行
• 数据过滤效率极低:25438921 / 100 = 254389倍
2.3 第三步:Profile分析
SET profiling = 1; -- 执行问题SQL SHOW PROFILE;
结果显示时间主要消耗在:
• Sending data: 18.5s(90%)
• Creating sort index: 1.2s(6%)
• Copying to tmp table: 0.6s(3%)
三、优化方案:四步走战略
步骤1:添加必要索引
首先解决最基础的索引缺失问题:
-- 商户表索引 ALTER TABLE merchants ADD INDEX idx_city_level (city, level); -- 订单表复合索引(注意字段顺序) ALTER TABLE orders ADD INDEX idx_merchant_status_created (merchant_id, status, created_at); -- 订单明细表索引 ALTER TABLE order_items ADD INDEX idx_order_id (order_id);
索引设计思路:
• 遵循最左前缀原则
• 将选择性高的字段放前面
• 考虑查询条件和JOIN条件
优化后:20.34秒 → 8.5秒
步骤2:SQL改写 - 减少JOIN数据量
原SQL的问题是先JOIN再过滤,导致中间结果集巨大。改写策略:先过滤,再JOIN。
SELECT m.id, m.name, t.order_count, t.user_count, t.total_amount, t.avg_amount, t.total_items FROM merchants m INNERJOIN ( SELECT o.merchant_id, COUNT(DISTINCT o.id) as order_count, COUNT(DISTINCT o.user_id) as user_count, SUM(o.amount) as total_amount, AVG(o.amount) as avg_amount, SUM(items.item_count) as total_items FROM orders o LEFTJOIN ( SELECT order_id, SUM(quantity) as item_count FROM order_items GROUPBY order_id ) items ON o.id = items.order_id WHERE o.status =1 AND o.created_at >= DATE_SUB(NOW(), INTERVAL30DAY) GROUPBY o.merchant_id ) t ON m.id = t.merchant_id WHERE m.city ='北京' AND m.level =3 ORDERBY t.total_amount DESC LIMIT 100;
优化思路:
• 使用子查询先聚合订单数据
• 减少JOIN的数据量
• 将order_items的聚合独立出来
优化后:8.5秒 → 2.3秒
步骤3:使用覆盖索引
分析发现,查询中需要的字段都可以通过索引覆盖,避免回表:
-- 创建覆盖索引 ALTER TABLE orders ADD INDEX idx_covering (merchant_id, status, created_at, id, user_id, amount);
这个索引包含了WHERE条件和SELECT需要的所有字段,实现索引覆盖。
优化后:2.3秒 → 0.8秒
步骤4:终极优化 - 物化视图
对于这种统计查询,如果可以接受一定的数据延迟,使用物化视图是最佳方案:
-- 创建汇总表 CREATE TABLE merchant_order_summary ( merchant_id INT, summary_date DATE, order_count INT, user_count INT, total_amount DECIMAL(10,2), avg_amount DECIMAL(10,2), total_items INT, PRIMARY KEY (merchant_id, summary_date), INDEX idx_date (summary_date) ) ENGINE=InnoDB; -- 定时任务(每小时执行)更新汇总数据 INSERT INTO merchant_order_summary SELECT merchant_id, DATE(created_at) as summary_date, COUNT(DISTINCT id) as order_count, COUNT(DISTINCT user_id) as user_count, SUM(amount) as total_amount, AVG(amount) as avg_amount, (SELECTSUM(quantity) FROM order_items WHERE order_id IN (SELECT id FROM orders WHERE merchant_id = o.merchant_id ANDDATE(created_at) =DATE(o.created_at)) ) as total_items FROM orders o WHERE status =1 AND created_at >= CURDATE() GROUPBY merchant_id, DATE(created_at) ON DUPLICATE KEY UPDATE order_count =VALUES(order_count), user_count =VALUES(user_count), total_amount =VALUES(total_amount), avg_amount =VALUES(avg_amount), total_items =VALUES(total_items);
查询时直接使用汇总表:
SELECT m.id, m.name, SUM(s.order_count) as order_count, SUM(s.user_count) as user_count, SUM(s.total_amount) as total_amount, AVG(s.avg_amount) as avg_amount, SUM(s.total_items) as total_items FROM merchants m INNERJOIN merchant_order_summary s ON m.id = s.merchant_id WHERE m.city ='北京' AND m.level =3 AND s.summary_date >= DATE_SUB(CURDATE(), INTERVAL30DAY) GROUPBY m.id, m.name ORDERBYSUM(s.total_amount) DESC LIMIT 100;
最终优化后:0.8秒 → 0.2秒(200毫秒)!
四、优化效果对比
| 优化阶段 | 执行时间 | 提升倍数 | 关键优化点 |
|---|---|---|---|
| 原始SQL | 20.34秒 | - | 全表扫描,无索引 |
| 添加索引 | 8.50秒 | 2.4x | 基础索引优化 |
| SQL改写 | 2.30秒 | 8.8x | 减少JOIN数据量 |
| 覆盖索引 | 0.80秒 | 25.4x | 避免回表查询 |
| 物化视图 | 0.20秒 | 101.7x | 预计算汇总 |
五、通用优化方法论
通过这次优化,我总结了一套MySQL慢查询优化的通用方法论:
5.1 诊断三板斧
1. EXPLAIN分析
• 检查type字段:system > const > eq_ref > ref > range > index > ALL
• 查看key字段:是否使用索引
• 观察Extra字段:是否有Using filesort、Using temporary
2. 慢查询日志分析
# 开启慢查询日志 SET GLOBAL slow_query_log = 1; SET GLOBAL long_query_time = 1; # 使用pt-query-digest分析 pt-query-digest /var/log/mysql/slow.log
3. Profile分析
SET profiling = 1; -- 执行SQL SHOW PROFILE FOR QUERY 1;
5.2 优化六步法
1. 索引优化
• 为WHERE条件创建索引
• 为JOIN字段创建索引
• 考虑覆盖索引
• 注意索引顺序(选择性高的在前)
2. SQL改写
• 小表驱动大表
• 先过滤再JOIN
• 避免SELECT *
• 合理使用子查询
3. 表结构优化
• 适当的反范式化
• 字段类型优化(避免隐式转换)
• 分区表考虑
4. 缓存策略
• Query Cache(MySQL 8.0已移除)
• Redis缓存热数据
• 应用层缓存
5. 读写分离
• 主从复制
• 读负载均衡
6. 数据归档
• 历史数据定期归档
• 冷热数据分离
5.3 索引设计原则
-- 好的索引设计 ALTER TABLE orders ADD INDEX idx_merchant_status_created (merchant_id, status, created_at); -- 原因: -- 1. merchant_id 用于JOIN -- 2. status 选择性较高(假设状态值分布均匀) -- 3. created_at 用于范围查询,放最后
索引设计口诀:
• 等值查询放前面
• 范围查询放后面
• 排序字段要考虑
• 选择性高的优先
5.4 常见陷阱避坑
1. 隐式类型转换
-- 错误:字符串字段用数字查询 WHERE phone = 13812345678 -- phone是VARCHAR -- 正确 WHERE phone = '13812345678'
2. 函数破坏索引
-- 错误:对索引字段使用函数 WHERE DATE(created_at) = '2024-03-15' -- 正确 WHERE created_at >= '2024-03-15' AND created_at < '2024-03-16'
3. OR条件陷阱
-- 可能不走索引 WHERE merchant_id = 100 OR user_id = 200 -- 优化方案:使用UNION SELECT * FROM orders WHERE merchant_id = 100 UNION SELECT * FROM orders WHERE user_id = 200
六、实战案例集锦
案例1:分页查询优化
问题SQL:
SELECT * FROM orders ORDER BY created_at DESC LIMIT 1000000, 20; -- 深分页问题
优化方案:
-- 使用覆盖索引 + 子查询 SELECT * FROM orders o INNER JOIN ( SELECT id FROM orders ORDER BY created_at DESC LIMIT 1000000, 20 ) t ON o.id = t.id;
案例2:COUNT优化
问题SQL:
SELECT COUNT(*) FROM orders WHERE status = 1 AND created_at >= '2024-01-01';
优化方案:
-- 方案1:使用索引覆盖 ALTER TABLE orders ADD INDEX idx_status_created (status, created_at); -- 方案2:使用汇总表 CREATE TABLE order_count_summary ( count_date DATE, status TINYINT, order_count INT, PRIMARY KEY (count_date, status) );
案例3:IN查询优化
问题SQL:
SELECT * FROM orders WHERE merchant_id IN ( SELECT id FROM merchants WHERE city = '北京' AND level = 3 );
优化方案:
-- 改写为JOIN SELECT o.* FROM orders o INNER JOIN merchants m ON o.merchant_id = m.id WHERE m.city = '北京' AND m.level = 3;
七、监控与预防
7.1 建立监控体系
-- 创建慢查询监控视图 CREATEVIEW slow_query_monitor AS SELECT DATE(start_time) as query_date, LEFT(sql_text, 100) as query_sample, COUNT(*) as exec_count, AVG(query_time) as avg_time, MAX(query_time) as max_time, SUM(rows_examined) as total_rows_examined FROM mysql.slow_log GROUPBYDATE(start_time), LEFT(sql_text, 100) ORDERBY avg_time DESC;
7.2 自动化告警脚本
#!/usr/bin/env python3
import MySQLdb
import smtplib
from email.mime.text import MIMEText
defcheck_slow_queries():
db = MySQLdb.connect(host="localhost", user="monitor",
passwd="password", db="mysql")
cursor = db.cursor()
# 检查最近1小时的慢查询
cursor.execute("""
SELECT COUNT(*) as slow_count,
AVG(query_time) as avg_time
FROM mysql.slow_log
WHERE start_time >= DATE_SUB(NOW(), INTERVAL 1 HOUR)
""")
result = cursor.fetchone()
slow_count, avg_time = result
# 触发告警条件
if slow_count > 100or avg_time > 5:
send_alert(f"慢查询告警:数量={slow_count}, 平均时间={avg_time}秒")
cursor.close()
db.close()
defsend_alert(message):
# 发送邮件告警
msg = MIMEText(message)
msg['Subject'] = 'MySQL慢查询告警'
msg['From'] = 'monitor@example.com'
msg['To'] = 'ops@example.com'
s = smtplib.SMTP('localhost')
s.send_message(msg)
s.quit()
if __name__ == "__main__":
check_slow_queries()
7.3 定期优化建议
1. 每周检查
• 分析慢查询TOP 10
• 检查索引使用情况
• 评估表数据增长
2. 每月优化
• 重建碎片化严重的表
• 更新统计信息
• 清理无用索引
3. 每季度评估
• 架构层面优化需求
• 分库分表评估
• 硬件升级评估
八、性能优化工具箱
8.1 必备工具清单
1. MySQL自带工具
• EXPLAIN / EXPLAIN ANALYZE
• SHOW PROFILE
• Performance Schema
• sys schema
2. 第三方工具
• pt-query-digest(Percona Toolkit)
• MySQLTuner
• MySQL Workbench
• Prometheus + Grafana
3. 在线分析工具
# 实时查看进程 mysqladmin -uroot -p processlist # 查看当前锁等待 SELECT * FROM information_schema.INNODB_LOCKS; # 查看事务状态 SELECT * FROM information_schema.INNODB_TRX;
8.2 快速诊断脚本
#!/bin/bash
# quick_check.sh - MySQL性能快速检查脚本
echo"=== MySQL Performance Quick Check ==="
# 1. 检查慢查询设置
echo -e "
[1] Slow Query Settings:"
mysql -e "SHOW VARIABLES LIKE '%slow%';"
# 2. 查看最近的慢查询
echo -e "
[2] Recent Slow Queries:"
mysql -e "SELECT * FROM mysql.slow_log ORDER BY start_time DESC LIMIT 5G"
# 3. 检查表索引使用情况
echo -e "
[3] Index Usage Stats:"
mysql -e "
SELECT
table_schema,
table_name,
index_name,
cardinality
FROM information_schema.STATISTICS
WHERE table_schema NOT IN ('mysql', 'information_schema', 'performance_schema')
ORDER BY cardinality DESC
LIMIT 10;"
# 4. 检查表大小
echo -e "
[4] Table Sizes:"
mysql -e "
SELECT
table_schema,
table_name,
ROUND(data_length/1024/1024, 2) as 'Data_MB',
ROUND(index_length/1024/1024, 2) as 'Index_MB',
ROUND((data_length+index_length)/1024/1024, 2) as 'Total_MB'
FROM information_schema.TABLES
WHERE table_schema NOT IN ('mysql', 'information_schema', 'performance_schema')
ORDER BY data_length + index_length DESC
LIMIT 10;"
# 5. 当前连接状态
echo -e "
[5] Current Connections:"
mysql -e "SHOW STATUS LIKE '%connect%';"
echo -e "
=== Check Complete ==="
九、优化心得与经验总结
9.1 优化的黄金法则
1. 测量先于优化
• 不要靠猜,要靠数据说话
• 建立基准测试,量化优化效果
2. 二八定律
• 80%的性能问题由20%的SQL造成
• 优先优化最频繁、最耗时的查询
3. 渐进式优化
• 每次只改一个地方
• 记录每步优化的效果
• 保留回滚方案
9.2 团队协作建议
1. 建立SQL Review机制
-- SQL审核检查清单 - [ ] 是否有合适的索引? - [ ] 是否会产生全表扫描? - [ ] JOIN的表不超过3个? - [ ] 是否使用了SELECT *? - [ ] 子查询是否可以改为JOIN? - [ ] 是否考虑了数据增长?
2. 制定开发规范
• 统一命名规范
• 索引命名规则
• SQL编写标准
3. 知识分享
• 定期的技术分享会
• 维护优化案例库
• 建立内部Wiki
9.3 踩坑经验分享
坑1:过度索引
-- 错误:为每个查询条件都建索引 ALTER TABLE orders ADD INDEX idx_merchant (merchant_id); ALTER TABLE orders ADD INDEX idx_status (status); ALTER TABLE orders ADD INDEX idx_created (created_at); -- 正确:建立复合索引 ALTER TABLE orders ADD INDEX idx_merchant_status_created (merchant_id, status, created_at);
坑2:忽视写入性能
• 索引越多,写入越慢
• 需要在查询和写入之间找平衡
坑3:缓存失效风暴
• 大量缓存同时失效
• 解决方案:缓存过期时间随机化
十、写在最后
从20秒优化到200毫秒,这不仅仅是一个数字游戏,更是对技术精益求精的追求。每一次优化都是一次学习,每一个问题都是一次成长。
记住三个关键点:
1. 优化是持续的过程,不是一次性的任务
2. 监控比优化更重要,预防胜于治疗
3. 理论结合实践,知其然更要知其所以然
作为运维工程师,我们不仅要解决问题,更要预防问题。建立完善的监控体系,制定合理的优化策略,让系统始终保持在最佳状态。
全部0条评论
快来发表一下你的评论吧 !