MySQL索引优化实例分析


1.数据准备#1.建立员工表 , 并创建name,age,position索引 , id为自增主键create table `employees` (  `id` int(11) not null auto_increment,  `name` varchar(24) not null default '' comment '姓名',  `age` int(11) not null default '0' comment '年龄',  `position` varchar(20) not null default '' comment '职位',  `hire_time` timestamp not null default current_timestamp comment '入职时间',  primary key (`id`),  key `idx_name_age_position` (`name`,`age`,`position`) using btree) engine=innodb auto_increment=100010 default charset=utf8 comment='员工记录表'# 2.前面插入三条数据,并建立employees_min_copy表插入这三条数据insert into employees (name,age,`position`,hire_time) values ('lilei',22,'manager','2021-08-17 21:00:55'),('hanmeimei',23,'dev','2021-08-17 21:00:55'),('lucy',23,'dev','2021-08-17 21:00:55');#3.再通过执行计划向表中插入十万条数据#3.1建立存储过程 , 往employees表中插入数据(mysql8.0版本)delimiter $$use `zhebase`$$drop procedure if exists `batch_insert_employees`$$create procedure `batch_insert_employees`(in `start_number` bigint,in `counts` bigint)begin   declare start_number bigint default start_number;    declare stop_number bigint default start_number;    set stop_number=start_number + counts;    while start_number < stop_number do        insert into employees(name,age,position,hire_time) values(concat('zhang',start_number),start_number,'dev',now());        set start_number=start_number+1;    end while ;    commit;end$$delimiter ;#3.2执行存储过程插入十万条数据call batch_insert_employees(1,100000);
2.实例一 1.联合索引第一个字段用范围不会走索引  
explain select * from employees where name > 'lilei' and age = 22 and position ='manager';
 原因:mysql 内部可能觉得第一个字段就用范围 , 结果集应该很大 , 还需要回表 , 回表效率不高 , 不如直接采用全表扫描 但是我们可以强制走索引
explain select * from employees force index(idx_name_age_position) where name > 'lilei' and age = 22 and position ='manager';
-- 关闭查询缓存set global query_cache_size=0;set global query_cache_type=0;-- 执行时间0.321sselect * from employees where name > 'lilei';-- 执行时间0.458sselect * from employees force index(idx_name_age_position) where name > 'lilei';
 使用了强制走索引让联合索引第一个字段范围查找也走索引 , 扫描的行rows看上去也少了点 , 但是最终查找效率不一定比全表扫描高 , 因为回表效率不高
对于这种情况 , 如果可以使用覆盖索引 , 就使用覆盖索引进行优化 
explain select name,age,position from employees where name > 'lilei' and age = 22 and position ='manager';
2.in 和 or 在表数据量比较大的情况会走索引 , 在表记录不多的情况下会选择全表扫描
explain select * from employeeswhere name in ('lilei','hanmeimei','lucy')and age = 22and position ='manager';#表数据量大走索引 , 数据量小全表扫描explain select * from employeeswhere (name = 'lilei' or name = 'hanmeimei')and age = 22 and position ='manager';
 将十万行数据的employees表复制一份插入几行数据 , 再进行查询 
发现进行了全表扫描 
3.like xx% 无论数据量多少一般情况都会走索引
explain select * from employees where name like 'lilei%' and age = 22 and position ='manager';
 mysql 底层使用索引下推(index condition pushdown , icp) 来对 like xx%进行优化 。
索引下推: 对于辅助的联合索引(idx_name_age_position) , 通常按照最左前缀原则 , select * from employees where name like 'lilei%' and age = 22 and position ='manager' 因为在 name 是范围查询 , 过滤完后 , age 和 position 是无序的 , 后续索引无法使用 , 只会走name字段索引 。

  • mysql5.6 以前: 先在索引树中匹配 name 是 'lilei' 开头的索引 , 然后根据索引下的主键进行回表操作 , 在主键索引上在匹配 age 和 position
  • mysql 5.6以后: 引入索引下推 , 先在索引树种匹配 name 是 'lilei' 开头的索引 , 同时将该所与树通有的所有条件字段进行判断 , 过滤掉不符合条件的记录再回表匹配其他条件及查询整行数据 。
  • 优点: 过滤掉不符合条件的记录之后再回表 , 可以有效的减少回表次数 , 提高查询效率 。
mysql 范围查找为什么没有使用索引下推优化?  可能因为范围查找结果集一般较大 , like xx%在大多数情况下 , 过滤后结果集较小 。而结果集大的时候 , 每次检索出来都要匹配后面的字段 , 不一定比立即回表要快 。但是也不是绝对的 , 有些时候 like xx%也不会走索引下推 。
3.mysql如何选择合适的索引? 先来看两条 sql 语句:
# mysql直接使用全表扫描explain select * from employees where name > 'a';# mysql走索引explain select * from employees where name > 'zzz';
 我们发现第一条 sql 进行了全表扫描 , 第二条 sql 走了索引 。对应第一条sql , mysql 通过计算执行成本发现走索引成本比全部扫描更高(走索引需要遍历 name 字段 , 再进行回表操作查出最终数据 , 比直接查聚簇索引树更慢) 。对于这种情况可以使用覆盖索引进行优化 。至于 mysql 如何选择最终索引 , 可以用 trace 工具进行查看 。但开启trace工具会影响 mysql 性能 , 用完之后需立即关闭 。
#开启traceset session optimizer_trace="enabled=on",end_markers_in_json=on; #关闭traceset session optimizer_trace="enabled=off";#使用traceselect * from employees where name > 'a' order by position;select * from information_schema.optimizer_trace;
下面是执行后的trace中的内容:
{  "steps": [    {      #第一阶段:sql准备阶段 , 格式化sql      "join_preparation": {        "select#": 1,        "steps": [          {            "expanded_query": "/* select#1 */ select `employees`.`id` as `id`,`employees`.`name` as `name`,`employees`.`age` as `age`,`employees`.`position` as `position`,`employees`.`hire_time` as `hire_time` from `employees` where (`employees`.`name` > 'a') order by `employees`.`position` limit 0,200"          }        ] /* steps */      } /* join_preparation */    },    {      #第二阶段:sql优化阶段      "join_optimization": {        "select#": 1,        "steps": [          {            #条件处理            "condition_processing": {              "condition": "where",              "original_condition": "(`employees`.`name` > 'a')",              "steps": [                {                  "transformation": "equality_propagation",                  "resulting_condition": "(`employees`.`name` > 'a')"                },                {                  "transformation": "constant_propagation",                  "resulting_condition": "(`employees`.`name` > 'a')"                },                {                  "transformation": "trivial_condition_removal",                  "resulting_condition": "(`employees`.`name` > 'a')"                }              ] /* steps */            } /* condition_processing */          },          {            "substitute_generated_columns": {            } /* substitute_generated_columns */          },          {            #表依赖详情            "table_dependencies": [              {                "table": "`employees`",                "row_may_be_null": false,                "map_bit": 0,                "depends_on_map_bits": [                ] /* depends_on_map_bits */              }            ] /* table_dependencies */          },          {            "ref_optimizer_key_uses": [            ] /* ref_optimizer_key_uses */          },          {            #预估表的访问成本            "rows_estimation": [              {                "table": "`employees`",                "range_analysis": {                  "table_scan": { --全表扫描情况                    "rows": 93205, --扫描行数                    "cost": 9394.9 --查询成本                  } /* table_scan */,                  #查询可能使用的索引                  "potential_range_indexes": [                    {                      "index": "primary",  --主键索引                      "usable": false, -- 是否使用                      "cause": "not_applicable"                    },                    {                      #辅助索引                      "index": "idx_name_age_position",                      "usable": true,                      "key_parts": [                        "name",                        "age",                        "position",                        "id"                      ] /* key_parts */                    }                  ] /* potential_range_indexes */,                  "setup_range_conditions": [                  ] /* setup_range_conditions */,                  "group_index_range": {                    "chosen": false,                    "cause": "not_group_by_or_distinct"                  } /* group_index_range */,                  "skip_scan_range": {                    "potential_skip_scan_indexes": [                      {                        "index": "idx_name_age_position",                        "usable": false,                        "cause": "query_references_nonkey_column"                      }                    ] /* potential_skip_scan_indexes */                  } /* skip_scan_range */,                  #分析各个索引使用成本                  "analyzing_range_alternatives": {                    "range_scan_alternatives": [                      {                        "index": "idx_name_age_position",                        "ranges": [                          "a < name" --索引使用范围                        ] /* ranges */,                        "index_dives_for_eq_ranges": true,                       "rowid_ordered": false, --使用该索引获取的记录是否按照主键排序                        "using_mrr": false,                       "index_only": false, --是否使用覆盖索引                        "rows": 46602, --索引扫描行数                        "cost": 16311, --索引使用成本                        "chosen": false, --是否选择该索引                        "cause": "cost"                      }                    ] /* range_scan_alternatives */,                    "analyzing_roworder_intersect": {                      "usable": false,                      "cause": "too_few_roworder_scans"                    } /* analyzing_roworder_intersect */                  } /* analyzing_range_alternatives */                } /* range_analysis */              }            ] /* rows_estimation */          },          {            "considered_execution_plans": [              {                "plan_prefix": [                ] /* plan_prefix */,                "table": "`employees`",                "best_access_path": { --最优访问路径                  "considered_access_paths": [ --最终选择的访问路径                    {                      "rows_to_scan": 93205,                      "filtering_effect": [                      ] /* filtering_effect */,                      "final_filtering_effect": 0.5,                      "access_type": "scan", --访问类型:为scan , 全表扫描                      "resulting_rows": 46602,                      "cost": 9392.8,                      "chosen": true  --确定选择                    }                  ] /* considered_access_paths */                } /* best_access_path */,                "condition_filtering_pct": 100,                "rows_for_plan": 46602,                "cost_for_plan": 9392.8,                "chosen": true              }            ] /* considered_execution_plans */          },          {            "attaching_conditions_to_tables": {              "original_condition": "(`employees`.`name` > 'a')",              "attached_conditions_computation": [                {                  "table": "`employees`",                  "rechecking_index_usage": {                    "recheck_reason": "low_limit",                    "limit": 200,                    "row_estimate": 46602                  } /* rechecking_index_usage */                }              ] /* attached_conditions_computation */,              "attached_conditions_summary": [                {                  "table": "`employees`",                  "attached": "(`employees`.`name` > 'a')"                }              ] /* attached_conditions_summary */            } /* attaching_conditions_to_tables */          },          {            "optimizing_distinct_group_by_order_by": {              "simplifying_order_by": {                "original_clause": "`employees`.`position`",                "items": [                  {                    "item": "`employees`.`position`"                  }                ] /* items */,                "resulting_clause_is_simple": true,                "resulting_clause": "`employees`.`position`"              } /* simplifying_order_by */            } /* optimizing_distinct_group_by_order_by */          },          {            "reconsidering_access_paths_for_index_ordering": {              "clause": "order by",              "steps": [              ] /* steps */,              "index_order_summary": {                "table": "`employees`",                "index_provides_order": false,                "order_direction": "undefined",                "index": "unknown",                "plan_changed": false              } /* index_order_summary */            } /* reconsidering_access_paths_for_index_ordering */          },          {            "finalizing_table_conditions": [              {                "table": "`employees`",                "original_table_condition": "(`employees`.`name` > 'a')",                "final_table_condition   ": "(`employees`.`name` > 'a')"              }            ] /* finalizing_table_conditions */          },          {            "refine_plan": [              {                "table": "`employees`"              }            ] /* refine_plan */          },          {            "considering_tmp_tables": [              {                "adding_sort_to_table_in_plan_at_position": 0              } /* filesort */            ] /* considering_tmp_tables */          }        ] /* steps */      } /* join_optimization */    },    {      #第三阶段:sql执行阶段      "join_execution": {        "select#": 1,        "steps": [          {            "sorting_table_in_plan_at_position": 0,            "filesort_information": [              {                "direction": "asc",                "table": "`employees`",                "field": "position"              }            ] /* filesort_information */,            "filesort_priority_queue_optimization": {              "limit": 200,              "chosen": true            } /* filesort_priority_queue_optimization */,            "filesort_execution": [            ] /* filesort_execution */,            "filesort_summary": {              "memory_available": 262144,              "key_size": 40,              "row_size": 186,              "max_rows_per_buffer": 201,              "num_rows_estimate": 285696,              "num_rows_found": 100003,              "num_initial_chunks_spilled_to_disk": 0,              "peak_memory_used": 38994,              "sort_algorithm": "std::stable_sort",              "unpacked_addon_fields": "using_priority_queue",              "sort_mode": "<fixed_sort_key, additional_fields>"            } /* filesort_summary */          }        ] /* steps */      } /* join_execution */    }  ] /* steps */}由 trace字段可知 , 全表扫描的 cost_for_plan = 9394.9 小于使用索引 cost_for_plan = 16311 , 故最终选择全表扫描 。
4.常见 sql 深入优化
4.1.order by与group by优化# 案例1explain select * from employees where name = 'lucy' and position = 'dev' order by age;分析:  案例1 由最左前缀法则分析出索引中间不能出现断层 , 只使用了 name 索引前缀 , 也可以从key_len = 3n + 2 看出 。age 索引列用在排序过程中 , 因为extra字段里没有 using filesort 而是 using index condition。 
#案例2explain select * from employees where name = 'lucy'order by position;分析:  案例2 索引查询使用了 name 索引前缀 , 但排序由于跳过了 age 所以extra字段出现了 using filesort。
#案例3explain select * from employees where name = 'lucy'  order by age, position;
分析:  案例3 查询时使用了 name 索引 , age 和 postion 用于排序 , 不会出现 using filesort
#案例4explain select * from employees where name = 'lucy'  order by position,age;
分析:  案例4 查询时使用了 name 索引 , age 和 postion 顺序与创建索引树不一致 , 出现了 using filesort
#案例5explainselect * from employeeswhere name = 'lucy'and age = 22order by position,age;
分析:  案例5 查询时使用了 name 索引 , age 和 postion 顺序与创建索引树不一致 , 但 name、age 为常量 , mysql 会自动优化 , 不会出现 using filesort
#案例6explain select * from employees where name = 'lucy' order byage,position desc;
分析:  案例6 排序顺序一样 , 但 order by 默认升序 , 导致与索引的排序方式不同 , 出现了 using filesort。 mysql8.0 以上版本有降序索引可以支持这种查询 。
#案例7explain select * from employees where name = 'lucy' or name = 'lilei' order by age;
 分析:  案例7 对于排序来说 , 多个相等条件也是范围查询 , 出现了 using filesort。
#案例8#sql-1explain select * from employees where name > 'zzz' order by name;#sql-2explain select * from employees where name > 'a' order by name;
  分析:  案例8 原因同前面的例子 , 可以使用覆盖索引优化 。
mysql排序总结:
1、mysql支持两种方式的排序 filesort 和 index , using index是指mysql扫描索引本身完成排序 。using filesort 是指mysql扫描聚簇索引(整张表)进行排序 。index效率高 , filesort效率低 。
2、order by 满足两种情况会使用 using index(不绝对)
  • a.order by 语句使用索引最左前列 。
  • b.使用 where 子句与 order by 子句条件列组合满足索引最左前列 。
3、尽量在索引列上完成排序 , 遵循最左前缀法则 。
4、如果 order by 的条件不在索引列上 , 就会产生using filesort 。
5、能用覆盖索引尽量用覆盖索引
6、group by 与 order by 很类似 , 其实质是先排序后分组(group by 底层:先执行一次 order by 再进行分组) , 遵照索引创建顺序的最左前缀法则 。对于group by的优化如果不需要排序的可以加上order by null 禁止排序 。注意 , where高于having , 能写在where中的限定条件就不要去having限定了 。
using filesort 文件排序原理 filesort文件排序方式有:
  • 单路排序:是一次性取出满足条件行的所有字段 , 然后在 sort buffer 中进行排序 。用trace工具得到sort_mode信息显示< sort_key, additional_fields >或者< sort_key, packed_additional_fields >
  • 双路排序(又叫回表排序模式) :先根据相应的条件取出相应的排序字段和可以直接定位行数据的行 id , 然后在 sort buffer 中进行排序 , 排序完后需要再次取回其它需要的字段 。用trace工具得到sort_mode信息显示< sort_key, rowid >
mysql 通过比较系统变量 max_length_for_sort_data(默认1024字节) 的大小和需要查询的字段总大小来判断使用哪种排序模式 。
  • 字段的总长度 < max_length_for_sort_data  , 使用单路排序
  • 字段的总长度 >max_length_for_sort_data  , 使用双路排序
select * from employees where name = 'lucy' order by position;"join_execution": {    --sql执行阶段        "select#": 1,        "steps": [          {            "filesort_information": [              {                "direction": "asc",                "table": "`employees`",                "field": "position"              }            ] /* filesort_information */,            "filesort_priority_queue_optimization": {              "usable": false,              "cause": "not applicable (no limit)"            } /* filesort_priority_queue_optimization */,            "filesort_execution": [            ] /* filesort_execution */,            "filesort_summary": {                      --文件排序信息              "rows": 10000,                           --预计扫描行数              "examined_rows": 10000,                  --参与排序的行              "number_of_tmp_files": 3,                --使用临时文件的个数 , 如果为0代表全部使用的sort_buffer内存排序 , 否则使用的磁盘文件排序              "sort_buffer_size": 262056,              --排序缓存的大小 , 单位byte              "sort_mode": "<sort_key, packed_additional_fields>"       --排序方式 , 此处是路排序            } /* filesort_summary */          }        ] /* steps */      } /* join_execution */单路排序会把所有需要查询的字段都放到 sort buffer 中排序 , 而双路排序只会把主键和需要排序的字段放到 sort buffer 中进行排序 , 然后再通过主键回到原表查询需要的字段 。
单路排序过程:
  • a.从索引 name 找到第一个满足 name = 'lucy' 条件的主键 id
  • b.回表根据主键 id 取出整行 , 取出所有字段的值 , 存入 sort_buffer 中
  • c.从索引name找到下一个满足 name = 'lucy' 条件的主键 id
  • d.重复步骤 2、3 直到不满足 name = 'lucy'
  • e.对 sort_buffer 中的数据按照字段 position 进行排序
  • f.返回结果
双路排序过程:
  • a.从索引 name 找到第一个满足 name ='lucy' 的主键 id
  • b.根据主键 id 取出整行 , 把排序字段 position 和主键 id 这两个字段放到 sort buffer 中
  • c.从索引 name 取下一个满足 name = 'lucy' 记录的主键 id
  • d.重复 3、4 直到不满足 name = 'lucy'
  • e.对 sort_buffer 中的字段 position 和主键 id 按照字段 position 进行排序
  • f.遍历排序好的 id 和字段 position , 按照 id 的值回到原表中取出所有字段的值返回

4.2.分页查询优化select * from employees limit 10000,10这条 sql 语句实际查询了 10010 条记录 , 然后丢弃了前面的 10000 条记录 , 所以 , 在 数据量很大时 , 执行效率是非常非常低的 。一般需要对分页查询进行优化 。 优化方法: 1.根据自增且连续的主键排序的分页查询
select * from employees where id > 90000 limit 5;当一个表的主键连续且自增时 , 可以使用该方法进行优化 , 但如果自增不连续会造成数据丢失 。
2.根据非主键字段排序的分页查询
#优化前select * from employees order by name limit 90000,5;#优化后select * from employees e inner join (select id from employees order by name limit 90000,5) ed on e.id = ed.id;先通过排序和分页操作先查出主键 , 然后根据主键查出对应的记录 。 

4.3.join关联查询优化
4.3.1.数据准备#示例表# 创建t1,t2表 , 主键id,单值索引acreate table `t1` (  `id` int(11) not null auto_increment,  `a` int(11) default null,  `b` int(11) default null,  primary key (`id`),  key `idx_a` (`a`)) engine=innodb default charset=utf8;create table t2 like t1;#存储过程往t1,t2表插入数据delimiter $$use `zhebase`$$drop procedure if exists `batch_insert_t1`$$create procedure `batch_insert_t1`(in `start_number` bigint,in `counts` bigint)begin   declare start_number bigint default start_number;    declare stop_number bigint default start_number;    set stop_number=start_number + counts;    while start_number < stop_number do        insert into t1(a,b) values(start_number,start_number);       set start_number=start_number+1;   end while ;   commit; end$$delimiter ;delimiter $$use `zhebase`$$drop procedure if exists `batch_insert_t2`$$create procedure `batch_insert_t2`(in `start_number` bigint,in `counts` bigint)begin   declare start_number bigint default start_number;    declare stop_number bigint default start_number;    set stop_number=start_number + counts;    while start_number < stop_number do        insert into t2(a,b) values(start_number,start_number);       set start_number=start_number+1;   end while ;   commit; end$$delimiter ;#执行存储过程往t1表插入10000条记录,t2表插入100条记录call batch_insert_t1(1,10000);call batch_insert_t2(1,100);
4.3.2.mysql 表关联常见的两种算法
  • 嵌套循环连接 nested-loop join(nlj) 算法
  • 基于块的嵌套循环连接 block nested-loop join(bnl)算法
  • mysql对于被驱动表的关联字段没索引的关联查询 , 一般都会使用 bnl 算法 。如果有索引一般选择 nlj 算法 , 有索引的情况下 nlj 算法比 bnl算法性能更高
1.嵌套循环连接 nested-loop join(nlj) 算法 原理:一次一行循环地从第一张表(驱动表)中读取行 , 在这行数据中取到关联字段 , 根据关联字段在另一张表(被驱动表)里取出满足条件的行 , 然后取出两张表的结果合集 。
explain select * from t1 inner join t2 on t1.a= t2.a;
 从执行计划可以了解的信息:
  • a.驱动表是 t2 , 被驱动表是 t1( inner join 时 sql优化器会小表驱动大表 , 外连接则根据连接类型区分)
  • b.使用了 nlj 算法 。如果执行计划 extra 中未出现 using join buffer 则表示使用的 join 算法是 nlj
整个过程会读取 t2 表的所有数据(扫描100行) , 然后遍历这每行数据中字段 a 的值 , 根据 t2 表中 a 的值索引扫描 t1 表中的对应行(扫描100次 t1 表的索引 , 1次扫描可以认为最终只扫描 t1 表一行完整数据 , 也就是总共 t1 表也扫描了100行) 。因此整个过程扫描了 200 行  。
2. 基于块的嵌套循环连接 block nested-loop join(bnl)算法 原理:把驱动表的数据读入到 join_buffer 中 , 然后扫描被驱动表 , 把被驱动表每一行取出来跟 join_buffer 中的数据做对比
explain select * from t1 inner join t2 on t1.b= t2.b;
 整个过程对表 t1 和 t2 都做了一次全表扫描 , 因此扫描的总行数为10000(表 t1 的数据总量) + 100(表 t2 的数据总量) = 10100 。并且 join_buffer 里的数据是无序的 , 因此对表 t1 中的每一行 , 都要做 100 次判断 , 所以内存中的判断次数是 100 * 10000= 100 万次(非扫描次数)  。 注意: join_buffer 的大小是由参数 join_buffer_size 控制 , 默认256k 。如果 t2 放不下就会使用分段策略(先从 t2 表取出部分数据 , 比对完就清空 join_buffer , 再重新拿出来余下的部分进行比对) 。
被驱动表的关联字段无索引为什么要选择使用 bnl 算法而不使用 nlj 算法?          如第二条 sql , 如果使用 nlj 算法扫描行数为 100 * 10000 = 100万 , 这个是磁盘扫描 。使用 bnl 算法仅需扫描 100100 行 。
对于表关联 sql 的优化
  • 尽量少关联(在阿里规范中 , 关联表不能超过三种 , 可以后端代码单独查询 , 循环关联)
  • 小表驱动大表 , 写多表连接 sql 时如果明确知道哪张表是小表可以用straight_join写法固定连接驱动方式 , 节约 mysql 优化器判断时间.select * from t2 straight_join t1 on t2.a = t1.a; 代表指定mysql选着 t2 表作为驱动表
  • 关联字段加索引 , 大表关联字段一定要加索引 , 尽量使得 mysql 在进行 join 操作时选择nlj算法
  • 多表连接是非常难以优化的 , 最好95%的场景都使用单表来完成 , 复杂场景交个java代码 , 大规模计算交给大数据工具 , 无需效率才考虑连接

4.4.in和exsits优化 原则:小表驱动大表
# in 先执行括号里面的select * from a where id in (select id from b)  #exists 先执行括号外面的#select * 可以用 select 1 替换 , 没有区别#exists 子查询内部会进行优化 , 并非逐条对比#exists 子查询往往也可以用 jion 来代替 , 何种最优需要具体问题具体分析select * from a where exists (select 1 from b where b.id = a.id)
4.5.count(*)查询优化 注意:根据某个字段 count 不会统计字段为 null 的行
#扫描二级索引 , 按行累加explain select count(1) from employees;#扫描辅助索引按行累加(辅助索引比聚簇索引小)explain select count(id) from employees;#把 name 拿到内存 , 不为 null 就累加explain select count(name) from employees;#不取值 , 按行累加explain select count(*) from employees;四条语句的效率几乎可以忽略 , 效率对比如下: 字段有索引: count(* )≈count(1)>count(字段)>count(主键 id) 段)>count(主键 id)  字段无索引: count(*)≈count(1)>count(主键 id)>count(字段)
常见优化方法:
  • 1.对于 myisam 存储引擎的表做不带 where 条件的 count 查询性能是很高的 , 数据总行数直接写在磁盘上 , 查询不需要计算 。innodb 存储引擎的表则不会记录(因为有mvcc机制)
  • 2.对与不用知道确切行的可以直接使用show table status , 它是一个估值 , 使用该查询效率很高
  • 3.将总数维护到 redis 里面 , 插入或删除表数据行的时候同时维护 redis 里的表总行数 key 的计数值(用 incr 或 decr 命令) , 但是这种方式可能不准 , 很难保证表操作和redis 操作的事务一致性 。
  • 4.增加数据库计数表 , 插入或删除表数据行的时候同时维护计数表 , 且它们在同一个事务里操作

5.索引设计原则
  • 1、代码先行 , 索引后上 , 先开发完主体业务代码 , 再把涉及到该表相关sql都要拿出来分析之后再建立索引 。
  • 2、联合索引尽量覆盖条件 , 可以设计一个或者两三个联合索引(单值索引要少建) , 让每一个联合索引都尽量去包含sql语句里的 where、order by、group by 的字段 , 且这些联合索引字段顺序尽量满足 sql查询的最左前缀原则 。
  • 3、不要在小基数字段上建立索引 , 无法进行快速的二分查找 , 不能能发挥出b+树快速二分查找的优势来 , 没有意义
  • 4、尽量对字段类型较小的列设计索引 , 尽量对字段类型较小的列设计索引 , 比如 tinyint 之类 , 字段类型较小的话 , 占用磁盘空间小 , 搜索的时性能更好 。
  • 5、长字符串可以采用前缀索引 , 比如针对某个字段的前20个字符建立索引 , 即:每个值的前20个字符放入索引树中 , 搜索时会先匹配前而是个字符 , 再回表到聚簇索引取出来完整的 name 字段值进行比较 。但排序(order by 和 group by)时无法使用该索引 。
  • 6、where 与 order by 冲突时优先 where , 大多数情况下根据索引进行 where 筛选一般筛选出来的数据比较少 , 然后做排序成本会更低 。
  • 7、基于慢sql查询做优化 , 可以根据监控后台的一些慢sql , 针对这些慢 sql 查询做特定的索引优化(mysql有提供 , 只需设置具体参数) 。
【MySQL索引优化实例分析】到此这篇关于mysql索引优化实例分析的文章就介绍到这了,更多相关mysql索引优化内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!
-- 展开阅读全文 --

    推荐阅读