偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

優(yōu)化實(shí)錄!如何將 MySQL 查詢時(shí)間從 190 秒縮減到 1 秒,輕松應(yīng)對(duì)千萬(wàn)數(shù)據(jù)

開發(fā) 前端
當(dāng)表的大小過(guò)大時(shí),除了關(guān)注訪問(wèn)此表的響應(yīng)時(shí)間外,還應(yīng)考慮表的維護(hù)成本(例如 DDL 操作所需的時(shí)間和刪除歷史數(shù)據(jù)的時(shí)間)。

最近,我在工作中遇到一個(gè)數(shù)據(jù)庫(kù)配置問(wèn)題,涉及一個(gè)主從結(jié)構(gòu)的數(shù)據(jù)庫(kù)實(shí)例。具體來(lái)說(shuō),該數(shù)據(jù)庫(kù)每天凌晨會(huì)觸發(fā)SLA(服務(wù)級(jí)別協(xié)議)警報(bào)。這個(gè)警報(bào)表明主從同步延遲顯著。這意味著如果在這個(gè)時(shí)間點(diǎn)嘗試從主庫(kù)切換到從庫(kù),切換的完成時(shí)間會(huì)非常長(zhǎng)。系統(tǒng)需要額外的時(shí)間來(lái)趕上并同步延遲的數(shù)據(jù),以確保主庫(kù)和從庫(kù)之間的數(shù)據(jù)一致性。進(jìn)一步分析顯示,這個(gè)問(wèn)題的一個(gè)主要驅(qū)動(dòng)因素是該數(shù)據(jù)庫(kù)實(shí)例中存在大量慢查詢。

這些慢查詢定義為執(zhí)行時(shí)間超過(guò)1秒的SQL查詢。

我們發(fā)現(xiàn),應(yīng)用程序每晚執(zhí)行的一個(gè)特定任務(wù)——?jiǎng)h除一個(gè)月前的舊數(shù)據(jù)——是這些慢查詢的主要來(lái)源。

分析

利用pt-query-digest工具分析最近一周的mysql-slow.log。

pt-query-digest --since=148h mysql-slow.log | less

結(jié)果第二部分

圖片圖片

在過(guò)去一周,總共記錄的慢查詢執(zhí)行時(shí)間為25403秒,最長(zhǎng)的慢SQL執(zhí)行時(shí)間為266秒,平均每個(gè)慢SQL的執(zhí)行時(shí)間為5秒,平均掃描的行數(shù)為1766萬(wàn)。

結(jié)果第二部分

圖片圖片

選擇arrival_record操作的慢查詢次數(shù)超過(guò)4萬(wàn)次,平均響應(yīng)時(shí)間為4秒。刪除arrival_record的記錄6次,平均響應(yīng)時(shí)間為258秒。

select xxx_record語(yǔ)句

選擇arrival_record的慢查詢語(yǔ)句類似于以下,where子句中的參數(shù)字段相同,但參數(shù)值不同: *select count(*) from arrival_record where product_id=26 and receive_time between '2019-03-25 14:00:00' and '2019-03-25 15:00:00' and receive_spend_ms>=0\G*

圖片圖片

選擇arrival_record的語(yǔ)句最多掃描了5600萬(wàn)行,MySQL中的平均掃描行數(shù)為172萬(wàn),推斷出掃描行數(shù)過(guò)多導(dǎo)致執(zhí)行時(shí)間長(zhǎng)。

查看執(zhí)行計(jì)劃

explain select count(*) from arrival_record where product_id=26 and receive_time between '2019-03-25 14:00:00' and '2019-03-25 15:00:00' and receive_spend_ms>=0\G;
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: arrival_record
partitions: NULL
type: ref
possible_keys: IXFK_arrival_record
key: IXFK_arrival_record
key_len: 8
ref: const
rows: 32261320
filtered: 3.70
Extra: Using index condition; Using where
1 row in set, 1 warning (0.00 sec)

使用了索引IXFK_arrival_record,但估算掃描的行數(shù)非常大,超過(guò)3000萬(wàn)行。

show index from arrival_record;
+----------------+------------+---------------------+--------------+--------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
| Table | Non_unique | Key_name | Seq_in_index | Column_name | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment | Index_comment |
+----------------+------------+---------------------+--------------+--------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
| arrival_record | 0 | PRIMARY | 1 | id | A | 107990720 | NULL | NULL | | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 1 | product_id | A | 1344 | NULL | NULL | | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 2 | station_no | A | 22161 | NULL | NULL | YES | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 3 | sequence | A | 77233384 | NULL | NULL | | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 4 | receive_time | A | 65854652 | NULL | NULL | YES | BTREE | | |
| arrival_record | 1 | IXFK_arrival_record | 5 | arrival_time | A | 73861904 | NULL | NULL | YES | BTREE | | |
+----------------+------------+---------------------+--------------+--------------+-----------+-------------+----------+--------+------+------------+---------+---------------+
show create table arrival_record;
..........
arrival_spend_ms bigint(20) DEFAULT NULL,
total_spend_ms bigint(20) DEFAULT NULL,
PRIMARY KEY (id),
KEY IXFK_arrival_record (product_id,station_no,sequence,receive_time,arrival_time) USING BTREE,
CONSTRAINT FK_arrival_record_product FOREIGN KEY (product_id) REFERENCES product (id) ON DELETE NO ACTION ON UPDATE NO ACTION
) ENGINE=InnoDB AUTO_INCREMENT=614538979 DEFAULT CHARSET=utf8 COLLATE=utf8_bin |
  • 表中包含超過(guò)1億條記錄,只有一個(gè)復(fù)合索引。product_id字段的基數(shù)非常低,選擇性差,不適合查詢。
  • 提供的過(guò)濾條件where product_id=26 and receive_time between '2019-03-25 14:00:00' and '2019-03-25 15:00:00' and receive_spend_ms>=0中并未包含station_no字段,因此未能利用復(fù)合索引IXFK_arrival_record的字段product_id、station_no、sequence和receive_time。
  • 根據(jù)左前綴原則,選擇arrival_record只使用復(fù)合索引IXFK_arrival_record的第一個(gè)字段product_id,其選擇性差,導(dǎo)致掃描的行數(shù)較多,執(zhí)行時(shí)間較長(zhǎng)。
  • receive_time字段具有較高的基數(shù)和良好的選擇性,單獨(dú)為該字段創(chuàng)建索引是有益的。然后,選擇arrival_record的SQL將會(huì)利用這個(gè)索引。

現(xiàn)在我們知道arrival_record的慢查詢?nèi)罩局械膚here語(yǔ)句包含了字段product_id、receive_time、receive_spend_ms的參數(shù),我們想知道是否還有其他字段用于過(guò)濾訪問(wèn)這個(gè)表?

強(qiáng)大工具tcpdump的登場(chǎng)時(shí)間

使用tcpdump捕獲一段時(shí)間內(nèi)針對(duì)該表的select語(yǔ)句的數(shù)據(jù)包。

tcpdump -i bond0 -s 0 -l -w - dst port 3316 | strings | grep select | egrep -i 'arrival_record' >/tmp/select_arri.log

捕獲 select 語(yǔ)句中 from 后的條件語(yǔ)句。

IFS_OLD=$IFS
IFS=$'\n'
for i in `cat /tmp/select_arri.log`; do echo ${i#*'from'}; done | less
IFS=$IFS_OLD
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=17 and arrivalrec0_.station_no='56742'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=22 and arrivalrec0_.station_no='S7100'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4631'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=22 and arrivalrec0_.station_no='S9466'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4205'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4105'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4506'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=24 and arrivalrec0_.station_no='V4617'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=22 and arrivalrec0_.station_no='S8356'
arrival_record arrivalrec0_ where arrivalrec0_.sequence='2019-03-27 08:40' and arrivalrec0_.product_id=22 and arrivalrec0_.station_no='S8356'

表的 where 條件包含 product_id、station_no 和 sequence 字段,可以利用復(fù)合索引 IXFK_arrival_record 的前三個(gè)字段。

總結(jié)來(lái)說(shuō),優(yōu)化方法是刪除復(fù)合索引 IXFK_arrival_record,創(chuàng)建一個(gè)新的復(fù)合索引 idx_sequence_station_no_product_id,并建立單獨(dú)的索引 indx_receive_time。

刪除 xxx_record 語(yǔ)句

刪除操作的平均掃描量為 1.1 億行,平均執(zhí)行時(shí)間為 262 秒。

下面是刪除語(yǔ)句,每個(gè)慢查詢記錄不同的參數(shù)值:

delete from arrival_record where receive_time < STR_TO_DATE('2019-02-23', '%Y-%m-%d')\G

執(zhí)行計(jì)劃:

explain select * from arrival_record where receive_time < STR_TO_DATE('2019-02-23', '%Y-%m-%d')\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: arrival_record
partitions: NULL
type: ALL
possible_keys: NULL
key: NULL
key_len: NULL
ref: NULL
rows: 109,501,508
filtered: 33.33
Extra: Using where
1 row in set, 1 warning (0.00 sec)

該刪除語(yǔ)句未使用索引(沒(méi)有合適的索引可用),導(dǎo)致全表掃描和較長(zhǎng)的執(zhí)行時(shí)間。

優(yōu)化方法也是創(chuàng)建一個(gè)單獨(dú)的索引 indx_receive_time(receive_time)。

測(cè)試

將 arrival_record 表復(fù)制到測(cè)試實(shí)例,以在 XX 實(shí)例的 arrival_record 表 上執(zhí)行刪除和重建索引操作。

du -sh /datas/mysql/data/3316/cq_new_cimiss/arrival_record*
12K /datas/mysql/data/3316/cq_new_cimiss/arrival_record.frm
48G /datas/mysql/data/3316/cq_new_cimiss/arrival_record.ibd
select count() from cq_new_cimiss.arrival_record;
+-----------+
| count()   |
+-----------+
| 112294946 |
+-----------+
超過(guò) 1 億條記錄。

SELECT
table_name,
CONCAT(FORMAT(SUM(data_length) / 1024 / 1024,2),'M') AS dbdata_size,
CONCAT(FORMAT(SUM(index_length) / 1024 / 1024,2),'M') AS dbindex_size,
CONCAT(FORMAT(SUM(data_length + index_length) / 1024 / 1024 / 1024,2),'G') AS table_size(G),
AVG_ROW_LENGTH,table_rows,update_time
FROM
information_schema.tables
WHERE table_schema = 'cq_new_cimiss' and table_name='arrival_record';
+----------------+-------------+--------------+------------+----------------+------------+---------------------+
| table_name     | dbdata_size | dbindex_size | table_size(G) | AVG_ROW_LENGTH | table_rows | update_time        |
+----------------+-------------+--------------+------------+----------------+------------+---------------------+
| arrival_record | 18,268.02M  | 13,868.05M   | 31.38G       | 175            | 109155053  | 2019-03-26 12:40:17 |
+----------------+-------------+--------------+------------+----------------+------------+---------------------+

磁盤空間使用為 48G,MySQL 中的表大小為 31G,顯示出大約 17G 的碎片,主要是由于刪除造成的(刪除記錄后未回收空間)。

備份并恢復(fù)表到新實(shí)例,刪除原復(fù)合索引,并添加新索引進(jìn)行測(cè)試。

mydumper 并行壓縮備份

user=root
passwd=xxxx
socket=/datas/mysql/data/3316/mysqld.sock
db=cq_new_cimiss
table_name=arrival_record
backupdir=/datas/dump_$table_name
mkdir -p $backupdir
nohup echo `date +%T` && mydumper -u $user -p $passwd -S $socket -B $db -c -T $table_name -o $backupdir -t 32 -r 2000000 && echo `date +%T` &

并行壓縮備份耗時(shí)(52秒)和使用空間(1.2G,實(shí)際表占用 48G 磁盤空間,顯示出 mydumper 的高壓縮比?。?。

開始備份于:2019-03-26 12:46:04
........

備份完成于:2019-03-26 12:46:56

du -sh /datas/dump_arrival_record/
1.2G  /datas/dump_arrival_record/

將備份數(shù)據(jù)復(fù)制到測(cè)試節(jié)點(diǎn):

scp -rp /datas/dump_arrival_record root@10.230.124.19:/datas

多線程數(shù)據(jù)導(dǎo)入:

time myloader -u root -S /datas/mysql/data/3308/mysqld.sock -P 3308 -p root -B test -d /datas/dump_arrival_record -t 32

真實(shí)耗時(shí) 126m42.885s 用戶 1m4.543s 系統(tǒng) 0m4.267s

邏輯導(dǎo)入表后的磁盤空間使用:

du -h -d 1 /datas/mysql/data/3308/test/arrival_record.*
12K /datas/mysql/data/3308/test/arrival_record.frm
30G /datas/mysql/data/3308/test/arrival_record.ibd
無(wú)碎片,與 MySQL 中的表大小相匹配。
cp -rp /datas/mysql/data/3308 /datas

使用在線 DDL 和 pt-osc 工具進(jìn)行索引刪除和重建。首先,刪除外鍵;如果不這樣做,復(fù)合索引無(wú)法被刪除,因?yàn)橥怄I列是復(fù)合索引中第一列的一部分。

nohup bash /tmp/ddl_index.sh &
2019-04-04-10:41:39 開始停止 mysqld_3308
2019-04-04-10:41:41 開始 rm -rf datadir 并復(fù)制 datadir_bak
2019-04-04-10:46:53 啟動(dòng) mysqld_3308
2019-04-04-10:46:59 在線 DDL 開始
2019-04-04-11:20:01 索引刪除成功

索引刪除完成后,添加新索引。

2019-04-04-11:20:02 索引添加開始
2019-04-04-11:40:30 索引添加成功

生成的 EXPLAIN:

+----+-------------+-------------------+-------+---------------+---------+---------+------------------+------+-------------+
| id | select_type | table             | type  | possible_keys | key     | key_len | ref              | rows | Extra       |
+----+-------------+-------------------+-------+---------------+---------+---------+------------------+------+-------------+
|  1 | SIMPLE      | arrival_record    | range | indx_receive_time | indx_receive_time | 8       | NULL            | 3522 | Using where |
+----+-------------+-------------------+-------+---------------+---------+---------+------------------+------+-------------+

該查詢可以使用索引進(jìn)行加速,最終性能提升十倍。

使用建議:

實(shí)施

由于這是一個(gè)主從實(shí)例,應(yīng)用程序連接到 VIP。刪除和重建索引使用在線 DDL 進(jìn)行。在停止主從復(fù)制后,首先在從實(shí)例上執(zhí)行(不記錄 binlog),然后進(jìn)行主從切換,接著在新切換的從實(shí)例上執(zhí)行(不記錄 binlog)。

function red_echo () {
    local what="$*"
    echo -e "$(date +%F-%T)  ${what}"
}

function check_las_comm(){
    if [ "$1" != "0" ];then
        red_echo "$2"
        echo "exit 1"
        exit 1
    fi
}

red_echo "stop slave"
mysql -uroot -p$passwd --socket=/datas/mysql/data/${port}/mysqld.sock -e"stop slave"
check_las_comm "$?" "stop slave failed"

red_echo "online ddl begin"
mysql -uroot -p$passwd --socket=/datas/mysql/data/${port}/mysqld.sock -e"set sql_log_bin=0;select now() as ddl_start;ALTER TABLE $db_.\`${table_name}\` DROP FOREIGN KEY FK_arrival_record_product,drop index IXFK_arrival_record,add index idx_product_id_sequence_station_no(product_id,sequence,station_no),add index idx_receive_time(receive_time);select now() as ddl_stop" >>${log_file} 2>&1
red_echo "online ddl stop"
red_echo "add foreign key"
mysql -uroot -p$passwd --socket=/datas/mysql/data/${port}/mysqld.sock -e"set sql_log_bin=0;ALTER TABLE $db_.${table_name} ADD CONSTRAINT _FK_${table_name}_product FOREIGN KEY (product_id) REFERENCES cq_new_cimiss.product (id) ON DELETE NO ACTION ON UPDATE NO ACTION;" >>${log_file} 2>&1
check_las_comm "$?" "add foreign key error"
red_echo "add foreign key stop"

red_echo "start slave"
mysql -uroot -p$passwd --socket=/datas/mysql/data/${port}/mysqld.sock -e"start slave"
check_las_comm "$?" "start slave failed"

執(zhí)行時(shí)間

2019–04–08–11:17:36 停止從服務(wù)器 mysql: [警告] 在命令行界面使用密碼可能不安全。 ddl_start 2019–04–08 11:17:36 ddl_stop 2019–04–08 11:45:13 2019–04–08–11:45:13 online ddl stop 2019–04–08 –11:45:13 添加外鍵。

mysql: [警告] 在命令行界面使用密碼可能不安全。 2019–04–08–12:33:48 添加外鍵停止 2019–04–08 –12:33:48 啟動(dòng)從服務(wù)器。

重新檢查刪除和選擇語(yǔ)句的執(zhí)行計(jì)劃。

explain select count(*) from arrival_record where receive_time < STR_TO_DATE('2019-03-10', '%Y-%m-%d')\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: arrival_record
partitions: NULL
type: range
possible_keys: idx_receive_time
key: idx_receive_time
key_len: 6
ref: NULL
rows: 7540948
filtered: 100.00
Extra: Using where; Using index
explain select count(*) from arrival_record where product_id=26 and receive_time between '2019-03-25 14:00:00' and '2019-03-25 15:00:00' and receive_spend_ms>=0\G;
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: arrival_record
partitions: NULL
type: range
possible_keys: idx_product_id_sequence_station_no,idx_receive_time
key: idx_receive_time
key_len: 6
ref: NULL
rows: 291448
filtered: 16.66
Extra: Using index condition; Using where

所有查詢都使用了 idx_receive_time 索引,大大減少了掃描的行數(shù)。

索引優(yōu)化后

刪除操作仍然花費(fèi)了 77 秒。

delete from arrival_record where receive_time < STR_TO_DATE('2019-03-10', '%Y-%m-%d')\G

該刪除語(yǔ)句利用 receive_time 索引刪除了超過(guò) 300 萬(wàn)條記錄,耗時(shí) 77 秒。

大表刪除小批量?jī)?yōu)化

應(yīng)用程序已優(yōu)化為每 10 分鐘刪除一次數(shù)據(jù)(每次執(zhí)行時(shí)間約 1 秒),在 xxx 中沒(méi)有出現(xiàn) SLA(主從延遲警報(bào))事件。

另一種方法是按主鍵順序一次刪除 20,000 條記錄。

# 獲取符合時(shí)間條件的最大主鍵 ID
# 按主鍵順序逐步掃描小批量刪除數(shù)據(jù)
# 首先執(zhí)行以下語(yǔ)句
SELECT MAX(id) INTO @need_delete_max_id FROM `arrival_record` WHERE receive_time<'2019-03-01';
DELETE FROM arrival_record WHERE id<@need_delete_max_id LIMIT 20000;
select ROW_COUNT();  # 返回 20000

# 在執(zhí)行小批量刪除后,返回 row_count(),表示刪除的行數(shù)
# 程序檢查返回的 row_count() 是否為 0,如果不是,則執(zhí)行以下循環(huán);如果為 0,則退出循環(huán),刪除完成
DELETE FROM arrival_record WHERE id<@need_delete_max_id LIMIT 20000;
select ROW_COUNT();
# 程序休眠 0.5 秒

總結(jié)

  • 當(dāng)表的大小過(guò)大時(shí),除了關(guān)注訪問(wèn)此表的響應(yīng)時(shí)間外,還應(yīng)考慮表的維護(hù)成本(例如 DDL 操作所需的時(shí)間和刪除歷史數(shù)據(jù)的時(shí)間)。
  • 在對(duì)大表進(jìn)行 DDL 操作時(shí),應(yīng)考慮表的實(shí)際情況(例如表的并發(fā)性、是否有外鍵)以選擇合適的 DDL 變更方法。
  • 對(duì)于從表中刪除大量數(shù)據(jù),應(yīng)采用小批量刪除的方法,以減少主實(shí)例的壓力和主從延遲。
責(zé)任編輯:武曉燕 來(lái)源: 路條編程
相關(guān)推薦

2019-11-12 13:30:07

開源技術(shù) 軟件

2024-10-31 10:41:01

2023-05-29 12:35:09

模型ChatGPT

2022-09-26 09:41:25

MySQL數(shù)據(jù)庫(kù)

2013-03-26 10:10:38

服務(wù)器RubyGo

2019-08-21 14:35:18

壓縮文件優(yōu)化過(guò)程Java

2025-06-27 09:05:47

2020-11-12 18:51:43

Java編程語(yǔ)言

2024-04-10 08:00:00

PostgresNoSQL

2022-11-03 10:28:43

Docker

2021-04-07 13:43:07

PythonDash數(shù)據(jù)庫(kù)

2025-06-25 09:30:14

2010-08-31 09:03:07

IT技術(shù)周刊

2025-06-04 02:20:00

SQL優(yōu)化儀表盤

2012-06-20 11:17:02

MemSQL

2012-04-28 14:07:41

AMD數(shù)據(jù)中心

2021-08-26 22:26:55

性能優(yōu)化技術(shù)

2024-11-08 09:34:54

2025-03-27 00:14:10

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)