偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Group By越來越慢,如何優(yōu)化性能?

數(shù)據(jù)庫 其他數(shù)據(jù)庫
Group By性能優(yōu)化是一個需要綜合考慮數(shù)據(jù)庫設(shè)計、查詢編寫和系統(tǒng)架構(gòu)的系統(tǒng)工程。每個業(yè)務場景都有其特殊性,需要根據(jù)實際情況選擇合適的優(yōu)化方案。

前言

有些小伙伴在工作中可能遇到過這樣的場景:原本運行良好的Group By查詢,隨著數(shù)據(jù)量的增長,執(zhí)行時間從幾秒變成了幾分鐘甚至幾小時。

頁面加載緩慢,用戶抱怨連連,DBA著急上火。

這種性能下降往往是在不知不覺中發(fā)生的,背后一定有著深層次的原因。

今天這篇文章跟大家一起聊聊group by變慢后,如何定位和優(yōu)化,希望對你會有所幫助。

一、為什么Group By會變慢?

在深入解決方案之前,我們需要先理解Group By操作的本質(zhì)。

Group By的執(zhí)行過程通常包含以下幾個步驟:

圖片圖片

從流程圖可以看出,Group By性能問題主要出現(xiàn)在兩個環(huán)節(jié):數(shù)據(jù)讀取分組操作。

數(shù)據(jù)讀取階段可能因為沒有索引而全表掃描,分組操作階段可能因為數(shù)據(jù)量過大而使用磁盤臨時表。

這兩個問題都會導致group by性能變慢。

二、如何定位Group By性能問題?

1. 使用EXPLAIN分析執(zhí)行計劃

MySQL的EXPLAIN命令是我們分析查詢性能的首選工具:

EXPLAIN 
SELECT department, COUNT(*) as emp_count 
FROM employees 
WHERE hire_date > '2020-01-01' 
GROUP BY department;

執(zhí)行結(jié)果可能包含以下關(guān)鍵信息:

列名

說明

可能的值和含義

type

訪問類型

index(索引掃描), ALL(全表掃描)

key

使用的索引

實際使用的索引名稱

rows

預估掃描行數(shù)

數(shù)值越小越好

Extra

額外信息

Using temporary(使用臨時表), Using filesort(使用文件排序)

2. 性能監(jiān)控工具

除了EXPLAIN,我們還可以使用MySQL的性能監(jiān)控工具:

-- 開啟性能分析
SET PROFILING = 1;

-- 執(zhí)行查詢
SELECT department, COUNT(*) as emp_count 
FROM employees 
GROUPBY department;

-- 查看性能詳情
SHOW PROFILE FORQUERY1;

-- 查看所有查詢的性能信息
SHOWPROFILES;

三、常見原因及解決方案

1. 缺少合適的索引

問題分析: 有些小伙伴在設(shè)計表結(jié)構(gòu)時,可能沒有為Group By字段和Where條件字段創(chuàng)建合適的索引,導致MySQL不得不進行全表掃描。

解決方案: 為Group By字段和Where條件字段創(chuàng)建復合索引:

-- 創(chuàng)建適合Group By的索引
CREATE INDEX idx_department_hire_date ON employees(department, hire_date);

-- 或者創(chuàng)建覆蓋索引,避免回表操作
CREATE INDEX idx_department_hire_date_covering ON employees(department, hire_date, salary);

索引設(shè)計原則

  • 將Where條件中的字段放在索引左側(cè)
  • 然后是Group By字段
  • 最后是Select中需要返回的字段(覆蓋索引)

2. 使用臨時表和文件排序

問題分析: 當Group By的數(shù)據(jù)量較大時,MySQL可能需要使用臨時表來存儲中間結(jié)果,如果臨時表太大而內(nèi)存放不下,就會使用磁盤臨時表,性能急劇下降。

圖片圖片

解決方案

方法一:調(diào)整臨時表大小

-- 查看當前臨時表設(shè)置
SHOW VARIABLES LIKE 'tmp_table_size';
SHOW VARIABLES LIKE 'max_heap_table_size';

-- 增大臨時表內(nèi)存大小(需重啟)
SET GLOBAL tmp_table_size = 256 * 1024 * 1024;  -- 256MB
SET GLOBAL max_heap_table_size = 256 * 1024 * 1024;  -- 256MB

方法二:優(yōu)化查詢語句

-- 優(yōu)化前:查詢所有字段
SELECT *, COUNT(*) 
FROM employees 
GROUPBY department;

-- 優(yōu)化后:只查詢需要的字段
SELECT department, COUNT(*) 
FROM employees 
GROUPBY department;

-- 進一步優(yōu)化:添加限制條件減少處理數(shù)據(jù)量
SELECT department, COUNT(*) 
FROM employees 
WHERE hire_date > '2023-01-01'
GROUPBY department;

3. 數(shù)據(jù)量過大問題

問題分析: 當單表數(shù)據(jù)量達到千萬級甚至億級時,即使有索引,Group By操作也可能很慢。

解決方案

方法一:分階段聚合

// Java代碼示例:分階段聚合大量數(shù)據(jù)
public Map<String, Integer> batchGroupBy(String tableName, 
                                       String groupColumn, 
                                       String condition, 
                                       int batchSize) throws SQLException {
    
    Map<String, Integer> resultMap = new HashMap<>();
    int offset = 0;
    boolean hasMore = true;
    
    try (Connection conn = dataSource.getConnection()) {
        while (hasMore) {
            String sql = String.format(
                "SELECT %s, COUNT(*) as cnt FROM %s WHERE %s GROUP BY %s LIMIT %d OFFSET %d",
                groupColumn, tableName, condition, groupColumn, batchSize, offset);
            
            try (Statement stmt = conn.createStatement();
                 ResultSet rs = stmt.executeQuery(sql)) {
                
                int rowCount = 0;
                while (rs.next()) {
                    String key = rs.getString(groupColumn);
                    int count = rs.getInt("cnt");
                    resultMap.merge(key, count, Integer::sum);
                    rowCount++;
                }
                
                if (rowCount < batchSize) {
                    hasMore = false;
                } else {
                    offset += batchSize;
                }
            }
        }
    }
    
    return resultMap;
}

方法二:使用異步處理和緩存

// 異步Group By處理示例
@Service
publicclass AsyncGroupByService {
    
    @Autowired
    private JdbcTemplate jdbcTemplate;
    
    @Autowired
    private CacheManager cacheManager;
    
    @Async("taskExecutor")
    public CompletableFuture<Map<String, Integer>> executeGroupByAsync(String sql, String cacheKey) {
        // 檢查緩存
        Cache cache = cacheManager.getCache("groupByResults");
        Cache.ValueWrapper cachedResult = cache.get(cacheKey);
        
        if (cachedResult != null) {
            return CompletableFuture.completedFuture((Map<String, Integer>) cachedResult.get());
        }
        
        // 執(zhí)行查詢
        Map<String, Integer> result = jdbcTemplate.query(sql, rs -> {
            Map<String, Integer> map = new HashMap<>();
            while (rs.next()) {
                map.put(rs.getString(1), rs.getInt(2));
            }
            return map;
        });
        
        // 設(shè)置緩存
        cache.put(cacheKey, result);
        
        return CompletableFuture.completedFuture(result);
    }
}

4. 復雜Group By優(yōu)化

問題分析: 有些小伙伴可能會寫出包含多個字段、復雜條件甚至包含子查詢的Group By語句,這些語句往往性能較差。

解決方案

方法一:使用派生表優(yōu)化

-- 優(yōu)化前:復雜Group By
SELECT department, 
       AVG(salary) as avg_salary,
       COUNT(*) as emp_count
FROM employees
WHERE hire_date > '2020-01-01'
GROUPBY department
HAVING avg_salary > 5000;

-- 優(yōu)化后:使用派生表
SELECT t.department, t.avg_salary, t.emp_count
FROM (
    SELECT department, 
           AVG(salary) as avg_salary,
           COUNT(*) as emp_count
    FROM employees
    WHERE hire_date > '2020-01-01'
    GROUPBY department
) t
WHERE t.avg_salary > 5000;

方法二:使用WITH ROLLUP進行多維度分組

-- 多層次分組統(tǒng)計
SELECT department, job_title, COUNT(*) as emp_count
FROM employees
GROUP BY department, job_title WITH ROLLUP;

-- 等價于以下三個查詢的聯(lián)合
-- 1. GROUP BY department, job_title
-- 2. GROUP BY department
-- 3. 總計

5. 分布式環(huán)境下的Group By優(yōu)化

問題分析: 在分庫分表環(huán)境下,Group By操作變得更加復雜,需要在多個節(jié)點上執(zhí)行并合并結(jié)果。

解決方案

方法一:使用中間件實現(xiàn)跨庫Group By

// 分庫分表Group By處理示例
publicclass ShardingGroupByExecutor {
    
    public Map<String, Integer> executeAcrossShards(String logicSql, List<DataSource> shards) {
        // 并發(fā)執(zhí)行所有分片
        List<CompletableFuture<Map<String, Integer>>> futures = shards.stream()
            .map(shard -> CompletableFuture.supplyAsync(() -> executeOnShard(logicSql, shard)))
            .collect(Collectors.toList());
        
        // 合并所有結(jié)果
        return futures.stream()
            .map(CompletableFuture::join)
            .flatMap(map -> map.entrySet().stream())
            .collect(Collectors.toMap(
                Map.Entry::getKey,
                Map.Entry::getValue,
                Integer::sum
            ));
    }
    
    private Map<String, Integer> executeOnShard(String sql, DataSource dataSource) {
        try (Connection conn = dataSource.getConnection();
             Statement stmt = conn.createStatement();
             ResultSet rs = stmt.executeQuery(sql)) {
            
            Map<String, Integer> result = new HashMap<>();
            while (rs.next()) {
                result.put(rs.getString(1), rs.getInt(2));
            }
            return result;
            
        } catch (SQLException e) {
            thrownew RuntimeException("分片查詢失敗", e);
        }
    }
}

方法二:使用Elasticsearch等搜索引擎

對于復雜的聚合查詢,可以考慮將數(shù)據(jù)同步到Elasticsearch中,利用其強大的聚合能力:

// Elasticsearch聚合查詢示例
SearchRequest searchRequest = new SearchRequest("employees");
SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();

// 構(gòu)建聚合
TermsAggregationBuilder aggregation = AggregationBuilders.terms("by_department")
    .field("department.keyword")
    .subAggregation(AggregationBuilders.avg("avg_salary").field("salary"));

sourceBuilder.aggregation(aggregation);
searchRequest.source(sourceBuilder);

// 執(zhí)行查詢
SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT);

// 處理結(jié)果
Terms terms = response.getAggregations().get("by_department");
for (Terms.Bucket bucket : terms.getBuckets()) {
    String department = bucket.getKeyAsString();
    long count = bucket.getDocCount();
    Avg avgSalary = bucket.getAggregations().get("avg_salary");
    System.out.println(department + ": " + count + ", 平均薪資: " + avgSalary.getValue());
}

四、實戰(zhàn)案例

有些小伙伴在電商系統(tǒng)中可能會遇到訂單統(tǒng)計的Group By性能問題,下面是一個真實案例:

原始查詢

SELECT DATE(create_time) as order_date, 
       product_category, 
       COUNT(*) as order_count,
       SUM(amount) as total_amount
FROM orders
WHERE create_time >= '2023-01-01' 
  AND status = 'COMPLETED'
GROUP BY DATE(create_time), product_category;

優(yōu)化方案

  1. 創(chuàng)建合適索引
CREATE INDEX idx_orders_stats ON orders(create_time, status, product_category, amount);
  1. 使用預聚合
-- 創(chuàng)建預聚合表
CREATETABLE orders_daily_stats (
    stat_date DATENOTNULL,
    product_category VARCHAR(50) NOTNULL,
    order_count INTNOTNULL,
    total_amount DECIMAL(15,2) NOTNULL,
    PRIMARY KEY (stat_date, product_category)
);

-- 使用定時任務每天凌晨更新統(tǒng)計
INSERTINTO orders_daily_stats
SELECTDATE(create_time), product_category, COUNT(*), SUM(amount)
FROM orders
WHERE create_time >= CURDATE() - INTERVAL1DAY
ANDstatus = 'COMPLETED'
GROUPBYDATE(create_time), product_category
ONDUPLICATEKEYUPDATE
    order_count = VALUES(order_count),
    total_amount = VALUES(total_amount);
  1. 查詢優(yōu)化后的結(jié)果
-- 現(xiàn)在查詢預聚合表,性能極大提升
SELECT stat_date, product_category, order_count, total_amount
FROM orders_daily_stats
WHERE stat_date >= '2023-01-01';

總結(jié)

通過以上分析和解決方案,我們可以總結(jié)出Group By性能優(yōu)化的關(guān)鍵點:

  1. 索引優(yōu)化:為Group By字段和Where條件創(chuàng)建合適的復合索引
  2. 查詢簡化:避免SELECT *,只獲取需要的字段
  3. 臨時表優(yōu)化:調(diào)整tmp_table_size,避免磁盤臨時表
  4. 數(shù)據(jù)分片:對于大數(shù)據(jù)集,采用分批次處理策略
  5. 預聚合:對于常用統(tǒng)計,使用預聚合表提前計算
  6. 架構(gòu)升級:考慮使用讀寫分離、分布式數(shù)據(jù)庫或搜索引擎

不同場景下的優(yōu)化策略選擇

場景

推薦策略

優(yōu)點

缺點

中小數(shù)據(jù)量

索引優(yōu)化+查詢優(yōu)化

簡單有效

需要設(shè)計合適的索引

大數(shù)據(jù)量

預聚合+分批次處理

性能提升明顯

需要額外存儲空間

高并發(fā)查詢

緩存+異步處理

降低數(shù)據(jù)庫壓力

數(shù)據(jù)可能不是實時

復雜聚合

使用Elasticsearch

聚合能力強

需要數(shù)據(jù)同步

Group By性能優(yōu)化是一個需要綜合考慮數(shù)據(jù)庫設(shè)計、查詢編寫和系統(tǒng)架構(gòu)的系統(tǒng)工程。

每個業(yè)務場景都有其特殊性,需要根據(jù)實際情況選擇合適的優(yōu)化方案。

責任編輯:武曉燕 來源: 蘇三說技術(shù)
相關(guān)推薦

2021-04-01 14:27:14

寬帶路由器WiFi

2019-08-02 08:00:21

網(wǎng)絡4G技術(shù)

2019-08-21 08:57:25

MySQL數(shù)據(jù)庫服務器

2012-05-04 11:13:57

社交應用

2020-05-13 08:53:44

5G4G網(wǎng)絡

2011-03-29 16:30:18

2017-12-26 15:34:55

2021-04-15 13:48:08

視頻監(jiān)控視頻分析智能安防

2009-04-16 17:44:46

性能優(yōu)化擴展高性能

2009-04-16 17:24:54

性能優(yōu)化SQL Server 數(shù)據(jù)收集

2019-07-02 05:36:16

WiFi網(wǎng)速寬帶

2010-05-20 18:40:33

IIS服務器

2009-01-20 14:19:25

Rails 2.3RubyMerb-Rails

2017-09-26 09:12:26

公共云存儲服務

2011-01-14 09:53:21

傲游3

2023-03-10 13:29:00

MySQLCount函數(shù)

2019-12-26 09:42:54

互聯(lián)網(wǎng)免費收費

2025-09-01 00:00:00

2021-03-22 16:02:47

程序員大數(shù)據(jù)軟件

2020-05-13 10:19:43

4G網(wǎng)絡5G
點贊
收藏

51CTO技術(shù)棧公眾號