偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Flink實時計算topN熱榜

開發(fā) 架構
為了統計每個窗口下活躍的用戶,我們需要再次按窗口進行分組,這里根據UserViewCount中的windowEnd進行keyBy()操作。

[[386499]]

本文轉載自微信公眾號「Java大數據與數據倉庫」,作者柯廣。轉載本文請聯系Java大數據與數據倉庫公眾號。

topN的常見應用場景,最熱商品購買量,最高人氣作者的閱讀量等等。

1. 用到的知識點

  • Flink創(chuàng)建kafka數據源;
  • 基于 EventTime 處理,如何指定 Watermark;
  • Flink中的Window,滾動(tumbling)窗口與滑動(sliding)窗口;
  • State狀態(tài)的使用;
  • ProcessFunction 實現 TopN 功能;

2. 案例介紹

通過用戶訪問日志,計算最近一段時間平臺最活躍的幾位用戶topN。

  • 創(chuàng)建kafka生產者,發(fā)送測試數據到kafka;
  • 消費kafka數據,使用滑動(sliding)窗口,每隔一段時間更新一次排名;

3. 數據源

這里使用kafka api發(fā)送測試數據到kafka,代碼如下:

  1. @Data 
  2. @NoArgsConstructor 
  3. @AllArgsConstructor 
  4. @ToString 
  5. public class User { 
  6.  
  7.     private long id; 
  8.     private String username; 
  9.     private String password
  10.     private long timestamp
  11.  
  12. Map<String, String> config = Configuration.initConfig("commons.xml"); 
  13.  
  14. @Test 
  15. public void sendData() throws InterruptedException { 
  16.     int cnt = 0; 
  17.  
  18.     while (cnt < 200){ 
  19.         User user = new User(); 
  20.         user.setId(cnt); 
  21.         user.setUsername("username" + new Random().nextInt((cnt % 5) + 2)); 
  22.         user.setPassword("password" + cnt); 
  23.         user.setTimestamp(System.currentTimeMillis()); 
  24.         Future<RecordMetadata> future = KafkaUtil.sendDataToKafka(config.get("kafka-topic"), String.valueOf(cnt), JSON.toJSONString(user)); 
  25.         while (!future.isDone()){ 
  26.             Thread.sleep(100); 
  27.         } 
  28.         try { 
  29.             RecordMetadata recordMetadata = future.get(); 
  30.             System.out.println(recordMetadata.offset()); 
  31.         } catch (InterruptedException e) { 
  32.             e.printStackTrace(); 
  33.         } catch (ExecutionException e) { 
  34.             e.printStackTrace(); 
  35.         } 
  36.         System.out.println("發(fā)送消息:" + cnt + "******" + user.toString()); 
  37.         cnt = cnt + 1; 
  38.     } 

這里通過隨機數來擾亂username,便于使用戶名大小不一,讓結果更加明顯。KafkaUtil是自己寫的一個kafka工具類,代碼很簡單,主要是平時做測試方便。

4. 主要程序

創(chuàng)建一個main程序,開始編寫代碼。

創(chuàng)建flink環(huán)境,關聯kafka數據源。

  1. Map<String, String> config = Configuration.initConfig("commons.xml"); 
  2.  
  3. Properties kafkaProps = new Properties(); 
  4. kafkaProps.setProperty("zookeeper.connect", config.get("kafka-zookeeper")); 
  5. kafkaProps.setProperty("bootstrap.servers", config.get("kafka-ipport")); 
  6. kafkaProps.setProperty("group.id", config.get("kafka-groupid")); 
  7.  
  8. StreamExecutionEnvironment senv = StreamExecutionEnvironment.getExecutionEnvironment(); 

EventTime 與 Watermark

  1. senv.setStreamTimeCharacteristic(TimeCharacteristic.EventTime); 

設置屬性senv.setStreamTimeCharacteristic(TimeCharacteristic.EventTime),表示按照數據時間字段來處理,默認是TimeCharacteristic.ProcessingTime

  1. /** The time characteristic that is used if none other is set. */ 
  2. private static final TimeCharacteristic DEFAULT_TIME_CHARACTERISTIC = TimeCharacteristic.ProcessingTime; 

這個屬性必須設置,否則后面,可能窗口結束無法觸發(fā),導致結果無法輸出。取值有三種:

  • ProcessingTime:事件被處理的時間。也就是由flink集群機器的系統時間來決定。
  • EventTime:事件發(fā)生的時間。一般就是數據本身攜帶的時間。
  • IngestionTime:攝入時間,數據進入flink流的時間,跟ProcessingTime還是有區(qū)別的;

指定好使用數據的實際時間來處理,接下來需要指定flink程序如何get到數據的時間字段,這里使用調用DataStream的assignTimestampsAndWatermarks方法,抽取時間和設置watermark。

  1. senv.addSource( 
  2.         new FlinkKafkaConsumer010<>( 
  3.                 config.get("kafka-topic"), 
  4.                 new SimpleStringSchema(), 
  5.                 kafkaProps 
  6.         ) 
  7. ).map(x ->{ 
  8.     return JSON.parseObject(x, User.class); 
  9. }).assignTimestampsAndWatermarks(new BoundedOutOfOrdernessTimestampExtractor<User>(Time.milliseconds(1000)) { 
  10.     @Override 
  11.     public long extractTimestamp(User element) { 
  12.         return element.getTimestamp(); 
  13.     } 
  14. }) 

前面給出的代碼中可以看出,由于發(fā)送到kafka的時候,將User對象轉換為json字符串了,這里使用的是fastjson,接收過來可以轉化為JsonObject來處理,我這里還是將其轉化為User對象JSON.parseObject(x, User.class),便于處理。

這里考慮到數據可能亂序,使用了可以處理亂序的抽象類BoundedOutOfOrdernessTimestampExtractor,并且實現了唯一的一個沒有實現的方法extractTimestamp,亂序數據,會導致數據延遲,在構造方法中傳入了一個Time.milliseconds(1000),表明數據可以延遲一秒鐘。比如說,如果窗口長度是10s,0~10s的數據會在11s的時候計算,此時watermark是10,才會觸發(fā)計算,也就是說引入watermark處理亂序數據,最多可以容忍0~t這個窗口的數據,最晚在t+1時刻到來。

 

具體關于watermark的講解可以參考這篇文章

https://blog.csdn.net/qq_39657909/article/details/106081543

窗口統計

業(yè)務需求上,通常可能是一個小時,或者過去15分鐘的數據,5分鐘更新一次排名,這里為了演示效果,窗口長度取10s,每次滑動(slide)5s,即5秒鐘更新一次過去10s的排名數據。

  1. .keyBy("username"
  2. .timeWindow(Time.seconds(10), Time.seconds(5)) 
  3. .aggregate(new CountAgg(), new WindowResultFunction()) 

我們使用.keyBy("username")對用戶進行分組,使用.timeWindow(Time size, Time slide)對每個用戶做滑動窗口(10s窗口,5s滑動一次)。然后我們使用 .aggregate(AggregateFunction af, WindowFunction wf) 做增量的聚合操作,它能使用AggregateFunction提前聚合掉數據,減少 state 的存儲壓力。較之.apply(WindowFunction wf)會將窗口中的數據都存儲下來,最后一起計算要高效地多。aggregate()方法的第一個參數用于

這里的CountAgg實現了AggregateFunction接口,功能是統計窗口中的條數,即遇到一條數據就加一。

  1. public class CountAgg implements AggregateFunction<User, Long, Long>{ 
  2.     @Override 
  3.     public Long createAccumulator() { 
  4.         return 0L; 
  5.     } 
  6.  
  7.     @Override 
  8.     public Long add(User value, Long accumulator) { 
  9.         return accumulator + 1; 
  10.     } 
  11.  
  12.     @Override 
  13.     public Long getResult(Long accumulator) { 
  14.         return accumulator; 
  15.     } 
  16.  
  17.     @Override 
  18.     public Long merge(Long a, Long b) { 
  19.         return a + b; 
  20.     } 

.aggregate(AggregateFunction af, WindowFunction wf) 的第二個參數WindowFunction將每個 key每個窗口聚合后的結果帶上其他信息進行輸出。我們這里實現的WindowResultFunction將用戶名,窗口,訪問量封裝成了UserViewCount進行輸出。

  1. private static class WindowResultFunction implements WindowFunction<Long, UserViewCount, Tuple, TimeWindow> { 
  2.  
  3.  
  4.     @Override 
  5.     public void apply(Tuple key, TimeWindow window, Iterable<Long> input, Collector<UserViewCount> out) throws Exception { 
  6.         Long count = input.iterator().next(); 
  7.         out.collect(new UserViewCount(((Tuple1<String>)key).f0, window.getEnd(), count)); 
  8.     } 
  9.  
  10. @Data 
  11. @NoArgsConstructor 
  12. @AllArgsConstructor 
  13. @ToString 
  14. public static class UserViewCount { 
  15.     private String userName; 
  16.     private long windowEnd; 
  17.     private long viewCount; 
  18.  

TopN計算最活躍用戶

為了統計每個窗口下活躍的用戶,我們需要再次按窗口進行分組,這里根據UserViewCount中的windowEnd進行keyBy()操作。然后使用 ProcessFunction 實現一個自定義的 TopN 函數 TopNHotItems 來計算點擊量排名前3名的用戶,并將排名結果格式化成字符串,便于后續(xù)輸出。

  1. .keyBy("windowEnd"
  2. .process(new TopNHotUsers(3)) 
  3. .print(); 

ProcessFunction 是 Flink 提供的一個 low-level API,用于實現更高級的功能。它主要提供了定時器 timer 的功能(支持EventTime或ProcessingTime)。本案例中我們將利用 timer 來判斷何時收齊了某個 window 下所有用戶的訪問數據。由于 Watermark 的進度是全局的,在 processElement 方法中,每當收到一條數據(ItemViewCount),我們就注冊一個 windowEnd+1 的定時器(Flink 框架會自動忽略同一時間的重復注冊)。windowEnd+1 的定時器被觸發(fā)時,意味著收到了windowEnd+1的 Watermark,即收齊了該windowEnd下的所有用戶窗口統計值。我們在 onTimer() 中處理將收集的所有商品及點擊量進行排序,選出 TopN,并將排名信息格式化成字符串后進行輸出。

這里我們還使用了 ListState 來存儲收到的每條 UserViewCount 消息,保證在發(fā)生故障時,狀態(tài)數據的不丟失和一致性。ListState 是 Flink 提供的類似 Java List 接口的 State API,它集成了框架的 checkpoint 機制,自動做到了 exactly-once 的語義保證。

  1. private static class TopNHotUsers extends KeyedProcessFunction<Tuple, UserViewCount, String> { 
  2.  
  3.     private int topSize; 
  4.     private ListState<UserViewCount> userViewCountListState; 
  5.  
  6.     public TopNHotUsers(int topSize) { 
  7.         this.topSize = topSize; 
  8.     } 
  9.  
  10.     @Override 
  11.     public void onTimer(long timestamp, OnTimerContext ctx, Collector<String> out) throws Exception { 
  12.         super.onTimer(timestamp, ctx, out); 
  13.         List<UserViewCount> userViewCounts = new ArrayList<>(); 
  14.         for(UserViewCount userViewCount : userViewCountListState.get()) { 
  15.             userViewCounts.add(userViewCount); 
  16.         } 
  17.  
  18.         userViewCountListState.clear(); 
  19.  
  20.         userViewCounts.sort(new Comparator<UserViewCount>() { 
  21.             @Override 
  22.             public int compare(UserViewCount o1, UserViewCount o2) { 
  23.                 return (int)(o2.viewCount - o1.viewCount); 
  24.             } 
  25.         }); 
  26.  
  27.         // 將排名信息格式化成 String, 便于打印 
  28.         StringBuilder result = new StringBuilder(); 
  29.         result.append("====================================\n"); 
  30.         result.append("時間: ").append(new Timestamp(timestamp-1)).append("\n"); 
  31.         for (int i = 0; i < topSize; i++) { 
  32.             UserViewCount currentItem = userViewCounts.get(i); 
  33.             // No1:  商品ID=12224  瀏覽量=2413 
  34.             result.append("No").append(i).append(":"
  35.                     .append("  用戶名=").append(currentItem.userName) 
  36.                     .append("  瀏覽量=").append(currentItem.viewCount) 
  37.                     .append("\n"); 
  38.         } 
  39.         result.append("====================================\n\n"); 
  40.  
  41.         Thread.sleep(1000); 
  42.  
  43.         out.collect(result.toString()); 
  44.  
  45.     } 
  46.  
  47.     @Override 
  48.     public void open(org.apache.flink.configuration.Configuration parameters) throws Exception { 
  49.         super.open(parameters); 
  50.         ListStateDescriptor<UserViewCount> userViewCountListStateDescriptor = new ListStateDescriptor<>( 
  51.                 "user-state"
  52.                 UserViewCount.class 
  53.         ); 
  54.         userViewCountListState = getRuntimeContext().getListState(userViewCountListStateDescriptor); 
  55.  
  56.     } 
  57.  
  58.     @Override 
  59.     public void processElement(UserViewCount value, Context ctx, Collector<String> out) throws Exception { 
  60.         userViewCountListState.add(value); 
  61.         ctx.timerService().registerEventTimeTimer(value.windowEnd + 1000); 
  62.     } 

結果輸出

可以看到,每隔5秒鐘更新輸出一次數據。

 

參考

 

http://wuchong.me/blog/2018/11/07/use-flink-calculate-hot-items/

 

責任編輯:武曉燕 來源: Java大數據與數據倉庫
相關推薦

2021-06-06 13:10:12

FlinkPvUv

2021-07-16 10:55:45

數倉一體Flink SQL

2015-07-31 10:35:18

實時計算

2022-12-29 09:13:02

實時計算平臺

2015-08-31 14:27:52

2019-06-27 09:12:43

FlinkStorm框架

2016-12-28 14:27:24

大數據Apache Flin搜索引擎

2017-09-26 09:35:22

2015-10-09 13:42:26

hbase實時計算

2021-06-03 08:10:30

SparkStream項目Uv

2019-11-21 09:49:29

架構運維技術

2019-02-18 15:23:21

馬蜂窩MESLambda

2021-07-05 10:48:42

大數據實時計算

2011-10-28 09:05:09

2016-11-02 09:02:56

交通大數據計算

2021-03-10 14:04:10

大數據計算技術

2022-08-24 09:19:03

美團計算

2017-01-15 13:45:20

Docker大數據京東

2020-09-10 17:41:14

ClickHouse數據引擎

2022-11-10 08:48:20

開源數據湖Arctic
點贊
收藏

51CTO技術棧公眾號