偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Flink1.12 SQL向Redis實(shí)時(shí)寫(xiě)數(shù)據(jù)

開(kāi)發(fā) 項(xiàng)目管理 Redis
基于bahir-flink二次開(kāi)發(fā),使它支持SQL直接定義寫(xiě)入redis,用戶通過(guò)DDL指定自己需要保存的字段。

[[410005]]

本文轉(zhuǎn)載自微信公眾號(hào)「肌肉碼農(nóng)」,作者鄒學(xué)。轉(zhuǎn)載本文請(qǐng)聯(lián)系肌肉碼農(nóng)公眾號(hào)。

插件名稱:flink-connector-redis

插件地址:https://github.com/jeff-zou/flink-connector-redis.git

項(xiàng)目介紹

基于bahir-flink二次開(kāi)發(fā),使它支持SQL直接定義寫(xiě)入redis,用戶通過(guò)DDL指定自己需要保存的字段。

使用方法:

命令行執(zhí)行 mvn package -DskipTests=true打包后,將生成的包flink-connector-redis_2.12-1.11.1.jar引入flink lib中即可,無(wú)需其它設(shè)置。

重構(gòu)介紹:

相對(duì)上一個(gè)版本簡(jiǎn)化了參數(shù)設(shè)置,思路更清晰,上一版本字段的值會(huì)根據(jù)主鍵等條件來(lái)自動(dòng)生成,這要求使用者需要了解相關(guān)規(guī)則,有一定的學(xué)習(xí)成本并且容易埋坑,重構(gòu)后字段的值由用戶在DDL中顯示地指定,如下:

  1. 'key-column'='username','value-column'='passport',' //直接指定字段名 

取消了必須有主鍵的限制,使用更簡(jiǎn)單,如果有多個(gè)字段組合成key或者value,需要用戶在DML中使用concat_ws等方式組裝,不再是插件在后臺(tái)用不可見(jiàn)字符拼裝。

使用示例:

  • 1.SQL方式

示例代碼路徑: src/test/java/org.apache.flink.streaming.connectors.redis.table.SQLInsertTest.java

set示例,相當(dāng)于redis命令: set test test11

  1. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); 
  2.         EnvironmentSettings environmentSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build(); 
  3.         StreamTableEnvironment tEnv = StreamTableEnvironment.create(env, environmentSettings); 
  4.  
  5.         String ddl = "create table sink_redis(username VARCHAR, passport VARCHAR) with ( 'connector'='redis', " + 
  6.                 "'host'='10.11.80.147','port'='7001', 'redis-mode'='single','password'='******','key-column'='username','value-column'='passport','command'='set')" ; 
  7.  
  8.         tEnv.executeSql(ddl); 
  9.         String sql = " insert into sink_redis select * from (values ('test', 'test11'))"
  10.         TableResult tableResult = tEnv.executeSql(sql); 
  11.         tableResult.getJobClient().get() 
  12.                 .getJobExecutionResult() 
  13.                 .get(); 
  • 2.DataStream方式

示例代碼路徑:

src/test/java/org.apache.flink.streaming.connectors.redis.datastream.DataStreamInsertTest.java

hset示例,相當(dāng)于redis命令:hset tom math 150

  1. Configuration configuration = new Configuration(); 
  2.         configuration.setString(RedisOptions.KEY_COLUMN, "name"); 
  3.         configuration.setString(RedisOptions.FIELD_COLUMN, "subject"); //對(duì)應(yīng)hash的field、 sorted set的score 
  4.         configuration.setString(RedisOptions.VALUE_COLUMN, "score"); 
  5.         configuration.setString(REDIS_MODE, REDIS_CLUSTER); 
  6.         configuration.setString(REDIS_COMMAND, RedisCommand.HSET.name()); 
  7.  
  8.         RedisMapper redisMapper = RedisHandlerServices 
  9.                 .findRedisHandler(RedisMapperHandler.class, configuration.toMap()) 
  10.                 .createRedisMapper(configuration); 
  11.  
  12.         StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); 
  13.  
  14.         GenericRowData genericRowData = new GenericRowData(3); 
  15.         genericRowData.setField(0, "tom"); 
  16.         genericRowData.setField(1, "math"); 
  17.         genericRowData.setField(2, "150"); 
  18.         DataStream<GenericRowData> dataStream = env.fromElements(genericRowData); 
  19.  
  20.         TableSchema tableSchema =  new TableSchema.Builder() .field("name", DataTypes.STRING().notNull()).field("subject", DataTypes.STRING()).field("score", DataTypes.INT()).build(); 
  21.  
  22.         FlinkJedisConfigBase conf = getLocalRedisClusterConfig(); 
  23.         RedisSink redisSink = new RedisSink<>(conf, redisMapper, tableSchema); 
  24.  
  25.         dataStream.addSink(redisSink); 
  26.         env.execute("RedisSinkTest"); 

 

 

責(zé)任編輯:武曉燕 來(lái)源: 肌肉碼農(nóng)
相關(guān)推薦

2021-06-30 09:20:08

數(shù)倉(cāng)FlinkHive

2024-06-03 08:26:35

2021-07-19 09:47:37

阿里云Flink 1.12資源管理

2024-04-09 10:02:13

Spring數(shù)據(jù)Redis

2025-05-20 10:03:59

數(shù)據(jù)倉(cāng)庫(kù)Flink SQLPaimon

2021-07-16 10:55:45

數(shù)倉(cāng)一體Flink SQL

2021-06-04 07:24:14

Flink CDC數(shù)據(jù)

2024-06-06 08:58:08

大數(shù)據(jù)SQLAPI

2023-12-11 08:00:00

架構(gòu)FlinkDruid

2022-07-20 23:15:11

Flink數(shù)據(jù)集CDC

2021-03-10 08:22:47

FlinktopN計(jì)算

2009-05-14 10:02:59

實(shí)時(shí)數(shù)據(jù)SQL Server商業(yè)智能

2024-06-05 09:16:54

開(kāi)源工具Airflow

2019-12-19 14:38:08

Flink SQL數(shù)據(jù)流Join

2022-05-12 09:02:47

Flink SQL數(shù)據(jù)類型

2021-07-13 07:04:19

Flink數(shù)倉(cāng)數(shù)據(jù)

2009-11-18 16:16:51

Oracle數(shù)據(jù)庫(kù)

2009-08-12 17:02:16

.NET向SQL Se

2009-01-06 11:31:34

SybaseSQL Server數(shù)據(jù)庫(kù)

2021-12-09 06:59:24

FlinkSQL 開(kāi)發(fā)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)