偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Spring Cloud Sleuth 和 Zipkin 進(jìn)行分布式跟蹤使用指南

開(kāi)發(fā) 前端 分布式
分布式跟蹤允許您跟蹤分布式系統(tǒng)中的請(qǐng)求。本文通過(guò)了解如何使用 Spring Cloud Sleuth 和 Zipkin 來(lái)做到這一點(diǎn)。

分布式跟蹤允許您跟蹤分布式系統(tǒng)中的請(qǐng)求。本文通過(guò)了解如何使用 Spring Cloud Sleuth 和 Zipkin 來(lái)做到這一點(diǎn)。

對(duì)于一個(gè)做所有事情的大型應(yīng)用程序(我們通常將其稱為單體應(yīng)用程序),跟蹤應(yīng)用程序內(nèi)的傳入請(qǐng)求很容易。我們可以跟蹤日志,然后弄清楚請(qǐng)求是如何處理的。除了應(yīng)用程序日志本身之外,我們無(wú)需查看其他任何內(nèi)容。

隨著時(shí)間的推移,單體應(yīng)用程序變得難以擴(kuò)展,難以處理大量請(qǐng)求以及隨著代碼庫(kù)規(guī)模的不斷擴(kuò)大向客戶提供新功能。這導(dǎo)致將單體架構(gòu)分解為微服務(wù),這有助于擴(kuò)展單個(gè)組件并有助于更快地交付。

但并非所有閃耀的都是黃金,對(duì)吧?微服務(wù)也是如此。我們將整個(gè)單體系統(tǒng)拆分為微服務(wù),由一組本地函數(shù)調(diào)用處理的每個(gè)請(qǐng)求現(xiàn)在都被調(diào)用一組分布式服務(wù)所取代。這樣一來(lái),我們就失去了追蹤在單體應(yīng)用中很容易完成的請(qǐng)求之類的事情?,F(xiàn)在,要跟蹤每個(gè)請(qǐng)求,我們必須查看每個(gè)服務(wù)的日志,并且很難關(guān)聯(lián)。

因此,在分布式系統(tǒng)的情況下,分布式跟蹤的概念有助于跟蹤請(qǐng)求。

什么是分布式跟蹤?

分布式跟蹤是一種機(jī)制,我們可以使用它跟蹤整個(gè)分布式系統(tǒng)中的特定請(qǐng)求。它允許我們跟蹤請(qǐng)求如何從一個(gè)系統(tǒng)進(jìn)展到另一個(gè)系統(tǒng),從而完成用戶的請(qǐng)求。

分布式跟蹤的關(guān)鍵概念

分布式跟蹤包含兩個(gè)主要概念:

  • 跟蹤 ID
  • 跨度編號(hào)

跟蹤 id 用于跟蹤傳入請(qǐng)求并在所有組合服務(wù)中跟蹤它以滿足請(qǐng)求。Span id 跨越服務(wù)調(diào)用以跟蹤接收到的每個(gè)請(qǐng)求和發(fā)出的響應(yīng)。

讓我們看一下圖表。

傳入的請(qǐng)求沒(méi)有任何跟蹤 ID。攔截調(diào)用的第一個(gè)服務(wù)會(huì)生成跟蹤 ID“ID1”及其跨度 ID“A”。span id“B”涵蓋了從服務(wù)器一的客戶端發(fā)出請(qǐng)求到服務(wù)器二接收、處理并發(fā)出響應(yīng)的時(shí)間。

帶有 Spring Cloud Sleuth 的 Spring Boot 示例

讓我們創(chuàng)建一個(gè)集成了 Spring Cloud Sleuth 的應(yīng)用程序。首先,讓我們?cè)L問(wèn)https://start.spring.io/并使用依賴項(xiàng)“Spring Web”和“Spring Cloud Sleuth”創(chuàng)建一個(gè)應(yīng)用程序。

現(xiàn)在讓我們創(chuàng)建一個(gè)帶有兩個(gè)請(qǐng)求映射的簡(jiǎn)單控制器。

public class Controller {

private static final Logger logger = LoggerFactory.getLogger(Controller.class);
private RestTemplate restTemplate;

@Value("${spring.application.name}")
private String applicationName;

public Controller(RestTemplate restTemplate) {
this.restTemplate = restTemplate;
}

@GetMapping("/path1")
public ResponseEntity path1() {

logger.info("Request at {} for request /path1 ", applicationName);
String response = restTemplate.getForObject("http://localhost:8090/service/path2", String.class);
return ResponseEntity.ok("response from /path1 + "+ response);
}

@GetMapping("/path2")
public ResponseEntity path2(){
logger.info("Request at {} at /path2", applicationName);
return ResponseEntity.ok("response from /path2 ");
}

在這里,我創(chuàng)建了兩條路徑,Path1調(diào)用Path2固定端口 8090。這里的想法是運(yùn)行同一應(yīng)用程序的兩個(gè)單獨(dú)實(shí)例。

現(xiàn)在為了允許偵探將標(biāo)頭注入到傳出請(qǐng)求中,我們需要將 RestTemplate 作為 bean 注入,而不是直接初始化它。這將允許偵探向 RestTemplate 添加一個(gè)攔截器,以將帶有跟蹤 id 和跨度 id 的標(biāo)頭注入到傳出請(qǐng)求中。

@Bean
public RestTemplate restTemplate(RestTemplateBuilder builder) {
return builder.build();
}

現(xiàn)在,讓我們啟動(dòng)兩個(gè)實(shí)例。為此,首先,構(gòu)建應(yīng)用程序,mvn clean verify然后運(yùn)行以下命令來(lái)啟動(dòng)“服務(wù) 1”。

java -jar \
target/Distributed-Service-0.0.1-SNAPSHOT.jar \
--spring.application.name=Service-1 \
--server.port=8080

然后在不同的終端上運(yùn)行“服務(wù) 2”,如下所示:

java -jar \
target/Distributed-Service-0.0.1-SNAPSHOT.jar \
--spring.application.name=Service-2 \
--server.port=8090

應(yīng)用程序啟動(dòng)后,調(diào)用“Service 1”,/path1如下所示:

curl -i http://localhost:8080/service/path1

現(xiàn)在讓我們看看“服務(wù)1”的日志。

INFO [Service-1,222f3b00a283c75c,222f3b00a283c75c] 41114 --- [nio-8080-exec-1] c.a.p.distributedservice.Controller      : Incoming request at Service-1 for request /path1

日志包含方括號(hào),其中包含三個(gè)部分 [Service Name, Trace Id, Span Id]。對(duì)于第一個(gè)傳入的請(qǐng)求,由于沒(méi)有傳入的trace id,span id 與trace id 相同。

查看“服務(wù) 2”的日志,我們看到我們?yōu)榇苏?qǐng)求有一個(gè)新的 span id。

INFO [Service-2,222f3b00a283c75c,13194db963293a22] 41052 --- [nio-8090-exec-1] c.a.p.distributedservice.Controller      : Incoming request at Service-2 at /path2

我截獲了從“服務(wù) 1”發(fā)送到“服務(wù) 2”的請(qǐng)求,并發(fā)現(xiàn)傳出的請(qǐng)求中已經(jīng)存在以下標(biāo)頭。

x-b3-traceid:"222f3b00a283c75c", 
x-b3-spanid:"13194db963293a22",
x-b3-parentspanid:"222f3b00a283c75c

在這里,我們看到下一個(gè)操作(對(duì)“服務(wù) 2”的調(diào)用)的跨度已經(jīng)注入到標(biāo)頭中。這些是在客戶端發(fā)出請(qǐng)求時(shí)由“服務(wù) 1”注入的。這意味著下一次調(diào)用“服務(wù) 2”的跨度已經(jīng)從“服務(wù) 1”的客戶端開(kāi)始。在上面顯示的標(biāo)題中,“服務(wù) 1”的 span id 現(xiàn)在是下一個(gè) span 的父 span id。

為了讓事情更容易理解,我們可以使用名為Zipkin的攔截器工具直觀地查看跟蹤。

使用 Zipkin 可視化跟蹤

要將 Zipkin 與應(yīng)用程序集成,我們需要向應(yīng)用程序添加 Zipkin 客戶端依賴項(xiàng)。

<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-sleuth-zipkin</artifactId>
</dependency>

添加此依賴項(xiàng)后,Zipkin 客戶端默認(rèn)將跟蹤發(fā)送到 Zipkin 服務(wù)器的 9411 端口。讓我們使用其 docker 映像啟動(dòng) Zipkin 服務(wù)器。我為此創(chuàng)建了一個(gè)簡(jiǎn)單的 docker-compose 文件。

version: "3.1"
services:
zipkin:
image: openzipkin/zipkin:2
ports:
- "9411:9411"

我們現(xiàn)在可以使用docker-compose up命令啟動(dòng)服務(wù)器。然后,您可以在以下位置訪問(wèn) UIhttp://localhost:9411/

由于我們使用的是默認(rèn)端口,我們不需要指定任何屬性,但是如果您打算使用不同的端口,則需要添加以下屬性。

spring:
zipkin:
baseUrl: http://localhost:9411

完成后,讓我們使用上面相同的命令啟動(dòng)兩個(gè)應(yīng)用程序。在向路徑中的“服務(wù) 1”發(fā)出請(qǐng)求時(shí),/path1我們會(huì)得到以下跟蹤。

這里顯示了兩個(gè)服務(wù)的跨度。我們可以通過(guò)查看跨度來(lái)更深入地挖掘。

“服務(wù) 1”的跨度是一個(gè)正常的跨度,涵蓋了它接收到返回響應(yīng)的請(qǐng)求。有趣的是第二個(gè)跨度。

在此,跨度中有四個(gè)點(diǎn)。

  • 第一點(diǎn)是指來(lái)自“服務(wù)1”的客戶端何時(shí)開(kāi)始請(qǐng)求。
  • 第二點(diǎn)是“服務(wù) 2”開(kāi)始處理請(qǐng)求的時(shí)間。
  • 第三點(diǎn)是“Server 1”上的客戶端完成接收響應(yīng)的時(shí)間。
  • 最后,“服務(wù)器 2”完成的最后一點(diǎn)。

因此,我們了解了如何將分布式跟蹤與 Spring Cloud Sleuth 集成,并使用 Zipkin 可視化跟蹤。

責(zé)任編輯:姜華 來(lái)源: 今日頭條
相關(guān)推薦

2018-04-09 13:56:13

微服務(wù)架構(gòu)分布式

2021-03-23 22:43:09

Grafana Tem分布式跟蹤開(kāi)源

2018-03-13 16:42:26

分布式服務(wù)跟蹤

2021-11-08 14:10:37

分布式Spring鏈路

2018-03-02 16:11:29

Spring Clou分布式服務(wù)跟蹤

2018-04-02 15:01:31

微服務(wù)架構(gòu)分布式服務(wù)

2018-04-16 14:56:56

微服務(wù)架構(gòu)分布式服務(wù)

2018-04-18 16:07:49

Spring Clou微服務(wù)分布式

2021-06-17 14:29:39

Linkerd 分布式跟蹤Linkerd 2.1

2020-08-24 07:08:37

分布式云云遷移云計(jì)算

2017-01-16 14:51:26

京東分布式服務(wù)CallGraph

2021-09-30 23:12:52

監(jiān)控分布式跟蹤

2012-05-21 16:28:29

LinuxHadoop

2023-11-01 18:02:33

RayPython分布式

2022-06-08 07:36:03

LocustKubernete微服務(wù)

2017-07-28 16:41:53

Spring Clou微服務(wù)架構(gòu)

2022-05-25 08:23:32

ZipKinTwitter開(kāi)源項(xiàng)目

2010-06-03 18:54:57

Hadoop

2019-10-28 10:10:01

技術(shù)研發(fā)分布式

2023-11-21 08:25:09

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)