偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

新年上班第一天生產(chǎn)環(huán)境分布式文件系統(tǒng)崩了!

開發(fā) 前端 分布式
今天,就和小伙伴們分享下,這次生產(chǎn)環(huán)境分布式文件系統(tǒng)出現(xiàn)的問題,以及我是如何10分鐘排查問題和解決問題的。另外,本文不是基于生產(chǎn)環(huán)境事故寫的,而是事后,我在我本機虛擬機上模擬的環(huán)境。解決問題的思路和方法都是一樣的。

[[383073]]

作者個人研發(fā)的在高并發(fā)場景下,提供的簡單、穩(wěn)定、可擴(kuò)展的延遲消息隊列框架,具有精準(zhǔn)的定時任務(wù)和延遲隊列處理功能。自開源半年多以來,已成功為十幾家中小型企業(yè)提供了精準(zhǔn)定時調(diào)度方案,經(jīng)受住了生產(chǎn)環(huán)境的考驗。為使更多童鞋受益,現(xiàn)給出開源框架地址:

https://github.com/sunshinelyz/mykit-delay

寫在前面

說來也怪,早不崩晚不崩,偏偏在上班第一天的時候,生產(chǎn)環(huán)境分布式文件系統(tǒng)崩了。我才剛來到我的工位坐下,“叮鈴鈴”電話響了,是運營打來的,“喂,冰河,快點看看,生產(chǎn)環(huán)境的圖片和視頻都無法上傳了,系統(tǒng)崩潰了,快點看看啊!”。你說我一個不是做運維的,直接打來電話讓我看生產(chǎn)環(huán)境的事故?原來是運維那哥們還沒上班,額,好吧,我接受了,于是我迅速整理好工位,擺出電腦,登錄服務(wù)器,一頓操作猛如虎,10分鐘搞定了,剩下的就是異步復(fù)制圖片和視頻了。

今天,就和小伙伴們分享下,這次生產(chǎn)環(huán)境分布式文件系統(tǒng)出現(xiàn)的問題,以及我是如何10分鐘排查問題和解決問題的。另外,本文不是基于生產(chǎn)環(huán)境事故寫的,而是事后,我在我本機虛擬機上模擬的環(huán)境。解決問題的思路和方法都是一樣的。

額,估計運維要被3.25了!!

文章已收錄到:

https://github.com/sunshinelyz/technology-binghe

https://gitee.com/binghe001/technology-binghe

問題定位

通過登錄服務(wù)器查看系統(tǒng)的訪問日志,發(fā)現(xiàn)日志文件中輸出了如下異常信息。

  1. org.csource.common.MyException: getStoreStorage fail, errno code: 28 
  2.  at org.csource.fastdfs.StorageClient.newWritableStorageConnection(StorageClient.java:1629) 
  3.  at org.csource.fastdfs.StorageClient.do_upload_file(StorageClient.java:639) 
  4.  at org.csource.fastdfs.StorageClient.upload_file(StorageClient.java:162) 
  5.  at org.csource.fastdfs.StorageClient.upload_file(StorageClient.java:180) 

很明顯,是系統(tǒng)無法上傳文件導(dǎo)致的問題,這個日志信息很重要,對問題的排查起到了至關(guān)重要的作用。

分析原因

既然是上傳文件出現(xiàn)了問題,那我先試試能不能訪問以前上傳的文件呢?經(jīng)過驗證,以前上傳的文件是可以訪問的,再次驗證了是上傳文件的問題。

既然生產(chǎn)環(huán)境是使用的分布式文件系統(tǒng),一般情況下是沒啥問題的,上傳文件出現(xiàn)了問題,大概率的事件是服務(wù)器磁盤空間不足了。那我就來順著這個思路排查下問題。

于是乎,我使用df -h 查看服務(wù)器的存儲空間使用率,已經(jīng)達(dá)到91%了。

嗯,磁盤空間有可能是引起問題的原因。接下來,再來進(jìn)一步確認(rèn)下是否是磁盤空間造成的問題。

于是,我再打開/etc/fdfs/目錄下的tracker.conf的配置,看到預(yù)留的存儲空間為10%(注:這里的分布式文件系統(tǒng)使用的是FastDFS)。

看到這里,可以確定就是磁盤空間不足造成的無法上傳文件的問題。

總體原因就是:服務(wù)器磁盤空間已使用91%,而在分布式文件系統(tǒng)的配置中預(yù)留的磁盤空間為10%,實際在上傳文件的時候,系統(tǒng)已經(jīng)檢測到當(dāng)前服務(wù)器剩余的磁盤空間不足10%,拋出異常,拒絕上傳文件。

到此,問題出現(xiàn)的原因已經(jīng)確定了,接下來就是要解決問題了。

解決問題

首先,有兩種方式可以解決這個問題,一種就是刪除不需要的文件;另一種就是擴(kuò)容磁盤空間。

刪除不需要的文件

這種方式慎用,這里,我也簡單的介紹下這種方式。我給小伙伴們提供了幾種遞歸刪除的方式。

遞歸刪除.pyc格式的文件。

  1. find . -name '*.pyc' -exec rm -rf {} \; 

打印當(dāng)前文件夾下指定大小的文件

  1. find . -name "*" -size 145800c -print 

遞歸刪除指定大小的文件(145800)

  1. find . -name "*" -size 145800c -exec rm -rf {} \; 

遞歸刪除指定大小的文件,并打印出來

  1. find . -name "*" -size 145800c -print -exec rm -rf {} \; 

下面是對上述命令的一些簡要說明。

  • "." 表示從當(dāng)前目錄開始遞歸查找
  • “ -name '*.exe' "根據(jù)名稱來查找,要查找所有以.exe結(jié)尾的文件夾或者文件
  • " -type f "查找的類型為文件
  • "-print" 輸出查找的文件目錄名
  • -size 145800c 指定文件的大小
  • -exec rm -rf {} \; 遞歸刪除(前面查詢出來的結(jié)果)

擴(kuò)容磁盤空間

這里,冰河推薦使用這種方式,我修復(fù)生產(chǎn)環(huán)境的故障也是使用的這種方式。

通過查看服務(wù)器的磁盤空間發(fā)現(xiàn),/data目錄下的空間足足有5TB,呵呵,運維哥們?yōu)樯恫话盐募到y(tǒng)的數(shù)據(jù)存儲目錄指向/data目錄呢。于是乎,我開始將文件系統(tǒng)的數(shù)據(jù)存儲目錄遷移到/data目錄下,整個過程如下所示。

注意:這里,我就簡單的模擬將 /opt/fastdfs_storage_data下的數(shù)據(jù)遷移至/data下。

(1)拷貝文件,遷移數(shù)據(jù)

  1. cp -r /opt/fastdfs_storage_data  /data 
  2. cp -r  /opt/fastdfs_storage  /data 
  3. cp -r /opt/fastdfs_tracker /data  

(2)修改路徑

這里需要修改文件系統(tǒng)的 /etc/fdfs/storage.conf ,mod_fastdfs.conf ,client.conf,tracker.conf文件。

  • /etc/fdfs/storage.conf
  1. store_path0=/data/fastdfs_storage_data  
  2. base_path=/data/fastdfs_storage 
  • /etc/fdfs/mod_fastdfs.conf
  1. store_path0=/data/fastdfs_storage_data  (有兩處) 
  2. base_path=/data/fastdfs_storage  
  • /etc/fdfs/client.conf
  1. base_path=/data/fastdfs_tracker 
  • /etc/fdfs/tracker.conf
  1. base_path=/data/fastdfs_tracker 

重新建立 M00 至存儲目錄的符號連接:ln -s /data/fastdfs_storage_data/data /data/fastdfs_storage_data/data/M00

(3)殺掉進(jìn)程, 重啟存儲服務(wù) (追蹤器和存儲器)

依次執(zhí)行以下命令

  1. pkill -9 fdfs 
  2.  service fdfs_trackerd start 
  3.  service fdfs_storaged start 

(4)修改文件的讀取路徑 nginx配置

  1. location ~/group1/M00{ 
  2.  root /data/fastdfs_storage_data/data; 

(5)重啟nginx

  1. cd /opt/nginx/sbin 
  2. ./nginx -s reload 

好了,問題搞定,運營可以正常上傳圖片和視頻了。

本文轉(zhuǎn)載自微信公眾號「 冰河技術(shù)」,可以通過以下二維碼關(guān)注。轉(zhuǎn)載本文請聯(lián)系 冰河技術(shù)公眾號。

 

責(zé)任編輯:武曉燕 來源: 冰河技術(shù)
相關(guān)推薦

2020-02-03 13:30:54

釘釘企業(yè)微信移動應(yīng)用

2021-05-17 08:11:44

MySQL數(shù)據(jù)庫索引

2010-11-01 05:50:46

分布式文件系統(tǒng)

2017-10-17 08:33:31

存儲系統(tǒng)分布式

2013-01-07 10:29:31

大數(shù)據(jù)

2013-06-18 14:00:59

HDFS分布式文件系統(tǒng)

2010-11-15 13:24:07

分布式文件系統(tǒng)

2012-08-31 16:04:11

HDFS分布式文件系統(tǒng)

2012-09-19 15:05:24

MogileFS分布式文件系統(tǒng)

2010-06-04 18:45:43

Hadoop分布式文件

2012-09-19 13:43:13

OpenAFS分布式文件系統(tǒng)

2012-08-10 22:44:52

ArchSummit

2021-02-03 21:15:44

Ansible系統(tǒng)運維系統(tǒng)管理員

2013-05-27 14:46:06

文件系統(tǒng)分布式文件系統(tǒng)

2025-05-28 01:45:00

2012-10-09 16:43:47

FastDFS分布式文件系統(tǒng)

2012-05-10 14:04:07

分布式文件系統(tǒng)架構(gòu)

2012-05-10 15:23:53

分布式文件系統(tǒng)測試

2020-01-03 08:33:57

Ceph硬件系統(tǒng)

2011-07-15 17:48:27

Platform
點贊
收藏

51CTO技術(shù)棧公眾號