偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Tomcat是怎樣處理搜索引擎爬蟲請(qǐng)求的?

開發(fā) 開發(fā)工具
每個(gè)置身于互聯(lián)網(wǎng)中的站點(diǎn),都需要搜索引擎的收錄,以及在適時(shí)在結(jié)果中的展現(xiàn),從而將信息提供給用戶、讀者。而搜索引擎如何才能收錄我們的站點(diǎn)呢?

每個(gè)置身于互聯(lián)網(wǎng)中的站點(diǎn),都需要搜索引擎的收錄,以及在適時(shí)在結(jié)果中的展現(xiàn),從而將信息提供給用戶、讀者。而搜索引擎如何才能收錄我們的站點(diǎn)呢?

這就涉及到一個(gè)「搜索引擎的爬蟲」爬取站點(diǎn)內(nèi)容的過(guò)程。只有被搜索引擎爬過(guò)并收錄的內(nèi)容才有機(jī)會(huì)在特定query***之后在結(jié)果中展現(xiàn)。

[[233840]]

這些搜索引擎內(nèi)容的工具,又被稱為爬蟲、Sprider,Web crawler 等等。我們一方面歡迎其訪問(wèn)站點(diǎn)以便收錄內(nèi)容,一方面又因其對(duì)于正常服務(wù)的影響頭疼。畢竟 Spider 也是要占用服務(wù)器資源的, Spider 太多太頻繁的資源占用,正常用戶請(qǐng)求處理就會(huì)受到影響。所以一些站點(diǎn)干脆直接為搜索引擎提供了單獨(dú)的服務(wù)供其訪問(wèn),其他正常的用戶請(qǐng)求走另外的服務(wù)器。

說(shuō)到這里需要提一下,對(duì)于是否是 Spider 的請(qǐng)求識(shí)別,是通過(guò)HTTP 請(qǐng)求頭中的User-Agent 字段來(lái)判斷的,每個(gè)搜索引擎有自己的獨(dú)立標(biāo)識(shí)。而且通過(guò)這些內(nèi)容,管理員也可以在訪問(wèn)日志中了解搜索引擎爬過(guò)哪些內(nèi)容。

此外,在對(duì)搜索引擎的「爬取聲明文件」robots.txt中,也會(huì)有類似的User-agent 描述。比如下面是taobao 的robots.txt描述

  1. User-agent:  Baiduspider 
  2. Allow:  /article 
  3. Allow:  /oshtml 
  4. Disallow:  /product/ 
  5. Disallow:  / 
  6.  
  7. User-Agent:  Googlebot 
  8. Allow:  /article 
  9. Allow:  /oshtml 
  10. Allow:  /product 
  11. Allow:  /spu 
  12. Allow:  /dianpu 
  13. Allow:  /oversea 
  14. Allow:  /list 
  15. Disallow:  / 
  16.  
  17. User-agent:  Bingbot 
  18. Allow:  /article 
  19. Allow:  /oshtml 
  20. Allow:  /product 
  21. Allow:  /spu 
  22. Allow:  /dianpu 
  23. Allow:  /oversea 
  24. Allow:  /list 
  25. Disallow:  / 
  26.  
  27. User-Agent:  360Spider 
  28. Allow:  /article 
  29. Allow:  /oshtml 
  30. Disallow:  / 
  31.  
  32. User-Agent:  Yisouspider 
  33. Allow:  /article 
  34. Allow:  /oshtml 
  35. Disallow:  / 
  36.  
  37. User-Agent:  Sogouspider 
  38. Allow:  /article 
  39. Allow:  /oshtml 
  40. Allow:  /product 
  41. Disallow:  / 
  42.  
  43. User-Agent:  Yahoo!  Slurp 
  44. Allow:  /product 
  45. Allow:  /spu 
  46. Allow:  /dianpu 
  47. Allow:  /oversea 
  48. Allow:  /list 
  49. Disallow:  / 

我們?cè)賮?lái)看 Tomcat對(duì)于搜索引擎的請(qǐng)求做了什么特殊處理呢?

對(duì)于請(qǐng)求涉及到 Session,我們知道通過(guò) Session,我們?cè)诜?wù)端得以識(shí)別一個(gè)具體的用戶。那 Spider 的大量請(qǐng)求到達(dá)后,如果訪問(wèn)頻繁同時(shí)請(qǐng)求量大時(shí),就需要?jiǎng)?chuàng)建巨大量的 Session,需要占用和消耗很多內(nèi)存,這無(wú)形中占用了正常用戶處理的資源。

為此, Tomcat 提供了一個(gè) 「Valve」,用于對(duì) Spider 的請(qǐng)求做一些處理。

首先識(shí)別 Spider 請(qǐng)求,對(duì)于 Spider 請(qǐng)求,使其使用相同的 SessionId繼續(xù)后面的請(qǐng)求流程,從而避免創(chuàng)建大量的 Session 數(shù)據(jù)。

這里需要注意,即使Spider顯式的傳了一個(gè) sessionId過(guò)來(lái),也會(huì)棄用,而是根據(jù)client Ip 來(lái)進(jìn)行判斷,即對(duì)于 相同的 Spider 只提供一個(gè)Session。

我們來(lái)看代碼:

  1. // If the incoming request has a valid session ID, no action is required 
  2. if (request.getSession(false) == null) { 
  3.  
  4.     // Is this a crawler - check the UA headers 
  5.     Enumeration<String> uaHeaders = request.getHeaders("user-agent"); 
  6.     String uaHeader = null
  7.     if (uaHeaders.hasMoreElements()) { 
  8.         uaHeader = uaHeaders.nextElement(); 
  9.     } 
  10.  
  11.     // If more than one UA header - assume not a bot 
  12.     if (uaHeader != null && !uaHeaders.hasMoreElements()) { 
  13.         if (uaPattern.matcher(uaHeader).matches()) { 
  14.             isBot = true
  15.             if (log.isDebugEnabled()) { 
  16.                 log.debug(request.hashCode() + 
  17.                         ": Bot found. UserAgent=" + uaHeader); 
  18.             } 
  19.         } 
  20.     } 
  21.  
  22.     // If this is a bot, is the session ID known? 
  23.     if (isBot) { 
  24.         clientIp = request.getRemoteAddr(); 
  25.         sessionId = clientIpSessionId.get(clientIp); 
  26.         if (sessionId != null) { 
  27.             request.setRequestedSessionId(sessionId); // 重用session 
  28.         } 
  29.     } 
  30.  
  31. getNext().invoke(request, response); 
  32.  
  33. if (isBot) { 
  34.     if (sessionId == null) { 
  35.         // Has bot just created a session, if so make a note of it 
  36.         HttpSession s = request.getSession(false); 
  37.         if (s != null) { 
  38.             clientIpSessionId.put(clientIp, s.getId()); //針對(duì)Spider生成session 
  39.             sessionIdClientIp.put(s.getId(), clientIp); 
  40.             // #valueUnbound() will be called on session expiration 
  41.             s.setAttribute(this.getClass().getName(), this); 
  42.             s.setMaxInactiveInterval(sessionInactiveInterval); 
  43.  
  44.             if (log.isDebugEnabled()) { 
  45.                 log.debug(request.hashCode() + 
  46.                         ": New bot session. SessionID=" + s.getId()); 
  47.             } 
  48.         } 
  49.     } else { 
  50.         if (log.isDebugEnabled()) { 
  51.             log.debug(request.hashCode() + 
  52.                     ": Bot session accessed. SessionID=" + sessionId); 
  53.         } 
  54.     } 

判斷Spider 是通過(guò)正則

  1. private String crawlerUserAgents = 
  2.     ".*[bB]ot.*|.*Yahoo! Slurp.*|.*Feedfetcher-Google.*"
  3. // 初始化Valve的時(shí)候進(jìn)行compile 
  4. uaPattern = Pattern.compile(crawlerUserAgents); 

這樣當(dāng) Spider 到達(dá)的時(shí)候就能通過(guò) User-agent識(shí)別出來(lái)并進(jìn)行特別處理從而減小受其影響。

這個(gè) Valve的名字是:「CrawlerSessionManagerValve」,好名字一眼就能看出來(lái)作用。

其他還有問(wèn)題么?我們看看,通過(guò)ClientIp來(lái)判斷進(jìn)行Session共用。

最近 Tomcat 做了個(gè)bug fix,原因是這種通過(guò)ClientIp的判斷方式,當(dāng) Valve 配置在Engine下層,給多個(gè)Host 共用時(shí),只能有一個(gè)Host生效。 fix之后,對(duì)于請(qǐng)求除ClientIp外,還有Host和 Context的限制,這些元素共同組成了 client標(biāo)識(shí),就能更大程度上共用Session。

修改內(nèi)容如下:

總結(jié)下, 該Valve 通過(guò)標(biāo)識(shí)識(shí)別出 Spider 請(qǐng)求后,給其分配一個(gè)固定的Session,從而避免大量的Session創(chuàng)建導(dǎo)致我資源占用。

默認(rèn)該Valve未開啟,需要在 server.xml中 增加配置開啟。另外我們看上面提供的 正則 pattern,和taobao 的robots.txt對(duì)比下,你會(huì)出現(xiàn)并沒(méi)有包含國(guó)內(nèi)的這些搜索引擎的處理,這個(gè)時(shí)候怎么辦呢?

在配置的時(shí)候傳一下進(jìn)來(lái)就OK啦,這是個(gè)public 的屬性

  1. public void setCrawlerUserAgents(String crawlerUserAgents) { 
  2.     this.crawlerUserAgents = crawlerUserAgents; 
  3.     if (crawlerUserAgents == null || crawlerUserAgents.length() == 0) { 
  4.         uaPattern = null
  5.     } else { 
  6.         uaPattern = Pattern.compile(crawlerUserAgents); 
  7.     } 

 【本文為51CTO專欄作者“侯樹成”的原創(chuàng)稿件,轉(zhuǎn)載請(qǐng)通過(guò)作者微信公眾號(hào)『Tomcat那些事兒』獲取授權(quán)】

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來(lái)源: 51CTO專欄
相關(guān)推薦

2019-09-26 09:34:51

網(wǎng)絡(luò)爬蟲搜索引擎大數(shù)據(jù)

2014-08-05 15:10:05

Larbin搜索引擎

2011-06-20 18:23:06

SEO

2010-08-02 16:08:39

ibmdwJava搜索引擎

2016-08-18 00:54:59

Python圖片處理搜索引擎

2024-12-20 14:34:40

2011-05-17 17:40:59

搜索引擎信任度

2009-02-19 09:41:36

搜索引擎搜狐百度

2009-09-22 16:23:52

搜索引擎

2011-05-10 12:32:56

搜索引擎反向鏈接

2011-05-10 12:55:13

反向鏈接

2017-08-07 08:15:31

搜索引擎倒排

2020-03-20 10:14:49

搜索引擎倒排索引

2010-06-13 16:27:28

搜索引擎

2016-12-26 13:41:19

大數(shù)據(jù)搜索引擎工作原理

2012-09-07 13:22:21

搜索搜狗

2022-10-08 09:13:18

搜索引擎?站

2010-04-20 11:43:46

2015-08-31 10:41:58

搜索引擎Google云應(yīng)用

2020-02-24 08:52:08

開源索引YaCy
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)