偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Apriori算法介紹(Python實現(xiàn))

大數(shù)據(jù) 算法
本文首先對Apriori算法進行簡介,而后進一步介紹相關的基本概念,之后詳細的介紹Apriori算法的具體策略和步驟,最后給出Python實現(xiàn)代碼。

[[188839]]

隨著大數(shù)據(jù)概念的火熱,啤酒與尿布的故事廣為人知。我們?nèi)绾伟l(fā)現(xiàn)買啤酒的人往往也會買尿布這一規(guī)律?數(shù)據(jù)挖掘中的用于挖掘頻繁項集和關聯(lián)規(guī)則的Apriori算法可以告訴我們。本文首先對Apriori算法進行簡介,而后進一步介紹相關的基本概念,之后詳細的介紹Apriori算法的具體策略和步驟,***給出Python實現(xiàn)代碼。

1.Apriori算法簡介

Apriori算法是經(jīng)典的挖掘頻繁項集和關聯(lián)規(guī)則的數(shù)據(jù)挖掘算法。A priori在拉丁語中指”來自以前”。當定義問題時,通常會使用先驗知識或者假設,這被稱作”一個先驗”(a priori)。Apriori算法的名字正是基于這樣的事實:算法使用頻繁項集性質(zhì)的先驗性質(zhì),即頻繁項集的所有非空子集也一定是頻繁的。Apriori算法使用一種稱為逐層搜索的迭代方法,其中k項集用于探索(k+1)項集。首先,通過掃描數(shù)據(jù)庫,累計每個項的計數(shù),并收集滿足最小支持度的項,找出頻繁1項集的集合。該集合記為L1。然后,使用L1找出頻繁2項集的集合L2,使用L2找出L3,如此下去,直到不能再找到頻繁k項集。每找出一個Lk需要一次數(shù)據(jù)庫的完整掃描。Apriori算法使用頻繁項集的先驗性質(zhì)來壓縮搜索空間。

2. 基本概念

項與項集:設itemset={item1, item_2, …, item_m}是所有項的集合,其中,item_k(k=1,2,…,m)成為項。項的集合稱為項集(itemset),包含k個項的項集稱為k項集(k-itemset)。

事務與事務集:一個事務T是一個項集,它是itemset的一個子集,每個事務均與一個唯一標識符Tid相聯(lián)系。不同的事務一起組成了事務集D,它構成了關聯(lián)規(guī)則發(fā)現(xiàn)的事務數(shù)據(jù)庫。

關聯(lián)規(guī)則:關聯(lián)規(guī)則是形如A=>B的蘊涵式,其中A、B均為itemset的子集且均不為空集,而A交B為空。

支持度(support):關聯(lián)規(guī)則的支持度定義如下:

其中P(A∪B)表示事務包含集合A和B的并(即包含A和B中的每個項)的概率。注意與P(A or B)區(qū)別,后者表示事務包含A或B的概率。

置信度(confidence):關聯(lián)規(guī)則的置信度定義如下:

項集的出現(xiàn)頻度(support count):包含項集的事務數(shù),簡稱為項集的頻度、支持度計數(shù)或計數(shù)。

頻繁項集(frequent itemset):如果項集I的相對支持度滿足事先定義好的最小支持度閾值(即I的出現(xiàn)頻度大于相應的最小出現(xiàn)頻度(支持度計數(shù))閾值),則I是頻繁項集。

強關聯(lián)規(guī)則:滿足最小支持度和最小置信度的關聯(lián)規(guī)則,即待挖掘的關聯(lián)規(guī)則。

3. 實現(xiàn)步驟

一般而言,關聯(lián)規(guī)則的挖掘是一個兩步的過程:

找出所有的頻繁項集

由頻繁項集產(chǎn)生強關聯(lián)規(guī)則

3.1挖掘頻繁項集

3.1.1 相關定義

  • 連接步驟:頻繁(k-1)項集Lk-1的自身連接產(chǎn)生候選k項集Ck

Apriori算法假定項集中的項按照字典序排序。如果Lk-1中某兩個的元素(項集)itemset1和itemset2的前(k-2)個項是相同的,則稱itemset1和itemset2是可連接的。所以itemset1與itemset2連接產(chǎn)生的結果項集是{itemset1[1], itemset1[2], …, itemset1[k-1], itemset2[k-1]}。連接步驟包含在下文代碼中的create_Ck函數(shù)中。

  • 剪枝策略

由于存在先驗性質(zhì):任何非頻繁的(k-1)項集都不是頻繁k項集的子集。因此,如果一個候選k項集Ck的(k-1)項子集不在Lk-1中,則該候選也不可能是頻繁的,從而可以從Ck中刪除,獲得壓縮后的Ck。下文代碼中的is_apriori函數(shù)用于判斷是否滿足先驗性質(zhì),create_Ck函數(shù)中包含剪枝步驟,即若不滿足先驗性質(zhì),剪枝。

  • 刪除策略

基于壓縮后的Ck,掃描所有事務,對Ck中的每個項進行計數(shù),然后刪除不滿足最小支持度的項,從而獲得頻繁k項集。刪除策略包含在下文代碼中的generate_Lk_by_Ck函數(shù)中。

3.1.2 步驟

  1. 每個項都是候選1項集的集合C1的成員。算法掃描所有的事務,獲得每個項,生成C1(見下文代碼中的create_C1函數(shù))。然后對每個項進行計數(shù)。然后根據(jù)最小支持度從C1中刪除不滿足的項,從而獲得頻繁1項集L1。
  2. 對L1的自身連接生成的集合執(zhí)行剪枝策略產(chǎn)生候選2項集的集合C2,然后,掃描所有事務,對C2中每個項進行計數(shù)。同樣的,根據(jù)最小支持度從C2中刪除不滿足的項,從而獲得頻繁2項集L2。
  3. 對L2的自身連接生成的集合執(zhí)行剪枝策略產(chǎn)生候選3項集的集合C3,然后,掃描所有事務,對C3每個項進行計數(shù)。同樣的,根據(jù)最小支持度從C3中刪除不滿足的項,從而獲得頻繁3項集L3。
  4. 以此類推,對Lk-1的自身連接生成的集合執(zhí)行剪枝策略產(chǎn)生候選k項集Ck,然后,掃描所有事務,對Ck中的每個項進行計數(shù)。然后根據(jù)最小支持度從Ck中刪除不滿足的項,從而獲得頻繁k項集。

3.2 由頻繁項集產(chǎn)生關聯(lián)規(guī)則

一旦找出了頻繁項集,就可以直接由它們產(chǎn)生強關聯(lián)規(guī)則。產(chǎn)生步驟如下:

  • 對于每個頻繁項集itemset,產(chǎn)生itemset的所有非空子集(這些非空子集一定是頻繁項集);
  • 對于itemset的每個非空子集s,如果

則輸出s=>(l-s),其中min_conf是最小置信度閾值。

4. 樣例以及Python實現(xiàn)代碼

下圖是《數(shù)據(jù)挖掘:概念與技術》(第三版)中挖掘頻繁項集的樣例圖解。

本文基于該樣例的數(shù)據(jù)編寫Python代碼實現(xiàn)Apriori算法。代碼需要注意如下兩點:

由于Apriori算法假定項集中的項是按字典序排序的,而集合本身是無序的,所以我們在必要時需要進行set和list的轉換;

由于要使用字典(support_data)記錄項集的支持度,需要用項集作為key,而可變集合無法作為字典的key,因此在合適時機應將項集轉為固定集合frozenset。

  1. ""
  2. # Python 2.7 
  3. # Filename: apriori.py 
  4. # Author: llhthinker 
  5. # Email: hangliu56[AT]gmail[DOT]com 
  6. # Blog: http://www.cnblogs.com/llhthinker/p/6719779.html 
  7. Date: 2017-04-16 
  8. ""
  9.  
  10.  
  11. def load_data_set(): 
  12.  ""
  13.  Load a sample data set (From Data Mining: Concepts and Techniques, 3th Edition) 
  14.  Returns:  
  15.  A data set: A list of transactions. Each transaction contains several items. 
  16.  ""
  17.  data_set = [['l1''l2''l5'], ['l2''l4'], ['l2''l3'], 
  18.  ['l1''l2''l4'], ['l1''l3'], ['l2''l3'], 
  19.  ['l1''l3'], ['l1''l2''l3''l5'], ['l1''l2''l3']] 
  20.  return data_set 
  21.  
  22.  
  23. def create_C1(data_set): 
  24.  ""
  25.  Create frequent candidate 1-itemset C1 by scaning data set
  26.  Args: 
  27.  data_set: A list of transactions. Each transaction contains several items. 
  28.  Returns
  29.  C1: A set which contains all frequent candidate 1-itemsets 
  30.  ""
  31.  C1 = set() 
  32.  for t in data_set: 
  33.  for item in t: 
  34.  item_set = frozenset([item]) 
  35.  C1.add(item_set) 
  36.  return C1 
  37.  
  38.  
  39. def is_apriori(Ck_item, Lksub1): 
  40.  ""
  41.  Judge whether a frequent candidate k-itemset satisfy Apriori property. 
  42.  Args: 
  43.  Ck_item: a frequent candidate k-itemset in Ck which contains all frequent 
  44.  candidate k-itemsets. 
  45.  Lksub1: Lk-1, a set which contains all frequent candidate (k-1)-itemsets. 
  46.  Returns
  47.  True: satisfying Apriori property. 
  48.  FalseNot satisfying Apriori property. 
  49.  ""
  50.  for item in Ck_item: 
  51.  sub_Ck = Ck_item - frozenset([item]) 
  52.  if sub_Ck not in Lksub1: 
  53.  return False 
  54.  return True 
  55.  
  56.  
  57. def create_Ck(Lksub1, k): 
  58.  ""
  59.  Create Ck, a set which contains all all frequent candidate k-itemsets 
  60.  by Lk-1's own connection operation. 
  61.  Args: 
  62.  Lksub1: Lk-1, a set which contains all frequent candidate (k-1)-itemsets. 
  63.  k: the item number of a frequent itemset. 
  64.  Return
  65.  Ck: a set which contains all all frequent candidate k-itemsets. 
  66.  ""
  67.  Ck = set() 
  68.  len_Lksub1 = len(Lksub1) 
  69.  list_Lksub1 = list(Lksub1) 
  70.  for i in range(len_Lksub1): 
  71.  for j in range(1, len_Lksub1): 
  72.  l1 = list(list_Lksub1[i]) 
  73.  l2 = list(list_Lksub1[j]) 
  74.  l1.sort() 
  75.  l2.sort() 
  76.  if l1[0:k-2] == l2[0:k-2]: 
  77.  Ck_item = list_Lksub1[i] | list_Lksub1[j] 
  78.  # pruning 
  79.  if is_apriori(Ck_item, Lksub1): 
  80.  Ck.add(Ck_item) 
  81.  return Ck 
  82.  
  83.  
  84. def generate_Lk_by_Ck(data_set, Ck, min_support, support_data): 
  85.  ""
  86.  Generate Lk by executing a delete policy from Ck. 
  87.  Args: 
  88.  data_set: A list of transactions. Each transaction contains several items. 
  89.  Ck: A set which contains all all frequent candidate k-itemsets. 
  90.  min_support: The minimum support. 
  91.  support_data: A dictionary. The key is frequent itemset and the value is support. 
  92.  Returns
  93.  Lk: A set which contains all all frequent k-itemsets. 
  94.  ""
  95.  Lk = set() 
  96.  item_count = {} 
  97.  for t in data_set: 
  98.  for item in Ck: 
  99.  if item.issubset(t): 
  100.  if item not in item_count: 
  101.  item_count[item] = 1 
  102.  else
  103.  item_count[item] += 1 
  104.  t_num = float(len(data_set)) 
  105.  for item in item_count: 
  106.  if (item_count[item] / t_num) >= min_support: 
  107.  Lk.add(item) 
  108.  support_data[item] = item_count[item] / t_num 
  109.  return Lk 
  110.  
  111.  
  112. def generate_L(data_set, k, min_support): 
  113.  ""
  114.  Generate all frequent itemsets. 
  115.  Args: 
  116.  data_set: A list of transactions. Each transaction contains several items. 
  117.  k: Maximum number of items for all frequent itemsets. 
  118.  min_support: The minimum support. 
  119.  Returns
  120.  L: The list of Lk. 
  121.  support_data: A dictionary. The key is frequent itemset and the value is support. 
  122.  ""
  123.  support_data = {} 
  124.  C1 = create_C1(data_set) 
  125.  L1 = generate_Lk_by_Ck(data_set, C1, min_support, support_data) 
  126.  Lksub1 = L1.copy() 
  127.  L = [] 
  128.  L.append(Lksub1) 
  129.  for i in range(2, k+1): 
  130.  Ci = create_Ck(Lksub1, i) 
  131.  Li = generate_Lk_by_Ck(data_set, Ci, min_support, support_data) 
  132.  Lksub1 = Li.copy() 
  133.  L.append(Lksub1) 
  134.  return L, support_data 
  135.  
  136.  
  137. def generate_big_rules(L, support_data, min_conf): 
  138.  ""
  139.  Generate big rules from frequent itemsets. 
  140.  Args: 
  141.  L: The list of Lk. 
  142.  support_data: A dictionary. The key is frequent itemset and the value is support. 
  143.  min_conf: Minimal confidence. 
  144.  Returns
  145.  big_rule_list: A list which contains all big rules. Each big rule is represented 
  146.  as a 3-tuple. 
  147.  ""
  148.  big_rule_list = [] 
  149.  sub_set_list = [] 
  150.  for i in range(0, len(L)): 
  151.  for freq_set in L[i]: 
  152.  for sub_set in sub_set_list: 
  153.  if sub_set.issubset(freq_set): 
  154.  conf = support_data[freq_set] / support_data[freq_set - sub_set] 
  155.  big_rule = (freq_set - sub_set, sub_set, conf) 
  156.  if conf >= min_conf and big_rule not in big_rule_list: 
  157.  # print freq_set-sub_set, " => ", sub_set, "conf: ", conf 
  158.  big_rule_list.append(big_rule) 
  159.  sub_set_list.append(freq_set) 
  160.  return big_rule_list 
  161.  
  162.  
  163. if __name__ == "__main__"
  164.  ""
  165.  Test 
  166.  ""
  167.  data_set = load_data_set() 
  168.  L, support_data = generate_L(data_set, k=3, min_support=0.2) 
  169.  big_rules_list = generate_big_rules(L, support_data, min_conf=0.7) 
  170.  for Lk in L: 
  171.  print "="*50 
  172.  print "frequent " + str(len(list(Lk)[0])) + "-itemsets\t\tsupport" 
  173.  print "="*50 
  174.  for freq_set in Lk: 
  175.  print freq_set, support_data[freq_set] 
  176.  print 
  177.  print "Big Rules" 
  178.  for item in big_rules_list: 
  179.  print item[0], "=>", item[1], "conf: ", item[2] 

代碼運行結果截圖如下:

責任編輯:武曉燕 來源: 36大數(shù)據(jù)
相關推薦

2017-01-19 09:12:39

Apriori算法流程

2010-03-04 15:12:33

Python算法

2017-06-14 09:37:05

R語言Apriori算法

2013-02-25 10:44:13

數(shù)據(jù)分析大數(shù)據(jù)關聯(lián)分析

2022-02-22 15:27:46

數(shù)據(jù)結構容器算法

2023-12-20 08:35:54

Dijkstra算法A*算法計算機圖形學

2010-03-04 13:53:17

Python實現(xiàn)WEB

2010-03-04 11:12:02

Python AOP

2022-04-26 06:15:34

降維算法Python

2024-10-18 17:14:13

2025-01-16 07:10:00

2024-01-04 17:00:59

2010-03-17 17:40:23

Python編程語言

2022-02-11 09:42:21

Swift開發(fā)語言LeetCode

2020-05-08 11:13:28

Python數(shù)據(jù)技術

2024-08-26 14:57:36

2024-03-12 12:49:17

Python算法

2009-08-21 15:02:31

C#加密算法

2010-02-06 18:04:21

Android 接口

2010-06-09 18:08:52

Postfix郵件
點贊
收藏

51CTO技術棧公眾號