Python数据分析案例—商品关联性挖掘(Apriori算法)

浏览: 4606

这是python数据分析案例系列的第三篇,关于Apriori算法及其Python实现。欢迎关注交流!

看前面的基础知识可能会有些晦涩难懂,不过我觉得这些才是做分析的核心知识,不要把精力用在python炫技上。

啤酒与尿布的故事广为人知。我们如何发现买啤酒的人往往也会买尿布这一规律?数据挖掘中的用于挖掘频繁项集和关联规则的Apriori算法可以告诉我们。本文首先对Apriori算法进行简介,而后进一步介绍相关的基本概念,之后详细的介绍Apriori算法的具体策略和步骤,最后给出Python实现代码。

0 (4).gif

Apriori算法使用频繁项集性质的先验知识。Apriori算法使用一种称为逐层搜索的迭代方法,其中k项集用于探索(k+1)项集。首先,通过扫描数据库,累计每个项的计数,并收集满足最小支持度的项,找出频繁1项集的集合(记为L1)。然后,使用L1找出频繁2项集(记为L2),使用L2找到L3,如此下去,直到不能再找到频繁k项集。找出每个Lk需要一次完整的扫描。

基本概念


  • 项与项集:设itemset={item1, item_2, …, item_m}是所有项的集合,其中,item_k(k=1,2,…,m)成为项。项的集合称为项集(itemset),包含k个项的项集称为k项集(k-itemset)。

  • 事务与事务集:一个事务T是一个项集,它是itemset的一个子集,每个事务均与一个唯一标识符Tid相联系。不同的事务一起组成了事务集D,它构成了关联规则发现的事务数据库。

  • 关联规则:关联规则是形如A=>B的蕴涵式,其中A、B均为itemset的子集且均不为空集,而A交B为空。

  • 支持度(support):关联规则的支持度定义如下:


其中表示事务包含集合A和B的并(即包含A和B中的每个项)的概率。注意与P(A or B)区别,后者表示事务包含A或B的概率。

  • 置信度(confidence):关联规则的置信度定义如下:


  • 项集的出现频度(support count):包含项集的事务数,简称为项集的频度、支持度计数或计数。

  • 频繁项集(frequent itemset):如果项集I的相对支持度满足事先定义好的最小支持度阈值(即I的出现频度大于相应的最小出现频度(支持度计数)阈值),则I是频繁项集。

  • 强关联规则:满足最小支持度和最小置信度的关联规则,即待挖掘的关联规则。


实现步骤


一般而言,关联规则的挖掘是一个两步的过程:

    a.找出所有的频繁项集

    b.由频繁项集产生强关联规则

 a.找出所有的频繁项集

  • 每个项都是候选1项集的集合C1的成员。算法扫描所有的事务,获得每个项,生成C1(见下文代码中的create_C1函数)。然后对每个项进行计数。然后根据最小支持度从C1中删除不满足的项,从而获得频繁1项集L1。

  • 对L1的自身连接生成的集合执行剪枝策略产生候选2项集的集合C2,然后,扫描所有事务,对C2中每个项进行计数。同样的,根据最小支持度从C2中删除不满足的项,从而获得频繁2项集L2。

  • 对L2的自身连接生成的集合执行剪枝策略产生候选3项集的集合C3,然后,扫描所有事务,对C3每个项进行计数。同样的,根据最小支持度从C3中删除不满足的项,从而获得频繁3项集L3。

  • 以此类推,对Lk-1的自身连接生成的集合执行剪枝策略产生候选k项集Ck,然后,扫描所有事务,对Ck中的每个项进行计数。然后根据最小支持度从Ck中删除不满足的项,从而获得频繁k项集。


b.由频繁项集产生强关联规则

一旦找出了频繁项集,就可以直接由它们产生强关联规则。产生步骤如下:

  • 对于每个频繁项集itemset,产生itemset的所有非空子集(这些非空子集一定是频繁项集);

  • 对于itemset的每个非空子集s,如果,则输出,其中min_conf是最小置信度阈值。

image.png

分析案例

下面结合一个大家都很熟悉的零售商品的例子具体说明该算法。假设6位顾客在某一超级市场内一共购买了6种商品(实际数据当然比这要大得多)。这6位顾客记TI,T2,T3,T4,T5,T6,6种商品为:面包、牛奶、饼干、果酱、蜂蜜、麦片,分别记为:a,b,c,d,e,f可得到如图1所示的事务数据列表:

image.png

设支持度阈值为3/10,为了便于用整数表示,我们乘以数据库事务就得到最小支持计数2。该试验数据生成频繁项集的过程如下图。

image.png

本文基于上图样例的数据编写Python代码实现Apriori算法。代码需要注意如下两点:


  • 由于Apriori算法假定项集中的项是按字典序排序的,而集合本身是无序的,所以我们在必要时需要进行set和list的转换;

  • 由于要使用字典(support_data)记录项集的支持度,需要用项集作为key,而可变集合无法作为字典的key,因此在合适时机应将项集转为固定集合frozenset。


Python代码如下

"""
# Python 3.6
# Filename: apriori.py
# Author: Roc
# Date: 2017-06-03
"""
def load_data_set():
## A data set: A list of transactions. Each transaction contains several items.
data_set = [['a', 'b', 'd'], ['a', 'b', 'c', 'd'], ['a', 'b', 'd', 'e'],
['b', 'e', 'f'], ['a', 'b', 'd', 'f'], ['a', 'c', 'd', 'e']]
return data_set

def create_C1(data_set):
## Create frequent candidate 1-itemset C1 by scaning data set.
C1 = set()
for t in data_set:
for item in t:
item_set = frozenset([item])
C1.add(item_set)
return C1

def is_apriori(Ck_item, Lksub1):
## Judge whether a frequent candidate k-itemset satisfy Apriori property.
for item in Ck_item:
sub_Ck = Ck_item - frozenset([item])
if sub_Ck not in Lksub1:
return False
return True

def create_Ck(Lksub1, k):
## Create Ck, a set which contains all all frequent candidate k-itemsets
## by Lk-1's own connection operation.
Ck = set()
len_Lksub1 = len(Lksub1)
list_Lksub1 = list(Lksub1)
for i in range(len_Lksub1):
for j in range(1, len_Lksub1):
l1 = list(list_Lksub1[i])
l2 = list(list_Lksub1[j])
l1.sort()
l2.sort()
if l1[0:k-2] == l2[0:k-2]:
Ck_item = list_Lksub1[i] | list_Lksub1[j]
# pruning
if is_apriori(Ck_item, Lksub1):
Ck.add(Ck_item)
return Ck

def generate_Lk_by_Ck(data_set, Ck, min_support, support_data):
## Generate Lk by executing a delete policy from Ck.
Lk = set()
item_count = {}
for t in data_set:
for item in Ck:
if item.issubset(t):
if item not in item_count:
item_count[item] = 1
else:
item_count[item] += 1
t_num = float(len(data_set))
for item in item_count:
if (item_count[item] / t_num) >= min_support:
Lk.add(item)
support_data[item] = item_count[item] / t_num
return Lk

def generate_L(data_set, k, min_support):
## Generate all frequent itemsets.
support_data = {}
C1 = create_C1(data_set)
L1 = generate_Lk_by_Ck(data_set, C1, min_support, support_data)
Lksub1 = L1.copy()
L = []
L.append(Lksub1)
for i in range(2, k+1):
Ci = create_Ck(Lksub1, i)
Li = generate_Lk_by_Ck(data_set, Ci, min_support, support_data)
Lksub1 = Li.copy()
L.append(Lksub1)
return L, support_data

def generate_big_rules(L, support_data, min_conf):
## Generate big rules from frequent itemsets.
big_rule_list = []
sub_set_list = []
for i in range(0, len(L)):
for freq_set in L[i]:
for sub_set in sub_set_list:
if sub_set.issubset(freq_set):
conf = support_data[freq_set] / support_data[freq_set - sub_set]
big_rule = (freq_set - sub_set, sub_set, conf)
if conf >= min_conf and big_rule not in big_rule_list:
# print freq_set-sub_set, " => ", sub_set, "conf: ", conf
big_rule_list.append(big_rule)
sub_set_list.append(freq_set)
return big_rule_list

if __name__ == "__main__":
data_set = load_data_set()
L, support_data = generate_L(data_set, k=3, min_support=0.2)
big_rules_list = generate_big_rules(L, support_data, min_conf=0.7)
for Lk in L:
print ("="*50)
print ("frequent " + str(len(list(Lk)[0])) + "-itemsets\t\tsupport")
print ("="*50)
for freq_set in Lk:
print (freq_set, support_data[freq_set])
print()
print ("Big Rules")
for item in big_rules_list:
print (item[0], "=>", item[1], "conf: ", item[2])

代码运行截图如下:

image.png

各个商品之间的关联度都计算出来了。

总之,关联规则的目的就是求出哪些评价指标之间的联系是紧密的,进而推出它们之间的关系,然后将这些规则转换某个具体的决策方法,可以为决策提供重要的依据,和很好的建议。

关于Apriori算法优化还有许多不明白的地方,有兴趣的可以后台留言交流

推荐 2
本文由 吴小鹏 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册