一、apriori 算法概述
apriori 算法是一种用于关联规则挖掘的经典算法。它用于在大规模数据集中发现频繁项集,进而生成关联规则。关联规则揭示了数据集中项之间的关联关系,常被用于市场篮分析、推荐系统等应用。
以下是 apriori 算法的基本概述:
-
频繁项集:
- 项集(itemset):项集是数据集中的一个或多个项(item)的集合。项可以是任何可以在数据集中唯一标识的元素,例如购物篮中的商品。
- 支持度(support):一个项集的支持度是指包含该项集的事务的数量。支持度用来衡量一个项集在数据集中的普遍程度。
- 频繁项集:一个项集的支持度超过了预定义的阈值,就被称为频繁项集。
-
apriori 原理:
- apriori 原理是一种先验性质,它指出如果一个项集是频繁的,那么它的所有子集也是频繁的。反之,如果一个项集是非频繁的,那么它的所有超集也是非频繁的。这一性质有助于减小搜索空间,提高算法效率。
-
算法流程:
- 生成候选项集:从单个项开始,逐渐生成包含更多项的候选项集。在每一步,通过使用 apriori 原理剪枝,去除不可能是频繁项集的候选项集。
- 计算支持度:对生成的候选项集进行扫描,计算每个候选项集的支持度。
- 生成频繁项集:保留支持度超过预定义阈值的候选项集作为频繁项集。
- 生成关联规则:根据频繁项集生成关联规则,并计算规则的置信度。
-
关联规则:
- 支持度(support):规则的支持度是指包含规则中所有项的事务的数量。
- 置信度(confidence):规则的置信度是指在包含规则中的项的事务中,同时包含规则右侧项的事务的比例。
apriori 算法的主要优点是它相对简单,并且易于理解和实现。然而,在处理大规模数据集时,它可能面临性能挑战。后续的改进算法,如 fp-growth 等,通过不同的方式优化了频繁项集的发现过程,提高了算法的效率。
二、问题的引入
购物篮分析:引发性例子
question:哪组商品顾客可能会在一次购物时同时购买?
关联分析
solutions:
1:经常同时购买的商品可以摆近一点,以便进一步刺激这些商品一起销售。
2:规划哪些附属商品可以降价销售,以便刺激主体商品的捆绑销售。
三、关联分析的基本概念
1、支持度
关联规则a->b的支持度support=p(ab),指的是事件a和事件b同时发生的概率。
支持度(support)是关联规则挖掘中一个重要的概念,用于度量一个项集在数据集中出现的频率。支持度表示一个项集的出现频繁程度,是关联规则挖掘中用于筛选频繁项集的一个指标。
数学上,支持度可以通过以下公式计算:
其中:
- support(x) 是项集 (x) 的支持度。
- “transactions containing (x)” 表示包含项集 (x) 的事务的数量。
- “total transactions” 表示数据集中总的事务数量。
支持度的取值范围是 ([0, 1])。当支持度等于 1 时,表示项集 (x) 出现在所有事务中,即项集 (x) 是一个频繁项集。当支持度小于 1 时,表示项集 (x) 出现的频率相对较低。
在关联规则挖掘中,一般会设置一个支持度的阈值,只保留支持度大于等于阈值的项集作为频繁项集。这样可以过滤掉出现频率较低的项集,提高挖掘的效率。
例如,考虑一个购物篮分析的场景,支持度的解释可能是:某个商品集合(比如购物篮中的商品组合)在所有购物篮中的出现频率。如果我们设置支持度阈值为 0.1(10%),那么只有出现频率超过 10% 的商品集合才被认为是频繁项集。
在 apriori 算法等关联规则挖掘算法中,支持度是用来筛选频繁项集的重要指标,因为频繁项集是生成关联规则的基础。
2、置信度
置信度(confidence)是关联规则挖掘中的另一个重要概念,用于衡量关联规则的可靠性或准确性。置信度表示在一个项集 (x) 出现的条件下,项集 (y) 也出现的概率。
数学上,置信度可以通过以下公式计算:
置信度的取值范围是 ([0, 1])。当置信度等于 1 时,表示规则 (x => y) 总是成立,即项集 (y) 必定在包含项集 (x) 的事务中出现。当置信度小于 1 时,表示规则 (x => y) 的可靠性相对较低。
在关联规则挖掘中,一般会设置一个置信度的阈值,只保留置信度大于等于阈值的关联规则。这样可以过滤掉置信度较低的规则,提高挖掘结果的可靠性。
举例来说,考虑一个购物篮分析的场景,置信度的解释可能是:如果顾客购买了商品集合 (x),那么购买商品 (y) 的概率是多少。如果我们设置置信度阈值为 0.7(70%),则只有当购买商品集合 (x) 的情况下,购买商品 (y) 的概率超过 70% 的规则才被认为是强关联规则。
3、相关性
在数据分析和机器学习中,"相关性"通常指的是两个变量之间的关联或相互关系。相关性的度量可以帮助我们了解两个变量之间的趋势、模式或依赖关系。以下是一些常见的相关性度量方法:
-
皮尔逊相关系数(pearson correlation coefficient):
- 皮尔逊相关系数衡量了两个连续变量之间的线性关系程度。它的取值范围在 ([-1, 1]),其中:
- 1 表示完全正相关,
- 0 表示没有线性相关性,
- -1 表示完全负相关。
公式如下:
- 皮尔逊相关系数衡量了两个连续变量之间的线性关系程度。它的取值范围在 ([-1, 1]),其中:
-
斯皮尔曼等级相关系数(spearman rank correlation coefficient):
- 斯皮尔曼相关系数是基于变量的等级而不是原始值的。它用于测量两个变量的等级之间的单调关系。与皮尔逊相关系数一样,它的取值范围在 ([-1, 1]),其中:
- 1 表示完全正相关,
- 0 表示没有单调关系,
- -1 表示完全负相关。
斯皮尔曼相关系数的计算涉及到对原始数据的等级排序。
- 斯皮尔曼相关系数是基于变量的等级而不是原始值的。它用于测量两个变量的等级之间的单调关系。与皮尔逊相关系数一样,它的取值范围在 ([-1, 1]),其中:
-
判定系数(coefficient of determination,(r^2)):
- 判定系数用于度量因变量的变异中有多少是由自变量解释的。它的取值范围在 ([0, 1]),其中:
- 0 表示模型无法解释因变量的变异,
- 1 表示模型完全解释了因变量的变异。
判定系数可以通过皮尔逊相关系数的平方得到。
- 判定系数用于度量因变量的变异中有多少是由自变量解释的。它的取值范围在 ([0, 1]),其中:
这些相关性度量方法用于量化变量之间的关联程度。在实际应用中,选择合适的相关性度量取决于数据的性质以及我们关心的问题。需要注意的是,相关性并不等同于因果关系,因此在解释相关性时需要谨慎。
4、提升度
提升度(lift)是关联规则挖掘中的一个重要概念,用于衡量两个项集之间的关联程度。提升度告诉我们,包含一个项集的事务中,是否包含另一个项集的发生比例高于基准水平(即两个项集之间的独立性)。提升度的计算如下:
提升度的解释:
- 如果提升度等于 1,表示项集 (x) 和项集 (y) 是独立的,规则 (x \rightarrow y) 对于预测项集 (y) 的出现没有提升效果。
- 如果提升度大于 1,表示项集 (x) 和项集 (y) 之间存在正相关关系,规则 (x \rightarrow y) 对于预测项集 (y) 的出现具有提升效果。
- 如果提升度小于 1,表示项集 (x) 和项集 (y) 之间存在负相关关系,规则 (x \rightarrow y) 对于预测项集 (y) 的出现具有降低效果。
在关联规则挖掘中,我们通常会设置一个提升度的阈值,只保留提升度大于等于阈值的关联规则。这样可以过滤掉那些提升效果不明显的规则,使挖掘结果更具实际意义。
举例来说,考虑一个购物篮分析的场景。如果我们发现规则 (x \rightarrow y) 的提升度为 1.5,意味着购买商品 (x) 的顾客中,购买商品 (y) 的概率比整体平均水平高 50%。这可能意味着商品 (x) 和商品 (y) 之间存在某种关联关系,可以用于制定促销策略或调整商品摆放位置。
5、频繁项集
频繁项集是指在一个数据集中经常出现的项的集合。在关联规则挖掘中,我们关注的是频繁项集的概念。频繁项集挖掘是一种发现数据集中频繁出现的模式的技术,通常用于购物篮分析、推荐系统等领域。
以下是频繁项集的一些关键概念:
-
项集(itemset):
- 项集是数据集中的一个或多个项(item)的集合。项可以是任何可以在数据集中唯一标识的元素,例如购物篮中的商品。
-
支持度(support):
- 支持度是一个项集在数据集中出现的频率,即包含该项集的事务的数量。支持度用于度量一个项集的出现频繁程度。
- 支持度的计算公式为:
-
频繁项集:
- 频繁项集是在数据集中具有较高支持度的项集。具体而言,如果一个项集的支持度超过了预定义的阈值(支持度阈值),则称其为频繁项集。
-
最小支持度阈值:
- 最小支持度阈值是用户事先指定的一个值,用于确定哪些项集被认为是频繁的。只有支持度大于等于最小支持度阈值的项集才被认为是频繁的。
频繁项集挖掘的算法(例如 apriori 算法)会遍历可能的项集,计算它们的支持度,然后根据最小支持度阈值筛选出频繁项集。频繁项集的发现是关联规则挖掘的基础,因为关联规则通常是从频繁项集中导出的。这些规则可以提供关于项之间关联关系的信息,对于理解数据中的模式和趋势很有帮助。
6、关联规则
关联规则是一种用于发现数据集中项之间关联关系的技术。这类规则通常用于购物篮分析、推荐系统等场景,帮助理解数据中的模式和趋势。关联规则包含两个部分:前项(antecedent)和后项(consequent)。规则的形式通常表示为 (x \rightarrow y),其中 (x) 是前项,(y) 是后项。
以下是关联规则的一些关键概念:
关联规则挖掘的过程通常包括以下步骤:
- 找出频繁项集:使用频繁项集挖掘算法(例如 apriori 算法)找到在数据集中具有较高支持度的项集。
- 生成关联规则:从频繁项集中生成关联规则,并计算它们的置信度和提升度。
- 过滤规则:根据用户指定的最小支持度和最小置信度阈值,过滤掉不满足条件的规则。
关联规则挖掘的应用广泛,包括市场篮分析、推荐系统、广告投放优化等领域。这些规则可以帮助企业理解消费者行为,提高商品推荐的准确性,优化营销策略等。
7、超集
在集合论中,如果一个集合 a 的所有元素都是集合 b 的元素,并且集合 b 还包含一些额外的元素,那么集合 b 被称为集合 a 的超集。换句话说,如果对于任意 (x),如果 (x ∈ a),则 (x ∈ b),则集合 b 是集合 a 的超集。
符号表示:如果集合 b 是集合 a 的超集,通常用符号 (a \subseteq b) 表示。这表示集合 a 是集合 b 的子集,或者可以说 b 包含 a。
举例说明:
假设有两个集合:
- 集合 a = {1, 2, 3}
- 集合 b = {1, 2, 3, 4, 5}
在这种情况下,集合 b 包含了集合 a 的所有元素(1、2、3),并且还包含了额外的元素(4、5)。因此,集合 b 是集合 a 的超集,可以写作 (a ⊆ b)。
超集的概念在关联规则挖掘等领域中经常用于描述频繁项集之间的关系。例如,如果一个项集 {a, b} 是频繁项集,那么它的超集 {a, b, c} 也是频繁项集。这是因为包含更多元素的项集在数据中出现的次数通常不会少于它的子集。超集的概念在 apriori 算法等频繁项集挖掘算法中有一定的应用。
四、apriori算法的基本思想:
apriori算法过程分为两个步骤:
第一步通过迭代,检索出事务数据库中的所有频繁项集,即支持度不低于用户设定的阈值的项集;
第二步利用频繁项集构造出满足用户最小信任度的规则。
具体做法就是:
首先找出频繁1-项集,记为l1;然后利用l1来产生候选项集c2,对c2中的项进行判定挖掘出l2,即频繁2-项集;不断如此循环下去直到无法发现更多的频繁k-项集为止。每挖掘一层lk就需要扫描整个数据库一遍。算法利用了一个性质:
apriori 性质:任一频繁项集的所有非空子集也必须是频繁的。意思就是说,生成一个k-itemset的候选项时,如果这个候选项有子集不在(k-1)-itemset(已经确定是frequent的)中时,那么这个候选项就不用拿去和支持度判断了,直接删除。具体而言:
1) 连接步
为找出lk(所有的频繁k项集的集合),通过将lk-1(所有的频繁k-1项集的集合)与自身连接产生候选k项集的集合。候选集合记作ck。设l1和l2是lk-1中的成员。记li[j]表示li中的第j项。假设apriori算法对事务或项集中的项按字典次序排序,即对于(k-1)项集li,li[1]<li[2]<……….<li[k-1]。将lk-1与自身连接,如果(l1[1]=l2[1])&&( l1[2]=l2[2])&&………&& (l1[k-2]=l2[k-2])&&(l1[k-1]<l2[k-1]),那认为l1和l2是可连接。连接l1和l2 产生的结果是{l1[1],l1[2],……,l1[k-1],l2[k-1]}。
2) 剪枝步
ck是lk的超集,也就是说,ck的成员可能是也可能不是频繁的。通过扫描所有的事务(交易),确定ck中每个候选的计数,判断是否小于最小支持度计数,如果不是,则认为该候选是频繁的。为了压缩ck,可以利用apriori性质:任一频繁项集的所有非空子集也必须是频繁的,反之,如果某个候选的非空子集不是频繁的,那么该候选肯定不是频繁的,从而可以将其从ck中删除。
五、实例说明
实例一:下面以图例的方式说明该算法的运行过程: 假设有一个数据库d,其中有4个事务记录,分别表示为:
这里预定最小支持度minsupport=2,下面用图例说明算法运行的过程:
1、扫描d,对每个候选项进行支持度计数得到表c1:
2、比较候选项支持度计数与最小支持度minsupport,产生1维最大项目集l1:
3、由l1产生候选项集c2:
4、扫描d,对每个候选项集进行支持度计数:
5、比较候选项支持度计数与最小支持度minsupport,产生2维最大项目集l2:
6、由l2产生候选项集c3:
7、比较候选项支持度计数与最小支持度minsupport,产生3维最大项目集l3:
算法终止。
实例二:下图从整体同样的能说明此过程:
从算法的运行过程,我们可以看出该apriori算法的优点:简单、易理解、数据要求低,然而我们也可以看到apriori算法的缺点:
(1)在每一步产生侯选项目集时循环产生的组合过多,没有排除不应该参与组合的元素;
(2)每次计算项集的支持度时,都对数据库d中的全部记录进行了一遍扫描比较,如果是一个大型的数据库的话,这种扫描比较会大大增加计算机系统的i/o开销。而这种代价是随着数据库的记录的增加呈现出几何级数的增加。因此人们开始寻求更好性能的算法。
六、改进apriori算法的方法
方法1:基于hash表的项集计数
将每个项集通过相应的hash函数映射到hash表中的不同的桶中,这样可以通过将桶中的项集技术跟最小支持计数相比较先淘汰一部分项集。
方法2:事务压缩(压缩进一步迭代的事务数)
不包含任何k-项集的事务不可能包含任何(k+1)-项集,这种事务在下一步的计算中可以加上标记或删除
方法3:划分
- 挖掘频繁项集只需要两次数据扫描
- d中的任何频繁项集必须作为局部频繁项集至少出现在一个部分中。
- 第一次扫描:将数据划分为多个部分并找到局部频繁项集
- 第二次扫描:评估每个候选项集的实际支持度,以确定全局频繁项集。
方法4:选样(在给定数据的一个子集挖掘)
- 基本思想:选择原始数据的一个样本,在这个样本上用apriori算法挖掘频繁模式
- 通过牺牲精确度来减少算法开销,为了提高效率,样本大小应该以可以放在内存中为宜,可以适当降低最小支持度来减少遗漏的频繁模式
- 可以通过一次全局扫描来验证从样本中发现的模式
- 可以通过第二此全局扫描来找到遗漏的模式
方法5:动态项集计数
在扫描的不同点添加候选项集,这样,如果一个候选项集已经满足最少支持度,则在可以直接将它添加到频繁项集,而不必在这次扫描的以后对比中继续计算。
ps:apriori算法的优化思路
1、在逐层搜索循环过程的第k步中,根据k-1步生成的k-1维频繁项目集来产生k维候选项目集,由于在产生k-1维频繁项目集时,我们可以实现对该集中出现元素的个数进行计数处理,因此对某元素而言,若它的计数个数不到k-1的话,可以事先删除该元素,从而排除由该元素将引起的大规格所有组合。
- 这是因为对某一个元素要成为k维项目集的一元素的话,该元素在k-1阶频繁项目集中的计数次数必须达到k-1个,否则不可能生成k维项目集(性质3)。
2、根据以上思路得到了这个候选项目集后,可以对数据库d的每一个事务进行扫描,若该事务中至少含有候选项目集ck中的一员则保留该项事务,否则把该事物记录与数据库末端没有作删除标记的事务记录对换,并对移到数据库末端的事务记录作删除标一记,整个数据库扫描完毕后为新的事务数据库d’ 中。
- 因此随着k 的增大,d’中事务记录量大大地减少,对于下一次事务扫描可以大大节约i/0 开销。由于顾客一般可能一次只购买几件商品,因此这种虚拟删除的方法可以实现大量的交易记录在以后的挖掘中被剔除出来,在所剩余的不多的记录中再作更高维的数据挖掘是可以大大地节约时间的。
实例过程如下图:
- 当然还有很多相应的优化算法,比如针对apriori算法的性能瓶颈问题-需要产生大量候选项集和需要重复地扫描数据库,2000年jiawei han等人提出了基于fp树生成频繁项集的fp-growth算法。该算法只进行2次数据库扫描且它不使用侯选集,直接压缩数据库成一个频繁模式树,最后通过这棵树生成关联规则。研究表明它比apriori算法大约快一个数量级。
apriori 原理
假设我们一共有 4 个商品: 商品0, 商品1, 商品2, 商品3。 所有可能的情况如下:
如果我们计算所有组合的支持度,也需要计算 15 次。即 2^n - 1 = 2^4 - 1 = 15。
随着物品的增加,计算的次数呈指数的形式增长 …
为了降低计算次数和时间,研究人员发现了一种所谓的 apriori 原理,即某个项集是频繁的,那么它的所有子集也是频繁的。 例如,如果 {0, 1} 是频繁的,那么 {0}, {1} 也是频繁的。 该原理直观上没有什么帮助,但是如果反过来看就有用了,也就是说如果一个项集是 非频繁项集,那么它的所有超集也是非频繁项集,如下图所示:
apriori 算法优缺点
- 优点:易编码实现
- 缺点:在大数据集上可能较慢
- 适用数据类型:数值型 或者 标称型数据。
apriori 算法流程步骤:
- 收集数据:使用任意方法。
- 准备数据:任何数据类型都可以,因为我们只保存集合。
- 分析数据:使用任意方法。
- 训练数据:使用apiori算法来找到频繁项集。
- 测试算法:不需要测试过程。
- 使用算法:用于发现频繁项集以及物品之间的关联规则。
apriori 算法的使用
前面提到,关联分析的目标包括两项: 发现 频繁项集 和发现 关联规则。 首先需要找到 频繁项集,然后才能发现 关联规则。 apriori 算法是发现 频繁项集 的一种方法。 apriori 算法的两个输入参数分别是最小支持度和数据集。 该算法首先会生成所有单个物品的项集列表。 接着扫描交易记录来查看哪些项集满足最小支持度要求,那些不满足最小支持度要求的集合会被去掉。 燃尽后对生下来的集合进行组合以声场包含两个元素的项集。 接下来再重新扫描交易记录,去掉不满足最小支持度的项集。 该过程重复进行直到所有项集被去掉。
生成候选项集
下面会创建一个用于构建初始集合的函数,也会创建一个通过扫描数据集以寻找交易记录子集的函数, 数据扫描的伪代码如下:
-
对数据集中的每条交易记录 tran
-
对每个候选项集 can
- 检查一下 can 是否是 tran 的子集: 如果是则增加 can 的计数值
-
对每个候选项集:
- 如果其支持度不低于最小值,则保留该项集
- 返回所有频繁项集列表 以下是一些辅助函数。
代码演示:
加载数据集
# 加载数据集
def loaddataset():
return [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]
创建集合 c1。即对 dataset 进行去重,排序,放入 list 中,然后转换所有的元素为 frozenset
# 创建集合 c1。即对 dataset 进行去重,排序,放入 list 中,然后转换所有的元素为 frozenset
def createc1(dataset):
"""createc1(创建集合 c1)
args:
dataset 原始数据集
returns:
frozenset 返回一个 frozenset 格式的 list
"""
c1 = []
for transaction in dataset:
for item in transaction:
if not [item] in c1:
# 遍历所有的元素,如果不在 c1 出现过,那么就 append
c1.append([item])
# 对数组进行 `从小到大` 的排序
print 'sort 前=', c1
c1.sort()
# frozenset 表示冻结的 set 集合,元素无改变;可以把它当字典的 key 来使用
print 'sort 后=', c1
print 'frozenset=', map(frozenset, c1)
return map(frozenset, c1)
计算候选数据集 ck 在数据集 d 中的支持度,并返回支持度大于最小支持度(minsupport)的数据
# 计算候选数据集 ck 在数据集 d 中的支持度,并返回支持度大于最小支持度(minsupport)的数据
def scand(d, ck, minsupport):
"""scand(计算候选数据集 ck 在数据集 d 中的支持度,并返回支持度大于最小支持度 minsupport 的数据)
args:
d 数据集
ck 候选项集列表
minsupport 最小支持度
returns:
retlist 支持度大于 minsupport 的集合
supportdata 候选项集支持度数据
"""
# sscnt 临时存放选数据集 ck 的频率. 例如: a->10, b->5, c->8
sscnt = {}
for tid in d:
for can in ck:
# s.issubset(t) 测试是否 s 中的每一个元素都在 t 中
if can.issubset(tid):
if not sscnt.has_key(can):
sscnt[can] = 1
else:
sscnt[can] += 1
numitems = float(len(d)) # 数据集 d 的数量
retlist = []
supportdata = {}
for key in sscnt:
# 支持度 = 候选项(key)出现的次数 / 所有数据集的数量
support = sscnt[key]/numitems
if support >= minsupport:
# 在 retlist 的首位插入元素,只存储支持度满足频繁项集的值
retlist.insert(0, key)
# 存储所有的候选项(key)和对应的支持度(support)
supportdata[key] = support
return retlist, supportdata
组织完整的 apriori 算法
输入频繁项集列表 lk 与返回的元素个数 k,然后输出所有可能的候选项集 ck
# 输入频繁项集列表 lk 与返回的元素个数 k,然后输出所有可能的候选项集 ck
def apriorigen(lk, k):
"""apriorigen(输入频繁项集列表 lk 与返回的元素个数 k,然后输出候选项集 ck。
例如: 以 {0},{1},{2} 为输入且 k = 2 则输出 {0,1}, {0,2}, {1,2}. 以 {0,1},{0,2},{1,2} 为输入且 k = 3 则输出 {0,1,2}
仅需要计算一次,不需要将所有的结果计算出来,然后进行去重操作
这是一个更高效的算法)
args:
lk 频繁项集列表
k 返回的项集元素个数(若元素的前 k-2 相同,就进行合并)
returns:
retlist 元素两两合并的数据集
"""
retlist = []
lenlk = len(lk)
for i in range(lenlk):
for j in range(i+1, lenlk):
l1 = list(lk[i])[: k-2]
l2 = list(lk[j])[: k-2]
# print '-----i=', i, k-2, lk, lk[i], list(lk[i])[: k-2]
# print '-----j=', j, k-2, lk, lk[j], list(lk[j])[: k-2]
l1.sort()
l2.sort()
# 第一次 l1,l2 为空,元素直接进行合并,返回元素两两合并的数据集
# if first k-2 elements are equal
if l1 == l2:
# set union
# print 'union=', lk[i] | lk[j], lk[i], lk[j]
retlist.append(lk[i] | lk[j])
return retlist
找出数据集 dataset 中支持度 >= 最小支持度的候选项集以及它们的支持度。即我们的频繁项集。
# 找出数据集 dataset 中支持度 >= 最小支持度的候选项集以及它们的支持度。即我们的频繁项集。
def apriori(dataset, minsupport=0.5):
"""apriori(首先构建集合 c1,然后扫描数据集来判断这些只有一个元素的项集是否满足最小支持度的要求。那么满足最小支持度要求的项集构成集合 l1。然后 l1 中的元素相互组合成 c2,c2 再进一步过滤变成 l2,然后以此类推,知道 cn 的长度为 0 时结束,即可找出所有频繁项集的支持度。)
args:
dataset 原始数据集
minsupport 支持度的阈值
returns:
l 频繁项集的全集
supportdata 所有元素和支持度的全集
"""
# c1 即对 dataset 进行去重,排序,放入 list 中,然后转换所有的元素为 frozenset
c1 = createc1(dataset)
# 对每一行进行 set 转换,然后存放到集合中
d = map(set, dataset)
print 'd=', d
# 计算候选数据集 c1 在数据集 d 中的支持度,并返回支持度大于 minsupport 的数据
l1, supportdata = scand(d, c1, minsupport)
# print "l1=", l1, "\n", "outcome: ", supportdata
# l 加了一层 list, l 一共 2 层 list
l = [l1]
k = 2
# 判断 l 的第 k-2 项的数据长度是否 > 0。第一次执行时 l 为 [[frozenset([1]), frozenset([3]), frozenset([2]), frozenset([5])]]。l[k-2]=l[0]=[frozenset([1]), frozenset([3]), frozenset([2]), frozenset([5])],最后面 k += 1
while (len(l[k-2]) > 0):
print 'k=', k, l, l[k-2]
ck = apriorigen(l[k-2], k) # 例如: 以 {0},{1},{2} 为输入且 k = 2 则输出 {0,1}, {0,2}, {1,2}. 以 {0,1},{0,2},{1,2} 为输入且 k = 3 则输出 {0,1,2}
print 'ck', ck
lk, supk = scand(d, ck, minsupport) # 计算候选数据集 ck 在数据集 d 中的支持度,并返回支持度大于 minsupport 的数据
# 保存所有候选项集的支持度,如果字典没有,就追加元素,如果有,就更新元素
supportdata.update(supk)
if len(lk) == 0:
break
# lk 表示满足频繁子项的集合,l 元素在增加,例如:
# l=[[set(1), set(2), set(3)]]
# l=[[set(1), set(2), set(3)], [set(1, 2), set(2, 3)]]
l.append(lk)
k += 1
# print 'k=', k, len(l[k-2])
return l, supportdata
到这一步,我们就找出我们所需要的 频繁项集 和他们的 支持度 了,接下来再找出关联规则即可!
从频繁项集中挖掘关联规则
前面我们介绍了用于发现 频繁项集 的 apriori 算法,现在要解决的问题是如何找出 关联规则。
要找到 关联规则,我们首先从一个 频繁项集 开始。 我们知道集合中的元素是不重复的,但我们想知道基于这些元素能否获得其它内容。 某个元素或某个元素集合可能会推导出另一个元素。 从先前 杂货店 的例子可以得到,如果有一个频繁项集 {豆奶,莴苣},那么就可能有一条关联规则 “豆奶 -> 莴苣”。 这意味着如果有人买了豆奶,那么在统计上他会购买莴苣的概率比较大。 但是,这一条件反过来并不总是成立。 也就是说 “豆奶 -> 莴苣” 统计上显著,那么 “莴苣 -> 豆奶” 也不一定成立。
前面我们给出了 频繁项集 的量化定义,即它满足最小支持度要求。
对于 关联规则,我们也有类似的量化方法,这种量化指标称之为 可信度。
一条规则 a -> b 的可信度定义为 support(a | b) / support(a)。(注意: 在 python 中 | 表示集合的并操作,而数学书集合并的符号是 u)。
a | b 是指所有出现在集合 a 或者集合 b 中的元素。 由于我们先前已经计算出所有 频繁项集 的支持度了,现在我们要做的只不过是提取这些数据做一次除法运算即可。
一个频繁项集可以产生多少条关联规则呢?
如下图所示,给出的是项集 {0,1,2,3} 产生的所有关联规则:
与我们前面的 频繁项集 生成一样,我们可以为每个频繁项集产生许多关联规则。
如果能减少规则的数目来确保问题的可解析,那么计算起来就会好很多。
通过观察,我们可以知道,如果某条规则并不满足 最小可信度 要求,那么该规则的所有子集也不会满足 最小可信度 的要求。 如上图所示,假设 123 -> 3 并不满足最小可信度要求,那么就知道任何左部为 {0,1,2} 子集的规则也不会满足 最小可信度 的要求。 即 12 -> 03 , 02 -> 13 , 01 -> 23 , 2 -> 013, 1 -> 023, 0 -> 123 都不满足 最小可信度 要求。
可以利用关联规则的上述性质属性来减少需要测试的规则数目,跟先前 apriori 算法的套路一样。 以下是一些辅助函数:
计算可信度
# 计算可信度(confidence)
def calcconf(freqset, h
, supportdata, brl, minconf=0.7):
"""calcconf(对两个元素的频繁项,计算可信度,例如: {1,2}/{1} 或者 {1,2}/{2} 看是否满足条件)
args:
freqset 频繁项集中的元素,例如: frozenset([1, 3])
h 频繁项集中的元素的集合,例如: [frozenset([1]), frozenset([3])]
supportdata 所有元素的支持度的字典
brl 关联规则列表的空数组
minconf 最小可信度
returns:
prunedh 记录 可信度大于阈值的集合
"""
# 记录可信度大于最小可信度(minconf)的集合
prunedh = []
for conseq in h: # 假设 freqset = frozenset([1, 3]), h = [frozenset([1]), frozenset([3])],那么现在需要求出 frozenset([1]) -> frozenset([3]) 的可信度和 frozenset([3]) -> frozenset([1]) 的可信度
# print 'confdata=', freqset, h, conseq, freqset-conseq
conf = supportdata[freqset]/supportdata[freqset-conseq] # 支持度定义: a -> b = support(a | b) / support(a). 假设 freqset = frozenset([1, 3]), conseq = [frozenset([1])],那么 frozenset([1]) 至 frozenset([3]) 的可信度为 = support(a | b) / support(a) = supportdata[freqset]/supportdata[freqset-conseq] = supportdata[frozenset([1, 3])] / supportdata[frozenset([1])]
if conf >= minconf:
# 只要买了 freqset-conseq 集合,一定会买 conseq 集合(freqset-conseq 集合和 conseq 集合是全集)
print freqset-conseq, '-->', conseq, 'conf:', conf
brl.append((freqset-conseq, conseq, conf))
prunedh.append(conseq)
return prunedh
递归计算频繁项集的规则
# 递归计算频繁项集的规则
def rulesfromconseq(freqset, h, supportdata, brl, minconf=0.7):
"""rulesfromconseq
args:
freqset 频繁项集中的元素,例如: frozenset([2, 3, 5])
h 频繁项集中的元素的集合,例如: [frozenset([2]), frozenset([3]), frozenset([5])]
supportdata 所有元素的支持度的字典
brl 关联规则列表的数组
minconf 最小可信度
"""
# h[0] 是 freqset 的元素组合的第一个元素,并且 h 中所有元素的长度都一样,长度由 apriorigen(h, m+1) 这里的 m + 1 来控制
# 该函数递归时,h[0] 的长度从 1 开始增长 1 2 3 ...
# 假设 freqset = frozenset([2, 3, 5]), h = [frozenset([2]), frozenset([3]), frozenset([5])]
# 那么 m = len(h[0]) 的递归的值依次为 1 2
# 在 m = 2 时, 跳出该递归。假设再递归一次,那么 h[0] = frozenset([2, 3, 5]),freqset = frozenset([2, 3, 5]) ,没必要再计算 freqset 与 h[0] 的关联规则了。
m = len(h[0])
if (len(freqset) > (m + 1)):
print 'freqset******************', len(freqset), m + 1, freqset, h, h[0]
# 生成 m+1 个长度的所有可能的 h 中的组合,假设 h = [frozenset([2]), frozenset([3]), frozenset([5])]
# 第一次递归调用时生成 [frozenset([2, 3]), frozenset([2, 5]), frozenset([3, 5])]
# 第二次 。。。没有第二次,递归条件判断时已经退出了
hmp1 = apriorigen(h, m+1)
# 返回可信度大于最小可信度的集合
hmp1 = calcconf(freqset, hmp1, supportdata, brl, minconf)
print 'hmp1=', hmp1
print 'len(hmp1)=', len(hmp1), 'len(freqset)=', len(freqset)
# 计算可信度后,还有数据大于最小可信度的话,那么继续递归调用,否则跳出递归
if (len(hmp1) > 1):
print '----------------------', hmp1
# print len(freqset), len(hmp1[0]) + 1
rulesfromconseq(freqset, hmp1, supportdata, brl, minconf)
生成关联规则
# 生成关联规则
def generaterules(l, supportdata, minconf=0.7):
"""generaterules
args:
l 频繁项集列表
supportdata 频繁项集支持度的字典
minconf 最小置信度
returns:
bigrulelist 可信度规则列表(关于 (a->b+置信度) 3个字段的组合)
"""
bigrulelist = []
# 假设 l = [[frozenset([1]), frozenset([3]), frozenset([2]), frozenset([5])], [frozenset([1, 3]), frozenset([2, 5]), frozenset([2, 3]), frozenset([3, 5])], [frozenset([2, 3, 5])]]
for i in range(1, len(l)):
# 获取频繁项集中每个组合的所有元素
for freqset in l[i]:
# 假设:freqset= frozenset([1, 3]), h1=[frozenset([1]), frozenset([3])]
# 组合总的元素并遍历子元素,并转化为 frozenset 集合,再存放到 list 列表中
h1 = [frozenset([item]) for item in freqset]
# 2 个的组合,走 else, 2 个以上的组合,走 if
if (i > 1):
rulesfromconseq(freqset, h1, supportdata, bigrulelist, minconf)
else:
calcconf(freqset, h1, supportdata, bigrulelist, minconf)
return bigrulelist
到这里为止,通过调用 generaterules 函数即可得出我们所需的 关联规则。
- 分级法: 频繁项集->关联规则:
-
- 首先从一个频繁项集开始,接着创建一个规则列表,其中规则右部分只包含一个元素,然后对这个规则进行测试。
-
- 接下来合并所有剩余规则来创建一个新的规则列表,其中规则右部包含两个元素。
如下图:
- 接下来合并所有剩余规则来创建一个新的规则列表,其中规则右部包含两个元素。
最后: 每次增加频繁项集的大小,apriori 算法都会重新扫描整个数据集,是否有优化空间呢? 下一章:fp-growth算法等着你的到来。
完整代码:
#项目案例
#!/usr/bin/python
# coding: utf8
'''
created on mar 24, 2011
update on 2017-05-18
ch 11 code
@author: peter/片刻
《机器学习实战》更新地址:https://github.com/apachecn/machinelearning'''
print(__doc__)
from numpy import *
# 加载数据集
def loaddataset():
return [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]
# 创建集合 c1。即对 dataset 进行去重,排序,放入 list 中,然后转换所有的元素为 frozenset
def createc1(dataset):
"""createc1(创建集合 c1)
args:
dataset 原始数据集
returns:
frozenset 返回一个 frozenset 格式的 list
"""
c1 = []
for transaction in dataset:
for item in transaction:
if not [item] in c1:
# 遍历所有的元素,如果不在 c1 出现过,那么就 append
c1.append([item])
# 对数组进行 `从小到大` 的排序
# print 'sort 前=', c1
c1.sort()
# frozenset 表示冻结的 set 集合,元素无改变;可以把它当字典的 key 来使用
# print 'sort 后=', c1
# print 'frozenset=', map(frozenset, c1)
return list(map(frozenset, c1))
# 计算候选数据集 ck 在数据集 d 中的支持度,并返回支持度大于最小支持度(minsupport)的数据
def scand(d, ck, minsupport):
"""scand(计算候选数据集 ck 在数据集 d 中的支持度,并返回支持度大于最小支持度 minsupport 的数据)
args:
d 数据集
ck 候选项集列表
minsupport 最小支持度
returns:
retlist 支持度大于 minsupport 的集合
supportdata 候选项集支持度数据
"""
# sscnt 临时存放选数据集 ck 的频率. 例如: a->10, b->5, c->8
sscnt = {}
for tid in d:
for can in ck:
# s.issubset(t) 测试是否 s 中的每一个元素都在 t 中
if can.issubset(tid):
if can not in sscnt:
sscnt[can] = 1
else:
sscnt[can] += 1
numitems = float(len(d)) # 数据集 d 的数量
retlist = []
supportdata = {}
for key in sscnt:
# 支持度 = 候选项(key)出现的次数 / 所有数据集的数量
support = sscnt[key]/numitems
if support >= minsupport:
# 在 retlist 的首位插入元素,只存储支持度满足频繁项集的值
retlist.insert(0, key)
# 存储所有的候选项(key)和对应的支持度(support)
supportdata[key] = support
return retlist, supportdata
# 输入频繁项集列表 lk 与返回的元素个数 k,然后输出所有可能的候选项集 ck
def apriorigen(lk, k):
"""apriorigen(输入频繁项集列表 lk 与返回的元素个数 k,然后输出候选项集 ck。
例如: 以 {0},{1},{2} 为输入且 k = 2 则输出 {0,1}, {0,2}, {1,2}. 以 {0,1},{0,2},{1,2} 为输入且 k = 3 则输出 {0,1,2}
仅需要计算一次,不需要将所有的结果计算出来,然后进行去重操作
这是一个更高效的算法)
args:
lk 频繁项集列表
k 返回的项集元素个数(若元素的前 k-2 相同,就进行合并)
returns:
retlist 元素两两合并的数据集
"""
retlist = []
lenlk = len(lk)
for i in range(lenlk):
for j in range(i+1, lenlk):
l1 = list(lk[i])[: k-2]
l2 = list(lk[j])[: k-2]
# print '-----i=', i, k-2, lk, lk[i], list(lk[i])[: k-2]
# print '-----j=', j, k-2, lk, lk[j], list(lk[j])[: k-2]
l1.sort()
l2.sort()
# 第一次 l1,l2 为空,元素直接进行合并,返回元素两两合并的数据集
# if first k-2 elements are equal
if l1 == l2:
# set union
# print 'union=', lk[i] | lk[j], lk[i], lk[j]
retlist.append(lk[i] | lk[j])
return retlist
# 找出数据集 dataset 中支持度 >= 最小支持度的候选项集以及它们的支持度。即我们的频繁项集。
def apriori(dataset, minsupport=0.5):
"""apriori(首先构建集合 c1,然后扫描数据集来判断这些只有一个元素的项集是否满足最小支持度的要求。那么满足最小支持度要求的项集构成集合 l1。然后 l1 中的元素相互组合成 c2,c2 再进一步过滤变成 l2,然后以此类推,知道 cn 的长度为 0 时结束,即可找出所有频繁项集的支持度。)
args:
dataset 原始数据集
minsupport 支持度的阈值
returns:
l 频繁项集的全集
supportdata 所有元素和支持度的全集
"""
# c1 即对 dataset 进行去重,排序,放入 list 中,然后转换所有的元素为 frozenset
c1 = createc1(dataset)
# print 'c1: ', c1
# 对每一行进行 set 转换,然后存放到集合中
d = list(map(set, dataset))
# print 'd=', d
# 计算候选数据集 c1 在数据集 d 中的支持度,并返回支持度大于 minsupport 的数据
l1, supportdata = scand(d, c1, minsupport)
# print "l1=", l1, "\n", "outcome: ", supportdata
# l 加了一层 list, l 一共 2 层 list
l = [l1]
k = 2
# 判断 l 的第 k-2 项的数据长度是否 > 0。第一次执行时 l 为 [[frozenset([1]), frozenset([3]), frozenset([2]), frozenset([5])]]。l[k-2]=l[0]=[frozenset([1]), frozenset([3]), frozenset([2]), frozenset([5])],最后面 k += 1
while (len(l[k-2]) > 0):
# print 'k=', k, l, l[k-2]
ck = apriorigen(l[k-2], k) # 例如: 以 {0},{1},{2} 为输入且 k = 2 则输出 {0,1}, {0,2}, {1,2}. 以 {0,1},{0,2},{1,2} 为输入且 k = 3 则输出 {0,1,2}
# print 'ck', ck
lk, supk = scand(d, ck, minsupport) # 计算候选数据集 ck 在数据集 d 中的支持度,并返回支持度大于 minsupport 的数据
# 保存所有候选项集的支持度,如果字典没有,就追加元素,如果有,就更新元素
supportdata.update(supk)
if len(lk) == 0:
break
# lk 表示满足频繁子项的集合,l 元素在增加,例如:
# l=[[set(1), set(2), set(3)]]
# l=[[set(1), set(2), set(3)], [set(1, 2), set(2, 3)]]
l.append(lk)
k += 1
# print 'k=', k, len(l[k-2])
return l, supportdata
# 计算可信度(confidence)
def calcconf(freqset, h, supportdata, brl, minconf=0.7):
"""calcconf(对两个元素的频繁项,计算可信度,例如: {1,2}/{1} 或者 {1,2}/{2} 看是否满足条件)
args:
freqset 频繁项集中的元素,例如: frozenset([1, 3])
h 频繁项集中的元素的集合,例如: [frozenset([1]), frozenset([3])]
supportdata 所有元素的支持度的字典
brl 关联规则列表的空数组
minconf 最小可信度
returns:
prunedh 记录 可信度大于阈值的集合
"""
# 记录可信度大于最小可信度(minconf)的集合
prunedh = []
for conseq in h: # 假设 freqset = frozenset([1, 3]), h = [frozenset([1]), frozenset([3])],那么现在需要求出 frozenset([1]) -> frozenset([3]) 的可信度和 frozenset([3]) -> frozenset([1]) 的可信度
# print 'confdata=', freqset, h, conseq, freqset-conseq
conf = supportdata[freqset]/supportdata[freqset-conseq] # 支持度定义: a -> b = support(a | b) / support(a). 假设 freqset = frozenset([1, 3]), conseq = [frozenset([1])],那么 frozenset([1]) 至 frozenset([3]) 的可信度为 = support(a | b) / support(a) = supportdata[freqset]/supportdata[freqset-conseq] = supportdata[frozenset([1, 3])] / supportdata[frozenset([1])]
if conf >= minconf:
# 只要买了 freqset-conseq 集合,一定会买 conseq 集合(freqset-conseq 集合和 conseq集合 是全集)
print (freqset-conseq, '-->', conseq, 'conf:', conf)
brl.append((freqset-conseq, conseq, conf))
prunedh.append(conseq)
return prunedh
# 递归计算频繁项集的规则
def rulesfromconseq(freqset, h, supportdata, brl, minconf=0.7):
"""rulesfromconseq
args:
freqset 频繁项集中的元素,例如: frozenset([2, 3, 5])
h 频繁项集中的元素的集合,例如: [frozenset([2]), frozenset([3]), frozenset([5])]
supportdata 所有元素的支持度的字典
brl 关联规则列表的数组
minconf 最小可信度
"""
# h[0] 是 freqset 的元素组合的第一个元素,并且 h 中所有元素的长度都一样,长度由 apriorigen(h, m+1) 这里的 m + 1 来控制
# 该函数递归时,h[0] 的长度从 1 开始增长 1 2 3 ...
# 假设 freqset = frozenset([2, 3, 5]), h = [frozenset([2]), frozenset([3]), frozenset([5])]
# 那么 m = len(h[0]) 的递归的值依次为 1 2
# 在 m = 2 时, 跳出该递归。假设再递归一次,那么 h[0] = frozenset([2, 3, 5]),freqset = frozenset([2, 3, 5]) ,没必要再计算 freqset 与 h[0] 的关联规则了。
m = len(h[0])
if (len(freqset) > (m + 1)):
# print 'freqset******************', len(freqset), m + 1, freqset, h, h[0]
# 生成 m+1 个长度的所有可能的 h 中的组合,假设 h = [frozenset([2]), frozenset([3]), frozenset([5])]
# 第一次递归调用时生成 [frozenset([2, 3]), frozenset([2, 5]), frozenset([3, 5])]
# 第二次 。。。没有第二次,递归条件判断时已经退出了
hmp1 = apriorigen(h, m+1)
# 返回可信度大于最小可信度的集合
hmp1 = calcconf(freqset, hmp1, supportdata, brl, minconf)
print ('hmp1=', hmp1)
print ('len(hmp1)=', len(hmp1), 'len(freqset)=', len(freqset))
# 计算可信度后,还有数据大于最小可信度的话,那么继续递归调用,否则跳出递归
if (len(hmp1) > 1):
# print '----------------------', hmp1
# print len(freqset), len(hmp1[0]) + 1
rulesfromconseq(freqset, hmp1, supportdata, brl, minconf)
# 生成关联规则
def generaterules(l, supportdata, minconf=0.7):
"""generaterules
args:
l 频繁项集列表
supportdata 频繁项集支持度的字典
minconf 最小置信度
returns:
bigrulelist 可信度规则列表(关于 (a->b+置信度) 3个字段的组合)
"""
bigrulelist = []
# 假设 l = [[frozenset([1]), frozenset([3]), frozenset([2]), frozenset([5])], [frozenset([1, 3]), frozenset([2, 5]), frozenset([2, 3]), frozenset([3, 5])], [frozenset([2, 3, 5])]]
for i in range(1, len(l)):
# 获取频繁项集中每个组合的所有元素
for freqset in l[i]:
# 假设:freqset= frozenset([1, 3]), h1=[frozenset([1]), frozenset([3])]
# 组合总的元素并遍历子元素,并转化为 frozenset 集合,再存放到 list 列表中
h1 = [frozenset([item]) for item in freqset]
# 2 个的组合,走 else, 2 个以上的组合,走 if
if (i > 1):
rulesfromconseq(freqset, h1, supportdata, bigrulelist, minconf)
else:
calcconf(freqset, h1, supportdata, bigrulelist, minconf)
return bigrulelist
def getactionids():
from time import sleep
from votesmart import votesmart
# votesmart.apikey = 'get your api key first'
votesmart.apikey = 'a7fa40adec6f4a77178799fae4441030'
actionidlist = []
billtitlelist = []
fr = open('input/11.apriori/recent20bills.txt')
for line in fr.readlines():
billnum = int(line.split('\t')[0])
try:
billdetail = votesmart.votes.getbill(billnum) # api call
for action in billdetail.actions:
if action.level == 'house' and (action.stage == 'passage' or action.stage == 'amendment vote'):
actionid = int(action.actionid)
print ('bill: %d has actionid: %d' % (billnum, actionid))
actionidlist.append(actionid)
billtitlelist.append(line.strip().split('\t')[1])
except:
print ("problem getting bill %d" % billnum)
sleep(1) # delay to be polite
return actionidlist, billtitlelist
def gettranslist(actionidlist, billtitlelist): #this will return a list of lists containing ints
itemmeaning = ['republican', 'democratic']#list of what each item stands for
for billtitle in billtitlelist:#fill up itemmeaning list
itemmeaning.append('%s -- nay' % billtitle)
itemmeaning.append('%s -- yea' % billtitle)
transdict = {}#list of items in each transaction (politician)
votecount = 2
for actionid in actionidlist:
sleep(3)
print ('getting votes for actionid: %d' % actionid)
try:
votelist = votesmart.votes.getbillactionvotes(actionid)
for vote in votelist:
if not transdict.has_key(vote.candidatename):
transdict[vote.candidatename] = []
if vote.officeparties == 'democratic':
transdict[vote.candidatename].append(1)
elif vote.officeparties == 'republican':
transdict[vote.candidatename].append(0)
if vote.action == 'nay':
transdict[vote.candidatename].append(votecount)
elif vote.action == 'yea':
transdict[vote.candidatename].append(votecount + 1)
except:
print ("problem getting actionid: %d" % actionid)
votecount += 2
return transdict, itemmeaning
# 暂时没用上
# def pntrules(rulelist, itemmeaning):
# for ruletup in rulelist:
# for item in ruletup[0]:
# print itemmeaning[item]
# print " -------->"
# for item in ruletup[1]:
# print itemmeaning[item]
# print "confidence: %f" % ruletup[2]
# print #print a blank line
def testapriori():
# 加载测试数据集
dataset = loaddataset()
print ('dataset: ', dataset)
# apriori 算法生成频繁项集以及它们的支持度
l1, supportdata1 = apriori(dataset, minsupport=0.7)
print ('l(0.7): ', l1)
print ('supportdata(0.7): ', supportdata1)
print ('->->->->->->->->->->->->->->->->->->->->->->->->->->->->')
# apriori 算法生成频繁项集以及它们的支持度
l2, supportdata2 = apriori(dataset, minsupport=0.5)
print ('l(0.5): ', l2)
print ('supportdata(0.5): ', supportdata2)
def testgeneraterules():
# 加载测试数据集
dataset = loaddataset()
print ('dataset: ', dataset)
# apriori 算法生成频繁项集以及它们的支持度
l1, supportdata1 = apriori(dataset, minsupport=0.5)
print ('l(0.7): ', l1)
print ('supportdata(0.7): ', supportdata1)
# 生成关联规则
rules = generaterules(l1, supportdata1, minconf=0.5)
print ('rules: ', rules)
def main():
# 测试 apriori 算法
# testapriori()
# 生成关联规则
# testgeneraterules()
##项目案例
# # 构建美国国会投票记录的事务数据集
# actionidlist, billtitlelist = getactionids()
# # 测试前2个
# transdict, itemmeaning = gettranslist(actionidlist[: 2], billtitlelist[: 2])
#transdict 表示 action_id的集合,transdict[key]这个就是action_id对应的选项,例如 [1, 2, 3]
# transdict, itemmeaning = gettranslist(actionidlist, billtitlelist)
# # 得到全集的数据
# dataset = [transdict[key] for key in transdict.keys()]
# l, supportdata = apriori(dataset, minsupport=0.3)
# rules = generaterules(l, supportdata, minconf=0.95)
# print (rules)
# # 项目案例
# # 发现毒蘑菇的相似特性
# # 得到全集的数据
dataset = [line.split() for line in open("datalab/6132/mushroom.txt").readlines()]
l, supportdata = apriori(dataset, minsupport=0.3)
# # 2表示毒蘑菇,1表示可食用的蘑菇
# # 找出关于2的频繁子项出来,就知道如果是毒蘑菇,那么出现频繁的也可能是毒蘑菇
for item in l[1]:
if item.intersection('2'):
print (item)
for item in l[2]:
if item.intersection('2'):
print (item)
if __name__ == "__main__":
main()
created on mar 24, 2011
update on 2017-05-18
ch 11 code
@author: peter/片刻
《机器学习实战》更新地址:https://github.com/apachecn/machinelearning
frozenset({‘2’, ‘28’})
frozenset({‘2’, ‘53’})
frozenset({‘2’, ‘23’})
frozenset({‘34’, ‘2’})
frozenset({‘2’, ‘36’})
frozenset({‘2’, ‘59’})
frozenset({‘2’, ‘63’})
frozenset({‘2’, ‘67’})
frozenset({‘2’, ‘76’})
frozenset({‘2’, ‘85’})
frozenset({‘2’, ‘86’})
frozenset({‘2’, ‘90’})
frozenset({‘2’, ‘93’})
frozenset({‘39’, ‘2’})
frozenset({‘39’, ‘53’, ‘2’})
frozenset({‘2’, ‘53’, ‘90’})
frozenset({‘2’, ‘53’, ‘86’})
frozenset({‘2’, ‘53’, ‘85’})
frozenset({‘34’, ‘2’, ‘53’})
frozenset({‘39’, ‘2’, ‘28’})
frozenset({‘2’, ‘90’, ‘28’})
frozenset({‘2’, ‘86’, ‘28’})
frozenset({‘2’, ‘28’, ‘85’})
frozenset({‘2’, ‘28’, ‘63’})
frozenset({‘59’, ‘2’, ‘28’})
frozenset({‘2’, ‘53’, ‘28’})
frozenset({‘34’, ‘2’, ‘28’})
frozenset({‘39’, ‘2’, ‘93’})
frozenset({‘2’, ‘39’, ‘90’})
frozenset({‘2’, ‘39’, ‘86’})
frozenset({‘39’, ‘2’, ‘85’})
frozenset({‘39’, ‘2’, ‘76’})
frozenset({‘2’, ‘39’, ‘67’})
frozenset({‘39’, ‘2’, ‘63’})
frozenset({‘39’, ‘2’, ‘59’})
frozenset({‘39’, ‘36’, ‘2’})
frozenset({‘39’, ‘23’, ‘2’})
frozenset({‘2’, ‘90’, ‘93’})
frozenset({‘2’, ‘86’, ‘93’})
frozenset({‘90’, ‘2’, ‘86’})
frozenset({‘93’, ‘2’, ‘85’})
frozenset({‘2’, ‘90’, ‘85’})
frozenset({‘2’, ‘86’, ‘85’})
frozenset({‘2’, ‘86’, ‘76’})
frozenset({‘2’, ‘85’, ‘76’})
frozenset({‘86’, ‘2’, ‘67’})
frozenset({‘2’, ‘67’, ‘85’})
frozenset({‘93’, ‘2’, ‘63’})
frozenset({‘2’, ‘90’, ‘63’})
frozenset({‘2’, ‘86’, ‘63’})
frozenset({‘2’, ‘85’, ‘63’})
frozenset({‘2’, ‘59’, ‘93’})
frozenset({‘2’, ‘90’, ‘59’})
frozenset({‘2’, ‘86’, ‘59’})
frozenset({‘2’, ‘59’, ‘85’})
frozenset({‘2’, ‘59’, ‘63’})
frozenset({‘2’, ‘36’, ‘93’})
frozenset({‘2’, ‘36’, ‘90’})
frozenset({‘2’, ‘36’, ‘86’})
frozenset({‘2’, ‘36’, ‘85’})
frozenset({‘2’, ‘36’, ‘63’})
frozenset({‘2’, ‘36’, ‘59’})
frozenset({‘34’, ‘2’, ‘93’})
frozenset({‘34’, ‘2’, ‘90’})
frozenset({‘34’, ‘2’, ‘86’})
frozenset({‘34’, ‘2’, ‘85’})
frozenset({‘34’, ‘2’, ‘76’})
frozenset({‘34’, ‘2’, ‘67’})
frozenset({‘34’, ‘2’, ‘63’})
frozenset({‘34’, ‘2’, ‘59’})
frozenset({‘34’, ‘2’, ‘36’})
frozenset({‘34’, ‘2’, ‘23’})
frozenset({‘34’, ‘39’, ‘2’})
frozenset({‘2’, ‘23’, ‘93’})
frozenset({‘2’, ‘23’, ‘90’})
frozenset({‘2’, ‘23’, ‘86’})
frozenset({‘2’, ‘23’, ‘85’})
frozenset({‘2’, ‘23’, ‘63’})
frozenset({‘2’, ‘23’, ‘59’})
frozenset({‘2’, ‘23’, ‘36’})
发表评论