Apriori算法 (Introduction to data mining)
最后更新于:2022-04-01 20:31:21
前置概念:
**Support**: 支持度 s(X->Y) =(XUY)/N;
**Confidence**: 置信度 c(X->Y) =(XUY)/(X);
**Frequent ItemSet**: 频繁项集 Support >minSup;
**Apriori Principle**: 如果一个项集是频繁的,那它所有的子项集也都是频繁的。
**Frequent Itemset Generation in the AprioriAlgorithm:**
Apriori算法是第一个指出使用基于支持度剪枝策略的关联规则挖掘算法,系统地控制候选项集的指数增长。
Ck代表k候选项集, Fk代表频繁k项集
1 算法首先遍历一遍数据集,检测每项的支持度,获取频繁1-项集。Steps (1-2)
2 接下来,循环使用频繁(k-1)-项集派生k-候选项集。Step (5)
3 遍历数据集计算候选项集支持度Steps (6-10)
4 计算支持度后,消除非频繁项集Step (12)
5 当没有新的频繁项集产生的时候,算法结束Step(13)
**Frequent itemset generation of the AprioriAlgorithm.**
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-04-21_57187cf96b84e.jpg)
**Rule generation:**
若果一个规则X->Y-X不满足置信度阀值,那么所有的X’->Y-X’也不满足阀值, 其中X’⊂ X.
**Rule generation of the Apriori algorithm.**
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-04-21_57187cf981aac.jpg)
**Procedure ap-genrules(fk, Hm).**
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-04-21_57187cf994462.jpg)
**总结:**
**核心思想: 基于两阶段频繁项集,挖掘关联规则**
**算法优点: 简单、易理解、数据要求低**
**算法缺点: I/O负载大,产生过多的候选项集**
**Apriori例题(Introduction to data mining):**
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-04-21_57187cf9b90df.jpg)
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/2016-04-21_57187cf9e7291.jpg)
(b)16/32=50%
(c)11/32=34.4%
(d)5/32=15.6%
';