标签:select 整理 kill tab iris 理解 目标 分类 ash
1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
联系:分类与聚类都是通过预处理使得数据能基于一个分析目标而被整理。
区别:分类是有监督,靠的是学习;
聚类无监督,靠的是启发式搜索。
简述什么是监督学习与无监督学习。
有监督学习:事先知道训练样本的标签,通过挖掘将属于不同类别标签的样本分开,可利用得到的分类模型,预测样本属于哪个类别;
无监督学习:事先不知道样本的类别标签,通过对相关属性的分析,将具有类似属性的样本聚成一类。
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I‘,饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
| 
 
  | 
 性别  | 
 年龄  | 
 KILLP  | 
 饮酒  | 
 吸烟  | 
 住院天数  | 
 疾病  | 
| 
 1  | 
 男  | 
 >80  | 
 1  | 
 是  | 
 是  | 
 7-14  | 
 心梗  | 
| 
 2  | 
 女  | 
 70-80  | 
 2  | 
 否  | 
 是  | 
 <7  | 
 心梗  | 
| 
 3  | 
 女  | 
 70-81  | 
 1  | 
 否  | 
 否  | 
 <7  | 
 不稳定性心绞痛  | 
| 
 4  | 
 女  | 
 <70  | 
 1  | 
 否  | 
 是  | 
 >14  | 
 心梗  | 
| 
 5  | 
 男  | 
 70-80  | 
 2  | 
 是  | 
 是  | 
 7-14  | 
 心梗  | 
| 
 6  | 
 女  | 
 >80  | 
 2  | 
 否  | 
 否  | 
 7-14  | 
 心梗  | 
| 
 7  | 
 男  | 
 70-80  | 
 1  | 
 否  | 
 否  | 
 7-14  | 
 心梗  | 
| 
 8  | 
 女  | 
 70-80  | 
 2  | 
 否  | 
 否  | 
 7-14  | 
 心梗  | 
| 
 9  | 
 女  | 
 70-80  | 
 1  | 
 否  | 
 否  | 
 <7  | 
 心梗  | 
| 
 10  | 
 男  | 
 <70  | 
 1  | 
 否  | 
 否  | 
 7-14  | 
 心梗  | 
| 
 11  | 
 女  | 
 >80  | 
 3  | 
 否  | 
 是  | 
 <7  | 
 心梗  | 
| 
 12  | 
 女  | 
 70-80  | 
 1  | 
 否  | 
 是  | 
 7-14  | 
 心梗  | 
| 
 13  | 
 女  | 
 >80  | 
 3  | 
 否  | 
 是  | 
 7-14  | 
 不稳定性心绞痛  | 
| 
 14  | 
 男  | 
 70-80  | 
 3  | 
 是  | 
 是  | 
 >14  | 
 不稳定性心绞痛  | 
| 
 15  | 
 女  | 
 <70  | 
 3  | 
 否  | 
 否  | 
 <7  | 
 心梗  | 
| 
 16  | 
 男  | 
 70-80  | 
 1  | 
 否  | 
 否  | 
 >14  | 
 心梗  | 
| 
 17  | 
 男  | 
 <70  | 
 1  | 
 是  | 
 是  | 
 7-14  | 
 心梗  | 
| 
 18  | 
 女  | 
 70-80  | 
 1  | 
 否  | 
 否  | 
 >14  | 
 心梗  | 
| 
 19  | 
 男  | 
 70-80  | 
 2  | 
 否  | 
 否  | 
 7-14  | 
 心梗  | 
| 
 20  | 
 女  | 
 <70  | 
 3  | 
 否  | 
 否  | 
 <7  | 
 不稳定性心绞痛  | 
2.

3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
高斯分布型
多项式型
伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。
from sklearn.datasets import load_iris from sklearn.naive_bayes import GaussianNB from sklearn.naive_bayes import MultinomialNB from sklearn.naive_bayes import BernoulliNB from sklearn.model_selection import cross_val_score # 引入鸢尾花数据集 iris = load_iris() # 高斯分布型 g = GaussianNB() # 建立模型 g_model = g.fit(iris.data, iris.target) # 模型训练 g_pre = g_model.predict(iris.data) # 预测模型 print("高斯分布模型准确率:", sum(g_pre == iris.target) / len(iris.target)) # 多项式型 m = MultinomialNB() m_model = m.fit(iris.data, iris.target) m_pre = m_model.predict(iris.data) print("多项式模型准确率:", sum(m_pre == iris.target) / len(iris.target)) # 伯努利型 b = BernoulliNB() b_model = b.fit(iris.data, iris.target) b_pre = b.predict(iris.data) print("伯努利模型准确率:", sum(b_pre == iris.target) / len(iris.target)) #交叉验证 print("\n------交叉验证------") # 高斯分布型 g = GaussianNB() g_scores = cross_val_score(g, iris.data, iris.target, cv=10) print(‘高斯分布型精确度:%.2f‘ % g_scores.mean()) # 多项式型 m = MultinomialNB() m_scores = cross_val_score(m, iris.data, iris.target, cv=10) print(‘多项式型精确度:%.2f‘ % m_scores.mean()) # 伯努利型 b = BernoulliNB() b_scores = cross_val_score(b, iris.data, iris.target, cv=10) print(‘多项式型精确度:%.2f‘ % b_scores.mean())
结果:

标签:select 整理 kill tab iris 理解 目标 分类 ash
原文地址:https://www.cnblogs.com/zengyf/p/12864347.html