如线性回归一样,我们也分成了训练集和测试集. 用训练集进行分类器的学习,用测试集来评估分类错误. 分类错误: 测试集 -> 隐藏类型标签 -> 放到分类器进行处理 -> 得出结果 -> 与定义好的类型标签进行比较 错误率: 分类错误数/总句子数 正确率: 分类正确数/总句子数 那么,什么样的正确率才 ...
分类:
其他好文 时间:
2018-06-20 21:19:17
阅读次数:
148
1、过拟合问题 欠拟合:根本原因是特征维度过少,导致拟合的函数无法满足训练集,误差较大; 解决方法:增加特征维度; 过拟合:根本原因是特征维度过大,导致拟合的函数完美的预测训练集,但对新数据的预测结果差。 解决方法:(1)减少特征维度;(2)正则化,降低参数值。 减少过拟合总结:过拟合主要是有两个原 ...
分类:
其他好文 时间:
2018-06-20 14:37:41
阅读次数:
215
title: "Python实现bp神经网络识别MNIST数据集" date: 2018 06 18T14:01:49+08:00 tags: [""] categories: ["python"] 前言 训练时读入的是.mat格式的训练集,测试正确率时用的是png格式的图片 代码 数据集下载: h ...
分类:
编程语言 时间:
2018-06-18 15:05:59
阅读次数:
451
1、CIFAR-10,是一个用于做图像分类研究的数据集。 由60000个图片组成 6万个图片中,5万张用于训练,1万张用于测试 每个图片是32x32像素 所有图片可以分成10类 每个图片都有一个标签,标记属于哪一个类 测试集中一个类对应1000张图 训练集中将5万张图分为5份 类之间的图片是互斥的, ...
分类:
编程语言 时间:
2018-06-10 19:34:19
阅读次数:
612
首先安装opencv 在安装opencv过程中遇到一些错误(百度解决) 直接贴代码吧,讲师略讲了一下,体会不深,以后有机会深入学习,再详细介绍解释吧 人脸识别训练集应该可以网上下载吧,都是开源的 ...
分类:
编程语言 时间:
2018-06-09 00:07:56
阅读次数:
167
决策树的剪枝是将生成的树进行简化,以避免过拟合。 《统计学习方法》上一个简单的方式是加入正则项a|T|,其中|T|为树的叶节点个数。 其中C(T)为生成的决策树在训练集上的经验熵,经验熵越大,表明叶节点上的数据标记越不纯,分类效果越差。有了这个标准,拿到一颗生成好的树,我们就递归的判断一组叶节点,看 ...
分类:
其他好文 时间:
2018-06-04 11:47:05
阅读次数:
145
导入葡萄酒数据: 运行结果: 划分训练集和测试集: 我们可以使用 sklearn.model_selection 中的 train_test_split 划分数据,test_size用来设置测试数据的比例,random_state用来 设置随机数是否保持一致。 这里如果你用的是 sklearn.cr ...
分类:
其他好文 时间:
2018-05-29 21:11:31
阅读次数:
504
CIFAR10 数据集有 50000 张训练图片,10000 张测试图片。现在选择 Batch Size = 256 对模型进行训练。 每个 Epoch 要训练的图片数量: 训练集具有的 Batch 个数: 每个 Epoch 需要完成的 Batch 个数: 每个 Epoch 具有的 Iteratio ...
分类:
其他好文 时间:
2018-05-23 20:33:55
阅读次数:
178
boosting是一种集成技术,它试图从许多弱分类器中创建一个强大的分类器。 这是通过从训练数据构建模型来完成的,然后创建第二个模型,试图纠正第一个模型中的错误。模型被添加到训练集被完美地预测或增加模型的最大数量。 AdaBoost是第一个真正成功的用于二进制分类的增强算法。这是理解提升的最佳起点。 ...
分类:
其他好文 时间:
2018-05-23 02:16:20
阅读次数:
196
摘自《统计学习方法》 李航 第五章 决策树学习通常包括3个步骤:特征选择、决策树的生成、决策树的剪枝 决策树学习本质上是从训练集中归纳出一组分类规则。 决策树学习的损失函数通常是正则化的极大似然函数。 决策树的学习算法通常是采用启发式的方法,近似求解最优化问题 特征选择问题 特征选择在于选取对训练数 ...
分类:
其他好文 时间:
2018-05-23 00:01:55
阅读次数:
169