码迷,mamicode.com
首页 >  
搜索关键字:训练集    ( 799个结果
人工智能实践:全连接网络基础
MNIST数据集 MNIST数据集:包含7万张黑底白字手写数字图片,其中55000张为训练集, 5000张为验证集,10000张为测试集。每张图片大小为28*28像素,图片中纯黑色像素值为0,纯白色像素值为1。数据集的标签是长度为10的一维数组,数组中每个元素索引号表示对应数字出现的概率。 在将mn ...
分类:其他好文   时间:2018-07-25 01:05:57    阅读次数:299
[学习记录]intel-ML课程记录03
本次课有两部分,KNN的模型分析以及回归分析 KNN模型分析 1.K值选取 选择K的时候要特别注意K的大小,适中才最好 要求太高会导致过拟合,低bias(偏差),太低则无法拟合,高bias。 2.训练与测试 收集的数据集,先分成测试集与训练集,一般训练集略大于测试集。 训练集用来训练模型(fit t ...
分类:其他好文   时间:2018-07-22 19:21:15    阅读次数:191
python数据分析实战-第8章-用scikit-learn库实现机器学习
第8章 用scikit-learn库实现机器学习 205 8.1 scikit-learn库 205 8.2 机器学习 205 8.2.1 有监督和无监督学习 205 8.2.2 训练集和测试集 206 8.3 用scikit-learn实现有监督学习 206 8.4 Iris数据集 206 主成分 ...
分类:编程语言   时间:2018-07-22 15:08:42    阅读次数:330
机器学习面试--算法评价指标
机器学习分为三个阶段: 第一阶段:学习模型。采用学习算法,通过对训练集进行归纳学习得到分类模型; 第二阶段:测试模型。将已经学习得到的分类模型用于测试集,对测试集中未知类别的实例进行分类。 第三阶段:性能评估。显然,通过测试集产生的分类未必是最佳的,这就导致对测试集的分类可能产生错误。而人们希望尽量 ...
分类:编程语言   时间:2018-07-19 17:29:57    阅读次数:391
Kaggle技巧总结
Kaggle技巧总结Introduction首先简单介绍一些关于Kaggle比赛的知识:?不同比赛有不同的任务,分类、回归、推荐、排序等。比赛开始后训练集和测试集就会开放下载。?比赛通常持续2~3个月,每个队伍每天可以提交的次数有限,通常为5次。?比赛结束前一周是一个Deadline,在这之后不能再组队,也不能再新加入比赛。所以想要参加比赛请务必在这一Deadline之前有过至少一次有效的提交。?
分类:其他好文   时间:2018-07-18 10:50:45    阅读次数:508
机器学习术语
数据集 样本 特征 特征取值 维数 训练数据 训练样本 泛化:学得的模型适用于新样本的能力 归纳与演绎:前者是从特殊到一般的泛化过程,即从具体的事实归结出一般性的规律后者是从一般到特殊的“特化”过程,即从基础原理推演出具体情况。 假设空间 版本空间:可能有多个假设集合与训练集一致,即存在一个与假设即 ...
分类:其他好文   时间:2018-07-16 15:04:49    阅读次数:152
随机切分csv训练集和测试集
使用numpy切分训练集和测试集 觉得有用的话,欢迎一起讨论相互学习~ "Follow Me" 序言 在机器学习的任务中,时常需要将一个完整的数据集切分为训练集和测试集。此处我们使用numpy完成这个任务。 iris数据集中有150条数据,我们将120条数据整合为训练集,将30条数据整合为测试集。 ...
分类:其他好文   时间:2018-07-15 16:18:40    阅读次数:340
ML:单变量线性回归(Linear Regression With One Variable)
模型表达(model regression) 1. 用于描述回归问题的标记 m 训练集(training set)中实例的数量 x 特征/输入变量 y 目标变量/输出变量 (x,y) 训练集中的实例 (x(i),y(i)) 第i个观察实例 h 机器学习算法中的解决方案和函数,即假设(hypothes ...
分类:其他好文   时间:2018-07-13 22:48:58    阅读次数:225
查看neighbors大小对K近邻分类算法预测准确度和泛化能力的影响
代码: 结果: 总结:在仅考虑单一近邻时,训练集上的预测结果十分完美(接近100%)。但随着邻居个数的增多,模型变得更简单(泛化能力越好),训练集精度也随之下降。为求得较好的预测精度和泛化能力,最佳性能在neighbors为6左右! ...
分类:编程语言   时间:2018-07-12 13:08:06    阅读次数:104
机器学习中常见的过拟合解决方法
在机器学习中,我们将模型在训练集上的误差称之为训练误差,又称之为经验误差,在新的数据集(比如测试集)上的误差称之为泛化误差,泛化误差也可以说是在模型在总体样本上的误差。对于一个好的模型应该是经验误差约等于泛化误差,也就是经验误差要收敛于泛化误差,根据霍夫丁不等式可知经验误差在一定条件下是可以收敛于泛 ...
分类:其他好文   时间:2018-07-08 21:16:06    阅读次数:197
799条   上一页 1 ... 36 37 38 39 40 ... 80 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!