一个月前,自己模仿caffe实现了一个卷积神经网络的框架。
一个月前,自己模仿caffe实现了一个卷积神经网络的框架。
相同点
1无缝支持CPU和GPU模式,GPU模式使用cuda实现。
不同点
1我的CNN不依赖与任何第三方的函数库,caffe用到了第三方的数学函数库(cublas和mkl)来做矩阵操作。
其实区别就在于...
分类:
其他好文 时间:
2014-07-26 02:17:46
阅读次数:
334
机器学习与数据挖掘中的十大经典算法背景:top10算法的前期背景是吴教授在香港做了一个关于数据挖掘top10挑战的一个报告,会后有一名内地的教授提出了一个类似的想法。吴教授觉得非常好,开始着手解决这个事情。找了一系列的大牛(都是数据挖掘的大牛),都觉得想法很好,但是都不愿自己干。原因估计有一下几种:...
分类:
其他好文 时间:
2014-07-26 01:15:56
阅读次数:
248
本来以为可以将《实战机器学习》的代码全部实现完,殊不知到了支持向量机这一章,仅是为了理清概念,我找出高数线代概统重识拉格朗日乘数、向量空间、最小二乘法,为了理解非线性情况时用到的核技术去查阅曼瑟定理...
分类:
其他好文 时间:
2014-07-25 00:00:26
阅读次数:
290
张长水:大数据时代的机器学习 VS 传统机器学习
从机器学习角度看,“大数据”指的是数据量大,数据本身不够精确,数据混杂,数据自然产生。机器学习对大数据的处理的两个挑战:
数据量大导致计算困难
分布在不同服务器上的数据存在一定联系,这些数据基本上不满足“独立同分布”假设,传统的模型和算法很难适应。
大数据时代给机器学习带来新的机遇:
在某些应用条件下,高维空间中的局部数据变得稠密。这个现象可以为分类器的设计提供更丰富的信息。甚至使分类器在性能上接近理论极限性能。
大数据使样本空间原本“空旷”的区域出现样本,...
分类:
其他好文 时间:
2014-07-24 23:37:33
阅读次数:
370
似然函数:似然函数在形式上就概率密度函数。 似然函数用来估计某个参数。最大似然函数:就是求似然函数的最大值。 最大似然函数用于估计最好的参数。最小二乘法:它通过最小化误差的平方和寻找数据的最佳函数匹配。就是求 y=a1+a2x的系数。通过最小化误差的平方,然后求系数的偏导数,令导数为0,求...
分类:
其他好文 时间:
2014-07-24 22:50:53
阅读次数:
261
集成学习(Esemble learning) 在机器学习领域,如何根据观察数据学习一个精确的估计数据是一个主要问题。 通常,我们通过训练数据应用某个算法得出一个训练模型,然后使用评估数据来评估这个模型的预测正确率,最后如果我们可以接受这个正确率就使用该模型进行预测数据。通常我们将训练数据进行交叉.....
分类:
其他好文 时间:
2014-07-24 17:32:05
阅读次数:
234
——转 聚类的目标是使同一类对象的相似度尽可能地小;不同类对象之间的相似度尽可能地大。目前聚类的方法很多,根据基本思想的不同,大致可以将聚类算法分为五大类:层次聚类算法、分割聚类算法、基于约束的聚类算法、机器学习中的聚类算法和用于高维度的聚类算法。摘自 数据挖掘中的聚类分析研究综述 这篇论文。--....
分类:
其他好文 时间:
2014-07-23 15:24:26
阅读次数:
316
关于什么是梯度下降,请看我之前发的一个博文:http://blog.csdn.net/lilyth_lilyth/article/details/8973972
梯度下降能帮助我们找到局部最优值,取得很小的损失,但是在数据量达到数十万时,迭代次数高,运算速度慢,十分不适合。这时候可以考虑使用随机梯度下降算法。
所谓随机梯度下降是 每次用 每个样本的损失函数(即样本数为1时的损失函数)对th...
分类:
其他好文 时间:
2014-07-23 13:39:56
阅读次数:
256
机器学习新手,接触的是《机器学习实战》这本书,感觉书中描述简单易懂,但对于python语言不熟悉的我,也有很大的空间。今天学习的是k-近邻算法。 1. 简述机器学习 在日常生活中,人们很难直接从原始数据本身获得所需信息。而机器学习就是把生活中无序的数据转换成有用的信息。例如,对于垃圾邮件的检...
分类:
编程语言 时间:
2014-07-22 23:37:57
阅读次数:
366
本文是Andrew Ng在Coursera的机器学习课程的笔记。整体步骤确定网络模型初始化权重参数对于每个样例,执行以下步骤直到收敛计算模型输出:forward propagation计算代价函数:比较模型输出与真实输出的差距更新权重参数:back propagation确定网络模型神经网络模型由输...
分类:
其他好文 时间:
2014-07-22 23:36:27
阅读次数:
376