前言 以下内容是个人学习之后的感悟,如果有错误之处,还请多多包涵~ 梯度下降法 一、简介 梯度下降法(gradient decent)是一个最优化算法,通常也称为最速下降法。常用于机器学习和人工智能当中用来递归性地 逼近最小偏差模型。 二、原理 梯度下降法,顾名思义,从高处寻找最佳通往低处的方向,然 ...
分类:
其他好文 时间:
2017-08-26 04:49:28
阅读次数:
403
一 对select的美化 该样式会将其右侧的倒三角去掉,以及会修改手机上select的样式 二 对radio以及checkbox的美化(两种方法) 1 第一种方法 html: css (其中定位的偏差根据图片的大小自行调整) 2 第二种方法 magic-check.css的使用(github链接) ...
分类:
其他好文 时间:
2017-08-23 00:52:09
阅读次数:
322
在这部分我们检验多项式层数d和过拟合和欠拟合之间的关系。 1.我们区分是否是偏差或方差导致我们预测错误。 2.大偏差是欠拟合,大方差是过拟合。理想情况下,我们需要在这两者之间找到中庸之道。 当我们增加多项式的D时,训练误差会减小。 同时,交叉验证误差会随着d增加到一个点而减小,然后随着d的增加而增大 ...
分类:
其他好文 时间:
2017-08-19 21:15:42
阅读次数:
122
作为一个阶段性总结,有很多的东西需要说明,有细节的,有架构的,且听我细细说来。 java和php最大的区别不止是类型的强制定义,而是在设计思路上有着非常重大的偏差(虽然SY3框架已经开始借鉴JAVA的思路,但是真这样的话也失去了PHP自己的特色) 所有的输出和类型全部都是事先定义好,然后自上而下进行 ...
分类:
编程语言 时间:
2017-08-19 15:03:29
阅读次数:
152
边缘是图像中灰度发生急剧变化的区域边界。图像灰度的变化情况能够用图像灰度分布的梯度来表示,数字图像中求导是利用差分近似微分来进行的,实际上经常使用空域微分算子通过卷积来完毕。 一阶导数算子 1) Roberts算子 Roberts算子是一种斜向偏差分的梯度计算方法。梯度的大小代表边缘的强度。梯度的方 ...
分类:
其他好文 时间:
2017-08-17 21:37:50
阅读次数:
233
这篇博客主要记录了Andrew Ng课程第五章应用机器学习的建议,主要介绍了在测试新数据出现较大误差该怎么处理,这期间讲到了数据集的分类,偏差,方差,学习曲线等概念,帮助我们去理解结果,然后做出相应的措施。 ...
分类:
其他好文 时间:
2017-08-16 00:49:21
阅读次数:
167
博文说明【前言】:本文将通过个人口吻介绍Tomcat单机多实例部署,在目前时间点【2017年8月13号】下,所掌握的技术水平有限,可能会存在不少知识理解不够深入或全面,望大家指出问题共同交流,在后续工作及学习中如发现本文内容与实际情况有所偏差,将会完善该博文内容。本文参..
分类:
其他好文 时间:
2017-08-14 01:33:46
阅读次数:
199
本文基于《C++ Primer(第5版)》中14章和《More Effective C++》条款7,整理而成。 其实写这篇博客之前,内心还是很忐忑的,因为,博主的水平很有限,视野比较窄,要是在理解书的过程中有了偏差,给读到这篇博客的人以错误的认识,那罪过就大了。再次声明本文仅是简介,若是有错误的地方 ...
分类:
编程语言 时间:
2017-08-13 21:15:01
阅读次数:
245
应用神经网络的一个简单例子是预测X1和x2,这是逻辑“和”运算符,只有X1和x2为1时才是真的。 函数的图看起来像: 记住,x0是我们的偏差变量始终是1。 让我们把第一个θ矩阵设为: 如果当x1和x2都为1这将使我们的结果都为真。换言之: 所以我们用一个小的神经网络,而不是用一个实际的门来构造计算机 ...
分类:
其他好文 时间:
2017-08-09 10:08:44
阅读次数:
167
让我们研究一下如何用神经网络表示一个假设函数。在一个非常简单的层次上,神经元基本上是计算单元,它把输入(树突)作为电输入(称为“尖峰”),引导到输出(轴突)。在我们的模型中,我们的树突就像输入特征X1?xn,而输出则是我们的假设函数的结果。在这个模型中我们X0输入节点有时被称为“偏差”。它总是等于1 ...
分类:
其他好文 时间:
2017-08-08 22:57:42
阅读次数:
297