开篇高能预警!本文前置知识:1、理解特征函数/能量函数、配分函数的概念及其无向图表示,见《逻辑回归到受限玻尔兹曼机》和《解开玻尔兹曼机的封印》;2、理解特征函数形式的逻辑回归模型,见《逻辑回归到最大熵模型》。从逻辑回归出发,我们已经经过了朴素贝叶斯、浅层神经网络、最大熵等分类模型。显然,分类模型是不考虑时间的,仅仅计算当前的一堆特征对应的类别。因此,分类模型是“点状”的模型。想一下,如果我们有一个
分类:
其他好文 时间:
2020-12-29 11:48:54
阅读次数:
0
在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。一般线性回归函数的假设函数为:对应的损失函数为:(这里的1/2是为了后面求导计算方便)下图作为一个二维参数(theta0,theta1)组对应能量函数的可视化图:下面我们来分别讲解三种梯度下降法1批量梯度
分类:
其他好文 时间:
2020-11-27 10:49:35
阅读次数:
5
使用暹罗{(Xiānluó),泰国的旧称 one-shot} 网络进行人脸识别 什么是暹罗网络? 暹罗网络是一种特殊类型的神经网络,是最简单、最常用的one-shot学习算法之一。 one-shot学习是一种每类只从一个训练例子中学习的技术。 暹罗网络主要用于在每个类中没有很多数据点的应用程序中。 ...
分类:
其他好文 时间:
2019-10-30 18:31:04
阅读次数:
123
Deep Plug-and-Play Super-Resolution for Arbitrary Blur Kernels: 一旦退化模型被定义,下一步就是使用公式表示能量函数(energy function,也可以称为目标函数).通过MAP(Maximum A Posterriori) prob ...
分类:
其他好文 时间:
2019-10-14 10:49:32
阅读次数:
427
在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。 下面我们以线性回归算法来对三种梯度下降法进行比较。 一般线性回归函数的假设函数为: 对应的代价函数为: 下图作为一个二维参数(,)组对应能量函数的可视化 ...
分类:
其他好文 时间:
2019-08-30 23:05:52
阅读次数:
97
Horn–Schunck光流算法[1]是一种全局方法估算光流场。 参考博文:https://blog.csdn.net/hhyh612/article/details/79216021 假设条件: HS算法除了需要满足LK光流前两个假设之外,增加了一个假设条件: 场景中属于同一物体的像素形成光流场向 ...
分类:
其他好文 时间:
2019-03-25 23:35:56
阅读次数:
243
一般线性回归函数的假设函数为: 对应的损失函数为: (这里的1/2是为了后面求导计算方便)下图作为一个二维参数(,)组对应能量函数的可视化图: 下面我们来比较三种梯度下降法 批量梯度下降法BGD (Batch Gradient Descent) 我们的目的是要误差函数尽可能的小,即求解weights ...
分类:
其他好文 时间:
2019-03-17 14:11:58
阅读次数:
237
双目立体匹配经典算法之Semi-Global Matching(SGM)概述:代价聚合(Cost Aggregation) 2018年11月05日 19:02:44 ethan_1990 阅读数:400 双目立体匹配经典算法之Semi-Global Matching(SGM)概述:代价聚合(Cost ...
分类:
其他好文 时间:
2018-12-29 15:13:48
阅读次数:
1103
本文重点 这次主要介绍一种点云对齐的方法,多视数据最近迭代(ICP)对齐是最常用的点云对齐方法,为了提高对齐的精度及稳定性我们使用一种基于移动最小二乘(MLS)曲面的ICP多视数据对齐方法.该方法无需对数据进行额外的去噪和数据分割.对于优化噪声点的点云对齐可以采用本方法进行点云对齐。 1 多视数据相 ...
分类:
其他好文 时间:
2018-09-15 00:43:13
阅读次数:
182
在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。 下面我们以线性回归算法来对三种梯度下降法进行比较。 一般线性回归函数的假设函数为: 对应的损失函数为: 下图为一个二维参数(θ0和θ1)组对应能量函数的 ...
分类:
其他好文 时间:
2018-07-11 14:47:25
阅读次数:
190