import numpy as np import matplotlib.pyplot as plt from sklearn import datasets # 获取数据 boston = datasets.load_boston() X = boston.data y = boston.targ ...
分类:
其他好文 时间:
2020-12-01 11:49:58
阅读次数:
2
上篇讲解了神经网络最容易被忽视的基础知识一干货|神经网络最容易被忽视的基础知识一1为什么在人工神经网络中的神经元需要激活函数?上图可看做普通的线性分类器,也就是线性回归方程。这个比较基础,效果如右图。当然有时候我们发现这样的线性分类器不符合我们要求时,我们很自然的想到那我们就加多一层,这样可以拟合更加复杂的函数,如下图a:但同时当我们动笔算下,就会发现,这样一个神经网络组合起来,输出的时候无论如何
分类:
其他好文 时间:
2020-11-30 15:16:02
阅读次数:
12
文章主要目录如下:1.批量梯度下降法BGD原理讲解2.随机梯度下降法SGD原理讲解3.小批量梯度详解MBGD原理讲解4.具体实例以及三种实现方式代码详解5.三种梯度下降法的总结在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。一般线性回归函数的假设函数为
分类:
其他好文 时间:
2020-11-27 11:55:19
阅读次数:
30
通俗理解激活函数的另一种解释激活函数其中一个重要的作用是加入非线性因素的,解决线性模型所不能解决的问题。这个解释形象的解释神经网络激活函数的作用是什么?这篇文章已经解释的比较清楚。下面从另一个角度来解释一下激活函数的作用,特征的充分组合。首先我们看一个简单的感知机如下:其中x1,x2输入均为特征的输入激活函数采取sigmoid函数,公式表达如下:此时,我们可能看不出什么不同,但是根据泰勒展开,我们
分类:
其他好文 时间:
2020-11-27 11:26:45
阅读次数:
6
测试第一个博客 献上基于C语言的数据结构之线性表 //线性表 #include <stdio.h> #include <stdlib.h> #include <string.h> #include <time.h> #include <math.h> #define MAXSIZE 100 type ...
分类:
其他好文 时间:
2020-11-27 10:59:10
阅读次数:
5
10分钟快速入门PyTorch(1)上一篇教程10分钟入门pytorch(0)我们基本的介绍了pytorch里面的操作单元,Tensor,以及计算图中的操作单位Variable,相信大家都已经熟悉了,下面这一部分我们就从两个最基本的机器学习,线性回归以及logistic回归来开始建立我们的计算图进行运算。由于这个系列文章主要是将pytorch教程的,所以每个算法的太多数学背景以及推导过程就不再细讲
分类:
其他好文 时间:
2020-11-27 10:55:05
阅读次数:
5
10分钟入门PyTorch(2)上一节介绍了简单的线性回归10分钟快速入门PyTorch(1),如何在pytorch里面用最小二乘来拟合一些离散的点,这一节我们将开始简单的logistic回归,介绍图像分类问题,使用的数据是手写字体数据集MNIST。1logistic回归logistic回归简单来说和线性回归是一样的,要做的运算同样是y=w*x+b。logistic回归简单的是做二分类问题,使用s
分类:
其他好文 时间:
2020-11-27 10:54:43
阅读次数:
5
查阅资料和学习,大家对神经网络中激活函数的作用主要集中下面这个观点:激活函数作用激活函数是用来加入非线性因素的,解决线性模型所不能解决的问题。下面我分别从这个方面通过例子给出自己的理解~@leephilip@颜沁睿俩位的回答已经非常好了,我举的例子也是来源于他们,在这里加入了自己的思考,更加详细的说了一下~开讲~首先我们有这个需求,就是二分类问题,如我要将下面的三角形和圆形点进行正确的分类,如下图
分类:
其他好文 时间:
2020-11-27 10:50:30
阅读次数:
9
在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。一般线性回归函数的假设函数为:对应的损失函数为:(这里的1/2是为了后面求导计算方便)下图作为一个二维参数(theta0,theta1)组对应能量函数的可视化图:下面我们来分别讲解三种梯度下降法1批量梯度
分类:
其他好文 时间:
2020-11-27 10:49:35
阅读次数:
5
1. 线性回归 X,Y是线性的 是偏置(有点像截距),防止Y为0,矩阵表示时,为全1 :数据集收集的时候有误差(高斯误差,均值为0) 表达向量很相似 D:和,代表所有的数据,和相互独立 2. Basic Expansion 2.1 使用Basis expansion捕捉自变量和因变量的非线性关系 2 ...
分类:
其他好文 时间:
2020-11-25 12:17:37
阅读次数:
7