1.简述人工智能、机器学习和深度学习三者的联系与区别。 2. 全连接神经网络与卷积神经网络的联系与区别。 全连接神经网络和卷积神经网络中的每一个节点就是一个神经元。 在全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经网 ...
分类:
其他好文 时间:
2020-06-01 11:55:01
阅读次数:
53
1.简述人工智能、机器学习和深度学习三者的联系与区别。 人工智能是目的,是结果。 深度学习、机器学习是方法、是工具。 机器学习,一种实现人工智能的方法;机器学习都可以精准地被定义为:1任务T;2.训练过程E;3.模型表现P。 深度学习则是一种实现机器学习的技术;它适合处理大数据。 深度学习使得机器学 ...
分类:
其他好文 时间:
2020-06-01 11:45:00
阅读次数:
61
机器学习算法及代码实现–神经网络 1、神经网络 神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。 ...
分类:
编程语言 时间:
2020-05-18 18:39:28
阅读次数:
86
1. LSTM原理 由我们所了解的RNN可知,RNN结构之所以出现梯度爆炸或者梯度消失,最本质的原因是因为梯度在传递过程中存在极大数量的连乘,为此有人提出了LSTM模型,它可以对有价值的信息进行记忆,放弃冗余记忆,从而减小学习难度。 与RNN相比,LSTM的神经元还是基于输入X和上一级的隐藏层输出h ...
分类:
其他好文 时间:
2020-05-15 11:54:47
阅读次数:
163
展开在机器学习和神经网络中,常常会利用Numpy库中的随机函数来生产随机数,比如随机初始化神经网络中的参数权重W(备注:W是不能全部初始化为0的,这样会引起symmetry breaking problem,这样隐藏层设置多个神经元就没有任何意义了)。在Numpy库中,常用使用np.random.r ...
分类:
其他好文 时间:
2020-05-09 00:47:56
阅读次数:
92
为什么要做 batch normalization 没有加batch normalization,过拟合,也就是训练集的效果还不错,但是测试集的效果真的差 BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(就是那个x=WU+B,U是输入)随着网络深度加深或者在训练过程中,其分 ...
分类:
其他好文 时间:
2020-05-02 22:30:06
阅读次数:
62
反向传播算法在神经网络中站很大的地位,大多数神经网络都能用反向传播算法进行训练, 但不少初学者不容易弄懂(比如说我),所以写个小白版教程很有必要 (这里不讲前向传播,可自行寻找相关信息) 首先先规定一些宏: LS:神经网络的层数 NF(n):神经网络第n层的神经元个数BF(n,a):神经网络第n层第 ...
分类:
编程语言 时间:
2020-04-27 13:26:14
阅读次数:
72
# -*- coding: utf-8 -*- """ Created on Fri Apr 17 20:13:37 2020 @author: ASUS """ # load the file import numpy as np import scipy.special class neural ...
分类:
其他好文 时间:
2020-04-18 14:15:36
阅读次数:
89
假设条件:我们有m个样本,每个样本有n个特征。我们的目的是通过神经网络的训练,使模型能够识别每张图片是否是指定的图像。 首先每个样本有n个特征值,我们的最终模型需要包含n个w,1个b。模型通过公式temp=wx,计算每一个特征值的temp的值,最后累加,这里的每个x特征值都对应一个自己的w。最后加上 ...
分类:
编程语言 时间:
2020-04-13 16:42:55
阅读次数:
87
[toc] 一、深度信念网络(DBN) 2006年,“神经网络之父”Geoffrey Hinton祭出神器深度信念网络,一举解决了深层神经网络的训练问题,推动了深度学习的快速发展。 深度信念网络(Deep Belief Nets),是一种概率生成模型,能够建立输入数据和输出类别的联合概率分布。 深度 ...
分类:
其他好文 时间:
2020-04-13 00:41:46
阅读次数:
98