DNN,CNN,RNN:1.DNN:深度神经网络,或称多层感知机。解决早期单层感知机对于复杂函数不能模拟的情况。其形式为层之间全连接。实用sig等连续性函数模拟神经对机理的响应,训练算法使用 BP。 2.问题:只是名义上的深层。 a:随着层数的加深,优化函数更加容易陷入局部最优解。并且会越来越偏离 ...
分类:
其他好文 时间:
2017-03-24 15:45:13
阅读次数:
128
1、Mailq 功能说明:显示待寄邮件的清单。 语 法:mailq [-q] 补充说明:mailq可列出待寄邮件的清单,包括邮件ID,邮件大小,邮件保存时间,寄信人,收信人,以及邮件无法寄出的原因,提供管理员参考的信息。mailq实际上是执行sendmail -bp指令。 参 数: -v 显示较详细 ...
分类:
其他好文 时间:
2017-03-24 10:47:42
阅读次数:
2278
段地址:偏移地址 物理地址=段地址*10H+偏移地址 段地址寄存器 ds es ss cs 偏移地址寄存器 bp ip sp si di bx 指令存在 CS:IPjmp cs:ip ...
分类:
其他好文 时间:
2017-03-22 19:16:22
阅读次数:
129
这里把按[1]推导的BP算法(Backpropagation)步骤整理一下,备忘使用。[1] 中直接使用矩阵微分的记号进行推导,整个过程十分简洁。而且这种矩阵形式有一个非常大的优势就是对照其进行编程实现时非常方便。 但其实初学时用标量计算推导也有一定的好处,比如可以清楚地知道某个权重是被谁所影响的。 ...
分类:
编程语言 时间:
2017-03-19 00:08:39
阅读次数:
333
FFNN Feed Forward Neural Network 前馈神经网络,神经网络中一般输入向前传递 BP Backpropagation 反向传播,一般专指误差反向传播算法, RBM Restricted Boltzmann Machine 限制波兹曼机 受限波兹曼机 监督学习 给出data ...
分类:
其他好文 时间:
2017-03-17 13:25:22
阅读次数:
193
灵感 因为最近一直在做rnn based NLP,其中无论是什么cell,lstm, GRU或者cnn都是基于单词的embedding表示;单词的embdding就是把每个单词表示成一个向量, 然后通过bp训练这些向量的值,这种想法很奇妙,于是我尝试性的把这种思想用在logistic regress ...
分类:
其他好文 时间:
2017-03-16 18:36:09
阅读次数:
264
几个常用的寄存器 sp/esp/rsp(16bit/32bit/64bit)栈寄存器 指向栈顶 bp/ebp/rbp 栈基址寄存器 指向栈底 ip/eip/rip 程序指令寄存器 指向下一条待执行指令 ...
分类:
其他好文 时间:
2017-03-12 15:10:51
阅读次数:
113
神经网络的训练算法,目前基本上是以Backpropagation (BP) 反向传播为主(加上一些变化),NN的训练是在1986年被提出,但实际上,BP 已经在不同领域中被重复发明了数十次了(参见 G...
分类:
其他好文 时间:
2017-03-08 11:38:26
阅读次数:
260