上一章我们讨论了SmartPhone BP部分的硬件系统,接下去我们将讨论SmartPhone BP部分的软件系统。所谓BP,指的是基带处理器(Baseband Processor),又称为通讯处理器(Communication Processor,CP),顾名思义,BP部分负责SmartPhone...
分类:
移动开发 时间:
2015-02-26 13:10:17
阅读次数:
251
http://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&tn=95028653_hao_pg&wd=kali%20%20安装%20双系统&rsv_pq=af08f7160001aeb8&rsv_t=10a51iRf9xlDHGcDljuLESwHFkSDVu8RKg...
分类:
其他好文 时间:
2015-02-12 19:56:14
阅读次数:
148
第二次作业基本部分包含三部分,Q1: Two-layer Neural Network,Q2: Modular Neural Network,Q3: ConvNet on CIFAR-10。Q1: Two-layer Neural Network这部分将要实现一个两层的神经网络,包括前向传播与BP后...
分类:
其他好文 时间:
2015-02-12 12:08:01
阅读次数:
3624
一般寄存器:AX、BX、CX、DX
AX:累积暂存器,BX:基底暂存器,CX:计数暂存器,DX:资料暂存器
索引暂存器:SI、DI
SI:来源索引暂存器,DI:目的索引暂存器
堆叠、基底暂存器:SP、BP
SP:堆叠指标暂存器,BP:基底指标暂存器
EAX、ECX、EDX、EBX:為ax,bx,cx,dx的延伸,各為32位元
ESI、EDI、ESP、EBP:為si,di,...
分类:
其他好文 时间:
2015-02-09 12:53:46
阅读次数:
159
这一篇是整个第五章的精华了,会重点介绍一下Neural Networks的训练方法——反向传播算法(backpropagation,BP),这个算法提出到现在近30年时间都没什么变化,可谓极其经典。也是deep learning的基石之一。还是老样子,下文基本是阅读笔记(句子翻译+自己理解),把书里的内容梳理一遍,也不为什么目的,记下来以后自己可以翻阅用。...
分类:
编程语言 时间:
2015-02-07 23:03:19
阅读次数:
313
??
练习1.19
题目中说道斐波那契数中将变换T的n次方应用于对偶(1,0)而产生出来,而现在将T看作T(pq)中p=0和q=1的特俗情况。因此对于对偶(a,b)来说,a—bq+a(p+q),b—bp+aq。而对于T(pq)的平方也就是(T(pq))^2,就像之前的a中往b乘以q和往a乘以(p+q),现在依旧是相当于a中往bp+aq乘以q(bp+aq为上一次迭代中的”b”),往(bq...
分类:
其他好文 时间:
2015-02-06 09:40:00
阅读次数:
179
神经网络neural network,是生物科学和信息科学交叉的产物。用计算机模拟人脑的工作过程,完成分类识别的任务。
这里我们先感性的介绍神经网络及其训练过程,然后数学推导这个过程。
一个神经元和其它神经元连接:
一个神经元通常和若干个神经元相连...
分类:
其他好文 时间:
2015-02-03 11:11:01
阅读次数:
464
这一篇是整个第五章的精华了,会重点介绍一下Neural Networks的训练方法——反向传播算法(backpropagation,BP),这个算法提出到现在近30年时间都没什么变化,可谓极其经典。也是deep learning的基石之一。还是老样子,下文基本是阅读笔记(句子翻译+自己理解),把书里...
分类:
编程语言 时间:
2015-02-01 14:41:45
阅读次数:
348
可参考http://blog.csdn.net/zouxy09/article/details/9993371这篇文章主要介绍CNN卷积神经网络的数学推导,DeepLearningToolbox里面的CNN算法主要是基于这篇文章。里面主要有BP的前向传播和反向传播的详细推导,可供参考。来自为知笔记(...
分类:
Web程序 时间:
2015-01-27 10:50:23
阅读次数:
436
本文主要内容包含: (1) 介绍神经网络基本原理,(2) AForge.NET实现前向神经网络的方法,(3) Matlab实现前向神经网络的方法 。第0节、引例 本文以Fisher的Iris数据集作为神经网络程序的測试数据集。Iris数据集能够在http://en.wikipedia.org/wik...
分类:
其他好文 时间:
2015-01-26 10:07:51
阅读次数:
248