7-16 一元多项式求导(20 分) 设计函数求一元多项式的导数。 输入格式: 以指数递降方式输入多项式非零项系数和指数(绝对值均为不超过1000的整数)。数字间以空格分隔。 输出格式: 以与输入相同的格式输出导数多项式非零项的系数和指数。数字间以空格分隔,但结尾不能有多余空格。 输入样例: 3 4 ...
分类:
其他好文 时间:
2018-01-27 13:39:25
阅读次数:
179
首先看这个自动求导的参数: grad_variables:形状与variable一致,对于y.backward(),grad_variables相当于链式法则dz/dx=dz/dy × dy/dx 中的 dz/dy。grad_variables也可以是tensor或序列。 retain_graph: ...
分类:
其他好文 时间:
2018-01-23 17:18:01
阅读次数:
5484
默认是不对其求梯度的,除非声明为True 就是自动求导 Variable containing: 2 [torch.FloatTensor of size 1] Variable containing: 1 [torch.FloatTensor of size 1] Variable contain ...
分类:
其他好文 时间:
2018-01-21 11:10:03
阅读次数:
944
一、定义:测试人员除了按照需求文档编写case外,未添加其他项目计划、开发文档等形成的case 二、发生时间段Always 三、陷阱表现1.质量需求(易用性、可靠性、健壮性、可移植性、安全性、可维护性等)2.数据需求(如:统计类需求)3.接口需求(如:针对迭代需求较少时,容易忽略细微的新增接口,或是测试人员认为不会影响到基线功能)4.针对异常的系统强制响应(常见的有提交表单时机
分类:
其他好文 时间:
2018-01-11 15:56:46
阅读次数:
198
因为项目需求,导航栏要实现渐变效果。当 UIscrollView 下拉到一定高度就让导航栏完全显示出来,中间过程则是导航栏背景由浅变深,也就是渐变效果。 在网上看了一些资料,参考了一些代码,再结合自己的实践发现只要几行代码就能实现。 1 // 给导航栏设置一个背景图 2 self.navigatio ...
分类:
其他好文 时间:
2018-01-09 20:13:15
阅读次数:
245
之前提到,深度神经网络在训练中容易遇到梯度 消失/爆炸 的问题,这个问题产生的根源详见之前的 "读书笔记" )。在 Batch Normalization 中,我们将输入数据由激活函数的收敛区调整到梯度较大的区域,在一定程度上缓解了这种问题。不过,当网络的层数急剧增加时,BP 算法中导数的累乘效应还 ...
分类:
其他好文 时间:
2018-01-07 15:54:22
阅读次数:
193
1.反向传播 关于反向传播我的理解是这样的,SVM和SoftMax可以看成一层神经网络,你如果想要调整它的W很简单,只有求导就可以了,但是当神经网络有多层的话,你无法直接求导来更新最开始层的W,于是就出现了反向传播这个工具。至于神经网络为什么需要多层,理由有很多,我先举个例子,比如一个汽车在图片里面 ...
分类:
其他好文 时间:
2018-01-03 14:09:32
阅读次数:
207
视频地址:https://www.bilibili.com/video/av10435213/ 我们现在上一章节中,学习了幂次函数求导法和正弦函数求导。并且使用图像法更加直观的理解了这些运算过程。 当时想用这些求导公式在现实生活中运用,我们需要对这些公式进行混合、组合、调整。所以我们学习一下更复杂的 ...
分类:
其他好文 时间:
2018-01-01 19:33:05
阅读次数:
301
https://loj.ac/problem/2289 LCT+泰勒展开 首先e^x求导完是ln e * e^x还是e^x sin x求导完变成cos x,cos x求导完变成sin x 由于复合函数f(g(x))求导完是f'(g(x))*g'(x) 所以就可以轻松的推出sin x和e^x的n阶导数 ...
分类:
其他好文 时间:
2017-12-27 20:26:57
阅读次数:
241
视频链接:https://www.bilibili.com/video/av10396996/ 这一节课,我们会用可视化的方式直观的思考导数公式的意义。 并鼓励你永远不要忘记,微小的变化才是导数的意义。 在一个公式f(x)中,当我们的x轴取值发生了dx的微小变化时,相应的在y轴产生了一个df的变化。 ...
分类:
其他好文 时间:
2017-12-26 23:50:54
阅读次数:
206