犀利的开头 在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个Loss function(误差函数),通过将这个Loss(或者叫error)的最小化过程,来提高模型的性能(performance)。然而我们学习一个模型的目的是为了解决实际的问题(或者说是训练数据 ...
分类:
其他好文 时间:
2017-09-05 10:10:06
阅读次数:
306
import numpy as np import random def genData(numPoints,bias,variance):#实例 偏好 方差 x = np.zeros(shape=(numPoints,2))#行列 y = np.zeros(shape=(numPoints))#行... ...
分类:
其他好文 时间:
2017-09-02 20:48:45
阅读次数:
131
参考: 如何通俗易懂地解释「协方差」与「相关系数」的概念?(非常通俗易懂) 浅谈协方差矩阵 方差(variance) 集合中各个数据与平均数之差的平方的平均数。在概率论与数理统计中,方差(Variance)用来度量随机变量和其数学期望(即均值)之间的偏离程度。 方差越大,数据的离散程度就越大。 协方... ...
分类:
其他好文 时间:
2017-08-25 21:37:29
阅读次数:
179
在sklearn中包含四种评价尺度,分别为mean_squared_error、mean_absolute_error、explained_variance_score 和 r2_score。 1、均方差(mean-squared-error) 2、平均绝对值误差(mean_absolute_err ...
分类:
其他好文 时间:
2017-07-30 19:00:51
阅读次数:
257
输出结果: bias_add:[[ 2. 0.] [ 3. 1.] [ 4. 2.]]add:[[ 2. 2.] [ 3. 3.] [ 4. 4.]] ...
分类:
其他好文 时间:
2017-07-22 19:53:46
阅读次数:
176
一、训练函数 1、traingd Name:Gradient descent backpropagation (梯度下降反向传播算法 ) Description:triangd is a network training function that updates weight and bias v ...
分类:
其他好文 时间:
2017-07-17 21:58:10
阅读次数:
316
API解释中文版(简书文章,没事看看): http://www.jianshu.com/p/e3a79eac554f Tensorlfow op辨异:tf.add()与tf.nn.bias_add()区别: http://blog.csdn.net/lanchunhui/article/detail ...
分类:
其他好文 时间:
2017-07-16 00:08:57
阅读次数:
212
int inc = 0; //整数inc等于0 while(inc < 6){ //inc在小于6的范围内递增 if(rand(@ptnum + inc + ch("seed")) < ch("variance")){ inc++; //如果随机数小于variance,产生递增值 continue; ...
分类:
其他好文 时间:
2017-07-04 09:49:02
阅读次数:
133
1 from ... import input_data 2 input_data=data_read() 3 import tensorflow as tf 4 5 def conv(name,x,w,b): 6 return tf.nn.relu(tf.nn.bias_add(tf.nn.con... ...
分类:
Web程序 时间:
2017-06-29 23:49:49
阅读次数:
378
1.train或者从checkpoint restore后发现moving_mean和moving_variance都是0和1 bn1_mean = graph.get_tensor_by_name("bn1/moving_mean/read:0") "bn1/moving_variance:0" ...
分类:
其他好文 时间:
2017-06-29 15:21:15
阅读次数:
192