码迷,mamicode.com
首页 > 其他好文 > 详细

Tensorflow

时间:2019-12-09 21:10:07      阅读:163      评论:0      收藏:0      [点我收藏+]

标签:lib   赋值   oba   初始   divide   没有   const   random   VID   

1.什么是Tensorflow?

Tensor(张量)意味着 N 维数组,Flow(流)意味着基于数据流图的计算,TensorFlow即为张量从图的一端流动到另一端。

它支持CNN(卷积神经网络)、RNN(循环神经网络)和LSTM(长短期记忆网络)算法,是目前在 Image,NLP 最流行的深度神经网络模型。

 

推荐一个网址,神经网络游乐场,很明白的了解具体的训练流程,得到最佳的结果

http://playground.tensorflow.org/

2.Tensorflow的优点

  • 第一,基于Python,写的很快并且具有可读性。
  • 第二,在CPU或GPU系统上的都可运行。pip install tensorflow
  • 第三,代码编译效率较高。
  • 第四,社区发展的非常迅速并且活跃。
  • 第五,能够生成显示网络拓扑结构和性能的可视化图。

3.Tensorflow的原理

TensorFlow是用数据流图(data flow graphs)技术来进行数值计算的。

数据流图是描述有向图中的数值计算过程。

有向图中,节点通常代表数学运算,边表示节点之间的某种联系,它负责传输多维数据(Tensors)。

技术图片

 

 

4.Tensorflow的使用

 1 import warnings
 2 warnings.filterwarnings(ignore)
 3 import numpy as np
 4 import tensorflow as tf
 5 
 6 #常量的计算
 7 nd1=np.random.randint(0,10,size=5)
 8 s=tf.reduce_sum(nd1,name=sum)
 9 sess=tf.Session()
10 sess.run(s)
11 
12 # 求平均值
13 m=tf.reduce_mean(nd1.astype(np.float16))
14 # 使用with会自动关闭
15 with tf.Session() as sess:
16     print(sess.run(m))
17 
18 # 返回值是操作
19 c=tf.constant(Hello Tensorflow)
20 c2=tf.constant(1024)
21 c3=tf.constant(512)
22 a=tf.add(c2,c3)
23 b=c3-c2
24 d=tf.abs(b)
25 m=tf.multiply(10,8)
26 # 除法直接返回结果
27 n=tf.divide(1024,100)
28 h=tf.divide(b,d)
29 # sess.run(c) c必须是tensor操作
30 with tf.Session() as sess:
31     print(sess.run(c))
32     print(sess.run(c2))
33     print(sess.run(a))
34     print(sess.run(b))
35     print(sess.run(d))
36     print(sess.run(m))
37     print(n)
38     print(sess.run(h))
39 
40 # 矩阵操作
41 a=np.random.randint(0,10,size=(2,3))
42 b=np.random.randint(0,10,size=(3,4))
43 # 矩阵的点乘
44 c=tf.matmul(a,b)
45 with tf.Session() as sess:
46     print(sess.run(c))
 1 # 变量的计算
 2 # 求解方程时,系数和截距都是变量
 3 # 声明变量
 4 v=tf.Variable(initial_value=0,dtype=np.float16)
 5 v2=tf.Variable(initial_value=3.14,dtype=tf.float16)
 6 with tf.Session() as sess:
 7     # 变量必须进行初始化
 8     sess.run(tf.global_variables_initializer())
 9     result=sess.run([v,v2])
10     print(result)
11     # 将变量更新一下,重新赋值,必须运行之后才会修改
12     assign=tf.assign(v,2.718)
13     sess.run(assign)
14     #相当于求v2-2
15     sess.run(tf.assign_sub(v2,2))
16     print(sess.run([v,v2]))
17 
18 # 占位符
19 # 占位符的作用
20 ‘’‘一方面用TensorFlow写网络的时候,训练前我们往往不知道x和y的具体大小,但在写前项传播时又不得不先在计算图中定义这么一个节点,因为其他变量会依赖它。此时,我们就可以先在网络中给这些变量留(占)一个位置,等到训练的时候根据batch的尺寸就能确定x,y的大小了。
21 另一方面我们迄今为止所做的计算一直很乏味:没有机会获得输入,所以它们总是输出相同的东西。一个实用的应用可能涉及构建这样一个计算图:它接受输入,以某种(一致)方式处理它,并返回一个输出。最直接的方法是使用占位符。占位符是一种用于接受外部输入的节点。
22 ‘’‘
23
24 A=tf.placeholder(dtype=tf.float32,shape=(None,4),name=A)
25 B=tf.placeholder(dtype=np.float32,shape=(4,None),name=B)
26 C=tf.matmul(A,B)
27 with tf.Session() as sess:
28     # 占位时使用的None,赋值时可以随意构建形状,只要匹配就可以
29     b=sess.run(tf.random_normal(shape=[4,5]))
30     ret=sess.run(C,feed_dict={A:np.random.randint(0,5,size=(3,4)),B:b})
31     print(ret)

 

5.Tensorlow完成线性回归

 1 import warnings
 2 warnings.filterwarnings(ignore)
 3 import numpy as np
 4 import matplotlib.pyplot as plt
 5 %matplotlib inline
 6 from sklearn.linear_model import LinearRegression
 7 import tensorflow as tf
 8 
 9 # 构造数据
10 X=np.linspace(2,12,50).reshape(-1,1)
11 w=np.random.randint(1,6,size=1)[0]
12 b=np.random.randint(-5,5,size=1)[0]
13 y=X*w+b+np.random.randn(50,1)*0.7
14 plt.scatter(X,y)
15 
16 # 用线性回归模型来计算
17 linear=LinearRegression()
18 linear.fit(X,y)
19 print(linear.coef_,linear.intercept_)
20 
21 #用tensorflow来计算
22 # 1.定义占位符,变量
23 # 线性回归理论基础是最小二乘法
24 X_train=tf.placeholder(dtype=tf.float32,shape=[50,1],name=data)
25 y_train=tf.placeholder(dtype=tf.float32,shape=[50,1],name=target)
26 w_=tf.Variable(initial_value=tf.random_normal(shape=[1,1]),name=weight)
27 b_=tf.Variable(initial_value=tf.random_normal(shape=[1]),name=bias)
28 
29 # 2.构造方程(线性方程,矩阵乘法)
30 # 构建方程 f(x)=Xw+b
31 y_pred=tf.multiply(X_train,w_)+b_
32 # shape=(50,1)
33 
34 # 3.最小二乘法(平均最小二乘法)
35 # 二乘法(y_pred-y_train)**2 返回的结果是一个列表,列表没有办法比较大小
36 # 平均最小二乘法,数值,mean
37 cost=tf.reduce_mean(tf.pow(y_pred-y_train,2))
38 
39 # 4.梯度下降优化
40 # 优化,cost越小越好
41 # 梯度下降优化
42 opt=tf.train.GradientDescentOptimizer(0.01).minimize(cost)
43 
44 # 5.会话进行训练(for循环)
45 with tf.Session() as sess:
46     # w,b,变量初始化
47     sess.run(tf.global_variables_initializer())
48     for i in range(1000):
49         opt_,cost_=sess.run([opt,cost],feed_dict={y_train:y,X_train:X})
50         print(执行次数是:%d,损失函数值是:%0.4f%(i+1,cost_))
51         # for 循环结束,训练结束
52         # 获取斜率和截距
53     W,B=sess.run([w_,b_])
54     print(经过1000次的训练,tensorflow返回的线性方程的斜率是:%0.3f,截距是:%0.3f%(W,B))
55 
56 # 6.可视化
57 plt.scatter(X,y)
58 x=np.linspace(2,12,100)
59 plt.plot(x,W[0]*x+B,color=green)

 

Tensorflow

标签:lib   赋值   oba   初始   divide   没有   const   random   VID   

原文地址:https://www.cnblogs.com/xiuercui/p/12013114.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!