包含:经典机器学习、深度学习、强化学习、计算机视觉、分布式训练、自动建模、平台 1 . 适用于经典机器学习的工具 一、SciKit-learn star 39.2k fork 19.2k scikit-learn 是一种强大的基于 Python 语言的机器学习算法库(https://scikit-l ...
分类:
其他好文 时间:
2020-02-12 22:32:06
阅读次数:
114
1 def tensor_demo(): 2 """ 3 张量的演示 4 :return: 5 """ 6 tensor1 = tf.constant(4.0) 7 tensor2 = tf.constant([1, 2, 3, 4]) 8 linear_squares = tf.constant( ...
分类:
其他好文 时间:
2020-02-10 22:13:32
阅读次数:
58
深度学习框架如Tensorflow和Pytorch等为用户提供了可供调用的API,但也隐藏了深度学习底层的实现细节。为方便大家更加深入地理解深度学习原理并了解其底层实现,特此推出了《课程深度学习原理详解及Python代码实现》。期望能“掀起你的盖头来,让我看看你的模样”,为深度学习进一步的优化和创新打下根基。课程链接:https://edu.51cto.com/course/21426.html本
分类:
编程语言 时间:
2020-02-10 15:25:00
阅读次数:
103
4. deep learning computaion 4.1 模型构造 4.1.1 继承 来构造模型 类是 模块里提供的一个模型构造类,我们可以继承它来定义我们想要的模型也可以继承它来构造层。 事实上, 类继承自 类。当模型的前向计算为简单串联各个层的计算时,可以通过更加简单的方式定义模型。这正是 ...
分类:
其他好文 时间:
2020-02-10 09:44:49
阅读次数:
68
会话 开启会话 tf.Session用于完整的程序中 tf.InteractiveSession用于交互式上下文中的tensorflow 查看张量的值 都必须在会话里面 c_new_value=new_sess.run(c_new) print("c_new_value:\n",c_new_valu ...
分类:
其他好文 时间:
2020-02-09 11:53:00
阅读次数:
56
一、前提 该篇为基于实现LSTM中文情感倾向分析的基础上,为提高情感倾向预测的准确度,而引入的一个注意力机制模块,通过翻阅相关学术文献和其他资料所作的归纳总结。 二、注意力机制简介 简单来说,注意力机制与人类视觉注意力相似,正如人在看事物一样,会选择重点的对象,而忽略次要对象。近几年来,注意力机制在 ...
分类:
其他好文 时间:
2020-02-09 09:52:50
阅读次数:
57
关于LDA主题模型,一度是NLP领域一个非常火的模型,后来深度学习大放异彩,它的热度才慢慢降了下来。由于数学基础很差,一直没有理解LDA的整个核心。到目前为止,也只是理解了皮毛。记录一下关于LDA主题模型相关的学习资料。LDA主题模型属于编码简单,但是数学功底要求较高的一个机器学习模型,在搜索引擎和广告领域有用到。按照《LDA数学八卦》作者靳志辉老师的说法,是一个比较简单的模型,前提是需要数学功底
分类:
其他好文 时间:
2020-02-08 23:15:33
阅读次数:
178
数字识别是计算机从纸质文档、照片或其他来源接收、理解并识别可读的数字的能力,目前比较受关注的是手写数字识别。手写数字识别是一个典型的图像分类问题,已经被广泛应用于汇款单号识别、手写邮政编码识别,大大缩短了业务处理时间,提升了工作效率和质量。 手写数字识别是每个深度学习者的必经之路,正如学习编程时,我 ...
分类:
其他好文 时间:
2020-02-08 15:22:13
阅读次数:
58
1 import tensorflow as tf 2 import os 3 os.environ['TF_CPP_MIN_LOG_LEVEL']='2' 4 def tensorflow_demo(): 5 6 #原生python加法运算 7 a = 2; 8 b=3; 9 c=a+b; 10 ...
分类:
其他好文 时间:
2020-02-08 09:24:27
阅读次数:
55
深度学习之卷积神经网络 卷积神经网络 - 结构 卷积层 通过在原始图像上平移来提取特征 激活层 增加非线性分割能力 池化层 减少学习的参数,降低网络的复杂度(最大池化和平均池化) 全连接层 卷积层(Convolutional Layer) 卷积核 - filter - 过滤器 - 卷积单元 - 模型 ...
分类:
其他好文 时间:
2020-02-07 22:40:01
阅读次数:
94