目录 word2vec 简介 CBOW与Skip-Gram模型 优化方法 优点 word2vec API讲解 三个最常见的应用 一句话简述:2013年Google发明,使用跳字节模型(skip-gram)或连续词袋模型(continuous bag of words ,CBOW)训练词向量(初始位o... ...
分类:
其他好文 时间:
2020-06-16 20:35:06
阅读次数:
50
5.1 Cross-Entropy Cost 上节实现了一个简单的神经网络所需要的所有function,包括梯度下降算法,BP算法等,利用python实现最简单的神经网络。从本节课开始介绍另外一种cost function。 我们理想情况是让神经网络学习更快。 假设简单模型:只有一个输入、一个神经元 ...
分类:
编程语言 时间:
2020-06-13 23:19:15
阅读次数:
82
视频链接:https://www.bilibili.com/video/BV12741177Cu?from=search&seid=17209581732555565064 视频上是用的jupyter notebook实现的,这次我是用的pycharm实现的代码。 fizz\buzz\fizzbuz ...
分类:
其他好文 时间:
2020-06-13 12:38:49
阅读次数:
54
求解线性规划问题: 化为标准形式: 输入: 输出: 如果有非线性函数,如何做呢? 例如: 每一个xi 变成了两个量 u, v 所以我们需要2n长度的向量来表示新的自变量x*,前n项为u,后n项为v; 如题: 代码为: c = 1:4; c = [c,c]'; Aeq = [1 -1 -1 1;1 - ...
分类:
其他好文 时间:
2020-06-08 00:51:34
阅读次数:
127
文章迁移说明:此文已由lightinglei于2019-02-18发布,是本人的另外一个账号,现同步迁移至本账号 一、正规方程、梯度下降原理介绍 正规方程: 先了解下线性模型,假设我们依据消费者的年龄、性别、职业3个特征来判断是否会进行购物消费,令x1代表年龄、x2代表性别、x3代表职业,则我们可以 ...
分类:
编程语言 时间:
2020-06-06 12:42:42
阅读次数:
58
1.梯度下降法 是一种基于搜索的最优化方法,作用是最小化一个损失函数。 但不是所有的函数都有唯一的极值点。 解决方案:多次运行,随机初始化点 梯度下降法的初始点也是一个超参数 线性回归法的损失函数具有唯一的最优解。 模拟实现梯度下降法 1 import numpy as np 2 import ma ...
分类:
其他好文 时间:
2020-06-05 21:05:44
阅读次数:
70
今天我们来聊聊Flexbox,它是前端的一个布局方式。在React Native中是主流布局方式。如果你刚刚入门React Native,或者没有多少前端的技术经验,亦或者对其半知半解,那么这篇文章将很好的帮助你参透Flexbox的整个全貌。 purpose 通过这篇文章你将快速吃透整个Flexbo ...
分类:
其他好文 时间:
2020-06-01 14:05:49
阅读次数:
55
当我们在训练一个神经网络的时候,参数的随机初始化是非常重要的,对于逻辑回归来说,把参数初始化为0是很ok的。但是对于一个神经网络,如果我们将权重或者是所有参数初始化为0,梯度下降算法将不会起到任何作用。 1.为什么逻辑回归参数初始化为0是ok的? 下图所示,是logistic回归的图解: 假设我们用 ...
分类:
其他好文 时间:
2020-06-01 00:50:01
阅读次数:
226
[toc] 遗传 选择,交叉,变异 模拟退火 假设前一个状态为$x(n)$,系统根据某一规则(比如梯度下降)使状态变为$x(n+1)$时,系统的能量(通过损失函数算得)由$E(n)$变为E(n+1),定义由$x(n)$到$x(n+1)$的状态转化的接受概率为: $P=\left\{\begin{ma ...
分类:
其他好文 时间:
2020-05-24 11:37:03
阅读次数:
75
主要内容: 线性回归 定义与问题引入 损失函数 梯度下降 过拟合与正则化 逻辑回归 定义与问题引入 损失函数 梯度下降与正则化 线性回归 有监督学习= 学习样本为D={(x~i~,y~i~)}^N^~i=1~ 多变量情形: 损失函数 loss function: 梯度下降: 其中α为步长,很大 震荡 ...
分类:
其他好文 时间:
2020-05-17 17:27:48
阅读次数:
73