1、训练误差和泛化误差 机器学习的主要挑战是我们的模型要在未观测数据上表现良好,而不仅仅是在训练数据上表现良好。在未观测数据上表现良好称为 泛化 (generalization)。 通常情况下,我们在训练数据上训练模型时会计算一些被称为 训练误差 (training error)的误差度量,目标是降 ...
分类:
其他好文 时间:
2018-08-23 00:29:40
阅读次数:
229
[资料] 干货!SVPWM的资料整合 http://bbs.elecfans.com/jishu_543573_1_1.html zhp0910 · 2016-3-6 14:55:47 8# zhp0910 · 2016-3-6 14:55:47 8# zhp0910 · 2016-3-6 14:5 ...
分类:
其他好文 时间:
2018-08-21 13:55:01
阅读次数:
1126
一、σ2 的估计 因为假设检验以及构造与回归模型有关的区间估计都需要σ2的估计量,所以先对σ2作估计。 通过残差平方和(误差平方和) (1) 又∵ (2) ∴ (3) 其中 为响应变量观测值的校正平方和。残差平方和有n-2 个自由度,因为两个自由度与得到的估计值与相关。 (4) ∴ σ2的无偏估计量 ...
分类:
其他好文 时间:
2018-08-19 19:07:39
阅读次数:
350
矩阵图非常有用,人们经常用它来查看多个变量之间的联系。 下面用著名的鸢尾花数据来画一个矩阵图。从sklearn导入鸢尾花数据,然后将其转换成pandas的DataFrame类型,最后用seaborn画图。(seaborn包里也有这个数据,也可以直接从seaborn包导入此数据) 矩阵图: sns.p ...
分类:
其他好文 时间:
2018-08-18 17:49:00
阅读次数:
1349
summary()提供基础的统计信息 sapply(x,FUN,options)可以指定统计函数 fivenum()可以返回图基五数 Hmisc 中的describe(data)返回变量,观测的变量,缺失值,唯一值得数目、平均值、分位数,一级5个最大值,五个最小值 pasecs包中的stat.des ...
分类:
其他好文 时间:
2018-08-18 13:05:44
阅读次数:
227
主题模型理论(LDA):一篇文章的每个词都是以一定概率选择了某个主题,并从这个主题中以一定概率选择某个词语而组成的。P(单词|文档)=P(单词|主题)*P(主题|文档)对于语料库中的每篇文档,LDA定义了如下生成过程(generativeprocess):1.对每篇文档,从主题分布中抽取一个主题;2.从上述被抽到的主题所对应的单词分布中抽取一个单词;3.重复上述过程直至文档中的每一个单词。w代表单
分类:
编程语言 时间:
2018-08-14 11:25:42
阅读次数:
276
一、什么是语言模型 假设,对于一个观测值:“yuyanmoxing”,可能是由“语言模型”、“寓言模型”、“语言魔性” ... 等得到的,但是要想得到究竟是哪一个,通常需要计算它们的概率,譬如:P("语言模型"|"yuyanmoxing") > P("寓言模型"|"yuyanmoxing") > . ...
分类:
编程语言 时间:
2018-08-12 17:20:43
阅读次数:
306
基本思想 以K-1时刻的最优估计Xk-1为准,预测K时刻的状态变量Xk/k-1,同时又对该状态进行观测,得到观测变量Zk,再在预测与观之间进行分析,或者说是以观测量对预测量进行修正,从而得到K时刻的最优状态估计Xk。 具体实例 设一个机器人有两个状态量,分别为位置P,速度V。在这里记为: 卡尔曼滤波 ...
分类:
其他好文 时间:
2018-08-12 14:23:31
阅读次数:
259
简介 HMM 中的变量可以分为两组. 第一组是 状态变量 $\{y_i,y_2,\cdots, y_n\}$, 其中 $y_i \in \mathcal{Y}$ 表示第 $i$ 时刻的系统状态. 通常假定状态变量是隐藏的、不可观测的, 因此状态变量亦被称为 隐变量 (hidden variable) ...
分类:
其他好文 时间:
2018-08-11 01:29:47
阅读次数:
120
PC=PV/T C t f 其中,PC是并发数,T是观测时间,即产生PV的时间长度,比如一天中的14个小时产生了20万并发,则公式中T=14 60 60秒,PV=20万。C是单个页面请求的HTTP连接数,t是连接的持续时间,一般取一个估计用户等待连接的时长,比如用户在平均等待5秒发现网页还没打开就不 ...
分类:
其他好文 时间:
2018-08-10 17:08:31
阅读次数:
167