最小二乘法 最小化误差的平方。 对于式子,y(i)是真值,ax(i)-b 是预测值。将两者差的平方和最小化,就是最小二乘法解决的问题。 x_bar :x向量对应的均值 推导过程: ...
分类:
其他好文 时间:
2018-02-28 21:37:23
阅读次数:
126
转载自:http://blog.csdn.net/marsjohn/article/details/54911788 在数据的统计分析中,数据之间即变量x与Y之间的相关性研究非常重要,通过在直角坐标系中做散点图的方式我们会发现很多统计数据近似一条直线,它们之间或者正相关或者负相关。虽然这些数据是离散 ...
分类:
其他好文 时间:
2018-02-02 20:16:19
阅读次数:
278
多元函数拟合。如 电视机和收音机价格多销售额的影响,此时自变量有两个。 python 解法: 拟合的各项评估结果和参数都打印出来了,其中结果函数为: f(sales) = β0 + β1*[TV] + β2*[radio] f(sales) = 2.9211 + 0.0458 * [TV] + 0. ...
分类:
编程语言 时间:
2018-01-31 20:27:17
阅读次数:
1450
1.学习了scanf()函数,C++输入流的用法,尤其是字符串的输入 2.微分方程的数值求解 一次累加后的 对离散后的微分方程:参数估计(最小二乘法) 1.首先另代换 2.最小二乘估计 3.得到模型表达式,预测 ...
分类:
其他好文 时间:
2018-01-23 23:17:42
阅读次数:
205
方程式: 1.1 估计参数 代表第i 个残差第i 个观测到的响应值和第i 个用线性模型预测出的响应值之间的差距 残差平方和(residual sum of squares ,RSS): 等价于: 最小二乘法选择β0和β1来使RSS达到最小。通过微积分运算,使RSS最小的参数估计值为: 1.2评估系数 ...
分类:
其他好文 时间:
2018-01-19 18:48:50
阅读次数:
244
caret包(Classification and Regression Training)是一系列函数的集合,它试图对创建预测模型的过程进行流程化。本系列将就数据预处理、特征选择、抽样、模型调参等进行介绍学习。 本文将就caret包中的数据预处理部分进行介绍学习。主要包括以下函数:model.ma ...
分类:
编程语言 时间:
2018-01-15 20:20:27
阅读次数:
5193
先来说说回归的思想吧: 常见的回归就是通过一系列的点,计算得到一条线。当有新的输入时,可以直接计算得到输出。用最小二乘法求解线性回归方程就是我们最早接触到的回归。对于线的表示都不尽相同,如线性回归得到的预测函数是y=w? T?x? +a,逻辑回归则是一条S型曲线。 逻辑回归和线性回归(Linear ...
分类:
其他好文 时间:
2017-12-22 15:55:52
阅读次数:
167
最小二乘法可以从Cost/Loss function角度去想,这是统计(机器)学习里面一个重要概念,一般建立模型就是让loss function最小,而最小二乘法可以认为是 loss function = (y_hat -y )^2的一个特例,类似的像各位说的还可以用各种距离度量来作为loss fu ...
分类:
其他好文 时间:
2017-12-18 18:46:01
阅读次数:
165
1 #coding=utf-8 2 from numpy import * 3 import numpy as np 4 import matplotlib.pyplot as plt 5 6 plt.close() 7 fig=plt.figure() 8 plt.grid(True) 9 plt... ...
分类:
其他好文 时间:
2017-12-11 11:11:18
阅读次数:
156