import tensorflow as tf import numpy as np x = np.array([1, 2, 3, 4]) y = np.array([0,0,1,1]) w = tf.Variable(1.) b = tf.Variable(1.) sigmodX = 1 / (1 ...
分类:
其他好文 时间:
2020-08-04 16:42:00
阅读次数:
91
这是一个人看看到就心慌的现实消息,壮丽70年,奋斗新时代,与祖国同庆之后,我们需要回归正轨了(这句话貌似无比的刺耳),祖国会有无数个70年,我们却只有一个,所以把握当下,提前收拾好心情,调整好状态并发编程是一个漫长的系列,所以在假期的最后一天,将过往的文章罗列在此处,带领大家一起做个回忆,以便大家节后更好的进入并发编程的节奏,文章内容都很好记忆,大家也不用有什么压力,当个故事看就好了:这里整理了手
分类:
其他好文 时间:
2020-08-02 10:23:32
阅读次数:
94
前因那是一个月黑风高的夜晚,不管有没有圆圆的月亮,都无法解救要加班的我。这就是苦涩的人生啊!那天正好是春节回家的日子,定了晚上的票,然后还是上线的日子。测试在做回归测试的时候,发现一个老功能报错了,什么鬼,都没改过那块代码怎么会出问题?案件疑点重重呀。。。为了能够早点上线,早点回家,所以这个Bug就显得十万火急了,因为就这一个问题,其他都没问题,解决好了就可以上线了,于是开启了破案之路。第一步:找
分类:
其他好文 时间:
2020-08-01 12:39:08
阅读次数:
59
昨天实现了一个计算机函数的提取过程,不过就函数提取的公式而言,因为用的是sklearn提供的多元线性回归分析函数,其中有最小二乘法和梯度下降的模拟。 但是无论是上述的哪种函数的模拟,一旦针对一些相对而言比较复杂的多元非线性问题,就很有可能不能发挥出函数提取的功能了。要做到一种精度比较高的模拟图像识别 ...
分类:
其他好文 时间:
2020-07-29 10:04:19
阅读次数:
67
1.数据处理时缺失指怎么处理 2.L1和L2的区别 3.高维数据如何降维 4.特征处理,连续型和非连续性,给了个例子,年龄和user_id两个特征如何处理 5.LR了解吗,如何解决过拟合问题 6.如何评估模型结果,我把分类和回归分别解释,介绍各种评估方式的不足,还问了ROC曲线横纵坐标 7.Rand ...
分类:
其他好文 时间:
2020-07-28 22:38:27
阅读次数:
115
项目讨论 一、项目中符合自动化测试的部分有哪些?(目标和范围 scope, 准入准出标准) 1、稳定的需求点、变动较少的页面2、每日构建后的测试验证 daily build3、比较频繁的回归测试4、需要在多平台上运行的相同测试案例、组合遍历型的测试、大量的重复任务二、自动化用例在整个项目的测试用例的 ...
分类:
Web程序 时间:
2020-07-27 15:38:48
阅读次数:
95
代码和其他资料在 github 一、tf.keras概述 首先利用tf.keras实现一个简单的线性回归,如 \(f(x) = ax + b\),其中 \(x\) 代表学历,\(f(x)\) 代表收入,分别代表输入特征和输出值。为了描述预测目标与真实值之间的整体误差最小,需要定义一个损失函数,数学描 ...
分类:
其他好文 时间:
2020-07-26 15:25:59
阅读次数:
78
一、概述 假设有以下数据: $$D=\left {(x_{1},y_{1}),(x_{2},y_{2}),\cdots ,(x_,y_)\right }\ x_\in \mathbb,y_\in \mathbb,i=1,2,\cdots ,N\ X=(x_{1},x_{1},\cdots ,x_)= ...
分类:
其他好文 时间:
2020-07-22 20:54:34
阅读次数:
82
一、偏差和方差 欠拟合的loss主要来自偏差 过拟合的loss主要来自方差 应对大的偏差的方法: 增加更多特征作为输入 使用更复杂的模型 应对大的方差的方法: 更多数据 正则化 k折交叉验证 二、梯度下降 Adagrad 二次微分大的点梯度虽然大但是可能会比梯度小的点离极值点更近,因此学习率需要考虑 ...
分类:
其他好文 时间:
2020-07-22 20:53:23
阅读次数:
106
SVM现在主流的有两个方法。一个是传统的推导,计算支持向量求解的方法,一个是近几年兴起的梯度下降的方法。 梯度下降方法的核心是使用了hinge loss作为损失函数,所以最近也有人提出的深度SVM其实就是使用hinge loss的神经网络。 本文的目的是讲解传统的推导。 SVM的超平面 SVM模型的 ...
分类:
其他好文 时间:
2020-07-22 20:16:36
阅读次数:
68