USE[ZhiHuiTongForSpuSplit]GO/*从产品资料导入非spu*/ALTERPROCEDURE[dbo].[UP_ZhiHuiTong_ItemSKUImport_V5]AS--DELETEFROMdbo.WebsiteCategories--DELETEFROMdbo.PropertyDescriptions--DELETEFROMdbo.PropertyValueDescr
分类:
其他好文 时间:
2018-09-29 23:47:40
阅读次数:
194
OpenCV函数 Sobel( ) Scharr( ) ...
分类:
其他好文 时间:
2018-09-29 01:16:57
阅读次数:
134
一、静态分区 1、创建分区表 2、加载数据到分区表 order_created.txt内容如下 3、这种手动指定分区加载数据,就是常说的静态分区的使用。但是在日常工作中用的比较多的是动态分区。 二、动态分区 需求:按照不同部门作为分区导数据到目标表 以上需求如果用静态分区的话,数据量大你是不是很懵逼 ...
分类:
其他好文 时间:
2018-09-27 15:28:42
阅读次数:
216
XGBoost是GBDT的改进和重要实现,主要在于: 提升算法 XGBoost也是一个加法模型,首先其在目标函数中加入了正则化项: 泰勒级数 yi(t)是第i个实例在第t次迭代的预测值,需要加入 ft来最小化以下目标 通过泰勒二阶展开近似来快速优化目标函数 其中 即l的一阶和二阶导数。移除常数项得到 ...
分类:
其他好文 时间:
2018-09-25 12:42:12
阅读次数:
459
其实这个是个很常见的问题,写下来做纪念吧。今晚是个苦逼的日子需要导数据做ogg同步,因此选用expdp做同步工具,可以参考如下博文:http://blog.51cto.com/1937519/2177360http://blog.51cto.com/1937519/2177352刚开始导出时配置:[oracle@scm02db01~]$cataaa.txtdumpfile=app20180919_
分类:
其他好文 时间:
2018-09-19 21:58:17
阅读次数:
331
深度学习中的数学 1、数学是基石,编程为工具 2、深度学习基本全是优化问题(数学) 微积分知识重点: ① 导数:导数法则、常见的函数的导数、 ② 多元函数的导数:求梯度(偏导数)、二阶导数和hess矩阵 l 为什么需要使用矩阵表达多元函数? 方便计算、简洁 l 二次型求梯度 特别简单(需要了解:张矩 ...
分类:
其他好文 时间:
2018-09-19 21:54:12
阅读次数:
144
(对最小二乘法和梯度下降的一些区别的理解: 1.最小二乘法可以直接求全局最优解 梯度下降法是一种迭代的求解局部最优解的方法 2.最小二乘法没有“优化”,只有“求解”。算是一个确定性问题。而梯度下降,涉及迭代获取最优解,才算是“优化”。) 1.梯度定义 在微积分里面,对多元函数的参数求?偏导数,把求得 ...
分类:
其他好文 时间:
2018-09-15 15:17:06
阅读次数:
263
θ不一定完全可求出 那么需要让机器一步一步的去试验 比如下图,目前在一个中间点 梯度下降:得到一个目标函数后,如何进行求解?(不一定能够直接求解出来,线性回归只是一个特例) 对θ求偏导得到最陡的一个方向 得到的偏导数,就是一个梯度 正常的梯度是向上的,现在需要向下方向 也就是梯度上升的反方向 每次走 ...
分类:
其他好文 时间:
2018-09-15 10:08:19
阅读次数:
170
梯度下降(GD) 梯度的本意是一个向量,表示某一函数在该点处的方向导数沿着该方向取得最大值,导数对应的是变化率 即函数在该点处沿着该方向变化最快,变化率最大(为该梯度的模) 随机梯度下降(SGD):每次迭代随机使用一组样本 针对BGD算法训练速度过慢的缺点,提出了SGD算法,普通的BGD算法是每次迭 ...
分类:
其他好文 时间:
2018-09-14 22:53:31
阅读次数:
151