码迷,mamicode.com
首页 >  
搜索关键字:机器学习 softmax logistic 回归    ( 13515个结果
一个完整推荐系统的设计实现-以百度关键词搜索推荐为例
在之前一篇博文中, 有同学在评论中问了个问题: 如何解决因式分解带来的推荐冷门关键词的问题。 在回答这个问题的时候, 想到了近几年在做搜索推荐系统的过程中, 学术界和工业界的一些区别。 正好最近正在做技术规划, 于是写偏文章说下工业界完整推荐系统的设计。结论是: 没有某种算法能够完全解决问题, 多重算法+交互设计, 才能解决特定场景的需求。下文也对之前的一些博文进行梳理,构成一个完整工业界推荐系统所具有的方方面面(主要以百度关键词搜索推荐系统为例)...
分类:其他好文   时间:2014-09-17 21:57:22    阅读次数:424
交互设计部门在互联网公司到底该独立还是拆分?
日前有消息,腾讯CDC解散了,交互、视觉、用研各成员回归到产品线与项目之中,剩下品牌组未知。这是继支付宝、网易之后,解散大型设计部门的第三家公司。也有人辟谣说只是分成各个小组下到产品里而不是解散。 精心开发5年的UI前端框架!   互联网公司大型交互设计部门的被拆分似乎成了一种宿命,伴随着谣言、悲情、猜疑、不舍蔓延开来。虽然多数人做的可能不是真理,但在目前的互联网产品环境下,设计部门拆...
分类:其他好文   时间:2014-09-17 16:54:12    阅读次数:243
OWL-QN算法: 求解L1正则优化
在机器学习模型中,OWL-QN求解...
分类:其他好文   时间:2014-09-16 20:39:41    阅读次数:501
Softmax Regression
This model generalizes logistic regression to classification problems where the class label y can take on more than two possible values. Softmax regre...
分类:其他好文   时间:2014-09-16 12:06:50    阅读次数:891
FPGA机器学习之机器学习的n中算法总结2
前面已经说了很多的算法了。比如...
分类:其他好文   时间:2014-09-16 00:20:59    阅读次数:302
常用的机器学习知识(点)
常用的机器学习&数据挖掘知识(点)  声明:想做机器学习&数据挖掘的学弟学妹,可以看看,转载请说明出处... 常用的机器学习知识(点) Basis(基础): MSE(Mean Square Error 均方误差),LMS(LeastMean Square 最小均方),LSM(Least Square Methods 最小二乘法),MLE(MaximumLikelihoo...
分类:其他好文   时间:2014-09-15 22:51:09    阅读次数:340
信息检索导论学习笔记 -- 第二章:词项词典及倒排记录表
2.1.1 文档分析及编码转换: 文档处理第一步,是将文件或web服务器上的一系列二进制字节序列转换为字符序列。 在实际中,首先要判断出文档的编码方式(机器学习分类、启发式等方法),确定文档的类型(word?zip?)然后将字节序列转换成字符序列。 2.1.2 文档单位(document unit)...
分类:其他好文   时间:2014-09-15 21:04:59    阅读次数:250
使用Jconsole监控weblogic的配置方法
在项目中发现full gc非常频繁。达到了每分钟13次。我怀疑可能会有内存泄露。于是在晚上找了内存泄露的资料。内存长期占用并导致系统不稳定一般有两种可能:1. 对象被大量创建而且被缓存,在旧的对象释放前又有大量新的对象被创建使得内存长期高位占用。表现为:内存不断被消耗、在高位时也很难回归到低位,有大...
分类:Web程序   时间:2014-09-15 19:25:39    阅读次数:281
混沌数学之二维logistic模型
上一节讲了logistic混沌模型,这一节对其扩充一下讲二维Logistic映射.它起着从一维到高维的衔接作用,对二维映射中混沌现象的研究有助于认识和预测更复杂的高维动力系统的性态。通过构造一次藕合和二次祸合的二维Logistic映射研究了二维Logistic映射通向混沌的道路,分析了其分形结...
分类:其他好文   时间:2014-09-15 14:14:59    阅读次数:347
logistic regression svm hinge loss
二类分类器svm 的loss function 是 hinge loss:L(y)=max(0,1-t*y),t=+1 or -1,是标签属性. 对线性svm,y=w*x+b,其中w为权重,b为偏置项,在实际优化中,w,b是待优化的未知,通过优化损失函数,使得loss function最小,得到优化...
分类:其他好文   时间:2014-09-15 14:08:08    阅读次数:229
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!