码迷,mamicode.com
首页 > 其他好文 > 详细

第一周学习笔记

时间:2017-09-05 20:55:13      阅读:147      评论:0      收藏:0      [点我收藏+]

标签:应用   优化   线性   概念   数据集   梯度下降   text   最优   关于   

敬爱的张老师 | 刘老师:

 

  今天是我们学习本期课程(Mechine Learning)的第二周,从今天开始我会将每天每周的知识点以日记的形式整理出来,其中会有我遇到的问题和一些见解。

  以下是第一周到今天的知识点:

  • 关于机器学习(Mechine Learning)、监督学习(Supervised Learning)、非监督学习(Unsupervised Learning)的概念
  • 监督学习和非监督学习的涉及到的算法
  • 线性回归(Linear Regression):模型假设、计算代价函数、结合梯度下降算法得到相对最优模型
  • 逻辑回归(Logistic Regression):模型假设、计算代价函数、结合梯度下降算法得到相对最优模型
  • 特征缩放
  • 正规方程
  • 正则化
  • 复习了矩阵的基本知识

  对于线性回归的应用(代码实现)和算法的基本用法上理解的还可以,不过在算法的实现细节上,比如求导、求斜率等会卡住,很多的数学知识忘了,昨天试着用代码去实现逻辑回归的算法,没有写出来,原因是对于库函数numpy用的太少,掌握的不到位。今天讲了正则化,我感觉到的是算法的循循渐进,由浅入深,让数据集得到的模型更优化。

                                                        

                                                                 时间:2017年9月5日19:47:38

                                                                 姓名:曹晓晓

第一周学习笔记

标签:应用   优化   线性   概念   数据集   梯度下降   text   最优   关于   

原文地址:http://www.cnblogs.com/T-ml/p/7481738.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!