欢迎转载,转载注明出处:http://www.cnblogs.com/NeighborhoodGuo/p/4728185.html终于把最后一讲也看完了,stanford的NLP课程也接近了尾声,真的是非常的开心,这门课真的让我收获了很多。这一课讲得就是DL在NLP方面的应用,其实大部分内容在之前的...
分类:
其他好文 时间:
2015-08-13 20:00:55
阅读次数:
110
这一讲还是嘉宾的讲课,讲得是关于parallel计算方面的。俗话说的好:“三个臭皮匠,顶个诸葛亮嘛”。哈哈
因为一台计算机,或者一个处理器的处理能力是有限的,进行并行计算能够大大提高运算速度,节省调试的时间。而我们的NN是如此的复杂,有时候规模也特别大,所以使用并行计算是很有必要的。
这一讲呢,主要分为五个部分:1.Efficient formulations 2.CPUs and...
分类:
其他好文 时间:
2015-08-12 21:51:43
阅读次数:
211
欢迎转载,转载注明出处:
不知不觉到了第三部分了,整个课程也快结束了,虽然不是第一次整个推完公开课,但是还是有些兴奋呢!
废话不多说,开始总结啦!
这节课就介绍了一个模型,就是在Computer Vision里十分popular的CNN(Convolutional Neural Networks)。不过这里介绍它在NLP的应用,可见model其实是可以有不...
分类:
其他好文 时间:
2015-08-10 01:57:14
阅读次数:
239
欢迎转载,转载注明出处:
1.以下是problem set 2的详细推导过程:
2.
附上我自己敲的代码的解决过程,有错误请不吝指正。
https://github.com/NeighborhoodWang/CS224D-problem-set2.git
3.注意的要点:
Python...
分类:
其他好文 时间:
2015-08-09 20:47:06
阅读次数:
208
Go Go Go
第十讲也顺利结束啦,不愧是Advanced Recursive NN讲得内容确实有些Advanced,不过如果认真听课再认真看课后的paper的话,我相信还是可以完全理解的。
开始总结喽。。。
首先,老师在课上开篇讲了RNN的一个综述吧,也是使用RNN进行NLP的三个大的要素:1.Train objective主要有两种,一种是cross-entropy或者ma...
分类:
其他好文 时间:
2015-08-04 23:06:02
阅读次数:
301
最近几课的内容不是很难,还有我的理解能力有所提高(自恋一下),所以这几课完成的都挺快。不知不觉lec9也完成了。这一讲讲了另一个RNN,其中R是Recursive不是之前的Recurrent。课上老师使用Recursive NN来做NLP和CV的任务,我个人认为做CV还是不错的,这个NLP怎么感觉有点不靠谱。不管怎么说这个model还是解决了很多实际问题的,而且性能也不错,现在就来记录记录喽。...
分类:
其他好文 时间:
2015-08-02 01:01:31
阅读次数:
271
Current statistical machine translation systems源语言:法语目标语言:英语概率公式(利用贝叶斯定理):在平行语料库(parallel corpora)上训练翻译模型p(f|e)在英语语料库上训练语言模型p(e)Step1: Alignment目标:将源语言中的单词或者短语匹配到正确的目标语言中的单词或者短语假如匹配好了单词和短语,那么又如何给这些单词和短...
分类:
其他好文 时间:
2015-08-01 22:04:49
阅读次数:
157
Overview传统语言模型RNNsRNN 语言模型一些训练时重要的策略和技巧梯度消失和梯度爆炸的问题双向RNNs其他序列问题中的RNNsLanguage Models语言模型计算的是一连串词的概率:P(w1,w2…wT);其中的w1,w2…wT都是词向量。这种语言模型有利于机器翻译,例如:1.词序:p(the cat is small) > p(small the is cat)2.词的选取:p(...
分类:
其他好文 时间:
2015-07-31 18:24:53
阅读次数:
227
泥沙龙笔记:从 sparse data 再论parsing乃是NLP应用的核武器白:parsing准确率,如果把所有未尽事宜都丢给语义语用,有点自说自话的味道,最终用户无感。Wei:用户感不感没大关系,关键是它节省了语用层面的开发。没有parsing,抽取是在表层进行,存在的困境是 sparse d...
分类:
其他好文 时间:
2015-07-29 21:06:59
阅读次数:
110
马上各种校招要开始了,怎么也得准备一下,之前一直在看看机器学习,NLP方面的东西,收获很多。最近换换脑子,回过头来做做leetcode,感觉还是蛮有意思的。今天刷了个水题,AC不高,然而难度也不高。。不知道为啥。第一次提交用了最最锉的方法,找虐的,很明显超时。于是开始想,第一个想到的就是二分,本.....
分类:
其他好文 时间:
2015-07-28 22:35:43
阅读次数:
109