码迷,mamicode.com
首页 >  
搜索关键字:懂    ( 22026个结果
自制电台写频器
其实给对讲机写频时,写频器起到的作用就是对电平的转换,通俗点讲就是把电脑发出的信息转换成对讲机能读懂的信息,就如翻译一样. 下面我们来看看两张写频器的电路图,这两个图都是用了MAX232这个电脑串口电平转换专用芯片,它有着兼容性好、稳定性好、外围电路简单、容易制作等优点。图一:这个是给部分要接4条线 ...
分类:其他好文   时间:2020-12-03 12:29:24    阅读次数:14
宋宝华:Linux文件读写(BIO)波澜壮阔的一生
原创宋宝华Linux阅码场2019-12-23前言网上关于BIO和块设备读写流程的文章何止千万,但是能够让你彻底读懂读明白的文章实在难找,可以说是越读越糊涂!我曾经跨过山和大海也穿过人山人海我曾经问遍整个世界从来没得到答案本文用一个最简单的read(fd,buf,4096)的代码,分析它从开始读到读结束,在整个Linux系统里面波澜壮阔的一生。本文涉及到的代码如下:#include<unis
分类:系统相关   时间:2020-12-02 12:12:59    阅读次数:8
给我一分钟时间,让我看看你的算法能力在第几阶梯?
前阵子有人和我反馈说,我写的大部分算法都有点难度,好多都是没听说过的,有点冷门,不过,写的很不错。不过说实话,我好像写的大部分算法、都不是那么的常见,也具有一定的难度,也都不是热门算法。主要是我觉得,那些热门的算法,例如二分查找、链表逆序、深度遍历等各种,对应的文章太多了,感觉你们应该都看过,应该也都懂,所以我就没打算写了。不过,可能是我想多了,我问了一些人,发现还是挺多人对很多热门算法不是很懂的
分类:编程语言   时间:2020-12-01 12:43:52    阅读次数:20
【追求极致】我是如何把easy级别的算法题做成hard级别的。
我们平时在刷题的时候,我觉得大致可分为以下几类题1、这道题的暴力解法很简单,几乎人人都会做,但最优解却很难。2、如果你懂某些算法思想,这道题很简单,如果不懂,那么这道题顿时很难,例如有些需要dp来处理的。3、这种题型没做过,没啥思路,但接触过好几道之后,便会觉得异常简单,例如不能使用加减乘除运算符来完成加法运算。4、最后一种是属于真正的难题,思路难想,就算知道了思想,编码也很难,因为临界点之类的特
分类:编程语言   时间:2020-12-01 12:24:08    阅读次数:5
【狂神说JAVA】CSS(通俗易懂版)
1、CSS的3种导入方式 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>Title</title> <!--内部样式--> <style> h1{ color: green; } </style> <!-- ...
分类:编程语言   时间:2020-11-30 16:15:02    阅读次数:11
干货|代码原理教你搞懂SGD随机梯度下降、BGD、MBGD
文章主要目录如下:1.批量梯度下降法BGD原理讲解2.随机梯度下降法SGD原理讲解3.小批量梯度详解MBGD原理讲解4.具体实例以及三种实现方式代码详解5.三种梯度下降法的总结在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。一般线性回归函数的假设函数为
分类:其他好文   时间:2020-11-27 11:55:19    阅读次数:30
js关于函数全局变量和局部变量的区分
大家在js里写函数时,可能会出现局部变量和全局变量搞不清楚的情况!!(以下总结了几道题,搞懂即可!) 1. var a = 10; //全局 100 function fn() { a = 100; // 全局 先找函数中有没有变量声明/形式参数 有=>局部变量(不影响全局) 没有=>向外跳一层找全 ...
分类:Web程序   时间:2020-11-27 11:34:40    阅读次数:11
通过代码原理教你搞懂SGD随机梯度下降、BGD、MBGD
在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。一般线性回归函数的假设函数为:对应的损失函数为:(这里的1/2是为了后面求导计算方便)下图作为一个二维参数(theta0,theta1)组对应能量函数的可视化图:下面我们来分别讲解三种梯度下降法1批量梯度
分类:其他好文   时间:2020-11-27 10:49:35    阅读次数:5
真正的完全图解Seq2Seq Attention模型
五分钟看懂seq2seqattention模型。本文通过图片,详细地画出了seq2seq+attention模型的全部流程,帮助小伙伴们无痛理解机器翻译等任务的重要模型。seq2seq是一个Encoder–Decoder结构的网络,它的输入是一个序列,输出也是一个序列,Encoder中将一个可变长度的信号序列变为固定长度的向量表达,Decoder将这个固定长度的向量变成可变长度的目标的信号序列。-
分类:其他好文   时间:2020-11-26 14:57:13    阅读次数:5
一文搞懂NLP中的Attention机制(附详细代码讲解)
机器学习算法与自然语言处理出品@公众号原创专栏作者Don.hub单位|京东算法工程师学校|帝国理工大学OutlineIntuitionAnalysisProsConsFromSeq2SeqToAttentionModelseq2seq很重要,但是缺陷也很明显attentionwasbornWritetheencoderanddecodermodelTaxonomyofattentionnumber
分类:其他好文   时间:2020-11-26 14:37:40    阅读次数:4
22026条   上一页 1 ... 19 20 21 22 23 ... 2203 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!