deep learning笔记:着眼于深度——VGG简介与pytorch实现 发表于 2019-09-15 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 4.6k字 | 阅读时长 ≈ 19分钟VGG是我第一个自己编程实践的卷积神经网络,也是挺高兴的,下面我就对VGG在这篇文章中做一个分享。References:电子文献:https://blog.csdn.net/xiaohuihui1994/article/details/89207534https://blog.csdn.net/si ...阅读全文 »
deep learning笔记:使网络能够更深——ResNet简介与pytorch实现 发表于 2019-10-01 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 5.2k字 | 阅读时长 ≈ 26分钟之前我用pytorch把ResNet18实现了一下,但由于上周准备国家奖学金答辩没有时间来写我实现的过程与总结。今天是祖国70周年华诞,借着这股喜庆劲,把这篇文章补上。References:电子文献:https://blog.csdn.net/weixin_43624538/article/deta ...阅读全文 »
deep learning笔记:迁移学习 发表于 2020-01-28 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 1k字 | 阅读时长 ≈ 3分钟迁移学习(Transfer Learning),又称预训练。即利用社区内开源的权重参数更快更好地训练自己的网络。然而,我一直纳闷的是,别人训练好的参数是怎么直接用到自己的网络上来的,倘若网络结构内部有一点不同那岂不是完全不一样了吗?Andrew Ng的课程给了我很大的启发,结合上自己的一些想法,写下 ...阅读全文 »
deep learning笔记:开启深度学习热潮——AlexNet 发表于 2019-09-15 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 994字 | 阅读时长 ≈ 3分钟继之前那篇deep-learning笔记:着眼于深度——VGG简介与pytorch实现,我觉得还是有必要提一下VGG的前辈——具有历史意义的AlexNet,于是就写了这篇文章简要介绍一下。References:电子文献:https://blog.csdn.net/zym19941119/articl ...阅读全文 »
computer vision笔记:SSD和DSSD 发表于 2020-02-01 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 2.7k字 | 阅读时长 ≈ 9分钟最近看了目标检测中比较经典的SSD,觉得有不少挺好的创新。之前的文章中也提到过,由于one-stage的检测方法和two-stage的检测方法都存在着速度与精度平衡的问题,所以SSD在借鉴YOLO的网络架构和Faster RCNN中的anchor box实现多尺度的思想的基础上,设计出了效果更好的算 ...阅读全文 »
computer vision笔记:元学习运用于目标跟踪——Meta-Tracker 发表于 2020-02-04 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 2k字 | 阅读时长 ≈ 7分钟之前在看元学习时,就觉得其中的一些想法很适合应用在目标跟踪领域。写完deep-learning笔记:元学习之后我就迫不及待地找了找有没有相关的论文。没想到还真有。这是一篇2018年的paper,我通过谷歌学术查了一下,发现被引次数有五六十次,觉得还是值得阅读一下的。References:参考文献:[ ...阅读全文 »
computer vision笔记:语义跟踪——FCNT 发表于 2020-02-14 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 1.8k字 | 阅读时长 ≈ 6分钟FCNT其实是一个比较老的工作了,性能跟现在是没法比的,但其中的许多进步之处还是非常有价值且值得思考的。事先注明,FCNT中的“FCN”非语义分割中的FCN,FCNT这里的“FCN”指的是全卷积网络。References:电子文献:https://www.cnblogs.com/Terrypytho ...阅读全文 »
computer vision笔记:将检测问题变回归问题——YOLO 发表于 2020-01-30 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 1.1k字 | 阅读时长 ≈ 3分钟在许多新的算法里,涉及到bounding box时,往往会转化成回归问题。而做出这种转变的开山之作,据我所知应该是YOLO。关于YOLO,网上有很多很好的解读,我也在之前的文章中多次提到过YOLO的一些要素,这里不一一列举了,也不重复了,可以使用我网站内的搜索功能看一下相关内容。Andrew Ng在 ...阅读全文 »
machine learning笔记:机器学习中正则化的理解 发表于 2019-09-15 | 更新于: 2020-02-15 | 分类于 人工智能 | | 阅读次数: 字数统计: 1.6k字 | 阅读时长 ≈ 5分钟在接触了一些ML的知识后,大家一定会对正则化这个词不陌生,但是我感觉根据这个词的字面意思不能够直接地理解它的概念。因此我打算写一篇文章做个记录,方便以后回忆。References:参考文献:[1]统计学习方法(第2版)线性代数中的正则化如果直接搜索正则化这个名词,首先得到的一般是代数几何中的一个概念 ...阅读全文 »
markdown笔记:公式插入和代码高亮 发表于 2019-09-15 | 更新于: 2020-02-15 | 分类于 操作和使用 | | 阅读次数: 字数统计: 846字 | 阅读时长 ≈ 3分钟在上一篇文章deep-learning笔记:着眼于深度——VGG简介与pytorch实现中,我用到了markdown其他的一些使用方法,因此我想在此对之前的一篇文章markdown笔记:markdown的基本使用做一些补充。References:电子文献:https://www.jianshu.co ...阅读全文 »