2016深度学习技术文章回顾

时间:2022-06-01 20:32:26

转眼间,2016年即将过去,公众号也迎来了第一个200天。我是在2016年6月8日开始创建这个公众号的,在这200天里,我已经养成了每周分享2-3篇的技术文章的习惯,一共写了85篇左右的文章,其中技术类文章约78篇。我将它们整理如下:

2016年技术文章链接

闲聊

1.《聊聊语音识别的发展历程

2.《说说重要的贝叶斯公式吧

3.《我对入门深度学习的切身体会

4.《聊聊隐马尔科夫模型(HMM)

5.《关于防止过拟合的一些想法

6.《我与数据打交道(一)

7.《我与数据打交道(二)

8.《我与数据打交道(三)

9.《资源汇总|如何成为一名数据科学家

10.《如何用Git同步两台电脑

11.《从头写一个朋友圈红包图片


传统数据挖掘算法

12.《我对GMM的理解(一)

13.《我对GMM的理解(二)

14.《K-最近邻算法的应用

15.《朴素贝叶斯(Naive Bayes)

16.《决策树(Decision Tree)

17.《Bagging,Random Forests以及Boosting

18.《K-Means集群算法

19.《我对推荐系统的理解

20.《如何评价一个机器学习模型

21.《如何理解机器学习中的bias与variance


基础数据结构与算法

22.《有哪些基本的排序算法

23.《聊聊组合与排列

24.《一个算法问题的三种思考方式

25.《再叙快排

26.《什么是自平衡二叉查找树

27.《如何进行归并排序

28.《分析堆排序


动态规划与强化学习

29.《我对动态规划的理解(一)

30.《我对动态规划的理解(二)

31.《我对动态规划的理解(三)

32.《马尔科夫决策过程

33.《n-Armed Bandit Problem(一)

34.《n-Armed Bandit Problem(二)

35.《基于强化学习开发人机对弈五子棋游戏


卷积神经网络

36.《我所理解的深度学习(一)——BP图模型算法

37.《我所理解的深度学习(二)——卷积神经网络基础

38.《我所理解的深度学习(三)——卷积神经网络应用①

39.《我所理解的深度学习(四)——卷积神经网络应用②


随机梯度下降

40.《我对随机梯度下降的理解(一)

41.《我对随机梯度下降的理解(二)


语音识别

42.《时序分类算法之Connectionist Temporal Classification(CTC)

43.《语言模型之N-gram

44.《如何评价一个语言模型(LM)

45.《如何计算字符串编辑距离

46.《如何计算语音识别中的字母错误率

47.《RNN-maxout+VGG+LSTM组合模型用于声学建模

48.《基于注意力模型的TIMIT语音识别系统

49.《微软2016年最新语音识别系统


图像生成与压缩

50.《什么是对抗式生成网络

51.《Prisma修图软件的图片风格转换算法

52.《运用Res-GRU神经网络进行图片压缩

53.《如何用神经网络进行图片压缩


残差学习

54.《深度残差学习框架

55.《深度残差学习框架(续)


自动编码器

56.《models/autoencoder源码阅读(一)

57.《models/autoencoder源码阅读(二)

58.《models/autoencoder源码阅读(三)


TensorFlow基础教程

59.《TensorFlow(一)——基础图模型

60.《TensorFlow(二)——逻辑回归

61.《TensorFlow(三)——卷积神经网络用于手写字识别

62.《TensorFlow(四)——构建自动编码器用于数据压缩及复原

63.《TensorFlow(五)——构建深度残差学习网络

64.《Tensorflow|如何保存或导入训练好的模型


深入理解RNN及序列建模

65.《漫谈RNN之基本概念

66.《漫谈RNN之训练方法

67.《漫谈RNN之梯度消失及梯度爆炸

68.《漫谈RNN之长短期记忆模型LSTM

69.《漫谈RNN之长短期记忆模型LSTM(续)

70.《漫谈RNN之序列建模(机器翻译篇)

71.《漫谈RNN之序列建模(机器造句篇)

72.《漫谈RNN之序列建模(机器说图篇)

73.《基于TensorFlow让机器生成周杰伦歌词

74.《漫谈RNN之注意力机制(语音识别篇)

75.《漫谈RNN之注意力机制(语音识别LAS框架)

76.《漫谈RNN之记忆网络(原始框架篇)

77.《漫谈RNN之记忆网络(End2End)

78.《漫谈RNN之记忆网络(DMN及DMN+)