8 个很棒的机器学习小抄,速查表及其解释: Machine Learning Cheat Sheets !

这期David 9给各位初学者推荐8个很棒的机器学习小抄,速查表以及我的理解,希望各位刚入坑的小伙伴能有一个总览性的理解,加速你的学习迭代:

1.  SCIKIT-LEARN 算法导览

分类只要判别类别标签,回归还要预测具体值,特征降维要找到有用的那些维度,聚类是要给未知总集区分类别,初学者除了知道以上这些问题大类, SCIKIT-LEARN 算法导览还提供一些具体的选择细节。 继续阅读8 个很棒的机器学习小抄,速查表及其解释: Machine Learning Cheat Sheets !

机器视觉目标检测补习贴之R-CNN系列 — R-CNN, Fast R-CNN, Faster R-CNN

CVPR 2017在即,David 9最近补习了目标检测的趋势研究。深度学习无疑在近年来使机器视觉和目标检测上了一个新台阶。初识目标检测领域,当然先要了解下面这些框架:

  • RCNN
  • Fast RCNN
  • Faster RCNN
  • Yolo
  • SSD

附一张发表RCNN并开启目标检测深度学习浪潮的Ross B. Girshick(rbg)男神

无论如何,目标检测属于应用范畴,有些机器学习基础上手还是很快的,所以让我们马上来补习一下!

首先什么是目标检测?目标检测对人类是如此简单:

把存在的目标从图片中找出来,就是那么简单! 继续阅读机器视觉目标检测补习贴之R-CNN系列 — R-CNN, Fast R-CNN, Faster R-CNN

Yoshua Bengio大神深度学习实战方法论解读 — 模型评估, 超参数调优,网格搜索,调试策略

人类擅长把一个问题转化为另一个问题,而深度学习试图把所有问题转化为同一个问题 — David 9

现代深度学习或机器学习,很大程度上是把所有问题转化为同一个“模型训练”问题。如何解决这个模型训练的问题成为了数据科学家们的主攻问题。

鲜为人知的是,设计机器学习模型、训练算法和目标函数仅仅是工作的一部分。还有很重要的一部分是:数据科学家们要对数据和问题有更深层次的理解,对于模型评估超参数调优网格搜索调试策略都有相当的实践经验。

正如Deep Learning(Ian Goodfellow Yoshua Bengio)一书中所说:

Correct application of an algorithm depends on mastering some fairly simple methodology

继续阅读Yoshua Bengio大神深度学习实战方法论解读 — 模型评估, 超参数调优,网格搜索,调试策略

keras 手把手入门#1-MNIST手写数字识别 深度学习实战闪电入门

人们已经教会计算机自动找出那些重要的特征和属性, 那么下一步我们改教会计算机什么? — David 9

用深度学习框架跑过实际问题的朋友一定有这样的感觉: 太神奇了, 它竟然能自己学习重要的特征 ! 下一步我们改教会计算机什么?莫非是教会他们寻找新的未知特征

对于卷积神经网络cnn, 其中每个卷积核就是一个cnn习得的特征, 详见David 9之前的关于cnn博客

今天我们的主角是keras,其简洁性和易用性简直出乎David 9我的预期。大家都知道keras是在TensorFlow上又包装了一层,向简洁易用的深度学习又迈出了坚实的一步。

所以,今天就来带大家写keras中的Hello World , 做一个手写数字识别的cnn。回顾cnn架构:

我们要处理的是这样的灰度像素图: 继续阅读keras 手把手入门#1-MNIST手写数字识别 深度学习实战闪电入门

#15 增强学习101 闪电入门 reinforcement-learning

是先用自己的”套路”边试边学, 还是把所有情况都考虑之后再总结, 这是一个问题 — David 9

David 9 本人并不提倡用外部视角或者”黑箱”来看待”智能”和”机器学习”.

正如《西部世界》迷宫的中心是自己的内心. 神经网络发展到目前的深度学习, 正是因为内部的结构发生了变化(自编码器, 受限玻尔兹曼机, 改进的激活函数, 等等…) . 所以David 9 相信神经网络未来的发展在于人类对内部结构的新认知, 一定有更美的内部结构存在 !

而今天所说的增强学习, 未来更可能作为辅助外围框架, 而不是”智能核心”存在. 不过作为闪电入门, 我们有必要学习这一流行理论:

来自: http://www.cis.upenn.edu/~cis519/fall2015/lectures/14_ReinforcementLearning.pdf

没错, 这张图和文章特色图片是一个思想:

训练实体(Agent)不断地采取行动(action), 之后转到下一个状态(State), 并且获得一个回报(reward), 从而进一步更新训练实体Agent. 继续阅读#15 增强学习101 闪电入门 reinforcement-learning

Stanford教授Daphne Koller 概率图模型 — 终极入门 第三讲 马尔可夫网络 (Markov Networks)

贝叶斯网络中的一些基本直觉,不能直接使用到马尔可夫网络 — David 9

上一讲, 我们介绍了模板模型 今天我们要把注意力放到无向图模型,以及马尔可夫网络 (Markov Networks). 事实上之所以叫做无向图模型,只是因为概率图中的边可以是双向的:

这里的Φ1[A, B] 称为一个factor(因素)。但是Φ1[A, B]并不是有用的分布。如上图, Φ1[A, B]只是代表AB边之间各种组合的概率,并不是A和B联合概率。因为A和B联合概率的取值同时也被C和D影响(仅仅一条边的情况不能说明问题)。

另外,不要以为 P = Φ1(A, B) * Φ2(B, C) * Φ3(C, D) * Φ4(A, D) 就是这个图的联合概率继续阅读Stanford教授Daphne Koller 概率图模型 — 终极入门 第三讲 马尔可夫网络 (Markov Networks)

Stanford教授Daphne Koller 概率图模型 — 终极入门 第二讲 模板模型 (Template Models)

模板模型 , 是机器学习模型进行时空上复制的一种有效方法 — David 9

接着上一讲, 有向图模型与贝叶斯网络基础 这一讲我们关注模板模型 (Template Models). “模板模型”在机器学习领域, 并非常用的术语, 但是在许多概率图模型中, 都有”模板模型”的影子.

所以, “模板模型”这样有价值的概率图模型抽象思想, 值得用一篇文章来解释解释.

首先, 模板模型 (Template Models)顾名思义, 是用模板的思维建立出的模型. 许多非常复杂的图模型, 事实上是可以简化的. 简化时, 通过共享通用的变量, 通用的概率图结构, 可以归纳出通用的模板模型, 达到类似复用的效果.

还记得我们讲过的动态主题模型 ? 动态主题模型正是在不同的时间点上, 复制主题模型的. 这里, 主题模型就是一个模型模型. 模版模型描述了模版变量如何从模版中继承依赖关系,同样应用的典型例子有: 动态贝叶斯模型DBN隐马尔科夫模型HMM, 盘模型Plate Models

在来看一下课程试题, 加深对模板模型的印象:

继续阅读Stanford教授Daphne Koller 概率图模型 — 终极入门 第二讲 模板模型 (Template Models)