Metropolis-Hastings 和 Gibbs sampling

      在科学研究中,如何生成服从某个概率分布的样本是一个重要的问题。 如果样本维度很低,只有一两维,我们可以用反切法、拒绝采样和重要性采样等方法。 但是对于高维样本,这些方法就不适用了。这时我们就要使用一些 “高档” 的算法,比如下面要介绍的 Metropolis-Hasting 算法和 Gibbs sampling 算法。 继续阅读

发表在 算法荟萃 | 标签为 , , | 留下评论

超快的 fastText

      Word2Vec 作者、脸书科学家 Mikolov 文本分类新作 fastText:方法简单,号称并不需要深度学习那样几小时或者几天的训练时间,在普通 CPU 上最快几十秒就可以训练模型,得到不错的结果。 继续阅读

发表在 算法荟萃 | 标签为 , | 留下评论

强化学习系列之六:策略梯度

      上一篇文章介绍价值函数近似,用模型拟合价值函数。这篇文章我们介绍梯度策略,用模型直接拟合策略。 继续阅读

发表在 强化学习, 算法荟萃 | 标签为 | 13条评论

强化学习系列之五:价值函数近似

      目前,我们已经介绍了一些强化学习的算法,但是我们无法在实际问题中运用这些算法。 继续阅读

发表在 强化学习, 算法荟萃 | 标签为 | 8条评论

强化学习系列之四:模型无关的策略学习

      模型无关的策略学习,是在不知道马尔科夫决策过程的情况下学习到最优策略。模型无关的策略学习主要有三种算法: MC Control, SARSA 和 Q learning。 继续阅读

发表在 强化学习, 算法荟萃 | 标签为 | 7条评论

强化学习系列之三:模型无关的策略评价

      上一章我们介绍了模型相关 (Model-based) 的强化学习。从现在开始我们要介绍模型无关 (Model-free) 的强化学习。 继续阅读

发表在 强化学习, 算法荟萃 | 标签为 | 8条评论

强化学习系列之二:模型相关的强化学习

      上一章我们介绍了强化学习的基本假设——马尔科夫决策过程 (Markov Decision Process)。本文将介绍模型相关的强化学习算法。 继续阅读

发表在 强化学习, 算法荟萃 | 标签为 | 13条评论

强化学习系列之一:马尔科夫决策过程

      机器学习一共有三个分支,有监督学习、无监督学习和强化学习。强化学习是系统从环境学习以使得奖励最大的机器学习。强化学习和有监督学习的不同在于教师信号。强化学习的教师信号是动作的奖励,有监督学习的教师信号是正确的动作。 继续阅读

发表在 强化学习, 算法荟萃 | 标签为 | 21条评论

一个名字引发的血案: left-pad 和 npm 的那些事

      近日,一个只有 11 代码的 left-pad 被作者 unpublished。 npm 圈子因此闹得鸡犬不宁。究竟发生了什么呢? 继续阅读

发表在 编程开发 | 标签为 | 留下评论

Javascript 侵入机器学习?

      大家可能都听说过 “亚特伍德定律” 这个笑话,大意是说任何能够由 JavaScript 所编写的内容最终都会由 JavaScript 进行编写。现在 Javascript 要侵入机器学习了嘛?一些工程师已经开始用 Javascript 编写机器学习的代码了。

继续阅读

发表在 算法荟萃, 编程开发 | 标签为 | 一条评论

AlphaGo 是如何把 CNN 接到搜索的?

      现在最热的话题莫过于李世石和 AlphaGo 的围棋大战。虽然我也想蹭下这个热点,但我不懂深度学习,不懂强化学习,更不懂围棋的。因此认真看 AlphaGo 的论文和田渊栋大牛的知乎文章,写一些简明笔记分享给大家。希望没有什么基础的童鞋也能看懂。 继续阅读

发表在 算法荟萃 | 标签为 , | 留下评论

深度学习框架大战正在进行,谁将夺取“深度学习工业标准”的荣耀?

      随着深度学习研究热潮的持续发酵,各种开源 深度学习框架 层出不穷,其中包括:Caffe、CNTK、MXNet、Neon、TensorFlow、Theano 和 Torch (著名开源深度学习框架 Keras 相当于是 TensorFlow 和 Theano 的简化接口,这里就不并列了)。 继续阅读

发表在 算法荟萃 | 标签为 , | 2条评论

遗传算法系列之五:多目标遗传算法和遗传编程

      在遗传算法深入研究的阶段,人们提出将各种将遗传算法应用到更广泛领域,从而产生了一些有趣的后续工作。这些后续工作中,多目标遗传算法和遗传编程由于它们重要性而获得了独立命名。这篇博客就来介绍这两个工作。 继续阅读

发表在 算法荟萃, 遗传算法 | 标签为 | 2条评论

PCA模型加先验

      大清牛人曰:ML派坐落美利坚合众山中,百年来武学奇才辈出,隐然成江湖第一大名门正派,门内有三套入门武功,曰:图模型加圈,神经网加层,优化目标加正则。有童谣为证:熟练 ML 入门功,不会作文也会诌。今天就介绍一个 PCA 加先验的工作。 继续阅读

发表在 算法荟萃 | 留下评论

朴素贝叶斯分类器本质上是线性分类器

      朴素贝叶斯分类器是一种应用贝叶斯定理的分类器。线性分类器是通过特征的线性组合来做出分类决定的分类器。本质上,朴素贝叶斯分类器是一种线性分类器。 继续阅读

发表在 算法荟萃 | 标签为 | 留下评论

遗传算法系列之四:遗传算法的变种

      这篇博客介绍遗传算法变种。我们认为,遗传算法的变种可以分为两个类别:有效性变种和应用性变种。有效性变种用于提高遗传算法的性能。应用性变种是遗传算法适用于不同问题形成的,用于扩展遗传算法的应用范围。

继续阅读

发表在 算法荟萃, 遗传算法 | 标签为 | 一条评论

遗传算法系列之三:数学摆摆手,“很惭愧,只做了一点微小的工作”

      遗传算法是一个模拟生物进化的算法,并不是从数学推导出来的。但还是有人探究遗传算法的数学基础呢?在介绍遗传算法数学基础之前,先定义一些符号:
继续阅读

发表在 算法荟萃, 遗传算法 | 标签为 | 一条评论

遗传算法系列之二:“欺骗”深度学习的遗传算法

      这篇博客主要介绍不同问题的遗传算法。 继续阅读

发表在 算法荟萃, 遗传算法 | 标签为 | 2条评论

遗传算法系列之一:遗传算法简介

      最近博主在写毕业论文,没时间看资料,只能炒一些冷饭了——拿本科接触的东西写博客了。因此开始写遗传算法系列,这篇博客作为开端介绍遗传算法的基本知识。遗传算法的数学基础和变种将在后面介绍。
继续阅读

发表在 算法荟萃, 遗传算法 | 标签为 | 一条评论

平庸的岁月——写在2015年末

      我是一枚普通的技术人员,从小到现在生活波澜不惊,也没有什么拿得出手的成果。和大部分人一样,我遵循着小学->初中->高中->大学->研究生的上学之路。中规中矩不出格。既不天赋异禀,也没有努力超过常人。因此现在还是一个浑浑噩噩碌碌无为的平庸之人。
继续阅读

2条评论

几乎必然收敛和依概率收敛

      我最近在看书,觉得几乎必然收敛 (almost surely convergence) 和 依概率收敛 (convergence in probability) 有些生涩难懂。在阅读了一些资料之后发现,几乎必然收敛和依概率收敛难懂是有原因的。原因就在于我们心中的概率观念来自经典概率论,而不是来自基于测度论的现代概率论。一旦带入现代概率论框架,几乎必然收敛和依概率收敛就变得明晰起来。 继续阅读

发表在 数学基础 | 8条评论

假设检验原理三: F 检验

      这篇博客介绍第三个重要检验——F检验。 继续阅读

发表在 假设检验, 数学基础 | 标签为 | 留下评论

假设检验原理二:卡方检验

      假设检验原理一介绍了t检验,这篇博客则介绍另一个重要检验——卡方检验。卡方检验用于检验观测到的数据是否服从特定多项分布。
继续阅读

发表在 假设检验, 数学基础 | 标签为 | 留下评论

假设检验原理一: T 检验

      最近在撸毕业论文,撸得很不爽。还是写写博客比较爽。因此在撸毕业论文的间隙,把三大统计假设检验原理性的知识整理一下。先写 T 检验的相关,后续博文会介绍卡方检验和 F 检验。

继续阅读

发表在 假设检验, 数学基础 | 标签为 | 3条评论

前端和后端分工的三种模式

      最近在捣腾前端的东西,学习了一下前端知识。因这方面的知识太浅薄了,这篇简陋的博客就当抛砖引玉。 继续阅读

发表在 编程开发 | 标签为 , | 7条评论