前言
有时候我们需要测试一个小功能,懒人如我完全不愿意新建一个 python 文件去测试,但是默认的 python 交互模式下没有代码补全就很恼火,今天就把它解决了。
在之前的SVM章节中我们介绍了其具体的原理和大致推导过程,但是由于SVM只能应用于线性可分的数据,那么如果出现了线性不可分的情况怎么办呢,这就要引入今天的重点核函数。这种思想将在未来的深度学习中也会出现。
原文链接:《Seven Habits of Effective Text Editing》
本文摘自Vim主要作者Bram Moolennar的2000年11月在其个人网站发布的提高文本编辑效率的7个方法,个人认为从工具作者那里学习如何使用工具是最好的学习方式。本篇文章重点介绍了,达到高效使用编辑器的方法。
集成学习的思想是将若干个学习器(分类器&回归器)组合之后产生新的学习器。
在学习这一章节中,老师提到了这个说法,我觉得非常言简意赅就直接引用了过来。集成学习算法的成功在于保证若分类器(错误率略小于0.5,即勉强比瞎猜好一点)的多样性,且集成不稳定的算法也能得到一种比较明显的提升。
注:深度学习其实也可以看作是一种集成学习
这个章节的机器学习,其实更像是一种概率论的学习,同时这也是机器学习和数据分析中非常重要的一环。如果学习遇到了困难非常推荐参考张宇考研概率论部分的内容。同时这一章的算法,也是在文本分类中使用的比较多的。
名词解释:
概率分布:
贝叶斯算法的核心思想:
找出在特征出现时,各个标签出现的概率,选择概率最大的作为其分类。
聚类算法上中讲了大名鼎鼎的K-Means算法及其优化变种,在这篇中几种讲述两位两种不同思路的聚类算法。
聚类算法很多,所以和讲回归算法一样,分成了上下,上中主要讲了传统的 K-Means 算法以及其相应的优化算法入 K-Means++,K-Means|| 和 Canopy 等。下中主要讲了另外两种的思路的聚类算法,即层次聚类和密度聚类。
最近迷上了吉他,当然不是指那种一周速成的把妹弹唱啦。为了防止大家对吉他有一种特别简单,把妹专用道具的奇怪印象。特别提一个小知识,古典吉他在世界公认的十大难学的乐器中排第三,顺便一提,钢琴排第五。
在之前我们介绍了线性回归算法以及其变种,LASSO回归、Ridge回归。他们是从减少过拟合的角度出发而得到的算法,而 SVM(支持向量机)则是优化原本线性回归算法中选择“分割线”,或者说选择分割超平面这样一个过程。
TAG:# 拉格朗日数乘子算法 # KKT条件
只有四步:
username.github.io结尾。YourGithubName.github.io_config.yaml中更改个人信息,同时把_posts中的文章都删了,注意别人的文章格式,之后仿照对方的格式写即可。YourGithubName.github.io就能在晚上看到自己的博客啦。