序言
在机器学习02(回归算法上)中我们介绍了普通最小二乘线性回归算法,并进行了较为详细的推导,同时通过分析其过拟合的问题,推导出了另外三个算法,Ridge回归算法,LASSO回归算法,以及弹性网络。并简要的分析了他们的优缺点。今天我们来接着介绍算法。为什么说是算法而不是回归算法呢,是因为在研究了逻辑回归和Softmax回归算法以后,惊讶的发现这两个算法是分类算法,所以这个回归算法下的说法就不是很严谨了。
在机器学习02(回归算法上)中我们介绍了普通最小二乘线性回归算法,并进行了较为详细的推导,同时通过分析其过拟合的问题,推导出了另外三个算法,Ridge回归算法,LASSO回归算法,以及弹性网络。并简要的分析了他们的优缺点。今天我们来接着介绍算法。为什么说是算法而不是回归算法呢,是因为在研究了逻辑回归和Softmax回归算法以后,惊讶的发现这两个算法是分类算法,所以这个回归算法下的说法就不是很严谨了。
在序章中我们提到了,机器学习的本质就是一个分类器,对给出的数据进行有价值的分类。 具体的机器学习算法的分类分为,监督学习和无监督学习两种。而在监督渡学习中,我们以分类的类别是否是离散的,分为两种分类方式,分别是分类和回归。即,分类后是有一定的,像水果的分类,苹果,梨,橘子等等这样确定的分类的是分类,而分类后的预测结果是一个连续的数值则是回归。在这篇文章中,我们说的回归算法便是监督算法中的回归算法。
机器学习&人工智能&深度学习,这三个是现在经常听到的词语。一旦提到了这些都会给人一种高大上的感觉,感觉会是一种很难学会的技术。表示在下血本(突然脑抽)的情况下,剁手买了1w多的数据挖掘的网课,目前正在学习它,希望能在学习完成后揭开机器学习的面纱,争取让每个读我的博客的人都能对机器学习有一个较为全面的概念。
目前的更新顺序为课程的顺序,在整体学完之后,会按自己的理解进行一个汇总。