本篇文章是根据视频( link.)所作的学习笔记,旨在对机器学习的相关知识更好的理解和巩固。本人基础较弱,推导中看不懂的公式可能会细究,如果有理解不当之处也欢迎指出。
硬间隔SVM(hard-margin SVM)
之前介绍感知机算法的时候说到希望找到一个超平面,使两类数据不分错。我们想一下,仅仅要求不分错数据的超平面可能不止一个(如下图的L1,L2,L3),而支持向量机SVM就是来寻找一个最优的超平面。怎么去定义和寻找这个最优超平面,就是本篇要介绍的内容。
依然采用判别模型 对数据进行分类。
最大间隔分类
硬分隔SVM也叫做最大间隔分类器,即 ,这里的间隔margin指的是所有样本点中离分类超平面最近的那个点到超平面的距离。想一下,分类之后离超平面最近的点的间隔最大的话,那其他的样本点离超平面就更远,这样就能保证分类算法的鲁棒性,使得到的超平面是最优的分类平面。
同时还要保证分类正确的前提下去找最优的超平面,所以要记得带上约束条件 (这里不明白的话去看这个机器学习-白板推导学习笔记-4线性分类1_gigglehuahua的博客-CSDN博客)。
原问题与对偶问题
求解硬分隔SVM中参数
小疑惑:
真诚希望看懂的同学留言或私信解惑,后期如果我悟了,也会重新编辑。感谢包容!