0
点赞
收藏
分享

微信扫一扫

VC-Dimension and Rademacher Complexity-based bounds

书写经典 2022-03-15 阅读 121
python

VC-Dimension和Rademacher complexity是机器学习中常提到的度量复杂的的概念,一直远观而没有亵玩,今天对这个概念进行学习记录。

VC-Dimension

全称为Vapnik-Chervonenkis dimension,从wiki上搞来一段定义

即:在VC 理论中,VC维度是一种度量由统计分类算法得到的函数空间的容量(复杂度,表达能力,丰富性或灵活性)的方法。它被定义为算法可以破坏的最大点集的基数。

集合族的VC维

为集合族,是一个集合。它们的交被定义为


我们说集合shatter,如果包含的所有子集,即:



的VC维是被破坏的最大基数,如果任意大的子集能被破坏,那么VC维是

分类模型的VC维

一个分类模型有着参数向量被称为shatter一个集合的数据点如果对这些数据点所有赋予的标签,都存在使得在评估这个集合的数据点的时候无错误。
模型的VC维是能被shatter的最大点数。

例子

例如一条直线在平面分类,那么最多二分类的点数为3,所以VC维为3.

Rademacher complexity

在计算学习理论中(机器学习和计算理论),Rademacher comlexity由Hans Rademacher命名,度量一类基于概率分布实值函数的丰富性。

集合的Rademacher comlexity

给定集合的Rademacher complexity定义如下:



其中是Rademacher分布得到的独立随机变量。

forand

许多作者在取上界前取了和的绝对值,但是如果是对称的,那么这就没区别。

函数类的Rademacher comlexity

给定样本,类别定义在空间的实验Rademacher

complexity对给定的定义为:



这也可以使用之前的定义来写:



其中表示函数复合,即:


的概率分布。函数类的Rademacher complexity基于且样本大小为为:

其中上述期望都是从中采样独立同分布的样本。

举报

相关推荐

0 条评论