博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
随机森林中的数学基础之大数定律
阅读量:6924 次
发布时间:2019-06-27

本文共 1075 字,大约阅读时间需要 3 分钟。

摘要:随机森林与决策树的一个显著的不同点就是它不会产生过度拟合。它的理论依据就是大数定律

很熟悉的一个名词:大数定律,记得本科的概率论就有学,忘了差不多了,下面先复习下。

大量试验说明,随机事件A的频率R(A),当重复试验的次数n增大时,总呈现出稳定性,稳定在某一个常数的附件,意指数量越多,其平均值就越趋近与期望值。

 

一:大数定律回顾

 

切比雪夫定理

设 a1,a2,a3,…,an 为相互独立的随机变量,其数学期望为:E(ai)=, 及方差D(ai)=

则序列收敛于u,即在定理条件下,当n无限变大时,n个随机变量的算术平均将趋于一个常数。

 

辛钦定理(切比雪夫的特殊情况)

设a1,a2,…an,…为服从同一分布且相互独立的随机变量,其数学期望为:,则对任意正数ε>0,下式成立:

表明,对于独立同分布的随机变量a1,a2,a3…an…,对于任意的ε>0,只要n充分大,事件实际上几乎是必要发生的。

 

伯努利大数定理(切比雪夫的特殊情况):

设μ是n次独立试验中事件A发生的次数,p是事件A在每次试验中发生的概率,则对于任意的正数ε,有

伯努力大数定理说明,当试验次数n很大的时候,事件A发生的频率与概率有较大判别的可能性比较小,即:

用数学式表现出了频率的稳定性。

 

 

二:随机森林中的大数定律的应用

首先回顾下随机森林的定义:

随机森林是一个分类器,它由一些列的单株分类器组成的,其中的是独立同分布的随机变量。在输入X后,每一棵决策树只投一票给它认为最合适的分类标签,最后选择投票最多的那个分类标签作为X的分类。

之所以引入随机变量,是为了控制每棵树的生长,通常针对于第K棵决策树引进随机变量,它与前面的k-1个随机变量是独立同分布的,利用训练集和来生成第k棵树,也就等价于生成一个分类器,其中的X是一个输入向量。

 

给定一系列的分类器,然后随机的选择一些训练样本,设其中X为样本向量,Y为正确分类的分类标签向量。

则定义:        

其中I(.)是,av(.)表示取平均值,边际函数表示了在正确分类Y之下X的得票数目超过其它错误分类的最大得票数目的程度。

该值越大表明分类的置信度越高。

   公式为:   

其中X,Y表示概率的定义空间。

根据大数定律中的辛钦定理,当决策树的数目增加时,对于所有的序列和PE都会收敛到:

对应于大数定律里的频率收敛于概率。

这一结果解释了为什么随机森林不会随着决策树的增加而产生过度拟合,并且有一个有限的泛化误差值。

转载于:https://www.cnblogs.com/justcxtoworld/p/3425747.html

你可能感兴趣的文章
uva 1519 - Dictionary Size(字典树)
查看>>
15个最佳的代码评审(Code Review)工具
查看>>
浅谈压缩感知(十四):傅里叶矩阵与小波变换矩阵的MATLAB实现
查看>>
多个ajax请求下等待条显示和隐藏的简单处理
查看>>
编程之美第一篇 01分数规划
查看>>
【CSS3】CSS3 滤镜实现
查看>>
Linux运维工程师入门须掌握的10个技术点
查看>>
同一个页面多个CALayer重绘的办法
查看>>
HDU4911-Inversion(树状数组)
查看>>
【2014 Multi-University Training Contest 3 1002】/【HDU 4888】 Redraw Beautiful Drawings
查看>>
c#之Redis实践list,hashtable
查看>>
机会的度量:概率和分布
查看>>
【第三方SDK】百度地图实现最简单的定位功能(无地图界面)
查看>>
110_leetcode_Best Time to Buy and sell Stock II
查看>>
Android 开源项目android-open-project解析之(三) ScrollView,TimeView,TipView,FlipView
查看>>
Effective C++ 条款11
查看>>
kafka集群搭建与apiclient创建
查看>>
android如何添加桌面图标和卸载程序后自动删除图标
查看>>
【Android】12.1 Intent基本概念
查看>>
【云计算】qcow2虚拟磁盘映像转化为vmdk
查看>>