Skip to content

8.2 自助法和最大似然法

原文 The Elements of Statistical Learning
翻译 szcf-weiya
发布 2017-02-08
更新 2019-05-10 23:46:09
状态 Done

平滑的例子

自助法提供了一个通过在训练数据中取样来评估不确定性的直接计算的方式.这里我们用一个简单的一维平滑问题来解释自助法,并且展示它与最大似然之间的联系.

图 8.1. (左图):光滑例子的数据.(右图:)7 个 B-样条基函数的集合.垂直虚线为放置树结点的地方.

Z={z1,z2,,zN}Z={z1,z2,,zN} 表示训练数据,其中 zi=(xi,yi),i=1,2,,N.zi=(xi,yi),i=1,2,,N. 这里 xixi 是一维输入,yiyi 为输出,可以是连续的也可以是离散的.举个例子,考虑在图 8.1 的左图中展示的 N=50N=50 个数据点.

假设我们决定用三次样条去拟合数据,三个结点放置在 XX 的分位数上.这是一个七维线性函数空间.

weiya 注

KK 个结点的普通三次样条有 K+4K+4 个基函数,而自然三次样条有 KK 个基函数.

举个例子,可以通过 B-样条基函数的线性展开来表示(见 5.9.2 节): μ(x)=7j=1βjhj(x).μ(x)=7j=1βjhj(x).(8.1) 这里 hj(x),j=1,2,,7hj(x),j=1,2,,7 是在图 8.1 右图展示的 7 个函数.我们可以将 μ(x)μ(x) 看成是条件期望 E(YX=x)E(YX=x).

HHN×7N×7 的矩阵,且第 ijij 个元素为 hj(xi)hj(xi)ββ 的一般估计通过最小化训练集上的均方误差得到,由下式给出 ˆβ=(HTH)1HTy

对应的拟合值 ˆμ(x)=7j=1ˆβjhj(x) 显示在图8.2的左上图.

ˆβ 的协方差矩阵估计为 ^Var(ˆβ)=(HTH)1ˆσ2 其中白噪声方差的估计值由 ˆσ2=Ni=1(yiˆμ(xi))2/N 给出.令 h(x)T=(h1(x),h2(x),,h7(x)),预测值 ˆμ(x)=h(x)Tˆβ 的标准误差为 ^se[ˆμ(x)]=[h(x)T(HTH)1h(x)]12ˆσ

图 8.2. (左上图:)数据点的B-样条光滑.(右上图:)B-样条光滑加减1.96倍的标准误差得到的带状区域.(左下图:)B-样条光滑的自助法重复取样.(右下图:)从自助法的分布计算得到的B-样条和95%的标准误差区域带.

在图 8.2 的右上图中我们画出了 ˆμ(x)±1.96^se[ˆμ(x)],因为 1.96 是标准正态分布函数 97.5% 的那个点,这表示 μ(x) 的近似 1002×2.5%=95% 逐点置信域.

这里我们介绍怎么在这个例子中运用自助法.我们从训练集中有放回抽取 B 个大小均为 N=50 的数据集,取样单元为数据对 zi=(xi,yi).对于每一个自助法的数据集 Z 我们拟合三次样条 ˆμ(x);从 10 个这样的自助样本中得到的拟合曲线如图 8.2 的左下图所示.利用 B=200 个自助法样本集,我们可以得到每个 x 处的 95% 置信区间:我们在每个 x 处找到第 2.5%×200=5 大(小)的值.这在图 8.2的右下图画出来了.这些带状与右上角的带状显示,不过在终点处更宽点.

实际上最小二乘估计 (8.2)(8.3),自助法和最大似然法有着很紧密的联系.进一步假设模型误差为高斯分布, Y=μ(X)+ε;εN(0,σ2),μ(X)=7j=1βjhj(x) 上面描述的自助法,通过从训练集中有放回地采样,称作 非参自助法(nonparametric bootstrap).这实际上意味着这个方法是与模型无关的,因为它使用原始数据来得到新的数据集,而不是一个特定的含参数的模型.考虑到自助法的一种变形,称为 参数自助法 (parametric bootstrap),它通过对预测值加上高斯噪声模拟新的响应: yi=ˆμ(xi)+εi;εiN(0,ˆσ2);i=1,2,,N 这一过程重复 B 次,这里 B=200.得到的自助法数据集形式为 (x1,y1),,(xN,yN),而且我们可以重新对每一个计算 B-样条光滑.这种方法得到的置信域实际上等于当自助法样本数趋于无穷时右上图的最小二乘置信域.自助法样本 y 的函数估计由 ˆμ(x)=h(x)T(HTH)1HTy 给出,而且服从分布 ˆμ(x)N(ˆμ(x),h(x)T(HTH)1h(x)ˆσ2) 注意到该分布的均值是最小二乘估计,标准误差和近似公式 (8.4) 相同.

最大似然推断

结果证明在前面的例子中参数自助法和最小二乘是一致的,因为模型 (8.5) 有可加的高斯误差.一般地,参数自助法跟最小二乘不一致,但跟最大似然一致,我们现在再检验一下.

首先确定我们观测值的概率密度或者概率质量函数 zigθ(z) 这个表达式中 θ 表示一个或多个未知的决定 Z 分布的参数.这称为 Z 的参数模型.举个例子,如果 Z 服从均值为 μ、方差为 σ2 的正态分布,则 θ=(μ,σ2)gθ(z)=12πσe12(zμ)2/σ2 最大似然基于似然函数,似然函数由下式给出 L(θ;Z)=Ni=1gθ(zi)

这也是观测数据在模型 gθ 下的概率.这个似然是在忽略正乘数情形下定义的,这里我们取为 1.我们将 L(θ;Z) 看成当 Z 固定时 θ 的函数.

L(θ;Z) 的对数为 (θ;Z)=Ni=1(θ;zi)=Ni=1loggθ(zi) 有时简记为 (θ). 该表达式称为对数似然,并且每个值 (θ;zi)=loggθ(zi) 称为对数似然组分.最大似然法选择 θ=ˆθ 来最大化 (θ;Z).

似然函数可以被用来评估 ˆθ 的准确性.我们需要更多的定义,得分函数 (score function) 由下式给出 ˙(θ;Z)=Ni=1˙(θ;zi) 其中 (θ;zi)=(θ;zi)/θ.假设概率在参数空间的内部取得最大值,则 ˙(ˆθ,Z)=0.信息矩阵为 I(θ)=Ni=12(θ;zi)θθTI(θ)θ=ˆθ 处取值,则通常称为观测信息量.Fisher 信息量(或者期望信息量)是 i(θ)=Eθ[I(θ)]

weiya 注

设随机变(向)量 X 来自分布族 F={p(x;θ):θΘ},其中 p(x;θ) 为其概率密度函数,Θ为开区间,假设 p(x;θ) 关于 θ 可导,且 0=ddθp(x;θ)dx=p(x;θ)θdx=logp(x;θ)θp(x;θ)dx=Eθ[logp(X;θ)θ] 从而 I(θ):=Varθ{logp(X;θ)θ}=Eθ[logp(x;θ)θ]2=(logp(x;θ)θ)2p(x;θ)dx I(θ) 称为 X 或分布族 F 的 Fisher Information.

如果 2θ2p(x;θ) 对任意的 θΘ 都存在,且积分与求导可以交换,则 0=d2dθ2p(x;θ)dx=θ[logp(x;θ)θp(x;θ)]dx=[2logp(x;θ)θ2p(x;θ)]dx+[logp(x;θ)θ]2p(x;θ)dx 从而 I(θ)=Eθ[2logp(X;θ)θ2].

最后,记 θ 的真值为 θ0.

一个标准的结果表明最大似然估计量的样本分布渐近服从正态分布 ˆθN(θ0,i(θ0)1)N.这表明 ˆθ 的样本分布可能近似服从 N(ˆθ,i(ˆθ)1) or N(ˆθ,I(ˆθ)1) 其中,ˆθ 表示由观测数据得到的最大似然估计.

ˆθj 的标准误差对应的估计由下式给出 i(ˆθ)1jj and I(ˆθ)1jj θj 的置信点可以通过 (8.17) 的任意一个近似得到.这样的置信点分别有如下形式 ˆθjz(1α)i(ˆθ)1jj or ˆθjz(1α)I(ˆθ)1jj 其中 z(1α) 为标准正态分布的 1α 分位数.更精确的置信区间可以由似然函数得到,通过利用卡方分布的近似 2[(ˆθ)(θ0)]χ2p 其中 pθ 组分的个数.12α 置信区间是所有满足 2[(ˆθ)(θ0)]χ2p(12α) 的集合,其中,χ2p(12α) 是自由度为 p 的卡方分布的 12α 分位数.

回到光滑化的例子看看最大似然法的结果.参数为 θ=(β,σ2).对数似然为 (θ)=N2logσ22π12σ2Ni=1(yih(xi)Tβ)2 最大似然估计由 /β=0/σ2 给出 ˆβ=(HTH)1HTyˆσ=1N(yiˆμ(xi))2 这与 (8.2) 给出的一般估计和 (8.3) 是一样的.

对于 θ=(β,σ2) 的信息矩阵是分块对角,对应于 β 的对角元为 I(β)=(HTH)/σ2 因此估计的方差 (HTH)1ˆσ2 与最小二乘一致.

自助法和最大似然法

本质上自助法是非参最大似然或者参数最大似然法的计算机实现.

weiya 注:nonparametric MLE

Theory of Point Estimation (2nd Eds) p519 中也写道:

The bootstrap can be thought of as a “nonparametric” MLE.

与最大似然法相比自助法的好处是允许我们在没有公式的情况下计算标准误差和其他一些量的最大似然估计.

在我们的例子中,假设我们通过对定义了 B 样条的结点的数目和位置进行交叉验证来自适应地选择,而不是事先固定住.记 λ 为结点和它们位置的集合.则标准误差和置信域说明了 λ 的自适应选择,但是没有分析的方法可以实现.有了自助法,我们通过对每个自助法样本进行自适应选择来计算B-样条光滑.最终曲线的分位数既捕捉目标里面的噪声变化以及 ˆλ 的变化.在这个例子中置信域(没有显示出来)看起来与固定 λ 后的置信域没有太大不同.但是在其他问题里面,当使用更多的自适应,可以得到更多重要的结果.

💬 讨论区