机器学习:从公理到算法
上QQ阅读APP看书,第一时间看更新

3.1 密度估计的参数方法

如果已经知道px)所在的分布族px|θ),此时的密度估计问题变成估计θ。简单说来,此时即为密度估计的参数方法。在此情形下,,SimXx,θ)=px|θ)。假设对θ得到估计,则可设

3.1.1 最大似然估计

在此情形下,如果对于θ的信息一无所知,则可以假设对θ得到估计。因此,类紧致准则希望最大类内相似度,由此得到目标函数(3.1)。显然,

为了简化计算,对公式(3.1)两边取负自然对数,求最大变为求最小,得到如下目标函数:

显然,最大化目标函数(3.1)是最大似然估计。因此,类紧致准则可以导出常见的最大似然估计。

• 高斯密度估计

假设,其中。根据公式(3.2),我们可以得到如下目标函数(3.3):

因此,计算目标函数(3.3)的一阶导数,令其等于零可以得到最优估计

解方程(3.4),可以得到

,其中按照以上的办法,同样可以得出的估计。

• n元多项分布估计

假设∀k,xk,x都是只取1,2,…,c其中之一的随机变量,如果,其中x=[l1l2,…,lc],,∀i,li∈{0,1},1,∀i并且。易知,∀k,xk,x可以表示成一个c维的0,1的向量,这里,如果xk=i,则记作(xki=1,否则(xki=0。显然,,因此,可以知道

根据公式(3.2),我们可以得到如下目标函数(3.6):

根据拉格朗日乘子法,要得到目标函数(3.6)在条件下的最小值,只需令如下函数(3.7)的一阶导数为零:

由此得到方程(3.8):

注意到,由方程(3.8)可以得到λ=N

据此,解方程(3.8)可以得到如下估计:

3.1.2 贝叶斯估计

需要特别指出的是,在参数估计情形下,类可以用θ来表示。有时候,基于历史经验,人们不仅知道分布的形式,甚至会对θ的信息有所了解。比如,当谈到许海峰的手枪射击成绩时,人们会有先验估计;当谈起烟台苹果莱阳梨,人们一般也会有先验印象。甚至朋友交往,第一印象也对人们后续交往影响巨大。实际上,日常所说的声誉,就是一种对于事物的先验印象。如果θ的信息完全确定,就不需要通过观察抽样样本来估计了,或者说观察已经影响不了人们对于θ的信息。这近似于信仰或者崇拜。

一般情形下,人们对于θ的信息有所了解,但是该信息会随着观察的积累增多而改变,具有不确定性。因此,对θ的信息先验了解程度,可以用假设θ服从pθ|θ0)分布来表示,pθ|θ0)反映了人们对于θ的了解程度,θ0是事先确定的值。换一种说法,pθ|θ0)反映了θ与固定值θ0的相似度,即Sim(θ,θ0)=pθ|θ0)。理论上,应该选择与固定值θ0最相似的θ值。如果无限相似,即变成信仰,此时观察改变不了θ的估计。如果不是无限相似,则观察可以改变对于θ的估计。

假设对θ得到估计,根据以上的分析,设。因此,类紧致准则希望最大类内相似度,由此得到目标函数(3.1)。同时,如果假设输入类表示为θ0,类一致性准则要求考虑最大化如下约束(3.10):

这是一个典型的多目标函数优化问题。一个自然的想法是合成为单目标函数优化问题。

由此,综合考虑类一致性准则和类紧致性准则,应该最大化目标函数(3.11):

显然,如果只最大化目标函数(3.10),则与观察数据无关。如果先验随着观察数据的增加而不同,最大化目标函数(3.11)即是常见的贝叶斯估计。因此,类紧致准则与贝叶斯估计也联系密切。

• 高斯密度的贝叶斯估计

假设∀k,xkRp,xRp,其中其中

根据公式(3.11),应该最小化目标函数(3.12):

因此,计算目标函数(3.12)的一阶导数,令其等于零可以得到最优估计

解方程(3.13),可以得到

如果,其中,按照以上的办法,同样可以得出的估计。

• n元多项分布的贝叶斯估计

假设∀k,xk,x都是只取1,2,…,c其中之一的随机变量,如果,其中x=[l1l2,…,lc],,∀i,li∈{0,1},并且。易知,∀k,xk,x可以表示成一个c维的0,1向量,这里,如果xk=i,则记作(xki=1,否则(xki=0。显然,∀k,因此,可以知道,其中

根据公式(3.11),应该最小化如下目标函数(3.15):

根据拉格朗日乘子法,要得到目标函数(3.15)在条件下的最小值,只需令如下函数(3.16)的一阶导数为零。

由此得到方程(3.17)。

解方程(3.17)可以得到如下估计:

称为Dirichlet分布,其中,∀pi>0,∀αi>0。