首页 > 编程知识 正文

置信水平的z值怎么查表,求最大似然估计例题

时间:2023-05-06 20:12:43 阅读:105829 作者:2956

文章目录引入了基础知识Parzen窗估计k近邻估计k近邻快速计算Parzen窗方法的快速计算总结

引进

出发点:我们以前在参数估计中,假设样本点的分布有jxdwd分布这样的概率密度函数的形式,根据样本估计参数。 但是,样本点的分布可能不是jxdwd分布,我们的结果是错误的。

本文提出的非参数法的讲究,无需首先假设样本服从什么样的分布,而是直接从频率分布直方图等样本中统计得到。

在这种情况下:可以记录每个组的边界和每个组的数量,以描述采样分布。

理论上,在我们样本足够多的同时,如果将频率分布直方图的间隔设定得特别小,组就会特别多,这就是接近样本点的真正概率密度函数。

一般来说,如果样本足够多,它可以表示任意类型的分布!

基础知识既然非参数化法这么好,就开始介绍基础建筑。

这个我很清楚。 r指的是这个固定区域,p(x ) ) p(x^{'} ) p )是概率密度函数。 就像是二次元。

上图求出样品落入r空间的概率。

进入下一个知识点吧。

如果那个区域是等概率密度的话,不是可以计算那个区域的概率密度吗?

这从最前面的概念可以看出,这是样本落入空间r的概率。 假设r中有k个样本,并且整个空间中有n个样本,则样本落入空间r的概率为k n frac{k}{n} nk。

因此,求出空间r中的概率密度函数

估计样本的概率密度函数,如何选择这个v? 这就像是创建频率分布的直方图。 小组之间的距离是多少? 显然,如果样本数是无限的,我们认为我们的空间v可以选择小的点,更准确地表示。 如下所示。

因此:

说明:上面的p(x )-p ) x )-p ) x )表示了真实的概率密度函数,希望能逼近它。

上面都是理论,下面讨论细节。

上面的各位请看仔细。 不知道也没关系。 稍后介绍。

Parzen窗估计

解释:这里扩展到了高维的情况,但是低维也可以适用。 样本空间是d维。

然后,定义了窗函数。 也就是说,如果落入窗户中,函数值将为1,否则为0。 此窗为一维对称于原点的线段,长度为1; 在二维中是相对于原点中心对称的正方形,面积为1。在三维中是相对于原点中心对称的立方体,体积为1。

注:上面的h n h_n hn是边的长度。

我们现在正在使用上窗函数。 也就是说,对于任何采样点x i x_i xi,如果向量xxIx-x_Ixxi的某个维度=h n/2=h_n/2=hn /2,则值为1 (相当于计数器加1 )。 这不是我们要求的这个区域内的样品数吗?

然后代入上一个公式

里。

我们发现,我们上面用的窗函数是一个超立方体内为1,我们希望推广,找到一些其他的窗函数,但要满足

即:

为什么窗函数需要满足积分为1?其实主要是因为概率密度函数积分要为1,所以推得窗函数也要。

除了之前的方窗函数,我们也经常选用如下形式的jxdwd窗函数。

然后用这个来估计样本概率密度。(我们先假设1维的情况下)

例子:下面展示的是只有一个样本点,我们使用jxdwd窗函数,选用不同的窗口大小得到的估计结果。

请注意,这里的纵轴没有标刻度,实际上 h = 0.1 h=0.1 h=0.1的时候函数是最高的,但是很窄,方差小。即:

例子:
假设有一批样本点,我们选定一个 h n h_n hn​,有如下结果。

解释:
显然,估计的方法是:对每一个样本点的头上套一个窗(红色),然后叠加起来求平均,就是最终的样本概率密度了(蓝色)。(上面展示的图是直接相加,没有求平均,为了好看而已)
显然上面的窗就是下面这个式子(对比 p n ( x ) p_n(x) pn​(x)的表达式即可):

注意到,这个式子积分也是为1的!自己可以推一下。
我们知道:直观上样本数量无穷大的时候,然后我们把窗口设得比较小的时候,可以拟合真实的概率密度函数,下面也有一个理论证明:



上述求和除以n没有了是因为:

得到上述的积分等式之后,我们有结论:

我们继续举个分类的例子

使用parzen窗估计做法很简单,就是对每一类拟合一个样本概率密度函数,然后得到分界面如上所示。区别在于,在拟合样本概率密度的时候,选择窗口的大小不同会导致上面的不同,选择小的窗口可以带来过拟合。

改进办法:根据局部密度采用自适应窗口大小。

K近邻估计

如何计算样本概率密度?

个人觉得V也是一个与k有关的数,k越大,V也越大。
那么如何选择k呢?

例子:

有人难以理解,为什么是这样,我们可以假设k=1,那么变成最近邻,在任意样本点 x i x_i xi​上面,其概率密度函数为 p n ( x i ) = 1 / n 0 = ∞ p_n(x_i)=frac{1/n}{0}=infty pn​(xi​)=01/n​=∞。即k越小越突兀。为什么 V n V_n Vn​为0?因为对于 x i x_i xi​而言,最近的样本点是 x i x_i xi​,所以,在一维平面上,有 V n = x i − x i = 0 V_n=x_i-x_i=0 Vn​=xi​−xi​=0。即 V n V_n Vn​是指最近的那个样本点到 x x x的距离的两倍(在一维中是距离或叫线段长度)。
一般地,一维中有:

x k N N x_{kNN} xkNN​是指离 x x x第k个最近的点。
拓展,在二维中 V n V_n Vn​是圆的面积,三维中是球体的体积。
使用KNN来贝叶斯分类:

非常精彩,红色公式中下面是 p ( x ) p(x) p(x),上面是 p ( x , w i ) p(x,w_i) p(x,wi​)联合概率密度。而且,这和我们的投票方法是一样的, k i k_i ki​中谁大就分给谁。
当然还有使用KNN分类的办法,上面不是唯一的。

原因很简单,因为 n n n趋于无穷的时候, p ( x ) p(x) p(x)估计准确,所以趋近于贝叶斯错误率。
下面介绍一个特殊情况:最近邻分类。

K近邻的快速计算

先计算部分欧式距离,总共d维,先计算前r维的距离。


假设:我们是快速计算最近邻。
那么快速计算的方法是:先计算x对第一个样本的全部距离,设为最小值,然后计算与第二个样本的部分距离,一旦超过最小值,后面的部分距离就不用算了。
再介绍一个思路

即先将样本预处理,将圆形黑色删除,因为删除不会导致误判!

还有一些其他的算法,比如人工智能中很多非常重要的搜索算法,这里可能用得上!总之,应该意识到,快速计算非常重要,否则如果100万个点,k近邻很慢。

Parzen窗方法的快速计算



其中:

这样,预测x的类别的时候就方便了。 b j b_j bj​早就算好了,算个 p n ( x ) p_n(x) pn​(x)就行。
例子:

展开到第2项。

从而提前计算好 b 1 , b 2 , b 0 b_1,b_2,b_0 b1​,b2​,b0​即可。

总结

非参数估计和参数估计有联系但有很大区别,两者都非常重要。前者假定有一个概率密度函数形式,后者可以处理具有任意概率分布形式的数据。
讨论:非参数估计中,在我们对所有训练样本非参数估计后,按理可以得到一个概率密度函数,一般这个是一个具有非常多参数的函数,我们可以保存起来,然后丢弃所有样本,就像在参数估计一样。但是也要注意到,正文中两个快速计算方法都是基于局部空间临时计算概率密度,即所有样本都还要保留,可见这是另一种做法。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。