首页 > 编程知识 正文

高斯过程的重要性质有哪些(高斯模型公式)

时间:2023-05-06 18:04:16 阅读:81640 作者:3376

使用不同核函数的高斯过程

高斯过程

高斯过程和所有其他机器学习模型一样,是一个简单可预测的数学模型。 像神经网络一样,可以用于连续问题和离散问题,但作为其基础的一些假设并不太实用。

但是,在过去的五年左右中,很少有人真正知道它们是什么、如何使用、或者为什么重要,但这一领域的研究令人难以置信。 第一家公司如Secondmind、被誉为蓝天(Carl Rasmussen )、忧郁的枕头(Neil Lawrence )、幽默的大门口)等知名学者,大多致力于研究方法,发展理论既然有这么多大佬在研究,那有必要有用……吧。

这种方法被称为欢乐铅笔(Kriging ),在地质统计学中有着悠久的历史,但是有关神经网络的哲学问题:如果神经网络具有无限的宽度会得到什么?

众所周知,高斯过程在网络无限大的极限上等价于具有参数先验的单层全连接神经网络。 在Googlebrain的研究中,得到了无限宽广深度的神经网络和高斯过程之间的准确对等性,但是DNN如此成功,为什么GP在机器学习社区中没有得到更广泛的应用呢? 什么重要的棘手区别是,GP没有被进一步使用? 为什么GP比DNN差呢?

对于不习惯处理长方程的人来说,导出和理解高斯过程的数学确实很可怕,但在其核心,高斯过程只是xfdjb回归的扩展。

现在,让我们进入高斯过程的数学说明吧!

高斯过程回归(GPR )是使用一些独立的数据x预测一些输出y的方法,顾名思义,假设误差为高斯分布,但也假设数据为多元高斯分布。

高斯分布(也称为正态分布)的形状就像贝尔型曲线,类似于我们周围存在的许多现象。 当一种现象的形式为高斯分布时,我们关注的两个特征是均值和方差以及偏度和峰度。

例如,由于算术平均值是正态分布的,如果从人口中随机抽样的人的平均身高来看,就会发现这些样本的平均值具有正态分布。

多元正态分布(或高斯)分布是指更高维地扩展奇异正态分布。 因此,假设我们正在分析相互关联的现象。 某人又高又瘦的可能性有多大? 如果我们有一个人的话,有身高和体重的数据集。 这些联合依赖关系可以根据多元分布或哪些高斯混合模型是特定的类来建模。

现在,我们想起了多元高斯分布是什么。 注意到高斯分布有很好的代数性质。 如果我们想条件化和边缘化,就是一个维度。 条件下的封闭和边缘化意味着由这些操作产生的分布也是高斯分布,使得统计和机器学习中的许多问题变得容易处理。

随机变量

随机过程,如高斯过程,本质上是一组随机变量。 另外,每个随机变量都有对应的指标I,用这个指标来表示我们n维多元分布的第I维。

在探地雷达中,首先假设高斯过程是先验的,可以用平均函数m(x )和协方差函数k ) x、x ' )表示:

更具体地说,高斯过程就像无限维的多元高斯分布,其中数据集的任何标签集合都是联合高斯分布。 在该模型中,可以通过选择平均函数和协方差函数来综合函数空间的先验知识。 我们将独立同分布(先验知识)高斯噪声、n ) 0、)通过相加的标签分布和噪声分布:来容易地

从高斯过程的先验可以看出,训练点和测试点的集合是联合多元高斯分布,因此它们的分布可以写成以下形式:

这里,k是协方差核矩阵,其项对应于观察值的协方差函数。 这样写的话,可以带着训练的子集进行模型选择。

预测意味着f_bar *,方差可以从协方差矩阵的对角得到*。 请

注意,计算平均值和方差需要对K矩阵进行反演,而K矩阵随训练点数的立方而变化。

内核函数

高斯过程使用惰性学习和点之间的相似性度量(核函数)来预测训练数据中不可见点的值。例如,如果有一个被建模的周期趋势(比如一年以上的温度),那么你可以使用周期核函数。

后面的灰色区域是不确定性(边际预测分布的+- 2),有了它,如果我们使用周期核函数,我们就能够高度自信地跟踪信号。

让我们看看一些常见的核函数。

平方指数内核

平方指数核已经成为GPs事实上的默认核。它是通用的,你可以将它集成到你需要的大多数函数中。每个函数在其先验中都有无穷多个导数。它也只有两个参数:

长度尺度ℓ决定"摆动"你的函数的长度。一般情况下,你无法推断超过ℓ单位远离你的数据。

输出方差(方差)决定了函数离均值的平均距离。每个内核前面都有这个参数;它只是一个比例因子。

同样地,周期核函数(由鳗鱼黑米推导)允许人们模拟精确地重复自己的函数。其参数很容易解释:

周期p只是决定了函数的重复之间的距离。

的长度尺度ℓ决定了长度尺度函数一样的SE内核。

联合内核

核相乘是组合两个核的标准方法,特别是当它们定义在函数的不同输入上时。粗略地说,两个内核的相乘可以被认为是一个AND操作。所以,如果你把两个核相乘,只有当两个基本核都是高值时,得到的核才会有高值。

例如,一个线性核函数乘以一个周期函数会产生周期性的函数,当我们离开原点时,函数的振幅会增加(如下图右侧所示)

此外,一个线性核乘以另一个线性核得到的函数是二次的!这个技巧可以用来产生任意程度的xfdjb多项式回归。

深层高斯过程

从数学上讲,深层高斯过程可以看作是一个复合多元函数,其中"深层"方面增加了正态高斯过程的能力。可以把它看作如下的嵌套函数(其中g(x)是x上的一个深度高斯过程)。

()=5(4(3(2(1())))).g(x)=f5(f4(f3(f2(f1(x))))).

如果我们从概率的角度来看,我们可以看到一个深层高斯过程指定了联合密度的因数分解,标准的深模型采用马尔可夫链的形式。

为什么叫深层?

高斯过程的限制因素实际上很容易直观地理解。因为高斯过程指定了函数的先验;这个函数的导数(如果存在的话)也是高斯函数。这也说明边际导数分布也是高斯分布。如果是这样的话,这就意味着偶尔会有很大导数的函数很难用高斯过程来建模。例如,一个带有跳转的函数。

然而,一次性跳跃很容易用GP建模,这是通过使用平均函数来引入的。此外,在输入空间的不同区域应用的两个协方差函数之间可以强制独立。但在这些情况下,我们需要指定不连续点的数量以及它们发生的位置。换句话说,我们需要参数化不连续点,这是一件不好的事情。如果我们不知道不连续点的数量,也不希望指定它们发生的位置,也就是说,如果我们想要不连续点的非参数表示,那么标准高斯过程就没有用了。

随机过程组成

深度高斯过程导致了非高斯模型的建模能力,以及协方差函数中的非高斯特性。实际上,所提出的是改变由组合随机过程所建模的函数的性质。这是一种从已知过程中创造新的随机过程的方法。

此外,随着深度GP的出现,研究人员不再局限于链的形式主义。例如,我们现在可以很容易地添加从链的某个深度点出现的单个节点。这允许我们结合图形建模形式的好处,但与一个强大的框架,将一组变量与另一组变量,高斯过程。

现在,我们已经详细讨论了高斯过程,让我们向前迈进,并讨论其中的一些关键问题。

高斯过程的问题

GP并非十全十美,而且必须解决许多问题才能确保稳定可靠的推理。

不稳定

我们遇到的第一个问题是GP经常不稳定并且做出糟糕的预测。这有一个明显的原因,那就是所使用的内核通常没有任何iid。高斯噪声核数据本身的噪声同时存在。因为模型在这里显然被错误地计算了,模型也被强制放到一个不能工作的数据集中。

结果,所使用的协方差矩阵将具有非零的特征值,但它们将非常非常接近,并且计算机的小的计算精度也开始起作用。这称为数值不稳定性。有多种解决方法:

1)在观测中添加噪声;也就是说添加2过程,数据明显噪音所以这实际上是一件好事![注,这是广泛使用的方法]

2)对你的GP执行低阶近似;也就是说做一个特征值/特征向量分解并剪辑所有可以忽略的特征值。协方差矩阵现在是低秩的,你可以很容易地反置非零特征值给你一个伪逆的协方差矩阵。要注意的是,你的不确定性基本上是零,因为你只有几个自由度,而且很明显有很多很多点。[注意:这在实际应用中要难得多]

添加很受欢迎和本质上添加一个小的噪音,直到矩阵变得好条件。例如,GPy中的GPs就是这样实现的。

计算速度慢

GP需要O(n³)的时间进行训练,因为模型需要O(n³)的矩阵求逆。 反转也不稳定; 调节误差很大。 幸运的是,变分归纳变量逼近的发展已将昂贵的矩阵处理成本降低到O(M³),其中M <N。因此,您自然应该期待它花费一些时间进行训练,并且随着它的增加而迅速增长 数据集大小。 这可以通过使用更快的反演器来改善

不灵活的分配假设

GPs假设高斯不确定性。例如,让我们假设输出值是严格正的,或者在两个值之间,那么这个高斯先验将是不合适的(或者只用于近似)。

内核限制

内核方法,随机森林,神经网络在这里需要权衡。 GP内核使我们可以在函数空间上指定一个优先级,这对我们非常有用,特别是在数据很少的情况下。 但是,在内核中选择错误的选项会导致对功能空间的误解,从而导致转换速度变慢。 指定除最基本之外的适当内核需要一些数学知识。

另一方面,随机森林和神经网络(通常)是完全频繁的,因此通常需要更多数据才能获得不错的预测性能。

总结

重要的是要在这里理解高斯过程是一个巨大的研究领域,并且该领域有很多事情要做,但是,该领域尚未在工业中得到很好的实施。 这些方法虽然有用,但其强度仍然落后于神经网络和其他更强大的模型(例如XGBoost随机森林)。

鉴于此,有必要了解这些模型,但请放心,他们还不能解决所有问题。 神经网络之所以大声疾呼,是因为它们能够对奇异点进行建模,因为它们无需事先对误差的分布进行假设。 这里的数据越多越好。 GP很棒,但此时此刻会受到固有的限制。

再次感谢您的阅读。

作者:Sohaib Ahmad

deephub翻译组

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。