高斯进度回归用例

在阅读论文“在未知工作空间中基于触觉的主动对象识别和目标对象搜索”时,我有些无法理解:

本文是关于仅使用触觉信息来查找对象的位置和其他属性的。在第4.1.2节中,作者说他使用GPR指导探索过程,在第4.1.4节中,他描述了他如何训练GPR:

  1. 使用4.1.2节中的示例,输入为(x,z),输出为y。
  2. 只要有联系,就会存储对应的y值。
  3. 此过程重复多次。
  4. 经过训练的GPR用于估算下一个探索点,即最大方差所在的点。

在以下链接中,您还可以看到演示:https://www.youtube.com/watch?v=ZiLq3i-BJcA&t=177s。在视频的第一部分(0:24-0:29)中,第一次初始化发生在机器人采样4次的地方。然后在接下来的25秒内,机器人从相应的方向进行探索。我不了解GPR的这种微小初始化如何指导探索过程。有人可以解释一下如何估算第一个探索部分的输入点(x,z)吗?

DJJ980620 回答:高斯进度回归用例

任何回归算法都只是以特定算法特有的某种方式将输入(x,z)映射到输出y。对于新输入(x0,z0),如果训练中包括许多与此类似的数据点,则该算法可能会预测非常接近真实输出y0的内容。如果只有培训数据在非常不同的地区可用,则预测可能会很糟糕。

GPR包括对预测的置信度的度量,即方差。在以前从未见过训练数据的区域中,方差自然会非常高,而在已经看过的数据点附近非常低。如果“实验”比评估高斯过程花费的时间长得多,则可以使用高斯过程拟合来确保对不确定答案的区域进行抽样。

如果目标是充分探索整个输入空间,则可以绘制(x,z)的许多随机值,并评估这些值的方差。然后,您可以在y中最不确定的输入点执行昂贵的实验。然后,您可以使用到目前为止所有已探查的数据重新训练GPR,然后重复该过程。

针对优化问题(不是OP的问题)

如果您希望在整个输入空间中找到y的最低值,则对在您知道y值较高的区域进行实验没有兴趣,但是不确定这些值多么的高度。因此,您可以选择(x,z)的预测值加上一个标准偏差,而不是选择方差最大的y点。以这种方式将值最小化称为贝叶斯优化,此特定方案称为上置信界(UCB)。预期改善(EI)-改善先前最佳分数的可能性-也很常用。

本文链接:https://www.f2er.com/2728755.html

大家都在问