高斯渐进回归用例

Gaussian Progress Regression usecase

在阅读论文:“基于触觉的主动对象识别和未知工作空间中的目标对象搜索”时,有一些我无法理解的地方:

这篇论文是关于仅使用触觉信息来查找对象的位置和其他属性的。在 4.1.2 节中,作者说他使用 GPR 来指导探索过程,在 4.1.4 节中,他描述了他如何训练他的 GPR:

  1. 使用 4.1.2 节中的示例,输入为 (x,z),输出为 y。
  2. 只要有联系人,就会存储相应的 y 值。
  3. 这个过程重复了几次。
  4. 这个训练好的GPR用于估计下一个探索点,也就是方差最大的点。

在下面的link中还可以看到演示:https://www.youtube.com/watch?v=ZiLq3i-BJcA&t=177s。在视频的第一部分 (0:24-0:29),第一次初始化发生在机器人采样 4 次的地方。然后在接下来的 25 秒内,机器人从相应的方向探索探索。我不明白 GPR 的这种微小初始化如何指导探索过程。有人可以解释一下如何估计第一个探索部分的输入点 (x,z) 吗?

任何回归算法都只是将输入 (x,z) 以特定算法独有的某种方式映射到输出 y。对于新输入 (x0,z0) 如果训练中包含许多与此类似的数据点,算法可能会预测非常接近真实输出 y0 的内容。如果只在一个截然不同的地区提供训练数据,预测结果可能会很糟糕。

GPR 包括预测的置信度度量,即方差。在之前没有看到训练数据的区域,方差自然会非常高,而非常接近已经看到的数据点。如果 'experiment' 比评估高斯过程花费的时间长得多,您可以使用高斯过程拟合来确保对您不确定答案的区域进行采样。

如果目标是全面探索整个输入 space,您可以绘制大量 (x,z) 的随机值并评估这些值的方差。然后,您可以在 y 中您最不确定的输入点执行昂贵的实验。然后你可以用到目前为止所有探索过的数据重新训练 GPR 并重复这个过程。

对于优化问题(不是OP的问题)

如果您希望在输入 space 中找到 y 的最低值,您对在您知道 y 具有高值的区域中进行实验不感兴趣,但您只是不确定 这些值会有多高。因此,您可以选择 y 的预测值加上一个标准差,而不是选择具有最高方差的 (x,z) 个点。以这种方式最小化值称为贝叶斯优化,这种特定方案称为置信上限 (UCB)。预期改进 (EI) - 提高先前最佳分数的概率 - 也很常用。