信息论视角的主动感知:Fisher Information 与 Cramér-Rao 下界

从第一性原理讲解主动感知的信息论基础:Fisher Information、Cramér-Rao 下界、互信息,以及在 FIT-SLAM、Continuous Info Modeling 等 SLAM 工作中的应用

信息论视角的主动感知:Fisher Information 与 Cramér-Rao 下界

UAV 感知规划系列 · 第X篇 聚焦:信息论基础、主动感知框架、Fisher Information 的计算与在 SLAM 中的应用


1. 什么是主动感知?

传统感知是被动的:机器人接收传感器数据,更新环境模型。

主动感知则更进一步:机器人主动选择”看哪里”,以最大化任务价值。

被动感知:
传感器 → 数据 → 地图更新(机器人不动)

主动感知:
当前地图 → 信息价值评估 → 最优下一视角选择 → 移动 → 传感器 → 地图更新

           核心问题:如何量化"信息价值"?

对于 UAV 来说,主动感知尤为关键:


2. 信息论的数学基础

2.1 Fisher Information(费舍尔信息)

给定一个概率模型 ,其中 是待估计的参数,Fisher Information 衡量的是观测数据 携带的关于 的信息量:

直观理解:

标量 vs 矩阵形式:

FIM 是参数空间中的黎曼度量张量,决定了你能把参数估计得多准


2.2 Cramér-Rao 下界(CRLB)

Cramér-Rao 下界是 Fisher Information 的核心应用:给出了无偏估计器方差的最优下界

物理意义: 不管你用什么估计方法(只要是无偏的),估计精度都不可能超过

在 SLAM 中的意义:


2.3 Mutual Information(互信息)

互信息衡量两个随机变量之间的统计依赖性:

在主动感知中的意义:

最大化 = 选择让未来观测最能减少当前地图不确定性的视角。

这就是主动感知中”信息增益(Information Gain)“的信息论定义。


3. 主动感知框架

3.1 核心问题:Next-Best-View(NBV)

主动感知的核心问题是 NBV 规划:给定当前已观测区域,下一步应该移动到哪里才能最有效地减少不确定性?

NBV 问题的数学形式:

即:选择动作 ,使得执行后 FIM 的行列式(衡量总体不确定性的标量)最大化。


3.2 主动感知系统的三大组件

He et al. (ACC 2024)Active Perception using Neural Radiance Fields 中提出了主动感知系统的三组件框架:

┌─────────────────────────────────────────────────────────┐
│                   Active Perception System              │
│                                                         │
│  Component 1: 状态估计 & 地图表示                        │
│  (State Estimation & Map Representation)                 │
│  → 当前已观测区域的完整表示(几何 + 语义)               │
│                                                         │
│  Component 2: 未来观测合成                               │
│  (Generative Model of Future Observations)              │
│  → 给定候选动作,生成未来会看到的图像/传感器数据         │
│                                                         │
│  Component 3: 信息驱动的规划                              │
│  (Information-Driven Planning)                          │
│  → 在候选轨迹上计算互信息,选择最优                     │
└─────────────────────────────────────────────────────────┘

为什么需要 Component 2(生成模型)?


4. Fisher Information 在 SLAM 中的应用

4.1 SLAM 中的 FIM

在 visual SLAM 中,机器人需要同时估计:

观测模型:

观测的 Fisher Information:

关键洞察:

这就是为什么 UAV 需要主动选择视角!


4.2 经典论文解读

FIT-SLAM(arXiv, January 2024)

论文: FIT-SLAM — Fisher Information and Traversability estimation-based Active SLAM for exploration in 3D environments 作者: Suchetan Saravanan, Corentin Chauffaut, Caroline Chanel, Damien Vivet 来源: arXiv:2401.07504 | IROS 2024(投稿)

核心贡献:

方法:

传统 SLAM:
  minimize: Σ ||z - h(x,m)||²(重投影误差)

FIT-SLAM:
  minimize: Σ ||z - h(x,m)||² - λ · log det I(x,m)(重投影误差 - 信息增益)

关键创新:

  1. 信息-可通行性联合优化:信息增益大的位置如果飞不到,也没用
  2. 3D-aware FIM 计算:考虑 UAV 的完整六自由度运动
  3. 地形可达性估计:地形坡度、障碍物密度作为约束

Active View Planning for Visual SLAM: Continuous Information Modeling(arXiv, 2022/2023)

论文: Active View Planning for Visual SLAM in Outdoor Environments Based on Continuous Information Modeling 作者: Zhihao Wang, Haoyao Chen, Shiwu Zhang, Yunjiang Lou 来源: arXiv:2211.xxxxx | ICRA/IROS 2023

核心贡献:

关键洞察:

传统方法把空间离散化为候选点 → 信息增益只在这有限点集上评估

连续方法:用 GP 表示”任意位置的信息量”,然后在连续空间直接优化

在 UAV 上的优势:


5. 主动感知的信息增益计算

5.1 基于 Fisher Information 的信息增益

信息增益(Information Gain) = 动作前后的 FIM 变化:

但实际计算时不需要真的重建,只需:

  1. 预测新视角下的观测
  2. 计算新增观测的 FIM
  3. Schur complement 高效更新总 FIM

5.2 Mutual Information 的蒙特卡洛估计

互信息 通常无法解析计算,需要用蒙特卡洛方法:

在主动感知中:


6. 信息论 vs 其他准则

准则优点缺点
Fisher Information理论最优、紧下界计算复杂、需概率模型
Mutual Information直观、测量简单估计方差大
Entropy(熵)直观无法处理连续分布
Distance-based(距离)简单快速不考虑遮挡/外观
Coverage-based(覆盖率)简单不考虑信息密度

最佳实践: 组合多个准则


7. 与你已有工作的连接

你在 blog 中已经写了:

这意味着: 你已有主动感知框架的 地图表示层,再加 信息增益评估层 就能搭一个完整的主动感知系统!

自然延伸:

你已有的 NeRF/3DGS 地图
    ↓ + FIT-SLAM 的 FIM 计算方法
    ↓ + GP-based continuous NBV 优化
= 你的主动感知 UAV 系统

📚 参考文献

  1. He et al. Active Perception using Neural Radiance Fields. ACC 2024. arXiv:2310.09892.
  2. Saravanan et al. FIT-SLAM — Fisher Information and Traversability estimation-based Active SLAM for exploration in 3D environments. arXiv:2401.07504, January 2024.
  3. Wang et al. Active View Planning for Visual SLAM in Outdoor Environments Based on Continuous Information Modeling. arXiv:2211.xxxxx, 2022/2023.
  4. Lee et al. SO-NeRF: Active View Planning for NeRF using Surrogate Objectives. arXiv:2312.xxxxx, December 2023.
  5. Pan et al. How Many Views Are Needed to Reconstruct an Unknown Object Using NeRF? ICRA/IROS 2024.
  6. Marza et al. AutoNeRF: Training Implicit Scene Representations with Autonomous Agents. ICRA 2024.
  7. Chen et al. Active Human Pose Estimation via an Autonomous UAV Agent. IROS 2024.