[Paper] 基于GCN的动作识别的主动学习
发布: (2025年11月27日 GMT+8 01:51)
2 min read
原文: arXiv
Source: arXiv
摘要
尽管图卷积网络(GCNs)在基于骨架的动作识别中取得了显著成功,但其性能往往依赖于大量标注数据,而在实际场景中标注数据通常稀缺。为了解决这一限制,我们提出了一种新颖的标签高效 GCN 模型。我们的工作主要有两项贡献。首先,我们设计了一种新颖的获取函数,采用对抗策略来识别一组紧凑且信息丰富的示例用于标注。该选择过程在代表性、多样性和不确定性之间取得平衡。其次,我们引入了双向且稳定的 GCN 架构。这些增强的网络能够更有效地在环境空间和潜在空间之间进行映射,从而更好地理解学习到的示例分布。对两个具有挑战性的基于骨架的动作识别基准进行的大量评估表明,与已有工作相比,我们的标签高效 GCN 实现了显著的性能提升。
主题
- 计算机视觉与模式识别 (cs.CV)
引用
- arXiv: 2511.21625 (cs.CV)
- DOI: https://doi.org/10.48550/arXiv.2511.21625
提交历史
- v1 – 2025年11月26日 星期三 17:51:59 UTC (25 KB) – 作者: Hichem Sahbi