文章摘要:
最近,许多方法直接对不同任务的点云进行操作。当点云尺寸较大时,这些方法的计算量和存储要求更高。为了减少所需的计算和存储,一种可能的解决方案是对点云进行采样。在本文中,我们提出了第一个可学习的与任务无关的点云采样 (lta-pcs) 框架。现有的与任务无关的点云采样策略(例如 fps)没有考虑点云的语义信息,导致下游任务的性能下降。虽然基于学习的点云采样方法考虑了语义信息,但它们是特定于任务的,需要面向任务的地面真实注释。所以它们不能很好地概括不同的下游任务。我们的lta-pcs实现了与任务无关的点云采样,而不需要面向任务的标签,其中采样中考虑了点的几何和语义信息。对多个下游任务的广泛实验证明了我们的 lta-pc 的有效性。结论:在这项工作中,我们提出了可学习的与任务无关的点云采样(lta-pcs)框架,用于与任务无关的点云采样任务,旨在保持点云采样的几何和语义一致性。具体来说,我们首先使用预训练的 2d 特征提取器来训练采样网络,并使用语义损失,包括视图间和视图内损失。多个下游任务的综合实验结果表明了lta-pcs的有效性。未来,我们将继续根据我们的 lta-pcs 方法探索更多任务。
目前存在的问题:
文章主要研究内容:
之前的研究:
下