Sapiens——人类视觉大模型的基础

引言

大规模预训练以及随后针对特定任务的语言建模微调取得了显著成功,已将这种方法确立为标准做法。同样, 计算机视觉方法正逐步采用大规模数据进行预训练。LAION5B、Instagram-3.5B、JFT-300M、LVD142M、Visual Genome 和 YFCC100M 等大型数据集的出现使得人们能够探索远远超出传统基准范围的数据语料库。该领域的突出工作包括 DINOv2、MAWS 和 AIM。DINOv2 通过在 LDV-142M 数据集上扩展对比 iBot 方法,在生成自监督特征方面实现了最先进的性能。MAWS 研究了十亿张图像上掩蔽自编码器 (MAE) 的扩展。AIM 探索了类似于 BERT 的自回归视觉预训练对于视觉转换器的可扩展性。与这些主要侧重于一般图像预训练或零样本图像分类的方法相比,Sapiens 采取了一种明显以人为本的方法:Sapiens 的模型利用大量人类图像进行预训练,随后针对一系列与人类相关的任务进行微调。追求大规模 3D 人体数字化仍然是计算机视觉领域的关键目标。

在受控或工作室环境中取得了重大进展,但将这些方法扩展到不受约束的环境仍然存在挑战。为了应对这些挑战,开发能够执行多项基本任务的多功能模型至关重要,例如关键点估计、身体部位分割、深度估计和从自然环境中的图像进行表面法线预测。在这项工作中,Sapiens 旨在为这些基本的人类视觉任务开发模型,这些模型可以推广到野外环境。目前,最大的公开语言模型包含超过 100 亿个参数,而更常用的语言模型包含大约 7 亿个参数。相比之下,Vision Transformers (ViT) 尽管共享类似的架构,但尚未成功扩展到这种程度。虽然在这方面做出了许多努力,包括开发针对文本和图像进行训练的密集 ViT-4B,以及制定稳定训练 ViT-22B 的技术,但常用的视觉主干仍然介于 300 亿到 600 亿个参数之间,并且主要在约 224 像素的图像分辨率下进行预训练。同样,现有的基于 Transformer 的图像生成模型(例如 DiT)使用不到 700 亿个参数,并在高度压缩的潜在空间上运行。为了弥补这一差距,Sapiens 推出了一系列大型高分辨率 ViT 模型,这些模型在数百万张人体图像上以 1024 像素的图像分辨率进行本地预训练。

Sapiens 针对四项以人为中心的基本视觉任务提出了一系列模型:2D 姿势估计、身体部位分割、深度估计和表面法线预测。Sapiens 模型原生支持 1K 高分辨率推理,并且非常容易通过对超过 300 亿张野生人类图像进行预训练的模型进行微调来适应单个任务。Sapiens 观察到,在给定相同计算预算的情况下,对精选的人类图像数据集进行自我监督预训练可显著提高以人为中心的各种任务的性能。即使在标记数据稀缺或完全合成的情况下,生成的模型也表现出对野生数据的出色泛化能力。简单的模型设计还带来了可扩展性——随着参数数量从 0.3 扩展到 2 亿,跨任务的模型性能得到提高。 Sapiens 在各种以人为本的基准中始终超越现有基线,与之前的最先进结果相比取得了显著的进步:Humans-7.6K(姿势)上 5 mAP,Humans-17.1K(部分分段)上 2 mIoU,Hi22.4D(深度)上 4% 相对 RMSE,以及 THuman53.5(正常)上 2% 相对角度误差。

人类视觉模型的突破

近年来,我们在 2D 和 3D 中生成照片级逼真的人类方面取得了显著进展。这些方法的成功很大程度上归功于对各种资产(例如 2D 关键点、细粒度身体部位分割、深度和表面法线)的稳健估计。然而,对这些资产进行稳健而准确的估计仍然是一个活跃的研究领域,而用于提高单个任务性能的复杂系统通常会阻碍更广泛的采用。此外,在野外获得准确的地面实况注释是出了名的难以扩展。Sapiens 的目标是提供一个统一的框架和模型来推断野外的这些资产,为每个人解锁广泛的以人为本的应用程序。

Sapiens 认为,这种以人为中心的模型应该满足三个标准:泛化、广泛适用性和高保真度。泛化确保了对未知条件的鲁棒性,使模型能够在不同的环境中始终如一地执行。广泛适用性表示模型的多功能性,使其适用于各种任务,只需进行最少的修改。高保真度表示模型能够产生精确、高分辨率的输出,这对于忠实的人类生成任务至关重要。本文详细介绍了体现这些属性的模型的开发,统称为 Sapiens。

根据洞察,Sapiens 利用大型数据集和可扩展的模型架构,这是泛化的关键。为了扩大适用范围,Sapiens 采用了先预训练再微调的方法,使预训练后能够以最少的调整适应特定任务。这种方法提出了一个关键问题:哪种类型的数据对预训练最有效?考虑到计算限制,应该重点收集尽可能多的人体图像,还是最好在较少的整理集合上进行预训练以更好地反映现实世界的变化?现有方法通常会忽略下游任务背景下的预训练数据分布。为了研究预训练数据分布对人类特定任务的影响,Sapiens 收集了 Humans-300M 数据集,其中包含 300 亿张不同的人体图像。这些未标记的图像用于从头开始预训练一系列视觉转换器,参数数量从 300 亿到 2 亿不等。

在从大型数据集中学习通用视觉特征的各种自监督方法中,Sapiens 选择了 掩蔽自编码器 (MAE)方法以其简单和高效的预训练而闻名。与对比或多推理策略相比,MAE 具有单次推理模型,允许使用相同的计算资源处理大量图像。为了获得更高的保真度,与之前的方法相比,Sapiens 将其预训练的原始输入分辨率提高到 1024 像素,与现有最大的视觉主干相比,FLOP 增加了约 4 倍。每个模型都在 1.2 万亿个标记上进行预训练。对于以人为本的任务进行微调,Sapiens 使用一致的编码器-解码器架构。编码器使用预训练中的权重初始化,而解码器(轻量级且特定于任务的头部)则随机初始化。然后对两个组件进行端到端微调。Sapiens 专注于四个关键任务:2D 姿势估计、身体部位分割、深度和法线估计,如下图所示。

在这里插入图片描述
与之前的研究一致,Sapiens 肯定了标签质量对模型实际性能的关键影响。公共基准通常包含嘈杂的标签,在模型微调期间提供不一致的监督信号。同时,利用细粒度和精确的注释与 Sapiens 的 3D 人体数字化主要目标紧密结合非常重要。为此,Sapiens 提出了一组密度大大提高的 2D 全身关键点用于姿势估计,以及一组详细的类别词汇用于身体部位分割,超越了以前数据集的范围。具体来说,Sapiens 引入了 308 个关键点的综合集合,涵盖身体、手、脚、表面和面部。此外,Sapiens 将分割类别词汇扩展到 28 个类别,涵盖头发、舌头、牙齿、上/下唇和躯干等身体部位。为了保证注释的质量和一致性以及高度自动化,Sapiens 使用多视图捕获设置来收集姿势和分割注释。Sapiens 还利用以人为中心的合成数据进行深度和法线估计,利用来自 RenderPeople 的 600 个详细扫描来生成高分辨率深度图和表面法线。Sapiens 表明,特定领域的大规模预训练与有限但高质量的注释相结合可实现强大的野外泛化。总体而言,Sapiens 的方法展示了一种有效的策略,可以开发能够在现实世界场景中执行的高精度判别模型,而无需收集昂贵且多样化的注释集。

在这里插入图片描述

方法与建筑

Sapiens 采用掩码自动编码器 (MAE) 方法进行预训练。该模型经过训练,可以根据部分观察结果重建原始人体图像。与所有自动编码器一样,Sapiens 的模型有一个编码器,可将可见图像映射到潜在表示,还有一个解码器,可根据该潜在表示重建原始图像。预训练数据集由单人和多人图像组成,每张图像都调整为具有正方形长宽比的固定大小。类似于 维生素,将图像划分为具有固定块大小的规则不重叠块。这些块的子集被随机选择并屏蔽,其余部分可见。屏蔽块与可见块的比例(称为屏蔽率)在整个训练过程中保持不变。

Sapiens 的模型在各种图像特征上都表现出了泛化能力,包括尺度、裁剪、受试者的年龄和种族以及受试者的数量。模型中的每个补丁标记占图像面积的 0.02%,而标准 ViT 中为 0.4%,减少了 16 倍,为模型提供了细粒度的标记间推理。即使掩码率增加到 95%,Sapiens 的模型也能在保留的样本上实现人体解剖结构的合理重建。下图展示了 Sapien 的预训练模型在未见过的人体图像上的重建。

在这里插入图片描述
此外,Sapiens 利用大型专有数据集进行预训练,该数据集由大约 1 亿张自然图像组成,专注于人类图像。预处理包括丢弃带有水印、文本、艺术描绘或非自然元素的图像。然后,Sapiens 使用现成的人体边界框检测器来过滤图像,保留检测分数高于 0.9 且边界框尺寸超过 300 像素的图像。数据集中有超过 248 亿张图像包含多个主体。

2D 姿态估计

Sapien 框架在多个骨架上对 P 中的编码器和解码器进行微调,其中包括 K = 17 [67]、K = 133 [55] 和一个新的高度详细骨架,其中 K = 308,如下图所示。

在这里插入图片描述
与最多 68 个面部关键点的现有格式相比,Sapien 的注释包含 243 个面部关键点,包括眼睛、嘴唇、鼻子和耳朵周围的代表点。这种设计旨在细致地捕捉现实世界中面部表情的细微细节。利用这些关键点,Sapien 框架手动注释了来自室内捕捉设置的 1 万张 4K 分辨率图像。与之前的任务类似,我们将法线估计器 N 的解码器输出通道设置为 3,对应于每个像素的法线向量的 xyz 分量。生成的合成数据也用作表面法线估计的监督。

在这里插入图片描述

实验与结果

Sapiens-2B 使用 1024 个 A100 GPU 通过 PyTorch 进行了 18 天的预训练。Sapiens 在所有实验中均使用 AdamW 优化器。学习计划包括简短的线性预热,然后进行余弦退火进行预训练,再进行线性衰减进行微调。所有模型均从头开始进行预训练,分辨率为 1024 × 1024,块大小为 16。为了进行微调,输入图像的大小被调整为 4:3 的比例,即 1024 × 768。Sapiens 应用了标准增强功能,例如裁剪、缩放、翻转和光度失真。添加了来自非人类 COCO 图像的随机背景以用于分割、深度和正常预测任务。重要的是,Sapiens 使用差异学习率来保持泛化,初始层的学习率较低,后续层的学习率逐渐升高。逐层学习率衰减设置为 0.85,编码器的权重衰减设置为 0.1。

下表详细列出了 Sapiens 的设计规格。Sapiens 遵循特定方法,优先按宽度而非深度扩展模型。值得注意的是,Sapiens-0.3B 模型虽然在架构上与传统的 ViT-Large 相似,但由于分辨率更高,其 FLOP 数量是后者的 XNUMX 倍。

在这里插入图片描述
Sapiens 使用高保真注释对面部、身体、脚和手 (K = 308) 姿势估计进行了微调。对于训练,Sapiens 使用包含 1M 幅图像的训练集,对于评估,它使用包含 5K 幅图像的测试集 Humans5K。评估采用自上而下的方法,其中 Sapiens 使用现成的边界框检测器并进行单个人体姿势推理。表 3 显示了 Sapiens 模型与现有全身姿势估计方法的比较。所有方法均在 Sapiens 的 114 个关键点词汇表和 COCO-WholeBody 的 308 个关键点词汇表之间的 133 个共同关键点上进行评估。Sapiens-0.6B 比目前最先进的 DWPose-l 高出 +2.8 AP。与 DWPose 不同,Sapiens 采用通用的编码器-解码器架构,并进行大量以人为本的预训练,而 DWPose 采用复杂的学生-老师框架,并针对任务量身定制特征提炼。

有趣的是,即使参数数量相同,Sapiens 模型也表现出比同类模型更出色的性能。例如,Sapiens-0.3B 比 VitPose±L 高出 +5.6 AP,而 Sapiens-0.6B 比 VitPose±H 高出 +7.9 AP。在 Sapiens 系列中,结果表明模型大小与性能之间存在直接相关性。Sapiens-2B 以 61.1 AP 创下了新的最先进水平,比现有技术显著提高了 +7.6 AP。尽管使用室内捕捉工作室的注释进行了微调,但 Sapiens 仍表现出对现实世界场景的强大泛化能力,如下图所示。

在这里插入图片描述
Sapiens 使用 28 个类别的分割词汇进行微调和评估。训练集包含 100K 张图像,而测试集 Humans-2K 包含 2K 张图像。将 Sapiens 与在同一训练集上微调的现有身体部位分割方法进行比较,使用每种方法建议的预训练检查点作为初始化。与姿势估计类似,Sapiens 在分割方面表现出了泛化能力,如下表所示。

在这里插入图片描述
有趣的是,最小的模型 Sapiens-0.3B 凭借更高的分辨率和大量以人为中心的预训练,比现有的最先进的分割方法(如 Mask2Former 和 DeepLabV3+)高出 12.6 mIoU。此外,增加模型大小可进一步提高分割性能。Sapiens-2B 的性能最佳,在测试集上达到 81.2 mIoU 和 89.4 mAcc,下图显示了 Sapiens 模型的定性结果。
在这里插入图片描述

结论

Sapiens 代表着将以人为本的视觉模型推进到基础模型领域的重要一步。Sapiens 模型在各种以人为本的任务中展示了强大的泛化能力。最先进的性能归功于:(i) 在专门为理解人类而定制的精选数据集上进行大规模预训练,(ii) 可扩展的高分辨率和高容量视觉转换器主干,以及 (iii) 在增强工作室和合成数据上进行高质量注释。Sapiens 模型有可能成为众多下游任务的关键构建块,并为社区中更广泛的群体提供高质量视觉主干的访问权限。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/143798.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

管道缺陷检测系统源码分享

管道缺陷检测检测系统源码分享 [一条龙教学YOLOV8标注好的数据集一键训练_70全套改进创新点发刊_Web前端展示] 1.研究背景与意义 项目参考AAAI Association for the Advancement of Artificial Intelligence 项目来源AACV Association for the Advancement of Computer Vis…

【2024】前端学习笔记7-颜色-位置-字体设置

学习笔记 1.定义:css2.颜色:color3.字体相关属性:font3.1.字体大小:font-size3.2.字体风格:font - style3.3.字体粗细:font - weight3.4.字体族:font - family 4.位置:text-align 1.…

Springboot与minio:

一、介绍 Minio是一个简单易用的云存储服务,它让你可以轻松地把文件上传到互联网上,这样无论你在哪里,只要有网络,就能访问或分享这些文件。如果你想要从这个仓库里取出一张图片或一段视频,让网站的访客能看到或者下载…

火狐浏览器同源策略禁止解决方案

Firefox火狐浏览器控制台,提示:已拦截跨源请求:同源策略禁止读取位于 http://127.0.0.1:5000/test.zip 的远程资源。(原因:CORS 头缺少 Access-Control-Allow-Origin)。状态码:200。 前言全局说明 Firefox火狐浏览器控…

图片文字翻译怎么快速翻译?5个软件教你快速进行图片文字翻译

图片文字翻译怎么快速翻译?5个软件教你快速进行图片文字翻译 图片文字翻译是日常工作和生活中常见的需求,尤其是在处理外文资料或旅游时。以下5款优秀的软件可以帮助你轻松、快速地将图片中的文字进行翻译,让你不再依赖手动输入和繁琐操作。…

Python燃烧废气排放推断算法模型

🎯要点 宏观能耗场景模型参数化输入数据,分析可视化输出结果,使用场景时间序列数据模型及定量和定性指标使用线图和箱线图、饼图、散点图、堆积条形图、桑基图等可视化模型输出结果根据气体排放过程得出其时间序列关系,使用推断模…

镀金引线---

一、沉金和镀金 沉金和镀金都是常见的PCB金手指处理方式,它们各有优劣势,选择哪种方式取决于具体的应用需求和预算。 沉金(ENIG)是一种常用的金手指处理方式,它通过在金手指表面沉积一层金层来提高接触性能和耐腐蚀性…

链条缺陷检测系统源码分享

链条缺陷检测检测系统源码分享 [一条龙教学YOLOV8标注好的数据集一键训练_70全套改进创新点发刊_Web前端展示] 1.研究背景与意义 项目参考AAAI Association for the Advancement of Artificial Intelligence 项目来源AACV Association for the Advancement of Computer Vis…

Java-数据结构-优先级队列(堆)-(一) (;´д`)ゞ

文本目录: ❄️一、优先级队列: ➷ 1、概念: ❄️二、优先级队列的模拟实现: ➷ 1、堆的概念: ➷ 2、堆的性质: ➷ 3、堆的创建: ▶ 向下调整: ➷ 4、堆的插入和删除: …

Linux权限管理: 文件访问者分类、文件类型和访问权限、权限值的表示方法、文件访问权限的相关设置方法、umask、目录的权限、粘滞位等的介绍

文章目录 前言一、文件访问者分类二、文件类型和访问权限1. 文件类型2. 基本权限 三、权限值的表示方法1. 字符表示方法2. 8进制数值表示方法 四、文件访问权限的相关设置方法1. chmod2. chown3. chgrp 五、 umask六、目录的权限七、粘滞位总结 前言 Linux权限管理&#xff1a…

论文不会写?分享6款AI论文写作免费一键生成网站!

在当今学术研究和写作领域,AI论文写作工具的出现极大地提高了写作效率和质量。这些工具不仅能够帮助研究人员快速生成论文草稿,还能进行内容优化、查重和排版等操作。本文将分享6款免费一键生成AI论文写作网站,并重点推荐千笔-AIPassPaper。 …

鸿蒙OpenHarmony【轻量系统芯片移植】物联网解决方案之芯海cst85芯片移植案例

物联网解决方案之芯海cst85芯片移植案例 本文介绍基于芯海cst85芯片的cst85_wblink开发板移植OpenHarmony LiteOS-M轻量系统的移植案例。开发了Wi-Fi连接样例和XTS测试样例,同时实现了wifi_lite, lwip, startup, utils, xts, hdf等部件基于OpenHarmony LiteOS-M内核…

初学者如何快速入门大语言模型(LLM)?

初学者如何快速入门大语言模型(LLM) 知乎大佬已给出了比较合理的方案,小白千万别走弯路了,下面给大家梳理和解读: 技术要求:要入门大语言模型,需要掌握以下基本技术: 开发语言&…

模拟实现string类: clear函数、流提取(<<)和流插入(>>)运算符重载、>、<、==、<=、>=、!=的运算符重载、赋值运算符(=)重载等的介绍

文章目录 前言一、 clear函数二、流提取(<<)和流插入(>>)运算符重载三、 >、<、、<、>、!的运算符重载四、赋值运算符&#xff08;&#xff09;重载总结 前言 模拟实现string类: clear函数、流提取(<<)和流插入(>>)运算符重载、>、<…

上线跨境电商商城的步骤

上线一个跨境电商商城涉及多个步骤&#xff0c;从前期准备到上线后的维护。以下是一些关键步骤&#xff1a; 1. 市场调研与规划 目标市场分析&#xff1a;研究目标市场的需求、竞争对手和消费者行为。法律法规&#xff1a;了解并遵守目标市场的法律法规&#xff0c;包括税收、…

git学习【持续更新中。。。】

git学习【持续更新中。。。】 文章目录 git学习【持续更新中。。。】一、Git基本操作1.创建本地仓库2.配置本地仓库1.局部配置2.全局配置 3.认识工作区、暂存区、版本库4.添加文件5.修改文件6.版本回退7.撤销修改8.删除文件 二、Git分支管理1.理解分支2.创建、切换、合并分支3.…

YOLOv8改进:SA注意力机制【注意力系列篇】(附详细的修改步骤,以及代码,与其他一些注意力机制相比,不仅准确度更高,而且模型更加轻量化。)

如果实验环境尚未搭建成功&#xff0c;可以参考这篇文章 ->【YOLOv8超详细环境搭建以及模型训练&#xff08;GPU版本&#xff09;】 文章链接为&#xff1a;http://t.csdnimg.cn/8ZmAm ---------------------------------------------------------------------------​---…

亲测有效,长期有效的RTSP流地址公网RTSP地址,各种类型的视频源

我们经常需要做一些实时视频流的测试&#xff0c;但是手边又没有办法及时弄到一个摄像机&#xff0c;我们经常会去搜索一下“公网RTSP地址”&#xff0c;但是大部分现在都失效了&#xff0c;有什么办法能够让我们快速构建一个RTSP流&#xff0c;点几下就能直接用&#xff1f; …

C++ 在项目中使用Linux命令

一: 选择shell Linux 命令是由shell解析并转发给操作系统执行的&#xff0c;所有的shell都是从 Bourne shell&#xff08;/bin/sh&#xff09;派生的&#xff0c;Bourne shell是贝尔实验室为早期版本的Unix开发的标准shell。 每个Unix系统都需要一个版本的Bourne shell才能正…

Maple常用命令

1. 重启内核&#xff1a; restart 2. 化简式子 simplify(式子) 3. 引用前面出现的公式&#xff1a; CtrlL&#xff0c;在弹出的以下对话框中输入要引用的公式编号 4.