一、背景
我们介绍了一种新的大型多模态模型(LMM),结合了语言模型和视觉搜索模型,能够有效处理高分辨率图像的细节。此外,我们提出了相应的搜索算法和针对高分辨率图像的评估基准。
这项研究的详细内容可以在以下论文找到:[2312.14135] V*: Guided Visual Search as a Core Mechanism in Multimodal LLMs。
相关的代码库可以在这里找到:[连接]。
想了解更多关于LMM的综述内容吗?可以参考以下资源:
1. 最全LMM模型结构(13种)综述
2. 最全LMM模型训练(12种)综述
3. 最全LMM评估指标汇总:包括20+模型、7个维度的评估指标
最近关于多模态LMM的解读和技术报告包括:
1. 微软GPT-4V技术报告解读(1)
2. 微软GPT-4V技术报告解读(2)
3. CogVLM:Visual Expert for Large Language Models 论文解读
4. MiniGPT-v2 论文解读
5. LLaVA-1.5 论文解读
6. BLIP-2 论文及实现解读
7. 阿里最新LMM:mPLUG-Owl2 论文解读
8. SPHINX:多任务、多权重、多编码器、多分辨率混合的多模态大模型
9. Monkey:大分辨率+详细描述,多项LMM SOTA
10. Florence-2:126M图像、5.4B视觉标注、0.77B LMM,多项SOTA
11. CogAgent:高效大分辨率多模态模型,多项SOTA
对于常见的多模态数据集解读,包括:
1. LMM视觉问答(VQA)数据集解读
2. LMM视觉描述(Captioning)和定位(Grounding)数据集
3. LVIS-Instruct4V:Data is All You Need,12项评估中的11项SOTA
4. ShareGPT4V:Data is All You Need,11项评估中的9项SOTA
此外,我们还涵盖了其他多模态幻觉校正的研究:
1. Woodpecker:LMM幻觉校正 – 论文解读
2. LURE:减少LMM多模态物体幻觉的研究,降低了23%
二、摘要
为了实现通用人工智能的重要一步,LMM试图整合多模态信息以执行更复杂的任务。然而,目前LMM仍然存在一个局限性:它们依赖于预训练的视觉编码器(通常是冻结的),例如常见的CLIP。这些视觉编码器通常在较低分辨率上训练(如调整到224×224或336×336像素),这也导致在推理时输入图像必须调整到较低分辨率,从而可能忽略高分辨率图像中的重要细节。此外,当前的LMM在识别和主动查询图像中缺失或不清晰的细节方面也存在困难,这成为了视觉信息处理的主要障碍。
受人类认知能力的启发,作者提出了SEAL(Show,SEArch,and TelL)框架,旨在解决这些限制,将LLM引导的视觉搜索机制集成到LMM中。SEAL框架由VQA(Visual Question Answering)LLM和视觉搜索模型组成,能够明确识别缺失的视觉细节,进而创建目标对象并聚焦处理。接着,利用世界知识和语言模型的常识,视觉搜索组件定位这些已识别的元素,并将它们添加到视觉工作记忆(Visual Working Memory,VWM)中。VWM中这些额外的视觉数据使VQA LLM能够提供更准确、更合理的响应。
总结来说,本文的主要贡献包括:
1. 设计了SEAL框架,用于主动推理和搜索所需的视觉信息,特别是处理高分辨率图像时,这是密集型视觉多模态任务的重要能力。
2. 开发了视觉搜索算法V*,利用LLM固有的常识理解,能够有效广泛地搜索任何分辨率的图像。
3. 创建了多模态评估基准V* Bench,用于评估LMM在高分辨率图像中准确处理和定位详细视觉信息的能力。
三、模型和方法
3.1. VQA LLM 模型(MLLM)
如下图所示为 VQA LLM 的主要结构,其包含一个 VWM,用于存储上下文信息,主要包含 4 个方面:
-
<question>:原始的纯文本问题。
-
<global image>:初始的图像。
-
<searched targets>:从视觉搜索模块获得的目标图像,已经经过裁剪,初始阶段为空。
-
<target locations>:目标图像对应的坐标,初始阶段为空。
作者使用 LLaVA-7B-1.5 作为 VQA LLM,其同样包含三个关键组件:
-
-
Vision Encoder:作者采用 CLIP ViT-L/14 模型,用于提取图像 Token embedding,对应的输入图像分辨率为 224×224,生成 256 个 Token。
-
Language Model:大语言模型。
-
Resampler + Linear:两种常见的多模态投影模块,Resampler 采用 Cross-Attention,可以压缩 Token 数目,从 256 -> 32。作者设计了一个简单的机制在两者之间切换:
-
只包含一个初始图像:使用 Linear,保留 256 个 Token。
-
有一个初始图像和 1-2 个目标图像:初始图像使用 Resampler,目标图像使用 Linear,目标图像 Token 更多,LLM 可以更加聚焦在目标图像。
-
超过 2 个目标图像:全部使用 Resampler,以减小计算代价。
-
-
3.2. SEAL 工作流程
如下图所示为 SEAL 的详细工作流程:
-
1:输入图像 I 和文本问题 T,和阈值 δ
-
2:调用 VQA LLM 获得目标 L
-
3:初始化 VWM
-
4:将图像 I 和文本问题 T 添加到 VWM
-
5:循环遍历所有目标 L:
-
6:创建优先级队列 q
-
7:将 (I, ∞) 添加到 q
-
8:使用视觉搜索模型来搜索目标
-
9,10:没有找到目标,VWM 中添加 “图像中不存在 {目标}”
-
12,13:找到目标,从图像 I 中裁剪目标,并将 “{目标} <目标图像> 位于 [x1, y1, x2, y2]” 添加到 VWM
-
-
14,15:VQA LLM 基于 VWM 最终结果并返回
3.3. VQA LLM 训练数据集
由于 VQA LLM 增加了 VWM,因此需要额外的指令微调数据来训练,作者构建了三种数据。
3.3.1 用于目标物体推理的负样本数据(100k)
VQA LLM 首先要识别目标物体,以便回答问题及判断是否缺失或者在初始图像中不够清晰。为此,作者构建了(图像,问题,答案)数据,其中包含图像中不存在的 1 或 2 个目标。
此外,作者还故意挑选了一些太小而无法被 CLIP Encoder 捕获的目标物体,具体来说是选择了边界框小于 20×20 的物体,并构建其相关细节问题,对于此类问题的恰当的回答应该是承认无法回答,并明确列出所需的其他目标物体。作者使用 COCO 2017 构建了 100k 的数据,并使用 GPT-3.5 生成相关问题。
3.3.2 VQA 数据(167k)
数据包含三个部分:
-
GQA 数据(70k)
-
聚焦于物体属性的 VQA 数据(51k)
-
聚焦于物体空间关系的 VQA 数据(46k)
3.3.3 LLaVA 指令微调数据(120k)
数据包含两部分:
-
LLaVA-80k 指令微调数据,图像也来自 COCO。
-
针对上述数据还识别了与 COCO 类别匹配并标注有对象实体的数据,将匹配的对象作为搜索目标,创建了额外的 40k 数据。
3.4. V* 视觉搜索算法
3.4.1 模型结构
如下图所示,上述的 VQA LLM(MLLM)模型有三个用途:
-
加上 LoRA:用于生成可能的目标(文本)。
-
加上 LoRA 和 Mcl:用于生成目标可能的区域。
-
加上 LoRA 和 Mtl:用于生成目标确切的位置。
作者设计了一个特殊的 <LOC> Token,通过 prompt “Please locate the [object] in the image.”,模型会生成对应的 <LOC> Token,然后将该 Token 对应的 embedding 用于后续的 Mcl 和 Mtl 模块,这两个模块的结构如下图 Figure 4 所示,其中 Dcl 参考了 SAM 的实现,Dtl 包含两个 MLP,这两个模块也都会把 Image Token embedding 作为输入:
3.4.2 搜索算法
其对应的视觉模型搜索算法如下所示:
-
1:给定优先级队列 q,搜索目标 s 和阈值 δ
-
2:从队列 q 中拿到对应图像 I
-
3:调用视觉搜索模型,从图像 I 中定位目标 s,获得对应的坐标 coordinates、置信度 confidence 和可能位置 heatmap。
-
4,5:如果存在目标 s 对应的坐标则直接返回坐标 coordinates
-
6:不存在目标 s 的坐标,且 heatmap.max() 小于阈值 δ
-
7:从当前图像 I 中找到可能关联的目标
-
8:基于可能关联的目标进行定位
-
-
9:不存在目标 s 的坐标,且 heatmap.max() 大于阈值 δ,将图像 I 分成一系列子图像,并递归调用视觉搜索模型。
-
10,11,12,13,14:从队列 q 中返回对应的搜索结果。
图像切分逻辑如下图 Figure 5 所示,其会保证图像的比例,然后多级递归切分:
3.5. V* Bench
作者从 SA-1B 数据集(Meta 分割一切模型 SAM 一起发布的数据集)中选择了 191 个高分辨率图像,平均分辨率为 2246×1582。Benchmark 中包含两个子任务:
-
属性识别(attribute recognition):包含 115 个图像,要求模型识别特定类型的属性,比如颜色、材料等。
-
关系推理(relationship reasoning):包含 76 个图像,要求模型识别图像中两个物体的空间关系。
如下图 Figure 8 所示为评估集中的一些实例,第一行为属性识别,第二行为关系推理:
四、实验评估
4.1. V* Bench 评估
如下图 Table 1 所示,使用 Vicuna-7B 模型作为语言模型,人类水平接近满分,而之前的 LMM 模型评分都很低,甚至接近随机水平,而本文的 SEAL 相比之前的模型大幅领先,甚至大幅超越 GPT-4V:
4.2. 消融实验
作者验证了各种组件的影响,可见 VWM 和 V* 搜索算法都很有帮助:
作者同时评估了不同搜索算法的搜索步长,提出的 LLM 引导的视觉搜索算法使用了最少的步长,相应的效率也更高:
4.3. 多模态基准评估
如下图 Table 5 所示,作者结合多种多模态基准对 LLaVA 和本文的 SEAL 进行了评估,SEAL 在 V* Bench 和 MME、PoPE 上都大幅领先,在 MMBench 和 SEED-Bench(Img)上相当,但是在 MM-Vet 和 LLaVAw 上差距较大,这可能因为它们的规模较小或者使用基于 GPT4 的评估方法,可能带来不确定性和潜在的偏差:
4.4. PS 补充
作者论文中提供的评估对比比较少,此外很多模型效果也已经超过 LLaVA,因此我们进一步结合之前的数据进行对比,可见模型在很多任务上还有进一步提升的空间(也可能和训练数据有关):
如下图为 POPE 指标,很多任务使用更大模型也获得了很大的提升,比如 SPHINX:
五、参考链接
-
https://api.ibos.cn/v4/weapparticle/accesswximg?aid=78681&url=aHR0cHM6Ly9hcnhpdi5vcmcvYWJzLzIzMTIuMTQxMzU=
-
https://api.ibos.cn/v4/weapparticle/accesswximg?aid=78681&url=aHR0cHM6Ly9naXRodWIuY29tL1RlbmNlbnRBUkMvUGhvdG9NYWtlci90cmVlL21haW4=