当前位置: 首页 > news >正文

论文阅读:BLIPv1 2022.2

文章目录

    • 一、研究背景与问题
      • 现有方法的局限性
      • 研究目标
    • 二、核心方法与创新点
      • 多模态编码器 - 解码器混合架构(MED)
      • 标题生成与过滤(CapFilt)数据自举方法
    • 三、实验与结果
      • 数据集与训练配置
      • 关键实验发现
      • 与 state-of-the-art 方法的对比
    • 四、结论与未来方向
      • 主要贡献
      • 未来方向
    • 五、资源与代码

论文题目:BLIP: Bootstrapping Language-Image Pre-training for
Unified Vision-Language Understanding and Generation
论文链接:https://arxiv.org/pdf/2201.12086

一、研究背景与问题

本文主要针对现有多模态的来个两个缺点展开。

现有方法的局限性

  • 模型层面:大多数视觉 - 语言预训练(VLP)模型要么基于编码器(如 CLIP),适合理解任务但难以直接用于文本生成;要么基于编码器 - 解码器架构,在图像 - 文本检索等理解任务上表现不佳。
  • 数据层面:现有方法依赖从网络收集的图像 - 文本对,这些数据含有大量噪声,影响模型学习视觉 - 语言对齐的效率。

研究目标

提出一个能同时处理理解与生成任务的统一 VLP 框架,并有效利用噪声网络数据。

二、核心方法与创新点

多模态编码器 - 解码器混合架构(MED)

Multimodal mixture of Encoder-Decoder

  • 三种功能模式
    • 单模态编码器(unimodal encoder):分别编码图像和文本,通过图像 - 文本对比损失(ITC)对齐特征空间。
    • 基于图像的文本编码器(image-grounded text encoder):插入交叉注意力层建模视觉 - 语言交互,通过图像 - 文本匹配损失(ITM)区分正负样本。
    • 基于图像的文本解码器(image-grounded text decoder):将双向自注意力替换为因果自注意力,通过语言建模损失(LM)生成图像描述。

该模型与三个视觉语言目标共同进行预训练,即图像-文本对比学习(image-text contrastive learning), 图像-文本匹配(image-text learning), 图像-条件语言建模(image-conditional language modeling)。

  • 参数共享策略:文本编码器与解码器共享嵌入层、交叉注意力层和前馈网络,仅自注意力层独立,提升训练效率。

三个任务相关的算法模型框架图:
在这里插入图片描述

标题生成与过滤(CapFilt)数据自举方法

一种新的数据集 bootstrapping 的方法。可以用于从噪声图像-文本对中学习。将预训练的 MED 微调为两个模块:一个是给定网络图像产生合成标题的 captioner, 另一个是去除原始网络文本和合成文本中噪声标题的 Filter.

  • 流程
    • 标题生成器(Captioner):基于 MED 解码器,为网络图像生成合成标题。
    • 过滤器(Filter):基于 MED 编码器,移除原始网络文本和合成标题中的噪声样本。
  • 优势:通过自举提升数据质量,生成更多样化的标题,增强模型对视觉 - 语言对齐的学习。

数据清洗框架图:
在这里插入图片描述

三、实验与结果

数据集与训练配置

  • 预训练数据:包含 COCO、Visual Genome 等人工标注数据集,以及 Conceptual Captions、LAION 等网络数据集,总计 14M 至 129M 图像。
  • 模型配置:基于 ViT-B/16 和 ViT-L/16 视觉编码器,文本编码器基于 BERT。

关键实验发现

  • CapFilt 的有效性:同时使用标题生成器和过滤器可显著提升下游任务性能。例如,在 COCO 图像 - 文本检索中,平均召回率 @1 提升 2.7%,图像标题生成的 CIDEr 分数提升 2.8%。
  • 合成标题的多样性:采用核采样(nucleus sampling)生成的多样化标题比波束搜索更有效,尽管噪声率更高,但引入了更多新信息。
  • 参数共享的影响:文本编码器与解码器共享非自注意力层可优化性能,而标题生成器与过滤器共享参数会因确认偏差降低效果。

与 state-of-the-art 方法的对比

  • 图像 - 文本检索:在 COCO 和 Flickr30K 上,BLIP 以更少的预训练数据(14M)超越 ALBEF、CLIP 等方法,零样本迁移至视频 - 文本检索时性能显著优于现有模型。
  • 图像标题生成:在 NoCaps 和 COCO 上,BLIP 的 CIDEr 和 SPICE 分数超过 VinVL、LEMON 等方法,且无需预训练目标检测器。
  • 视觉问答(VQA)与自然语言视觉推理(NLVR²):BLIP 在 VQA 测试集上比 ALBEF 提升 1.6%,在 NLVR² 上接近最优性能。
  • 零样本视频 - 语言任务迁移:直接将图像训练的模型应用于视频 - 文本检索和视频问答,性能超越专门针对视频设计的模型。

四、结论与未来方向

主要贡献

BLIP 通过统一的 MED 架构和 CapFilt 数据自举方法,实现了视觉 - 语言理解与生成任务的高性能统一,在多个下游任务上达到 state-of-the-art。

未来方向

  • 多轮数据自举。
  • 单图像多合成标题生成。
  • 模型集成等,进一步提升模型性能。

五、资源与代码

论文提供了预训练模型、代码和自举数据集,支持后续研究。

http://www.lqws.cn/news/603343.html

相关文章:

  • 使用 StatsD 向 TDengine 写入
  • Python应用指南:利用高德地图API获取公交+地铁可达圈(三)
  • 黑马python(二十三)
  • 【王阳明代数集合代数基础】文化资本理论实体意气感知评定亲疏情感偏序集,实例《临江仙》讲解情感分析之数据结构的演变
  • LL面试题11
  • 【Python】numpy数组常用数据处理(测试代码+api例程)
  • Git 运行.sh文件
  • 2025 推理技术风向标:DeepSeek-R1 揭示大模型从 “记忆” 到 “思考” 的进化路径
  • 基于SpringBoot + HTML 的网上书店系统
  • JavaEE线程概念
  • Yolov7训练自己的数据集和ONNX/TRT部署
  • MongoDB 常用增删改查方法及示例
  • C++ 快速回顾(六)
  • 数据结构与算法 第二章 线性表
  • CMS、OA、CRM、ERP 是什么意思?区别在哪里
  • CentOS Stream 下 Nginx 403 权限问题解决
  • 大模型-分布式论文一瞥
  • 植物small RNA靶基因预测软件,psRobot
  • Reactor ConnectableFlux支持多订阅者
  • RabbitMQ:消息队列的轻量级王者
  • 顶级SCI极光优化算法!PLO-Transformer-GRU多变量时间序列预测,Matlab实现
  • ChatGPT + GitHub Copilot + Cursor 实战提升编程效率
  • 量化选股策略 聚宽
  • 【硬核拆解】英伟达Blackwell芯片架构如何重构AI算力边界?
  • 【C++】头文件的能力与禁忌
  • BFD故障检测技术之概述
  • 【ArcGIS】矢量数据的叠加分析
  • 类加载生命周期与内存区域详解
  • 胖喵安初 (azi) Android 应用初始化库 (类似 Termux)
  • 物联网数据洪流下,TDengine 如何助 ThingLinks 实现 SaaS 平台毫秒级响应?