今天小编分享的科学经验:世界顶尖多模态大模型开源!又是零一万物,又是李开复,欢迎阅读。
允中 发自 凹非寺
量子位 | 公众号 QbitAI
领跑中英文两大权威榜单,李开复零一万物交出多模态大模型答卷!
距离其首款开源大模型 Yi-34B 和 Yi-6B 的发布,仅间隔不到三个月的时间。
模型名为 Yi Vision Language(Yi-VL),现已正式面向全球开源。
同属 Yi 系列,同样具有两个版本:
Yi-VL-34B 和 Yi-VL-6B。
先来看两个例子,感受一波 Yi-VL 在图文对话等多元场景中的表现:
Yi-VL 对整幅图做了详细分析,不仅说明了指示牌上的内容,甚至连 " 天花板 " 都有照顾到。
中文方面,Yi-VL 也能清晰有条理地准确表达:
此外,官方也给出了测试结果。
Yi-VL-34B 在英文数据集 MMMU 上准确率41.6%,仅次于准确率 55.7% 的 GPT-4V,超越一系列多模态大模型。
而在中文数据集 CMMMU 上,Yi-VL-34B 准确率36.5%,领先于当前最前沿的开源多模态模型。
Yi-VL 长啥样?
Yi-VL 基于 Yi 语言模型研发,可以看到基于 Yi 语言模型的强大文本理解能力,只需对图片进行对齐,就可以得到不错的多模态视觉语言模型——这也是 Yi-VL 模型的核心亮点之一。
在架构设计上,Yi-VL 模型基于开源 LLaVA 架构,包含三个主要模块:
Vision Transformer(简称 ViT)用于影像编码,使用开源的 OpenClip ViT-H/14 模型初始化可训练参数,通过学习从大规模 " 影像 - 文本 " 对中提取特征,使模型具备处理和理解影像的能力。
Projection 模块为模型带来了影像特征与文本特征空间对齐的能力。该模块由一个包含层归一化(layer normalizations)的多层感知机(Multilayer Perceptron,简称 MLP)构成。这一设计使得模型可以更有效地融合和处理视觉和文本信息,提高了多模态理解和生成的准确度。
Yi-34B-Chat 和 Yi-6B-Chat 大语言模型的引入为 Yi-VL 提供了强大的语言理解和生成能力。该部分模型借助先进的自然语言处理技术,能够帮助 Yi-VL 深入理解复杂的语言结构,并生成连贯、相关的文本输出。
△图说:Yi-VL 模型架构设计和训练方法流程一览
在训练方法上,Yi-VL 模型的训练过程分为三个阶段,旨在全面提升模型的视觉和语言处理能力。
第一阶段,使用 1 亿张的 " 影像 - 文本 " 配对数据集训练 ViT 和 Projection 模块。
在这一阶段,影像分辨率被设定为 224x224,以增强 ViT 在特定架构中的知识获取能力,同时实现与大型语言模型的高效对齐。
第二阶段,将 ViT 的影像分辨率提升至 448x448,让模型更加擅长识别复杂的视觉细节。此阶段使用了约 2500 万 " 影像 - 文本 " 对。
第三阶段,开放整个模型的参数进行训练,目标是提高模型在多模态聊天互动中的表现。训练数据涵盖了多样化的数据源,共约 100 万 " 影像 - 文本 " 对,确保了数据的广泛性和平衡性。
零一万物技术团队同时也验证了可以基于 Yi 语言模型强大的语言理解和生成能力,用其他多模态训练方法比如 BLIP、Flamingo、EVA 等快速训练出能够进行高效影像理解和流畅图文对话的多模态图文模型。
Yi 系列模型可以作为多模态模型的基座语言模型,给开源社区提供一个新的选项。同时,零一万物多模态团队正在探索从头开始进行多模态预训练,更快接近、超过 GPT-4V,达到世界第一梯队水平。
目前,Yi-VL 模型已在 Hugging Face、ModelScope 等平台上向公众开放,用户可亲身体验这款模型在图文对话等多元场景中的表现。
超越一系列多模态大模型
在全新多模态基准测试 MMMU 中,Yi-VL-34B、Yi-VL-6B 两个版本均有不俗表现。
MMMU(全名 Massive Multi-discipline Multi-modal Understanding & Reasoning 大规模多学科多模态理解和推理)数据集包含了 11500 个来自六大核心学科(艺术与设计、商业、科学、健康与医学、人文与社会科学以及技术与工程)的问题,涉及高度异构影像类型和交织文本影像信息,对模型的高级知觉和推理能力提出了极高要求。
而 Yi-VL-34B 在该测试集上以 41.6% 的准确率,成功超越了一系列多模态大模型,仅次于 GPT-4V(55.7%),展现出强大的跨学科知识理解和应用能力。
同样,在针对中文场景打造的 CMMMU 数据集上,Yi-VL 模型展现了 " 更懂中国人 " 的独特优势。
CMMMU 包含了约 12000 道源自大学考试、测验和教科书的中文多模态问题。
其中,GPT-4V 在该测试集上的准确率为 43.7%, Yi-VL-34B 以 36.5% 的准确率紧随其后,领先于当前最前沿的开源多模态模型。
项目地址:
[ 1 ] https://huggingface.co/01-ai
[ 2 ] https://www.modelscope.cn/organization/01ai
— 完 —
点这里关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
>