为您查询到 篇文章
近日,由颜水成教授带队,昆仑万维2050 全球研究院、新加坡国立大学、新加坡南洋理工大学团队联合发布并开源了Vitron 通用像素级视觉多模态大语言模型。
这是一款重磅的通用视觉多模态大模型,支持从视觉理解到视觉生成、从低层次到高层次的一系列视觉任务,解决了困扰大语言模型产业已久的图像/视频模型割裂问题,提供了一个全面统一静态图像与动态视频内容的理解、生成、分割、编辑等任务的像素级通用视觉多模态大模型,为下一代通用视觉大模型的终极形态奠定了基础,也标志着大模型迈向通用人工智能(AGI)的又一大步。
Vitron 作为一个统一的像素级视觉多模态大语言模型,实现了从低层次到高层次的视觉任务的全面支持,能够处理复杂的视觉任务,并理解和生成图像和视频内容,提供了强大的视觉理解和任务执行能力。同时,Vitron 支持与用户的连续操作,实现了灵活的人机互动,展示了通向更统一的视觉多模态通用模型的巨大潜力。
Vitron 相关的论文、代码和 Demo已全部公开,其在综合性、技术创新、人机交互和应用潜力等方面展现出的独特优势和潜力,不仅推动了多模态大模型的发展,还为未来的视觉大模型研究提供了一个新的方向。
一直以来,昆仑万维2050全球研究院都致力于打造一家面向未来世界的卓越科学研究机构,与科学社区共同跨越“奇点”,探索未知世界,创造美好未来。此前,昆仑万维2050全球研究院已经发布并开源了数字智能体研发工具包AgentStudio,未来,研究院还将不断推动人工智能技术突破,为中国人工智能生态建设贡献力量。
当前视觉大语言模型(LLMs)的发展取得了喜人进展。社区越来越相信,构建更通用、更强大的多模态大模型(MLLMs)将会是通向通用人工智能(AGI)的必经之路。但在向多模态通用大模型(Generalist)的迈进过程中,目前仍存在一些关键挑战。比如很大一部分工作都没有实现细粒度像素级别的视觉理解,或者缺乏对图像和视频的统一支持。抑或对于各种视觉任务的支持不充分,离通用大模型相差甚远。
为了填补这个空白,近日,昆仑万维 2050 全球研究院、新加坡国立大学、新加坡南洋理工大学团队联合发布开源了 Vitron 通用像素级视觉多模态大语言模型。Vitron 支持从视觉理解到视觉生成、从低层次到高层次的一系列视觉任务,包括静态图像和动态视频内容进行全面的理解、生成、分割和编辑等任务。
上图综合描绘了 Vitron 在四大视觉相关任务的功能支持,以及其关键优势。Vitron 还支持与用户的连续操作,实现灵活的人机互动。该项目展示了面向更统一的视觉多模态通用模型的巨大潜力,为下一代通用视觉大模型的终极形态奠定了基础。
Vitron 相关论文、代码、Demo 目前已全部公开。
近年来,大语言模型(LLMs)展现出了前所未有的强大能力,其被逐渐验证为乃是通向 AGI 的技术路线。而多模态大语言模型(MLLMs)在多个社区火爆发展且迅速出圈,通过引入能进行视觉感知的模块,扩展纯语言基础 LLMs 至 MLLMs,众多在图像理解方面强大卓越的 MLLMs 被研发问世,例如 BLIP-2、LLaVA、MiniGPT-4 等等。与此同时,专注于视频理解的 MLLMs 也陆续面世,如 VideoChat、Video-LLaMA 和 Video-LLaVA 等等。
随后,研究人员主要从两个维度试图进一步扩展 MLLMs 的能力。一方面,研究人员尝试深化 MLLMs 对视觉的理解,从粗略的实例级理解过渡到对图像的像素级细粒度理解,从而实现视觉区域定位(Regional Grounding)能力,如 GLaMM、PixelLM、NExT-Chat 和 MiniGPT-v2 等。另一方面,研究人员尝试扩展 MLLMs 可以支持的视觉功能。部分研究已经开始研究让 MLLMs 不仅理解输入视觉信号,还能支持生成输出视觉内容。比如,GILL、Emu 等 MLLMs 能够灵活生成图像内容,以及 GPT4Video 和 NExT-GPT 实现视频生成。
目前人工智能社区已逐渐达成一致,认为视觉 MLLMs 的未来趋势必然会朝着高度统一、能力更强的方向发展。然而,尽管社区开发了众多的 MLLMs,但仍然存在明显的鸿沟。
上表简单地归纳了现有的视觉 MLLM 的能力(只代表性地囊括了部分模型,覆盖不完整)。为了弥补这些差距,该团队提出一种通用的像素级视觉 MLLM——Vitron。
Vitron 整体框架如下图所示。Vitron 采用了与现有相关 MLLMs 相似的架构,包括三个关键部分:1) 前端视觉&语言编码模块,2) 中心 LLM 理解和文本生成模块,以及 3) 后端用户响应和模块调用以进行视觉操控模块。
基于上述架构,再对 Vitron 进行训练微调,以赋予其强大的视觉理解和任务执行能力。模型训练主要囊括三个不同的阶段。
研究人员基于 Vitron 在 22 个常见的基准数据集、12 个图像/视频视觉任务上进行了广泛的实验评估。Vitron 展现出在四大主要视觉任务群组(分割、理解、内容生成和编辑)中的强大能力,与此同时其具备灵活的人机交互能力。以下代表性地展示了一些定性比较结果:
Results of image referring image segmentation
Results of image referring expression comprehension.
Results on video QA.
Text-to-Image Generation Text-to-Video generation Image-to-Video generation
Image editing results
具体更多详细实验内容和细节请移步论文。
总体上,这项工作展示了研发大一统的视觉多模态通用大模型的巨大潜力,为下一代视觉大模型的研究奠定了一个新的形态,迈出了这个方向的第一步。尽管团队所提出的 Vitron 系统表现出强大的通用能力,但依然存在自身的局限性。以下研究人员列出一些未来可进一步探索的方向。
Vitron 系统仍采用半联合、半代理的方式来调用外部工具。虽然这种基于调用的方法便于扩展和替换潜在模块,但这也意味着这种流水线结构的后端模块不参与到前端与 LLM 核心模块的联合学习。这一限制不利于系统的整体学习,这意味着不同视觉任务的性能上限将受到后端模块的限制。未来的工作应将各种视觉任务模块整合成一个统一的单元。实现对图像和视频的统一理解和输出,同时通过单一生成范式支持生成和编辑能力,仍然是一个挑战。目前一种有希望的方式是结合 modality-persistent 的 tokenization, 提升系统在不同输入和输出以及各种任务上的统一化。
与之前专注于单一视觉任务的模型(例如,Stable Diffusion 和 SEEM)不同,Vitron 旨在促进 LLM 和用户之间的深度交互,类似于行业内的 OpenAI 的 DALL-E 系列,Midjourney 等。实现最佳的用户交互性是本项工作的核心目标之一。Vitron 利用现有的基于语言的 LLM,结合适当的指令调整,以实现一定程度的交互。例如,系统可以灵活地响应用户输入的任何预期消息,产生相应的视觉操作结果,而不要求用户输入精确匹配后端模块条件。然而,该工作在增强交互性方面仍有很大的提升空间。例如,从闭源的 Midjourney 系统汲取灵感,不论 LLM 在每一步做出何种决定,系统都应积极向用户提供反馈,以确保其行动和决策与用户意图一致。
当前,Vitron 集成了一个 7B 的 Vicuna 模型,其可能对其理解语言、图像和视频的能力会产生某些限制。未来的探索方向可以发展一个全面的端到端系统,比如扩大模型的规模,以实现对视觉的更彻底和全面的理解。此外,应该努力使 LLM 能够完全统一图像和视频模态的理解。
[展开]