英伟达 NVLM 1.0 引领多模态 AI 变革:媲美 GPT

作者:知识 来源:探索 浏览: 【】 发布时间:2024-10-21 11:44:19评论数:
英伟达 NVLM 1.0 引领多模态 AI 变革:媲美 GPT-4o,英伟M引不牺牲性能平衡文本和图像处理难题 2024年09月21日 11:53 IT之家 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间

IT之家 9 月 21 日消息,领多科技媒体 marktechpost 昨日(9 月 20 日)发布博文,模态报道了英伟达(Nvidia)最新发布的变革论文,介绍了多模态大语言模型系列 NVLM 1.0。媲美

多模态大型语言模型(MLLM)

多模态大型语言模型(MLLM)所创建的英伟M引 AI 系统,能够无缝解读文本和视觉数据等,领多弥合自然语言理解和视觉理解之间的模态差距,让机器能够连贯地处理从文本文档到图像等各种形式的变革输入。

多模态大型语言模型在图像识别、媲美自然语言处理和计算机视觉等领域拥有广阔应用前景,英伟M引改进人工智能整合和处理不同数据源的领多方式,帮助 AI 朝着更复杂的模态应用方向发展。

英伟达 NVLM 1.0

NVLM 1.0 系列包括 NVLM-D、变革NVLM-X 和 NVLM-H 三种主要架构。媲美每个架构都结合先进的多模态推理功能与高效的文本处理功能,从而解决了以往方法的不足之处。

NVLM 1.0 的一个显著特点是在训练过程中加入了高质量纯文本监督微调(SFT)数据,这使得这些模型在视觉语言任务中表现出色的同时,还能保持甚至提高纯文本性能。

研究团队强调,他们的方法旨在超越 GPT-4V 等现有专有模型和 InternVL 等开放式替代模型。

NVLM 1.0 模型采用混合架构来平衡文本和图像处理:

  • NVLM-D:纯解码器模型,以统一的方式处理两种模式,因此特别擅长多模式推理任务。

  • NVLM-X:采用交叉注意机制,提高了处理高分辨率图像时的计算效率

  • NVLM-H:混合了上述两种架构的优势,在保持文本推理所需的效率的同时,实现了更详细的图像理解。

Baidu
map