据品玩报道,Arxiv 页面显示,腾讯近日联手西安交通大学、香港大学共同发表论文,介绍了一款多模态大模型 VL-GPT。论文表示,VL-GPT 是一种能够同时感知和生成视觉与语言数据的转换器模型。通过采用直接的自动回归目标,实现了图像和文本模式的统一预训练方法,从而使该模型能够像语言模型处理文本一样无缝地处理图像和文本。
研究显示,VL-GPT 在各种视觉和语言理解与生成任务(包括图像字幕、视觉问题解答、文本到图像生成等)中都表现出了卓越的性能。
原文链接