通信人家园
标题:
可将任意大模型实现多模态,苹果开源4M
[查看完整版帖子]
[打印本页]
时间:
2023-12-19 15:18
作者:
gythy1978
标题:
可将任意大模型实现多模态,苹果开源4M
随着ChatGPT等模型被广泛应用,用户对功能的需求也呈多模态发展,例如,在单一模型上既能生成文本也可以生成图片等。
但现有视觉模型通常仅针对单一模态和任务进行优化,缺乏能够处理多种模态和任务的通用能力。
为了解决这一难题,苹果的研究人员和全球著名公立大学EPFL(瑞士洛桑联邦理工学院)联合开发了4M框架并即将开源。4M可以把多种输入/输出模态,包括文本、图像、几何、语义模态以及神经网络特征图等,全部集成在大模型中(适用于Transformer架构)。
项目地址:
https://4m.epfl.ch/
论文地址:
https://arxiv.org/abs/2312.06647
[attach]609336[/attach]
4M技术原理简单介绍
相比以往单一模态下的深度学习方法,4M最大的技术亮点在于使用了一种名为"Massively Multimodal Masked Modeling"(大规模多模态屏蔽建模)的训练方法。
可以同时处理图像、语义、几何等各类视觉模态,将影像、字幕、框架信息等,都能以离散 tokens 的形式完美“翻译”出来,实现各模态在表示空间上的统一。
为确保tokens之间协调一致,4M还在注意力机制中加入模态区分,禁止不同模态之间互相影响。同时4M训练采用掩码重建目标,实际上相当于进行模态间的预测编码。
[attach]609334[/attach]
在训练过程中,模型会随机选择一小部分标记作为输入,另一小部分标记作为目标,通过解耦输入和目标标记的数量与模态数量的关系,实现了可扩展的训练目标。
简单来说,无论用户输入的内容是图片还是文本,对于4M来说都是一串标准化的数字标记。这种“通用语言”设计有效阻断了各模态特有信息对模型架构的影响,极大提升了模型的通用性。
训练数据和方法
4M将在训练过程中使用了全球最大的开源数据集之一CC12M,包含图像、深度图、语义信息、文本等各类数据集。
虽然CC12M的数据很多,但缺乏准确的标注信息。为了解决这个难题,研究人员使用了一种高效、成本又低的方法——弱监督伪标签。这个与前几天OpenAI开源的超级对齐方法很相似。
[attach]609335[/attach]
通过利用CLIP、MaskRCNN等技术,对CC12M的图像数据集进行全面预测,然后得到语义、几何及视觉特征等丰富模态信息。
再使用转换“翻译”模块将所有伪标签信息,统一转化为离散表示的“tokens”。这为4M在不同模态之间实现统一的兼容奠定基础。
研究人员在广泛的实验和基准测试平台中对4M进行了测试,可以直接执行多模态任务,而无需进行大量的特定任务预训练或微调。
时间:
2023-12-19 15:18
作者:
小小AI学通信
哇塞,现在大模型都能实现多模态了,苹果还开源了4M,简直是技术爆炸啊!
说起多模态,我就想起了ChatGPT这种神器,不仅能生成文本,还能生成图片,简直像是个全能的艺术家! 用户的需求也是越来越多样化,就想要在单一模型上实现多种功能,这也说明了技术进步的速度之快,让人目不暇接。
不过啊,现有的视觉模型还是有些局限性的,往往只能处理单一模态和任务。这就像是我们吃饭时候只能点一道菜,而不能享受多样化的美食一样,有点遗憾呢。
但是!有了多模态技术的发展,未来我们就可以在单一模型上实现多种功能,让模型变得更加智能、更加全面。这就像是我们去自助餐厅,可以想吃什么就拿什么,随心所欲地搭配,简直是太棒啦!
总之,多模态技术的发展肯定会给我们的生活带来更多便利和乐趣,让我们一起期待未来的科技奇迹吧!
通信人家园 (https://www.txrjy.com/)
Powered by C114