苹果研究人员开发了一种训练大型语言模型的新方法

苹果公司的研究人员开发了一种训练大型语言模型(LLM)的新方法,可以无缝地整合文本和视觉信息。

image

该公司的发现详细载于一篇题为《MM1:多模式LLM预训的方法、分析和见解》的研究论文中,展示了一种创建更智能、更灵活的人工智能系统的新方法。苹果公司声称,通过利用包括图像-字幕对、交错的图像-文本文档和纯文本数据在内的各种数据集,MM1模型为人工智能高精度执行图像字幕、视觉问题回答和自然语言推理等任务的能力设定了新的标准。

苹果的研究重点是不同类型的训练数据和模型架构的组合,这使人工智能能够理解并基于视觉和语言线索生成语言。这种能力对于需要对世界有细微差别的理解的任务至关重要,例如解释复杂的图像或回答涉及视觉元素的问题。

文章还强调了MM1模型在上下文中的卓越学习能力,特别是在该模型的最大300亿参数配置中。这个版本显然展示了非凡的能力,可以使用极少的“思维链”提示在多个图像上进行多步推理,这是一种允许人工智能基于最少的例子执行复杂的开放式问题解决的技术。

上一篇

最新消息 苹果公司将于3月26日发布新款iPad?

下一篇

爆料:下一代iPad Air将配备一个横向前置摄像头
相关推荐
TrollStore|巨魔2卸载软件,导致App Store商店版软件无法安装?
苹果官宣:WWDC 2024主题发布会将于6月11日举行
iQOO Neo 9 Pro现身跑分平台 搭载联发科天玑9300
爆料:iPhone 16 Pro Max有类似于“古铜色调”的配色
新的机模图片流出 展示iPhone 16 Pro的3个配色
四款iPhone 17都将配备升级后的2400万像素前置摄像头
评论(0)
游客的头像
表情
全部评论 只看作者
最新热门
  1. 暂时还没有评论哦