Meta推出多式联运Llama 3.2-但不是在欧洲

2024-10-04 07:05:00 slator

本文共1802个字,阅读需5分钟

阅读模式 切换至双语

Meta于2024年9月25日发布了Llama 3.2,仅比Llama 3.1晚了两个月。这个新版本包括轻量级的纯文本模型(1B和3B)和能够处理文本和图像的更大的多模态模型(11B和90B)。 Llama 3.2扩展了3.1系列中引入的强大模型,使开发人员更容易使用高级人工智能工具。 1B和3B纯文本模型尤其迎合了可能缺乏大型模型所需计算能力的小型开发人员。这些型号是“同类产品中最先进的”,优于谷歌的Gemma 2 2B和微软的Phi-3.5 Mini等竞争对手。 这些模型还擅长多语言文本生成、摘要、指令跟踪和重写任务,所有这些都在移动和边缘设备上本地运行。 较大的多模态模型11B和90B处理和理解文本和图像,支持图像推理用例,诸如文档级理解(包括图表和图形)、图像字幕、视觉基础(例如,基于自然语言描述定位图像中的对象)。这些模型在图像理解方面优于Claude 3等竞争对手。 尽管Llama 3.2已经接受了多种语言的培训,但官方支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。 Llama 3.2型号可在llama.com和Hugging Face上下载,也可在AWS、Google Cloud、Groq、Microsoft Azure和NVIDIA等合作伙伴平台上立即开发。 虽然Llama 3.2为人工智能开发者提供了新的机会,但由于对GDPR合规性的担忧,其最强大的模型被限制在欧洲市场。Meta的可接受使用政策明确指出,在Llama 3.2中使用多式联运模型的权利不适用于“在欧盟注册的个人或主要营业地点在欧盟的公司”。 这一决定源于Meta在使用公共数据进行人工智能训练方面面临的欧盟数据保护机构的持续挑战。 今年5月,Meta宣布计划使用Facebook和Instagram用户的公开数据(包括帖子、照片、视频、故事和卷轴)来训练人工智能模型。私人帖子或消息被排除在训练数据之外,Meta为欧盟用户提供了一种选择退出数据共享的方式。 Meta全球宣传总监Stefano Fratta强调,如果不对欧盟用户公开共享的内容进行人工智能模型训练,这些模型将无法理解地区语言、文化或社会趋势,导致对欧洲用户的服务不足。 尽管Meta提前几个月通知了欧盟数据保护机构,但该公司被勒令在6月份之前暂停有关欧盟数据的培训。Meta创始人兼首席执行官马克·扎克伯格(Mark Zuckerberg)和Spotify创始人兼首席执行官丹尼尔·埃克(Daniel Ek)解释说,这并不是因为任何违反法律的行为,而是因为监管机构在如何适用法律方面缺乏共识。 虽然Meta仍然“非常有信心”其方法符合欧洲法律法规,但这种“监管不确定性”导致他们暂停了在欧盟各地成年人在Facebook和Instagram上分享的公共内容上训练大型语言模型(LLM)的计划,并且不在欧洲发布Llama 3.2多模态模型。 爱尔兰数据保护委员会和欧盟数据保护机构对Meta的决定表示欢迎。 Fratta将此描述为欧洲在人工智能发展方面的创新和竞争的“倒退”。扎克伯格和埃克呼吁制定“明确的规则”来指导企业,并警告说,如果没有“更明确的政策和一致的执行”,欧洲企业可能会“错过下一波技术投资和经济增长机会”。 对Llama 3.2的限制引发了开发者和人工智能爱好者的沮丧。许多人在社交媒体和论坛上对与这些尖端模型隔绝表示失望,特别是在其他地方仍然可以使用类似的基于视觉的人工智能工具的情况下。 一些人质疑为什么只有Meta的模型被屏蔽,要求提高透明度,而另一些人则敦促Meta与欧盟数据保护机构合作解决这一问题。 X上的一位用户表达了对欧洲竞争劣势的担忧,他表示:“这是技术进步的巨大倒退,因为某些国家可以获得更多最新技术并可以在此基础上进行开发。” 随着人工智能在其他地方的快速发展,人们对欧洲落后的担忧在Reddit讨论中显而易见,一位用户警告说,“如果欧盟不改变这一立场,欧盟将不再有多式联运模型。” LinkedIn的另一篇帖子呼应了这一观点,并指出,“虽然监管对于保护隐私至关重要,但我们需要明智的政策,让欧洲在不损害道德标准的情况下从尖端人工智能中受益。” 政策改革呼声愈演愈烈。一封由欧洲公司、研究人员和开发商签署的公开信敦促欧盟重新考虑其数据法律的方法,强调需要在监管和创新之间取得平衡。

以上中文文本为机器翻译,存在不同程度偏差和错误,请理解并参考英文原文阅读。

阅读原文