近日,高通宣布与 Meta 正在合作优化 Meta Llama 2 大语言模型直接在终端侧的执行,不依赖于云服务的单独使用。这将使 Meta Llama 2 大语言模型从 2024 年开始能够在智能手机、PC、VR/AR 头显和汽车等终端上运行。
高通计划支持基于 Llama 2 的终端侧 AI 部署,以赋能打造激动人心的全新 AI 应用。如果大型语言模型可以在手机上运行,而不是在大型数据中心运行,它可以降低运行人工智能模型的巨大成本,并为用户提供更加私密、可靠和个性化的体验。
07020.jpg

  高通将在高通设备上提供 Meta 的开源 Llama 2 型号,将支持智能虚拟助手等应用程序。Meta Llama 2 可以做许多与 ChatGPT 相同的事情,但它可以打包在一个较小的程序中,这允许它在手机上运行。
  高通的芯片包括一个“张量处理器单元”或 TPU,非常适合人工智能模型所需的各种计算。然而,与配备尖端 GPU 的数据中心相比,移动设备上可用的处理能力相形见绌。
Meta Llama 之所以引人注目,是因为 Meta 发布了它的“权重”,这是一组有助于控制特定 AI 模型如何工作的数字。这样做将允许研究人员和最终的商业企业在自己的计算机上使用人工智能模型,而无需征得许可或付费。其他值得注意的 LLM,如 OpenAI 的 GPT-4 或 谷歌 Bard,都是闭源的,它们的权重是保密的。
  高通过去曾与 Meta 密切合作,特别是在其 Quest VR 设备的芯片上。它还演示了一些在其芯片上运行缓慢的人工智能模型,例如开源图像生成器 Stable Diffusion。
文章来源: 新浪VR
我看AR登载此文出于传递更多信息的目的,并不代表本站观点,如有侵权请联系删除