当前位置: CompoTech China > 业界资讯 >
 

Arm 为无处不在的 AI 奠定技术基础

本文作者:Arm       点击: 2024-09-12 14:16
前言:
作为人工智能 (AI) 的创新基础,众多企业都在使用通用且应用广泛的 Arm 计算平台。迄今为止,合作伙伴基于 Arm 架构的芯片出货量已超过 2,900 亿颗。如今,Arm 已为各类技术领域的 AI 应用提供支持,这也是为何 AI 的技术先行者们能够基于 Arm 平台快速创新的关键原因。

无论是现在还是未来,Arm 平台都是 AI 运行的基石。若要满足对 AI 技术和应用的旺盛需求,则必须在计算领域的方方面面实现无处不在的 AI 功能。从使用无数处理器训练大语言模型 (LLM) 的大型数据中心,到全球数字消费者每天接触边缘 AI 的电子设备,计算领域的方方面面都有 AI 的身影。

高效的 AI 计算

若要满足 AI 对高算力的需求,则少不了对高效计算性能的投入。生成式 AI 的发展推动了对 AI 算力和资源的需求空前增长。一名荷兰研究人员指出,如果一年内每次使用 Google 进行搜索都运用到 AI,其所需的电力相当于爱尔兰全国一年的用电量。长远来看,考虑到地球上资源有限,这种方法是难以为继的。

Arm 提供了计算性能和能效的卓越组合,推动了智能手机领域的技术革新,而同样的趋势也正发生在 AI 革新中。

数据中心中的 AI

头部超大规模服务运营商正采用定制芯片战略,来进行数据中心转型,以迎接 AI 时代。

软银公司正在与 NVIDIA 合作,建设全球首座采用基于 Arm 架构的 Grace Hopper 超级芯片的 5G AI 数据中心。这一突破性的 AI 加速 CPU 专为超大规模 AI 和高性能计算应用而设计。Grace Hopper 基于 72 颗 Arm Neoverse V2 核心打造,在 AI 的高负荷任务中实现了 10 倍的性能飞跃,同时大幅提高了每瓦性能。微软则在此前发布了其首款专为云计算打造的定制芯片 Azure Cobalt 100 处理器,该处理器基于 Arm Neoverse CSS N2 打造。此外,基于 Arm Neoverse 平台的 AWS Graviton3 可以使 AI 推理(使用训练后的模型对新的真实数据进行预测的过程)的成本节约 50%。

在数据中心中约有 85% 的 AI 工作负载用于运行推理,其驱动了各种用例、行业和设备的 AI 应用,因此企业有巨大的动力来降低相关的能源消耗和成本。

边缘 AI

除了数据中心和云服务,许多 AI 工作负载还需要在设备上进行处理,以便更有效地分布 AI 工作负载。

在设备上处理 AI 工作负载已经成为现实,无论是智能手机、智能家居设备还是智能汽车,这一趋势将继续增长,特别是随着大语言模型 (LLM) 变得更加高效,并针对特定任务、用例或设备而专门打造。直接在采集数据的设备上处理 AI 计算,可以带来更快、更安全的用户体验并减少延迟,这对于工业和汽车应用等对安全性要求很高的用例来说至关重要。

开发者正在编写更精简的 AI 模型,以在小型微处理器甚至更小的微控制器上运行,从而节省能源、时间和成本。例如,Plumerai 提供的软件解决方案可在基于 Arm Cortex-A 和 Cortex-M 的系统级芯片 (SoC) 上加速神经网络,并在基于 Arm 架构的微控制器上运行略高于 1MB 的 AI 代码,其可执行面部检测和识别等功能。

基于处理器技术的 AI

无论是由 CPU 处理全部 AI 工作负载,还是由 GPU 或 NPU 等协处理器提供支持,AI 处理始于 CPU。

过去十年间,Arm 的 CPU 和 GPU 的 AI 处理能力每两年就实现翻番,目前 70% 的第三方应用中的 AI 都基于 Arm CPU 运行,在关键技术市场中推动了边缘 AI 的显著发展。

基于 Armv9 CPU 和 GPU 技术打造的高性能 AI 手机现已问世,其中包括搭载 MediaTek 天玑 9300 的 vivo X100 和 X100 Pro 智能手机,以及 Google Pixel 8,这是首款专为 Google 的 AI 模型 Gemini Nano 进行工程研发的智能手机,可在边缘执行一系列 AI 的任务。与此同时,超过 200 亿个基于 Arm 架构的 SoC 能够运行各种物联网设备上广泛的 ML 工作负载,包括基于 Cortex-M 处理器、Arm Ethos-U NPU 和 Cortex-A CPU 打造的设备。而在汽车领域,如今的车用芯片可实现基本的 AI 功能,如障碍物检测、3D 视图和简单的传感器融合,这些功能都在 Arm CPU 上运行。下一代基于 AI 的汽车功能,如先进驾驶辅助系统 (ADAS) 和自动驾驶功能,也基于 Arm CPU 而构建。

全球最大的开发者社区

Arm 持续的软件投入正建立起全球最大的 AI 开发者社区。

Arm 致力于以最常见的方式让开发者能够更简单、更快速、更安全地进行编码,携手实现无处不在的 AI。如今,超过一亿用户可以使用 Arm NN 软件开发工具包,在 Arm CPU 和 GPU 上优化 ML 工作负载。对于全球 1,500 万 Arm 架构设备开发者来说,这使他们能够运行复杂的 AI 和 ML 工作负载,确保将应用更快地推向市场。

Arm 在其业界领先的生态系统中开展了一系列合作,以使其对开发者的 AI 承诺付诸实践。此外,Arm还通过开源框架和库,为基于 Arm 架构的硬件提供强大的 ML 功能,为开发者提供全方位支持,包括 TensorFlow、PyTorch、Caffe 2、OpenVINO 和 TVM,从而为开源社区打造 AI 创新基础。

写在最后
AI 为下一个技术创新奠定了基础,引领社会进入一个潜力非凡的新时代。而实现这一切的前提正是让 AI 无处不在。这不仅意味着要在云端、数据中心和超级计算机中实现 AI,还要确保复杂的 AI 工作负载能够在更小、更受限的边缘技术和设备上运行。能效与性能对于推动边缘 AI 的发展同等重要。

Arm 正在促成这一目标。Arm提供了应用广泛的通用计算平台,赋能边缘设备和其他领域的各种可能性。无论是 CPU、GPU、ISP 还是 NPU,Arm 在每一代产品中都增加了更多 AI 性能、效率功能及安全特性,同时还为合作伙伴提供了多样的灵活性,使它们能够集成和开发自己的创新解决方案。而在软件、工具和生态系统方面,IP 与开源软件和工具乃至广泛的行业领先生态系统相结合,让全球上千万开发者都可以使用 Arm 计算平台作为 AI 创新的基础。从传感器、智能手机,到工业级物联网、汽车和数据中心,基于 Arm 平台的 AI 无处不在。