当前位置: CompoTech China > 业界资讯 >
 

IBM 推出全新Telum处理器,依托新一代 IBM Z 大型主机加速 AI 应用

本文作者:IBM       点击: 2024-08-29 16:52
前言:
•新一代IBM Telum II 处理器和 IBM Spyre 加速器可解锁更多企业级 AI 能力,包括大语言模型和生成式 AI •先进的 I/O 技术实现并简化可扩展的 I/O 子系统,进一步降低能耗和数据中心占地面积
2024年8月29日--近日,IBM(纽约证券交易所:IBM)在 Hot Chips 2024大会上公布了即将推出的 IBM Telum® II 处理器和 IBM Spyre™ 加速器的架构细节。这些新技术旨在大幅扩展下一代 IBM Z 大型主机系统的处理能力,通过新的 AI 集成方法,加速企业对传统 AI 模型和大语言 AI 模型的协同使用。
IBM 推出全新Telum处理器,依托新一代 IBM Z 大型主机加速 AI 应用 

随着基于大语言模型的 AI 项目从概念验证阶段进入生产阶段,企业对高能效、高安全性和高度可扩展解决方案的需求日益迫切。摩根士丹利最近发布的一份研究报告预测,在未来几年,生成式 AI 的电力需求将以每年 75% 的速度激增,其 2026 年的能耗或将与西班牙 2022 年的全年能耗相当。许多 IBM 客户表示,支持适当规模的基础模型和针对 AI 工作负载的混合架构越来越重要。

此次IBM发布的主要创新技术包括:
•IBM Telum II 处理器:这一全新芯片将搭载于下一代 IBM Z 系列主机,与第一代 Telum 芯片相比,其频率和内存容量均有提升,高速缓存提升40%;集成 AI 加速器内核和数据处理单元 (DPU) 的性能也得到改善。IBM Telum II处理器将支持大语言模型驱动的企业计算解决方案,满足金融等行业的复杂交易需求。
•IO 加速单元:Telum II 处理器芯片上的全新数据处理单元 (DPU) 旨在加速大型主机上用于联网和数据存储的复杂 IO 协议,可简化系统操作,提高关键组件性能。
•IBM Spyre加速器:可提供额外的AI计算能力,与 Telum II 处理器相得益彰。Telum II 和 Spyre 芯片共同构成了一个可扩展的架构,可支持AI集成建模方法,即将多个机器学习或深度学习的AI模型与基于编码器的大语言模型相结合。通过利用每个模型架构的优势,AI集成的方法可以生成比单个模型更准确、更稳健的结果。Spyre 加速器芯片在 Hot Chips 2024 大会期间进行了预览,并将作为Telum II 处理器的附加选件提供。每个加速器芯片均与IBM 研究院合作开发,通过一个 75 瓦 PCIe 适配器连接。与其他 PCIe 卡一样,Spyre 加速器可根据客户需求进行扩展。

IBM主机和 LinuxONE 产品管理副总裁 Tina Tarquinio 表示:"得益于IBM强大的多代并行的开发路线图,我们得以在保持技术领先的同时,满足企业不断升级的 AI 需求。Telum II 处理器和 Spyre 加速器旨在提供安全、节能、高性能的企业计算解决方案。这些多年研发的创新成果将被引入下一代 IBM Z 平台,帮助客户大规模利用大语言模型和生成式 AI技术。"

Telum II 处理器和 IBM Spyre 加速器将由 IBM 的长期合作伙伴三星晶圆代工(Samsung Foundry)生产,采用其高性能、高能效的 5 纳米工艺节点。二者将共同支持企业的先进AI 用例,释放业务价值,从而创造新的竞争优势。利用AI集成的方法,客户可以更快、更准确地获得预测结果。适用的生成式 AI用例包括:
•保险理赔欺诈检测:通过AI集成方法将大语言模型与传统神经网络相结合,以提高性能和准确性,增强对保险理赔欺诈的检测。
•反洗钱高级监测:对可疑金融活动进行高级检测,支持遵守监管要求并降低金融犯罪风险。
•AI 助手:加速应用生命周期、知识和专业技能的传授、代码解释和转换等。

规格和性能指标:
•Telum II 处理器:配备八个运行频率达 5.5GHz的高性能内核,每个内核配备 36MB二级高速缓存,片上高速缓存容量增加 40%(总容量达 360MB)。每个处理器抽屉的虚拟 L4 高速缓存为 2.88GB,相比上一代增加 40%。集成的 AI 加速器可实现低延迟、高吞吐量的交易中 AI 推理,例如增强金融交易期间的欺诈检测,并且每块芯片的计算能力是上一代的四倍。

Telum II 芯片中集成了最新的 I/O 加速单元 DPU。在设计上,其I/O 密度提高 50%,可大幅提高数据处理能力,进一步提高 IBM Z 的整体效率和可扩展性,使其成为处理大规模AI工作负载和数据密集型应用的不二之选。 

•Spyre 加速器:这是一款专为复杂 AI 模型和生成式 AI 用例提供可扩展功能的企业级加速器。它有高达 1TB 的内存,可在普通 IO 抽屉的八块卡上串联工作,以支持大型主机的整体 AI 工作负载,同时每块卡的功耗不超过 75W。每块芯片由 32 个计算内核组成,支持 int4、int8、fp8 和 fp16 数据类型,适用于低延迟和高吞吐量的 AI 应用。

产品时间表
作为 IBM 下一代 IBM Z 和 IBM LinuxONE 平台的中央处理器,Telum II 处理器预计在 2025 年向 IBM Z 和 LinuxONE 客户提供。IBM Spyre 加速器仍在技术预览阶段,预计也将于 2025 年推出。

关于 IBM 未来方向和意向的声明可能会随时更改或撤销,恕不另行通知。

访问下方链接了解更多:

关于IBM

IBM 是全球领先的混合云、人工智能及企业服务提供商,帮助超过 175 个国家和地区的客户,从其拥有的数据中获取商业洞察,简化业务流程,降低成本,并获得行业竞争优势。金融服务、电信和医疗健康等关键基础设施领域的超过 4000 家政府和企业实体依靠 IBM 混合云平台和红帽 OpenShift 快速、高效、安全地实现数字化转型。IBM 在人工智能、量子计算、行业云解决方案和企业服务方面的突破性创新为我们的客户提供了开放和灵活的选择。对企业诚信、透明治理、社会责任、包容文化和服务精神的长期承诺是 IBM 业务发展的基石。了解更多信息,请访问:https://www.ibm.com/cn-zh