高通推出新款 AI200 和 AI250 芯片,加入 AI 数据中心竞争

高通正式进军人工智能 (AI) 数据中心这个高风险领域,推出全新系列 AI 加速器芯片——AI200 和 AI250。

高通推出新款 AI200 和 AI250 芯片,加入 AI 数据中心竞争

高通公司正式进军竞争激烈的人工智能(AI)数据中心领域,发布了全新的AI加速芯片系列——AI200和AI250,以及配套的机架式服务器。此举标志着高通正大力挑战英伟达和AMD的市场主导地位,这两家公司的芯片目前为全球大部分AI驱动的计算基础设施提供动力。消息公布后,高通股价飙升超过15%,凸显了投资者对该公司业务多元化的兴奋之情,该公司正努力拓展其核心业务以外的领域,不再局限于其标志性的移动和无线半导体业务。

从移动处理器到人工智能强国

高通公司历来以智能手机芯片组而闻名,如今正将其专业技术应用于数据中心领域。计划于2026年发布的AI200和预计于2027年发布的AI250都大量采用了该公司自主研发的Hexagon神经网络处理单元(NPU)。 相应技术——其移动处理器中的关键组件。第三代芯片已在研发中,预计将于 2028 年推出,高通计划保持每年发布一款新芯片的节奏。

每个 AI 芯片都可以作为完整的液冷服务器机架的一部分进行部署,也可以作为独立硬件出售。该公司的全机架系统可以容纳多个加速器协同工作,堪比 Nvidia 为 OpenAI 的 GPT 等先进 AI 模型提供支持的大规模 GPU 集群。高通的设计允许可扩展的部署和灵活性;客户可以购买全套系统、选择组件,或将高通芯片集成到自己的定制系统中。

专注于推理效率和成本降低

高通的 AI200 和 AI250 针对 推理—运行人工智能模型的过程—而不是 测试 这项战略重点旨在满足云服务提供商对高效、经济的硬件的需求,以应对实际的人工智能任务。该公司声称,其新系统在能耗和总体拥有成本方面均具有优势,这对于正努力应对能源成本飙升的数据中心而言至关重要。

据报道,AI200 机架的运行功耗约为 160 千瓦,与高端 Nvidia GPU 配置类似,但承诺提供更高的能效。该公司还强调了创新的内存处理技术,将其作为一项差异化优势,其 AI 卡最高支持 768 GB 内存。AI250 将进一步提升标准,其内存带宽是 AI200 的十倍,以满足对更快 AI 模型执行速度日益增长的需求。

高通数据中心和边缘解决方案总经理杜尔加·马拉迪 (Durga Malladi) 指出,该公司的模块化设计方法意味着即使是英伟达 (Nvidia) 和 AMD 这样的竞争对手,也可能成为高通 CPU 等特定组件的客户。“我们的目标是让客户能够选择整个系统,或者随意进行混合搭配,”马拉迪解释道。

高通推出新款 AI200 和 AI250 芯片,加入 AI 数据中心竞争
高通推出新款 AI200 和 AI250 芯片,加入 AI 数据中心竞争

在万亿美元的市场中竞争

人工智能数据中心市场是增长最快的行业之一。 相应技术预计到2030年,全球数据中心投资额将达到6.7万亿美元。目前,英伟达控制着超过90%的人工智能半导体市场,这主要得益于市场对生成式人工智能工具的爆炸式需求。AMD已成为英伟达的主要挑战者,近期与OpenAI等公司达成协议,为其提供GPU。

高通的加入为市场增添了一位实力强劲的新玩家。其AI200和AI250服务器的目标客户是亚马逊、谷歌和微软等超大规模数据中心巨头——这些公司既是人工智能硬件的主要用户,也是自身芯片的开发商。竞争将异常激烈,但高通相信其在芯片创新和效率方面的卓越表现能够为其开辟出一片有利可图的市场。

战略转变与未来展望

这项新业务也标志着高通的战略转型,旨在减少对智能手机业务的依赖。高通第三季度10.4亿美元的营收中,智能手机业务约占6.3亿美元。进军AI基础设施领域有望开辟新的收入渠道,并降低与移动市场相关的波动性。

高通重返数据中心领域之前,曾在2017年短暂尝试过Centriq平台,但当时该平台在与英特尔和AMD的竞争中举步维艰。此后,该公司通过AI 100 Ultra卡等产品以及与沙特阿拉伯Humain等公司的合作等,改进了其战略。Humain计划部署高达200兆瓦的高通AI推理系统。

如果高通能够兑现其性能和效率承诺,AI200 和 AI250 或将帮助重新定义目前以英伟达和 AMD 为中心的行业力量平衡。目前,全球主要的云服务提供商和 AI 开发商将密切关注该公司数据中心雄心的进展。

上一篇文章

我的英雄学院:1-A级英雄排名详解

下一篇

《大力神之邦》:Jasmine Mas 著(书评)