2025年10月,高通技术公司正式宣布推出基于Qualcomm AI200与AI250芯片的加速卡及机架系统,标志着这家移动芯片巨头强势进军数据中心AI推理市场。
产品特性
●差异化产品配置:AI200解决方案专为机架级AI推理打造,每张加速卡支持768GB的LPDDR内存,实现高内存容量与低成本的最佳平衡。而AI250解决方案则首次采用基于近内存计算的创新内存架构,实现超过10倍的有效内存带宽提升并显著降低功耗。
●高效散热系统:两款机架解决方案均配备直接液冷技术,极大提升散热效率,单机架功耗高达160千瓦,为高密度计算提供可靠的热管理保障。
●灵活扩展架构:支持PCIe垂直扩展与乙太网络横向扩展,满足不同规模数据中心的部署需求。AI250还支持分離式AI推論,进一步提升硬件资源利用效率。
●安全可靠保障:具备机密运算功能,确保AI工作负载的安全性,为敏感数据处理提供硬件级保护。

●完整软件生态:提供超大规模等级的AI软件堆栈,覆盖从应用层到系统软件层的端到端架构,支持主流机器学习框架和推理引擎。
产品优势
●卓越成本效益:高通AI200与AI250解决方案以业界先进的总体拥有成本(TCO) 为核心优势,通过优化的硬件设计和高效的能源利用,为客户提供显著的长期投资回报。高通技术公司高管强调,这些解决方案能让客户"以前所未有的总體擁有成本部署生成式AI"。
●能效表现突出:凭借在移动芯片领域积累的低功耗技术优势,高通将能效管理专长成功迁移至数据中心场景。AI250通过近内存计算架构大幅降低功耗,为AI推理工作负载带来能效与性能的跨越性提升。
●部署灵活性高:解决方案支持从独立组件、服务器加速卡到完整机柜方案的多种交付形式,适配不同客户的硬件环境与业务需求。这种模块化设计使客户能够根据实际工作负载灵活扩展算力。
●简化模型部署:软件栈支持与主流AI框架的无缝兼容,提供一键式模型部署功能,开发者可通过高通的高效Transformers Library与AI Inference Suite,轻松集成并部署Hugging Face等平台的模型。
应用领域
●大语言模型与多模态模型推理:AI200与AI250解决方案专为LLM与LMM推理工作负载优化,能够高效支持当前流行的生成式AI应用,包括智能对话、内容生成等场景。
●企业级生成式AI部署:凭借低TCO优势,这两款解决方案非常适合有大规模AI推理需求的企业,帮助它们以更低的总拥有成本部署生成式AI服务。
●云服务提供商基础设施:支持PCIe垂直扩展与乙太网络横向扩展的架构设计,使云服务商能够灵活配置算力资源,满足不同客户群体的多样化需求。
●AI初创公司算力建设:沙特支持的AI创业公司Humain已计划从2026年开始部署200兆瓦的高通新型AI机架,这表明高通的解决方案正获得新兴AI企业的认可。
●边缘计算与云端协同场景:高通在端侧AI的地位与云端AI芯片形成互补,为需要"云边端协同"的AI应用提供全栈式解决方案。
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行删除。