传统IP供应商深陷NPU困境,新架构GPNPU破局AI推理
06/11/2025, 05:00 PM UTC
传统IP供应商深陷NPU困境,新架构GPNPU破局AI推理Legacy IP Providers Struggle to Solve the NPU Dilemna
➀ 传统IP供应商因依赖外置矩阵加速器,面对Transformer等新型AI模型时架构已显过时;
➁ 慧荣科技Chimera GPNPU通过融合可编程ALU与矩阵引擎,统一支持2000余种AI算子运算;
➂ 该架构可扩展至864 TOPS算力,无需硬件改动即适配未来AI突破,突破传统厂商的技术与商业路径依赖。
➀ Legacy IP vendors face obsolescence due to reliance on external matrix accelerators ill-suited for modern AI models like transformers;
➁ Quadric's Chimera GPNPU integrates programmable ALUs and matrix engines, enabling unified processing of 2,000+ AI graph operators;
➂ The scalable architecture achieves 864 TOPS performance with no hardware changes needed for future AI innovations, bypassing legacy vendors' political/technical constraints.
在AI推理处理器IP领域,传统供应商正面临严峻的技术代际挑战。过去五年间,主流IP公司通过「CPU/DSP+矩阵加速器」的拼接方案应对早期机器学习负载,但随着Transformer等包含自注意力机制的新型模型崛起,这种切割算法的架构暴露出致命缺陷。 由于硬连线加速器仅支持有限算子,每次新型AI模型出现都迫使客户承担芯片流片成本。
慧荣科技(Quadric)推出的Chimera GPNPU采用革命性架构设计:在单核内紧密集成1024个可编程32位ALU与脉动阵列式矩阵引擎,实现指令级细粒度融合。这种「通用处理器+专用加速」的一体化设计消除了传统方案的数据传输瓶颈,可原生支持超2000种AI算子运算。测试数据显示,该架构在ResNet等传统模型的推理效率与拼接方案相当,但对Transformer类模型的处理性能提升达3-5倍。
架构创新带来显著扩展优势:单个Chimera核峰值算力可达864 TOPS(Int8),且保持MAC与ALU运算的吞吐均衡。这意味着即使未来出现新型AI算子,开发者仅需通过软件更新即可适配,无需硬件迭代。该设计成功规避了传统IP厂商面临的「创新者窘境」——既得利益产品线对新架构的内部抵制,以及向客户承认旧技术局限性的商业风险。
目前,Chimera GPNPU已在自动驾驶等前沿领域展开部署。行业分析指出,这种真正可编程的AI处理器架构可能重塑边缘计算市场格局,迫使老牌IP厂商重新评估其技术路线。
---
本文由大语言模型(LLM)生成,旨在为读者提供半导体新闻内容的知识扩展(Beta)。