Logo

SemiVoice

  • 从All-in-One IP到Cervell™:Semidynamics如何以RISC-V重塑AI计算架构

    semiwiki

    05/26/2025, 01:00 PM UTC

    ➀ Semidynamics推出的Cervell™将CPU、矢量单元和张量引擎集成于单一RISC-V架构NPU,消除外部CPU依赖与性能瓶颈;

    ➁ 通过共享内存模型和RISC-V开放指令集,该架构支持从边缘IoT设备到数据中心(最高256 TOPS算力)的弹性扩展;

    ➂ Cervell突破传统NPU限制,以可编程性、任务内聚执行和简化的软件栈重构AI开发范式。

    在人工智能工作负载日益复杂化、多样化的背景下,Semidynamics近日发布革命性产品Cervell™——一款基于RISC-V指令集的全可编程神经处理器(NPU)。该架构通过三个关键技术突破重新定义了AI计算的边界:

    首先,Cervell首次将控制逻辑(CPU)、矢量单元(256位矢量引擎)和Tensor Core(张量计算单元)整合于单一芯片实体。这种硬件层级的融合消除了传统异构架构中常见的数据搬运瓶颈,通过共享寄存器文件和内存系统,使矩阵运算与条件判断能在同一时钟周期内完成。例如Transformer模型中的动态控制流,过去需要在CPU和加速器之间反复切换,现在则可在一个指令流水线内完成。

    其次,其RISC-V开放生态赋予开发深度定制能力。客户可基于自定义指令扩展(如添加稀疏矩阵运算指令)、调整缓存层级(支持2MB至64MB L2缓存),甚至修改预测执行逻辑。这种灵活性在AI芯片领域具有战略意义:企业能针对推荐系统、自动驾驶等垂直场景打造差异化架构,避免被封闭的专用ASIC方案锁定。

    性能扩展性方面,Cervell提供C8到C64多级配置。入门级C8版本仅需0.5W即可实现8 TOPS能效,适合嵌入式设备;而C64集群方案通过芯片级互连(CXL 3.0)可扩展至256 TOPS,满足数据中心推理需求。架构师可通过参数化工具链快速生成从40nm到5nm制程的设计衍生品。

    软件生态是另一大亮点。Semidynamics提供统一的LLVM编译框架,支持TensorFlow/PyTorch模型直接映射到混合计算单元。开发者无需针对不同计算模块编写单独内核,Cervell的硬件调度器会自动将矩阵乘加、激活函数等操作分解至张量核心,而复杂控制流则由内置的12级超标量RISC-V CPU处理。

    从商业视角看,这种架构正挑战传统AI加速器市场的游戏规则。头部云服务商可借RISC-V开放性绕过NVIDIA CUDA生态壁垒,汽车制造商则能定制符合ISO 26262功能安全的自动驾驶芯片。据测试数据显示,在处理动态分辨率视觉模型时,Cervell相较传统NPU方案降低延迟达47%。

    深层次的技术革新背后,是Semidynamics从IP模块供应商向系统级解决方案提供商的战略转型。Cervell不仅整合了其积累多年的矢量处理单元(支持BF16/FP8精度自适应)和可扩展互连技术(AIB 2.0),更通过统一内存架构解决了存算分离的行业痛点。这种‘全栈式’设计思维,或许正在为后摩尔定律时代的AI芯片开辟新范式。

    ---

    本文由大语言模型(LLM)生成,旨在为读者提供半导体新闻内容的知识扩展(Beta)。

Related Articles (CSV)

SemiVoice 是您的半导体新闻聚合器,探索海内外各大网站半导体精选新闻,并实时更新。在这里方便随时了解最新趋势、市场洞察和专家分析。
📧 [email protected]
© 2025